La cantidad de datos que se generan hoy en día es asombrosa y sigue creciendo. Apache Spark se ha convertido en la herramienta de facto para analizar Big Data y es ahora una parte fundamental de la caja de herramientas de la ciencia de datos. Actualizada para Spark 3.0, esta guía práctica reúne Spark, métodos estadísticos y conjuntos de datos del mundo real para enseñarle a abordar problemas analíticos utilizando PySpark, la API Python de Spark, y otras prácticas recomendadas en la programación de Spark.
Diseñado para guiarte por las técnicas de aprendizaje automático más relevantes y potentes utilizadas actualmente por los mejores científicos de datos, este libro es justo lo que necesitas para llevar tus algoritmos de Python al máximo potencial. Ejemplos claros y ejemplos de código detallados demuestran técnicas de aprendizaje profundo, aprendizaje semisupervisado y mucho más, todo ello mientras se trabaja con aplicaciones del mundo real que incluyen imágenes, música, texto y datos financieros.
El valor del Big Data se hace real cuando sus aplicaciones de IA, aprendizaje automático y análisis de datos intensivos entran en producción. Esto puede suponer un reto, pero esta guía práctica y sin tecnicismos te ayudará mostrándote lo que ha hecho que otros tengan éxito.
La banca, los seguros y la sanidad, en particular, necesitan modelos predictivos que sean interpretables. En este libro, Patrick Hall y Navdeep Gill, de H2O.ai, introducen a fondo la idea de la interpretabilidad del aprendizaje automático y examinan un conjunto de técnicas, algoritmos y modelos de aprendizaje automático para ayudar a los científicos de datos a mejorar la precisión de sus modelos predictivos manteniendo la interpretabilidad.
Si intentas encontrar a la mejor persona para un trabajo, tienes que ser más específico que "médico", "atleta" o "científico de datos". Y eso es un problema. Encontrar a las personas adecuadas para una tarea tiene que ver con una comunicación eficaz y, sin el vocabulario compartido adecuado, el talento de la ciencia de datos y los problemas de la ciencia de datos se mantienen separados con demasiada frecuencia.
Creemos que términos como "científico de datos", "analítica" y "big data" son el resultado de lo que podríamos llamar una "picadora de carne de palabras de moda". Las personas que realizan este trabajo solían proceder de campos más tradicionales y consolidados: estadística, aprendizaje automático, bases de datos, investigación de operaciones, inteligencia empresarial, ciencias sociales o físicas, etc.
Optimiza, desarrolla y diseña modelos PyTorch y TensorFlow para un problema específico utilizando el kit de herramientas Microsoft Neural Network Intelligence (NNI). Este libro incluye ejemplos prácticos que ilustran enfoques automatizados de aprendizaje profundo y proporciona técnicas para facilitar su desarrollo de modelos de aprendizaje profundo.
Después de leer este libro, sabrás cómo utilizar todo el conjunto de herramientas de métodos automatizados de aprendizaje profundo. Las técnicas y ejemplos prácticos presentados en este libro te permitirán llevar tus rutinas de redes neuronales a un nivel superior.
Integra los principios de MLOps en proyectos existentes o futuros utilizando MLFlow, operativiza tus modelos e impleméntalos en AWS SageMaker, Google Cloud y Microsoft Azure. Este libro te guía a través del proceso de análisis de datos, construcción de modelos y formación.
Los autores comienzan introduciéndote en el análisis básico de datos en un conjunto de datos de tarjetas de crédito y te enseñan a analizar las características y sus relaciones con la variable objetivo. Aprenderás a construir modelos de regresión logística en Scikit-learn y PySpark, y pasarás por el proceso de ajuste de hiperparámetros con un conjunto de datos de validación.
Big Data in Practice muestra las últimas novedades en Big Data, a la vez que comparte puntos de vista sobre la manera en la que un diverso grupo de empresas está utilizando Big Data y la analítica de datos para resolver problemas del mundo real. Desde minoristas que utilizan Big Data para predecir las tendencias y los comportamientos de los consumidores hasta gobiernos que lo utilizan para desbaratar tramas terroristas, pasando por el uso de Big Data en las ciudades, las telecomunicaciones, los deportes, las apuestas, la moda, la manufactura, la investigación, el automovilismo, los videojuegos y todo lo relacionado con ellos.
Building a Scalable Data Warehouse" abarca todo lo que hay que saber para crear un Data Warehouse escalable de principio a fin, incluida una presentación de la técnica de modelado Data Vault, que proporciona las bases para crear una capa técnica. El libro analiza cómo construir el Data Warehouse de forma incremental utilizando metodología ágil Data Vault 2.0. Además, los lectores aprenderán a crear la capa de entrada y la capa de presentación de la arquitectura Data Vault 2.0, incluidas las mejores prácticas de implementación. Basándose en años de experiencia práctica y utilizando numerosos ejemplos y un marco fácil de entender.
El primer principio de la arquitectura evolutiva es permitir el cambio incremental de una arquitectura a lo largo del tiempo. Esta guía práctica te ofrece todo lo que necesitas saber para empezar.
El ecosistema de desarrollo de software está en constante cambio, con un flujo constante de innovación en herramientas, marcos de trabajo y técnicas.
En los últimos años, los avances incrementales en las prácticas básicas de ingeniería para el desarrollo de software han allanado el camino para replantearse cómo podría cambiar la arquitectura con el tiempo, así como la forma de proteger las características arquitectónicas importantes a medida que evoluciona.
Este libro enlaza esas partes con una nueva forma de pensar sobre la arquitectura y el tiempo.
El descubrimiento del conocimiento es hoy un importante campo de estudio e investigación. En la búsqueda de respuestas a muchas preguntas de investigación en esta área, la esperanza última es que el conocimiento pueda ser extraído de diversas formas de datos que nos rodean. Este libro cubre los avances recientes en métodos de análisis de datos supervisados y no supervisados en Inteligencia Computacional para el descubrimiento de conocimiento.
Aquí, se presenta una colección de importantes métodos de análisis supervisado de datos. "Classification and Clustering for Knowledge Discovery" también incluye diversas aplicaciones del descubrimiento de conocimiento en salud, seguridad, comercio, mecatrónica, redes de sensores y telecomunicaciones.
La entrega de software a los usuarios suele ser un proceso doloroso, arriesgado y lento. Este libro expone los principios y las prácticas técnicas que permiten la entrega rápida e incremental de nuevas funcionalidades valiosas y de alta calidad a los usuarios. Gracias a la automatización de los procesos de creación, despliegue y prueba, y a la mejora de la colaboración entre desarrolladores, probadores y operaciones, los equipos de entrega pueden liberar cambios en cuestión de horas, a veces incluso minutos, independientemente del tamaño del proyecto o de la complejidad de su código.
Los autores presentan las técnicas más avanzadas, como la gestión automatizada de infraestructuras y la migración de datos, así como el uso de la virtualización. Para cada una de ellas, repasan las cuestiones clave, identifican las mejores prácticas y demuestran cómo mitigar los riesgos.
¿Qué se necesita para convertirse en una organización basada en datos? Mucho más que disponer de Big Data o de un equipo de "científicos de datos unicornio", es necesario establecer una cultura de datos eficaz y profundamente arraigada. Este libro práctico muestra cómo la verdadera orientación a los datos implica procesos que requieren una auténtica implicación en toda la empresa, desde los analistas y la dirección hasta la alta dirección y el consejo de administración.
A través de entrevistas y ejemplos de científicos de datos y líderes analíticos de diversos sectores, este libro explica la cadena de valor analítica que se debe adoptar para crear modelos empresariales predictivos, desde la recopilación y el análisis de datos hasta las perspectivas y el liderazgo que impulsan acciones concretas. Aprenderás lo que funciona y lo que no, y por qué es esencial crear una cultura basada en datos en toda la organización.
El DAMA DMBOK sobre gestión de datos es bastante amplio y está en constante crecimiento, en muchos aspectos es considerado el "Vade Mecum de los datos". La Guía DAMA-DMBOK proporciona una "introducción definitiva" a la gestión de datos. Define una visión industrial estándar de las funciones de gestión de datos, la terminología y las mejores prácticas, sin detallar métodos y técnicas específicos. El DAMA-DMBOK no es una autoridad completa sobre ningún tema específico, sino que remite a los lectores a publicaciones, artículos y sitios web ampliamente reconocidos para una lectura más profunda.
¿Piensas a lo grande con tus datos? PySpark lleva el potente motor de procesamiento de Big Data Spark al ecosistema Python, permitiéndote escalar sin problemas tus tareas de datos y crear pipelines ultrarrápidos.
Data Analysis with Python and PySpark es tu guía para llevar a cabo con éxito proyectos de datos basados en Python. Repleto de ejemplos relevantes y técnicas esenciales, este libro práctico te enseña a crear pipelines para informes, aprendizaje automático y otras tareas centradas en los datos. Los ejercicios rápidos de cada capítulo te ayudarán a practicar lo que has aprendido y a empezar rápidamente a implementar PySpark en tus sistemas de datos. No se requieren conocimientos previos de Spark.
Los datos de tu empresa tienen el potencial de añadir un enorme valor a todas las facetas de la organización, desde el marketing y el desarrollo de nuevos productos hasta la estrategia y la gestión financiera. Sin embargo, si tu empresa es como la mayoría, no está utilizando sus datos para crear ventajas estratégicas. Los datos no se utilizan, o los datos incorrectos dificultan las operaciones y la toma de decisiones.
Los datos de tu empresa son un activo empresarial clave, y necesitas gestionarlos de forma agresiva y profesional. Tanto si eres un alto ejecutivo, un aspirante a líder o un gestor de línea de producto, este libro te proporciona las herramientas y el pensamiento que necesitas para hacerlo.
Los datos analíticos son una herramienta poderosa para las empresas en crecimiento, pero ¿de qué sirven si se ocultan en la sombra? Pon tus datos en primer plano con enfoques eficaces de visualización y comunicación, y deja que Data Fluency: Empowering Your Organization with Effective Communication te muestre las mejores herramientas y estrategias para hacer bien el trabajo.
Aprende las mejores prácticas de presentación de datos y las formas en que los informes y cuadros de mando pueden ayudarte a medir eficazmente el rendimiento, identificar áreas de mejora y comunicar los resultados.
Los temas tratados en el libro incluyen la presentación y comunicación de datos, las necesidades del público y de los usuarios, las herramientas de presentación de datos, el diseño y el estilo, y los fallos de diseño más comunes. Los responsables de análisis, informes o implementación de BI encontrarán en este recurso una visión refrescante de los datos y la visualización, al igual que los diseñadores de informes, visualización de datos y cuadros de mando.
Al mover datos a la nube, es necesario considerar un enfoque integral de la gobernanza de datos, junto con políticas bien definidas y acordadas para garantizar que tu empresa cumple los requisitos de Compliance. El gobierno de datos incorpora las formas en que las personas, los procesos y la tecnología trabajan conjuntamente para garantizar que los datos son fiables y pueden utilizarse de forma eficaz. Esta guía práctica muestra cómo implantar y ampliar eficazmente el gobierno de datos en toda la empresa.
Los CDO, los CISO, y sus equipos aprenderán estrategias y herramientas para apoyar la democratización de los datos y liberar su valor al tiempo que se aplican las normas de seguridad, privacidad y otras normas de gobierno. Mediante un buen gobierno de los datos, es posible inspirar la confianza del cliente, permitir a tu empresa identificar eficiencias empresariales, generar ofertas más competitivas y mejorar la experiencia del cliente.
Data Governance, es para cualquier ejecutivo, gerente o profesional de datos que necesite entender o implementar un programa de gobierno de datos. Es necesario para garantizar datos coherentes, precisos y fiables en toda la organización. Este libro ofrece una visión general de por qué es necesario el gobierno de datos, cómo diseñar, iniciar y ejecutar un programa y cómo mantener la sostenibilidad del programa.
Este valioso recurso proporciona una guía completa a profesionales principiantes, gestores o analistas que buscan mejorar sus procesos, y a estudiantes avanzados de Gestión de Datos y cursos relacionados. Con el marco y los estudios de casos proporcionados, todos los profesionales del campo de la gobernanza de datos obtendrán información clave para poner en marcha un programa de gobernanza de datos exitoso y que ahorre dinero.
¿Sabes lo que es un "PIDD"? Un PIDD es un Donante Involuntario Perpetuo de Datos. Los capitalistas de la vigilancia adoran a los PIDD porque éstos apoyan materialmente a la industria de extracción de datos cediendo involuntariamente su información personal, pagando por el transporte y almacenamiento de datos y tolerando un rendimiento deficiente de Internet/tecnología. En la actualidad, esta industria silenciosa recopila datos masivos sobre las personas para modificar y controlar su comportamiento social. Los capitalistas de la vigilancia controlan el comportamiento aprovechándose de la escasa cultura de datos de las personas. Tres cosas aumentan la magnitud del reto:
El volumen de datos aumenta más rápido de lo que podemos procesar.
Los bajos costes de intercambio de datos agotan los recursos y la productividad de los ciudadanos y las organizaciones.
La confianza de la sociedad en las tecnologías no ha abordado materialmente la brecha.
Este libro te dotará de una comprensión compartida de la sociedad y del papel que los datos desempeñan en ella.
A medida que la gestión de datos sigue evolucionando rápidamente, la gestión de todos los datos centralizada, como un almacén de datos, ya no es escalable. El mundo actual consiste en convertir rápidamente los datos en valor. Esto requiere un cambio de paradigma en la forma en que federamos responsabilidades, gestionamos los datos y los ponemos a disposición de los demás.
Con este libro, aprenderás a diseñar una arquitectura de datos de última generación que tenga en cuenta la escala que necesitas para tu organización. Ejecutivos, arquitectos e ingenieros, equipos de análisis y personal de cumplimiento y gobernanza aprenderán a crear un entorno de datos de última generación. Proporciona planos, principios, observaciones, mejores prácticas y patrones para que te pongas al día. Examines las tendencias en la gestión de datos, incluidos los requisitos normativos, los problemas de privacidad y los nuevos desarrollos, como Data Mesh y Data Fabric. El libro profundiza en la creación de una arquitectura de datos moderna, incluidas las zonas de aterrizaje de datos en la nube, el diseño basado en dominios, el diseño de productos de datos, etc. Además, explora la gobernanza y la seguridad de los datos, la gestión de datos maestros, los Data Marketplaces de autoservicio y la importancia de los metadatos.
Nos encontramos en un punto de inflexión en el ámbito de los datos, en el que nuestras soluciones de gestión de datos ya no están a la altura de la complejidad de las organizaciones, la proliferación de fuentes de datos y el objetivo de nuestras organizaciones de obtener valor de los datos con la IA y analítica. En este libro, se presenta Data Mesh, un paradigma sociotécnico descentralizado extraído de una arquitectura distribuida moderna que proporciona un nuevo enfoque para la obtención, el intercambio, el acceso y la gestión de datos analíticos a escala.
Data Mesh guía a profesionales, arquitectos, líderes técnicos y responsables de la toma de decisiones en su viaje desde la arquitectura tradicional de Big Data hacia un enfoque distribuido y multidimensional de la gestión de datos analíticos. Data Mesh trata los datos como un producto, considera los dominios como una preocupación primordial, aplica el pensamiento de plataforma para crear una infraestructura de datos de autoservicio e introduce un modelo computacional federado de gobierno de datos.
Los modelos de datos son el principal medio utilizado para comunicar los requisitos de datos de la empresa al departamento de TI, y dentro de éste, de los analistas, modeladores y arquitectos a los diseñadores y desarrolladores de bases de datos. Por tanto, es esencial que el modelo de datos sea correcto. Pero, ¿cómo determinarlo? Ahí es donde entra en juego el Data Model Scorecard.
El Data Model Scorecard es una herramienta de puntuación de la calidad del modelo de datos que contiene diez categorías destinadas a mejorar la calidad de los modelos de datos de tu organización.
Este libro, escrito para personas que construyen, utilizan o revisan modelos de datos, contiene la plantilla de la Scorecard del Modelo de Datos y una explicación junto con muchos ejemplos de cada una de las diez categorías que se definen.
Data Modeling Made Simple proporcionará al profesional de la empresa o de IT un conocimiento práctico de los conceptos y mejores prácticas del modelado de datos.
Este libro está escrito en un estilo conversacional que anima a leerlo desde el principio. Expone los asuntos más valiosos para un modelador de datos. Compara, a medida que avanza, cómo los conceptos fundamentales facilitan al nuevo modelador de datos la entrada en el tema de la misma manera que un instructor podría facilitar a un nadador principiante la entrada en la piscina.
Ccomienza como una novela de Dan Brown. Incluso empieza con el protagonista, nuestro modelador de datos favorito, perdido en una oscura carretera en algún lugar de Francia. En este caso, lo que le salva no es una cifra, sino algo muy parecido a un modelo de datos en forma de mapa. El autor considera que ambos son herramientas para encontrar el camino.
Los pipelines de datos son la base del éxito en el análisis de datos. Mover los datos desde numerosas fuentes diversas y transformarlos para proporcionarles contexto es la diferencia entre tener datos y realmente obtener valor de ellos. Esta referencia de bolsillo define los pipelines de datos y explica cómo funcionan stack moderno de hoy en día.
Aprenderás las consideraciones comunes y los puntos de decisión clave a la hora de implementar pipelines, como la ingesta de datos por batch frente a la ingesta de datos en streaming. Este libro aborda las decisiones más comunes que toman los profesionales de datos y analiza los conceptos básicos que se aplican a los frameworks de código abierto, los productos comerciales y las soluciones de creación propia.
Los Data Stewards de las empresas y los departamentos de IT son la columna vertebral de una implementación exitosa del gobierno de datos, ya que realizan el trabajo necesario para que los datos de una empresa sean fiables y de alta calidad.
Data Stewardship explica todo lo que se necesita saber para implantar con éxito la parte de la gobernanza de datos relativa a la administración, incluyendo cómo organizar, formar y trabajar con los Data Stewards, obtener definiciones de negocio de alta calidad y otros metadatos, y realizar las tareas diarias empleando un mínimo de tiempo y esfuerzo. Este libro está cargado de consejos prácticos sobre la gestión para que puedas ponerte manos a la obra, lograr éxitos desde el principio y medirlos y comunicarlos, obteniendo así más apoyo para este esfuerzo crítico en la gestión y gobernanza de los datos.
Omnipresentes, los datos son un recurso organizativo único, y esta distinción justifica su propia estrategia. Los datos, que representan su único activo estratégico no agotable, no degradable y duradero, probablemente sean también un recurso organizativo mal aprovechado e infrautilizado.
La falta de talento, las barreras en el pensamiento organizativo y siete pecados específicos de los datos impiden que la mayoría de las organizaciones se beneficien plenamente de sus inversiones en activos de datos.
Este enfoque centra mejor los datos y el pensamiento en el apoyo directo a los objetivos estratégicos. Tras eliminar los requisitos previos necesarios, las organizaciones pueden desarrollar un medio disciplinado y repetible de mejorar sus datos, conocimientos, normas y controles mediante prácticas de gobernanza de datos. Una vez implantado, el proceso (basado en la teoría de las restricciones) se convierte en una variante de lavar, aclarar y repetir.
Los sistemas de bases de datos y la tecnología de diseño de bases de datos han experimentado una importante evolución en los últimos años. El modelo de datos relacional y los sistemas de bases de datos relacionales dominan las aplicaciones empresariales; a su vez, se ven ampliados por otras tecnologías como el almacenamiento de datos, OLAP y la minería de datos. En este libro, obtendrás explicaciones claras, muchos ejemplos fantásticos y un caso ilustrativo, así como los consejos prácticos que siempre has buscado, con reglas de diseño aplicables a cualquier sistema basado en SQL. Pero también obtendrás muchas cosas que te ayudarán a pasar de ser un nuevo diseñador de bases de datos a un diseñador experimentado que desarrolla sistemas escalables.
Los datos son hoy el centro de muchos retos en el diseño de sistemas. Hay que resolver cuestiones difíciles, como la escalabilidad, la coherencia, la fiabilidad, la eficiencia y la facilidad de mantenimiento. Además, disponemos de una abrumadora variedad de herramientas, como bases de datos relacionales, almacenes de datos NoSQL, streaming o procesos batch y brokers de mensajes. ¿Cuáles son las opciones adecuadas para su aplicación? ¿Cómo dar sentido a todas estas palabras de moda?
Esta guía práctica y completa, te ayuda a navegar por este variado panorama examinando los pros y los contras de las distintas tecnologías de procesamiento y almacenamiento de datos. El software cambia constantemente, pero los principios fundamentales siguen siendo los mismos. Con este libro, los ingenieros y arquitectos de software aprenderán a aplicar esas ideas en la práctica y a sacar el máximo partido de los datos en las aplicaciones modernas.
Este libro explica cómo las arquitecturas basadas en servicios y las herramientas de procesamiento de flujos como Apache Kafka pueden ayudarte a construir sistemas críticos para el negocio.
A enfoques probados como las arquitecturas orientadas a servicios y a eventos se unen técnicas más recientes como los microservicios, las arquitecturas reactivas, DevOps y el procesamiento de flujos. Muchos de estos patrones tienen éxito por sí mismos, pero como demuestra este práctico libro , proporcionan un enfoque más holístico y convincente cuando se aplican conjuntamente.
Aunque el enfoque principal de este libro es la construcción de sistemas impulsados por eventos de diferentes tamaños, hay un enfoque más profundo en el software que abarca muchos equipos.
TDD es una técnica de desarrollo que se lleva aplicando durante años con gran éxito en lugares como EEUU y Reino Unido, sin embargo, la ausencia de información en español sobre la misma ha supuesto un freno para su difusión en los países hispano-parlantes. Diseño Ágil con TDD nos enseñará a:
- Escribir tests que aumenten la fiabilidad del código.
- Escribir tests de aceptación que nos ayudarán a centrarnos, específicamente, en el problema a resolver.
- Mejorar nuestros diseños para hacerlos más simples y flexibles.
- Escribir código fácil de mantener.
Con TDD, los test son documentación viva y actualizada de nuestro código, la mejor documentación posible. Encajar TDD dentro del paradigma ágil y relacionarlo con otras técnicas como la integración continua
Este libro proporciona un enfoque sistemático del diseño orientado a dominios, presentando un amplio conjunto de mejores prácticas de diseño, técnicas basadas en la experiencia y principios fundamentales que facilitan el desarrollo de proyectos de software que se enfrentan a dominios complejos. Entrelazando el diseño de sistemas y la práctica del desarrollo, este libro incorpora numerosos ejemplos basados en proyectos reales para ilustrar la aplicación del diseño orientado a dominios al modelado y desarrollo de software en el mundo real.
A lo largo del libro, las discusiones se ilustran no con problemas "simplificados", sino con ejemplos realistas adaptados de proyectos reales. Con este libro, los desarrolladores orientados a objetos, los analistas de sistemas y los diseñadores tendrán la orientación que necesitan para organizar y enfocar su trabajo, crear modelos de dominio ricos y útiles, y aprovechar esos modelos en implementaciones de software de calidad y duraderas.
El objetivo de este libro es encontrar una respuesta para ayudar a todos aquellos responsables de datos que necesitan convencer a su organización de lo relevante que es considerar el dato como un activo, y como tal, valorarlo.
Una buena gestión de datos comienza por una pregunta: ¿para qué quiero los datos? De esta forma, el primer paso es conocer los objetivos de la compañía, para posteriormente analizar cómo dichos objetivos generales se declinan en métricas de negocio, para cuya mejora una palanca fundamental son los usos que damos a esos datos que tan paciente, costosa y gobernadamente hemos ido almacenando, limpiando y organizando (modelando). Sólo después de esta reflexión desde la estrategia hasta los datos, es cuando deberíamos tomar decisiones sobre qué tecnología adquirir, qué talento contratar y qué modelo de gobernanza implementar.El Método de la Relevancia Estratégica para calcular el Valor de Dato te ayuda a identificar las palancas clave que te ayudarán en el proceso de implantar una Estrategia del Dato exitosa.
Muchas aplicaciones de alto perfil, como LinkedIn y Netflix, ofrecen un rendimiento ágil y con capacidad de respuesta reaccionando a los eventos de usuario y del sistema a medida que se producen. En los sistemas a gran escala, esto requiere una supervisión, gestión y reacción eficientes ante múltiples flujos de eventos. Herramientas como Kafka, junto con patrones innovadores como el procesamiento unificado de registros, ayudan a crear una arquitectura coherente de procesamiento de datos para aplicaciones basadas en eventos.
Event Streams in Action te enseña técnicas para agregar, almacenar y procesar flujos de eventos utilizando el patrón de procesamiento de registro unificado. En esta guía práctica, descubrirás importantes diseños de aplicaciones como la arquitectura Lambda, la agregación de flujos y el reprocesamiento de eventos. También explorarás el escalado, la resistencia, los patrones de flujo avanzados y mucho más. Cuando termines, estarás diseñando aplicaciones basadas en datos a gran escala que son más fáciles de construir, desplegar y mantener.
Cada semana nos llega la noticia de una organización que ha distribuido datos que no debería haber compartido, o que ha perdido frente a un competidor que utiliza los datos para impulsar el negocio de forma innovadora. Los datos están cambiando radicalmente la naturaleza de las empresas y organizaciones, así como los mecanismos para ofrecer productos y servicios.
Este libro es una guía práctica para desarrollar estrategias y políticas de gobernanza de datos, en línea con la norma ISO 38505 sobre gobernanza de datos y los marcos de buenas prácticas. Ayudará a las organizaciones que deseen convertirse en empresas impulsadas por los datos explicándoles cómo evaluar el valor, los riesgos y las limitaciones asociadas a la recopilación, el uso y la distribución de datos.
Gracias a una serie de avances recientes, el aprendizaje profundo ha impulsado todo el campo del aprendizaje automático. Ahora, incluso los programadores que no saben casi nada de esta tecnología pueden utilizar herramientas sencillas y eficientes para implementar programas capaces de aprender de los datos. Este libro utiliza ejemplos concretos, teoría mínima y marcos de trabajo de Python listos para la producción (Scikit-Learn, Keras y TensorFlow) para ayudarte a obtener una comprensión intuitiva de los conceptos y herramientas para construir sistemas inteligentes.
El autor explora una serie de técnicas, empezando por la regresión lineal simple y avanzando hasta las redes neuronales profundas.
Numerosos ejemplos de código y ejercicios a lo largo del libro te ayudarán a aplicar lo que has aprendido. Para empezar, basta con tener experiencia en programación.
El log es una abstracción que se encuentra en el corazón de muchos sistemas, desde las bases de datos NoSQL hasta las criptomonedas. Aunque la mayoría de los ingenieros no piensan mucho en ellos, este breve libro te muestra por qué los logs merecen tu atención.
Basándose en sus populares entradas de blog, este libro te muestra cómo funcionan los logs en los sistemas distribuidos y, a continuación, ofrece aplicaciones prácticas de estos conceptos en una variedad de usos comunes: integración de datos, arquitectura empresarial, procesamiento de flujos en tiempo real, diseño de sistemas de datos y modelos informáticos abstractos.
Hoy en día la información es el activo más importante de cualquier compañía, cada vez surgen más amenazas a la que está expuesta la información y se debe proteger de la forma más eficaz y eficiente posible. Las medidas de seguridad no sólo incluyen tecnología, también se deben tener en cuenta los aspectos organizativos y los relativos al personal, siendo estos últimos uno de los más importantes. La seguridad de la información debe tratarse como un proceso más de la organización, imprescindible para poder alcanzar los objetivos del negocio.
Para la mayoría de las organizaciones, la seguridad de la información es parte de sus objetivos de negocio, ya que una organización que no garantice la integridad, confidencialidad y disponibilidad de su información, tiene muy difícil su supervivencia en un mercado global y competitivo.
El objeto de este libro es ofrecer una aproximación práctica a las tareas que son necesarias para acometer un proyecto de implantación de un Sistema de Gestión de Seguridad de la Información. El libro está dirigido tanto a responsables del negocio, como al personal de tecnologías de la información que se vea involucrado en un proyecto de implantación de un SGSI, así como a cualquier otra persona que quiera tener una visión practica de cómo se aborda un proyecto de este tipo. Este libro proporciona una base teórico práctica, que es suficiente para poder planificar y ejecutar un proyecto de implantación de un SGSI.
Muchos ejecutivos hablan de la información como uno de sus activos más importantes, pero pocos se comportan como si lo fuera. Informan al consejo sobre la salud de su plantilla, sus finanzas, sus clientes y sus asociaciones, pero rara vez sobre la salud de sus activos de información. Las empresas suelen ser más disciplinadas en el seguimiento y la contabilidad de su mobiliario de oficina que de sus datos.
Infonomics es la teoría, el estudio y la disciplina de la importancia económica de la información. Se centra en la aplicación de los principios de la economía a la economía de la información.
Este libro ofrece un conjunto de nuevas ideas, frameworks, pruebas e incluso enfoques adaptados de otras disciplinas sobre cómo administrar, manejar y comprender el valor de la información. Infonomics te puede ayudar no sólo a desarrollar, vender y comercializar mejor tus ofertas, sino a transformar por completo tu organización.
INSPIRED te llevará a ti y a tu organización de producto a un nuevo nivel de compromiso con el cliente, innovación consistente y éxito empresarial, tanto si eres una empresa en fase inicial que trabaja para conseguir el ajuste producto/mercado, como si eres una empresa en fase de crecimiento que trabaja para escalar su organización de producto, o una gran empresa establecida desde hace tiempo que trata de recuperar su capacidad para ofrecer constantemente un nuevo valor a sus clientes.
INSPIRED te mostrará cómo subir el volumen de tus propios esfuerzos de producto y crear productos tecnológicos que enamoren a tus clientes, gracias a las historias personales del autor y a los perfiles de algunos de los directores de producto y empresas de productos tecnológicos con más éxito de la actualidad, como Adobe, Apple, BBC, Google, Microsoft y Netflix.
El aprendizaje automático se ha convertido en una parte integral de muchas aplicaciones comerciales y proyectos de investigación, pero este campo no es exclusivo de grandes empresas con amplios equipos de investigación. Si usas Python, incluso como principiante, este libro te enseñará formas prácticas de construir tus propias soluciones de aprendizaje automático. Con todos los datos disponibles hoy en día, las aplicaciones del aprendizaje automático sólo están limitadas por tu imaginación.
Aprenderás los pasos necesarios para crear una aplicación de aprendizaje automático exitosa con Python y la biblioteca Scikit-learn. El libro se centra en los aspectos prácticos del uso de algoritmos de aprendizaje automático, más que en las matemáticas que los sustentan.
Todas las aplicaciones empresariales generan datos, ya sean mensajes de logs, métricas, actividad de los usuarios, mensajes salientes o cualquier otra cosa. Si eres arquitecto de aplicaciones, desarrollador o ingeniero de producción y no conoces Apache Kafka, esta guía práctica te muestra cómo utilizar esta plataforma de streaming de código abierto para gestionar la alimentación de datos en tiempo real.
Los ingenieros de Confluent y LinkedIn responsables del desarrollo de Kafka explican cómo implementar clústeres de Kafka de producción, escribir microservicios fiables basados en eventos y crear aplicaciones de procesamiento de flujos escalables con esta plataforma.
La Web ha surgido como un gran repositorio de datos distribuidos, y la información de Internet y de las bases de datos transaccionales existentes puede analizarse para obtener beneficios comerciales en la toma de decisiones. Por lo tanto, cómo identificar eficazmente el conocimiento de calidad a partir de distintas fuentes de datos supone un reto importante. Este reto ha suscitado un gran interés tanto en el mundo académico como en la industria. Knowledge Discovery in Multiple Databases ofrece una introducción exhaustiva a los últimos avances en minería de múltiples bases de datos y presenta un marco de análisis de patrones locales para el descubrimiento de patrones a partir de múltiples fuentes de datos.
Basándose en este marco, se describen técnicas de preparación de datos en múltiples bases de datos, una clasificación de bases de datos independiente de la aplicación para la reducción de datos y algoritmos eficientes para el descubrimiento de patrones a partir de múltiples bases de datos. Knowledge Discovery in Multiple Databases es adecuado para investigadores, profesionales y estudiantes de minería de datos, análisis de datos distribuidos y aprendizaje automático, que estén interesados en la minería a partir de múltiples bases de datos. También es apropiado para su uso como texto complementario en cursos más amplios que puedan implicar el descubrimiento de conocimientos en bases de datos y minería de datos.
Obtén una introducción completa y en profundidad al núcleo de Python con este libro práctico. Este libro te ayudará a escribir rápidamente código eficiente y de alta calidad con Python. Es una forma ideal de empezar, tanto si eres nuevo en la programación como si eres un desarrollador profesional versado en otros lenguajes.
Completo, con cuestionarios, ejercicios y útiles ilustraciones, este tutorial fácil de seguir y a tu propio ritmo te ayudará a empezar con Python 2.7 y 3.3- las últimas versiones de las líneas 3.X y 2.X- además de todas las demás versiones de uso común hoy en día. También aprenderás algunas características avanzadas del lenguaje que recientemente se han vuelto más comunes en el código Python.
Este libro está dirigido a cualquier persona que desee aprender a desarrollar sistemas de aprendizaje automático. Se cubren los conceptos más importantes sobre algoritmos de aprendizaje automático, tanto de forma teórica como práctica, y se implementan muchos algoritmos de aprendizaje automático utilizando la librería Scikit-learn en el lenguaje de programación Python.
Aprenderás los conceptos más importantes del aprendizaje automático , trabajarás principalmente con la clasificación, y aprenderás a entrenar tu modelo; asumiendo que tienes conocimientos básicos de programación.
Este libro hace un repaso que narra el desarrollo de las tecnologías actuales bajo el tema del concepto emergente de asistencia sanitaria, concretamente en lo que respecta a lo que hace que la asistencia sanitaria sea más eficiente y eficaz con la ayuda de algoritmos de alta precisión.
El mecanismo que lo impulsa es el aprendizaje automático, el aprendizaje profundo, el Big Data y el Internet de las Cosas (IoT). El campo científico que dota a las máquinas de la capacidad de aprender sin estar estrictamente programadas, ha surgido junto con las tecnologías de Big Data y la computación de alto rendimiento para crear nuevas oportunidades de desentrañar, cuantificar y comprender los procesos intensivos en datos en entornos operativos sanitarios.
Este manuscrito te muestra cómo el procesamiento de flujos puede hacer que tus sistemas de almacenamiento y procesamiento de datos sean más flexibles y menos complejos. La estructuración de datos como un flujo de eventos no es algo nuevo, pero con la llegada de proyectos de código abierto como Apache Kafka y Apache Samza, el procesamiento de flujos está alcanzando por fin la mayoría de edad.
Utilizando varios casos prácticos, se explica cómo estos proyectos pueden ayudarte a reorientar la arquitectura de tu base de datos en torno a streams y vistas materializadas. Las ventajas de este enfoque incluyen una mejor calidad de los datos, consultas más rápidas a través de cachés precalculadas e interfaces de usuario en tiempo real. Aprende a abrir tus datos para un análisis más rico y a hacer que tus aplicaciones sean más escalables y robustas frente a los fallos.
¿Por qué la integración de datos sigue siendo un reto hoy en día? ¿Y qué significa orquestación de datos? En este libro se ofrecen ejemplos detallados que muestran cómo las empresas han pasado de utilizar la integración de datos a la orquestación de datos. Mediante la combinación de datos de streaming con datos de aplicaciones, datos externos y datos sociales, los ingenieros de datos y los desarrolladores pueden lograr resultados empresariales de confianza.
Aprenderás a utilizar R, Python, TensorFlow, Apache Kafka y otras herramientas de código abierto, ya sea para extraer datos de SAP y ponerlos en un lago de datos o para orquestar e integrar volúmenes masivos de datos en entornos complejos. Si quieres cerrar la brecha entre los expertos en datos del equipo de SAP y los profesionales de desarrollo de tu empresa, esta guía es indispensable.
Azure Machine Learning es un servicio en la nube para acelerar y gestionar el ciclo de vida de los proyectos de aprendizaje automático (ML) que los profesionales de ML, los científicos de datos y los ingenieros pueden utilizar en sus flujos de trabajo diarios. Este libro cubre el proceso de ML de extremo a extremo utilizando Microsoft Azure Machine Learning, incluyendo la preparación de datos, la realización y el registro de ejecuciones de entrenamiento de ML, el diseño de pipelines de entrenamiento y despliegue, y la gestión de esos pipelines a través de MLOps.
Trabajar con flujos de datos ilimitados y en movimiento rápido ha sido históricamente difícil. Pero con Kafka Streams y ksqlDB, crear aplicaciones de procesamiento de streaming es fácil y divertido. Esta guía práctica te muestra cómo utilizar estas herramientas para crear aplicaciones de procesamiento de streaming altamente escalables para mover, enriquecer y transformar grandes cantidades de datos en tiempo real.
Aprenderás los puntos fuertes de Kafka Streams y ksqlDB para ayudarte a elegir la mejor herramienta para cada proyecto de procesamiento de streaming.
Las herramientas matemáticas fundamentales necesarias para comprender el aprendizaje automático incluyen el álgebra lineal, la geometría analítica, las descomposiciones matriciales, el cálculo vectorial, la optimización, la probabilidad y la estadística. Tradicionalmente, estos temas se imparten en cursos dispares, lo que dificulta el aprendizaje eficaz de las matemáticas por parte de los estudiantes o profesionales de ciencias de la información o informática. Este libro de texto autocontenido tiende un puente entre los textos de matemáticas y los de aprendizaje automático, introduciendo los conceptos matemáticos con un mínimo de requisitos previos.
Puedes utilizar estos conceptos para derivar cuatro métodos centrales de aprendizaje automático: regresión lineal, análisis de componentes principales, modelos de mezclas gaussianas y máquinas de vectores soporte. Para estudiantes y otras personas con formación matemática, estas derivaciones constituyen un punto de partida hacia los textos de aprendizaje automático. Para quienes aprenden matemáticas por primera vez, los métodos ayudan a desarrollar la intuición y la experiencia práctica en la aplicación de conceptos matemáticos. Cada capítulo incluye ejemplos prácticos y ejercicios para comprobar la comprensión.
En la era de la informática ubicua, los metadatos se han convertido en una infraestructura, como la red eléctrica o la red de carreteras. Interactuamos con ellos o los generamos cada día. No son sólo "datos sobre datos". Es un medio por el cual la complejidad de un objeto se representa de forma más sencilla. Por ejemplo, el título, el autor y la portada son metadatos sobre un libro. Cuando los metadatos hacen bien su trabajo, pasan a un segundo plano; todo el mundo los da por sentado.
Este libro explica qué son los metadatos y por qué existen. Distingue entre distintos tipos de metadatos -descriptivos, administrativos, estructurales, de conservación y de uso- y examina los diferentes usuarios y usos de cada tipo. Discute las tecnologías que hacen posibles los metadatos modernos y especula sobre el futuro de los metadatos. Al final del libro, los lectores verán metadatos por todas partes. Porque nos advierte, es el mundo de los metadatos, y estamos viviendo en él.
Los programas de gobernanza de datos se centran en la autoridad y la responsabilidad de la gestión de los datos como un activo valioso de la organización.
La gobernanza de los datos no debe consistir en mandar y controlar, aunque a veces pueda resultar invasiva o amenazante para el trabajo, las personas y la cultura de una organización. Non-Invasive Data Governance™ se centra en la formalización de la responsabilidad existente para la gestión de los datos y la mejora de las comunicaciones formales, la protección y los esfuerzos de calidad a través de la administración efectiva de los recursos de datos.
Non-Invasive Data Governance te proporcionará un conjunto completo de herramientas para ayudarte a ofrecer un programa de gobierno de datos exitoso.
DataOps es una disciplina para ofrecer ciencia de datos a escala. Las organizaciones necesitan algo más que los últimos algoritmos de IA, las herramientas más modernas y los mejores profesionales para convertir los datos en acciones basadas en la información y productos de datos analíticos útiles. Los procesos y el pensamiento empleados para gestionar y utilizar los datos en el siglo XX son un cuello de botella para trabajar eficazmente con la variedad de datos y casos de uso analítico avanzado que las organizaciones tienen hoy en día.
Este libro proporciona el enfoque y los métodos para garantizar un uso rápido y continuo de los datos con el fin de crear productos de datos analíticos y dirigir la toma de decisiones.
Practical DataOps muestra cómo optimizar la cadena de suministro de datos desde las diversas fuentes de datos en bruto hasta el producto de datos final, tanto si el objetivo es un modelo de aprendizaje automático como cualquier otro resultado orientado a los datos.
Python for Data Analysis se ocupa de las tuercas y los tornillos de la manipulación, procesamiento, limpieza y exposición de datos en Python. También es una introducción práctica y moderna a la computación científica en Python, adaptada a aplicaciones intensivas de datos.
Se trata de un libro sobre las partes del lenguaje Python y las bibliotecas que necesitarás para resolver eficazmente un amplio conjunto de problemas de análisis de datos. Este libro está repleto de casos prácticos. Es ideal para analistas que se inician en Python y para programadores de Python que se inician en la computación científica.
Con el auge de la ciencia de datos y el hardware informático de alto rendimiento, los lenguajes de programación también han evolucionado. Se han desarrollado varias bibliotecas en diferentes lenguajes de programación que proporcionan una capa de abstracción sobre tareas complejas de ciencia de datos. El lenguaje de programación Python ha tomado la delantera en este sentido. Si preguntas a un experto en ciencia de datos cuáles son las dos bibliotecas de Python más comunes y utilizadas para la ciencia de datos, la respuesta será casi siempre la biblioteca NumPy y la biblioteca Pandas. Y en esto se centra este libro. Te introduce a las librerías NumPy y Pandas con la ayuda de diferentes casos de uso y ejemplos.
Este libro te enseña a hacer ciencia de datos con R: aprenderás a introducir tus datos en R, a estructurarlos de la forma más útil, a transformarlos, a visualizarlos y a modelarlos. En este libro encontrarás un set práctico de habilidades para la ciencia de datos. Del mismo modo que un químico aprende a limpiar tubos de ensayo y a abastecer un laboratorio, aprenderás a limpiar datos y a dibujar gráficos, además de muchas otras cosas. Estas son las habilidades que permiten que la ciencia de datos suceda, y aquí encontrarás las mejores prácticas para hacer cada una de estas cosas con R. Aprenderás cómo utilizar la gramática de los gráficos, la programación alfabetizada y la investigación reproducible para ahorrar tiempo. También aprenderás a gestionar los recursos cognitivos para facilitar los descubrimientos a la hora de manejar, visualizar y explorar los datos.
Aunque la mayoría de los líderes de datos reconocen que necesitan DataOps para potenciar la agilidad empresarial de su compañía, la mayoría no sabe por dónde empezar. No está solo. Recetas para el éxito de DataOps: The Complete Guide to an Enterprise DataOps Transformation ilustra cómo liderar el cambio de DataOps en su organización. Responde a preguntas importantes como:
- ¿Cómo dar apoyo a una estrategia DataOps?
- ¿Cuál es el mejor primer proyecto?
- ¿Cómo puede generalizar DataOps de un solo equipo a toda la empresa?
Con este libro práctico, arquitectos, directores de tecnología y directores de sistemas de información aprenderán un conjunto de pautas para la práctica de la arquitectura, incluidos el análisis, la documentación y la comunicación. El libro muestra cómo crear planes tecnológicos holísticos y bien pensados, comunicarlos con claridad, guiar a las personas hacia la visión y convertirse en un gran arquitecto o arquitecto jefe.
Este libro cubre de forma exhaustiva cada aspecto clave de la arquitectura, incluyendo cómo incorporar conjuntamente la arquitectura empresarial, la arquitectura de la información, la arquitectura de datos y la arquitectura de aplicaciones (software) para tener las mejores posibilidades de éxito del sistema.
En un mundo obsesionado por crear nuevas tendencias, el gurú del comportamiento neurológico del consumidor Martin Lindstrom ha desarrollado un método para conseguir lo que toda empresa desea: entender los deseos más profundos de sus clientes y convertirlos en productos, marcas o negocios innovadores.
Small Data, en el que Lindstrom nos explica cómo advertir pequeñas pistas que nos anuncian grandes tendencias, combina la literatura de viajes con la psicología forense y las historias detectivescas, y está destinado a convertirse en un libro de lectura obligada para todo aquel que desee entender mejor los factores que impulsan la compra de un consumidor.
Convertirse en una organización basada en datos tiene muchas ventajas, como la capacidad de acelerar y mejorar la precisión de las decisiones empresariales mediante el procesamiento en tiempo real de transacciones, flujos de redes sociales y datos de IoT. Pero esos beneficios requieren cambios significativos en tu infraestructura. Necesitas arquitecturas flexibles que puedan copiar datos a plataformas analíticas con una latencia cercana a cero, manteniendo un tiempo de actividad de producción del 100%.
Este libro demuestra cómo la captura de datos de cambios (CDC) puede satisfacer los requisitos de escalabilidad, eficiencia, tiempo real y cero impacto de las arquitecturas de datos modernas.
Team Topologies es un modelo práctico, paso a paso y adaptable para el diseño organizativo y la interacción de equipos basado en cuatro tipos de equipos fundamentales y tres patrones de interacción de equipos. Se trata de un modelo que trata a los equipos como el medio fundamental de prestación de servicios, en el que las estructuras de equipo y las vías de comunicación pueden evolucionar con la madurez tecnológica y organizativa.
En Team Topologies, se comparten los secretos del éxito de los patrones e interacciones de equipo para ayudar a los lectores a elegir y hacer evolucionar los equipos adecuados para tu organización, asegurándote de mantener el software limpio y optimizar los flujos de valor.
Team Topologies es un gran paso adelante en el diseño organizativo para software, ya que presenta una forma bien definida para que los equipos interactúen y se interrelacionen que ayuda a que la arquitectura de software resultante sea más clara y sostenible, convirtiendo los problemas entre equipos en señales valiosas para la organización autodirigida.
Text Mining: Classification, Clustering, and Applications se centra en los métodos estadísticos para la minería y el análisis de textos. Examina métodos para agrupar y clasificar automáticamente documentos de texto y aplica estos métodos en diversas áreas, como el filtrado adaptativo de información, la destilación de información y la búsqueda de textos.
El libro aborda la clasificación de documentos en categorías predefinidas. Presenta los algoritmos más avanzados y su uso en la práctica, y describe métodos novedosos para agrupar documentos en grupos no predefinidos. Estos métodos pretenden determinar automáticamente las estructuras temáticas que pueden existir en un corpus de documentos. El libro concluye analizando diversas aplicaciones de la minería de textos que tienen importantes implicaciones para la investigación y el uso industrial en el futuro.
No cabe duda de que la minería de textos seguirá desempeñando un papel fundamental en el desarrollo de los futuros sistemas de información y los avances en la investigación serán decisivos para su éxito. Este libro capta la profundidad técnica y el inmenso potencial práctico de la minería de textos, guiando a los lectores hacia una sólida apreciación de este floreciente campo.
Nos gusta pensar que controlamos el futuro de la inteligencia "artificial". La realidad, sin embargo, es que nosotros -las personas corrientes cuyos datos alimentan la IA- no controlamos nada. Cuando, por ejemplo, hablamos con Alexa, contribuimos con esos datos a un sistema que no podemos ver y en el que no podemos intervenir, un sistema en gran medida libre de regulación o supervisión. Las nueve grandes corporaciones -Amazon, Google, Facebook, Tencent, Baidu, Alibaba, Microsoft, IBM y Apple- son los nuevos dioses de la IA y están usando nuestros datos para obtener beneficios económicos inmediatos.
En libro revela las formas omnipresentes e invisibles en las que los cimientos de la IA -las personas que trabajan en el sistema, sus motivaciones, la propia tecnología- están rotos. Dentro de poco, la IA empezará a comportarse de forma impredecible, pensando y actuando de maneras que desafían la lógica humana. Las nueve grandes corporaciones pueden estar construyendo y habilitando inadvertidamente vastos conjuntos de sistemas inteligentes que no comparten nuestras motivaciones, deseos o esperanzas para el futuro de la humanidad.
Mucho más que una apasionada llamada a las armas centrada en el ser humano, este libro ofrece una estrategia para cambiar de rumbo y proporciona un camino para liberarnos de los responsables algorítmicos y de las poderosas corporaciones.
La función relativamente nueva de director de datos (CDO) se ha creado para abordar la cuestión de la gestión de los datos de una empresa como un activo estratégico, pero el problema es que no existe un "libro de juego" universalmente aceptado para esta función. El rápido aumento del volumen y la complejidad de los datos, así como el cumplimiento de la normativa en relación con los datos, agravan el reto. Este libro ofrece una guía práctica para que los CDOs de hoy en día gestionen los datos como un activo y, al mismo tiempo, proporcionen los datos fiables necesarios para impulsar las iniciativas empresariales, desde las tácticas hasta las transformadoras.
La guía describe la relación entre el CDO y el equipo de gobierno de datos, cuya tarea es la formulación de políticas para optimizar, asegurar y aprovechar la información como un activo empresarial alineando los objetivos de múltiples funciones. Ofrece una visión única de la función del CDO y presenta un plan para implantar con éxito el gobierno de datos en el contexto del cargo. Con los consejos prácticos que necesitan los CDO, este libro ayuda a establecer nuevas prácticas de gobierno de datos o a madurar las ya existentes.
Comprender DataOps en el contexto de un siglo de evolución de las ideas que mejoran la forma en que las personas gestionan sistemas complejos. Comenzó con pioneros como W. Edwards Deming y el control estadístico de procesos; poco a poco, estas ideas se trasladaron al espacio tecnológico en forma de Agile, DevOps y, ahora, DataOps.
El notable interés en DataOps ha abierto la puerta a muchas conversaciones con profesionales de datos, tanto en funciones de contribución individual como de gestión. Estas conversaciones han estimulado una mayor reflexión sobre DataOps.
Este libro te da las recetas esenciales para entender este paradigma y a través de casos prácticos te muestra el camino para su implementación.
Incluso los más listos pueden sentirse ineptos al no saber qué interruptor de la luz o qué quemador del horno encender, o si empujar, tirar o deslizar una puerta. La culpa, argumenta este ingenioso -e incluso liberador- libro, no es nuestra, sino del diseño de los productos, que ignora las necesidades de los usuarios y los principios de la psicología cognitiva. Los problemas van desde controles ambiguos y ocultos hasta relaciones arbitrarias entre controles y funciones, pasando por la falta de retroalimentación u otro tipo de ayuda y las exigencias irrazonables de memorización. The Design of Everyday Things demuestra que es posible un diseño bueno y usable. Las reglas son sencillas: hacer las cosas visibles, explotar las relaciones naturales que unen función y control, y hacer un uso inteligente de las restricciones.
Este libro nos transmite reglas que perfectamente pueden, y han de ser, extrapoladas a cualquier producto de datos, ya sea un data set, visualización, reporte o KPI, que tenga como objetivo la facilidad de uso, el descubrimiento de funcionalidades, o la transferencia y generalización de la información en nuestras organizaciones.
Thinking in Systems es un libro conciso y crucial que ofrece ideas para resolver problemas a escala que van de lo personal a lo global. Este manual esencial saca el pensamiento sistémico del ámbito de los ordenadores y las ecuaciones para llevarlo al mundo tangible, mostrando a los lectores cómo desarrollar las habilidades de pensamiento sistémico fundamentales para la vida del siglo XXI.
Algunos de los mayores problemas a los que se enfrenta el mundo -guerra, hambre, pobreza y degradación medioambiental- son esencialmente fallos del sistema. No pueden resolverse arreglando una pieza aislada de las demás, porque incluso los detalles aparentemente menores tienen enormes repercusiones.
Aunque los lectores aprenderán las herramientas conceptuales y los métodos del pensamiento sistémico, el núcleo del libro va más allá de la metodología. Thinking in Systems recuerda a los lectores que deben prestar atención a lo que es importante, no sólo a lo que es cuantificable, mantenerse humildes y seguir aprendiendo.
Sea cual sea el sector o la profesión a la que te dediques, Thinking in Systems aportará claridad a las complicadas, abarrotadas e interdependientes redes que conforman el mundo actual. Thinking in Systems te ayudará a evitar la confusión y la impotencia, el primer paso para encontrar soluciones proactivas y eficaces.
Vivimos en la era del algoritmo. Cada vez más, las decisiones que afectan a nuestras vidas -a qué colegio vamos, si nos prestan el coche, cuánto pagamos de seguro médico- no las toman seres humanos, sino modelos matemáticos. En teoría, esto debería conducir a una mayor equidad: Todo el mundo es juzgado según las mismas reglas y se eliminan los prejuicios.
Sin embargo, los modelos que se utilizan hoy en día son opacos, no están regulados y son incontestables, incluso cuando se equivocan. Y lo que es más preocupante, refuerzan la discriminación. Bienvenidos al lado oscuro del Big Data. Trazando el arco de la vida de una persona, se expone cómo los modelos de caja negra que moldean nuestro futuro, como individuos y como sociedad.
Estas "armas de destrucción matemática" puntúan a profesores y alumnos, clasifican currículos, conceden (o deniegan) préstamos, evalúan trabajadores, seleccionan votantes, establecen la libertad condicional y controlan nuestra salud.
Weapons of Math Destructuin pide a los creadores de modelos que se responsabilicen más de sus algoritmos y a los responsables políticos que regulen su uso. Pero, al final, depende de nosotros ser más conscientes de los modelos que rigen nuestras vidas. Este importante libro nos anima a hacer las preguntas difíciles, descubrir la verdad y exigir cambios.
a b c d e f g h i j k l m n o - Do not remove from template!!! it is important to support different fonts
+34651836623 +34722414970
info@aidamo.work
Madrid, Spain
ELEMENT-->