Su objetivo es ayudar a las empresas y organizaciones a tomar decisiones informadas y mejorar sus operaciones a través del análisis de datos. Cabe señalar que el Big Data se caracteriza por tres adjetivos propios para el desarrollo de un proyecto de investigación, que son “Volumen”, “Variedad” y “Velocidad”, conocidos como las 3 V del Big Data; otros autores (Ishwarappa y Anuradha, 2015) adicionan la “Veracidad” y “Valor”. El volumen curso de ciencia de datos en el campo del Big Data demanda grandes recursos de procesamiento y almacenamiento de información, que están representados en la “Variedad” de los datos, que pueden ser de tipo estructurados y no estructurados. Con respecto a la “Velocidad”, hace referencia a la cantidad de datos que se generan periódicamente y requieren de una infraestructura tecnológica escalable que permita su disponibilidad y acceso en cualquier momento.
En [11] se presenta una guía completa, tanto de forma conceptual como con ejemplos de aplicación de Hadoop y de varias herramientas asociadas a este. Facebook inicialmente usaba data warehousing sobre una instancia Oracle, sin embargo, con su crecimiento se tuvo que pensar en nuevas alternativas, Hadoop fue atractiva porque ya se usaba en Yahoo para procesamientos internos y usaba el modelo MapReduce popularizado por Google. Dentro de los https://www.elbravo.mx/el-curso-de-ciencia-de-datos-que-te-prepara-para-un-trabajo-en-la-industria-de-ti/ documentos más relevantes para hacer frente a esta situación de vulneración de los derechos humanos por el uso de técnicas de big data más recientes, se encuentran las Directrices éticas para una inteligencia artificial (IA) fiable, estudio de los expertos que señala que la IA debe ser lícita, ética y robusta. Estas directrices apenas se discutieron el año 2019 y es este año 2020 cuando se podrán tener datos derivados de esta experiencia.
Tendencias para 2024 en Big Data e Inteligencia Artificial
Otro tipo de aplicación del aprendizaje automático ronda entorno a la predicción de riesgos de infección, basado en características específicas de una persona, tales como edad, ubicación geográfica, nivel socioeconómico, hábitos sociales y de higiene, condiciones preexistentes e interacción humana, entre otros. Con estos datos se puede establecer un modelo predictivo sobre el riesgo que puede traer consigo un individuo o grupo de personas de contraer COVID-19 y factores asociados a desarrollar complicaciones (Jiang et al., 2020) e incluso, predecir los resultados de un tratamiento. Con este tipo de proyecciones, literalmente se podría predecir si un paciente vive o muere.
No es relevante argumentar demasiado acerca de la intensidad del fenómeno ni de la relevancia de diseñar políticas destinadas a mejorar el bienestar de su población. La medición moderna del bienestar implica llevar a cabo un complejo sistema de encuestas a fin de garantizar que las mediciones obtenidas sean comparables para varios períodos y regiones. A modo de ejemplo, la medición basada en el “enfoque de líneas” (Gasparini, Cicowiez y Sosa Escudero, 2013) requiere una encuesta regular de ingresos y otra de precios y consumos que permitan observar si los ingresos de un hogar superan el valor de una “línea” debajo de la cual se considera que un hogar es pobre. Estos perfiles expertos en el sector en el que trabajan, intentan reducir las diferencias que existe entre la parte IT y el negocio.
Visión artificial en la industria 4.0: ¿Qué es y qué aplicaciones tiene?
También resulta muy útil el conocimiento para extraer datos de las bases de datos y Data Warehouses corporativos, para lo que generalmente se usa el lenguaje SQL. Entre las herramientas más importantes para los ingenieros de datos se encuentran Apache Spark y Apache Kafka. Además, deben estar familiarizados con plataformas cloud como AWS o Azure y con metodologías de trabajo ágiles.
En este contexto, el presente artículo busca ofrecer un estado del arte de cómo se ha estudiado este vínculo, qué preguntas suscita, las nuevas técnicas de análisis sobre las que han de apoyarse las ciencias sociales, las investigaciones a que han dado lugar, así como algunos de los dilemas éticos. Con el auge del Big Data se ha dado cabida también a un nuevo concepto, Data Science o Ciencia de los Datos, que se usa de forma genérica para hacer referencia a la serie de técnicas necesarias para el tratamiento y manipulación de información masiva desde un enfoque estadístico e informático. Incluyendo también el surgimiento de un nuevo perfil profesional, el “Data Scientist”[3], las personas capacitadas en este perfil deben saber del negocio, de las herramientas computacionales y de análisis e interpretación estadística.
0 Comments