Liên Hệ: 096.224.6966

admin@nhonho.com.vn

Big Data: una exploración de investigaciones, tecnologías y casos de aplicación

En la práctica, estudios de esta índole buscan mejorar la certeza tanto en diagnósticos clínicos38,42,43 como radiológicos y de anatomía patológica40,44,45, avanzar hacia una medicina personalizada, identificar poblaciones de riesgo para incluirlas en tamizajes poblaciones e identificar potenciales intervenciones de alto impacto en salud pública46,47. Esta cantidad masiva de datos, coloquialmente referida como Big Data, es parte de la metodología discutida previamente; los datos son la materia prima a partir de la que deseamos extraer información útil. Sin embargo, definir Big Data exclusivamente en términos del volumen de los datos ofrece una visión parcial y limitada que no explica su potencial, ni evidencia los desafíos que presenta su manipulación.

articulos cientificos de big data

Dentro de la comunidad estadística en los últimos años se vienen realizando actividades de capacitación y divulgación de experiencias, dirigiendo los esfuerzos hacia el marco de calidad de los macrodatos (Bussi et al., 2017; Lineros, 2017). Incluye las habituales noticias sobre los big data y tendencias tecnológicas, como también editoriales de expertos del sector. Sin embargo, lo que lo distingue del resto de los blogs de ciencia de datos son sus recursos para empezar una carrera profesional en este campo. El sitio ofrece de manera gratuita una biblioteca de investigaciones de TI y guías para principiantes. Para aquellos que ya forman parte del sector y buscan avanzar en el plano laboral, este blog también cuenta con un panel de ofertas laborales y una base de datos de candidatos. Las nuevas tecnologías de almacenamiento y análisis de datos están cambiando la gobernanza de los países; pese a los grandes beneficios que ofrecen al brindar mecanismos más eficaces para prestar servicios a sus ciudadanos, aún no son estrategias de planes de gobierno para muchos países en vías de desarrollo.

IA y más datos de pacientes para arreglar la falta de nuevos fármacos

Finalmente, se espera que esta investigación sirva como referente de estudio y análisis en cursos de educación media y superior, y como punto de partida para futuras investigaciones que profundicen en áreas específicas o de interés, y que contrasten a la región con el resto del mundo. Así, el Big Data puede ayudar a descubrir el peligro de una pandemia al identificar en tiempo real tendencias en buscadores de Internet como Google Trends o sistemas de datos (Monleón-Getino, 2015). Un claro ejemplo de esta metodología ocurrió en Colombia, donde una investigación desarrollada entre la Fundación ISI y las Naciones Unidas describe que puede asociarse el contagio de zika entre 2014 y 2016 a través del rastreo curso de ciencia de datos de la posición geográfica de las personas al usar su teléfono móvil (Perrotta, 2018). Frecuentemente, los conceptos de Big Data, IA y ML se encuentran estrechamente relacionados. Mientras que Big Data hace referencia al almacenaje y procesamiento, por su parte, la IA es un área de las Ciencias de la Computación que se encarga del diseño de sistemas inteligentes, y se refiere a algoritmos que buscan simular las capacidades de inteligencia del cerebro humano (Ocaña et al., 2019). Por su parte, ML es cualquier algoritmo informático que aprende a realizar una tarea directamente a partir de ejemplos, sin que un ser humano proporcione instrucciones o reglas explícitas sobre cómo hacerlo (Majaj y Pelli, 2018).

  • Este nuevo paradigma da prioridad a la precisión de los datos, la capacidad de adaptarse al entorno cambiante de los negocios y la disponibilidad para ser utilizados en la toma de decisiones (García et al., 2016; Pereira Villazón et al., 2019).
  • Como resultados se obtiene una síntesis y conclusiones en torno a la temática y se plantean posibles escenarios para trabajos investigativos en el campo de dominio.
  • ENT#091;LENT#093;as nuevas tecnologías de la información y la comunicación han creado condiciones para la aparición de sociedades del conocimiento.
  • Sobre la trasmisión del virus, Yang y Wang (2020, 2710) afirman que, en la revisión de 22 tipos de coronavirus, tanto el SARS-CoV, el MERS-CoV y coronavirus humanos endémicos pueden persistir en superficies inanimadas como metal, vidrio o plástico por hasta nueve días, proporcionando evidencias sólidas de la supervivencia ambiental del patógeno.

Los ingenieros de datos mantienen sistemas de gestión, almacenamiento y procesamiento de datos escalables, con alta disponibilidad y rendimiento, integrando nuevas tecnologías y desarrollando el software necesario. El tipo de esfuerzo institucional que requiere un sistema organizado de encuestas regulares está muy lejos de las posibilidades de un país como Ruanda. Blumenstock, Cadamuro https://www.elbravo.mx/el-curso-de-ciencia-de-datos-que-te-prepara-para-un-trabajo-en-la-industria-de-ti/ y On (2015) construyeron un modelo algorítmico que permite predecir la intensidad de la pobreza en Ruanda con base en la del uso de teléfonos celulares. El método se basa en una pequeña encuesta de bienestar que es utilizada para entrenar un algoritmo de machine learning que permite predecir el bienestar (y la pobreza) con base en cuán intensa y frecuentemente se usan los celulares.

Guía de Procesos ETL: Qué son, cómo usarlos y herramientas clave

Ambos autores consideran que el big data puede ser una herramienta de gran utilidad para los derechos humanos; sin embargo, también dejan ver los posibles riesgos que pueden generarse por una mala programación o utilización de la información que se genera a través de estos análisis de datos. El análisis de big data se basa en la inteligencia artificial, la misma que es entendida como «el estudio de cómo programar computadoras que posean la facultad de hacer aquello que la mente humana puede realizar» (Escolano et al., 2003, p. IX). Por otro lado, el aprendizaje de las máquinas -o machine learning, en inglés- es definido como «la programación de computadoras para optimizar su desempeño, usando un criterio con datos previos o experiencias pasadas» (Alpaydin, 2010, p. XXXV) para obtener grandes cantidades de datos personales en la toma de decisiones que están relacionadas con los individuos. El análisis de grandes cúmulos de datos incluye la aplicación de un análisis veloz y sofisticado en donde la información de individuos y de grupos humanos es obtenida de diversas fuentes. Para ello, se utilizan herramientas como la inteligencia artificial con el objetivo de procesar y analizar los datos obtenidos para predecir y anticipar los eventos futuros de esa manera (Paterson & Maeve, 2018, p. 3). Cabe señalar que Joyanes expone que el uso del concepto de big data se remonta al año 1984 en el ámbito académico y a 1987 fuera de este (2013, p. 3).

Cada año aumentan el número de artículos e investigaciones realizadas en el campo del Big Data, así como el impacto que ha tenido en las diferentes industrias. Además de todos los avances que ha permitido esta nueva forma de utilizar los datos, también se recogen los diferentes retos que plantea esta nueva forma de captura y uso de los datos y de la información. El avance de la neurociencia ha permitido el desarrollo de nuevas técnicas informáticas para tener una mejor aproximación a estos problemas. La aparición de estas herramientas representa una de las características de este nuevo ciclo de la IA, presente en el mundo desde mediados de la década de los cincuenta.

Síguenos en las redes

Con metodologías y plataformas tecnológicas como Esri, la figura del científico de datos demuestra las oportunidades que ofrecen las tecnologías de big data tanto al sector privado como al público. El uso de grandes cantidades de datos es mucho más que una herramienta útil para la toma de decisiones, pues considera que el contar con esa metodología y esas técnicas de investigación del análisis de datos proporciona una visión única, dependiendo del contexto en el que se lleve a cabo, como en la política, la ciencia o los negocios. No obstante, la cuestión es que en esta cadena de suministro de datos existen diversos participantes, que van desde las personas que proporcionan la información, las autoridades o las empresas que recolectan los datos, hasta las personas que van a diseñar los algoritmos para que el cúmulo de información prevea un significado; es decir, que se interpreten los datos (Nersessain, 2018, p. 849).

Una vez obtenidos los resultados, realizamos una primera revisión preliminar de los resúmenes donde percibimos que muchos artículos trataban sobre Twitter o big data, pero no sobre migraciones, y viceversa. Para evitar los falsos positivos e identificar artículos que pudiesen ser susceptibles de un posterior análisis en profundidad, todos los títulos y resúmenes obtenidos se codificaron con los términos de búsqueda y sus derivados, con la ayuda del software Atlas ti 8.0. La codificación nos permitió identificar y confirmar más rápidamente aquellos resúmenes que abordaran las dos temáticas a la vez y por tanto correspondieran a nuestros criterios. En el caso del problema de predicción, si denotamos Y a la variable de respuesta (variable dependiente) y X a las variables predictoras (variables independientes), entonces el método cuyo fin es realizar predicciones busca modelar matemáticamente la información sistemática que X proporciona acerca del valor de Y. La relación entre la respuesta y los predictores puede ser descrita a través de una función f para la cual se tiene Y ≈ f(X); de esta forma, podemos realizar una predicción simplemente evaluando esta función para nuevos valores de las variables predictoras.

Hoàng Trọng Định

Hoàng Trọng Định

Phó giám đốc công ty TNHH công nghệ NHONHO ĐT/Zalo: 088.6010.378

Leave a Replay

Bạn có muốn nhận thông báo về các bản cập nhật mới nhất không? Không Liên hệ tư vấn