Lectura 12 MEJIA LORENA

UNIVERSIDAD DE ESPECIALIDADES ESPÍRITU SANTO TÓPICOS AVANZADOS DE SISTEMAS DE BASES DE DATOS Tarea 12 Reporte de Lectura TÍTULO DEL TEMA: Big data. Un nuevo paradigma de análisis de datos NOMBRE DE LOS AUTORES: Carlos Maté Jiménez PRINCIPALES IDEAS DE LA LECTURA Sobre incapacidad y mayor coste de Sistemas de Gestión de Base de Datos Relacionales ara mane’ar datos semi-estructurados y no estructurados, fre OF6 Las redes sociales co Svipe nextp a una linea de investi sentimiento.

MapReduce, Hadoop, análisis y almacenamiento de Big Data nkedin, dieron lugar es el análisis del aradigma para el Cloud Computing facilita la analítica de los Big Data. Manejo ético de los Big Data en la sociedad. CITAS TEXTUALES DE 3 DIFERENTES AUTORES QUE HAYAN ESCRITO SOBRE LAS IDEAS PRINCIPALES Fragoso, (2012) Sobre incapacidad y mayor coste de Sistemas de Gestión de Base de Datos Relacionales para manejar datos semi- estructurados y no estructurados, frente al poderoso Big Data. Big Data es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a n base de datos relacional para su análisis. De tal manera que, el concepto de Big Data aplica para toda aquella

Lo sentimos, pero las muestras de ensayos completos están disponibles solo para usuarios registrados

Elija un plan de membresía
información de Big Data «La inteligencia empresarial y análisis de datos está haciendo énfasis en el concepto de Big Data, muy asociado con NoSQl— Google MapReduce y Hadoop, pero sin una explicación clara de lo que se trata, y donde son útiles.

Big Data a través de Hadoop y NoSQl_ si tiene un papel que desempeñar en la ampliación de datos de la Web, pero la falta de conocimiento para explicar cómo Big Data hacen que no aprovechemos de mejor manera sus ventajas» Intel IT Center, (2015) Sobre Cloud Computing facilita la analítica de los Big Data. Cloud Computing ofrecen una flexibilidad excepcional, permite evaluar el mejor enfoque a la petición de cada usuario de negocios. or ejemplo, las organizaciones que ya soportan un ambiente interno de Cloud privada pueden añadir análisis de Big Data a sus ofertas. El uso de la infraestructura de la Nube nos lleva al análisis de un gran volumen de datos que tiene sentido porque: Las inversiones en el análisis de Big Data pueden ser importantes y conducir a una infraestructura rentable eficiente. Big Data puede mezclar fuentes internas y externas. Se necesitan de la Nube para extraer valor de los Big Data.

RESUMEN, SÍNTESIS O RESEÑA DEL TEXTO Introducción La implementación de sistemas de gestión de bases de datos relacionales (RDBMS), se diseñaron para datos estructurados sin una visón del crecimiento acelerado de los mismos, lo que hace de ellos una herramienta costosa para manejar y almacenar datos masivos, demostrando incapacidad para dar respuesta a muchos de los datos que aparecen ahora en las empresas. En este contexto aparece el término «Big Data».

Se han propuesto varias efiniciones para este empresas. En este contexto aparece el término «Big Data». Se han propuesto varias definiciones para este término, como la de Gartner en el 2012 que definió a Big Data como «activos de información caracterizados por su volumen elevado, velocidad, elevada y alta variedad, que demandan soluciones innovadoras y eficientes de procesado para la mejora del conocimiento y la toma de decisiones en las organizaciones».

Esta definición hace mención a las 3 famosas ‘V» delos Big Data: Volumen, Velocidad y Variedad Soluciones informáticas para el tratamiento de Big Data MapReduce: Este modelo de programación creado por Google es una implantación para procesar y generar grandes conjuntos de datos que tiene sus origenes en el lenguaje LISP. Y se maneja con funciones Map Una función mapa (Map) procesa un par clave/valor generando un conjunto intermedio de pares clave/ valor.

A continuación actúan varias funciones Reduce Una función de reducción (Reduce) mezcla todos los valores intermedios (clave’, valor’) asociados con la misma clave intermedia (clave’). Cada Reduce genera una salida de fichero única (o cero). Los programas escritos en este estilo funcional automáticamente e configuran en paralelo y se ejecutan sobre un gran clúster de máquinas, siendo altamente escalable. Hadoop: Representado por un elefante amarillo es una plataforma de software que permite escribir con facilidad y ejecutar aplicaciones que procesan ingentes cantidades de datos.

Entre sus características más relevantes esta: poseen alta velocidad y muestran un elevado grado de tolerancia al fallo, es eficiente en costes porque almacenan los datos en pequeños trozos a t 3 tolerancia al fallo, es eficiente en costes porque almacenan los datos en pequeños trozos a través de varios servidores, pueden rocesar consultas con rapidez al enviar varias consultas a múltiples máquinas al mismo tiempo. Incluye también: • MapReduce (motor de cálculo offline). • HDFS (sistema de ficheros distribuidos de Hadoop). • HBase (acceso de datos online).

NOSQL: El término NOSQL (Not Only SQL) hace referencia a amplias clases de bases de datos que se diseñan para manejar datos semiestructurados. Computación en la nube El término computación en la nube (Cloud Computing) es una solución de las tecnologías de la información (IT) para ofrecer recursos y servicios sobre Internet. La información se almacena e forma distribuida en servidores, siendo accesible en cualquier momento por el usuario, donde el sistema de «cloud» es el responsable de mantener siempre la información disponible.

En el caso de que se almacene una aplicación en la nube, el sistema es el que se encarga de subir la capacidad de cómputo, memoria, etc. , en función del uso que se le está dando a la aplicación, la nube delega la capacidad de almacenamiento y distribuye en los servidores el procesamiento de datos. Esto hace que en un sistema en la nube las capacidades de cálculo y almacenamiento sean muy elevadas. Cuestiones legales y éticas La obtención, tratamiento y explotación de los Big Data plantea importantes cuestiones de índole legal.

Ponen prueba el nivel ético de los distintos usuarios de estos datos ya sean gobiernos, organizaciones o empresas al momento de manipular Big Data. Las cuestiones éticas sobre los Big Data: privacidad, trans de manipular Big Data. Las cuestiones éticas sobre los Big Data: privacidad, transparencia, pérdida de identidad, discriminación y castigo anticipado y peligro de exclusión son consecuencias en el momento de utilizar en forma tergiversada, los datos calculados y nalizados por estas herramientas.

OPINION PERSONAL O REFLEXION DEL CONTENIDO DE LA LECTURA Es increíble como las herramientas de procesamiento y almacenamiento de datos evolucionan o se crean según las necesidades que surjan, desde nuestro viejo amigo Excel de Microsoft hasta hoy en cila con Hadoop de Apache. Los términos Big Data se van familiarizando cada dia más y son indudablemente de interés para las empresas, organizaciones que necesitan tratar con volúmenes de datos crecientes.

Hoy en día la información que nos rodea es de mucho valor para nosotros desde estudiantes, docentes, comercios, hasta grandes rganizaciones y entidades de gobierno, generando un mercado profesional emergente, que es el de los científicos de datos, y abriendo nuevas «neas de investigación, es por ello que se exige conocer este nuevo mundo que trae consigo grandes beneficios si se lo sale manejar correcta y completamente.

Se debe hablar de cuestiones éticas en nuestro medio al momento de tratar y analizar grandes cantidades de datos todos los beneficiados en este nueva ventaja de la tecnología, somos responsables de manejar con consciencia «el poder que tenemos en nuestras manos La toma de decisiones aún sigue siendo umana. CONCLUSIONES DE LA LECTURA Gran cantidad de información que se genera cada segundo en nuestro planeta. De tipo estructurada, semiestructurada o no estructurada.

L 5 genera cada segundo en nuestro planeta. De tipo estructurada, semiestructurada o no estructurada. Los sistemas de gestión de bases de datos tradicionales RDBMS basados en SQL son incapaces de procesar este nuevo contexto de los Big Data, lo que ha hecho necesaria la aparición de nuevos paradigmas en el tratamiento de datos masivos como MapReduce, Hadoop, NoSQL o Cloud Computing que permiten reducción de costes ayor flexibilidad y una utilización óptima de los recursos.

Las redes sociales generan datos masivos, otra fuente de generación enorme de Big Data será el Internet de las cosas, se trata de todos los datos que se generan entre persona y máquina o entre máquina y máquina. El análisis inteligente es un requisito positivo para la supervivencia de muchas empresas y organizaciones. Con ello, nuevos términos como Big Data, Mapreduce, Hadoop o Computación en la Nube se han creado e implantado para satisfacer este requisito. REFERENCIAS Fragoso, R. B. (18 de Junio de 2012). ?Qué es Big Data?

Obtenido de IBM [email protected]: https://www. ibm. com/developerworks /ssa/local/im/que-es-big-data/ Intel IT Center, l. (Abril de 2015). Big Data in the Cloud. Obtenido de Intel IT Center: http://www. intel. com/content/dam/www/public /us/en/documents/product-briefs/big-data-cloud-technologies -brief. pdf Kernochan, W. (20 de Octubre de 2011). Big Data, MapReduce, Hadoop, NoSQL: The Relational Technology Behind the Curtain. Obtenido de Enterprise APPS Today: http://www. enterpriseappstoday. com/business-intelligence/big -data-mapreduce-hadoop-nosql-l -html