top of page

¿Se puede comercializar la Big Data?

Sin duda que la comercialización de la Big Data nos genera gran curiosidad y mejor dicho interés, debido a que lo que se está comercializando, son nuestros propios datos y por lo mismo debemos tener la seguridad de que aquellos datos serán utilizados de forma correcta y por personas que sean competentes para el uso de ellas.

Sin embargo, más de alguna situación ha surgido en cuanto al mal uso de datos de determinado sujeto, esto claramente deriva posiblemente de una compra por internet en donde no muchos leen y solo hacen click en “acepto los términos” sin siquiera dar una leída rápida. Como usuarios o consumidor de productos o servicios más de alguna vez se nos ha recomendado leer los términos y condiciones sea de un contrato tangible o por internet, porque eso es lo que hacemos, al contratar con la otra “persona” creemos que se actúa de buena fe pero no siempre sucede así y como dije en líneas anteriores, es justo de acá que nace el problema porque no solo hay un mal uso de nuestros datos sino que tampoco hay a quien exigirle ya que no todas las empresas o sujetos en particulares se hacen responsables por el robo de información o simplemente el mal uso.

Big Data ha sido, y sigue siendo, una de las “hot keywords” en el panorama de los negocios tecnológicos. Ahora bien, ¿qué es lo que hace diferente al Big Data de otros términos de moda? Básicamente la necesidad real que ya existe en el mercado y sobre todo la necesidad que estamos empezando a vislumbrar que habrá en muy poco tiempo.

Básicamente el Big Data se refiere a procesar grandes volúmenes de información. ¿Cómo de grandes? Lo suficientemente grandes como para que sea muy complejo y costoso procesarlos utilizando la tecnología de bases de datos relacionales y las técnicas clásicas de análisis de datos.

La necesidad de nuevas técnicas para el análisis de datos se ha venido gestando en la última década, por dos motivos fundamentales. El principal, el incremento exponencial en la cantidad de información generada, y añadido a esto la necesidad de procesar estos datos en un tiempo cada vez menor. Vivimos ya en la época del “real time”, y los datos deben ser procesados en mili segundos para que el resultado de ese análisis pueda entregarse a un sujeto determinado lo antes posible.

Los comercios tradicionales pueden obtener grandes cantidades de información acerca de las preferencias y comportamientos de los clientes y enviar avisos a través del wifi y el bluetooth. A su vez, las marcas necesitan hacerse cada vez más presentes en las pantallas del celular de los clientes para incrementar sus tasas de conversión.

Como sugieren varios estudios, conseguir influir sobre el cliente en la tienda física continúa siendo crucial, es allí donde se juega la mayor batalla con la competencia. Pero el análisis de la presencia en la tienda física requiere un flujo continuo de datos para poder identificar patrones significativos y ofrecer sugerencias bien sustentadas.

Son tantas las fuentes de datos, la variedad y la velocidad en que se generan esos datos que es indispensable tener sistemas, lenguajes y algoritmos para producir una experiencia unificada, flexible y eficiente a los clientes.

Muchas empresas tienen sistemas de inteligencia de negocios (business intelligence). Pero estos son insuficientes ante la avalancha de datos por manejar. Además, solo hacen descripciones, usan técnicas estadísticas que no permiten predicción y diagnósticos, y solo abarcan un limitado número de variables.

Ahora se requieren tecnologías de almacenamiento, de gestión y de análisis de datos (como la de código abierto Hadoop) distintas a las tradicionales. Asimismo, se requiere que tengan procesamiento paralelo, donde se ejecutan muchas instrucciones y tareas al mismo tiempo para acelerar la resolución de problemas.

Sin duda, el Big Data tiene cuatro grandes retos que son el volumen, la velocidad, la variedad y el valor.

La información, para que tenga valor añadido, debe ser generada con gran velocidad con el fin de ser procesada en tiempo real

Las técnicas de Big Data ayudan a manejar un enorme volumen de información de gran variedad, tanto del tipo de datos (palabras utilizadas, ubicación y movilidad, información geológica y climática, inventarios, transacciones, registros bancarios) como de las fuentes que los originan (teléfonos móviles, audio, video, sistemas de posicionamiento satelital, sensores digitales en equipos domésticos o industriales, instrumentos climáticos, buscadores de internet, transacciones financieras, etc.).

Cuando estos dispositivos se conectan entre sí e interactúan con el entorno, tenemos una nueva dimensión: internet de las cosas, que multiplica exponencialmente los datos disponibles.

Además, el análisis de esa cantidad de información requiere de velocidad de respuesta, sobre todo si se pretende actuar en tiempo real, una cuestión clave en ocasiones de catástrofes ambientales o la propagación de enfermedades contagiosas.

Específicamente, pueden identificarse cuatro tipos de impacto de este desarrollo tecnológico: aumento de la productividad y la eficiencia, reducción de costos, crecimiento de los servicios incorporados en los bienes y ampliación del comercio electrónico.

Desde el punto de vista regulatorio, los principales desafíos de esta transición hacia objetos conectados, se vincularán con los derechos de propiedad intelectual, la protección de datos y privacidad, la ciberseguridad y las normas técnicas, entre otros.

 

El evento central del Instituto para la Integración de América Latina (Intal) abordará este tema en el panel “Big Data para una BIG Integración”, donde expertos mundiales compartirán los últimos avances en estos temas.

Como proceso implica el desplazamiento de los métodos analíticos tradicionales de análisis de datos por métodos estadísticos. Es así como no necesariamente nos brinda la explicación causal de un fenómeno sino su existencia. No explica el porqué, solo de que.

El big data diferencia, entonces, a las bases de datos convencionales, en cuanto al tipo de datos que pueden almacenar y analizar en masa. Por lo que, en tanto fenómeno se da como respuesta a la cantidad cada vez mayor de información que se produce, y a la creación de sistemas informáticos complejos que son capaces de analizar, procesar y almacenar estas grandes cantidades de información. Podemos ver que este concepto desde su definición descriptiva es el análisis y procesamiento de grandes cantidades datos estructurados y no estructurados que los procesos analíticos convencionales no podrían realizar. Desde su finalidad, es una herramienta que brinda criterios para la toma de decisiones. Aun así, por la complejidad y la cantidad de elementos que puede llegar a contener este concepto, la definición no es unánime, y los diferentes expertos brindan características que consideran fundamentales. Su llegada nos trae un nuevo paradigma frente a la información. Nos plantea que tiene un valor intrínseco y que por ende es importante determinar la propiedad de los datos para poder permitir y restringir su uso y disposición.

Tania Tureo J. - Maria Paz Vargas M.- Anain Hueico S. -  Camila Matamala A.

Estudiantes Fonoaudiología y Derecho

bottom of page