Archivo de la categoría ‘Open Data’

Big Data para predecir en qué zona de Londres habrá un crimen

Tiempo atrás comentábamos la posibilidad de predecir el mercado de valores (http://goo.gl/G6slRj) y las enfermedades. La conclusión fue que aún no es una tecnología confiable. Sin embargo la promesa de Big Data de encontrar correlaciones entre lo que se registra y lo que pudiese suceder a posteriori sigue siendo un tema muy atractivo. Por esta razón quise compartir este llamativo comentario aparecido en el Blog de “Power Data” (http://goo.gl/TFi1EG).

Londres

Dicho comentario empieza hablando del concepto de la “Analítica Predictiva”, ciencia que recién aparece y que trata de “predecir el comportamiento, y está presente en todos los aspectos de nuestra vida. Pone en valor el poder de los datos y afecta cada día a la toma de millones de decisiones. Bancos, empresas, políticos y organizaciones la utilizan para convencernos de que necesitamos sus productos o servicios. ¡La utilizan para controlar nuestra forma de actuar! ¿Por qué? La predicción del comportamiento humano combate el riesgo financiero, mejora los cuidados sanitarios, permite luchar contra el spam, ayuda en la persecución de delitos y aumenta las ventas. ¿Cómo? La predicción se alimenta del recurso no natural más potente y actual: la información. Información que se nutre de datos residuales, recopilados gracias a tareas rutinarias realizadas por las organizaciones. Pero, ¡Sorpresa! Estos datos aparentemente inútiles son una mina de oro. Una fuente extraordinaria de experiencia de la que podemos obtener información. Siegel ha conseguido un libro ameno y entretenido que, combinando hábilmente historias y anécdotas reales con teoría, nos explica cómo se analiza el comportamiento y como predecirlo” (Analítica predictiva: predecir el Futuro utilizando Big Data, Eric Siegel, Anaya Multimedia, 2013, 384 páginas).

Se plantea que es factible aplicarlo en la predicción del crimen en la ciudad de Londres. Se indica que “La bases de datos Smart Steps, un producto de Telefónica por ahora sólo disponible en Reino Unido, permite predecir con hasta un 70 por ciento de fiabilidad en qué zona se cometerá un robo o un asesinato en las calles de Londres. Lo hace a partir de los datos de los móviles y sin necesidad de conocer la identidad de sus usuarios, sólo a partir de un perfil socio demográfico de la zona y la actividad las antenas móviles que utiliza para calcular cuántas personas hay concentradas en una determinada área.

El proyecto se creó durante la Campus Party de 2013 celebrada en la capital londinense, como respuesta al reto planteado por el Instituto Tecnológico de Massachusetts (MIT), Telefónica y el Open Data Institute para desarrollar una herramienta de predicción criminalística aplicable en la ciudad anfitriona del evento”.

El comentario termina planteando que “Hasta ahora, se había comprobado que los datos socio demográficos del barrio permitían predecir en un 62 por ciento la probabilidad de que hubiese un crimen. Ahora, gracias a este sistema, el porcentaje alcanza el 70 por ciento sólo mediante la combinación de esos mismos datos obtenidos del Open Data Institute con datos móviles de red”.

Después del “fiasco” de Google Flu Trends, esta aplicación se presenta como un gran avance en la aplicación práctica de los principios de Big Data en un tema tan sensible como la seguridad ciudadana. ¿Podríamos hacer lo mismo en Chile?

Nuevas tendencias tecnológicas.… según IBM

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

En un comentario anterior hablé brevemente de la historia y aportes de la empresa IBM (http://goo.gl/Q4ISrU). Hace poco mencioné otro de sus aportes, esto es el desarrollo de la Tecnología Watson (http://goo.gl/1h4fYA).

Ahora quiero compartir la experiencia de haber participado este viernes 7 de noviembre en un Taller de Capacitación organizado por la empresa IBM. En esta ocasión vimos 2 temas:

1. La tecnología Bluemix que permite desarrollar software directamente “en la Nube” y dejarlas disponibles de inmediato (lo llaman hacer un “Deployment instantáneo”). Estas presentaciones estuvieron a cargo de los Ingenieros Armando Castillo (lo pueden seguir en su Twitter: @ajcastilloe) y Marco Arias.

Ambos explicaron los conceptos que están detrás de la tecnología destacando que se puede:

- Automatizar las pruebas y el desarrollo.

- Tener un foco en las aplicaciones no en la infraestructura.

- Lograr un código seguro (de hecho tiene una opción que lo revisa y detecta fallas de seguridad).

- Aplicar la lógica “Infrastructure as a Service” lo que facilita los emprendimientos de pequeñas empresas al pagar estas solo por el uso real de las aplicaciones que creen.

- Enfocarse en el código y en los datos dejando la plataforma en manos del servicio proporcionado por IBM.

- Tener disponible una aplicación Web/Móvil realmente útil creada por 5 programadores en tan solo 1 hora.

- Dejar la aplicación Web asociada directamente a una URL lo que permite accederla directamente.

Ambos destacaron que Bluemix utiliza “boilerplates” que son “moldes” o “cáscaras” que permiten armar las aplicaciones, reduciendo los tiempos de construcción. También insistieron que trae “runtimes” para Java, Java Script, Ruby y otros lenguajes permitiendo aprovechar todo el código que ya se tenga generado.

Si quieren descargar una presentación formal de Bluemix donde se indica además como registrarse para utilizarla de manera personal hagan click aquí.

Si quieren conocer los próximos eventos de Bluemix se pueden inscribir en:

http://www.meetup.com/Santiago-PaaS-Bluemix-and-Cloud-Computing-Meetup/

2. La Tecnología Watson que permite acceder a los servicios para realizar el proceso de “Big Data”. Tal como se mencionó tiempo atrás “Los big data, o datos masivos, se refieren a cosas que se pueden hacer a gran escala para extraer nuevas percepciones o crear nuevas formas de valor. En resumen consiste en procesar TODOS los datos que representen una situación dada y extraer conclusiones automáticas respecto a ellos” (http://goo.gl/M4epZV).

¿Qué aporta Watson? La posibilidad de procesar de manera gratuita grandes volúmenes de datos a través de servicios Web. Por supuesto que también tiene servicios pagados que facilitan el proceso específico de ciertos tipos de datos. Como ejemplo se mencionó que existe un servicio para procesar los datos generados en Twitter que tiene acceso al registro real generado por esta red social.

En resumen Watson se basa en 3 características principales:

- Entiende el Lenguaje Natural (de hecho se hizo la prueba de preguntarle “¿Qué es el Ébola?” y contestó con una certeza del 27%).

- Hace hipótesis.

- Aprende con el tiempo lo que lo hace una herramienta extremadamente poderosa.

Como ven están nuevas tecnologías que están disponibles en forma gratuita (hasta cierto nivel de uso por supuesto) permiten ser aplicadas de manera útil de forma casi instantánea. Una vez que se ha logrado un cierto manejo y se tiene la posibilidad de sacar provecho de lo que se ha construido llega el momento de pagar al proveedor y seguir adelante.

Cabe destacar que Watson tiene disponible 8 servicios gratuitos lo que resulta muy tentador para cualquier empresa para entrar de lleno en el uso de Big Data.

Si quieren descargar una presentación formal de Watson hagan click aquí.

Watson, la gran apuesta de IBM por las soluciones de Big Data

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

En los últimos comentarios hemos estado hablando de Big Data (http://goo.gl/SeRSdd), tema que ha ido tomando gran relevancia en los últimos meses. Ahora me permito hacerles llegar este comentario que combina el tema antes mencionado con los aportes de la centenaria empresa IBM (http://goo.gl/PmYcrq). Se trata de la creación de Watson Discovery Advisor, “una plataforma para el análisis de grandes datos lanzado por la compañía bajo un modelo freemium, que ofrecerá a sus usuarios servicios básicos gratuitos y otros de pago más avanzados o especiales” (http://goo.gl/bJ9OYN).

El aporte de esta tecnología está en el procesamiento de grandes volúmenes de datos para dar respuesta a preguntas de investigación o bien de alcance empresarial.

Sin embargo esto no queda solo aquí ya que se destaca que “el objetivo es ayudar a agilizar la gestión empresarial y también a la investigación científica aportando soluciones inteligentes tras un análisis de grandes datos cuyos resultados transmite empleando un lenguaje similar al humano“.

Lo anterior nos lleva a plantear los desafíos de la computación cognitiva (http://goo.gl/2LNs5), “tecnología informática de tercera generación, -término acuñado por Wang en 2002, confiere a la máquina un funcionamiento similar al que realizaría el cerebro humano, siguiendo los principios de la neurociencia.

Se trata, en suma, de inspirarse en el funcionamiento de este órgano para avanzar en el difícil pero apasionante camino de la inteligencia artificial.

El desarrollo clásico informático es justo el paradigma que se pretende combatir, orientando la tecnología de máquinas como Watson para hacer posible una interacción que permita encontrar respuestas a problemas complejos a partir de tecnologías que también lo sean”.

Como ejemplo de su aplicación se puede destacar las seis proteínas que Watson fue capaz de sugerir en el marco de una investigación del Baylor College of Medicine donde fue necesario que analizara 70.000 artículos de investigación científica sobre este mismo tema.

¿Qué vendrá después? Obviamente no lo sabemos pero sí podemos sospechar que será mejor de lo que tenemos hoy en día.

Por último les dejo este link para que descarguen un interesante artículo sobre la administración de los datos o Data Management:

Comentarios recientes