¿El final de una era?

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

Probablemente, cuando aparecieron los primeros supermercados (uno, pretenciosamente, se declaraba “hipermercado”), los distintos almacenes de barrio tuvieron más de un temor, algunos fundados, otros no. El paso del tiempo los hizo convivir en una curiosa ecuación. Los almacenes de barrio se mantienen en primera línea, pues dan un trato más personalizado, tienen “pan fresquito” y claramente el proceso de compra en más rápido (e incluso sin dinero, simplemente con “libreta”, o más simple un “me llevo tal producto, de ahí te lo pago”). Aun así, hay muchos que no conocen los almacenes de barrio, sólo los grandes supermercados, donde hacen las compras del mes, pagan con tarjeta y, en no pocos casos, aprovechan de “mall-ear” (curiosa construcción verbal, pronunciada “molear” para quienes gustan de recorrer los “malls”).

Los supermercados, por su propia esencia son más impersonales, aun así hay quienes después de 2 o 3 visitas ya conocen de nombre a los distintos encargados de sección (y les asignan el mismo nivel de sabiduría tipo gurú, que al antiguo verdulero del barrio). Pero la mayoría no sólo no los conoce, sino que pasa por la vida ignorando que hay personas que mantienen los productos disponibles en las góndolas y que cuando mucho, son “servicios de información” para encontrar un determinado producto.

Un empaquetador de fin de semana (a quien conozco por ser estudiante de ingeniería) me comentaba que hay todo tipo de clientes, desde quienes los ignoran completamente (a lo sumo $100.- después de toda una compra); que hay quienes les piden que les acompañen durante todo el proceso de compra llevándoles el carro, cargando los productos, luego colocándolos para su pago y finalmente empaquetando y cargándolos en el vehículo (generalmente adultos mayores y que dan buenas propinas). Incluso ahora es posible ver cerca de los supermercados de barrios acomodados, a empaquetadores que acompañan al cliente, llevando los productos en el carro del local. Para ellos, fue una insólita decisión cuando cierto supermercado decidió inaugurar las cajas de autoservicio, es decir cajas que no tienen cajero ni empaquetador, sino que el propio cliente pasa los productos frente al lector de códigos de barra. Para el supermercado supone un buen ahorro, pues basta un supervisor para cuatro cajas de autoservicio (al menos, en los lugares donde lo he visto).

La nueva innovación, viene de la mano de uno de los gigantes de la economía internet: Amazon. Partieron vendiendo libros, luego hicieron alianzas comerciales con tiendas chicas (para libros difíciles de conseguir) y siguieron aumentando su oferta a casi toda la línea de productos que se pueden comprar por internet: películas, libros, música, juguetes, etc. También agregaron a su oferta los productos netamente digitales, usando su lector (“papel digital”) Kindle y de ahí a toda una plataforma de servicios “en la nube”, incluyendo alojamiento de páginas y servicios de análisis de datos.

Pero ahora quieren entrar a competir con los supermercados. Y su propuesta incluye la mayor apuesta tecnológica del último tiempo (al menos, hasta que se popularicen los vehículos auto conducidos), quieren hacer realidad el viejo lema de una casa comercial: llegar y llevar.

La idea es simple, Ud. llega al supermercado, pasa por un torniquete usando su celular como mecanismo de identificación de cliente (un código QR, esos cuadrados tan populares entre celulares) y luego toma lo que quiere de las góndolas y se lo lleva, así sin más, sin pasar por caja, simplemente sale del local. En cada instante puede comparar en su celular lo que ha echado a su bolso, aunque la propuesta es que lo haga al instante de salir del local. El valor de la compra se carga directamente a su tarjeta/cuenta en Amazon.

¿Cómo funciona? Como decía “Cerebro” de un viejo programa de dibujos animados: la teoría es simple, pero para ejecutarlo se requiere de verdadero genio. Usando las ya acostumbradas cámaras que graban todo lo que ocurre en la sala de ventas, más una serie de sensores instalados en las góndolas, refrigeradores y heladeras, Amazon asegura que pueden “ver con una certeza del 100%” lo que el cliente está echando al carro. Y a diferencia del antiguo almacenero, la memoria de Amazon es infalible, no va a olvidar que echó un par de botellas de agua, distintos alimentos, pan, golosinas y otros.

El video muestra un local que es del tamaño de un “medio market”, es decir más grande que los minimarket, pero menos que los supermercados habituales. Y no aclara si habrá venta de productos a granel (todo se ve previamente envasado) pero, al menos para compras rápidas, se ve más que interesante. ¿Llegarán a Chile? ¿Se acomodarán a nuestra “costumbre” de hacer la compra mensual? ¿O los chilenos apostaremos a esta compra rápida? al menos los locales de comida rápida han demostrado que muchos aceptaron abandonar el viejo concepto de restaurante con mesera o garzón…

Puede seguir el enlace en: https://youtu.be/NrmMk1Myrxc

La difícil verdad

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

Miente, miente, que algo queda” sentenciaba Voltaire… ¿O era Goebbels? Seguro que si la busca por Internet, es posible que salga alguna página donde se le atribuye a Steve Jobs o quizá a Bill Gates.

Al menos eso ocurrió en un “experimento” ya hace más de un año, donde un chileno puso la frase “Si tú lo deseas puedes volar, sólo tienes que confiar mucho en ti y seguir, puedes contar conmigo, te doy todo mi apoyo” (parte de la canción de la serie de dibujos animados Digimon) y que bastó publicar en Wikiquotes (la web de citas textuales del grupo Wikipedia) para que se popularizara (se cuenta que incluso la “tradujeron” al inglés, ya que si la hubieran buscado, habrían encontrado la canción). Y se repitió hace poco, cuando se rumoreó la muerte de Mark Zuckerberg (el creador de Facebook) noticia que se “viralizó” gracias a la creación de una página en el mismo Facebook.

Si antes la verdad era “dura”, hoy además es “difícil”. Cuesta identificar que elementos son reales y bien documentados, respecto de aquellos que son mera conjetura (y en algunos casos, simples voladeros de luces).

Las redes sociales, son el espacio de la opinión (y en muchos casos, de simples fantasías o elucubraciones no racionales) y aunque está bien que sea así, lamentablemente muchos internautas absorben los datos como si fueran verdades reveladas y ahí empiezan los problemas.

Wikipedia, quizá una de las fuentes de conocimientos mejor organizadas del mundo, sufre constantemente de quienes por ignorancia, “experimentos” o derechamente mala fe, introducen datos erróneos. Su modelo busca validar los datos con múltiples fuentes (cada uno de nosotros puede hacerlo) pero es difícil determinar quiénes son verdaderas autoridades en la materia y quiénes no; y por ello se espera que sea la propia comunidad la que lo determine.

Pero ¿qué pasa, cuando alguien “sobresale” por sus declaraciones particularmente incendiarias? Si la comunidad reacciona con rabia o molestia al punto de que se “destaca” en las redes sociales, ¿basta para darle más tribuna? La semana pasada un “respetuoso intelectual” (según su autodefinición) atacó a un grupo con “como las palomas (…) es portadora de un gran número de enfermedades”. Las reacciones no se hicieron esperar, pero los frutos de dicha diatriba, rindieron muy bien: autor entrevistado por un medio impreso y fama garantizada. Claramente no importaba si hablaban bien o mal del columnista. Lo que quería era que hablaran de él… Y eso ya lo dijo Oscar Wilde… ¿O era Salvador Dalí?

Una vez más: Cyber Monday

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

Entre lunes y miércoles de la próxima semana, se procederá con el nuevo Cyber Monday auspiciado por la Cámara de Comercio de Santiago y al que se sumarían cerca de 140 compañías, incluyendo a una inmobiliaria. Y la pregunta de siempre es: ¿estarán a la altura de lo que prometen?

La idea del Cyber Monday nace en Estados Unidos, allí la tradición es que pasado el día de acción de gracias (cuarto jueves de noviembre) las tiendas comerciales inician sus ventas de navidad con grandes ofertas, en lo que se denomina el “Black Friday” (viernes negro). En principio es similar a lo que vemos en supermercados y grandes tiendas después de Halloween, cuando la decoración cambia abruptamente de brujas y calabazas a viejos pascueros; pero con el añadido de descuentos realmente espectaculares que atrae a mucha gente (de ahí la clásica imagen de compradores compulsivos esperando que abran la tienda y que luego entran atropellándose los unos a los otros). Es tanta la locura, que desde el año 2005, y con la idea de descongestionar las tiendas físicas, se empezó a realizar la venta de “Cyber Monday”, el lunes siguiente al “Viernes Negro”, y que añade a las ofertas, la promesa de despacho antes de Navidad (que es un tema mayor en USA). Dato anecdótico es que la denominación de “viernes negro” tiene dos supuestos orígenes: uno es producto del abarrotamiento de gente (muchos vehículos y personas con abrigos negros cubriendo las nieves de finales de noviembre) y el otro de la contabilidad, dado que las tiendas tienen ventas tales, que superan cualquier pérdida que hayan tenido durante el año (pasan de números rojos a negros).

En Chile, no tenemos un equivalente real al Viernes Negro, ni siquiera una tradición real de ofertas navideñas (cada tienda tiene sus propias políticas). Por lo que el “Cyber Monday” (al igual que el “Cyber Day” de mayo) es sólo una construcción publicitaria. Y peor aún, se han hecho varias denuncias contra tiendas que en vez de hacer ofertas reales, una semana antes “inflan” los precios, para volverlos al valor original en el Cyber Monday. En mayo recién pasado, el SERNAC recibió varios reclamos al respecto, y varios terminaron en multas a las empresas por no poder acreditar la veracidad de la oferta.

Pero lo peor, es la escasa preparación tecnológica. Como la idea partió en las secciones de marketing de las grandes tiendas, a muchos se les olvidó avisarle a sus departamentos de informática (o lo avisaron muy a última hora) y en los primeros intentos, simplemente no fueron capaces de soportar la carga. Luego, como medida parche, inventaron un “turn-o-matic” virtual, donde a uno le dicen cuanto tiempo debiera esperar (aproximadamente) para poder entrar a la tienda virtual (!). Algunas en cambio, ya han aprendido la importancia del negocio virtual (y la pérdida de ventas que significan los problemas antes descritos) y han estado a la altura de las circunstancias.

De todas maneras, la recomendación más importante: si quiere comprar algo, verifique a qué precio está ahora; y luego vea si la oferta es real. No pocas tiendas se aprovechan de la compulsividad que provoca el letrero “oferta – últimas unidades”.

Ergonomía e interfases de interacción humano-computadora

RESUMEN

Martínez de la Teja, Guillermo Manuel

Maestro en Ciencias en Ergonomía
 Ergoprojects / Sociedad de Ergonomistas de México A.C. gmmt@ergoprojects.com

La Interacción Humano-Computadora (HCI), es el estudio de la interacción entre el ser humano, las computadoras y las tareas que se desarrollan; principalmente se enfoca a conocer cómo la gente y las computadoras pueden interactuar para llevar a cabo tareas por medio de sistemas y software.

HCI es una materia que se basa en algunos aspectos relevantes de la teoría y métodos de muchas disciplinas, dentro de las cuales se incluye ciencias físicas y sociales, ingeniería y arte. Existen importantes contribuciones a la HCI que se han tomado de las ciencias de la computación, psicología, matemáticas, artes gráficas, sociología, inteligencia artificial, lingüística, filosofía, antropología y ergonomía.

HCI incluye partes fundamentales de la ergonomía debido a que se preocupa por entender cómo las computadoras y el ser humano pueden interactuar para desarrollar tareas existentes y nuevas. La ergonomía en HCI se enfoca a buscar los aspectos de diseño en los sistemas computacionales para que tengan un uso más efectivo y eficiente, así como el desarrollo de principios, guías, métodos y herramientas para mejorar el diseño y desarrollo de los sistemas interactivos computacionales.

Palabras clave

Interacción humano-computadora, diseño centrado en el usuario

INTERACCIÓN HUMANO-COMPUTADORA

Se considera que hay cuatro componentes principales en un sistema hombre– computadora:

  • El usuario
  • El sistema de computadora
  • La tarea
  • El ambiente

En un sistema hombre-computadora, con la ayuda de las aplicaciones y software apropiado, el usuario introduce sus órdenes a la computadora, y esta responde al usuario de acuerdo con las funciones para las que fueron diseñadas las órdenes introducidas. En general, a esta interacción se le conoce como interacción hombre-computadora, interacción que tiene gran influencia sobre el humano y el desempeño del sistema en una forma compleja, y ha sido en los últimos tiempos una parte sustancial de la investigación en ergonomía y factores humanos.

En un inicio, el interés de la investigación era principalmente orientado al hardware, como por ejemplo, el diseño de las terminales visuales (VDT) y los dispositivos de entrada de información a la computadora, pero con el paso del tiempo, el interés se ha transformado hacia los principios de la presentación de la información, tema que es parte importante del campo de acción de la ergonomía y factores humanos.

En general, podemos decir que la investigación en HCI está orientada a obtener el conocimiento de cómo las personas tratan con los sistemas computacionales, con el fin de proveer de esta información a los diseñadores de los sistemas de computadora.

“El objetivo central de la investigación en HCI no es principalmente el desarrollo de sistemas que entiendan a los usuarios, si no el desarrollo de sistemas que los usuarios entiendan, sistemas que los usuarios sean capaces de modelar ellos mismos” (Vainio- Larsson, 1988).

La interface entre el usuario y la computadora no sólo es lo que el usuario puede ver, oír y tocar; también incluye los conceptos que el usuario necesita conocer acerca del sistema y como puede ser utilizado para desarrollar las diferentes tareas. De acuerdo con Johnson (1992), el usuario de un sistema de computadora necesita por lo menos:

  • Reconocer que el sistema puede ser utilizado para alcanzar una meta particular.
  • Identificar los procedimientos necesarios que deben llevarse a cabo con la 
computadora para alcanzar la meta deseada.
  • Conocer los comandos necesarios para que el sistema ejecute las funciones 
requeridas como parte de su tarea.
  • Identificar y entender los diferentes estados del programa.
  • Poseer las habilidades necesarias para comunicarse con el sistema (escribir, 
apuntar o hablar).

El usuario y la computadora comparten responsabilidades para desarrollar las diferentes actividades que contribuyen a alcanzar la meta global, ya que ambos deben interactuar y comunicarse en un diálogo que no sólo involucra a los comandos, sino un conjunto estructurado de requerimientos, preguntas y respuestas. Como en cualquier clase de diálogo, el que se da entre el usuario y la computadora es más exitoso si ambas partes tienen un conocimiento y lenguaje común, lo que implica que el usuario debe tener el conocimiento adecuado y suficiente acerca de la computadora, y el diseñador del sistema de la computadora debe tener un conocimiento adecuado del usuario.

Se han utilizado diferentes términos en HCI para describir la comunicación que ocurre entre el usuario y la computadora. Hasta hace poco tiempo, la mayor parte de las interacciones con la computadora involucraban la estricta definición de turnos, donde un texto era introducido y posteriormente se desplegaba una respuesta en la pantalla. 
Para esta clase de interacción, tiene sentido utilizar el término “diálogo” para referirse al intercambio de instrucciones e información entre el usuario y la computadora, pero esta clase de diálogo puede involucrar varios estilos que no son mutuamente excluyentes, como la introducción de comandos, menús y navegación, diálogos de pregunta y respuesta, llenado de formas, diálogo de lenguaje natural y manipulación directa, y cada una de estas formas de diálogo presenta diferentes ventajas y desventajas desde el punto de vista del usuario y del diseñador del sistema, por ejemplo:

  • En la introducción de comandos, el usuario debe recordar todos los comandos que se requieren para desarrollar una determinada acción.
  • Cuando se utilizan menús y navegación, los usuarios no tienen que recordar el comando que necesitan, sólo necesitan reconocerlo; esto implica que para que los 
menús sean efectivos, los nombres o íconos seleccionados deben ser sumamente explícitos.
  • Cuando se utilizan diálogos de preguntas y respuestas, el rango de respuestas 
admitidas debe ser muy restringido para ambas partes; esta clase de diálogo es aceptable para usuarios novatos, pero puede ser muy frustrante para usuarios experimentados que conocen lo que quieren hacer (Preece et al, 1994).
  • La ventaja de tener formas para llenado y hojas de cálculo es que permite a los usuarios introducir los datos en la posición correcta, lo que también reduce la necesidad de examinar con mayor atención toda la pantalla.
  • El uso del lenguaje como un medio de comunicación con una computadora ha sido considerado altamente deseable debido a su naturalidad para el usuario, pero el sistema necesita ser capaz de reconocer y manejar algunas ambigüedades, expresiones vagas y construcciones gramáticas incorrectas asociadas con el reconocimiento de voz.

 

ASPECTOS COGNITIVOS EN HCI

La ergonomía adquirió fuerza al conjuntar el trabajo de especialistas en las áreas de ingeniería, medicina y psicología principalmente, aunque otras áreas del conocimiento también han contribuido para enriquecerla. La contribución de la psicología a la ergonomía se manifiesta en forma más evidente en el área de la ergonomía cognitiva. 
La interacción entre el humano y las máquinas o los sistemas depende de un intercambio de información en ambas direcciones entre el operador y el sistema. Casi siempre consideramos que el operador controla las acciones del sistema o de la máquina por medio de la información que introduce y las acciones que realiza sobre este, pero también es necesario considerar que el sistema alimenta de cierta información al usuario por medio de señales, para indicar el estado del proceso o las condiciones del sistema. Esta información sirve como retroalimentación para el usuario, y de su adecuada recepción e interpretación dependerá la toma de decisiones que debe tomar el usuario con el fin de mantener las condiciones o modificarlas para alcanzar el objetivo deseado. 
Por lo general, cuando se diseñan máquinas o sistemas, se hacen modelos muy explícitos y detallados para su construcción, funcionamiento, precisión y comportamiento, pero casi nunca se desarrollan modelos semejantes sobre el usuario y su comportamiento; en ergonomía, esta tarea corresponde a los profesionistas especializados en psicología o ciencias del conocimiento, con el fin de desarrollar y aplicar modelos que puedan utilizarse en el diseño de procesos de intercambio de información, buscando que estos sean óptimos, adecuados y compatibles con el usuario. 
Los avances en la microelectrónica, la automatización y la tecnología de la información han provocado importantes cambios en los requerimientos de muchos puestos de trabajo; anteriormente la mayoría de las actividades dependían de la habilidad y capacidad física del operador, pero en la actualidad se ha incrementado la dependencia en la percepción y procesamiento de señales analógicas y digitales para el control de las actividades y los procesos, además de que depende en mayor medida de los conocimientos previamente adquiridos y el entrenamiento del operador para actuar en diversas situaciones. En la medida en que se desarrolla la tecnología, las tareas para el operador se tornan más abstractas e indirectas, con un mayor énfasis en el uso y manipulación de símbolos.

La intervención que han tenido las computadoras en todas las áreas de la actividad humana ha incrementado la importancia de esta investigación, ya que se han presentado nuevos problemas y retos para los diseñadores de las tareas y puestos de trabajo. Un ejemplo de cómo las computadoras han transformado diversas actividades es en los cuartos de control, donde antiguamente se encontraban tableros de grandes dimensiones que contenían infinidad de señales para indicar los estados del proceso, y en la actualidad una o dos pantallas reemplazan a esos enormes tableros, incluso presentando información más detallada sobre el estado que guarda el sistema.

Este avance de la tecnología y la intervención de las computadoras ha presentado infinidad de ventajas en los procesos industriales y en la vida cotidiana, pero no ha estado libre de problemas, ya que por lo general, cuando se presenta una tecnología diferente al esquema conocido por el usuario se requiere de cierta capacitación y adaptación para el cambio. Un ejemplo es el desarrollo de tecnologías tales como las del hipertexto, donde los objetos se encuentran ligados en forma no secuencial, y puede provocar desorientación del usuario por no coincidir con el modelo secuencial de información conocido y utilizado anteriormente.

Con este cambio en la tecnología y la interacción hombre-máquina, es más apropiado considerar al operador como alguien que resuelve problemas y toma decisiones, y no como un simple componente del sistema; esta situación ha presentado la necesidad de medir la carga mental que tiene el operador por la actividad que realiza.

La medición de la carga mental resulta útil para comparar métodos alternativos o diseños, para evaluar prototipos, identificar aspectos estresantes del trabajo y para evaluar el desempeño del operador, sin embargo, la medición de la carga mental no es directamente observable, por lo que se han desarrollado métodos indirectos para su medición, basados en respuestas fisiológicas, psicológicas, o en la evaluación del desempeño de la tarea principal a través de medir el error cometido.

La interacción hombre-máquina y diseño de tableros de señalización y control son áreas donde se realiza una constante investigación, por lo que continuamente presentan novedades y avances, que no siempre están libres de nuevos problemas.

La interacción con la computadora a través de una interface es una actividad cognitiva de parte del usuario, ya que este debe recordar muchas cosas y debe ser capaz de implementar y ejecutar las órdenes apropiadas. El usuario también debe conocer como interactuar con el sistema y la computadora, contando con un modelo cognitivo acerca del comportamiento de las computadoras y da la descomposición en tareas simples de las actividades a realizar.

El diseñador de las interfaces debe tratar de entender las actividades cognitivas del usuario para obtener interfaces efectivas y fáciles de entender. La meta del diseñador es tratar de seleccionar y escoger la información que se presentará en pantalla y su documentación, en relación con el conocimiento previo que posee el usuario, para que la representación conceptual sea precisa, consistente y completa.

El diseño centrado en el usuario es un método iterativo donde se enfatiza el involucrar de forma activa al usuario, y el entendimiento claro de los requerimientos de la tarea y el usuario.

De acuerdo con la norma ISO 13407, la incorporación del diseño centrado en el usuario se caracteriza por:

• Involucrar activamente a los usuarios y entender claramente los requerimientos del usuario y la tarea.

  • Una apropiada distribución de las funciones entre los usuarios y la tecnología.
  • La iteración de las soluciones de diseño.
  • Diseño multidisciplinario.

Es esencial involucrar al usuario para poder entender y definir el contexto de uso, las tareas y la forma en que van a trabajar los usuarios en el futuro con el producto o sistema. Los usuarios y desarrolladores deben interactuar a través del proceso de diseño; cuando se diseñan productos hechos a la medida del usuario, los usuarios reales pueden directamente involucrarse en el proceso de diseño, y para el diseño de productos de consumo se puede involucrar a representantes del grupo objetivo. 
El objetivo de la tecnología es asistir al usuario a desarrollar las tareas seleccionadas, por lo que el diseño debe identificar todas las tareas, la forma en que serán desarrolladas y como serán repartidas entre el usuario y la tecnología, decisión que no puede basarse únicamente en las capacidades de la tecnología y dejar las demás tareas al ser humano. 
En el diseño interactivo, la retroalimentación de los usuarios es una importante fuente de información. Por lo general, no es posible definir exactamente las necesidades del usuario al inicio del proceso, ya que por una parte, el diseñador no tiene una clara idea de lo que el usuario pueda querer, y por la otra, el usuario no tiene una idea clara de lo que la tecnología pueda hacer. 
La situación actual de trabajo es sólo el punto de inicio para el diseño, por lo que el nuevo sistema puede cambiar el contexto de uso, los requerimientos tecnológicos y del usuario. El proceso de diseño debe “soportar” estas iteraciones visualizando y evaluando las nuevas situaciones, con lo que el diseño puede ser refinado. 
El diseño centrado en el usuario requiere conjuntar una variedad de habilidades y conocimientos dependiendo en la naturaleza del sistema a desarrollar, por lo que el equipo multidisciplinario puede incluir usuarios finales, miembros de la gerencia, expertos en la aplicación, diseñadores del sistema, expertos en mercadotecnia, diseñadores gráficos, especialistas en factores humanos y personal de capacitación. Es posible que una misma persona represente varias de estas áreas, pero algo importante a considerar es que el diseñador nunca puede representar al usuario, a menos que el diseño sea desarrollado para su uso personal.

El diseño centrado en el usuario puede ser aplicado a cualquier componente de cualquier sistema con el que el usuario tenga que interactuar, por lo que queda incluido el hardware, software y los manuales.

Algunos aspectos que deben definirse cuando se planea un proyecto bajo la forma de diseño centrado en el usuario de acuerdo con la ISO 13407 (1999) son:

  • Debe haber actividades para:
Definir el contexto de uso
  • Especificar los requerimientos del usuario y de la organización Producir prototipos, y
Evaluar los diseños
  • Las actividades antes mencionadas deben integrarse con las demás actividades de diseño, como es el análisis, diseño y pruebas.
  • El plan debe identificar a las personas u organizaciones que son responsables de las actividades del diseño centrado en el usuario y el rango de habilidades y puntos de vista que deben incluirse.
  • El plan debe definir los procedimientos de análisis de los resultados de la evaluación y retroalimentación de los resultados de diseño. El plan debe definir como documentar el diseño iterativo.
  • Deben definirse plazos para las actividades de diseño centrado en el usuario, incluyendo plazos que permitan la retroalimentación y los posibles cambios en el diseño, y asegurando tiempo para las actividades de evaluación durante las fases de diseño.

El equipo multidisciplinario, dependiendo del proyecto, puede incluir:

  • Técnicos expertos
  • Representantes de los usuarios
  • Expertos en la aplicación en campo
  • Expertos en usablidad
  • Diseñadores gráficos
  • Expertos en mercadotecnia

Cada uno de los participantes debe tener su papel y responsabilidad bien definidas en el proyecto, ya que el diseño no solo es el producto, también debe incluir los manuales, capacitación, mantenimiento, soporte técnico, empaque y mercadotecnia.

Para definir el papel de cada uno de los actores se debe considerar las fuentes para:

  • Definir los requerimientos iniciales del usuario
  • Ilustrar las decisiones de diseño
  • Hacer los prototipos
  • Evaluar durante la fase de análisis y diseño
  • Analizar el resultado de la evaluación
  • Realizar pruebas de campo

La mayor parte de las actividades requieren del trabajo entre expertos de diferentes áreas, pero es conveniente que una sola persona sea responsable de las actividades relacionadas con el diseño centrado en el usuario, así como l la participación conjunta de los diseñadores y los usuarios en la mayor parte de las actividades, ya que la información de segunda mano nunca es tan adecuada como la de quienes trabajan y conviven con el sistema.

IX Congreso Internacional de Ergonomía México, D.F., 26 al 28 de abril de 2007

Artículo Autorizado por Martínez de la Teja, Guillermo Manuel

Primer “Desayuno entre Informáticos”

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Informática UNIACC.

El pasado viernes 30 de septiembre se realizó nuestro primer “Desayuno entre Informáticos”.

En esta ocasión analizamos la Visión y Misión de la Carrera de Ingeniería Informática Multimedia. Dicho análisis estuvo a cargo de los Profesores Fernando Del Río Barrio y Luis Sandoval Urquiza.

Las opiniones y comentarios las pueden ver en el siguiente Link al vídeo de 13 minutos: https://youtu.be/wxgoposI_Eo

Elecciones 2016: clamor por votación electrónica

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

Cuatrocientas sesenta mil personas cambiadas de domicilio “porque si”. Intento fallido de Ley exprés para “solucionarlo” (subyace la pregunta de ¿por qué ocurrió?). Y la pregunta recurrente es: ¿por qué no votar electrónica y remotamente?

Estonia es el primer país del mundo donde se implementó la votación electrónica remota (desde computadores personales y celulares) como alternativa a la votación física. Claro es un país con menos de un millón de votantes y de ellos, el 15% usó el sistema electrónico remoto en el 2010. USA y Venezuela utilizaron sistemas electrónicos pero en locales de votación, que han sido muy cuestionados. En USA se detectaron problemas en la votación del año 2000 en Florida (dada la forma física del voto, habría hecho que muchos votaran por un candidato, creyendo que votaban por otro), habría facilitado la victoria de Bush sobre Gore. En Venezuela hay quienes insisten en que el triunfo de Maduro fue viciado, aunque todas las auditorias mostraron que el triunfo era legítimo.

Los beneficios de un sistema electrónico y remoto son variados, aparte de la comodidad para muchos, permite que personas enfermas y recién operadas puedan votar. También permite que quienes están lejos (nacional o internacionalmente) puedan ejercer el derecho a sufragio. Y para quienes no dispongan de Internet, basta con una cantidad menor de locales de votación que pueden ser provistos por las propias municipalidades (la mayoría ya cuenta con suficientes computadores para las pruebas electrónicas de conocimientos teóricos para obtener licencia de conductor). Y eso sin contar con la mayor facilidad para buscar y votar por quién se desea votar (vi una foto de un supuesto voto para concejales de Maipú, y era casi de un metro cuadrado). Incluso facilita la votación de personas con algunas limitaciones físicas o mentales al tener un voto que puede ser más simple y sencillo de entender.

 

Los peligros son conocidos, y el más temido es la posibilidad de que ocurra un fraude electoral. Se sostiene que en una votación “en urna” los apoderados de mesa/local de votación pueden verificar la no ocurrencia de fraudes, dando así las garantías a los candidatos. Claro que eso requiere que todos los locales tengan apoderados atentos y vigilantes (cuando me tocó ser vocal de mesa, apenas vi a los apoderados, quienes sólo se manifestaron para opinar sobre la anulación o no de los votos). Enumero a continuación los problemas que más he escuchado/leído en contra del voto electrónico remoto:

El problema básico, sigue siendo el mismo: padrón electoral y cómo garantizar la máxima de una persona (vivo, ciudadano, habilitado) igual a un voto. Y que ese voto sea libre, informado y no coaccionado. Como siempre existen formas de burlar los controles (“hecha la ley, hecha la trampa”), la pregunta es dónde deben colocarse esos controles. El principio actual es que debe ser el Estado el que lo garantice, pero en rigor, es necesario que sean los ciudadanos quienes así lo entiendan y crean. Resulta curioso (al menos) que estemos de acuerdo en permitirle a alguien votar para elegir a nuestros gobernantes pero, al mismo tiempo, albergar dudas si lo hace “en conciencia” o por algún interés “inaceptable”. Más aún, cuando se sabe que hay muchos que votan por “el amigo que después los podría apitutar” (y eso parece aceptable a nuestro sistema).

El segundo problema, sería la aparición de votos fraudulentos (votantes muertos o no habilitados), nuevamente, porque el padrón electoral no es todo lo confiable que debiera (menos ahora, con los cambios de domicilio). Siendo un convencido de que la inscripción automática es una buena idea, creo válido pedir que quienes quieran ejercer electrónica y remotamente el voto, tengan que hacer el trámite para inscribirlo así y tener un certificado digital con vigencia hasta después del proceso eleccionario.

El tercer problema más recurrido, tiene que ver con el “acarreo”, maniobra que harían algunos candidatos de llevar gente de “fuera de su comuna” a votar por ellos. En lo personal, no me parece un problema. En el mundo actual, es habitual que un ciudadano tenga legítimos intereses en diferentes comunas (en mi caso: San Miguel, Santiago, Providencia, Maipú) dados domicilio, trabajo, intereses comerciales o personales. Y no veo razón por la que tenga que estar previamente limitado a votar en una comuna específica, ni por qué no puedo votar por alcalde en una y concejal en otra.

Hoy estamos cada vez más acostumbrados a operar electrónicamente: pagos de cuentas, transferencias, declaraciones de impuestos, trámites (creación de empresas en un día) y a la vez, valoramos más el tiempo que ahorramos al no hacer esas acciones de manera presencial. Confiamos en “la nube” para casi todo. Entonces: ¿por qué no confiar para votar?

Vuelvo a una reflexión anterior: si creemos en permitir que alguien opine sobre quién debe ser el nuevo gobernante del país, no es consistente con “forzarlo” a elegir bajo nuestros criterios. Mal que mal, hoy como país estamos haciendo un esfuerzo constante en mejorar los niveles educacionales (educación básica, media y superior) y el acceso amplio a dicha educación. Seguir tratando al votante como “tontito” al que hay que llevar de la mano casi todo el camino de la votación, no tiene sentido.

35 interfaces innovadoras según Xerox Parte 3

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Informática UNIACC.

 

Este ya es el tercer comentario que realizo respecto a este tema. El primero puede ser accesado en: http://escuelainformatica.uniacc.cl/wordpress/?p=2531
Ya he destacado cuatro de ellos: el primer mouse, la interfaz de “lenguaje natural”, el dial rotatorio y la rueda del iPod.
En esta ocasión quisiera destacar: el teclado QWERTY, el texto predictivo y uno de mis favoritos: el Cajero Automático (ATM por sus siglas en inglés).
Respecto al teclado con distribución QWERTY se puede destacar que quizás permitió popularizar la primera gran aplicación tecnológica masiva. Menciono esto porque este teclado se patentó en 1868 por Christopher Sholes quien lo vendió a la empresa Remington en 1873. Esta empresa se hizo famosa por la fabricación de máquinas de escribir mecánicas que usaban esta distribución de teclas. Hacia 1920 este tipo de máquinas se había estandarizado en el mundo y eran ampliamente utilizadas. La fabricación de miles de ejemplares se la repartían numerosas fábricas tanto norteamericanas como europeas (aunque en algunos países como Francia se usaron distribuciones tales como AZERTY y otras). El funcionamiento era mecánico y muy sencillo: se presionaba con fuerza la tecla para provocar que un martillo se levantase para golpear una cinta entintada que dejaba la letra (o carácter) impreso en el papel. Sé que suena algo muy primitivo pero fue un invento de amplio uso en el siglo XX. Incluso reconozco haber creado mis primeros informes escritos en los años ochenta usando una de estas máquinas.

 

Si bien cada vez que una persona tenía que aprender a “digitar” en estas más quinas se preguntaba por qué la distribución no era alfabética (A B C D … Z) al poco tiempo dominaba la distribución de las teclas y se producía un acostumbramiento. Tanto fue así que cuando se crearon los teclados de computador se decidió mantener la distribución existente.

 

En cuanto al teclado predictivo debo confesar que en general me ha resultado muy útil para escribir en los teléfonos móviles, sobre todo en los primeros modelos. La idea es proponer a quien escribe las letras que debe ingresar a continuación para que solo se limite a aceptarlas ahorrándole así tiempo y facilitándole la vida.

 

 

 

Esta característica era especialmente útil en los primeros equipos ya que las letras se agrupaban junto a las teclas numéricas. Así por ejemplo la tecla del número 1 tenía asociada las letras “A B y C” de tal manera que no tener que seleccionar cada una de ellas era una gran comodidad.
 

 

Por último uno de mis interfaces favoritas: los Cajeros Automáticos. Sé que el primer comentario que probablemente aparece respecto a esta tecnología es que es muy sencillo como para hacer grandes comentarios. Justamente esta opinión generalizada es la mejor muestra de que es una gran interfaz: a CASI TODOS les parece simple de usar y por lo tanto se ha ganado la confianza de las personas que las necesitan a diario para retirar efectivo.


Mediante un simple teclado y opciones bastantes estándares se puede retirar dinero fácilmente y con solo unos pocos pasos. He sabido de muy pocas personas que les ha fallado la tecnología y han recibido, por ejemplo, menos billetes de los solicitados. Si pensamos en las miles de transacciones diarias en Chile y el mundo y la importancia de las mismas podemos concluir que son un gran aporte para la calidad de vida de las personas.

Si quieren revisar la lista completa de las interfaces, pueden acceder al siguiente enlace (en inglés): https://www.xerox.com/en-us/insights/user-interface-examples

NFC – Non Fiable Card…

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

 

En rigor, NFC significa Near Field Communication, es decir, comunicaciones de corto alcance, y es la “magia” que hace funcionar las tarjetas BIP, de prepago de Autopista del sol o la poca recomendable tarjeta Cencosud para sus estacionamientos.

 

 

 

 

NFC fue concebido como una tecnología de transferencia de información sin contacto, pero muy cercana, funciona con lectores de proximidad (como los de la tarjeta BIP), con casi todos los teléfonos celulares actuales (que traen incorporado el sensor/emisor) y por supuesto, con tarjetas que proporcionan la identidad asociada la misma. La idea es simple: se acerca la tarjeta, y dependiendo del sistema, se lee el número único de la tarjeta, alguna información adicional allí cargada (por ejemplo, el monto disponible en la tarjeta BIP) y si corresponde el sistema actualiza la información en la tarjeta (por ejemplo, cuando se paga el pasaje, se indica la hora, el medio de transporte y el monto descontado; así el sistema “sabe” cuánto cobrar y actualiza el saldo disponible).

Dependiendo del negocio, el sistema debe contar con algún servidor que registre y valide la información (por ejemplo, al recargar la tarjeta BIP), o se mantiene sólo con la información propia de la tarjeta (por ejemplo, al pagar un pasaje en un bus). Y esto puede causar problemas, como los que ya se han visto: hace un tiempo, se descubrió la forma en que la tarjeta BIP “escondía” la información, y no faltaron los inescrupulosos que “cargaron” montos que nunca habían sido pagados a Transantiago. Hoy ese problema está resuelto (al menos temporalmente) pero subsisten otros, siendo el más común, el que la tarjeta falle en almacenar la información correcta y sea necesario ir a un lugar especial para proceder a recuperar el dinero (y traspasarlo a otra tarjeta).

Algo similar está ocurriendo con las tarjetas Cencosud para los estacionamientos del mall costanera center y alto las condes, sea en los puntos de entrada/salida donde comúnmente marca valores errados o en los puntos de carga… dado que el sistema simplemente requiere que la tarjeta esté en una especie de “bolsillo” plástico (a diferencia de la tarjeta BIP que es insertada en la máquina de recarga) no es poco común que el usuario retire la tarjeta antes que el proceso sea correctamente completado (debiera ser casi instantáneo, pero puede haber demoras en la transmisión de información). Y así vemos como los usuarios tienen que acercarse a las oficinas, con sus comprobantes de pago en mano, para regularizar la carga de información.

Eso me pasó hace poco, y no una sino dos veces. La primera vez tuve la precaución de guardar el comprobante y eso ayudó a que sólo perdiera un poco de tiempo. La segunda vez, en cambio, perdí mi comprobante y “cooperé” con el dinero. Por si fuera poco, el sistema exige un monto mínimo para abrir las barreras de entrada (¿por qué?, no tuve respuesta oficial, aunque supongo que es para poder ganar más dinero con los montos que se prepagan) por lo que mi tarjeta quedó completamente inoperante y con un funcionario dándome a entender que quizá lo mejor era usar los tickets de cada vez. Aun cuando según sus registros, debiera tener algún saldo a favor (menor a $500.- claro) ellos no devuelven el dinero ni retiran tarjetas, simplemente lo dejan a uno con cara de “gracias por cooperar”.

Prefiero con mucho, el sistema de Autopista del Sol, ellos sólo tienen el registro de qué monto le corresponde a una tarjeta y al momento de pagar el peaje, el descuento se hace en los servidores del sistema. Si uno no tiene suficiente, puede devolver la tarjeta (y recibir el reembolso de lo disponible) o recargarla (en cuyo caso, también reembolsan el saldo disponible).

Hace varios años, un amigo estuvo en Hong Kong. Me comentaba que allá todo se pagaba usando tecnología NFC para un “monedero electrónico”, muy similar a lo que ahora está empezando a implementar Redbanc para tarjetas sin contacto. Claro que allá, ya en ese tiempo, casi se había abandonado la “tarjeta”, muchos usaban el chip en sus relojes u otros elementos de vestuario, eso generaba cierta confianza de que el chip no era tan fácil de quitárselo a su dueño (el ladrón no tenía como saber dónde lo llevaba, aparte de la clave secreta). Ignoro si siguen con esta tecnología o ya evolucionaron a otra cosa, pero no sería malo que acá en Chile pudiéramos: a) estandarizar el tema de tarjetas de prepago; y b) disponer de chips personalizables para poder no tener que andar siempre con una tarjeta.

Sé que algunos bancos están “innovando” con la idea de usar NFC para hacer pagos desde el celular (es decir, que el chip personalizado sea el propio celular) pero no me parece una idea atractiva, el robo de celulares es un riesgo muy grande. Parece que, por el momento, sale más a cuenta usar el celular como conexión a Internet para hacer el pago mediante transferencia electrónica. Al final, la tecnología, sobre todo en un sistema tan sensible como los pagos, debe ser, antes que todo, confiable. Y en segundo lugar un beneficio para el usuario, no una mera forma de ganar dinero “por adelantado”.

Juegos Olímpicos por TV…

José Miguel Santibáñez Allendes

Profesor José Miguel Santibáñez Allendes Editor de www.Abe.cl

Vi parte de los juegos olímpicos, y sentí que viajaba en el tiempo… al pasado, al menos al siglo pasado… No, no tengo reclamo contra lo que ocurrió en Río, y antes de cualquier otra cosa, vaya un reconocimiento enorme a los deportistas chilenos que, contra mucha adversidad, logran llegar a una competencia así, e incluso lucirse avanzando en ella. Felicitaciones a ellos y ojalá que para el próximo evento, las cosas sean mejores y logren mejores resultados. Mal estaría que los criticara a ellos o el gran evento preparado en Río… Quizá algún día podamos hacer uno en Chile.

No, mi viaje en el tiempo, lo produjo la transmisión televisiva. Y no sólo por la larga lista de comentarios sexistas que encendieron las redes sociales (desde el leso que quería que las gimnastas mostraran más piel, hasta el inevitable comentario sobre si tal o cual mujer deportista estaba casada y tenía hijos). Tampoco fue la mentada foto del voleibol playa entre Egipto y Alemania que fue denominada “el choque cultural” por la diferencia en el vestuario sin hacer comentario alguno sobre la capacidad deportiva de las contrincantes, ni que se dijera que se publicó una versión censurada en un país musulmán (la alemana habría sido pixelada por la censura).

El viaje en el tiempo, fue resultado de una producción que, claramente, se quedó pegada en el tiempo. Es cierto que hoy tenemos televisión digital y que los canales transmiten en HD, pero claramente, la producción parece no haber cambiado mucho (o para bien) en los últimos 30 años. La televisión optó por un panel donde había uno que otro “experto” y, era que no, rostros televisivos incapaces de evitar los lugares comunes. Lo más lejos que llegaron, fue a enviar “noteros” que hacían “La Pregunta” a los ganadores de algunas competencias: “¿qué opina de Chile?

Pero se suponía que teníamos televisión digital, que la tecnología permite muchas más cosas que antes, que ya no dependemos de lo que, en ese momento, esté viendo un Carcuro o un Solabarrieta en sus monitores, para que el técnico de la transmisión nos envíe esa parte específica de la señal que ellos reciben. Menos cuando ocurre que simultáneamente hay a dos o más competencias en paralelo y mientras unos televidentes quieren seguir una (por ejemplo a Mo Farah en sus 10.000 metros) otro puede querer ver la otra (lanzamiento de jabalina o salto alto). Peor si además de tener una única señal, ésta se interrumpe regularmente para mostrar los “mensajes de sus patrocinadores” (comerciales) y estos son los clásicos comerciales de siempre (incluyendo, era que no, los de la teleserie que está empezando y reality que se acerca).

Uno esperaría que, con televisión digital, lleguen un conjunto de señales, que se puedan ver como pantalla de cámaras de seguridad, o varias imágenes simultáneamente (a una fracción de la pantalla, claramente) o que sea uno el que selecciona la señal específica que ve. Y que esa imagen es apoyada con información útil de expertos que saben de qué se trata cada deporte. Es cierto que había quienes sí sabían de que hablaban, pero eran los menos.

Quedan 4 años para los próximos juegos… veremos qué pasa entonces.

35 interfaces innovadoras según Xerox Parte 2

Gerardo Cerda Neumann, Director Escuela de Informática, Uniacc

Gerardo Cerda Neumann, Director Escuela de Informática, Uniacc

En un comentario anterior (http://escuelainformatica.uniacc.cl/wordpress/?p=2531) comentaba que me había llegado un link que presenta las 35 interfaces innovadoras según Xerox.

En dicho comentario destaqué dos de ellos: el primer mouse y la interfaz de “lenguaje natural”.

En esta ocasión quisiera compartir dos más: el dial rotatorio y la rueda del iPod.

Respecto al dial rotatorio cabe destacar el uso que se le dio para marcar las llamadas en los teléfonos más antiguos. Aquellos que somos un poco “mayores” recordamos que por mucho tiempo los teléfonos tenías un dial o rueda con los 10 dígitos que se hacían girar para marcar cada número. Si bien es cierto que los botones que aparecieron después eran más cómodos la realidad es que la tecnología inicial de los teléfonos se vio muy beneficiada por el dial rotatorio. Previo a esta tecnología había que llamar a una telefonista para pedir que esta conectara al que llamaba con el que iba a recibir el contacto (ese tipo de teléfonos sí que no los utilicé).

Adjunto una imagen de un teléfono antiguo que usaba dicha tecnología:

Si bien este dial fue reemplazado por los botones, tal como mencioné, de alguna manera “resucitó” con el reproductor de música llamado iPod. Esta maravilla tecnológica fue presentada por el fundador de Apple, Steve Jobs, el 23 de octubre de 2001. El dispositivo era simplemente un disco duro que permitía almacenar entre 2 y 164 GB de música y fue todo un éxito.

Se especula que gran parte del éxito se debió a la “rueda” que permitía reproducir, avanzar, retroceder y aumentar/bajar el volumen de la música. La imagen siguiente muestra dicha rueda y queda claro que es muy fácil de usar.

Además de un increíble diseño los iPod se caracterizaron por un material de gran calidad que lo hacía muy agradable al tacto.

Como pueden ver los discos y ruedas son fáciles de usar y permiten aumentar el éxito de cualquier dispositivo que los use.

Si quieren revisar la lista completa de las interfaces, pueden acceder al siguiente enlace (en inglés): https://www.xerox.com/en-us/insights/user-interface-examples

Monstruos de bolsillo, liberados…

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

Pokemon (acrónimo del japonés “Poketto Monsutā” o Monstruos de Bolsillo) debe ser una de las sagas de juegos más exitosas de la historia. No es posible pensar otra cosa, un simple “videojuego” creado por Nintendo en 1996, no sólo tiene varias versiones (incluso para distintos tipos de consolas de la propia Nintendo) y sagas alternativas (spin offs) del juego, también evolucionó en una serie de televisión (que incluye películas), revistas (entiendo que sólo en Japón y USA) y un juego de cartas coleccionables. Y aunque no ha estado exenta de problemas (en 1997, en un episodio había un rápido cambio de colores rojos y azules que provocaron convulsiones en más de 600 niños japoneses) sigue vigente y con seguidores de casi todas las edades.

 

La historia no puede ser más simple. En un mundo similar al nuestro, hay pokemones silvestres, que al perder un combate pueden ser capturados en pokebolas. Los que salen a buscarlos, se van transformando en “maestros pokemones” y entrenan a estos pokemones (aquí ya son casi mascotas) para ir a pelear contra los de otros maestros. Un equipo especial (similar a un celular) llamado pokedex es capaz de identificar un pokemon al momento de fotografiarlo, y entrega información sobre sus capacidades (ataque, defensa) y nivel. Luego de una buena cantidad de combates ganados, un pokemon “evoluciona” en sus formas más poderosas (son 3 estados en total). El objetivo es tan simple como tener la mayor cantidad de pokemones, en sus estados más poderosos. De eso transcurren los juegos y la serie (cuyo punto alto, según algunos, son los villanos de opereta que en vez de recurrir al simple proceso de atrapar pokemones, quieren robarlos ya capturados).

Era sólo cuestión de tiempo, para que este videojuego traspasara el umbral a los celulares, y bajo la modalidad de realidad aumentada, es decir, usando el celular para “seguir” y “ver” los pokemones que están “ocultos” en nuestro entorno.

La idea tiene sus fanáticos (“por fin salen nuevamente a jugar al patio”) y sus detractores (“ni siquiera miran por dónde van”), y aunque efectivamente ha habido accidentes fatales, también se han contado anécdotas simpáticas, como la de los muchachos que luego de instalar el juego (los primeros días se podía en todo el mundo, hoy dado el éxito han necesitado dividirlo geográficamente para soportar la cantidad de usuarios) salieron a buscar pokemones tarde en la noche, los vecinos se asustaron de ver “vagos con celulares tomando fotos a sus casas” y llamaron a la policía, luego de muchas explicaciones, se habría entendido que era sólo un juego “inocente” y les dejaron ir, no sin antes recomendarles “que para la próxima manifestación les lancen pokebolas en vez de piedras”. Otra historia contaba que un señora acude a abrir la puerta y encuentra a un par de niños (chica y chico) que le explican que según el juego hay un “pikachu” (uno de los personajes emblemáticos de la serie de televisión) en el patio y solicitan permiso de para entrar a capturarlo. La mujer se emociona, se ve reflejada en la inocencia y esperanza de la niña… y da un portazo, instala el juego y sale al patio a capturar a Pikachu… Dicen que también el ejército de USA ha usado el juego como “gancho” publicitario “si quieres capturar pokemones por todo el mundo, ven con nosotros y te llevaremos”.

Pero sin dudarlo, uno de los usos más inesperados de este juego, ha surgido de la mente de quienes intentan sensibilizar por los niños en Siria y otros países con conflictos armados, las fotos de esos niños, con “pokemones” a su alrededor y mensajes del tipo “ven a salvarme” han llegado a las redes sociales con ese fin, y desde allí se difunden a otros medios.

Hay quienes esperan que otras series igualmente (o más) exitosas también lleguen a los celulares, el día que se pueda instalar un “radar del dragón” para buscar las siete bolas cual Dragon Ball y se pueda uno encontrar con algunos de sus personajes (Goku, Vegeta, Piccolo) terminarán de salir de sus cuartos los videojugadores. Claro que lo difícil, sobre todo con la cantidad de jugadores adultos involucrados, será “que se entren antes de que oscurezca y tengan cuidado con los automóviles”.

El antes y el ahora de la computación gráfica

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

Aún recuerdo aquél primer corto que vi desarrollado por Computación Gráfica, aunque es del año 1989. Debe haber sido más o menos 1992 cuando lo pude ver, en una vieja cinta de VHS, acá en Santiago… Fue en la productora gráfica de un amigo, quienes amablemente me explicaron el proceso:

Primero se “diseña el mundo” (todas las partes fijas)

Luego se diseñan las partes móviles (personajes, indicando fórmulas para definir sus movimientos (la alternativa, es “jugar a los monitos de plasticina” como Ray Harryhaussen, pero reemplazando plasticina por un computador),

Luego se asignan las texturas (el cómo se verá cada uno de los elementos diseñados), a continuación se “fijan las posiciones de luces y cámaras” (aunque pueden ser móviles)

Y finalmente se procede a “renderizar” cada uno de los cuadros de la escena, es decir, a dibujar digitalmente cada uno de los cuadros que serán vistos en la escena.

Es un proceso largo y engorroso que requiere de mucha capacidad artística y por supuesto, mucho tiempo. (2 minutos eran casi 30 horas de trabajo del equipo.

Mis amigos funcionaban al alero de una universidad privada, y habían adquirido un sistema de reproducción gráfico que consistía en un computador de mucha memoria y muy alta velocidad para aquellos entonces, una tarjeta gráfica especial, que permitía procesar el “renderizado” y además un video grabador que usaba una conexión especial, que permitía hacer una grabación “cuadro a cuadro”; esto último era necesario pues cada una de las imágenes que componen un video (a una velocidad de 30 cuadros por segundo) debía ser “renderizada”, lo que tomaba aproximadamente 1 minuto, según la complejidad de la escena, para luego ser enviado al videograbador. Así, crear un corto video de 2 minutos, significa al menos 3600 cuadros lo que podía demorar casi 60 horas (lo dejaban trabajando todo el fin de semana, con la esperanza de que no se cortara la luz). Ese primer video, desarrollado por Pacific Data Images, en 1989, recibía el nombre de “Loco Motion”:

 

 

El video es poco más que un dibujo animado, se puede apreciar como la mayoría de los árboles son “copiados” (todos iguales), pero no puedo negarle su gracia histórica. Posteriormente vendría aquella película que nos impresionaría a todos los que algo sabíamos de computación gráfica: Jurassic Park (1993) o la menos conocida, pero igualmente impresionante, “Corazón de Dragón”, en cuyo poster se leía “You will believe” (lo creerás).

La cita es obligada, traída al presente, por un nuevo corto de Pixar: Piper, desarrollado con técnicas actuales de hiperrealismo, en formato 100% digital para su exhibición en cines (y posteriormente en Blu-ray). El inicio del corto, parece casi uno de los documentales de naturaleza de Disney (que actualmente es dueña de Pixar, por lo que sale primero en los créditos) con escenas de gaviotas volando o comiendo en una playa que son tan realistas, que uno se pregunta en serio si será o no computación gráfica… No es hasta que aparece el protagonista mismo, un pichón de gaviota, llamado Piper, que uno se convence que es un desarrollo por computadora, y sólo porque el pichón resulta ser más expresivo que la mayoría de los actores actuales de Hollywood. El corto completo aún no está en YouTube, pero si el tráiler que demuestra la gran calidad lograda

Piper emociona, tanto porque al inicio se ve muy realista, como por las expresiones de su rostro (sobre todo el pánico cuando la ola lo ataca). Aunque hay que reconocer, que si algo caracteriza a los grandes animadores, es la capacidad de transmitir emociones en los “rostros” de sus personajes, sea un asustado pichón de gaviota, su orgullosa madre, o una decidida máquina de vapor y su carro final (tan asustado como el propio Piper).

Recuperando la información…

José Miguel Santibáñez Allendes

Profesor José Miguel Santibáñez Allendes Editor de www.Abe.cl

 

Me parece interesante estudiar lo mucho que ha cambiado el proceso para recuperar información producto de Internet.

 Si usted fue a una biblioteca a principios den los años 80s quizá recuerde esos cajones de fichas, ordenados por temas, donde aparecían las referencias a los libros disponibles en la biblioteca que habían sido catalogados bajo ese concepto. El proceso partía con un experto catalogador que revisaba un libro y detectaba los temas fundamentales que dicho libro trataba. Algunas veces tenía suerte y encontraba que el libro ya había sido analizado antes; gracias a ello, un buen catalogador podría lograr ingresar entre 6 y 8 libros al día. Luego se actualizaban las tarjetas, el libro se enviaba a bodega y de ahí esperaba que alguien lo encontrara, lo que podía ocurrir por título, autor o por la ficha del tema. Claro que eso requiere de un gran entendimiento de la necesidad de información (y quien busca, sabe que necesita algo, pero rara vez tiene claro que es, exactamente, lo que necesita). Aquí aparecía nuevamente la figura del bibliotecólogo, a quien podía recurrir la persona que buscaba, plantearle sus necesidades, y esperar que fruto de ese diálogo, el bibliotecólogo le pudiera ayudar a organizar la búsqueda y encontrar la información necesaria.

Sistemas de fichas manuales en una biblioteca

Sistemas de fichas manuales en una biblioteca

Ya a finales de los 80s, la mayoría de las bibliotecas contaban con fichas computarizadas, y quien buscaba se podía sentar frente a un terminal y digitar los temas que le interesaban. Los buenos sistemas contaban con un sistema de sinónimos, que les permitían que si determinado tema no estaba en el catálogo, se podía buscar por algunos de sus sinónimos, aumentando la posibilidad de éxito en la búsqueda.

Pero ninguna biblioteca podría compararse con Internet. Al inicio de la web (más o menos desde mediados de los 90s), era un juego frecuente entre quienes teníamos acceso a ella, el contarnos unos a otros los nuevos sitios que habíamos descubierto… Siendo pocos sitios a la semana, parecía posible conocerlos todos. Pero luego llegó el “boom de las .com” y se volvió imposible seguirlos, hasta que llegaron los directorios de sitios, quizá el más conocido, el de Yahoo! Los directorios eran sistemas categorizados, el dueño del sitio lo situaba en una categoría, y normalmente quien buscaba empezaba a ver opciones dentro de las categorías hasta encontrar lo que buscaba o abandonar la búsqueda. El problema clásico hasta ese punto, era hacer coincidir la clasificación que hacía el catalogador del libro, o el dueño del sitio, con los temas de búsqueda que ese sitio podría responder.

Entonces hubo un cambio relevante en Internet, llegó Altavista, como el proyecto de DEC (Digital Equipment Corporation) para demostrar el poder de sus servidores. Fue el primer sistema en “recorrer la red, para encontrar todo lo disponible y evitar la catalogación humana”. Es el modelo que después siguió el hasta ahora más exitoso buscador: Google.

Una vez que “todo internet” (al menos la parte pública de Internet) estuvo en los sistemas de Google y otros buscadores (Yahoo!, Bing, etc.) se hizo necesario determinar la relevancia de los resultados en función de la búsqueda realizada, en otras palabras, determinar qué resultados debieran ser de mayor interés para quien busca, que a este punto aún sigue enfrentando el mismo problema: sabe que necesita información, pero no sabe qué es lo que necesita para superar esa situación.

Si bien el tema computacional (navegar la red, recuperar toda la información y meterla al sistema) ya está bastante bien resuelto, el otro extremo de la recuperación de información (cómo busca una persona) sigue siendo un área en vías de desarrollo. Google ha experimentado mucho en ese tema, también Yahoo! y Bing. Incluso sitios como Facebook o Twitter hacen experimentos para ver cómo la gente reacciona ante la entrega de información de diferentes formas.

Con tantas opciones posibles (y sitios en competencia) habrá que estar atento para ver quien responde de mejor manera a las búsquedas que se realizan. Al final, en ello reside el éxito o fracaso de un sitio buscador.

Factura Electrónica: Se acaba el plazo para las Microempresas

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Profesor Ingeniería Informática Multimedia, Uniacc

A partir del  1 de agosto de 2016, las microempresas deberán implementar el servicio de facturación electrónica. Según el sitio web de SII.cl,  se asume que se incorporarán al sistema digital de facturación  unos 500.000 contribuyentes, lo que no es menor, ya que en teoría ahora todos somos receptores de factura electrónica.

Para las microempresas, el tema es duro, ya que deben hacer inversiones. Pero éstas pasan principalmente por modificar sus procesos internos, más que en grandes costos productivos. De hecho aquellos que no tienen ningún tipo de sistema de facturación y aún lo siguen haciendo en forma “manual”, deberán ingresar a sus procesos una forma eficiente de facturar digitalmente. Para ello hay dos opciones.

1.- Usar alguna aplicación de desarrollo propio o de terceros que permita facturar.

2.- Usar el sistema gratuito del Servicio de Impuestos Internos.

Hay un listado de empresas que permiten usar sus sistemas de facturación en red o en línea y sus costos están asociados a la cantidad de facturas que mueven. Así por ejemplo hay empresas que ofrecen servicio por módicas sumas de 7 mil pesos mensuales dando hasta 20 facturas al mes y así suben dependiendo de la cantidad de facturas que se deseen emitir. Para ver toda la gama de empresas certificadas para implementar el servicio de Facturación Electrónica pueden visitar esta página web

Como también se mencionó, el Servicio de Impuestos Internos de Chile ha creado su propio “Sistema Digital de Facturación Electrónica” que entrega gratuitamente a sus contribuyentes. Lamentablemente este sistema es realmente limitado, ya que aunque cumple con lo esperado, o sea emite y recibe facturas, no permite administrar nada más. No hay libros contables, tampoco administración de usuarios, ni nada de lo que viene después de la emisión o seguimiento de las facturas lo que si realizan la mayoría de los sistemas pagados.

Aquí les dejo un vídeo de como funciona el el Sistema de Facturación Gratuito del SII.

No está de más decirles que como estudiantes debieran aprender el proceso de Facturación en línea, ya que de seguro alguien les va a preguntar: ¿sabes de Facturación Online y como funciona?

Nos leemos.

RJE.

Bienvenidos al lado oscuro… tenemos web protegida…

José Miguel Santibáñez Allendes

Profesor José Miguel Santibáñez Allendes Editor de www.Abe.cl

 

Desde hace ya algún tiempo, se escucha hablar de la “Dark Web” (o web oscura), normalmente asociado a actividad delictual: pornografía infantil, mercado negro, drogas, etc. Pero la Dark Web no es específicamente un “barrio peligroso” donde abunde la actividad delictual, sino un espacio que surge buscando la protección de los sistemas espías gubernamentales.

Antiguamente se hablaba de la “Deep Web” o “web profunda”, constituida por toda aquella parte de Internet que no está indexada en los motores de búsqueda como Google (dato curioso: un estudio demostró que la palabra más buscada en Google es: “Google”, pues la gente abre el navegador, escribe Google y recién entonces empieza a hacer sus búsquedas). En otras palabras, son sitios que derechamente reniegan de quedar indexados, rechazando las consultas de contenidos que hacen los grandes buscadores (Google, yahoo, bing y otros) para así mantener una comunidad más “escogida”, de aquellos que han sido invitados a participar.

Metáfora que representa la Deep Web o Web Oscura

Metáfora que representa la Deep Web o Web Oscura

 

 

Pero eso no fue suficiente. Aplicando técnicas de inteligencia artificial (algunas bastante básicas, por lo demás) algunos buscadores y sobre todo el gobierno de USA, empezó a acceder a esos contenidos, lo que encendió algunas alarmas en gente a la que no le gusta ser “supervisada”. Se desarrollaron entonces nuevas tecnologías, siendo la más conocida la del navegador “Tor”, que se popularizó junto a las “Bitcoins” (monedas virtuales, cuyas transacciones no son rastreables).

Tor promete al usuario la no rastreabilidad, y junto a una serie de sitios que se comprometen a lo mismo (a no intentar hacer ningún seguimiento del usuario, ni por IP, ni con cookies) constituyen esta “web oscura”. Estos sitios normalmente se reconocen como parte del seudo dominio “.onion”, el cual no funciona de la misma manera que los “.com”, “.cl” o “.org”. Es el navegador Tor el que usando conexiones similares a las de bittorrent (redes persona a persona) logra resolver dónde está un sitio .onion.

Los defensores de la más amplia libertad de expresión, sostienen que es necesaria. Molesta mucho la posibilidad del rastreo (hace algunos años comentaba el tema del dinero digital, como tentación de los gobiernos para cerrar definitivamente el mercado negro; y a esa tentación, Internet respondió con Bitcoins). Por otra parte, hay voces (normalmente asociadas a los gobiernos) que rechazan esto, pues aseguran permite la comisión de todo tipo de delitos, de una manera absolutamente anónima (se dice que se puede mandar a matar a alguien, sin dejar ninguna traza). En rigor esto no es tan así como podría ser. Al igual que se espera que las leyes recojan el sentir de la gente (no matar no es sólo un mandamiento, sino que responde al hecho de que no queremos ser asesinados) en la dark web también hay fórmulas de sentimiento “común”: el mayor colectivo conocido de la dark web: Anonymous (los que publican videos usando la máscara de Guy Fawkes) también han atacado sitios de la dark web por contener pornografía infantil y han liberado información de sus usuarios para que los gobiernos (sobre todo USA) pueda investigar a los posibles pedófilos.

Hasta no hace mucho, los sitios “públicos” no consideraban a la dark web, de la misma manera que los navegantes de la dark web no accedían a esos sitios. Pero últimamente eso está cambiando. Ya Facebook aceptó reconocer que tienen su sitio integrado a la red oscura y que muchas visitas llegan a: Facebook.onion, de la misma manera que el portal de noticias ProPublica.onion (ProPublica.org) aspira a convertirse en el portal noticioso de la dark web.

Nota del Editor: para una explicación sencilla de la Dark Web sugiero visitar Wikipedia:

https://es.wikipedia.org/wiki/Dark_web

35 interfaces innovadoras según Xerox Parte 1

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Informática UNIACC.

Me llegó un link para revisar un artículo que presenta las 35 interfaces innovadoras según Xerox.

Al revisar el comentario me encontré con muchos ejemplos de muy buenos en diseños.

En este primer comentario quisiera compartir algunos de ellos desde la perspectiva de nosotros los informáticos.

El primer de ellos es el popular mouse, dispositivo que para los más jóvenes viene con cualquier computador, salvo que sea un notebook por supuesto.

La imagen publicada corresponde al primer prototipo de mouse creado en el año de 1968 (sí, este dispositivo ya tiene casi 50 años de antigüedad) por parte de Douglas Engelbart del Stanford Research Institute de Menlo Park, California.

Si bien esta primera versión es muy tosca representa el concepto que con el tiempo se hizo casi imprescindible para los usuarios finales.

El segundo de ellos se refiere a la interfaz de usuario de lenguaje natural. ¿A qué se refiere esto? Bueno, se refiere a simplemente decir lo que quiero obtener. Se especula que esta interfaz se va a desarrollar mucho en los próximos años y va a revolucionar la forma en que usamos todo tipo de dispositivos.

En un siguiente comentario seguiremos compartiendo más de estas interfaces. Si quieren revisar la lista completa, pueden acceder al siguiente enlace (en inglés): https://www.xerox.com/en-us/insights/user-interface-examples

Felicitaciones a AVG por un buen diseño de interfaz

Director Escuela Informática de Universidad Uniacc

Mg. Gerardo Cerda Neumann Director Escuela Informática de Universidad Uniacc

 

 

En un comentario anterior compartí con ustedes que tuve problemas para instalar una versión licenciada de Kaspersky (http://goo.gl/5V6NcP) y que por eso tomé la decisión hace un año de utilizar versiones gratuitas de antivirus (http://goo.gl/s9EZry). Bueno, en esta ocasión quiero comentar la experiencia que tuve hoy al estar trabajando en el PC de mi casa que tiene instalado el antivirus AVG.

Ocurrió que se desplegó un mensaje Pop Up indicando que debía instalar una actualización. Al aceptarla comenzó la instalación con la indicación del avance de una barrita vertical que crecía en proporción al tiempo transcurrido. Hasta aquí todo normal.

Lo que consideré interesante fue que AVG aprovechó el tiempo de instalación explicando mediante 4 ventanas sucesivas la interfaz del software.

 

Dichas ventanas las muestro a continuación en secuencia:

Seguir protegido es fácil


El color de un círculo 

 

Un círculo incompleto

 

 

Yeso es todo!

Si ustedes están pensando “pero que cosa más obvia, se entiende perfectamente, ¿dónde está la novedad?” entonces significa que las interfaces cumplen su objetivo al 100%.

Debemos recordar que las aplicaciones masivas como los antivirus no están diseñados para usuarios expertos como nosotros sino para gente “común y corriente”. Con esta frase no quiero ser peyorativo con las personas que usan software sino todo lo contrario, quiero destacar un diseño de interfaz simple, bien hecho y efectivo.

Bravo por AVG!!!

Nuevamente, cambio de hora

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

El próximo fin de semana, volveremos al proceso de cambio de hora, y por más o menos tres meses, estaremos en el “horario que nos corresponde”.

Me atrevo a decir que la medida genera apoyo y rechazo, pero deja a pocos indiferentes. Entre quienes la apoyan, están los que tienen niños que van al colegio, muchos de los que tienen que salir a trabajar con varias horas de anticipación para cruzar la ciudad de lado a lado, e incluso los que sienten que “es lo correcto, dado el huso horario”. Entre quienes la rechazan, están los que tienen hijos muy chicos que aún no van al colegio (y que “alcanzan a verlos despiertos al llegar a casa”) y quienes obsesivamente necesitan tener todos los relojes a la hora correcta. Y eso sin olvidar a todos los que van a tener muchos problemas por la sincronización de agendas electrónicas…

Hoy, casi todo equipamiento tecnológico incluye un reloj (y a veces más de uno). Desde vehículos, pasando por celulares, computadores y varios de los aparatos de línea blanca, hasta, por supuesto, los meros relojes. La lista de un obsesivo que conozco incluía hasta viejos reproductores de cintas de video (VCR). Hoy, además hay que incluir una variedad de dispositivos médicos (glicemia, presión, etc.)

Lo que resulta curioso, es que varios de los dispositivos (celulares, Tablets, computadores, televisores inteligentes) deberían ser reconfigurados automáticamente. Cuando empezaron a jugar con esto del cambio de hora, el ministro de entonces (Golborne) sostuvo que bastaba “cambiar un parámetro” y todo quedaba listo… En teoría todos los teléfonos inteligentes (la gran mayoría de los celulares, ya lo son) así como computadores y Tablets (hasta televisores inteligentes) deberían tener una configuración simple que lo mantuviera actualizado. El problema es que esa “actualización” debe ser aceptada, descargada e instalada en todos y cada uno de los equipos… y como en cada año se hace en un periodo diferente, el que no es informado hasta ya iniciado el año, los grandes proveedores de sistemas para el hogar (Microsoft para computadores y Google/Apple para celulares, tablets y tvs) en su mayoría ya se olvidaron de crear esas actualizaciones (sobre todo después que un año se cambió dos veces la entrada en vigencia del horario de invierno).

La “novedad” para este año, fue el anuncio de que se enviará un mensaje actualizando celulares (un SMS de nivel 0), que es el tipo de mensaje con el que el celular inteligente (Smartphone) es capaz de reaccionar a situaciones como descargas de apps y otros. Pero no es tan claro que vaya a funcionar… mal que mal, desde hace meses (marzo) que debió cambiar la hora, y no pocos celulares hicieron el cambio. En mi caso, mi celular indica que estoy en Brasilia (UTC -300) porque si pongo que estoy en Santiago (UTC -400) se cambia la hora de inmediato… Lo mismo con mis computadores.

No sé si queda algo de la justificación inicial para el cambio de hora (el ahorro de energía), si quedan razones de lado y lado de padres que se preocupan por sus hijos.

La casi “Guerra Civil” en el Cine Hoyts

Director Escuela Ingeniería Informática de Universidad Uniacc

Mg. Gerardo Cerda Neumann Director Escuela de Informática de Universidad Uniacc

 

 

El título del comentario parece hacer referencia a la última película de Marvel “Captain America: Civil War” estrenada el jueves recién pasado en nuestro país. Efectivamente así es.

Claro que en este caso no me referiré a la estupenda película dirigida por Anthony y Joe Russo (http://goo.gl/aQeid5) si no a las consecuencias de lo que ocurrió antes de poder verla en la noche del sábado 30 de abril en el Cine Hoyts de Estación Central.

La explicación es la siguiente: tomé la decisión de contactar a Cine Hoyts para agradecer la gestión de uno de sus empleados para desarmar la casi “guerra civil” que se suscitó por la negativa de la persona encargada de los estacionamientos para dejarnos entrar.

Cuando quise enviar un e-mail al Cine Hoyts para agradecer y destacar la ayuda del Señor Claudio Aránguiz en un principio no me fue posible.

Lo que hice fue buscar un correo de contacto en el Sitio Web del cine para hacer llegar el mensaje. Lo encontré al final de la página Web del Cine bajo el título de “Sugerencias o reclamos”, hasta aquí todo bien.

 


Sin embargo al seleccionar dicha opción con gran sorpresa descubrí que lo que ocurría era que se trataba de instalar el software de Outlook.

Esta consecuencia significaba que quien desarrolló el Sitio Web utilizó la instrucción “mailto:sugerencias@cinehoyts.cl”. Sinceramente me sorprendió mucho un error tan básico. Es decir, suponer que el equipo de quien envía el mensaje está configurado con Outlook es correr un tremendo riesgo. Lo que se debe hacer, y se recomienda desde hace muchos años, es preparar una página de contacto donde el visitante se identifique y escriba el mensaje que desea.

Curiosamente revisé el Sitio Web de Cine Hoyts de Argentina y ahí si lo tienen preparado. Sería recomendable que compartieran dicho código con sus colegas chilenos para facilitar la interacción con sus clientes … digo yo.

Ahora bien, ¿por qué tomé la decisión de agradecer al empleado ya mencionado?

Los hechos fueron los siguientes: llegué al cine a las 21:35 con mis hijos, mi hermano y un amigo que iba con su hija. Al tratar de entrar al estacionamiento desde la calle exposición nos encontramos con el ingreso bloqueado y un cartel que indicaba que este se cerraba a las 22:00. Al preguntarles por qué no nos dejaban entrar, las personas a cargo nos indicaron que “la Jefa” les había informado que lo cerraran a las 21:30, pese a que el cartel indicaba las 22:00 como plazo máximo. Les pedí permiso para hablar con esa persona dejando a mi familia y amigos en el vehículo. Después de varias llamadas telefónicas llegó “la Jefa” y me indicó que ella tenía instrucciones de parte del Cine de proceder así. Le pregunté si podía consultar en el Cine y me dijo que sí. Fui rápidamente al cine ya que el tiempo seguía avanzando y la película empezaba a las 22:00. En el pasillo de entrada encontré al Señor Claudio Aranguiz a quien le expliqué la situación. Le extrañó mucho ya que el Cine tiene un contrato con el estacionamiento y fruto de él los clientes tienen derecho de usar el lugar pagando un precio especial. El Señor Aranguiz gentilmente me acompañó a conversar con “la Jefa” y la encontró a la entrada del lugar, donde ya se habían reunido al menos 8 personas más, todas con la intención de entrar y con la consiguiente molestia provocada por la negativa de esta persona.

El Señor Aranguiz le solicitó que nos dejara ingresar a cambio de pagar la totalidad del servicio. Finalmente, luego de insistir varias veces “la Jefa” aceptó abrir la entrada y se solucionó el conflicto generado al no respetar el cartel puesto por ella misma. Todas las personas pudimos entrar, pagar el servicio de estacionamiento y disfrutar la película.

Es decir que todo tuvo un “Happy End”, casi igual que en la película.

PD: al revisar el código ya mencionado pude identificar el e-mail que andaba buscando, es decir sugerencias@cinehoyts.cl y me fue posible enviar el agradecimiento.

De inundaciones y otros desastres naturales…

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

Juanelo y las inundaciones

Juanelo y las inundaciones

 

Ya antes, he recurrido a @Juanelo para ilustrar algún punto.

 
Y parece increíble, que en pleno siglo XXI, en nuestra ciudad más poblada, ocurran cosas así. En términos simples: una lluvia más copiosa de lo habitual, los dos principales cauces fluviales intervenidos por obras “para mejorar las condiciones de vida de los chilenos” y en concreto, una ciudad inundada (con comerciantes que lo han perdido todo) y con emergencia por servicios básicos cortados (principalmente agua) que según se indicó, afectaba a casi todas las comunas de Santiago.

La televisión reaccionó de inmediato, las imágenes aéreas eran impresionantes, al punto en que más de alguien se “perdió” al intentar identificar que correspondía al río original y que parte a las calles inundadas (se echó de menos un mejor uso de los drones que demarcaran mejor los entornos). Aunque claro, hay quienes reclaman que si no hubiese sido en providencia (una de las comunas “ricas” de la ciudad), el despliegue habría sido ínfimo (la diferencia contra el incendio del mercado de Temuco, es notoria).

Las explicaciones de la concesionaria Costanera Norte, resultan poco creíbles. Mal que mal, es cierto que se les puede haber indicado que el canal tenía que tener una determinada capacidad (80 m3 por segundo) y que al final el río haya llevado un 50% más de agua, pero es un río, la naturaleza lo creó precisamente para eso: para que por ahí se canalicen las aguas lluvias…

En el otro cauce (el del Río Maipo) nuevamente se elevó la isoterma 0 (el nivel de altura donde en vez de llover ya nieva) y eso más labores que también intervienen el mismo cauce del río, incrementó la turbiedad del agua, y significó dejar sin servicios básicos a la gran mayoría de las comunas de la capital, lo que conllevó la suspensión de clases y de todas aquellas actividades donde no se pudiera garantizar la disponibilidad de agua potable y/o alcantarillado.

Es frustrante que la ciudad haya acogido tan alegremente el “día de vacaciones” que significó el tema, aunque parece que no aprendemos de nuestros errores.

El río Mapocho, cada cierto tiempo, hace este tipo de “gracias”, y la recomendación es siempre la misma: si el río tiene cierta capacidad histórica (calculable por el cauce) entonces hay que estar preparado para esa llegada.

La historia de la isoterma en el Cajón del Maipo, tampoco es nueva. Y eso parece ser el gran motivo de la suspensión del servicio de agua potable: el aumento de lluvias (en vez de nieve) desplazó mayor cantidad de tierra, aumentó el nivel de “turbiedad” del agua y eso la hacía menos potable. Ya pasó antes y se suponía que la empresa iba a mejorar el tema. No sé cuánto se hizo realmente, pero no fue suficiente. Además, y hay que decirlo, aparentemente las condiciones climáticas del sector eran muy malas y los enviados a cubrir las notas, conocían menos el terreno. Las imágenes fueron bastante menos, y en lo personal nunca vi una imagen mostrando la captadora de aguas. Sólo un paso nivel que habría tenido víctimas fatales, pero nada del principal evento contra la ciudad.

Mención aparte merecen los que yendo por el túnel de la costanera norte, se encontraron con la ola que los inundó. Afortunadamente salieron con vida, pero no gracias a los sistemas de información de dicha autopista, que en lo personal y cómo usuario habitual de esa costanera, me parecen absolutamente deficientes.

Ya es hora que nos empecemos a tomar más en serio.

Comentarios recientes