Archivo de diciembre de 2013

Cinco tendencias de la web que desaparecerán en el 2014

Durante años, algunas decisiones estéticas reinaron en la red de redes: desde intros en Flash hasta sliders por doquier, pero con el pasar del tiempo estos recursos se fueron volviendo viejos y en los albores de una nueva forma de ver Internet, comienzan a ser dejados de lado. Aquí hay algunos ejemplos:

Banners con sliders en la página de inicio

Si bien supieron llamar la atención, ya están lejos de ser una buena idea. Comenzaron como una manera de informar y brindar interactividad, pero hoy en día se han vuelto molestos y distractorios. Actualmente están siendo reemplazados por un simple scroll de la página, o bien por menúes dropdown.

Formularios extensos

Esta agonía tiene ya un tiempo, pero estamos muy cerca de su fecha de defunción. Hacer demasiadas preguntas termina por alienar a los visitantes, y al parecer la mayoría de los sitios lo van comprendiendo.

Intros en Flash

¿Recuerdas esta forma de llamar la atención? Las intros en Flash pueden ser aún encontradas aquí y allá en sitios ostentosos que no han renovado su look en un buen tiempo, pero la mayoría se ha inclinado por un diseño simple y presentaciones limitadas. Los videos son un recurso aún vigente, pero la música y las animaciones se han vuelto definitivamente molestos para los usuarios que quieren una experiencia más controlada y menos sorpresas.

Demasiadas fuentes

Todos sabemos que la tipografía es importante, y de alguna manera divertida, pero es esencial que te contengas a la hora de usar tipos de fuente en logos, sitios web y tarjetas personales. Se hace muy obvio cuando alguien sin experiencia en diseño gráfico desarrolla un sitio, ya que usualmente tiende a complicar el look a través de un surtido innecesario de fuentes. Afortunadamente, hasta muchos amateurs están aprendiendo a controlarse y no usar más de dos, a lo sumo tres fuentes en total.

Diseño complicado

Si pensaste que tener muchos íconos, fuentes, herramientas y diseño transformaba a tu sitio en un excitante lugar lleno de interactividad, piénsalo de nuevo. A veces el exceso puede terminar por transformar tu sitio web en un rincón sobrecargado y confuso. Las tendencias de diseño web se mueven hacia lo simple para que la experiencia de navegación en todos los dispositivos posibles sea más disfrutable.

Fuente original del artículo: Web Design Ledger

Traducción realizada por elWebmaster.com

¿Qué pasa con la frustración del estudiante online?

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Esta pregunta nace a raíz de un excelente artículo que nos hizo llegar nuestro Vicerrector Académico Álvaro Fuentes. El paper, escrito en 2005 por el académico Federico Borges de Estudios de Humanidades y Filología de la UOC aborda el tema de la frustración que deben manejar los alumnos online.

Para desarrollar tan relevante tema el Profesor Borges comenta los cambios producidos en la sociedad de la información, las características de la enseñanza online, lo que les produce frustración a los alumnos, la responsabilidad del docente, la institución y finalmente hace una lista de las acciones que deben realizar todos los involucrados.

De lo último quisiera destacar algunas acciones que son responsabilidad tanto de los estudiantes como de los docentes.

Acciones de los estudiantes:

  • Averiguar el tiempo de dedicación que cada asignatura requiere.
  • Comprobar la propia disponibilidad de tiempo.
  • Averiguar el volumen y la calidad de trabajo exigidos para cada asignatura.
  • Conocer las estrategias básicas para ser un buen estudiante en línea.

Acciones de los docentes:

  • Haber realizado al menos un curso como estudiante en línea.
  • Fomentar la interacción entre sus estudiantes.
  • Indicar claramente qué se espera del estudiante.
  • Mostrarse (y ser) accesible y cercano. Empatía con el estudiante y su situación.

Conclusión

Como se puede ver el modelo educativo online de Uniacc cumple con lo que se plantea en este artículo. Los Profesores reciben una buena formación inicial y deben pasar por la experiencia de ser alumnos de un curso online que les enseña a ser docentes en esta modalidad.

Si están interesados en leer el artículo completo lo pueden descargar de aquí.

Tecnología, Elecciones y Representatividad

Jose Miguel Santibanez

Jose Miguel Santibanez Editor de www.Abe.cl

Segunda vuelta electoral y, ya sea porque es una elección más simple (sólo presidencial y con sólo 2 candidatas) o por alta abstención, está resultando tan rápida, que algunos se burlan de los que llamábamos a la implantación de un sistema más electrónico (reclaman que no sería necesario ni aportaría mayormente).

Sin embargo, en esta elección presidencial, hay una alta abstención (ya en la primera vuelta, fue cercana al 50% y en esta segunda vuelta, podría crecer). Y surgen análisis que dicen que hay que volver al voto obligatorio (en la práctica, no lo fue, al menos desde los tiempos del presidente Lagos, cuando no se castigaba a los que no votaban, sólo a los que se negaban a ser vocales). Otros plantean que no ir a votar es una forma legítima de actuar en política (y sobre todo, hacen el burdo intento de contar a los no votantes, como partidarios propios). Incluso más allá de lo que ocurra con la abstención y la representatividad (incluyendo el manido “si alguien no va a votar, es porque acepta lo que otros decidan”) hay un grupo que debe ser analizado más en detalle: los que van y votan en blanco o nulo (al momento de escribir esta columna, no tengo cifras, solo certeza de que hay quienes lo hicieron, que fueron, votaron y lo hicieron en blanco o nulo). Son la evidencia más fuerte de la crisis de representatividad política.

Creo que conviene preguntarse por qué es así. Y aunque ya hay quienes han aportado a este análisis, quizá ha llegado el momento de revisarlo más en el fondo. Hasta hace no mucho tiempo, lo habitual era que la identificación del individuo con su comunidad, ocurriera en un entorno geográfico como única opción: vecinos, familia y compañeros de trabajo, estaban reducidos fundamentalmente a la localidad donde habitaban. Cambiarse de ciudad (de región) significaba asumir un costo social de dejarlos y crear nuevos lazos. Pero, y como se ha señalado cada vez que se habla de voto electrónico y/o voto en el extranjero, en la actualidad la identificación es cada vez menos en función de la localización geográfica y más social. Cambiarse de ciudad/región, ya no es un problema (en lo personal, he votado varias veces en una comuna donde no vivo, porque tengo intereses relevantes: familiares o laborales en dichas comunas. De hecho, si pudiera tener voz y voto en todas las comunas donde tengo intereses, debiera votar en, al menos, 4 comunas diferentes con las que me relaciono constantemente). Más aún, hace poco, escuché un comentario interesante: no importa cuan “regionalista” sea un senador o diputado; las leyes se hacen para el estado unitario de Chile, no para una determinada región (a lo más, se ha estado hablando de feriados “regionales”, los que para algunos son una verdadera tontera). Yendo un poco más lejos, varios liberales consideran que el concepto de “patria” ya está obsoleto. No se si se consideran “ciudadanos del mundo”, pero no sienten identificación alguna sólo por un concepto geopolítico artificial; y no es tan raro, muchas de sus interacciones habituales, ocurren en Internet, con gente de todo el mundo…

¿Se debe seguir forzando esta identificación territorial?

Hay una razón ineludible a la hora de defender conceptos territoriales: las leyes deben ser válidas en espacios geográficos bien definidos, y donde tanto los ciudadanos como los encargados de hacer cumplir la ley, sepan que es aplicable (el viejo libreto de las series de televisión norteamericanas, donde la persecución de alta velocidad dura hasta que el perseguido es atrapado, o traspasa los límites del condado donde lo perseguían). Sin embargo, ese mismo libreto hace parecer poco seria, las normativas que son extremadamente locales. Por otra parte, una regla que puede ser razonable en un determinado territorio, no necesita ser extrapolada a otras partes. Probablemente, a ningún chileno, paraguayo o uruguayo, le gustaría que se extrapolara la situación policial actual de Argentina. Y aunque sé de varios que esperan que la legalización uruguaya de la marihuana, sea seguida por estos lares; también sé de otros que esperan que eso nunca pase.

La crítica estándar al concepto de legislación local, es que poco importa cuanto me relacione e identifique localmente, la gran mayoría de los reglamentos, leyes y normativas, van a ser generados en un contexto más general. Un senador o un diputado discute y aprueba leyes de carácter nacional. Un alcalde tiene que estar en sintonía con sus vecinos antes de proponer cambios al plano regulador (y en el caso de los alcaldes de partes de grandes ciudades como Santiago, poca opinión se les escucha en temas como el transporte de la ciudad -transantiago- o la instalación y mantención de hospitales)

¿Y qué pasa con la identificación social?

La crítica más recurrente a la identificación territorial, es que hay una mucho más fuerte: social. Le pasa a muchos chilenos en el exterior, que aún sin poder venir a Chile por largos períodos, si mantienen una estrecha relación con el país (por ejemplo, en intercambio comercial o por relaciones familiares) y no les resulta indiferente quien gobierna (nacional, regional o localmente) ni quienes hacen, discuten y/o aprueban leyes.

No sólo eso, hoy muchos apuestan a reunir fuerzas virtuales (¿para que hacer una marcha, si se puede hacer una solicitud electrónica?) para intentar influir en quienes nos gobiernan. Y esas fuerzas virtuales, por mucho que propongan un cambio en un espacio específico, llegan desde todas partes. Es el equivalente a las marchas que se hacen en el paseo Ahumada (centro de Santiago) en relación a causas mapuche radicadas en Temuco, o por las centrales hidroeléctricas de Aysén o termoeléctricas del norte… Con la ventaja (al menos para quienes tenemos que estar cerca, por razones laborales) de no tener que escuchar las molestas vuvuzelas…

La crítica en contra a este proceso, es precisamente: ¿qué tiene que opinar aquél que no está “donde las papas queman”? pero si las leyes tienen carácter nacional, también opinan los senadores y diputados de todas las regiones o distritos que no tienen relación con el tema específico.

Y claro, un punto no menor, es que hay países que consideran que lo más razonable y prudente es ir a imponerle sus leyes a otros, sea por vías políticas, comerciales o, derechamente, militares.

Hoy, que se plantea la necesidad de una Asamblea Constituyente (en lo personal, creo que aún pasará más tiempo para que sea una realidad, pero me sumo a la necesidad) creo que es importante ver como la tecnología nos ha cambiado muchas de las definiciones que antes dábamos por buenas, sin discusión:

  • ¿es necesario nacer/tener padres/estar en Chile para ser un chileno que puede elegir o ser elegido?
  • ¿es necesario cumplir un requisito de edad para elegir o ser elegido? ¿puede ser diferente según el cargo?
  • ¿es Chile un estado unitario, donde las leyes deben ser las mismas para todos los chilenos?
  • ¿pueden existir leyes que afecten a sólo una comunidad?
  • ¿debe mantenerse esta artificial (política) división territorial?
  • ¿puede llegar cualquiera a opinar sobre nuestras leyes, reglas o normas?
  • ¿debo estar presente para participar en un proceso eleccionario?
  • ¿puedo tener una opinión más precisa sobre temas que me afectan? o ¿sólo puedo seleccionar entre uno de los candidatos presentes para que me “representen”?
  • ¿tiene sentido contar con leyes locales? ¿qué pasa cuando alguien infringió y escapó del lugar donde se debía cumplir esa ley y ahora está en un lugar donde esa ley no tiene valides?
  • ¿puede existir una ley que sólo afecte a una comunidad social (no local) específica? ¿quiénes son los llamados a controlar su cumplimiento?
  • ¿qué se requiere para imponer una ley a toda una comunidad? ¿es un asunto porcentual?

En lo personal, no me gustaría tener un “gobierno por feisbuk (sic)”, donde se hacen realidad las leyes que reciben más “likes” (me gusta); o un gobierno “tuiter (sic)” donde nos concentremos en los temas “trending topic” y discutamos en 140 caracteres, por un rato y luego cambiemos de tema… Pero también es cierto que cualquier intento de democracia, debe buscar hacer realidad eso del “gobierno de la gente, para la gente y por la gente” es decir, ser (y tener) representatividad de aquellos que son gobernados…

No es un tema fácil. Ni siquiera la sesgada visión desde la tecnología ayuda. Pero es necesario plantearlo…

Big Data parte 1

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Fiel a mi costumbre de buscar literatura interesante para mi desarrollo profesional fui a fines de noviembre a la Librería Manantial a ver que encontraba. Bueno, en la colección Turner Noema encontré el libro Big data, La revolución de los datos masivos, de los autores Viktor Mayer-Schönberger y Kenneth Cukier. ¿Qué se esconde tras este críptico título?
Nada más y nada menos que “un análisis esclarecedor sobre uno de los grandes temas de nuestro tiempo, y sobre el inmenso impacto que tendrá en la economía, la ciencia y la sociedad en general”.

Los big data,o datos masivos, se refieren a cosas que se pueden hacer a gran escala para extraer nuevas percepciones o crear nuevas formas de valor. En resumen consiste en procesar TODOS los datos que representen una situación dada y extraer conclusiones automáticas respecto a ellos.

Como ejemplo se cita el caso de Oren Etzioni (http://en.wikipedia.org/wiki/Oren_Etzioni), uno de los principales científicos informáticos de Estados Unidos quien, a partir de la base de datos de venta de pasajes aéreos fue capaz de generar una aplicación que predice si el precio de los billetes de vuelo va a subir o bajar. Si bien su motivación fue el hecho de descubrir que sus compañeros de vuelo habían pagado la cuarta parte que él, el resultado fue la creación del sitio Web “Farecast”. Este sitio Web le permitía a un usuario cualquiera saber con una confianza de más del 75% si el precio del boleto iba a subir o a bajar y de esta manera comprarlo en el momento más oportuno. Para lograr estas predicciones fue necesario procesar más de 200.000.000.000 (sí doscientos mil millones) de registros de boletos de vuelo. Ya para el año 2012 el servicio le estaba permitiendo ahorrar a los usuarios un promedio de US $ 50 por boleto. Fue tanto el éxito que Microsoft le ofreció US $ 110.000.000 y lo integró en su buscador Bing.

¿Lo anterior quiere decir que el Señor Etzioni descubrió un algoritmo mágico que calcula una probabilidad de que algo suba o baje en el mercado? Bueno, no es así ya que el cálculo obtenido es fruto “solamente” del procesamiento de este gran volumen de datos existente. Esto se debe a que los resultados que se obtienen con “Big Data” son el qué más no el por qué. Es decir que se puede saber que el boleto probablemente va a bajar de precio, aunque no se sepa la razón.

Esta característica nos choca ya que estamos acostumbrados a pensar en el porqué de las cosas. Sin embargo el aporte que van a realizar los “Big Data” probablemente nos van a hacer aceptar esta limitación sin más.

¿Por qué aparece este concepto durante la segunda década del siglo XXI y no antes?

Bueno, porque es ahora cuando estamos generando como nunca grandes volúmenes de datos. Como ejemplo se menciona que “Cuando el Sloan Digital Sky Survey arrancó en 2000, solo en las primeras semanas su telescopio de Nuevo México recopiló más datos que los que se habían acumulado en toda la historia de la astronomía. Para el 2010, el archivo del proyecto estaba a rebosar, con unos colosales 140 Terabytes (equivalente a 140 veces 10.000.000.000.000 bytes, es decir 1012, http://es.wikipedia.org/wiki/Terabyte). Sin embargo, un futuro sucesor, el Gran Telescopio Sinóptico de Investigación de Chile, cuya inauguración está prevista para 2016, acopiará esa cantidad de datos cada cinco días”.

Las empresas de Internet procesan aún más datos. Google por ejemplo procesa 24 Petabytes de datos al día. Cabe destacar que un Petabyte es más que un Terabyte ya que corresponde a 10.000.000.000.000.000 bytes, es decir 1015. Esta cantidad equivale miles de veces la totalidad del material impreso que guarda la Biblioteca del Congreso de los Estados Unidos, que dicho sea de paso es la más grande del mundo.

Otro dato que impresiona es como ha crecido tan rápido la cantidad de datos digitales. Para hacerse una idea se puede destacar que:

- El año 2000 el 75% de la información era analógica y el 25% restante era digital.

- El año 2007 existían 300 Exabytes de datos almacenados. Un Exabyte es aún más que un Terabyte ya que corresponde a 10.000.000.000.000.000.000 bytes, es decir 1018.

- De ese volumen de datos el 93% ya era digital y solo el 7% analógico (libros, fotocopias, etc.)

- Este año 2013 se estima que en el mundo existen 1.200 Exabytes y el 98% es digital.

Asumo que ya están abrumados por estas cifras. La buena noticia es que si bien la cantidad de información crece 4 veces más aprisa que la economía, la capacidad de procesamiento de los computadores lo hace 9 veces más rápido.

Para ir cerrando este primer comentario quisiera destacar que usar “Big Data” no consiste en “enseñar a un ordenador a pensar como ser humano” sino en procesar grandes volúmenes de datos para inferir probabilidades. Esto es lo que se llama una correlación y permite concluir que cuando una persona escribe “lso” en realidad quiso escribir “los” corrigiendo el texto digitado.

Usar “Big Data” provocará 3 cambios en la forma de analizar la información:

  1. Se podrán analizar muchos más datos, en algunos casos incluso TODOS ellos.
  2. Al utilizar muchos datos se podrá abandonar la necesidad de la exactitud.
  3. Se abandonará la búsqueda de la causalidad (el por qué) quedándonos solo con el qué.

Cabe destacar que no es que se abandone la exactitud por entero solo que se privilegiará aumentar la percepción al nivel macro en vez de la precisión al micro. Como se dijo los datos masivos tratan del qué no del por qué. No siempre es necesario conocer la causa de un fenómeno, aparentemente se puede dejar que los datos hablen por sí mismos.

En los próximos comentarios iremos avanzando en los distintos temas desarrollados por el libro.

Si quieren leer otro comentario respecto al libro pueden acceder aquí: http://www.elcultural.es/version_papel/LETRAS/33203/Big_Data

Elecciones 2.0

Presidente de la Asociación Chilena de Empresas de Tecnologías de Información (ACTI)

El próximo domingo los chilenos y chilenas volveremos a las urnas para decidir quién será la Presidenta, que regirá los destinos de la nación por los próximos cuatro años. Será la oportunidad también de poner a prueba por segunda vez el sistema tecnológico implementado por SERVEL para llevar adelante el procedimiento electoral y entregar los resultados en tiempo y certeza que otras naciones se lo quisieran.

Resultados en línea actualizados cada siete minutos, millares de consultas por segundo y la capacidad de manejar grandes volúmenes de datos fue una muestra de lo que implementó el Servicio Electoral chileno durante las recientes elecciones presidenciales, parlamentarias y de consejeros regionales.

Un proceso que demostró que desde el 17 de noviembre y de ahora en adelante se han instalado las elecciones 2.0, con tecnología de punta, destinada no sólo a la transparencia de los comicios, sino que a la velocidad de la información.

Una muestra del avance que han tenido las TIC en los últimos años en todos los ámbitos de la vida del ser humano, incluyendo temas tan importantes como son las elecciones para escoger al Presidente de un país.

En el último tiempo, en diferentes partes del mundo se ha estado trabajando para que estos procesos sean ágiles y ayuden cada vez más a simplificar la participación ciudadana, lo que ha tenido como resultado varias soluciones que están cambiando para siempre los procesos eleccionarios, ya sea en la transmisión de grandes volúmenes de datos desde cualquier zona geográfica, como la autenticación biométrica del elector, máquinas de votación que imprimen comprobante del sufragio, voto para personas con alguna discapacidad y el voto electrónico.

Mientras Brasil y Venezuela ya están adoptando la autenticación biométrica del elector, con lo cual pretenden poner atajo a la usurpación de identidad de los electores y a la doble votación, el SERVEL sorprendió el pasado 17 de noviembre con la implementación de una tecnología que fue capaz de manejar grandes volúmenes de actas transmitidas en simultáneo, que permitió obtener resultados oficiales cada siete minutos y los cómputos finales, pocas horas después del cierre de la jornada electoral.

Un logro en el que destacó la capacidad que tuvieron los servidores, para resistir más de 500.000 consultas por segundo, sin que colapsaran.

Las recientes elecciones presentaron diversos hechos que levantaron los niveles de exigencia con respecto a las anteriores: un padrón nacional de casi catorce millones de electores; cuatro votaciones paralelas, más de mil candidatos en todo el país y la barrera natural que significa ser una nación con más de cuatro mil kilómetros de extensión.

Sin embargo, los chilenos pudimos informarnos sobre los votos obtenidos por los distintos candidatos sin tener que esperar días, para que ello ocurriera.

Naciones más grandes que Chile tardan más de 24 horas para entregar los resultados o dan los cómputos avanzada la madrugada, pero los chilenos supimos a pocas horas de terminada la elección que deberíamos volver a las urnas el 15 de diciembre, que se habían producido algunos triunfos sorpresivos y algunas derrotas impensadas.

El gran despliegue tecnológico que aplicó el SERVEL para esta ocasión fue garante de un resultado a todas luces inobjetable, en el cual trabajaron más de cinco mil personas para el área informática del servicio, además de los “hackers” éticos, quienes protegieron el proceso de un continuo “ataque” a la página, luego de que el año pasado, durante las elecciones municipales, sufriera el ataque de más de 40.000 piratas cibernéticos.

Para la Asociación Chilena de Empresas de Tecnología de la Información este rol que tuvieron las tecnologías de la información en la entrega rápida y certera de datos resulta, sin lugar a dudas, un orgullo, porque nada de esto habría sido posible sin tecnología avanzada.

Una elección 2.0 como la que tuvimos, sólo nos ratifica la necesidad de que el país cuente con una institucionalidad que asegure la investigación, la innovación y el desarrollo, pero que también vele por la aplicación ética de estas herramientas destinadas a mejorar y aliviar la vida de los ciudadanos.

Este comentario fue publicado en el Blog de Cooperativa el 12/12/2013:

http://blogs.cooperativa.cl/opinion/ciencia-y-tecnologia/20131212085710/elecciones-2-0/

¿De qué nos sirve el ROI a nosotros los Informáticos?

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Observación: este comentario nace de la dictación del curso “Sistemas de Información” para IFOL 47.

Respecto al ROI o Return of Investment (Retorno sobre la Inversión): quiero comentar que es un tema muy relevante para nosotros como Informáticos. Primero cabe decir que (lamentablemente) la mayoría de los dueños y gerentes de empresas nos ven más como gasto que inversión. Por lo tanto poder mostrar que existe un retorno respecto al dinero que se “gasta” en un Proyecto Informático resulta fundamental para posicionarnos en las empresas.

Entonces, ¿cómo se calcula el ROI?

Al respecto el Blog “Apuntes de Computación” en su entrada “Cálculo del TCO y del ROI para proyectos informáticos” de Luis Mora publicado en agosto 16 de 2008 plantea que:

El retorno sobre la inversión (Return of Investment o ROI) es el beneficio que obtenemos por cada unidad monetaria invertida durante un período de tiempo.

 Suele utilizarse para medir la viabilidad de un proyecto y medir su éxito.

 ROI = Beneficios/Costos

 El costo siempre es más fácil de medir. Casi siempre sabemos lo que gastamos pero lo realmente complicado es cuantificar el beneficio.

 El ROI es problemático de medir por la entrada en juego de factores como:

 El cambio tecnológico.

El desorden al controlar y medir fuerzas durante un proyecto.

Factores intangibles como la satisfacción de los usuarios, mejoras o comunicación

Fuente: http://apuntescomputacion.wordpress.com/2008/08/16/calculo-del-costo-total-de-propiedad-tco/

¿Interesante no?

Por último quisiera compartir un extenso trabajo preparado por los académicos Nicolás Sánchez Acevedo y Juan Sebastián Segura Castañeda de la Universidad Javeriana de Colombia. En este documento de 58 páginas ellos desarrollan una propuesta para el ROI específicamente en lo referente a la seguridad informática. Si les interesa leer el artículo lo pueden descargar desde aquí.

Aplicando correctamente estos conceptos al evaluar y presentar nuestros proyectos lograremos ganar espacio y demostrar en las empresas que no “pueden vivir sin nosotros”

Polos opuestos

Jose Miguel Santibanez

Jose Miguel Santibanez Editor de www.Abe.cl

Dos días (24 y 25 de Noviembre) dos situaciones, dos polos opuestos…

El fin de semana del domingo 24 de Noviembre, se realizó la segunda versión del “Santiago Mini Maker Faire”. En un espacio frente al Museo de Historia Natural de la Quinta Normal de Santiago, que estaba mejor organizado que el año anterior, y -en mi opinión- con muchos más expositores, se realizó esta interesante apuesta para mostrar que se está haciendo en Chile, más allá de los grandes emprendimientos o los desarrollos de auspicio nacional.
Puntos destacados de la muestra (tratando de resumir, ya que habían muchas cosas interesantes) incluyen el espacio dedicado a los “recicladores” donde se podía encontrar todo tipo de llaveros, billeteras, pantallas para lámparas, con diseños bonitos (creo conveniente rescatar ese aspecto, no eran sólo cosas recicladas, eran cosas hechas con mucho sentido estético); la sección dedicada a los inventores de vehículos (dos autos solares y un re-inventor de un helicóptero al que varios queríamos subir); la gran carpa de inventos donde, según me pareció, por primera vez había empresas (o emprendimientos ya formalizados) aparte de inventores independientes; y por supuesto los dinosaurios que caminaban entre nosotros. Mención especial -por encargo- se lleva un robot que circulaba por la carpa de los inventores, que evitaba chocar con la gente, pero a las damas les silbaba… me consta que hubo alguna que se sorprendió completamente. Me quedé con las ganas de comprarme una Raspberry-Pi pero me alegra de sobremanera saber que están siendo importadas para su venta a bajos precios.

Un gran aplauso a todos los que participaron en esta feria, demostrando que desde Chile, es posible innovar e inventar (o reinventar) y realizar emprendimientos… Lo único que a mí, personalmente me gustaría mejorarle, es el nombre… le pondría uno en español (pero no demasiado chilenizado, que después de las ramadas del 18, uno ya sabe que NO lo ha visto todo).

Pero esa misma noche, la imagen de la tecnología en Chile, cayó olímpicamente. La versión chilena del “Cyber Monday” (que incluso una empresa rebautizó como “Friday Monday”) … El comentario que más veces releí, decía “No les pidan más, recuerden que los servidores del ciber-monday, los compraron en el ciber monday del año pasado”.
En concreto: Una vez más anunciaron con bombos y platillos que se realizaría un “cyber-monday”, tradición norteamericana que sigue al “black friday”, el viernes que sigue al día de acción de gracias, y que significa el inicio más desquiciado de la compra de regalos de navidad, con ofertas realmente increíbles. En USA, el cyber-monday será mañana 2 de diciembre, pero en Chile, a algún ingenioso se le ocurrió adelantarlo una semana y así todas las grandes tiendas se dispusieron a la realización de esta versión chilena… Y una vez más, no dimos el ancho…

La gran novedad de este año, eran las “salas de espera” es decir, uno llegaba al sitio de la tienda, y en vez de mostrar las ofertas, lo dejaban a uno en una sala de espera. Luego de un rato, la tienda virtual se desocupaba lo suficiente para poder entrar a mirar productos de un área… Y si se cambiaba de área, entonces pasaba a otra sala de espera… Los comentarios fueron masivamente negativos… Y para peor, no he escuchado de nadie que haya aprovechado una gran oferta real (un alumno me indicó que aunque había visto una gran oferta, entre el tiempo de comprar y pasar por las salas de espera, más asegurar el cupo de su tarjeta de crédito; la oferta expiró y se quedó “con las ganas”)… A diferencia de USA, acá las ofertas no consideraban grandes descuentos sobre el precio “normal”.

Mención especial merecen dos tiendas que visité. Lego Store si tenía grandes ofertas (50% de descuento en varios productos). Y BuscaLibre.com no sólo tenía grandes ofertas, sino que también indicaba cuantos ejemplares quedaban en stock. Eso sí, BuscaLibre hizo algo esperable y lógico, en vez de tener el sitio normal de ventas, transformaron su sitio en uno dedicado en exclusiva al Cyber Monday, lo que probablemente fue de gran ayuda. La mayor parte de las grandes tiendas, tenían simultáneamente sus dos sitios (el de ofertas y el tradicional).

Eso sí, hay que decir que no sólo colapsaron sitios de tiendas, también varios bancos se vieron afectados. Esperemos que este 2 de diciembre, que es cuando todo el resto del mundo celebra el Cyber Monday (USA, Argentina, México y otros países) las empresas chilenas no vuelvan a colapsar.

Comentarios recientes