Archivo de la categoría ‘Ingeniería de Software’

Factura Electrónica: Se acaba el plazo para las Microempresas

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Profesor Ingeniería Informática Multimedia, Uniacc

A partir del  1 de agosto de 2016, las microempresas deberán implementar el servicio de facturación electrónica. Según el sitio web de SII.cl,  se asume que se incorporarán al sistema digital de facturación  unos 500.000 contribuyentes, lo que no es menor, ya que en teoría ahora todos somos receptores de factura electrónica.

Para las microempresas, el tema es duro, ya que deben hacer inversiones. Pero éstas pasan principalmente por modificar sus procesos internos, más que en grandes costos productivos. De hecho aquellos que no tienen ningún tipo de sistema de facturación y aún lo siguen haciendo en forma “manual”, deberán ingresar a sus procesos una forma eficiente de facturar digitalmente. Para ello hay dos opciones.

1.- Usar alguna aplicación de desarrollo propio o de terceros que permita facturar.

2.- Usar el sistema gratuito del Servicio de Impuestos Internos.

Hay un listado de empresas que permiten usar sus sistemas de facturación en red o en línea y sus costos están asociados a la cantidad de facturas que mueven. Así por ejemplo hay empresas que ofrecen servicio por módicas sumas de 7 mil pesos mensuales dando hasta 20 facturas al mes y así suben dependiendo de la cantidad de facturas que se deseen emitir. Para ver toda la gama de empresas certificadas para implementar el servicio de Facturación Electrónica pueden visitar esta página web

Como también se mencionó, el Servicio de Impuestos Internos de Chile ha creado su propio “Sistema Digital de Facturación Electrónica” que entrega gratuitamente a sus contribuyentes. Lamentablemente este sistema es realmente limitado, ya que aunque cumple con lo esperado, o sea emite y recibe facturas, no permite administrar nada más. No hay libros contables, tampoco administración de usuarios, ni nada de lo que viene después de la emisión o seguimiento de las facturas lo que si realizan la mayoría de los sistemas pagados.

Aquí les dejo un vídeo de como funciona el el Sistema de Facturación Gratuito del SII.

No está de más decirles que como estudiantes debieran aprender el proceso de Facturación en línea, ya que de seguro alguien les va a preguntar: ¿sabes de Facturación Online y como funciona?

Nos leemos.

RJE.

Internet de las Cosas (IoT) Parte 2

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Seguimos con el análisis del libro “Internet de las Cosas” de Sergio Melnick y José Miguel Barraza.

Los autores mencionan que “en una primera aproximación, podríamos postular que la realidad es algo así como la integración del sujeto, el objeto y su interface” y ratifican que “precisamente por todo lo anterior la realidad como la entendemos siempre tendrá una importante cuota de subjetividad así como también una cuota de objetividad o de medición de objetos y situaciones que nos rodean”.

Ellos concluyen que: “la realidad entonces, sea lo que sea, más que una entidad, es más bien un proceso dinámico del que somos simultáneamente escritores y actores. Entender la realidad como un proceso y no como una entidad, abre de par en par las puertas a la idea que postulamos de una nueva realidad digital que engloba finalmente lo material”.

Este análisis finaliza mencionando el concepto de “piel tecnológica” que media entre el mundo personal clásico (lo físico) y el mundo virtual (básicamente Internet).

La siguiente imagen, tomada de:

http://www.muycomputerpro.com/2014/03/27/cuerpo-humano-internet-cosas nos permite tratar de imaginar esta situación.

Un sorpresivo feliz Cumpleaños

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Hoy tuve la experiencia de cumplir mis primeros 50 años. El día empezó de manera muy agradable al recibir el cariñoso saludo de mi señora e hijos. Continuó luego con los gentiles saludos de amigos y compañeros de trabajo y va a terminar con un sabroso (espero) almuerzo.

Hasta ahí todo normal, sin embargo tuve la sorpresa de encontrarme con este saludo al abrir Google:

Admito que no esperaba que Google se enterara de mi natalicio y tuviese la “gentileza” de saludarme.

Obviamente me di cuenta que este saludo se debió a que tenía abierto una conexión a Gmail. Sin embargo me parece interesante comentar este hecho como una muestra más de la cantidad de información que dejamos disponible en Internet. Casi sin darnos cuenta hemos abierto nuestra vida personal de una manera en que cualquiera puede saber muchos detalles de nosotros.

¿Cuánto tiempo pasará hasta que se cumpla lo que se muestra en la película “Minority Report” de 2002?

En la escena, que se puede ver en este Link: https://www.youtube.com/watch?v=yyMdrOGhBhI el personaje de Tom Cruise ingresa a un Mall y la tecnología ahí existente lee su iris para mostrarle publicidad específica a sus gustos e intereses.

Lógicamente entre el saludo de mi cumpleaños y una detección biométrica hay aún mucha distancia. Sin embargo está claro que cada vez más perderemos nuestro anonimato para entregarlo en función de recibir algunas comodidades, la duda es: ¿valdrá la pena?

Desde la madurez de mis 50 años les dejo la duda para que la reflexionen.

Aumenta tus ventas evitando los carros de compras abandonados

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Docente Ingeniería Informática Multimedia, Uniacc

Cuantas veces hemos realizado una compra virtual y luego la dejamos abandonada ya sea porque o es muy caro el total o el formulario de registro es eterno y con validaciones adicionales al correo que nunca llegan….

Pues un 36% en las conversiones de carro de compras llenos a vendidos es lo que promete el CMS Prestashop con su plugins de conexión con redes sociales.

Según el sitio Web Prestashop.com , la empresa Ticketprinting.com, una tienda dedicada a la venta de entradas, descubrió que el procedimiento para rellenar su formulario de inscripción generaba un gran número de abandonos.

  • El 40% de los internautas prefiere crear su cuenta a través de una red social para no tener que hacerse una nueva. Por eso Ticketprinting permite ahora inscribirse mediante Facebook, Google + y Yahoo.
  • Resultados: Menos abandonos de pedidos, un aumento del 36% en las conversiones de los usuarios conectados mediante las redes y clientes más fieles.

Pues la idea de facilitar a tus clientes la tarea de inscribirse a tu tienda no parece descabellada. Es lo mismo que nos propone  la aplicación CMS Prestashop al permitir integrar a sus carros de compras el registros de nuevos y viejos usuarios solo usando la clave de su red social favorita.

Existe un listado muy completo de complementos para Prestashop que permiten hacer lo mencionado en el parrafo anterior,  la que puedes encontrar en el siguiente link http://goo.gl/RRdR8. Ahora solo queda bajar el complemento y probarlo en tu tienda en línea. ¿no lo creen así?

 

¡Quince años de SOA!

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Me llegó un e-mail desde el Blog de Power Data (http://blog.powerdata.es/) respecto al tema de la SOA (Software Oriented Architecture). Esta técnica fue creada el año 2000 y consiste en: “la creación de sistemas de información altamente escalables que reflejan el negocio de la organización, a su vez brinda una forma bien definida de exposición e invocación de servicios (comúnmente pero no exclusivamente servicios web), lo cual facilita la interacción entre diferentes sistemas propios o de terceros” (http://es.wikipedia.org/wiki/Arquitectura_orientada_a_servicios).

 

Créditos fotográficos: “Group Of Pencils” by Sura Nualpradid

En el comentario del Blog se destacan las siguientes características:

1. SOA no es un enfoque puramente técnico: es importante entender que la arquitectura orientada al servicio, cuando se practica con éxito y se lleva a cabo de forma adecuada, no es sólo una arquitectura tecnológica.

2. SOA se puede construir utilizando la infraestructura existente: muchas organizaciones se sorprenden al descubrir que pueden construir la ansiada service oriented architecture utilizando su propia infraestructura para el apoyo del desarrollo de servicios web, para el análisis y para la comunicación con los sistemas de mensajería.

3. Las arquitecturas SOA pueden alcanzar una gran complejidad: desde algunas perspectivas, la service oriented architecture puede parecer algo bastante simple.

4. La automatización de procesos es una virtud clave de service oriented architecture: pese a que, para muchos, la habilitación de servicios y su entrega es el núcleo del paradigma SOA, la realidad es que no debería ser así.

5. SOA requiere de un enfoque evolutivo: la arquitectura orientada a servicios es el máximo exponente de la evolución natural de dos ciencias que se alían en su aportación al negocio, la arquitectura y la tecnología.

6. Service oriented architecture requiere un profundo conocimiento de los datos de negocio: hace falta una cobertura técnica, pero el centro de esta arquitectura son los procesos de negocio, alrededor de los que orbitan todas las soluciones que propone.

He tenido la oportunidad de guiar varios Proyectos de Título donde se han aplicado los conceptos de SOA y estos fueron muy exitosos, sobre todo en lo referente a la escalabilidad de la solución.

Los conceptos de SOA se resumen bien en la siguiente imagen:

Para finalizar incluyo una lista de “principios” de SOA tomados de:

http://goo.gl/2R6G8J

Contrato de servicios estandarizados: los servicios adhieren a un acuerdo de comunicación, según se define en conjunto con uno o más documentos de descripción de servicios.

Acoplamiento débil de sistemas: los servicios mantienen una relación que minimiza las dependencias y sólo requiere que mantengan un conocimiento de uno al otro.

Abstracción de servicios: más allá de las descripciones del contrato de servicios, los servicios ocultan la lógica a los demás.

Reutilización de servicios: la lógica se divide en servicios con la intención de promover la reutilización.

Autonomía de servicios: los servicios tienen control sobre la lógica que encapsulan, desde una perspectiva de diseño y ejecución.

Servicios sin-estado: los servicios minimizan el consumo de recursos aplazando la gestión de la información de estado cuando sea necesario.

Descubrimiento de servicios: los servicios se complementan con los metadatos mediante los cuales se pueden descubrir e interpretar la eficacia.

Composición de servicios: servicios están compuestos por partes eficazmente, independientemente del tamaño y la complejidad de la composición.

Granularidad de servicios: una consideración de diseño para proporcionar un ámbito óptimo y un correcto nivel granular de la funcionalidad del negocio en una operación de servicio.

La normalización de servicios: los servicios se descomponen a un nivel de forma normal para minimizar la redundancia. En algunos casos, los servicios se desnormalizan para fines específicos, como la optimización del rendimiento, el acceso y agregación.

Optimización de servicios: los servicios de alta calidad son preferibles a los de baja calidad.

Relevancia de servicios: la funcionalidad se presenta en un nivel de granularidad reconocido por el usuario como un servicio significativo.

Encapsulación de servicios: muchos servicios están consolidados para el uso de SOA. A menudo, estos servicios no fueron planificados para estar en un SOA.

Transparencia de ubicación de servicios: se refiere a la capacidad de un consumidor de servicios para invocar a un servicio independientemente de su ubicación en la red.

Watson, la gran apuesta de IBM por las soluciones de Big Data

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

En los últimos comentarios hemos estado hablando de Big Data (http://goo.gl/SeRSdd), tema que ha ido tomando gran relevancia en los últimos meses. Ahora me permito hacerles llegar este comentario que combina el tema antes mencionado con los aportes de la centenaria empresa IBM (http://goo.gl/PmYcrq). Se trata de la creación de Watson Discovery Advisor, “una plataforma para el análisis de grandes datos lanzado por la compañía bajo un modelo freemium, que ofrecerá a sus usuarios servicios básicos gratuitos y otros de pago más avanzados o especiales” (http://goo.gl/bJ9OYN).

El aporte de esta tecnología está en el procesamiento de grandes volúmenes de datos para dar respuesta a preguntas de investigación o bien de alcance empresarial.

Sin embargo esto no queda solo aquí ya que se destaca que “el objetivo es ayudar a agilizar la gestión empresarial y también a la investigación científica aportando soluciones inteligentes tras un análisis de grandes datos cuyos resultados transmite empleando un lenguaje similar al humano“.

Lo anterior nos lleva a plantear los desafíos de la computación cognitiva (http://goo.gl/2LNs5), “tecnología informática de tercera generación, -término acuñado por Wang en 2002, confiere a la máquina un funcionamiento similar al que realizaría el cerebro humano, siguiendo los principios de la neurociencia.

Se trata, en suma, de inspirarse en el funcionamiento de este órgano para avanzar en el difícil pero apasionante camino de la inteligencia artificial.

El desarrollo clásico informático es justo el paradigma que se pretende combatir, orientando la tecnología de máquinas como Watson para hacer posible una interacción que permita encontrar respuestas a problemas complejos a partir de tecnologías que también lo sean”.

Como ejemplo de su aplicación se puede destacar las seis proteínas que Watson fue capaz de sugerir en el marco de una investigación del Baylor College of Medicine donde fue necesario que analizara 70.000 artículos de investigación científica sobre este mismo tema.

¿Qué vendrá después? Obviamente no lo sabemos pero sí podemos sospechar que será mejor de lo que tenemos hoy en día.

Por último les dejo este link para que descarguen un interesante artículo sobre la administración de los datos o Data Management:

¿Puede Google predecir el mercado de valores?

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Todos hemos visto en las películas cómo los encargados de realizar las inversiones en las diferentes Bolsas de Comercio tratan de apostar a la compra de inversiones baratas para luego venderlas al subir de precio. Esta actividad, realizada generalmente por empresas de Corredores de Bolsa, trata de predecir el alza y baja de los diferentes instrumentos que se transan en el mercado.

Entonces… si se pudiese reunir TODA la información que describa aquellas situaciones que influyen en los precios de los instrumentos de inversión, ¿se podría predecir el mercado de valores?

En un comentario que me llegó de parte del Blog de Power Data (http://goo.gl/OpkmcQ): se analiza el tema.

Ahí se comenta que “En concreto, el poder sinérgico de Wikipedia y Google, dos gigantes de la web, podría tener un gran potencial para hacer revolucionarias predicciones económicas en este sentido. Así lo afirma, al menos, la todavía incipiente ciencia de los conjuntos masivos de datos, que en su corta vida ya ha cosechado enormes aciertos, pero también ha traído estrepitosos fracasos, como acaba de ocurrir con los errados informes de Google Flu Trends sobre las tendencias de influenza y enfermedades similares”.

El comentario se refiere al sitio Web de Google que provee una estimación de la ocurrencia de la Influenza (gripe) en 25 países (http://en.wikipedia.org/wiki/Google_Flu_Trends). Uno de esos países es Chile por lo que consulté el sitio encontrando la siguiente explicación:

La lógica detrás de esto es simplemente que si hay contagios de gripe las personas van a “Googlear” buscando información y tratamiento.

Y … ¿qué pasa con las inversiones en el Mercado de Valores?

El comentario menciona que “La investigación reveló que existe una correlación entre las cosas que las personas buscan en Google antes de tomar una decisión de compra-venta. Ello significa que este tipo de comportamiento podría encontrarse también en otro tipo de escenarios.

Es decir, la investigación sugiere que “las extensiones de estos análisis podrían ofrecer información sobre el flujo de información a gran escala antes de una serie de acontecimientos del mundo real”.

 

En los eventos complejos, tales como los movimientos de los mercados financieros, la información valiosa puede estar contenida en los datos del motor de búsqueda mediante palabras clave, pero con conexiones semánticas menos obvias“, concluye el estudio.

En otras palabras, todavía es una utopía que los inversores empiecen a usar Google para dar forma a sus estrategias de mercado de valores. Mientras Big Data no demuestre lo contrario de un modo fehaciente, habrá que seguir dándole la razón al señor Warren”.

Por lo tanto todavía deberemos esperar a que esta aplicación de Big Data (http://goo.gl/3WRvzE) pueda predecir la evolución de las inversiones.

Claro que un cínico podría decir que nunca lo vamos a saber ya que si alguien lo logra no se lo va a contar a nadie y lo usará para enriquecerse.

Big Data abre las puertas a las amenazas

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Este inquietante título lo leí en un comentario que me llegó de parte del Blog de Power Data: http://goo.gl/QzKE3i

Ahí se destaca que “El crecimiento de Big Data está siendo exponencial y, dentro de este incontenible océano de datos, los dispositivos de Internet de las cosas aumentarán de forma paralela a la demanda, que se ha disparado en los últimos años en número y diversidad de aparatos”.

Ahora bien ¿a qué se refiere eso de “dispositivos de Internet de las cosas”? Bueno, según Wikipedia se refiere a:

interconexión digital de objetos cotidianos con Internet”, es decir a todos los dispositivos que se pueden conectar y ser operados en forma automatizada (http://es.wikipedia.org/wiki/Internet_de_las_cosas).

Gráficamente se muestra de la siguiente manera:

De hecho se plantea que si “los objetos de la vida cotidiana tuvieran incorporadas etiquetas de radio, podrían ser identificados y gestionados por otros equipos, de la misma manera que si lo fuesen por seres humanos”. Más aún se destaca que “según la empresa Gartner, en 2020 habrá en el mundo aproximadamente 26 mil millones de dispositivos con un sistema de adaptación al Internet de las cosas”.

En todo caso se destaca en el comentario del Blog que muchos de estos problemas son de fácil solución. A este respecto se menciona que:

Los problemas de seguridad más comunes, que también tenían fácil solución se observaron tanto en los mismos dispositivos como en sus aplicaciones de movilidad y en la nube. Habitualmente se relacionaban con aspectos como la configuración de la privacidad (se detectaron puntos débiles en datos de los usuarios como el nombre, la dirección de correo electrónico, fecha de nacimiento, datos de la tarjeta de crédito, etc.), la admisión de contraseñas demasiado sencillas, la falta de cifrado de nivel de transporte (el cifrado de datos es clave para la seguridad), vulnerabilidad en la interfaz web (problemas relacionados con las interfaces de usuario, que permite a un atacante recuperar información sensible) y también una protección de software inadecuada”.

Como se ve hay muchos desafíos que superar aún en el uso de estos dispositivos. Confiemos en que la creación de estas tecnologías se tome en serio la seguridad para que podamos sacar provecho a futuro a estos dispositivos y no nos veamos en situaciones de riesgo excesivas.

Para terminar les dejo un link para que bajen este documento que cuenta la experiencia de cuatro empresas que han cambiado mucho con la utilización del concepto de Big Data.

Algo más respecto a “Big Data”

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Tiempo atrás publiqué unos comentarios respecto a Big Data (los pueden ver aquí: http://goo.gl/M4epZV y aquí: http://goo.gl/sGEVhO). En esa ocasión expliqué que el concepto se refería a “procesar TODOS los datos que representen una situación dada y extraer conclusiones automáticas respecto a ellos”. Esta definición la tomé del libro “Big data: La revolución de los datos masivos”, de los autores Viktor Mayer-Schönberger y Kenneth Cukier (editorial Turner Noema, 2013).

Ahora quiero compartir con ustedes un par de vídeos que explican de manera muy sencilla el concepto presentando más elementos a tomar en cuenta.

El primero de ellos lleva por título ¿Qué es Big Data? (lo pueden acceder aquí: http://goo.gl/IOrZET) y en 3 minutos con 30 segundos explica los conceptos básicos del tema. A pesar de ser algo conocido sigue impresionando de que el ser humano acumuló desde el origen del tiempo hasta el año 2003 la cantidad de 5 Exabytes y en solo 9 años acumuló 500 veces más.

Recomiendo este vídeo como una buena introducción al estudio de Big Data.

Luego sugiero ver el vídeo de la empresa EMC titulado ¿Por qué es importante big data? (lo pueden acceder aquí: http://goo.gl/FdkMea) ya que en 14 minutos con 31 segundos profundiza el tema.

Mediante el ejemplo del uso de automóviles eléctricos en Israel describe cómo Big Data permite capturar la información de la ubicación de cada automóvil así cómo la cantidad de carga que le queda y en cuánto tiempo más requiere cargarse. ¿Por qué? Porque cargar uno de estos automóviles consume la misma cantidad de energía que un hogar en un día. Por lo tanto si cada persona simplemente cargase su automóvil cuando quisiera se podrían producir apagones eléctricos debido a la sobrecarga.

¿Se entiende el aporte de Big Data? Al procesar casi en tiempo real la información generada por cada automóvil es posible lograr lo que de otra manera sería imposible: una coordinación en el uso de la red eléctrica que evite cortes de energía. Por supuesto esto solo es posible debido a la tecnología computacional presente en cada uno de los vehículos.

Ahora bien, a partir del ejemplo descrito se explica que Big Data abre tres nuevos elementos:

1. Proporciona datos que antes no estaban disponibles, como si fuera un Universo paralelo que se descubre ante nosotros.

2. Puede generar valor sin límites en el caso de que le sepamos sacar provecho. Este valor se obtiene mediante análisis automático.

3. Configura un futuro muy distinto donde podremos aprovechar de múltiples maneras estos grandes volúmenes de datos. Esto facilitará ser más proactivos con el mundo que nos rodea a diferencia de lo que hacemos hoy donde normalmente reaccionamos cuando algo ya ocurrió.

En el caso de nuestro país podría permitir detectar las calles más congestionadas y proponer rutas alternativas a aquellas personas que van saliendo de sus casas y oficinas.

Como este tema me ha llamado mucho la atención debido a que está dentro de una de mis áreas de interés es que decidí participar de un Seminario online organizado por la empresa: Power Data titulado “¡Conoce Informatica BIG DATA Edition en acción!”. Dicha actividad será el 25 de septiembre y el 2 de octubre. Más adelante les contaré como salió todo.

Oda a la Gestión de Procesos

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Ayer lunes tuve la grata experiencia de dictar la primera clase de un curso de BPM (Business Process Management o Administración de Procesos de Negocios) a un grupo de Jefes de Proyecto de la Empresa Vespucio Norte.

Como siempre hago en estos casos comencé por explicarles el concepto de “Proceso de Negocio” y lo que esto implica.

Luego vimos cómo aplicar estos simples elementos en sus actividades diarias y los propios alumnos se sorprendieron por la cantidad de conflictos que evitan y cómo a su vez potencian el trabajo en la organización.

En la imagen siguiente se pueden apreciar dichos conceptos y definiciones, ¿les parecen útiles también?

 

 

Ideas más importantes de la imagen:

  1. Las organizaciones son una suma de Procesos de Negocios (según lo definieron Hammer y Champy en los años 90).
  2. Un Proceso de negocio es una actividad (o actividades) que agregan valor al producto o servicio que se le entrega al Cliente.
  3. Un Proceso tiene un Dueño que es la persona que es responsable de él, lo conoce, administra y además tiene el poder para que este se ejecute bien.
  4. El poder es la capacidad de que alguien haga algo por nosotros (comentamos también la evolución de los tipos de poder durante el tiempo, primero la fuerza, luego el dinero y ahora el conocimiento).
  5. Las organizaciones generalmente se ven desde el punto de vista de la “Pirámide Organizacional” y los “Organigramas”. A eso hay que agregarle el concepto de “Procesos de Negocios” que las atraviesan horizontalmente.
  6. Aclaramos también los conceptos de Análisis (entender), Diseñar (proponer una solución), Rediseñar (cambiar un diseño) e Implementar/Implantar (crear y usar lo diseñado).
  7. Finalmente hablamos de la “Misión” (razón de ser de una organización), la “Visión” (mirada positiva) y cómo la “Estrategia” debe apoyarlas.

Créanme si les digo que estos simples conceptos pueden hacer mucho para mejorar una organización.

¿Por ejemplo? Asegurarnos que los “Dueños de los Procesos” tengan los recursos y el poder para que se logren los objetivos de los mismos.

 

¿Se puede aplicar ITIL en una Pyme?

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

En la octava semana del curso “IFOL 55 – Sistemas de Información” estamos estudiando ITIL (Biblioteca de Infraestructura de Tecnología de Información) y le pedí a mis alumnos que analizaran la posibilidad de aplicarlo en un proyecto personal como si fuera una Pyme.

Al respecto quiero compartir algunos de los comentarios de ellos:

Respondiendo la consulta: Estimados alumnos: les pido contestar la siguiente pregunta: ¿Qué podría aportar ITIL a su Proyecto personal?

Es difícil decidir, pero encontré una bibliografía, donde muestran que se podría ocupar de ITIL para una Pyme.

Primero formalizando la gestión IT, luego por el cambio cultural a nivel de gestión. Por tanto permitiría concepción y desarrollo, comercialización, crecimiento y estabilización, puesto que se requieren las capacidades de IT.

Una Pyme puede selectivamente definir procesos básicos y simples (ITIL “ligero”) y crear prácticas básicas de Gestión de TI, aún si estas prácticas recaen sobre las mismas personas. Por ejemplo todas las organizaciones de TI, sean grandes o pequeñas, deben proveer procesos de soporte a incidencias, sea dicho proceso ad-hoc, definido, manejable, etc.

Esta respuesta tuvo el mérito de introducir el concepto de ITIL “ligero” que sí es aplicable a una Pyme. Además proporcionó un link a un Blog que desarrolla más este tema: http://iberosys.net/itilblog/?p=691 Del Blog señalado se puede destacar la siguiente respuesta a la pregunta “¿entonces podemos hacer algo mejor con ITIL aunque seamos la tiendita de la esquina?”:

“Absolutamente pero existe una condición indispensable. Dicho negocio debe tener formalizada la gestión de IT en una persona o en un departamento. Porque no podemos aplicar una práctica de mejora a una organización que no existe formalmente. A veces se piensa que el departamento de IT de una PYME es una persona o dos personas, pero personalmente he constatado de empresas con grandes volúmenes de negocio (claramente fuera de la frontera de una Pyme) que tienen microdepartamentos de IT, o incluso se les trata como los “técnicos” de la empresa. Por tanto el primer requisito es que haya una función, persona o departamento de Gestión de IT claramente definido y reconocido”.

De hecho otro de los alumnos mencionó que: “primero hay que entender que ITIL V3 está diseñado para empresas de tamaño mediano o grande, incluso me arriesgaría e indicaría que solo aplica para grandes empresas, o sea la implementación de ITIL V3 una Pyme es muy poco recomendada”.

Como ya se comentó sí es posible de implementar, pero con algunas exigencias.

Para ordenar un poco más la idea quisiera mencionar la descripción de ITIL que hizo otro de los alumnos del curso:

ITIL  se define como una biblioteca de conocimientos acerca de la gestión de servicios de tecnologías de información. La finalidad de ITIL es buscar la mejora continua en la calidad de los servicios TI, y lo logra. Esto lo logra implementando un ciclo que considera cinco aspectos: 

  • Estrategia de servicio (Service Strategies)
  • Diseño del servicio (Service Design)
  • Transición del servicio (Service Transition)
  • Operación del servicio (Service Operation)
  • Mejora continua del servicio (Continual Service Improvement)”.

Podemos concluir entonces que ITIL puede ser un gran aporte al área de Tecnologías de Información donde generalmente nos desempeñamos.

Por último quisiera aportar con una de mis intervenciones respecto a ITIL:

Concuerdo plenamente de que no se puede garantizar la calidad solo por el hecho de usar estándares.


Si bien “ITIL da descripciones detalladas de un extenso conjunto de procedimientos de gestión ideados para ayudar a las organizaciones a lograr calidad y eficiencia en las operaciones de TI” estas deben ser usadas con mucho criterio para aumentar el éxito de sus planteamientos.


Es útil no ser dogmáticos sino prácticos al momento de trabajar con ITIL.

 

Respecto a los ERP Opensource

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

¿Qué es un ERP? En el Blog “Marketing Digital” de Juan Carlos Mejía Llano se indica que:

ERP son las iniciales de las palabras en inglés Enterprise Resource Planning que en español es llamado Sistema de Información Empresarial. Este es un programa que cubre varias áreas funcionales (procesos) de la organización (contabilidad, nómina, compras, ventas, inventarios, etc.)”.

También se destacan los principales beneficios de los ERP:

  • Aumenta la eficiencia operacional
  • Disminuye costos de operación
  • Mejora el control de tiempos
  • Mejora la calidad del servicio
  • Facilita la entrega a tiempo del producto o servicio
  • Mejora la calidad de información para la toma de decisiones
  • Mejora el Servicio al cliente
  • Mejora proyección de ventas

A la fecha de publicación de este comentario me encuentro dictando el curso de “Sistemas de Información” IFOL 55-1. En el cual publiqué una entrada en el Foro y discrepaba del comentario de un alumno quien calificaba a los ERPs de ser “extremadamente costosos”. Para justificar mi punto de vista le presenté a: OpenERP y mencioné que era:

una aplicación absolutamente profesional, que integra todos los procesos de la empresa y que permite mantener el correcto control de todo lo que pueda ocurrir en la empresa y su entorno

Además cité a un ex alumno del curso quien planteó que:

En el proyecto de la empresa yo podría ocupar la aplicación para gestionar las cotizaciones online claro en conjunto con el inventario para que los clientes reciban automáticamente dichas cotizaciones y quizás mencionándole que si no hay stock este podrá ser entregado en un plazo a convenir.

Otra opción que considero muy buena, es referente a mensajes y correos automatizados, ya sea para seguir al cliente que nos encuentra, y mediante la vía automatizada  poder responderle, ofrecerle, y mantenerlos informado.

 También podemos encontrar otros tipos de ERP, los cuales nos podrían brindar ayuda en cuanto a control de la empresa como:

Adempiere, CK-ERP, Openbravo por nombrar algunos

El comentario termina mencionando que esta información la obtuvo de:

http://e-global.es/erp/10-programas-erp-software-libre-y-gratis-para-pymes.html

Como información adicional, en el blog ya citado se realiza una extensa descripción del ERP OpenBravo. Para leerla deben acceder la siguiente URL:

http://www.ecbloguer.com/marketingdigital/?p=957

Espero que esta breve presentación de los ERPs en general y de dos gratuitos en particular les sirva como introducción al tema y puedan dar  una mirada a este tipo de soluciones.

Aquí les dejo un vieo del Manejo Práctico OpenERP .

 

Almacenamiento web en HTML5

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Coordinador Escuela Ingeniería Informática Multimedia, Uniacc.

He estado reivsando las novedades de Html5 y una muy buena es el almacenamiento en el navegador del usuario. ¿Que puedo hacer con eso… que no pueda hacer con cookies? La respuesta más simple es la cantidad de almacenamiento es distinta. En una Cookie es de 4KB mientras que con el almacenamiento web de Html5 es de 10 MB.

Con esa cantidad puedo hacer mucho más. Lo básico que se me ocurre es guardar la preferencias de los usuarios sobre nuestro sitio web. Lo único málo es que no es un almacenamiento único, ya que si el usuario tiene más de un navegador, las preferencias de almacenamiento no se traspasan entre navegadores. Ahora si le dan borrar todos los datos de navegación, tambien mueren los respaldos.

Una forma simple de hacer este respaldo de información en el navegador del usuario la explica con detención Kanya Srinisavan en su sitio web http://www.sitepoint.com/html5-web-storage/ y traducido por el sitio web el webmaster, la que pueden ver en la siguiente URL http://goo.gl/SBYPtz

Como era de esperar, no todos los navegadores cuentan con esta característica ya que versiones de IE7 y anteriores no admiten almacenamiento Web. Todos los otros navegadores como Chrome, Opera, Firefox, Safari e IE8 + soporta el almacenamiento Web. Srinisavan, K. (2013)

Solo queda encontrarle el mejor uso posible a esta forma de respaldar información. En la Escuela de Ingeniería en informática Multimedia preparamos a estos ingenieros que serán capaces de resolver estas incognitas, y hacer de la web un lugar cada día más útil a la sociedad.

 

Srinisavan, K. (2013). HTML Web Storage. Obtnido el 30 de abril de 2014 desde http://www.sitepoint.com/html5-web-storage/

 

Un nuevo nicho de mercado para desarrolladores Web: Firefox OS

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Coordinador Escuela Ingeniería Informática Multimedia, Uniacc.

Llega a Chile el primer celular con Firefox OS. ¿Lo mejor? es que cuesta $29.990. Así titula hoy el diario Las Ultimas Noticias en su edición online en la página 16.  Y para aquellos que nos mantenemos al tanto de este tipo de noticias, claramente no es una novedad, ya que estaba anunciado primero para finales del año pasado y luego para enero de este. Lo interesante es que evidentemente se agrega un nuevo Sistema Operativo a la variedad de Smartphone que existe en el mercado chileno. Están presentes el IOS de Apple, (iPhone), Android, en todas sus versiones y modelos de celulares,  el sistema Windows Phone y el ya casi olvidado Blackberry.

Con el lanzamiento de Firefox OS, no tan solo se agrega un nuevo tipo de Sistema Operativo,  que busca un segmento de mercado,  si no que se abre también un importante nicho de desarrollo de aplicaciones Web en HTML5 para este sistema operativo  lo que interesa a nuestra Escuela.

Al existir un nuevo Celular, tipo Smartphone, con sistema operativo basado en HTML5  lo importante  para la empresa creadora, es hacer que este se masifique con los usuarios para que tenga éxito. Y asumo, que una forma de lograrlo es hacer  que este teléfono sea útil a los usuarios, no tan solo para llamar o mandar mensajes mms, como ya lo hacen  los teléfonos tradicionales. Lo ideal hoy en día es que un teléfono sea personalizable, tenga sus propias aplicaciones y permita bajar app que sean útiles, confortables o divertidas.

El teléfono, por ahora tiene una pequeña debilidad: no posee la aplicación whatsapp. Pero ahora que Facebook se la compró, seguro que pronto saldrá un híbrido disponible.

Sin embargo tiene otras alternativas interesantes como Line. El listado de aplicaciones para este sistema operativo lo pueden ver en la siguiente URL: https://marketplace.firefox.com/?lang=es

Como era de esperar, la Corporación Mozilla llama a los desarrolladores Web a crear sus aplicaciones en HTML5 y publicarlas en el Firefox Marketplace Developer Hub y ganar dinero.

El llamado es a desarrollar grandes aplicaciones para celular. sugieren que es mejor centrase “en un caso de uso principal  y en unas pocas características clave

Lo bueno es que entregan mucha información para los desarrolladores, lo malo es que la mayoría está en Inglés. Pero, a eso estamos acostumbrados, ¿o NO?

 

Big Data parte 2

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Tal como mencioné anteriormente (ver Big data parte 1) voy a escribir una serie de comentarios respecto al libro de Viktor Mayer-Schönberger y Kenneth Cukier (pueden ver un resumen aquí). La razón es que lo encontré realmente apasionante.
Como ya mencioné “Los big data o datos masivos se refieren a cosas que se pueden hacer a gran escala para extraer nuevas percepciones o crear nuevas formas de valor. En resumen consiste en procesar TODOS los datos que representen una situación dada y extraer conclusiones automáticas respecto a ellos”. ¿Qué se obtiene al procesarlos? Como ya se dijo es posible extraer correlaciones, es decir una cuantificación de la relación estadística entre dos valores de datos. En castellano: una correlación fuerte significa que, cuando cambia uno de los valores de datos es altamente probable que cambie también el otro (página 72, capítulo Correlación). A eso me refería cuando mencioné en el otro comentario que es posible saber el qué pero no el por qué.

En el segundo capítulo (titulado MÁS) se menciona que los datos masivos tienen que ver con tres importantes cambios de mentalidad:

-       La capacidad de analizar enormes cantidades de información sobre un tema dado.

-       La disponibilidad a aceptar la imprecisión y el desorden.

-       Empezar a respetar las correlaciones, en vez de buscar constantemente la elusiva causalidad.

Lo anterior rompe con varios conceptos muy arraigados en nuestra sociedad. Se cita como ejemplo que los gobiernos durante milenios han tratado de vigilar a sus súbditos recogiendo información. De hecho la palabra censo proviene del término latino censere, que significa estimar. Por lo tanto siempre se ha entendido que la información que se usa es solo aproximada y nunca precisa al 100%. Por lo tanto recoger muestras para extraer conclusiones es a todas luces algo aceptado cotidianamente. Por ese motivo los estadísticos han demostrado que la precisión de la muestra mejora con la aleatoriedad no con el tamaño de la misma. Se cita como ejemplo de que:

En realidad, aunque pueda parecer sorprendente, una muestra aleatoria de 1.100 observaciones individuales sobre una pregunta binaria (sí o no, con aproximadamente las mismas probabilidades de darse) es notablemente representativa de toda la población. En 19 de cada 20 casos, representa un margen de error inferior al 3 por 100, tanto si el tamaño de la población total es de cien mil como si es de cien millones”.

En esencia el muestreo aleatorio reduce el problema de los datos masivos a unas dimensiones más manejables.

De forma aún más alarmante el muestreo aleatorio no resulta sencillo de extrapolar para incluir subcategorías, por lo que al parcelar los resultados en subgrupos cada vez menores aumenta la posibilidad de llegar a predicciones erróneas.

Por lo tanto el muestreo deja de ser útil cuando se quiere ahondar más, para revisar con detalle alguna subcategoría que llame la atención. Lo que funciona en lo macro se viene abajo en lo micro. Por último, el muestreo exige una planificación y ejecución cuidadosa, lo que es difícil de lograr.

Obviamente el concepto de muestreo no tiene el mismo sentido si se es capaz de explotar grandes cantidades de datos como en el caso del “Big Data”. El instrumental técnico ha cambiado drásticamente pero la mentalidad y los métodos se adaptan mucho más lentamente.

Sin embargo el tema no es tan simple ya que si se quiere, por ejemplo, analizar las transacciones de las tarjetas de crédito, como estas se producen instantáneamente, dicho análisis debería ser en tiempo real lo que exige una gran capacidad tecnológica. Como se la característica de procesar TODOS LOS DATOS se puede volver en contra.

En otros casos el proceso es bastante más simple ya que TODOS LOS DATOS puede ser una cifra bastante pequeña. Se cita el famoso caso planteado en el libro “Freaknomics” de Levitt y Dubner donde se analizaron todas las partidas de Sumo en Japón durante una temporada (pueden ver un resumen aquí). Mediante ese análisis se descubrió que los luchadores que ya estaban asegurados de permanecer en la “primera división” tendían a perder con aquellos que necesitan ganar su último combate para no descender. En ese caso el incentivo al engaño estaba dado por el hecho de poder cobrar el favor en otro campeonato posterior. De hecho se menciona que el conjunto de datos procesados contenía “menos bits que la típica fotografía digital que se hace hoy en día”. Por lo tanto cuando se habla de datos masivos se refiere al conjunto exhaustivo de datos.

Se plantean dos conclusiones al término del capítulo:

-       No siempre es necesario utilizar TODOS LOS DATOS. Sin embargo ahora es mucho más factible de hacerse que antes.

-       Aún se puede recurrir al muestreo en algunos contextos, pero esta no será la forma predominante en que se analizarán los datos en el futuro. Cada vez se podrá ir por todos.

El próximo tema que desarrollaremos será el manejo de la confusión en los datos recolectados.

Ganancias de alrededor de 17 millones de dólares en tan solo 3 minutos

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Coordinador Escuela Ingeniería Informática Multimedia, Uniacc.

Parece imposible el título de esta nota, pero fue un logro de la empresa Xiaomi que vendió la totalidad de su nuevo MI3 en 30 minutos. Además informó que logró vender 220.000 unidades de este teléfono Smart ¡en tan solo 3 minutos!,  según consigna el sitio web Wayerless.

“La famosa compañía china, Xiaomi, ha dado bastante de que hablar, ya que nuevamente han hecho un nuevo record de ventas este lunes recién pasado en el Día de los Solteros que se celebra en el país asiático.”

La cantidad de dinero que ganó, en 3 minutos y después a los 30 minutos de lanzado el producto, llegó a los US$ 49 millones en total. Cabe destacar que todas las ventas fueron por Internet.

Independientemente de las ganancias obtenidas, y pensando siempre como informático, asumo que los servidores de esta empresa deben tener algún sistema de servicios escalables. Esto porque no es posible soportar esa carga de ventas en solo 3 minutos con un solo servidor sin que sus respectivas bases de datos colapsen.

Como profesor de Comercio Electrónico, siempre pienso en las variables informáticas de las ventas por internet y este es un buen ejemplo de lo que se puede lograr con un sistema robusto y bien pensado. Acorde con las estratégicas de la empresa.

Se espera que las ventas de una empresa fabricante de teléfonos celulares reciba una gran cantidad de visitas al día. Aquí en Chile un diario electrónico como emol recibe cerca de 200.000 visitas que “bucean” en sus plataformas Web. Pero esas visitas se distribuyen durante el día teniendo un punto máximo en las mañanas cuando la gente común llega a sus trabajos y revisa el diario electrónico siendo la mayor carga entre las 08:00 y las 10:00 hrs. Pero no llegan nunca a 220.000 en tres minutos.

Ahora el por qué la empresa vendió tantos teléfonos está por el hecho de que al parecer tiene muy buenas prestaciones. Habrá que esperar a que llegue a Chile para tener una opinión más profunda.

 

Parece imposible el título de esta nota, pero fue un logro de la empresa Xiaomi que vendió la totalidad de su nuevo MI3 en 30 minutos, que es un teléfono Smart. Además informó que logró vender 220.000 unidades ¡en tan solo 3 minutos!,  según consigna el sitio web Wayerless.

“La famosa compañía china, Xiaomi, ha dado bastante de que hablar, ya que nuevamente han hecho un nuevo record de ventas este lunes recién pasado en el Día de los Solteros que se celebra en el país asiático.”

La cantidad de dinero que ganó, en 3 minutos y después a los 30 minutos de lanzado el producto las ventas se habían subido a la suma  US$ 49 millones en total, todas por ventas por internet.

Independientemente de las ganancias obtenidas, y pensando siempre como informático, asumo que los servidores de esta empresa deben tener algún sistema de servidores escalables, ya que soportar esa carga de ventas en solo 3 minutos es muy probable que un solo servidor con sus respectivas bases de datos colapse.

Como profesor de Comercio Electrónico, siempre pienso en las variables informáticas de las ventas por internet. Y este es un buen ejemplo de lo que se puede lograr con un sistema robusto y bien pensado. Acorde con las estratégicas de la empresa.

Se espera que las ventas de una empresa fabricante de teléfonos celulares reciba una gran cantidad de visitas al día. Aquí en Chile un diario electrónico como emol recibe cerca de 200.000 visitas que bucean en sus plataforma web. Pero esas visitas se distribuyen durante el día teniendo un punto máximo en las mañanas cuando la gente común llega asus trabajos y revisa el diario electrónico. Por lo que la mayor carga está entre las 08:00 y las 10:00 hrs. Pero no llega nunca a 220.000 en tres minutos. Ahora porqué vendió tantos teléfonos al parecer tiene muy buenas prestaciones. Habrá que esperar a que llegue a Chile.

Algunos aspectos de usabilidad

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

Como parte de un Grupo de Investigación tuve la oportunidad de leer el documento “Informe APEI sobre usabilidad” de Yusef Hassan Montero y Sergio Ortega Santamaría (descargable desde: http://eprints.rclis.org/13253/1/informeapeiusabilidad.pdf).

Introducción

El documento logra dar una ajustada visión del concepto de usabilidad en el software y para esto desarrolla el tema en 6 partes:

  1. Introducción.
  2. Definición y conceptos.
  3. El factor humano.
  4. Diseño Centrado en el Usuario (DCU).
  5. Conclusiones.
  6. Bibliografía.

Algunos temas a destacar: dentro del desarrollo del documento se empieza por definir algunos de los conceptos más importantes entre los que cabe destacar:

Usabilidad: “se refiere básicamente a la facilidad de uso de una aplicación o producto interactivo”.

 

Bajar artículo Completo

 

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Mecanismo de Antikythera

Rodrigo Jaque Escobar

Rodrigo Jaque Escobar, Escuela de  Ingeniería Informática Multimedia, Uniacc.

“Si no hubiera sido descubierto en 1991, nadie en el mundo hubiera podido creer de su existencia”, así empieza el vídeo sobre uno de los descubrimientos más asombrosos de nuestra era. El mecanismo de Antikythera fue descubierto en un naufragio hace ya 100 años, sin embargo no fue hasta nuestra era en que se pudo descubrir su real propósito el cual era mirar el futuro y  pronosticar con exactitud los eclipses lunares.

En unos de esos días de descanso de vacaciones tuve la oportunidad de ver el  History Channel y  maravillarme con la ingeniería de los griegos y su amplio conocimiento de astronomía. Ellos podían calcular con exactitud los ciclos lunares y de los planetas como los conocían en ese tiempo. El mecanismo en cuestión no solo pronosticaba un eclipse, sino también la hora en que ocurriría con décadas de antelación. Alguien en la antigua Grecia fue capaz de construir este mecanismo que además de ser portátil era más pequeño que una computadora actual.

¿Y porque construirían una máquina como esa hace 2000 años atrás?, por lo que se ve en el video, era porque un eclipse siempre anunciaba algo catastrófico, lo que incluso podia hacer que los súbditos llegaran a matar al rey de turn,o enceguecidos por el miedo al eclipse. Si yo hubiera sido rey de Grecia en ese tiempo, seguramente me convendría saber cuando ocurrirá uno.

Algunos creen que el mecanismo de Antikythera fue creado en Siracusa por el Matemático Arquímides. Así es que el grandioso y divino cosmos y sus movimientos fue encapsulado en una caja pequeña y perdida en el mar por una galera romana.

Les dejo el link y el video para compartir con ustedes este interesante reportaje. http://vimeo.com/46718961

 

[History] La Primera Computadora del mundo from Zeth3047 on Vimeo.

 

Día Ágil para Académicos

Gerardo Cerda Neumann

Gerardo Cerda Neumann, Director Escuela de Ingeniería Informática Multimedia UNIACC.

El viernes 20 de julio estuve todo el día en el evento “Día Ágil para Académicos” organizado por Chile ágil (http://www.chileagil.cl/). Esta actividad tenía como objetivo prepararnos para compartir los métodos ágiles con nuestros alumnos. En mi caso particular los he aplicado con bastante éxito en mis cursos presenciales, incluso en dos de ellos he trabajado con mis alumnos usando Scrum (http://es.wikipedia.org/wiki/Scrum) que es uno de los métodos ágiles más conocidos.

Entonces “El desarrollo ágil de software son métodos de ingeniería del software basados en el desarrollo iterativo e incremental, donde los requerimientos y soluciones evolucionan mediante la colaboración de grupo auto organizados y multidisciplinares” (http://es.wikipedia.org/wiki/Desarrollo_%C3%A1gil_de_software).

Veamos los conceptos más relevantes:

1.    Los requerimientos y soluciones evolucionan mediante la colaboración. Esto se refiere a entender que es muy difícil dar con “la solución” al primer intento. Más bien se trata de irse aproximando paulatinamente a la mejor solución posible, todo esto desde la colaboración, rompiendo la idea de que las personas trabajan en forma aislada y que se las deben “saber todas”.
2.    Los grupos de trabajo son auto organizados, es decir que toman sus propias decisiones respecto a lo que se debe hacer, cómo se debe hacer y en qué orden.
3.    Finalmente los grupos de trabajo son  multidisciplinares para tener distintas imágenes y visiones tanto de la problemática como de la solución.

A lo anterior cabe destacar que los métodos ágiles (que se pueden aplicar a distintos ámbitos y no solo al desarrollo de software) buscan que las personas confíen entre sí para compartir sus problemas y apoyarse entre todos. Esto trata de evitar que cuando alguien se equivoque lo trate de ocultar para no recibir castigo. Esta situación, muy negativa por cierto, es bastante frecuente en nuestro ámbito laboral.

¿Qué me quedó de la experiencia?

Varias cosas: es posible trabajar de manera más humana y coordinada bajando el estrés laboral. Esta forma de hacer las cosas es mucho más amable y humana que la manera tradicional. Finalmente que se es mucho más productivo pensando y trabajando de manera ágil.

¿Quieren saber más?

Consulten el sitio oficial de Chile Ágil: http://www.chileagil.cl/

Si tienen dudas consulten Failfast de Chile Ágil en: http://failfast.chileagil.cl/

PD: ¡Gracias a Agustín Villena (agustin.villena@leansight.com) por la organización e invitación!
Nota: pueden descargar una versión de muestra del libro “Game Storming” donde se presentan varios de estos conceptos y actividades prácticas a realizar haciendo Clic aquí

***********************************************************************************************

 

 

Calidad: ¿Se han cumplido las promesas?

Eso fue lo que conversamos este miércoles 25, por Gerardo Cerda Neumann, Director de la Escuela de Ingeniería Informática Multimedia.

Este miércoles 25 de abril tuvimos la presencia de Marcos Guerrero “Process & Quality Specialist” de la empresa In Motion. Su presentación tuvo relación con la “Automatización de Pruebas Web” y se basó en su experiencia profesional en varios cargos relacionados con el aseguramiento de la calidad de software.

Dentro de los temas tratados se puede destacar

-       Principales retos técnicos.

-       Contenido del plan de pruebas (pruebas funcionales y no funcionales).

-       Principales herramientas.

-       Testing manual versus automático.

-       Diseño de pruebas y datos.

-       Diseño de scripts.

-       Beneficios observados.

-       Roadmap para la adopción internas y para la externalización.

Hubo más de 40 personas participantes y la gran mayoría se retiró muy satisfecha con lo expuesto y compartido.

 

:

Comentarios recientes