Archivo de julio de 2016

El antes y el ahora de la computación gráfica

José Miguel Santibañez Allendes

José Miguel Santibáñez, Profesor Ingeniería Informática Multimedia, Editor de www.Abe.cl

 

Aún recuerdo aquél primer corto que vi desarrollado por Computación Gráfica, aunque es del año 1989. Debe haber sido más o menos 1992 cuando lo pude ver, en una vieja cinta de VHS, acá en Santiago… Fue en la productora gráfica de un amigo, quienes amablemente me explicaron el proceso:

Primero se “diseña el mundo” (todas las partes fijas)

Luego se diseñan las partes móviles (personajes, indicando fórmulas para definir sus movimientos (la alternativa, es “jugar a los monitos de plasticina” como Ray Harryhaussen, pero reemplazando plasticina por un computador),

Luego se asignan las texturas (el cómo se verá cada uno de los elementos diseñados), a continuación se “fijan las posiciones de luces y cámaras” (aunque pueden ser móviles)

Y finalmente se procede a “renderizar” cada uno de los cuadros de la escena, es decir, a dibujar digitalmente cada uno de los cuadros que serán vistos en la escena.

Es un proceso largo y engorroso que requiere de mucha capacidad artística y por supuesto, mucho tiempo. (2 minutos eran casi 30 horas de trabajo del equipo.

Mis amigos funcionaban al alero de una universidad privada, y habían adquirido un sistema de reproducción gráfico que consistía en un computador de mucha memoria y muy alta velocidad para aquellos entonces, una tarjeta gráfica especial, que permitía procesar el “renderizado” y además un video grabador que usaba una conexión especial, que permitía hacer una grabación “cuadro a cuadro”; esto último era necesario pues cada una de las imágenes que componen un video (a una velocidad de 30 cuadros por segundo) debía ser “renderizada”, lo que tomaba aproximadamente 1 minuto, según la complejidad de la escena, para luego ser enviado al videograbador. Así, crear un corto video de 2 minutos, significa al menos 3600 cuadros lo que podía demorar casi 60 horas (lo dejaban trabajando todo el fin de semana, con la esperanza de que no se cortara la luz). Ese primer video, desarrollado por Pacific Data Images, en 1989, recibía el nombre de “Loco Motion”:

 

 

El video es poco más que un dibujo animado, se puede apreciar como la mayoría de los árboles son “copiados” (todos iguales), pero no puedo negarle su gracia histórica. Posteriormente vendría aquella película que nos impresionaría a todos los que algo sabíamos de computación gráfica: Jurassic Park (1993) o la menos conocida, pero igualmente impresionante, “Corazón de Dragón”, en cuyo poster se leía “You will believe” (lo creerás).

La cita es obligada, traída al presente, por un nuevo corto de Pixar: Piper, desarrollado con técnicas actuales de hiperrealismo, en formato 100% digital para su exhibición en cines (y posteriormente en Blu-ray). El inicio del corto, parece casi uno de los documentales de naturaleza de Disney (que actualmente es dueña de Pixar, por lo que sale primero en los créditos) con escenas de gaviotas volando o comiendo en una playa que son tan realistas, que uno se pregunta en serio si será o no computación gráfica… No es hasta que aparece el protagonista mismo, un pichón de gaviota, llamado Piper, que uno se convence que es un desarrollo por computadora, y sólo porque el pichón resulta ser más expresivo que la mayoría de los actores actuales de Hollywood. El corto completo aún no está en YouTube, pero si el tráiler que demuestra la gran calidad lograda

Piper emociona, tanto porque al inicio se ve muy realista, como por las expresiones de su rostro (sobre todo el pánico cuando la ola lo ataca). Aunque hay que reconocer, que si algo caracteriza a los grandes animadores, es la capacidad de transmitir emociones en los “rostros” de sus personajes, sea un asustado pichón de gaviota, su orgullosa madre, o una decidida máquina de vapor y su carro final (tan asustado como el propio Piper).

Recuperando la información…

José Miguel Santibáñez Allendes

Profesor José Miguel Santibáñez Allendes Editor de www.Abe.cl

 

Me parece interesante estudiar lo mucho que ha cambiado el proceso para recuperar información producto de Internet.

 Si usted fue a una biblioteca a principios den los años 80s quizá recuerde esos cajones de fichas, ordenados por temas, donde aparecían las referencias a los libros disponibles en la biblioteca que habían sido catalogados bajo ese concepto. El proceso partía con un experto catalogador que revisaba un libro y detectaba los temas fundamentales que dicho libro trataba. Algunas veces tenía suerte y encontraba que el libro ya había sido analizado antes; gracias a ello, un buen catalogador podría lograr ingresar entre 6 y 8 libros al día. Luego se actualizaban las tarjetas, el libro se enviaba a bodega y de ahí esperaba que alguien lo encontrara, lo que podía ocurrir por título, autor o por la ficha del tema. Claro que eso requiere de un gran entendimiento de la necesidad de información (y quien busca, sabe que necesita algo, pero rara vez tiene claro que es, exactamente, lo que necesita). Aquí aparecía nuevamente la figura del bibliotecólogo, a quien podía recurrir la persona que buscaba, plantearle sus necesidades, y esperar que fruto de ese diálogo, el bibliotecólogo le pudiera ayudar a organizar la búsqueda y encontrar la información necesaria.

Sistemas de fichas manuales en una biblioteca

Sistemas de fichas manuales en una biblioteca

Ya a finales de los 80s, la mayoría de las bibliotecas contaban con fichas computarizadas, y quien buscaba se podía sentar frente a un terminal y digitar los temas que le interesaban. Los buenos sistemas contaban con un sistema de sinónimos, que les permitían que si determinado tema no estaba en el catálogo, se podía buscar por algunos de sus sinónimos, aumentando la posibilidad de éxito en la búsqueda.

Pero ninguna biblioteca podría compararse con Internet. Al inicio de la web (más o menos desde mediados de los 90s), era un juego frecuente entre quienes teníamos acceso a ella, el contarnos unos a otros los nuevos sitios que habíamos descubierto… Siendo pocos sitios a la semana, parecía posible conocerlos todos. Pero luego llegó el “boom de las .com” y se volvió imposible seguirlos, hasta que llegaron los directorios de sitios, quizá el más conocido, el de Yahoo! Los directorios eran sistemas categorizados, el dueño del sitio lo situaba en una categoría, y normalmente quien buscaba empezaba a ver opciones dentro de las categorías hasta encontrar lo que buscaba o abandonar la búsqueda. El problema clásico hasta ese punto, era hacer coincidir la clasificación que hacía el catalogador del libro, o el dueño del sitio, con los temas de búsqueda que ese sitio podría responder.

Entonces hubo un cambio relevante en Internet, llegó Altavista, como el proyecto de DEC (Digital Equipment Corporation) para demostrar el poder de sus servidores. Fue el primer sistema en “recorrer la red, para encontrar todo lo disponible y evitar la catalogación humana”. Es el modelo que después siguió el hasta ahora más exitoso buscador: Google.

Una vez que “todo internet” (al menos la parte pública de Internet) estuvo en los sistemas de Google y otros buscadores (Yahoo!, Bing, etc.) se hizo necesario determinar la relevancia de los resultados en función de la búsqueda realizada, en otras palabras, determinar qué resultados debieran ser de mayor interés para quien busca, que a este punto aún sigue enfrentando el mismo problema: sabe que necesita información, pero no sabe qué es lo que necesita para superar esa situación.

Si bien el tema computacional (navegar la red, recuperar toda la información y meterla al sistema) ya está bastante bien resuelto, el otro extremo de la recuperación de información (cómo busca una persona) sigue siendo un área en vías de desarrollo. Google ha experimentado mucho en ese tema, también Yahoo! y Bing. Incluso sitios como Facebook o Twitter hacen experimentos para ver cómo la gente reacciona ante la entrega de información de diferentes formas.

Con tantas opciones posibles (y sitios en competencia) habrá que estar atento para ver quien responde de mejor manera a las búsquedas que se realizan. Al final, en ello reside el éxito o fracaso de un sitio buscador.

Comentarios recientes