GOOGLE CREA LA TECNOLOGÍA DE BLADE RUNNER PARA AMPLIAR DETALLES DE UNA FOTO

Una de las escenas más míticas de Blade Runner es aquella en la que Rick Deckard, el cazador de replicantes interpretado por Harrison Ford, lograba ampliar hasta extremos increíbles una foto impresa en papel y posteriormente escaneada.

El ordenador en el que Rick visualizaba la foto, que paradójicamente funcionaba con un viejo monitor de tubo, era capaz de interpolar de forma inteligente los detalles hasta hacerlos nítidos. Yendo más allá de la resolución que tenía la propia imagen en el soporte de papel. Según informa el blog Petapixel, esto está dejando de ser ciencia ficción para convertirse en realidad.

Google lo está logrando utilizando su avanzada tecnología de inteligencia artificial. El proyecto se denomina Pixel Recursive Super Resolution. En este documento (PDF) es posible ver numerosas muestras de cómo la empresa está logrando mostrar de forma nítida imágenes de tan sólo 64 píxeles, 8 de alto por 8 de ancho.

Una resolución muy inferior a la que componían, por ejemplo las piezas de un mosaico romano, para formar un rostro medianamente reconocible. Aunque esta tecnología no sólo tiene aplicaciones para identificar caras. También es útil para muchas otras cosas. Cómo reconstruir el aspecto que tiene una habitación.


A pesar de que la herramienta dista de ser infalible en su estado actual de desarrollo, este método de interpolación de imágenes parece que puede llegar a ser mucho más efectivo que los que actualmente usan los programas de tratamiento de imágenes, como Photoshop. Es sencillo intuir que las aplicaciones de esta tecnología son enormes.

La vigilancia sería una de las áreas en las que puede dar resultados a corto plazo. A más largo plazo se puede pensar en usos para tecnologías de consumo, como sería la mejora de los sistemas de zoom digital que usan las cámaras de los teléfonos móviles.

En fotografía Nokia logró en su momento ampliar la definición del zoom digital con su tecnología Pure View, heredada por Microsoft en los teléfonos Lumia. Aunque esta se basaba en usar sensores con una enorme resolución, 40 megapíxeles en el caso del mítico Lumia 1020, para lograr usar un zoom de tres aumentos en fotos de cinco megapíxeles. Justo el camino inverso que ahora ha adoptado Google. Tecnologías como estas son posibles gracias a la tecnología de aprendizaje profundo de la empresa, que en el terreno visual ya demuestra un gran potencial práctico en aplicaciones como Google Fotos.

Gracias a su tecnología de reconocimiento de imágenes, es posible lograr hacer búsquedas inteligentes en las fotos que almacenamos en ese servicio. Gracia a ella podemos encontrar desde estructuras como puentes hasta localizar imágenes en las que aparezca un animal concreto. Esto es posible en parte gracias al enorme número de imágenes, fijas y en movimiento, almacenadas e indexadas por la empresa en el buscador, Google Fotos o Youtube. Son la materia prima del libro de texto con el que sus máquinas aprenden a diferenciar un gato de un perro y ahora adivinan la cara que se esconde tras un puñado de píxeles.

"La inteligencia artificial de esta empresa aprende del enorme caudal de fotos y vídeos almacenadas en Google Fotos o Youtube”

Compartir en Google Plus

Acerca de Marcelo Díaz Vidal

Encuentra muchos temas de interés en nuestra plataforma: http://grupodeblogsinteresantes.blogspot.com/... Gracias por su preferencia.