General

La IA de DeepMind puede crear escenas 3D a partir de imágenes 2D planas


DeepMind, una empresa hermana de Google con sede en el Reino Unido, creó recientemente una IA que tiene la capacidad de crear escenas 3D completas simplemente después de observarlas en imágenes 2D.

El objetivo principal de DeepMind es enseñar a una máquina la forma en que aprenden los humanos. Los humanos tienden a observar su entorno y luego categorizar todo en su mente, haciendo suposiciones a su alrededor.

Nadie ve el mundo en píxeles. Por ejemplo, asumimos naturalmente que alguien tiene espalda cuando miramos su pecho, aunque no podamos verlo desde nuestra perspectiva.

Otro ejemplo ingenioso es cuando juegas al escondite con un bebé o un bebé. En este caso, los bebés aún saben que tu rostro existe aunque lo cubras completamente con tu mano.

Esta es precisamente la base sobre la que el equipo de DeepMind construye sus máquinas. Hablando de su última creación de IA, su IA fue entrenada para adivinar cómo se ven las cosas desde diferentes ángulos que aún no ha visto.

Al profundizar en las complejidades de esta novedosa investigación, los científicos de DeepMind diseñaron una red de consulta generativa (GQN). Esta red neuronal le enseña a la IA a imaginar y especular cómo aparecería una escena de diversos objetos desde otra perspectiva.

¡Así es como funciona! La IA observa diferentes imágenes en 2D y luego intenta recrearlas.

Es interesante notar que la IA no usa ningún conocimiento previo o entrada etiquetada por humanos. Apenas observa tres imágenes 2D planas y luego predice con precisión cómo se vería la versión 3D de la misma escena.

Para una mejor comprensión, imagine tomar una foto de un cubo y luego pedirle a la IA de DeepMind que le dé diferentes perspectivas y ángulos a la misma imagen. Esto cambiaría cosas como las sombras y la iluminación además de modificar la dirección de todas las líneas que componen el cubo.

Esto se hace cuando la IA usa la red de consulta generativa para imaginar los diferentes ángulos del cubo que en realidad no ha observado para que la imagen solicitada pueda ser renderizada.

El impacto de esta innovación de Inteligencia Artificial es revolucionario, por decir lo menos. Los investigadores ahora están trabajando para construir una "comprensión de la escena totalmente sin supervisión".

Sin embargo, la IA aún no ha sido entrenada para percibir imágenes del mundo real. Por lo tanto, el siguiente paso en el viaje tendría que ser renderizar escenas realistas a partir de imágenes 2D.

Se prevé que la IA basada en GQN de la empresa hermana de Google podría, en el futuro, generar escenas en 3D bajo demanda utilizando solo fotografías. Se predice que estas escenas en 3D serán bastante idénticas al mundo real.

Como lo mencionaron los investigadores de DeepMind, “Al igual que los bebés y los animales, el GQN aprende tratando de dar sentido a sus observaciones del mundo que lo rodea. Al hacerlo, la GQN aprende sobre escenas plausibles y sus propiedades geométricas, sin ningún etiquetado humano del contenido de las escenas ".


Ver el vídeo: Googles self-learning AI AlphaZero masters chess in 4 hours (Enero 2022).