General

Esta nueva aplicación de inteligencia artificial puede indicarle los ingredientes de sus alimentos con solo mirar su imagen


El MIT ha creado algo como el Shazam para la comida. La nueva aplicación utiliza un algoritmo de aprendizaje profundo que puede generar una lista de ingredientes al mirar fotos de alimentos. El sistema incluso podría proporcionar recetas e información dietética. Si bien la IA aún necesita corregir algunos errores, el equipo del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL) ha logrado un gran progreso en la capacitación inicial del sistema.

[Fuente de imagen: Pixabay]

El programa alberga una enorme base de datos de imágenes e información de alimentos que utiliza para predecir ingredientes y recetas. El nuevo sistema estaba obteniendo una 65% puntuación de precisión en las pruebas cuando se le pide que recupere la receta correcta después de mostrar fotos de comidas preparadas.

La base de datos, denominada Recipe1M, se creó a partir de sitios web de recetas comunes como AllRecipes y Food. Cada una de estas recetas fue luego anotada con información adicional sobre los ingredientes. Se estableció una red neuronal para trabajar en estas recetas en busca de patrones y conexiones entre recetas completadas e ingredientes crudos. Por ejemplo, cuando se le presenta una foto de un muffin, el sistema puede identificar rápidamente ingredientes clave como mantequilla y harina. El sistema llamado Pic2Recipe, luego sugiere una receta popular de su base de datos.

El estudiante graduado de CSAIL, Nicholas Hynes, quien dirigió la investigación, le explicó a Gizmodo que el sistema es más que solo reconocer alimentos. “Que el programa reconozca la comida es en realidad solo un efecto secundario de cómo usamos los datos disponibles para aprender representaciones profundas de recetas e imágenes”, dijo. “Lo que realmente estamos explorando son los conceptos latentes capturados por el modelo. Por ejemplo, ¿el modelo ha descubierto el significado de 'frito' y cómo se relaciona con 'al vapor'? Creemos que sí y ahora estamos tratando de extraer el conocimiento del modelo para habilitar aplicaciones posteriores que incluyan mejorar la salud de las personas. . "

[Fuente de imagen: CSAIL]

Hynes también se apresura a señalar la diferencia entre este sistema y una búsqueda de imágenes inversa. “Lo que diferencia esto de la búsqueda de imágenes inversa es que vamos directamente de una imagen a otra en lugar de simplemente devolver la receta asociada con la imagen más similar; en otras palabras, devolvemos la receta que, según el modelo, era más probable que hubiera producido la imagen de la consulta ".

Los alimentos simples están bien para el sistema tal como está ahora. Pero los alimentos más complejos como el sushi son más desafiantes y requerirán que el equipo encuentre nuevas formas de enseñar al sistema. Los alimentos que tienen iteraciones casi infinitas, como lasaña, también fueron difíciles de precisar para el sistema.

En última instancia, a los investigadores les gustaría capacitar al sistema para que comprenda los diferentes métodos de cocción, como hervir o freír, y para distinguir con mayor precisión las diferencias entre los tipos de alimentos. Otro objetivo es crear un sistema de "ayuda para cenar". Los usuarios podrían darle al sistema una lista de ingredientes disponibles desde los cuales la IA podría ofrecer opciones de comida. Hynes explica que esto podría ayudar a las personas a descubrir qué hay en sus alimentos incluso cuando no tienen la información nutricional exacta.

El sistema no llegará a la App Store de Apple en el corto plazo, pero ese podría ser un día en las cartas para ayudar a los chefs y nutricionistas en ciernes.

Fuentes: Gizmodo, CSAIL

VEA TAMBIÉN: La nueva aplicación de Microsoft "Seeing AI" describe el mundo que rodea a las personas ciegas


Ver el vídeo: INTELIGENCIA ARTIFICIAL EN SALUD (Noviembre 2021).