General

Científicos crean la primera IA 'psicópata' del mundo haciéndola leer subtítulos en Reddit


Los científicos del MIT han creado con éxito un "psicópata" de IA al alimentarlo con contenido de Reddit. Tres expertos en aprendizaje profundo se han unido para mostrar cómo el contenido que mostramos a la IA realmente impacta sus resultados de aprendizaje.

Para demostrar su punto, los ingenieros e investigadores del MIT Pinar Yanardag, Manuel Cebrian e Iyad Rahwan hicieron que su IA, a la que llamaron Norman en honor al personaje principal de Psycho, leyeran las leyendas de las imágenes de un foro de Reddit.

Luego le mostraron a Norman una serie de manchas de tinta del famoso Prueba de Rorschach. Mientras que una IA estándar cuando se le muestran las imágenes generalmente responde con respuestas como "primer plano de un pastel de bodas en una mesa", Norman responde con ideas gráficas que incluyen "el hombre es asesinado por una ametralladora a plena luz del día".

Para ser claros, los científicos no le mostraron al robot las imágenes reales disponibles en el misterioso sitio de Reddit, solo leyeron los subtítulos de las imágenes. Si bien una investigación aparentemente espeluznante e innecesaria, el proyecto Norman no podría llegar en un mejor momento.

Cuando se les preguntó qué los motivó a perseguir una IA psicópata, los creadores de Norman explicaron que el proyecto trata de crear conciencia sobre la forma en que la IA desarrolla sesgos a través del contenido que alimenta. "Los datos que se utilizan para enseñar un algoritmo de aprendizaje automático pueden influir significativamente en su comportamiento", dijeron los investigadores.

"Entonces, cuando hablamos de que los algoritmos de IA son parciales o injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le enviaron". A medida que la tecnología de la IA se desarrolla rápidamente, persisten las preguntas sobre cómo se supervisará y regulará.

Norman plantea grandes interrogantes sobre la ética de la IA

Hoy, Google publicó sus principios éticos relacionados con su trabajo con IA. La compañía dice que no trabajará con ninguna organización militar para desarrollar armas.

Norman presenta preguntas sutiles tanto a los ingenieros de IA como al público en general sobre cómo estamos monitoreando el contenido y, por lo tanto, el sesgo de la nueva IA.

La inteligencia artificial utilizada en automóviles autónomos, por ejemplo, debe aprender a reconocer a los peatones de los objetos inanimados. Se debe prestar atención para garantizar que los datos proporcionados a la IA no hagan referencia a ningún aspecto particular de lo que es humano para garantizar que no se enseñe ningún sesgo inadvertidamente.

El mismo equipo del MIT ha incursionado en el lado oscuro de la IA antes. Su primer proyecto fue la 'Nightmare Machine' impulsada por IA. El proyecto abordó el desafío de lograr que la IA no solo detecte, sino que induzca emociones extremas como el miedo en los humanos.

Luego siguieron este espantoso proyecto con el desarrollo de Shelley, el primer escritor de terror de IA colaborativo del mundo. Shelley fue "criado; leyendo cuentos de miedo antes de dormir del subReddit NoSleep.

Luego pudo escribir más de 200 historias de terror en colaboración con escritores humanos. En 2017, el equipo se apartó brevemente del lado oscuro para desarrollar Deep Empathy, un proyecto que exploró si la IA puede aumentar la empatía por las víctimas de desastres lejanos al crear imágenes que simulan desastres más cercanos a casa.


Ver el vídeo: Los HECHOS más PERTURBAD0RES del MUNDO.. - REDDIT (Enero 2022).