General

El sesgo en la inteligencia artificial requiere disciplina y compasión


El sesgo en la IA es un problema crítico que ha ido en aumento en los últimos 18 meses. Los ejemplos extremos tienen un gran impacto, como el robot de contratación sexista de Amazon y los intentos de Twitter de inteligencia artificial de Microsoft.

El panel titulado 'Resolver sesgos en inteligencia artificial' en CES 2019, evitó estos titulares aterradores e intentó tener una discusión reflexiva sobre cómo hacer un cambio significativo en un sector en rápida expansión.

Como muchos de los paneles hasta ahora, la discusión se mantuvo en una línea relativamente estricta en torno al control regulatorio.

Representante del panel tanto de la industria como del gobierno

Michael Hayes, gerente sénior de asuntos gubernamentales de la Consumer Technology Association, moderó la charla entre los miembros del panel Austin Carson de Nvidia, Bari Williams, vicepresidenta de asuntos legales, políticos y comerciales de All Turtles y Sunmin Kim, asesora de políticas tecnológicas de la oficina. del senador Brian Schatz.

Williams inició el procedimiento hablando de la forma en que el sesgo puede verse desde muchos ángulos diferentes. Explicó que para ella personalmente, veía el sesgo de manera diferente dependiendo de si estaba actuando como una madre para sus tres hijos, identificándose como una mujer negra o mirando a través del lente de su trabajo como abogada.

Este es un punto clave a tener en cuenta y es una de las razones por las que identificar el sesgo puede ser la mitad de la batalla. El panel se apresuró a señalar que, a diferencia de otras partes de la industria tecnológica, el sesgo en la IA no proviene de malos actores, sino de mala información.

Malos datos, no malos actores

Ninguno de los paneles sugirió que el sesgo se deba a ingeniería maliciosa, sino que es una combinación de muchos factores relacionados tanto con la entrada como con la salida. La Comisión Federal de Comercio publicó un informe en 2016 sobre big data preguntando si es inclusivo o exclusivo.

El informe concluyó instando a los usuarios de big data a considerar si su conjunto de datos utilizado para crear algoritmos es representativo o solo representa un determinado segmento.

En segundo lugar, provoca que los creadores de tecnología de inteligencia artificial se pregunten qué está haciendo el algoritmo, cómo se extrae eso. ¿Está basando su decisión en los factores relacionados con sus datos intencionales u otros patrones que podría identificar que crean sesgo sin darse cuenta?

En términos de regulaciones, el panel acordó que el gobierno podía hacer más, pero que contar con el conocimiento experto de la industria dentro del proceso de toma de decisiones era clave para avanzar.

Otro punto planteado y discutido por el panel fue la necesidad de diversos equipos en tecnología en general. Cuanto más diversos sean los equipos de ingeniería y programación, es más probable que se detecte y se solucione el sesgo desde el principio en lugar de que persista y se desarrolle con el tiempo.

La diversidad de equipos significa que es más probable que se tomen en serio los prejuicios.

La clave de la diversidad para abordar el sesgo

La solución para una mayor diversidad se abordó en un panel anterior y los desafíos de aumentar el número de mujeres y personas de color en la tecnología continúan latentes en CES.

Otro punto fascinante planteado por el panel fue la idea de que la IA realmente puede ayudar a detectar y superar el sesgo. Técnicamente, no debería haber una mejor máquina para buscar el comportamiento de sesgo que la IA inteligente.

En conclusión, Hayes felicitó al panel por estar presente y por abordar las difíciles ideas relacionadas con el sesgo en la IA. Continuó diciendo que el primer paso para superar el sesgo es reconocerlo, lo que se hizo en el panel de hoy.


Ver el vídeo: SESGO de CONFIRMACIÓN. NO lo hagas cuando INVESTIGAS! (Diciembre 2021).