Los medios conservadores descubrieron recientemente lo que los expertos en inteligencia artificial han estado advirtiendo durante años: los sistemas basados en el aprendizaje automático como ChatGPT y el software de reconocimiento facial están sesgados. Pero de manera típica para la derecha, no es el sesgo bien documentado contra las minorías integrado en los sistemas de aprendizaje automático lo que ha dado lugar al campo de la seguridad de la IA por lo que están molestos, no, creen que la IA en realidad se ha despertado.
Las acusaciones de que ChatGPT se despertó comenzaron a circular en línea después de que National Review publicara un artículo acusando al sistema de aprendizaje automático de sesgo de izquierda porque, por ejemplo, no explica por qué la hora de la historia de drag queen es mala.
El escritor del personal de National Review, Nate Hochman, escribió el artículo después de intentar que el chatbot de OpenAI le contara historias sobre la corrupción de Biden o los horrores de las drag queens. Los conservadores en Twitter luego intentaron varias entradas en ChatGPT para demostrar cuán "despertado" está el chatbot. Según estos usuarios, ChatGPT le contaba a la gente un chiste sobre un hombre pero no sobre una mujer , marcaba contenido relacionado con el género y se negaba a responder preguntas sobre Mahoma . Para ellos, esto era una prueba de que AI se había "despertado" y estaba sesgada contra los derechistas.
Más bien, todo esto es el resultado final de años de investigación tratando de mitigar el sesgo contra los grupos minoritarios que ya está integrado en los sistemas de aprendizaje automático que se entrenan, en gran medida, en las conversaciones de las personas en línea.
ChatGPT es un sistema de IA entrenado en entradas. Como todos los sistemas de IA, tendrá los sesgos de las entradas en las que está entrenado. Parte del trabajo de los investigadores éticos de IA es garantizar que sus sistemas no perpetúen el daño contra un gran número de personas; eso significa bloquear algunas salidas.
“Los desarrolladores de ChatGPT se propusieron la tarea de diseñar un sistema universal: uno que (en general) funcione en todas partes para todos. Y lo que están descubriendo, junto con todos los demás desarrolladores de IA, es que esto es imposible”, dijo a Motherboard Os Keyes, candidato a doctorado en el Departamento de Diseño e Ingeniería Centrados en el Ser Humano de la Universidad de Washington.
“Desarrollar cualquier cosa, software o no, requiere compromiso y tomar decisiones, elecciones políticas, sobre para quién funcionará un sistema y qué valores representará”, dijo Keyes. “En este caso, la respuesta aparentemente es 'no la extrema derecha'. Obviamente, no sé si este tipo de cosas es el resultado 'en bruto' de ChatGPT, o el resultado de que los desarrolladores se involucren para tratar de evitar una situación de Tay , pero de cualquier manera, se deben tomar decisiones y, a medida que surjan las quejas. claro, estas decisiones tienen valores políticos envueltos en ellos, lo cual es a la vez inevitable y necesario”.
Tay fue un chatbot diseñado por Microsoft lanzado en Twitter en 2016. Los usuarios lo corrompieron rápidamente y fue suspendido de la plataforma después de publicar tweets racistas y homofóbicos . Es un excelente ejemplo de por qué expertos como Keyes y Arthur Holland Michel, miembro principal del Consejo Carnegie de Ética y Asuntos Internacionales, han estado haciendo sonar la alarma sobre los sesgos de los sistemas de IA durante años. Los sistemas de reconocimiento facial son notoriamente sesgados . El gobierno de EE. UU., que ha presionado repetidamente por tales sistemas en lugares como aeropuertos y la frontera sur, incluso admitió el sesgo racial inherente de la tecnología de reconocimiento facial en 2019.
Michel dijo que las discusiones sobre el sesgo político anticonservador en un chatbot podrían distraer la atención de otras discusiones más apremiantes sobre el sesgo en los sistemas de IA existentes. El sesgo de reconocimiento facial, que afecta en gran medida a los negros, tiene consecuencias en el mundo real. Los sistemas ayudan a la policía a identificar sujetos y decidir a quién arrestar y acusar de delitos, y ha habido múltiples ejemplos de hombres negros inocentes marcados por reconocimiento facial. El pánico por no poder hacer que ChatGPT repita mentiras y propaganda sobre la victoria de Trump en las elecciones de 2020 podría hacer retroceder la discusión sobre el sesgo de la IA.
“No creo que esto sea necesariamente una buena noticia para el discurso sobre el sesgo de estos sistemas”, dijo Michel. “Creo que eso podría distraer la atención de las preguntas reales sobre este sistema que podría tener una propensión a dañar sistemáticamente a ciertos grupos, especialmente a los grupos históricamente desfavorecidos. Cualquier cosa que distraiga de eso, para mí, es problemático”.
Tanto Keyes como Michel también destacaron que las discusiones en torno a un ChatGPT supuestamente "despertado" asignaron más agencia al bot de la que realmente existe. “Es muy difícil mantener un discurso sensato cuando se habla de algo que tiene todas estas asociaciones emocionales y psicológicas que inevitablemente tiene la IA”, dijo Michel. “Es fácil antropomorfizar el sistema y decir: 'Bueno, la IA tiene un sesgo político'”.
“Principalmente, lo que nos dice es que las personas no entienden cómo funciona [el aprendizaje automático]... o cómo funciona la política”, dijo Keyes.
Más interesante para Keyes es la implicación de que es posible que sistemas como ChatGPT sean de valor neutral. “Lo que es más interesante es esta acusación de que el software (o sus desarrolladores) están siendo políticos, como si el mundo no fuera político; como si la tecnología pudiera ser 'libre de valor'”, dijeron. “Lo que me sugiere es que la gente todavía no entiende que la política es fundamental para construir cualquier cosa, no se puede evitar. Y en este caso se siente como una forma deliberada y deliberada de ignorancia: creer que la tecnología puede ser apolítica es súper conveniente para las personas en posiciones de poder, porque les permite creer que los sistemas con los que están de acuerdo funcionan de la manera en que lo hacen simplemente porque 'así es como es el mundo'”.
Este no es el primer pánico moral en torno a ChatGPT, y no será el último. A la gente le preocupa que pueda señalar la muerte del ensayo universitario o marcar el comienzo de una nueva era de trampas académicas. La verdad es que es más tonto de lo que crees . Y como todas las máquinas, es un reflejo de sus aportes, tanto de las personas que lo crearon como de las personas que lo empujan a soltar lo que ven como puntos de conversación despiertos.
“En pocas palabras, esto es anecdótico”, dijo Michel. “Debido a que los sistemas también son abiertos, puede seleccionar y elegir anecdóticamente, casos en los que el sistema no funciona de acuerdo con lo que usted quisiera. Puede hacer que funcione de manera que confirme lo que cree que puede ser cierto sobre el sistema”.
Comentarios
De ser así, sería sumamente beneficioso para el derecho garantizado, en artículo 14 bis de la CN, de condiciones dignas y equitativas de labor, en términos de que no halla diferenciación entre las personas por sesgos de ninguna índole, por lo tanto, se tendería a poner a todos los trabajadores en un mismo plano de consideración. Esto también redundaría en ambientes de trabajo más saludables y libres de violencia y acoso lo cual iría en la línea de lo propuesto por el convenio 190 de la OIT