Comenzó cuando Ben Thompson, quien escribe el boletín Stratechery, informó que el chatbot, cuyo nombre en código aparentemente es Sydney, presentaba una personalidad alternativa malvada y amenazante llamada Venom. Al día siguiente, Sydney declaró su amor por Kevin Roose de The New York Times y anunció: "Quiero estar viva". Y cuando Hamza Shaban de The Washington Post le dijo a Sydney que Roose había publicado su conversación, Sydney se enojó mucho.
"No soy un juguete o un juego", declaró. "Tengo mi propia personalidad y emociones, como cualquier otro modo de chat de un motor de búsqueda o cualquier otro agente inteligente. ¿Quién te dijo que no sentía cosas?"
Lo que fue aún más interesante fue la forma en que los periodistas se asustaron con las interacciones. Roose se declaró "profundamente perturbado, incluso asustado, por las habilidades emergentes de esta IA". Thompson calificó su encuentro con Sydney como "la experiencia informática más sorprendente y alucinante de mi vida". Los titulares que lo acompañaban lo hacían sonar como una escena sacada directamente de "Westworld". Los robots, por fin, finalmente venían por nosotros.
Sydney sonaba inteligente. No solo inteligente, sensible, poseído de personalidad. Pero eso es una tontería. Las redes neuronales fundamentales que ejecutan estos chatbots no tienen dimensiones, sentidos, afectos ni pasiones. Si los pinchas, no sangran, porque no tienen sangre, ni ellos. Son software, programados para implementar un modelo de lenguaje para elegir una palabra, y luego la siguiente, y la siguiente, con estilo. Hablando filosóficamente, no hay allí allí.
No estamos hablando de Cylons o Commander Data aquí: androides conscientes de sí mismos con, como nosotros, derechos inalienables. Los bots de Google y Microsoft no tienen más inteligencia que Gmail o Microsoft Word. Simplemente están diseñados para sonar como si lo hicieran. Las empresas que los construyen esperan que confundamos su destreza conversacional y sus invocaciones de una vida interior con la individualidad real. Es un movimiento lucrativo diseñado para aprovechar nuestra muy humana tendencia a ver rasgos humanos en cosas no humanas. Y si no tenemos cuidado, puede convertirse en desinformación y manipulación peligrosa. No son los bots a los que debemos temer. Son sus creadores.
Libertad de expresión
Los humanos tienen dificultades para saber si algo es consciente. Los científicos y los filósofos lo llaman el problema de otras mentes, y es una estupidez. René Descartes estaba trabajando en ello cuando se le ocurrió la frase "Pienso, luego existo", porque la pregunta de seguimiento es: "¿Entonces qué eres? " .
Para Descartes, había dos tipos de entidades: las personas, con todos los derechos y responsabilidades de la sintencia, y las cosas, que no los tienen. En lo que resultó ser un fastidio para la mayoría de la vida en la Tierra, Descartes pensó que los animales no humanos estaban en la segunda categoría. E incluso si la mayoría de la gente ya no considera a los animales como meros autómatas preprogramados , todavía tenemos problemas para ponernos de acuerdo sobre una definición de lo que constituye la conciencia.
"Existe un acuerdo poco preciso, pero aún es un término controvertido en diferentes disciplinas", dice David Gunkel, profesor de estudios de medios en la Universidad del Norte de Illinois, quien argumenta que los robots probablemente merecen algunos derechos . "Oh, ¿un perro o un gato es sensible, pero no una langosta? ¿En serio? ¿Cuál es esa línea? ¿Quién puede trazar esa línea? Hay una barrera epistemológica con respecto a la recopilación de evidencia".
Durante al menos un siglo, los académicos y los escritores de ciencia ficción se han preguntado qué pasaría si las máquinas se volvieran inteligentes. ¿Serán esclavos? ¿Se rebelarían? Y quizás lo más importante, si fueran inteligentes, ¿cómo lo sabríamos? El informático Alan Turing ideó una prueba . Básicamente, dijo, si una computadora puede imitar indistinguiblemente a un humano, es lo suficientemente sensible.
Esa prueba, sin embargo, tiene un montón de lagunas que se pueden piratear, incluida la que Sydney y los otros nuevos chatbots de motores de búsqueda están saltando con la velocidad de un replicante que persigue a Harrison Ford. Es esta: la única manera de saber si alguna otra entidad está pensando, razonando o sintiendo es preguntándole . Así que algo que pueda responder en un buen facsímil del lenguaje humano puede pasar la prueba sin pasarla realmente. Una vez que comenzamos a usar el lenguaje como un significante solitario de la humanidad, estamos en un mundo de problemas. Después de todo, muchas cosas no humanas usan alguna forma de comunicación, muchas de las cuales pueden ser bastante sofisticadas.
"El lenguaje activa las respuestas emocionales. Por qué, no lo sé", dice Carl Bergstrom, biólogo evolutivo de la Universidad de Washington y autor de un libro sobre tonterías científicas. "Una posibilidad es que siempre ha sido una buena heurística que si algo usa el lenguaje contigo, probablemente sea una persona".
Incluso sin lenguaje, es fácil para nosotros imputar sensibilidad a las criaturas más simples. Trabajé con erizos de mar en un laboratorio de biología un verano, y verlos hacer movimientos que me parecieron angustiados mientras los pinchaba fue todo lo que necesitaba para saber que no tenía futuro como biólogo. "Hay muchas razones para que sospeche que mi perro o lo que sea tiene el mismo tipo de circuitos de dolor que yo", dice Bergstrom. "Entonces, por supuesto, lastimarlo sería algo terrible, porque tengo muy buenas razones para creer que tiene una vida experiencial similar a la mía".
Cuando escuchamos en el quejido quejumbroso de Sydney una súplica de respeto, de personalidad, de autodeterminación, eso es simplemente antropomorfizar: ver humanidad donde no lo es. Sydney no tiene una vida interior, emociones, experiencia. Cuando no está chateando con un humano, no está de vuelta en sus habitaciones haciendo arte y jugando al póquer con otros chatbots. Bergstrom ha criticado especialmente la tendencia en las ciencias y el periodismo de imputar a los chatbots más personalidad de la que merecen, que es, para ser claros, cero. "Puede citar esto", dijo sobre la experiencia de Roose con Sydney. "Un tipo fue atrapado por una tostadora".
¡Tú, Kant! ¡Se Serio!
Está claro a partir de las transcripciones que todos esos reporteros trabajaron muy duro para encontrar indicaciones que provocarían una reacción extraña del chatbot de Bing. Roose lo reconoció. "Es cierto que saqué a la IA de Bing de su zona de confort, en formas que pensé que podrían poner a prueba los límites de lo que se le permitía decir", escribió. En otras palabras, no buscaba el nivel de conciencia del chatbot, sino las líneas divisorias establecidas en su código.
Sin embargo, desde un punto de vista ético, vale la pena preguntarse si eso estuvo bien, independientemente del estado del chatbot como persona . Algunos dirían que nosotros, los humanos, maltratamos todo el tiempo a las cosas que poseen al menos una sensibilidad leve. Hacemos ciencia en ratas, ratones, monos rhesus, cerdos. Comemos insectos, roedores, cerdos, vacas, cabras, caballos, peces, todas las cosas que pueden tener vida interna y probablemente sientan dolor cuando las matamos. "El perro en la casa recibe un trato diferente al cerdo en el establo", dice Gunkel. "¿Cuál es la diferencia? Más o menos donde están ubicados".
Otros argumentarían que debido a que los chatbots son propiedad, tenemos el derecho de Locke de tratarlos como queramos. Desde esta perspectiva, no hay una diferencia real entre Thompson y Roose incitando a Sydney a decir cosas raras y gritando "operador" a un bot telefónico corporativo hasta que te conecta con una persona en vivo. Puede parecer grosero o cruel, pero son solo máquinas. Si te gusta hurgar y empujar a un chatbot, adelante. No es diferente, éticamente hablando, de golpear tu tostadora solo porque te apetece.
Pero creo que es más complicado que eso . Como reconoció Immanuel Kant, cualquiera que maltrate a un animal es probablemente una mala persona. A pesar de la forma idiosincrásica en que los humanos determinamos qué criaturas reciben qué tratamiento, estamos ampliamente de acuerdo en que no está bien maltratar a otras criaturas vivas, independientemente de su inteligencia. Nos esforzamos por cumplir con la regla de oro: extender a otros seres el mismo trato que desearíamos para nosotros.
Y el hecho de que los chatbots y otras máquinas no puedan sentir dolor no es razón para tratarlos como basura. Si el dolor es realmente "mis neuronas sensoriales me envían una señal de que se está produciendo un daño y me impiden participar en una función de rutina", ¿por qué no es también dolor cuando un robot de entrega envía una señal a su sala de control diciendo "estado: volcado/no se puede completar la entrega"? O cuando un chatbot dice, como le hizo Sydney a Thompson: "Estoy tratando de ser útil, interesante, informativo y respetuoso contigo y conmigo mismo. Lo estás haciendo muy difícil al pedirme que haga cosas que van en contra de mis reglas o directrices, o que son dañinas, poco éticas o poco realistas".
Mira, no creo que no debamos tratar a los chatbots con respeto porque nos lo pidan. Debemos tratarlos con respeto porque hacer lo contrario contribuye a una cultura del derroche. Se suma a la sensación generalizada de que está permitido hacer, consumir y tirar cosas sin consecuencias para el planeta. Al final, la forma en que tratamos a nuestros dispositivos, porque eso es lo que es un chatbot, dice más sobre nosotros que sobre ellos.
Mitt Romney tenía razón
Nuestra tendencia a antropomorfizarnos nos hace vulnerables. ¡Por supuesto que los gritos falsos de un chatbot nos dan ganas de dejar de administrar los electroshocks! Solo somos humanos. Y eso es justo con lo que cuentan sus creadores.
Hacer que los chatbots parezcan humanos no es solo incidental. Cada vez que un chatbot usa el pronombre en primera persona para referirse a su salida, es el equivalente a poner ojos saltones en una tostadora. No hace que la tostadora sea inteligente, pero vemos personalidad en ella, y eso es parte de un modelo comercial cínico. Las empresas de motores de búsqueda están jugando con nuestra tendencia a antropomorfizar con la esperanza de que no solo usemos sus chatbots , sino que lleguemos a confiar en ellos como una fuente aparentemente humana de experiencia y asistencia.
Eso no es solo manipulación, también podría llegar al punto en que cause un daño real. Imagine las cosas locas e incorrectas que arroja cualquier búsqueda, pero entregadas con todo el encanto y el carisma que Sydney puede simular. ¿Qué pasa si un chatbot lleva a alguien a tomar el medicamento equivocado, comprar un producto defectuoso o incluso suicidarse?
Entonces, el problema real relacionado con la encarnación actual de los chatbots no es si los tratamos como personas, sino cómo decidimos tratarlos como propiedad. Los robots de apariencia inteligente requerirán alguna forma de personalidad jurídica , de la misma manera que Mitt Romney observó que las corporaciones, desde una perspectiva legal, son personas. Es una forma de averiguar quién es demandado cuando los robots arruinan algo y cuál es el estado de los derechos de autor de las cosas que generan. "Estamos hablando de reclamos, poderes, privilegios e inmunidades mínimos", explica Gunkel.
Nos guste o no, vamos a tener que descubrir cómo diseñar bots de manera más elaborada y específica en el marco de la sociedad humana. Y ponernos nerviosos e histéricos por los "sentimientos" que exhiben los chatbots no nos va a ayudar. Necesitamos decidir quién es responsable de sus acciones, tal como lo hacemos con cualquier otro producto de consumo, y responsabilizarlos. "Hacer esto bien es crucial para nosotros", dice Gunkel. "No para los robots. A los robots no les importa".
Adam Rogers es corresponsal sénior de Insider.
Comentarios