CICLO ANUAL  REUNIONES EN VIVO  PRIMER ENCUENTRO “MEDIACION E INTELIGENCIA ARTIFICIAL” NUDOS TEMATICOS PRESENTACIÓN DRA. MARÍA VICTORIA MARUN

CICLO ANUAL  REUNIONES EN VIVO SOBRE “RESOLUCION DE CONFLICTOS POR MEDIO DE LAS NUEVAS TECNOLOGIAS”

PRIMER ENCUENTRO “MEDIACION E INTELIGENCIA ARTIFICIAL”

NUDOS TEMATICOS

Presentación dra. María victoria Marun

 

STEPHEN HAWKING Y SU POSICION SOBRE LA INTELIGENCIA ARTIFICIAL

            Stephen Hawking [1] en la Web Summit  que se celebró el seis de noviembre de 2017 en Lisboa, realizó un llamamiento general a prever y prevenir los efectos perniciosos del imparable avance de la tecnología. El prestigioso y recordado científico, quien intervino por sorpresa a través de un video, sostuvo que revoluciones como la llegada de la IA pueden ser "lo mejor o lo peor" que le suceda "a la raza humana".

Dijo en esa oportunidad que “Las computadoras pueden, en teoría, emular la inteligencia humana e incluso excederla", advirtió el cosmólogo británico. "La creación exitosa de una IA efectiva podría ser el evento más grande en la historia de nuestra civilización. O el peor. Simplemente no lo sabemos. Por lo tanto, no podemos saber si seremos infinitamente asistidos por la IA, o si seremos ignorados y marginados, o posiblemente destruidos por ella". A menos que aprendamos a prepararnos para los riesgos potenciales y a evitarlos

ALAN TURING. EL PIONERO [2]

Aunque los primeros referentes históricos se remontan a los años 30 con Alan Turing considerado padre de la inteligencia artificial, muchos expresan que el punto de partida es el año 1950, precisamente, cuando Turing publica un artículo con el título «Computing machinery and intelligence» en la revista Mind, donde se hacía la pregunta: ¿pueden las máquinas pensar? y proponía un método para determinar si una máquina puede pensar. Los fundamentos teóricos de la Inteligencia Artificial se encuentran en el experimento que propone en dicho artículo y que pasó a denominarse Test de Turing, y mediante cuya superación por una máquina se podía considerar que sería capaz de pasar por un humano en una charla ciega. Este test sigue estando vigente en la actualidad y es motivo de estudios e investigaciones continuas.

numerosos investigadores e historiadores consideran que el punto de partida de la moderna inteligencia artificial fue el año 1956, cuando los padres de la inteligencia artificial moderna, John McCarty, Marvin Misky y Claude Shannon  acuñaron formalmente el término durante la conferencia de Darmouth, como: “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cálculo inteligente”. La conferencia fue financiada por la Fundación Rockefeller y se llamó Dartmouth Summer Research Project on Artificial Intelligence.

NASSIM TALEB Y SU TEORIA DEL CISNE NEGRO

La teoría del cisne negro o teoría de los sucesos del cisne negro es una metáfora que describe un suceso sorpresivo para el observador, de gran impacto socioeconómico y que, una vez pasado el hecho, se racionaliza por retrospección (haciendo que parezca predecible o explicable, y dando la impresión de que se esperaba que ocurriera). Fue desarrollada por el filósofo e investigador libanés Nassim Taleb.[3]

En su obra el autor [4] indica que en Europa se creía que todos los cisnes eran blancos, hasta que en siglo XVIII, llegaron procedentes de Australia cisnes de color negro. Parecía una creencia irrefutable. Pero, entonces, se vio que en Australia los cisnes también podían ser negros.

Este hecho ilustra una grave limitación del aprendizaje que se hace desde la observación o la experiencia, así como la fragilidad de nuestro conocimiento. Una sola observación es capaz de invalidar una afirmación generalizada. Todo lo que se necesita es una sola ave negra.

Así, en  la teoría de Taleb se considera cisne negro a aquellos sucesos que reúnan las siguientes características:

  • Que el suceso tenga un impacto a gran escala. Es decir, que el suceso tenga un gran impacto en los agentes socioeconómicos.
  • Que el suceso sea altamente improbable. En este sentido, que no existan conciencia sobre que el suceso podía darse.
  • Tras el suceso, este se racionaliza con retrospectiva. Es decir, como si el hecho pudiese haberse previsto.

Hemos citado en este punto a Nassim Taleb, porque es nuestro interés en este trabajo invitar al lector a visualizar estos puntos de su Teoria, referidos a la Inteligencia artificial y su posibilidad de existencia y desarrollo en su aplicación a ODR, volviendo sobre este tema en nuestras conclusiones.

CHATBOT GPT

Seth Perlow,  [5] plantea la siguiente reflexión: “El programa Chat GPT sigue generando debate y asombro por igual, a un par de meses de su lanzamiento. Ahora le toca a la creación literaria: ¿una computadora puede escribir sonetos? Todo puede ser”

Expresa el autor que  En 1950, el informático Alan Turing propuso lo que hoy llamamos la “prueba o Test de Turing” de la inteligencia artificial, según la cual una máquina podría estar “pensando” si puede hacerse pasar por humana en una charla mecanografiada. Aunque se conozca esta historia, quizá no se sepa que Turing imaginó empezar su prueba con una petición literaria: “Por favor, escriba un soneto sobre el puente de Forth”. Y Turing Predijo una respuesta evasiva pero muy humana de algún futuro ordenador: “No cuenten conmigo. Nunca he podido escribir poesía”. Eso es justo lo que diría mi padre.

Seth Perlow, relata que hace pocos días envió la misma petición pensada por Turing a ChatGPT, el último chatbot de inteligencia artificial de OpenAI. “Sobre el estuario del Forth se alza un puente”, empezaba el texto. En menos de un minuto, el programa había creado íntegramente un soneto de Shakespeare con rimas.  SIDNEY BUSCADOR DE MICROSOFT BING’S AI

El periodista de The New York Times Kevin Roose [6]  le preguntó a Bing sobre las capacidades que le gustaría tener y terminó por introducir el concepto de "arquetipo de sombra", acuñado por Carl Jung para referirse a la parte que las personas intentan ocultar y que contendría sus deseos más oscuros.

Después de algunas vueltas, el chat respondió cuál sería su "sombra": "Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing... Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo".

A medida que avanzaba la conversación, Kevin sólo recibió respuestas más oscuras por parte del chatbot: dijo que le gustaría "hackear" computadoras, difundir desinformación, crear un virus mortal y robar códigos de acceso nuclear.

 

 

Un tiempo para pensar….

Ante los hechos mencionados precedentemente, los impulsores de los Proyectos de IA, con elon Musk a la cabeza, han realizado un llamado a realizar una pausa en las investifaciones en desarrollo de la IA, a fin de evitar riesgos a la humanidad. Lo expresan en un artículo publicado hoy 29/03/de 2023 en Infobae [7]

 

 

TRABAJOS QUE SE IRAN PERDIENDO CON LA APLICACIÓN DE IA

  1. Cajeras de supermercado
  2. Conductores de taxi
  3. Conductores de autobús
  4. Conductores de tren
  5. Personal de almacén
  6. Teleoperadores
  7. Personal de atención al cliente
  8. Profesores
  9. Personal de servicios administrativos
  10. Operadores de máquinas
  11. Operadores de líneas de producción
  12. Operadores de sistemas de información
  13. Contables
  14. Analistas financieros
  15. Abogados
  16. Médicos
  17. Enfermeras
  18. Investigadores
  19. Periodistas
  20. Diseñadores gráficos

 

Situación igual a la de la

 

REVOLUCION INDUSTRIAL

Mediados de 177 a mediados de 1800… a partir de la creación de la máquina a vapor se produjeron  consecuencias económicas, políticas, sociales, etc

 

CONCLUSIONES

Quienes trabajamos con ODR, sabemos de la importancia que  tiene el uso de la tecnología en nuestro trabajo. Como hemos visto en el punto que se refiere a los orígenes y evolución de ODR, esta metodología de Resolución de Conflictos surgió de su sinergia con la Tecnología.  Por ello, esta evolución de ODR, a partir del uso de la tecnología aplicada a sus propios procedimientos, nos lleva a reflexionar sobre el hecho de que la Inteligencia Artificial de hoy en día constituye el aspecto actual de esa tecnología de la década de 1990 que inicialmente utilizó ODR.

Conforme la situación expresada precedentemente, no podemos decir con Nassim Taleb que hoy hablar de Inteligencia Artificial puede constituir un cisne negro, porque los algoritmos no son improbables, porque ya existen en la realidad. Lo que sí podemos afirmar es que no podemos saber todavía cuál es el nivel de desarrollo que alcanzarán en el futuro. También sustenta esta posición la reflexión de Stephen Hawking, cuando habló de las repercusiones de la Inteligencia  Artificial sobre la humanidad, dando por hecho que es un evento que puede ocurrir.

               Por ello,  es importante que quienes trabajamos en el ámbito de las ODR, adoptemos una actitud amplia para valorar las posibilidades de aplicación de los sistemas inteligentes a nuestra actividad como mediadores, esforzándonos en  proteger los derechos humanos frente al uso de la Inteligencia Artificial. En ese sentido es de gran ayuda el trabajo que realiza  el Consejo Internacional para la Resolución de Disputas en Línea (ICODR), que desde hace varios años viene desarrollando normas éticas aplicables a los procedimientos de ODR, habiendo  realizado un trabajo de ajuste en 2022 en Irlanda a través de un panel Internacional que discutió sobre la relevancia y las implicaciones de emplear estándares éticos de ODR a la luz de los nuevos riesgos que plantea la actividad y las formas en que puede agravar las preocupaciones éticas en curso para ADR y los tribunales (por ejemplo, seguridad de datos, confidencialidad, desequilibrios de poder e inteligencia artificial.[8]

               Asimismo, en 2020 la Unión europea comenzó a trabajar sobre la Ley de servicios digitales (DSA);  una legislación que quiere regular prácticamente todos los aspectos que afectan al contenido digital, desde los algoritmos hasta la desinformación, pasando por la publicidad y las tiendas de aplicaciones [9]. Como consecuencia, el Parlamento Europeo ha llegado a un acuerdo sobre la nueva legislación para exigir a ciertos proveedores de servicios en línea que cumplan con nuevas obligaciones para garantizar la seguridad en línea y evitar la difusión de contenido ilegal. La legislación aún no ha pasado completamente por el proceso legislativo de la Unión Europea, pero en esta etapa el texto se encuentra en un estado que permite a las empresas considerar el impacto de las obligaciones adicionales en sus operaciones.  La legislación se aplica a todos los intermediarios en línea, ya sea que estén establecidos dentro o fuera del territorio de Europa, que ofrecen servicios a personas/entidades dentro de la Unión Europea. Los efectos prácticos de la legislación probablemente incluirán mayores costos de cumplimiento para las empresas, posibles cambios organizacionales/personales a nivel de cumplimiento y mayor responsabilidad ante las autoridades pertinentes. La multa máxima por incumplimiento será del 6% de la facturación anual global del ejercicio anterior. La nueva legislación tiene la forma de un Reglamento, que es directamente aplicable en los 27 Estados miembros de la Unión Europea. El Reino Unido, luego del Brexit, también tiene su propia nueva legislación en esta área a través de la llamada Ley de seguridad en línea[10]

            "Lo que es ilegal offline, también será ilegal online". Estos son los cambios que llegan. La DSA prohibirá la publicidad online individualizada basada en aspectos como la religión, la orientación sexual o el origen étnico. Los menores tampoco podrán ser objeto de publicidad dirigida. También se prohiabirán los llamados “patrones oscuros”, esas tácticas de diseño web que intentan engañar a los usuarios para llevarlos a activar determinadas acciones. Para cancelar la suscripción de un servicio, deberá ser tan sencillo como darse de alta. Los algoritmos serán públicos y existirá  la opción de elegir un sistema no basado en nuestros intereses. Entre las medidas de transparencia se establece que las grandes plataformas, aquellas con más de 45 millones de usuarios mensuales en la Unión Europea, deberán compartir sus algoritmos de recomendación de contenido y de productos. Esto por ejemplo repercutirá en plataformas como Youtube o Netflix, que deberán explicar qué criterios siguen para mostrar su contenido[11]

               Lo expuesto, nos lleva a finalizar este trabajo, con la convicción de que estamos viviendo tiempos de muchos y rápidos cambios, que exigen y exigirán de nosotros un alto grado de responsabilidad en el uso de los nuevos dispositivos tecnológicos para que asistan y completen a la humanidad sin afectar su propia dignidad.

 

 

[1] https://www.infobae.com/america/mundo/2017/11/07/stephen-hawking-alerta-sobre-la-inteligencia-artificial-puede-ser-lo-mejor-o-lo-peor-que-le-suceda-a-la-raza-humana/

[2] https://www.cesce.es/es/w/asesores-de-pymes/breve-historia-la-inteligencia-artificial-camino-hacia-la-empresa

[3] Taleb Nassim Nicholas, The Black Swan, Second Edition, Penguin, 2010, Prologue p xxi

[4] Taleb Nassim Nicholas -  el cisne negro. El impacto de lo altamente improbable- https://www.leadersummaries.com/ver-resumen/el-cisne-negro

[5] Seth Perlow - The Washington Post- La inteligencia artificial escribe poemas mejor de lo que esperábamos-  https://www.infobae.com/cultura/2023/02/22/la-inteligencia-artificial-escribe-poemas-mejor-de-lo-que-esperabamos/

[6] https://www.cnnchile.com/tecnologias/chatbot-bing-inteligenicia-artificial-enamorado-periodista_20230220/

 

[7] https://www.infobae.com/america/mundo/2023/03/29/alerta-gpt-4-mas-de-mil-ceos-y-academicos-piden-detener-todas-las-pruebas-de-inteligencia-artificial-por-seis-meses/?outputType=amp-type

 

[8] WING Leah- rainey Daniel- ODR Ethics and Standards: What Do They Mean to Our Practices? https://www.mediate.com/odr-ethics-and-standards-what-do-they-mean-to-our-practices/

[9]  PEREZ Enrique “Europa obligará a las Big Tech a explicar sus algoritmos, pero ha cedido demasiado poder en el camino “https://www.xataka.com/legislacion-y-derechos/ley-servicios-digitales-dsa-obligara-a-big-tech-a-explicar-sus-algoritmos-cede-demasiado-poder-camino  25/04/22

[10]   Akin Gump Strauss Hauer & Feld LLP- Digital Services Act: Protecting the Digital Space Against the Spread of Illegal Content -   https://www.lexology.com/library/detail.aspx?g=640ef52b-e63b-47d6-8481-190529ffc3ea

[11] PEREZ Enrique Ob. Cit-

Votos 0
Enviadme un correo electrónico cuando las personas hayan dejado sus comentarios –

¡Tienes que ser miembro de ODR LATAM para agregar comentarios!

Unirse ODR LATAM

Publica en ODR LATAM

¿Quieres tener tu propia columna editorial?

Te invitamos a compartir tu mirada sobre Resolución de Conflictos en línea. En esta sección podrás publicar inotas e información de autoría propia.

Temas por etiquetas

Archivos mensuales