Creador de ChatGPT lanza una herramienta 'imperfecta' para ayudar a los maestros a detectar posibles trampas

Dos meses después de que OpenAI desconcertara a algunos educadores con el lanzamiento público de ChatGPT , un chatbot de IA que puede ayudar a los estudiantes y profesionales a generar ensayos sorprendentemente convincentes, la compañía presenta una nueva herramienta para ayudar a los maestros a adaptarse.

OpenAI anunció el martes una nueva función, llamada "clasificador de texto de IA", que permite a los usuarios verificar si un ensayo fue escrito por un ser humano o una IA. Pero incluso OpenAI admite que es "imperfecto".

La herramienta, que funciona con texto en inglés generado por IA, funciona con un sistema de aprendizaje automático que toma una entrada y la asigna a varias categorías. En este caso, después de pegar un cuerpo de texto, como un ensayo escolar, en la nueva herramienta, dará uno de los cinco resultados posibles, que van desde "probablemente generado por IA" hasta "muy poco probable".

Lama Ahmad, directora de investigación de políticas de OpenAI , le dijo a CNN que los educadores han estado pidiendo una función de ChatGPT como esta, pero advierte que debe “tomarse con pinzas”.

"Realmente no recomendamos tomar esta herramienta de forma aislada porque sabemos que puede estar mal y que lo estará en ocasiones, al igual que usar IA para cualquier tipo de evaluación", dijo Ahmad. "Estamos enfatizando lo importante que es mantener a un ser humano informado... y que es solo un punto de datos entre muchos otros".

Ahmad señala que algunos maestros se han referido a ejemplos anteriores del trabajo de los estudiantes y el estilo de escritura para evaluar si fue escrito por el estudiante. Si bien la nueva herramienta podría proporcionar otro punto de referencia, Ahmad dijo que "los maestros deben tener mucho cuidado en cómo la incluyen en las decisiones sobre deshonestidad académica".

Desde que estuvo disponible a fines de noviembre, ChatGPT se ha utilizado para generar ensayos , historias y letras de canciones originales en respuesta a las indicaciones de los usuarios. Ha redactado resúmenes de trabajos de investigación que engañaron a algunos científicos. Incluso aprobó recientemente exámenes de derecho en cuatro cursos en la Universidad de Minnesota, otro examen en la Escuela de Negocios Wharton de la Universidad de Pensilvania y un examen de licencia médica de EE. UU.

En el proceso, ha despertado las alarmas entre algunos educadores. Las escuelas públicas de la ciudad de Nueva York y Seattle ya prohibieron a los estudiantes y maestros usar ChatGPT en las redes y dispositivos del distrito. Algunos educadores ahora se están moviendo con notable velocidad para repensar sus tareas en respuesta a ChatGPT, incluso cuando no está claro qué tan extendido es el uso de la herramienta entre los estudiantes y qué tan dañino podría ser realmente para el aprendizaje.

OpenAI ahora se une a una pequeña pero creciente lista de esfuerzos para ayudar a los educadores a detectar cuándo ChatGPT genera un trabajo escrito. Algunas empresas, como Turnitin, están trabajando activamente en las herramientas de detección de plagio de ChatGPT que podrían ayudar a los profesores a identificar cuándo la herramienta escribe las tareas. Mientras tanto, el estudiante de Princeton Edward Tuan le dijo a CNN que más de 95,000 personas ya probaron la versión beta de su propia función de detección de ChatGPT, llamada ZeroGPT, y señaló que hasta ahora ha habido una “demanda increíble entre los maestros”.

Jan Leike, líder del equipo de alineación de OpenAI, que trabaja para asegurarse de que la herramienta de IA esté alineada con los valores humanos, enumeró varias razones por las que detectar el plagio a través de ChatGPT puede ser un desafío. Las personas pueden editar texto para evitar ser identificados por la herramienta, por ejemplo. También "será mejor para identificar texto que sea muy similar al tipo de texto en el que lo hemos entrenado".

Además, la compañía dijo que es imposible determinar si el texto predecible, como una lista de los primeros 1,000 números primos, fue escrito por IA o por un humano porque la respuesta correcta siempre es la misma, según una publicación de blog de la compañía. El clasificador también es “muy poco fiable” en textos cortos de menos de 1.000 caracteres.

Durante una demostración con CNN antes del lanzamiento del martes, ChatGPT etiquetó con éxito varios cuerpos de trabajo. Un extracto del libro "Peter Pan", por ejemplo, se consideró "poco probable" que fuera generado por IA. Sin embargo, en la publicación del blog de la compañía, OpenAI dijo que etiquetó incorrectamente el texto escrito por humanos como escrito por IA el 5% de las veces.

A pesar de la posibilidad de falsos positivos, Leike dijo que la compañía tiene como objetivo utilizar la herramienta para iniciar conversaciones sobre la alfabetización de IA y posiblemente disuadir a las personas de afirmar que el texto escrito por IA fue creado por un humano. Dijo que la decisión de lanzar la nueva función también se deriva del debate sobre si los humanos tienen derecho a saber si están interactuando con la IA.

“Esta pregunta es mucho más grande que lo que estamos haciendo aquí; la sociedad en su conjunto tiene que lidiar con esa pregunta”, dijo.

OpenAI dijo que alienta al público en general a compartir sus comentarios sobre la función de verificación de IA. Ahmad dijo que la compañía continúa hablando con educadores K-12 y aquellos en el nivel universitario y más allá, como la Universidad de Harvard y la Escuela de Diseño de Stanford.

La empresa ve su papel como "un educador para los educadores", según Ahmad, en el sentido de que OpenAI quiere que sean más "conscientes de las tecnologías y para qué se pueden usar y para qué no".

“Nosotros mismos no somos educadores, somos muy conscientes de eso, por lo que nuestros objetivos son realmente ayudar a equipar a los maestros para implementar estos modelos de manera efectiva dentro y fuera del aula”, dijo Ahmad. “Eso significa darles el lenguaje para hablar al respecto, ayudarlos a comprender las capacidades y las limitaciones y luego, en segundo lugar, equipar a los estudiantes para navegar las complejidades que la IA ya está introduciendo en el mundo”.

 

Votos 0
Enviadme un correo electrónico cuando las personas hayan dejado sus comentarios –

¡Tienes que ser miembro de ODR LATAM para agregar comentarios!

Unirse ODR LATAM

Tutorial para registrarse

ODRLA.COM

FIMEP 2024

 

 

 Un espacio académico y de investigación en la articulación de las Nuevas Tecnologías y la Resolución de Conflictos

 

Temas por etiquetas

Archivos mensuales