ChatGPT impulsado por IA hace un ‘trabajo increíble’ y aprueba el examen de Wharton Business School en pruebas de estudio
ChatGPT, un nuevo chatbot de IA de lenguaje desarrollado por la empresa de investigación de inteligencia artificial (IA) OpenAI y lanzado a fines de 2022, aunque todavía está en sus inicios, se puede usar para tareas de procesamiento de lenguaje natural, con expertos divididos sobre su asombroso potencial.
ChatGPT, una herramienta de inteligencia artificial lanzada por un laboratorio de investigación llamado OpenAI el año pasado, se ha desempeñado excepcionalmente bien en el examen final de un curso básico típico de maestría en administración de empresas (MBA), Gestión de operaciones , según una nueva investigación realizada por Wharton School of la Universidad de Pensilvania.
El chatbot de IA mostró una “capacidad notable para automatizar algunas de las habilidades de los trabajadores del conocimiento altamente remunerados en general y específicamente de los trabajadores del conocimiento en los puestos que ocupan los graduados de MBA, incluidos analistas, gerentes y consultores”, según el
profesor de Wharton Christian Terwiesch.
El sistema de procesamiento de lenguaje, donde GPT significa “Transformador preentrenado generativo”, hizo “un trabajo increíble en la gestión de operaciones básicas y las preguntas de análisis de procesos, incluidas aquellas que se basan en estudios de casos”, el documento de investigación que documenta cómo se desempeñó ChatGPT en la prueba. fijado.
La herramienta, capaz de una interacción significativa con los usuarios humanos, también “se desempeñó bien en la preparación de documentos legales y algunos creen que la próxima generación de esta tecnología podría incluso aprobar el examen de la barra”.
Christian Terwiesch señaló que ChatGPT “habría recibido una calificación de B a B en el examen”.
OpenAI, una empresa de investigación y desarrollo de inteligencia artificial fundada por Elon Musk , Sam Altman y otros en 2015, presentó ChatGPT en noviembre de 2022.
“El formato de diálogo hace posible que ChatGPT responda preguntas de seguimiento, admita sus errores, cuestione premisas incorrectas y rechace solicitudes inapropiadas”, se lee en la biografía del sistema en OpenAI.
La IA de generación de lenguaje, demasiado capaz de producir un texto sofisticado en respuesta a las indicaciones, ha despertado la preocupación de los educadores. El uso del chatbot en entornos escolares se considera controvertido y potencialmente perjudicial para el aprendizaje.
“Si bien la herramienta puede proporcionar respuestas rápidas y fáciles a las preguntas, no desarrolla habilidades de pensamiento crítico y resolución de problemas, que son esenciales para el éxito académico y de por vida”, dijo a los medios la portavoz del Departamento de Educación de la ciudad de Nueva York, Jenna Lyle. .
A principios de este mes, el departamento prohibió el uso de ChatGPT en redes y dispositivos de escuelas públicas.
El profesor Christian Terwiesch subrayó en su investigación sobre ChatGPT que las escuelas deberían analizar las políticas de examen y el “diseño del plan de estudios centrado en la colaboración entre humanos e IA”. El profesor de Wharton añadió:
“Antes de la introducción de las calculadoras y otros dispositivos informáticos, muchas empresas empleaban a cientos de empleados cuya tarea era realizar manualmente operaciones matemáticas como multiplicaciones o inversiones de matrices. Obviamente, tales tareas ahora están automatizadas y el valor de las habilidades asociadas ha disminuido drásticamente. De la misma manera, cualquier automatización de las habilidades que se enseñan en nuestros programas de MBA podría reducir potencialmente el valor de una educación de MBA”.
La controversia en torno a ChatGPT se produce cuando los grandes avances realizados en el uso de la IA en diversos aspectos de la vida humana han dado lugar a una gran cantidad de dilemas éticos y sociales . Más recientemente, la noticia de que un sitio de medios tecnológicos ha estado publicando artículos generados “usando tecnología de automatización” desde noviembre de 2022 mientras mantiene el experimento discreto desató una tormenta de indignación. Los críticos comentaron que los trabajos de escritura parecían haber sido asumidos por la inteligencia artificial .
Hace dos años, Microsoft despidió a decenas de periodistas para reemplazarlos con software de inteligencia artificial. En ese momento, un miembro de la fuerza laboral eliminada dijo: “Paso todo mi tiempo leyendo sobre cómo la automatización y la IA van a tomar todos nuestros trabajos, y aquí estoy: la IA ha tomado mi trabajo”.
Los periodistas despedidos advirtieron que el uso de IA para tales tareas de producción de noticias podría causar problemas a los sitios web. Al no estar familiarizados con las estrictas pautas editoriales, las herramientas impulsadas por IA que editan noticias podrían dejar pasar historias “inapropiadas”, afirmaron.
La evidencia de esto no se hizo esperar. La decisión de Microsoft de optar por editores de robots fracasó cuando el sistema de IA que empleó su sitio de búsqueda y noticias confundió a dos miembros mestizos de un grupo pop británico, Little Mix.
Las herramientas de inteligencia artificial eligieron una historia sobre el roce con el racismo de la vocalista de Little Mix, Jade Thirlwall, para que apareciera en la página de inicio del sitio, pero la ilustraron con una foto de la compañera de banda de Thirlwall, Leigh-Anne Pinnock.
De hecho, los productos de IA podrían generar un discurso racista u ofensivo , ya que los algoritmos detectan sesgos ocultos en los datos de entrenamiento.
Herramientas como ChatGPT están “haciendo asociaciones estadísticas masivas entre palabras y frases… Cuando comienzan a generar un nuevo lenguaje, confían en esas asociaciones para generar el lenguaje, que a su vez puede estar sesgado de formas racistas, sexistas y de otro tipo”, según Melanie Mitchell, profesora del Instituto Santa Fe que estudia inteligencia artificial.
sk