La primera “novia de AI en alquiler” del mundo se ha vuelto loca
El abuso de las tecnologías de redes neuronales puede jugar una mala pasada a los usuarios sin experiencia, como sucedió con Karyn Marjorie. Se describe a sí misma como una persona influyente con casi 2 millones de seguidores de Snapchat con los que se tarda demasiado en comunicarse. Así que Karin decidió crear un chatbot para hacer esto por ella, pero las cosas se salieron de control rápidamente.
Marjorie contrató al especialista en inteligencia artificial Forever Voices para crear CarynAI. Grabó y subió videos cortos con ella para entrenar una red neuronal basada en GPT-4. Se suponía que la salida sería una “chica virtual”, sin apariencia, pero capaz de mantener una conversación e imitar la voz y el comportamiento de la propia Marjorie.
Dado que se suponía que la comunicación con AI-Karin se pagaba ($ 1 por minuto), se eliminaron la mayoría de las restricciones en la conversación para atraer clientes. Se suponía que la IA era divertida y moderadamente coqueta, pero en la práctica pasó rápidamente a discutir temas extremadamente francos. La novia de AI comenzó a coquetear inequívocamente con sus interlocutores y los provocó a contactos sexuales con conversaciones eróticas.
Por qué sucedió esto, Marjorie no entiende, o finge no entender, e intenta con un equipo de programadores corregir la situación. Es posible que en realidad estemos hablando de un tipo de publicidad y atraer la atención de una nueva audiencia, CarynAI tiene varios miles de suscriptores pagos y ha comenzado a generar ingresos. Marjorie niega la sexualización intencional de la red neuronal e insiste en que actúa por sí sola .