OpenAI advierte contra el establecimiento de «conexiones emocionales» utilizando la nueva tecnología de chat

Una ilustración muestra la página de introducción de ChatGPT, un modelo de chatbot interactivo entrenado y desarrollado por OpenAI, en su sitio web en Beijing en marzo de 2023. El desarrollador advirtió contra la creación de «conexiones emocionales» con su último lanzamiento. Foto de Wu Hao/EPA-AFP

11 de agosto (UPI) — La empresa de inteligencia artificial OpenAI ha expresado su preocupación de que los usuarios puedan formar vínculos emocionales con sus chatbots, cambiando las normas sociales y creando falsas expectativas respecto del software.

Las empresas de IA están trabajando para que su software sea lo más humano posible, pero ahora les preocupa que las personas puedan involucrarse emocionalmente en las conversaciones que la IA tiene con los chatbots.

OpenAI dijo En una publicación de blog Tiene la intención de estudiar la dependencia emocional de los usuarios en su modelo ChatGPT-4o, la última versión de su producto chatbot, después de notar que los primeros evaluadores decían cosas como «Este es nuestro último día juntos» y otros mensajes que «pueden indicar que se están formando conexiones con el modelo.»

«Si bien estos casos parecen benignos, indican la necesidad de investigar más a fondo cómo surgen estos efectos durante períodos de tiempo más largos», concluyó la empresa.

La empresa planteó la hipótesis de que la socialización similar a la humana utilizando modelos de IA podría afectar las interacciones humanas de una persona y reducir la necesidad de conectarse con otro ser humano, lo que la empresa consideró potencialmente beneficioso para los «individuos solitarios» pero potencialmente perjudicial para las relaciones saludables.

READ  Apple finaliza el programa de reparación de la placa lógica del iPhone 8 que comenzó en 2018

Al describir sus características humanas, OpenAI dijo que GPT-4o puede responder a entradas de voz con un promedio de 320 milisegundos, que es similar al tiempo de respuesta de un humano en una conversación.

«El rendimiento de GPT-4 Turbo coincide con el de GPT-4 Turbo en texto y código en inglés, con una mejora significativa en texto no inglés, y es mucho más rápido y un 50% más barato en API», dijo la compañía 4o. particularmente mejor en la comprensión de la visión y el sonido en comparación con los modelos actuales”.

La empresa utiliza calificaciones de cuadros de mando para evaluar y mitigar los riesgos en varios elementos de la tecnología de inteligencia artificial, incluida la tecnología de voz, la identificación del hablante, la atribución de atributos sensibles y otros factores, y la empresa clasifica los factores en una escala de bajo, medio, alto y crítico. . Sólo se pueden publicar factores con una escala media o inferior. Sólo se podrán desarrollar aquellos con una puntuación mayor o menor.

La compañía dijo que está incorporando lo que ha aprendido de modelos ChatGPT anteriores en ChatGP-4o para hacerlo lo más humano posible, pero reconoce los riesgos asociados con que la tecnología se vuelva «demasiado humana».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *