OpenAI ha señalado que modelo GPT-4o presenta un "moderado riesgo" frente a su capacidad en influir en sus usuarios, en especial en interacciones textuales, y que podría fomentar la dependencia emocional en las personas debido a los avances en tecnologías de audio y voz.
La empresa dirigida por Sam Altman, presentó el modelo GPT-4o en el mes de mayo, destacando su habilidad para procesar combinaciones de texto, audio, imagen, y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milésimas de segundo, un tiempo de respuesta comparable al humano.
(Más: Google deja de producir uno de sus dispositivos más queridos: ¿de cuál se trata?).
Y es que, recientemente, la compañía un informe interno llamado 'Ficha de Sistema de GPT-4o en el cual detalla los hallazgos de su investigación sobre la seguridad de este nuevo modelo de inteligencia artificial generativa.
Allí se describe que el modelo ha sido evaluado "de manera exhaustiva" para poder identificar posibles riesgos y, basado en estos datos, se han implementado medidas de seguridad pertinentes antes de integrarlo en ChatGPT o en la API.
(Además: ¿Jueces podrán usar inteligencia artificial en sus sentencias?: esto dice la Corte).
Particularmente, la empresa ha subrayado un riesgo "moderado" en las capacidades de persuasión del modelo como uno de los hallazgos, además de advertir sobre el riesgo de darle cualidades antrópicas, lo cual provocaría que los usuarios desarrollen una dependencia emocional, esto al confiar en la IA debido a sus características muy parecidas a las de una persona.
De las categorías generales de riesgo (ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión), OpenAI ha identificado este nivel de riesgo en la última categoría. Esto se ha visto especialmente en la presentación de texto de modelo, donde los expertos han explicado que GPT-4o puede influenciar las opiniones de los usuarios.
¿Dependencia emocional?
Otro de los peligros que destaca OpenAI en su informe es la tendencia a humanizar y, en efecto, desarrollar una dependencia emocional hacia GPT-4o. Este término hace referencia a la atribución de comportamientos y rasgos propios de los humanos a entidades no humanas, tales como los modelos de IA.
(Puede leer: Consejos para que su CDT no se convierta en un dolor de cabeza al declarar renta).
En el coso de GPT-4o, este riesgo se intensifica dada a sus capacidades de audio, que permiten interacciones muy similares a las de un ser humano.
Esta corta distancia y alta fidelidad en la reproducción de voz y expresiones humanas pueden ocasionar que los usuarios desarrollen una confianza "inapropiada" en sus interacciones con este modelo, lo que llevaría a una dependencia emocional.
PORTAFOLIO