Carlos

Nuestra Política de Tratamiento de Datos Personales ha cambiado. Conócela haciendo clic aquí.

close

Tecnología

12 ago 2024 - 6:49 p. m.

Nueva versión de ChatGPT puede generar dependencia emocional, según OpenAI

Los avances en términos de audio y texto ha levantado sospechas  sobre sus facultades cercanas a las humanas.

Inteligencia Artificial (IA)

Inteligencia Artificial (IA)

iStock

POR:
Portafolio

OpenAI ha señalado que modelo GPT-4o presenta un "moderado riesgo" frente a su capacidad en influir en sus usuarios, en especial en interacciones textuales, y que podría fomentar la dependencia emocional en las personas debido a los avances en tecnologías de audio y voz.

La empresa dirigida por Sam Altman, presentó el modelo GPT-4o en el mes de mayo, destacando su habilidad para procesar combinaciones de texto, audio, imagen, y su capacidad para responder a una entrada de voz en solo 232 milisegundos, con un promedio de 320 milésimas de segundo, un tiempo de respuesta comparable al humano.

(Más: Google deja de producir uno de sus dispositivos más queridos: ¿de cuál se trata?).

Y es que, recientemente, la compañía un informe interno llamado 'Ficha de Sistema de GPT-4o en el cual detalla los hallazgos de su investigación sobre la seguridad de este nuevo modelo de inteligencia artificial generativa.

Inteligencia artificial

Inteligencia artificial

iStock

Allí se describe que el modelo ha sido evaluado "de manera exhaustiva" para poder identificar posibles riesgos y, basado en estos datos, se han implementado medidas de seguridad pertinentes antes de integrarlo en ChatGPT o en la API.

(Además: ¿Jueces podrán usar inteligencia artificial en sus sentencias?: esto dice la Corte).

Particularmente, la empresa ha subrayado un riesgo "moderado" en las capacidades de persuasión del modelo como uno de los hallazgos, además de advertir sobre el riesgo de darle cualidades antrópicas, lo cual provocaría que los usuarios desarrollen una dependencia emocional, esto al confiar en la IA debido a sus características muy parecidas a las de una persona.

De las categorías generales de riesgo (ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión), OpenAI ha identificado este nivel de riesgo en la última categoría. Esto se ha visto especialmente en la presentación de texto de modelo, donde los expertos han explicado que GPT-4o puede influenciar las opiniones de los usuarios.

Inteligencia Artificial (IA)

Inteligencia Artificial (IA)

iStock

¿Dependencia emocional?

Otro de los peligros que destaca OpenAI en su informe es la tendencia a humanizar y, en efecto, desarrollar una dependencia emocional hacia GPT-4o. Este término hace referencia a la atribución de comportamientos y rasgos propios de los humanos a entidades no humanas, tales como los modelos de IA.

(Puede leer: Consejos para que su CDT no se convierta en un dolor de cabeza al declarar renta).

En el coso de GPT-4o, este riesgo se  intensifica dada a sus capacidades de audio, que permiten interacciones muy similares a las de un ser humano.

Esta corta distancia y alta fidelidad en la reproducción de voz y expresiones humanas pueden ocasionar que los usuarios desarrollen una confianza "inapropiada" en sus interacciones con este modelo, lo que llevaría a una dependencia emocional.

PORTAFOLIO

Lo más leído

Destacados

Más Portales

cerrar pauta