Inteligencia artificial sin enganche: los chatbots no generan adicción, dice la ciencia

VALENCIA. Un estudio internacional descarta que la inteligencia artificial, como ChatGPT, pueda generar adicción: no hay evidencia científica sólida que la equipare al consumo de drogas o al juego, concluyen los investigadores.

Logo de Open AI, la empresa detrás de chatbot ChatGPT.
Logo de Open AI, la empresa detrás de chatbot ChatGPT.ETIENNE LAURENT

Los investigadores Víctor Ciudad-Fernández, de la española Universitat de Valencia (UV), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne) han analizado los estudios que intentan medir este fenómeno y “han descubierto un patrón preocupante”: las escalas utilizadas para evaluar la supuesta adicción a ChatGPT son las mismas que se usan para evaluar adicciones a sustancias como el alcoholismo o la dependencia a la cocaína, informó este miércoles la UV.

“Se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot, lo que es como diagnosticar adicción a bailar con los mismos criterios que la heroína”, afirmó Víctor Ciudad, miembro del grupo de investigación I-PSI-TEC de la Universitat de Valencia.

Según la investigación, los estudios que han intentado demostrar la existencia de esta ‘adicción’ no han mostrado pruebas de daño clínicamente significativo, como deterioro funcional grave o consecuencias negativas importantes en la vida de los usuarios.

En cambio, los investigadores sugieren que el uso frecuente de ChatGPT “suele estar más relacionado con la curiosidad, el aprendizaje o incluso estrategias de afrontamiento”.

Los autores advirtieron de que etiquetar prematuramente el uso de ChatGPT como una adicción “puede tener graves consecuencias”, como la estigmatización de los usuarios, la creación de tratamientos innecesarios y la promoción de regulaciones infundadas.

“No se trata de una adicción sino de cómo usamos la tecnología. Este estudio invita a un cambio de perspectiva: en lugar de patologizar el uso de herramientas de inteligencia artificial, es más importante analizar cuándo y por qué su uso se vuelve problemático”, señalaron los investigadores, quienes afirmaron que “la clave está en un uso consciente y regulado, evitando caer en discursos alarmistas sin base científica”.

El estudio ha sido publicado en la revista científica Addictive Behaviors, y se ha realizado “en respuesta a un reciente alarmismo mediático que apuntaba en esta dirección”.

Enlance copiado