Un estudio europeo revela que modelos de IA como ChatGPT y Claude aún no logran mantener conversaciones naturales ni imitar con precisión el habla humana.

Los grandes modelos de lenguaje aún no logran imitar con naturalidad la forma en que las personas se comunican. Un estudio publicado en la plataforma científica PMC analizó herramientas como ChatGPT-4, Claude Sonnet 3.5, Vicuna y Wayfarer para determinar si eran capaces de mantener conversaciones creíbles.
El reto de hablar como un humano
Investigadores de las universidades de Basilea, Neuchâtel y la Universidad Noruega de Ciencia y Tecnología compararon diálogos reales con otros generados por inteligencia artificial. El resultado mostró que los oyentes distinguieron fácilmente cuáles eran humanos y cuáles no.
Imitación excesiva y tono artificial
El informe destaca un fenómeno llamado “alineación exagerada”, que ocurre cuando los modelos copian en exceso el estilo del interlocutor. Según Lucas Bietti, profesor asociado de la NTNU, “los modelos tienden a imitar con demasiada frecuencia, y esa imitación exagerada resulta poco natural”.
Fallos en los saludos, las pausas y los cierres
Los investigadores también detectaron errores en el uso de palabras de transición —como “bueno”, “así que” o “de todos modos”—, que los humanos utilizan de forma espontánea para dar ritmo y coherencia. Los modelos, en cambio, las aplican de forma repetitiva o fuera de contexto.
Una brecha que aún persiste
Aunque la inteligencia artificial avanza con rapidez, los expertos advierten que todavía está lejos de mantener conversaciones naturales. Las mejoras futuras podrían reducir la distancia, pero persistirán diferencias clave en la forma de comunicarse.
Con información de NotiPress.