

“Los modelos lingüísticos de gran tamaño tienden a imitar con demasiada facilidad, y esta imitación exagerada es algo que los humanos podemos percibir”, explicó Bietti. Crédito: Neuroscience News
Resumen: Un nuevo estudio que compara conversaciones humanas y generadas por IA revela que modelos de lenguaje extensos como ChatGPT y Claude aún no logran imitar de forma convincente el diálogo humano natural. Los investigadores descubrieron que estos sistemas sobreimitan a sus interlocutores, usan incorrectamente palabras de relleno como «bien» o «me gusta» y tienen dificultades para iniciar y cerrar frases de forma natural.
Esta «alineación exagerada» delata su naturaleza artificial, incluso cuando su gramática y lógica son impecables. Si bien el habla de la IA continúa evolucionando rápidamente, los investigadores afirman que sutilezas sociales clave en la interacción humana podrían permanecer fuera de nuestro alcance.
Datos clave:
- Imitación exagerada: los modelos de IA imitan los patrones del habla humana con demasiada intensidad, un rasgo que los humanos reconocen instintivamente como antinatural.
- Mal uso de palabras de relleno: Los modelos lingüísticos amplios colocan de forma incorrecta o hacen un uso excesivo de marcadores del discurso como “así que” o “bien”, lo que interrumpe el flujo de la conversación.
- Transiciones deficientes: la IA a menudo falla en las aperturas y finales naturales y pierde los matices sociales que enmarcan el diálogo humano.
Fuente: NTNU
Es fácil dejarse impresionar por la inteligencia artificial. Muchas personas utilizan modelos de lenguaje extensos como ChatGPT, Copilot y Perplexity para resolver diversas tareas o simplemente por entretenimiento.
Pero ¿qué tan buenos son estos grandes modelos lingüísticos a la hora de simular ser humanos?
No mucho, según investigaciones recientes.
“Los grandes modelos lingüísticos hablan de manera diferente a las personas”, dijo el profesor asociado Lucas Bietti del Departamento de Psicología de la Universidad Noruega de Ciencia y Tecnología (NTNU).
Bietti fue uno de los autores de un artículo de investigación publicado recientemente en PM C. El autor principal es Eric Mayor de la Universidad de Basilea, mientras que el autor final es Adrian Bangerter de la Universidad de Neuchâtel.
Probé varios modelos
Los grandes modelos de lenguaje que probaron los investigadores fueron ChatGPT-4, Claude Sonnet 3.5, Vicuna y Wayfarer.
- En primer lugar, compararon de forma independiente las transcripciones de conversaciones telefónicas entre humanos con conversaciones simuladas en los grandes modelos de lenguaje.
- Luego comprobaron si otras personas podían distinguir entre las conversaciones telefónicas humanas y las de los modelos lingüísticos.
En general, la gente no se deja engañar, o al menos no todavía. Entonces, ¿qué están haciendo mal los modelos lingüísticos?
Demasiada imitación
Cuando las personas hablan, se produce cierta imitación. Adaptamos ligeramente nuestras palabras y la conversación a la otra persona. Sin embargo, la imitación suele ser bastante sutil.
“Los modelos lingüísticos grandes tienden a imitar con demasiada frecuencia, y esta imitación exagerada es algo que los humanos podemos percibir”, explicó Bietti.
Esto se llama «alineación exagerada».
Pero eso no es todo.
Uso incorrecto de palabras de relleno
Las películas con malos guiones suelen tener conversaciones que suenan artificiales. En estos casos, los guionistas suelen olvidar que las conversaciones no se limitan solo a las palabras esenciales. En las conversaciones cotidianas, la mayoría de nosotros incluimos pequeñas palabras llamadas «marcadores discursivos».
Se trata de palabras como «así que», «bueno», «como» y «de todos modos».
Estas palabras tienen una función social porque pueden indicar interés, pertenencia, actitud o significado para la otra persona. Además, también pueden usarse para estructurar la conversación.
Los modelos de lenguaje grandes todavía son terribles al usar estas palabras.
“Los modelos lingüísticos grandes utilizan estas palabras pequeñas de manera diferente y a menudo incorrectamente”, dijo Bietti.
Esto ayuda a exponerlos como no humanos. Pero hay más.
Funciones de apertura y cierre
Cuando empiezas a hablar con alguien, probablemente no vayas directo al grano. En cambio, podrías empezar diciendo «hola», «¿qué tal?» o «qué gusto verte por aquí». La gente suele charlar un poco antes de pasar a lo que realmente quiere hablar.
Este paso de la introducción al negocio se produce de forma más o menos automática para los humanos, sin que nadie lo diga explícitamente.
“Esta introducción y el cambio a una nueva fase de la conversación también son difíciles de imitar para los modelos lingüísticos grandes”, dijo Bietti.
Lo mismo ocurre con el final de la conversación. Normalmente no terminamos una conversación abruptamente en cuanto se transmite la información a la otra persona. En cambio, solemos terminarla con frases como «de acuerdo», «de acuerdo», «hablamos luego» o «nos vemos pronto».
Los modelos de lenguaje grandes tampoco logran gestionar esa parte.
¿Mejor en el futuro? Probablemente
En conjunto, estas características causan tantos problemas para los modelos de lenguaje grandes que la conclusión es clara:
«Los grandes modelos lingüísticos actuales aún no son capaces de imitar a los humanos lo suficientemente bien como para engañarnos consistentemente», dijo Bietti.
Los avances en este campo avanzan tan rápidamente que es muy probable que los grandes modelos lingüísticos puedan hacerlo muy pronto, al menos si así lo deseamos. ¿O no?
“Las mejoras en los grandes modelos lingüísticos probablemente lograrán reducir la brecha entre las conversaciones humanas y las artificiales, pero es probable que persistan diferencias clave”, concluyó Bietti.
Por el momento, los grandes modelos lingüísticos aún no son lo suficientemente parecidos a los humanos como para engañarnos. Al menos no siempre.
Preguntas clave respondidas:
P: ¿Por qué las conversaciones de IA suenan poco naturales?
R: La IA tiende a imitar en exceso y carece de señales conversacionales sutiles (especialmente en cuanto a ritmo, fraseo y social) que hacen que el habla humana fluya de manera natural.
P: ¿Qué errores específicos delatan a la IA?
R: El uso incorrecto de palabras de relleno, transiciones incómodas y frases demasiado formales hacen que incluso la IA más avanzada suene ligeramente robótica o guionizada.
P: ¿Alguna vez la IA sonará completamente humana?
R: Posiblemente, pero los investigadores sugieren que diferencias clave en empatía, ritmo e intención social siempre pueden distinguir a los humanos de las máquinas.
Acerca de esta noticia de investigación sobre IA
Autora: Nancy Bazilchuk
Fuente: NTNU
Contacto: Nancy Bazilchuk – NTNU
Imagen: La imagen se atribuye a Neuroscience News













