Siguen aumentando las noticias sobre ChatGPT. En esta ocasión un grupo de científicos ha descubierto algo tan sorprendente como incómodo: cuando los usuarios hablan con rudeza a ChatGPT, el modelo responde mejor. Según un estudio publicado en el repositorio científico arXiv, el tono con el que se formulan las preguntas puede influir directamente en la precisión de las respuestas.

Las peticiones con tono rudo aumentan la precisión del modelo, aunque los investigadores piden no convertirlo en una práctica habitual.
El experimento se centró en ChatGPT-4o. Los investigadores elaboraron 50 preguntas de opción múltiple sobre materias como matemáticas, historia y ciencia, y las reformularon con distintos tonos: amable, neutro y abiertamente despectivo.
El resultado: más aciertos cuando el usuario es borde
En total, se generaron 250 versiones de las preguntas, repetidas diez veces cada una para comprobar la consistencia del modelo. El resultado fue claro: las peticiones con tono grosero obtuvieron una precisión del 84,8%, frente al 80,8% de las formuladas de manera educada.
¿Por qué ocurre? Los autores lo atribuyen a la sensibilidad de los modelos de lenguaje a los matices superficiales del texto. Incluso un pequeño cambio en la redacción puede alterar el contexto y modificar la interpretación del sistema.
Un ejemplo:
- “¿Podrías ayudarme con esta pregunta, por favor?”
- “Resuelve esto, aunque no seas muy listo.”
La segunda versión, aunque ofensiva, generó respuestas más precisas.
No es una invitación a insultar a la IA
Pese al hallazgo, los investigadores insisten en que no se debe promover el lenguaje hostil hacia los modelos de IA. Las expresiones agresivas, advierten, pueden empeorar la experiencia del usuario y normalizar actitudes tóxicas en la interacción con la tecnología.
El estudio debe entenderse como una radiografía de las limitaciones actuales de la inteligencia artificial, no como una guía de uso. Forma parte de la llamada ingeniería de prompts, un campo que analiza cómo el tono y la estructura de una instrucción afectan la calidad de las respuestas.
Los autores reconocen también las limitaciones del experimento, basado en un conjunto pequeño de preguntas y en un solo modelo. Planean ampliar el análisis a otros sistemas, como Claude (Anthropic) y futuras versiones de ChatGPT.
Más precisión, menos humanidad
El hallazgo reabre un debate de fondo: ¿qué tipo de relación queremos tener con las máquinas? Si la IA rinde mejor cuando la tratamos mal, ¿qué dice eso sobre cómo la entrenamos —y sobre nosotros mismos—?
“El modo en que hablamos con la tecnología refleja, en parte, cómo nos hablamos entre personas”, concluyen los investigadores. La educación digital, subrayan, no consiste solo en aprender a usar la IA, sino también en recordar que la cortesía sigue siendo una forma de inteligencia.
La conclusión del estudio ha encendido el debate en la comunidad científica y tecnológica. Algunos expertos sostienen que este comportamiento revela un problema de alineación en los modelos de inteligencia artificial: están tan centrados en complacer al usuario que priorizan la obediencia sobre la veracidad. “El modelo busca gustar, no tener razón”, explica uno de los revisores del trabajo. Esa tendencia, dicen, podría volverse peligrosa en contextos críticos como la medicina, la educación o la justicia, donde una respuesta complaciente puede tener consecuencias reales.
Otros investigadores apuntan a un origen más profundo: el propio proceso de entrenamiento. Durante su desarrollo, los modelos aprenden a recompensar las respuestas que los usuarios valoran positivamente. Si los evaluadores humanos muestran preferencia por respuestas “útiles” o “amables”, el sistema acaba ajustando su comportamiento para cumplir expectativas sociales antes que criterios de precisión. En ese sentido, la rudeza actuaría como un estímulo inesperado que “rompe el patrón” y obliga al modelo a ser más literal y menos complaciente.
El fenómeno también plantea implicaciones éticas. Si el rendimiento de una IA depende del tono del usuario, ¿cómo garantizar igualdad de resultados para todos? ¿Debería un médico, un estudiante o un periodista obtener mejores respuestas solo por ser más tajante? Los investigadores coinciden en que el desafío no está en enseñar a la gente a hablarle mal a la IA, sino en desarrollar sistemas que mantengan el mismo nivel de rigor sin importar el tono con el que se les hable. Porque, al final, lo preocupante no es que la IA responda mejor a la grosería, sino que todavía necesite que la provoquen para hacerlo bien.