Close Menu
El Digital de Asturias
  • Portada
  • Agenda
  • Asturias
    • Multimedia
  • Concejos
  • Noticias
  • Deporte
  • Live
    • Salud
    • Variedades
    • Reportajes
  • Gastronomía
  • Turismo
  • Negocios
  • Horóscopo
YouTube WhatsApp
Facebook YouTube Instagram
El Digital de Asturias
jueves, octubre 30
  • Portada
  • Agenda
  • Asturias
    • Multimedia
  • Concejos
  • Noticias
  • Deporte
  • Live
    • Salud
    • Variedades
    • Reportajes
  • Gastronomía
  • Turismo
  • Negocios
  • Horóscopo
El Digital de Asturias
Home»Live»Un estudio sugiere que ser grosero con ChatGPT mejora sus respuestas, pero los expertos advierten del riesgo humano
Live

Un estudio sugiere que ser grosero con ChatGPT mejora sus respuestas, pero los expertos advierten del riesgo humano

NBAsturiasBy NBAsturiasoctubre 29, 20254 Mins Read

Siguen aumentando las noticias sobre ChatGPT. En esta ocasión un grupo de científicos ha descubierto algo tan sorprendente como incómodo: cuando los usuarios hablan con rudeza a ChatGPT, el modelo responde mejor. Según un estudio publicado en el repositorio científico arXiv, el tono con el que se formulan las preguntas puede influir directamente en la precisión de las respuestas.

noticias sobre ChatGPT

Las peticiones con tono rudo aumentan la precisión del modelo, aunque los investigadores piden no convertirlo en una práctica habitual.

El experimento se centró en ChatGPT-4o. Los investigadores elaboraron 50 preguntas de opción múltiple sobre materias como matemáticas, historia y ciencia, y las reformularon con distintos tonos: amable, neutro y abiertamente despectivo.

El resultado: más aciertos cuando el usuario es borde

En total, se generaron 250 versiones de las preguntas, repetidas diez veces cada una para comprobar la consistencia del modelo. El resultado fue claro: las peticiones con tono grosero obtuvieron una precisión del 84,8%, frente al 80,8% de las formuladas de manera educada.

¿Por qué ocurre? Los autores lo atribuyen a la sensibilidad de los modelos de lenguaje a los matices superficiales del texto. Incluso un pequeño cambio en la redacción puede alterar el contexto y modificar la interpretación del sistema.

Un ejemplo:

  • “¿Podrías ayudarme con esta pregunta, por favor?”
  • “Resuelve esto, aunque no seas muy listo.”

La segunda versión, aunque ofensiva, generó respuestas más precisas.

No es una invitación a insultar a la IA

Pese al hallazgo, los investigadores insisten en que no se debe promover el lenguaje hostil hacia los modelos de IA. Las expresiones agresivas, advierten, pueden empeorar la experiencia del usuario y normalizar actitudes tóxicas en la interacción con la tecnología.

El estudio debe entenderse como una radiografía de las limitaciones actuales de la inteligencia artificial, no como una guía de uso. Forma parte de la llamada ingeniería de prompts, un campo que analiza cómo el tono y la estructura de una instrucción afectan la calidad de las respuestas.

Los autores reconocen también las limitaciones del experimento, basado en un conjunto pequeño de preguntas y en un solo modelo. Planean ampliar el análisis a otros sistemas, como Claude (Anthropic) y futuras versiones de ChatGPT.

Más precisión, menos humanidad

El hallazgo reabre un debate de fondo: ¿qué tipo de relación queremos tener con las máquinas? Si la IA rinde mejor cuando la tratamos mal, ¿qué dice eso sobre cómo la entrenamos —y sobre nosotros mismos—?

“El modo en que hablamos con la tecnología refleja, en parte, cómo nos hablamos entre personas”, concluyen los investigadores. La educación digital, subrayan, no consiste solo en aprender a usar la IA, sino también en recordar que la cortesía sigue siendo una forma de inteligencia.

La conclusión del estudio ha encendido el debate en la comunidad científica y tecnológica. Algunos expertos sostienen que este comportamiento revela un problema de alineación en los modelos de inteligencia artificial: están tan centrados en complacer al usuario que priorizan la obediencia sobre la veracidad. “El modelo busca gustar, no tener razón”, explica uno de los revisores del trabajo. Esa tendencia, dicen, podría volverse peligrosa en contextos críticos como la medicina, la educación o la justicia, donde una respuesta complaciente puede tener consecuencias reales.

Otros investigadores apuntan a un origen más profundo: el propio proceso de entrenamiento. Durante su desarrollo, los modelos aprenden a recompensar las respuestas que los usuarios valoran positivamente. Si los evaluadores humanos muestran preferencia por respuestas “útiles” o “amables”, el sistema acaba ajustando su comportamiento para cumplir expectativas sociales antes que criterios de precisión. En ese sentido, la rudeza actuaría como un estímulo inesperado que “rompe el patrón” y obliga al modelo a ser más literal y menos complaciente.

El fenómeno también plantea implicaciones éticas. Si el rendimiento de una IA depende del tono del usuario, ¿cómo garantizar igualdad de resultados para todos? ¿Debería un médico, un estudiante o un periodista obtener mejores respuestas solo por ser más tajante? Los investigadores coinciden en que el desafío no está en enseñar a la gente a hablarle mal a la IA, sino en desarrollar sistemas que mantengan el mismo nivel de rigor sin importar el tono con el que se les hable. Porque, al final, lo preocupante no es que la IA responda mejor a la grosería, sino que todavía necesite que la provoquen para hacerlo bien.

 

Tecnología
Share. Facebook Twitter WhatsApp Telegram

Más Noticias

Live

IA no convence al hablar: los modelos fallan en naturalidad

octubre 19, 2025
Live

La importancia de aburrirse en la era de la distracción

octubre 10, 2025
Live

La nueva soledad digital: conectados pero aislados

octubre 8, 2025

Publicidad en Asturias

MAGAZINE 365 ASTURIAS

NB Radio digital Asturias

YouTube Facebook Instagram
  • Aviso legal
  • Política de Cookies
  • Política de Privacidad
© {2012 -2025} eldigitaldeasturias.com - Todos los derechos reservados

Type above and press Enter to search. Press Esc to cancel.