¿Decirle “por favor” y “gracias” a ChatGPT hace que entregue mejores respuestas?
El uso de IA para las tareas cotidianas del día es algo cada vez más usual. Gustavo Alcántara, especialista en Telecomunicaciones y Aplicaciones de la Usach, aclaró si la amabilidad con este tipo de inteligencia efectivamente podría mejorar la calidad de las contestaciones.

“Hola, cómo estás, espero que muy bien”. Este corto, pero amable saludo puede marcar la diferencia a la hora de realizar alguna consulta al ya popular ChatGPT.
Las palabras mágicas como “por favor”, “gracias” y un “hasta pronto”, que algunos usuarios utilizan a la hora de interactuar para preguntar temas de historia, deporte, efemérides o incluso la carta astral, parecieran ser parte de la cultura a la hora de chatear, pero también podrían servir para recibir mejores respuestas de la inteligencia artificial.
Esta amabilidad efectivamente podría marcar la diferencia en la calidad de las contestaciones. Gustavo Alcántara, especialista en Telecomunicaciones y Aplicaciones de la Universidad de Santiago, explicó a Diario Usach que “existen estudios que indican que un tono cortés y emocional puede generar respuestas más detalladas y útiles”.
El académico detalló que “una investigación de la Universidad de Waseda reveló que la cortesía reduce errores y mejora la calidad de las respuestas en modelos LLM”. Los modelos LLM (Large Language Model) son un tipo de inteligencia artificial que se basa en el aprendizaje profundo para comprender y generar lenguaje humano.
“Diversas investigaciones recientes están indicando que si estas solicitudes o prompt incluyen carga emotiva y personalizada los resultados son mejores”, señaló Alcántara.
El costo de la amabilidad
Si no eras amable con la IA a la hora de realizarle consultas, posiblemente esta nota te está convenciendo para serlo. Sin embargo, es necesario saber que estas preguntas extendidas tienen un costo medioambiental elevado.
Gustavo Alcántara hace hincapié en que OpenAi, creadora de ChatGPT, “estima que el entrenamiento de GPT-3 consumió aproximadamente 1.287 MWh. Aunque cada consulta individual tiene un impacto aparentemente ‘pequeño’, el procesamiento de preguntas con agregación de ‘por favor’ requerirían un uso intensivo mayor que las consultas generales o más directas, debido a la necesidad de análisis contextual más profundo y matizado en la personalización del prompt o solicitud”.
“Esta personalización extra de la solicitud podría incrementar el consumo energético impactando en la huella ambiental, lo que es muy preocupante en un contexto donde los recursos hídricos globales enfrentan creciente escasez y los Data Center demandan grandes volúmenes de agua para sus sistemas de refrigeración, los que propician un bienestar del equipamiento tecnológico que utilizan esa tecnología”, finalizó el experto.