La prensa siempre ha recurrido a metáforas y ejemplos cotidianos para simplificar temas complejos y acercarlos al público general. Con el auge de los chatbots impulsados por inteligencia artificial (IA), se ha intensificado la tendencia a humanizar la tecnología, ya sea mediante comparaciones médicas, símiles familiares o escenarios distópicos.
Aunque detrás de todo hay código y circuitos, el discurso mediático, a menudo, retrata a los algoritmos como entes con cualidades de personas. ¿Qué ganamos y qué perdemos cuando la IA deja de ser un mero artefacto para convertirse, lingüísticamente, en un alter ego humano: un ente que “piensa”, “siente” e, incluso, “cuida” de las personas?
De “algoritmo” a “cerebro digital”
Por ejemplo, un artículo de El País presentó el modelo chino DeepSeek como un “cerebro digital”: “este cerebro digital, capaz de charlar en tiempo real, sí tiene bastante claro el contexto geopolítico de su nacimiento”.
La fórmula, sintética y efectiva, sustituye la jerga técnica –modelo fundacional, parámetros, GPU– por un órgano que todos reconocemos como sede de la inteligencia humana. El resultado es doble: primero, hace comprensible la magnitud de la tarea (pensar) que realiza la máquina y, segundo, sugiere que la IA posee una “mente” capaz de tener juicios y recordar contextos, algo que hoy está muy lejos de la realidad técnica.
Esta metáfora encaja en la clásica teoría de los marcos conceptuales de George Lakoff y Mark Johnson, que defiende que los conceptos sirven para que los humanos comprendan la realidad y puedan pensar y actuar. Así, trasladamos un dominio abstracto (“cómputo estadístico”) a otro conocido (“funcionamiento cerebral”). El riesgo, sin embargo, es olvidar la diferencia entre una correlación estadística y la comprensión semántica, alimentando la ilusión de que los sistemas “saben” de verdad.
Máquinas que “sienten”
En febrero de 2025, ABC dedicó un reportaje a la “IA emocional” que preguntaba abiertamente: “¿llegará un día en que sean capaces de sentir?”. El texto contaba los avances de un equipo español que intenta dotar a los agentes conversacionales de “un sistema límbico digital”.
Aquí la metáfora se vuelve aún más audaz. El algoritmo ya no solo piensa (como los humanos), sino que también sufre o se alegra. El recurso dramatiza la innovación y la acerca al lector, pero arrastra errores conceptuales: por definición, los sentimientos implican corporeidad y autoconciencia, algo inaccesible a un software. Presentar la IA como “sujeto emocional” facilita exigirle empatía o culparle de crueldad. Por tanto, desplaza el foco desde los equipos de diseño hacia la máquina en sí.
De igual manera, un artículo de La Vanguardia reflexionaba: “si una inteligencia artificial parece humana, siente como un humano y vive como un humano… ¿qué importa que sea una máquina?”.
Del profesional sanitario al “cuidador” mecánico
Otro terreno fértil es el de los robots humanoides. Un reportaje de El País sobre la apuesta china por androides geriátricos los describía como máquinas que “cuidan de sus ancianos”. Al emplear el verbo “cuidar”, que remite al deber de la familia de atender a sus mayores, el robot se presenta como un “pariente” que asumirá la compañía afectiva y la ayuda física que antes brindaban la familia o el personal de enfermería.
La metáfora del “cuidador”, por un lado, legitima la innovación en un contexto de crisis demográfica y, por otro, suaviza el pánico tecnológico, presentando al robot no como amenaza laboral, sino como apoyo imprescindible ante la falta de personal. Sin embargo, tiende a invisibilizar los problemas éticos sobre responsabilidad y precarización del trabajo de “cuidar”, cuando lo desempeña una máquina administrada por empresas privadas.
La Vanguardia también anunciaba: “así es Arkeo, el robot de servicio que cuidará de las personas mayores que viven solas”.
La IA como “extensión del doctor”
En otro reportaje de El País, se presentaba a los grandes modelos de lenguaje como “una extensión del doctor”, capaces de revisar historiales y sugerir diagnósticos. La metáfora del “bisturí inteligente” o del “residente incansable” sitúa a la IA dentro de la jerarquía sanitaria, no como sustituta sino como brazo derecho.
Este encuadre híbrido –ni artefacto frío ni colega autónomo– favorece la aceptación pública, pues respeta la autoridad médica a la vez que promete eficiencia. Pero también abre la discusión sobre las responsabilidades: si la extensión se equivoca, ¿la culpa recae en el profesional humano, en el software o en la empresa que lo comercializa?
¿Por qué la prensa necesita las metáforas?
Las metáforas no son meras florituras. Cumplen, al menos, tres objetivos. Para empezar, facilitan la comprensión. Explicar redes neuronales profundas exige tiempo y tecnicismos; hablar de “cerebros” reduce la fricción cognitiva.
Además, crean drama narrativo. El periodismo vive de historias con protagonistas, conflictos y desenlaces. Al humanizar la IA, se construyen héroes y villanos, mentores y aprendices.
En tercer lugar, sirven para articular juicios morales. Solo si el algoritmo se asemeja a un sujeto, puede exigírsele responsabilidad o atribuirle mérito.
No obstante, estas mismas metáforas pueden dificultar la deliberación pública. Si la IA “siente”, regularla será como regular a un ciudadano; si es “un cerebro superior”, aceptar su autoridad parece natural.
Hacia un estilo más preciso (sin perder la magia)
¿Debemos desterrar las metáforas? Sería tan imposible como indeseable: el lenguaje figurado es la vía por la que los seres humanos entendemos lo desconocido. Lo urgente es usarlas con espíritu crítico. Para ello, lanzamos algunas recomendaciones para redactores y editores.
Primero, es importante añadir contrapesos técnicos. Tras la metáfora inicial, explicar brevemente qué hace y qué no el sistema en cuestión. También lo es evitar la agencia absoluta. Formulaciones como “la IA decide” conviene matizarlas: “el sistema recomienda” o “el algoritmo clasifica”.
Otra clave está en citar fuentes humanas responsables. Nombrar a los desarrolladores y reguladores recuerda que la tecnología no surge en el vacío.
Asimismo, es conveniente diversificar metáforas y explorar imágenes menos antropomórficas –por ejemplo, “microscopio de patrones” o “motor estadístico”– puede enriquecer la conversación.
Mientras “humanizar” la inteligencia artificial en la prensa ayuda a los lectores a familiarizarse con una tecnología compleja, cuanto más se parezca la IA a nosotros, más fácil será proyectar miedos, esperanzas y responsabilidades sobre un conjunto de líneas de código.
La tarea periodística –y ciudadana– para los próximos años será mantener el delicado equilibrio entre la potencia evocadora de la metáfora y la precisión conceptual que exige un debate informado sobre el futuro tecnológico que ya vivimos.
Xosé López-García, Periodismo digital, comunicación digital, Universidade de Santiago de Compostela y Cristian Augusto Gonzalez Arias, Investigador, Pontificia Universidad Catolica de Valparaiso
Este artículo fue publicado originalmente en The Conversation. Lea el original.
¿Qué es DUPAO magazine? Somos la revista de Culturizando sobre Series y Películas, Ciencia y Tecnología, Marketing y Negocios, Productividad, Estilo de Vida y Tendencias.