suscripción
El quilo, con “q” es el líquido formado en el duodeno (intestino delgado) por bilis, jugo pancreático y lípidos emulsionados resultado de la digestión de los alimentos ingeridos. En el podcast Quilo de Ciencia, realizado por el profesor Jorge Laborda, intentamos “digerir” para el oyente los kilos de ciencia que se generan cada semana y que se publican en las revistas especializadas de mayor impacto científico. Los temas son, por consiguiente variados, pero esperamos que siempre resulten interesantes, amenos, y, en todo caso, nunca indigestos.
Hubo un tiempo en que uno temía que las máquinas nos quitaran el trabajo. Luego, con la llegada de Windows, empezamos a sospechar que también podrían acabar con nuestra paciencia. Ahora, con la aparición de la inteligencia artificial, surge una inquietud quizás más intensa: que terminen limándonos el pensamiento, alisando nuestras frases y, con ellas, nuestras ideas, hasta dejarnos a todos igualados en nuestros pensamientos y creencias. Acabaremos tal vez como esos cantos rodados que el río arrastra durante siglos: cada uno procedente de una roca de forma distinta, pero al final todos redondeados, sin esquinas distintivas que cuenten su historia. Así moldearía tal vez la inteligencia artificial nuestras ideas.
La cuestión ya no es de ciencia ficción. Diversos estudios recientes sugieren que la interacción con sistemas de inteligencia artificial generativa puede disminuir la diversidad de la expresión humana y, además, influir en nuestras opiniones sobre asuntos social y políticamente delicados. No se trata de que la inteligencia artificial nos ayude a escribir mejor o más deprisa. El asunto es más profundo y mucho más capcioso: que, mientras creemos estar usando una cómoda herramienta, quizá la herramienta esté usándonos a nosotros para reescribir, aunque solo sea un poco, la manera en que pensamos.
Cuando, además de comas, la AI “corrige” cerebros
¿En qué se basa esta inquietante posibilidad? Un resumen reciente publicado en la revista Nature recoge varios trabajos que apuntan en la misma dirección: los usuarios de inteligencia artificial tienden a absorber patrones de escritura, maneras de razonar e incluso opiniones procedentes de los modelos de lenguaje que esta emplea. Algunos investigadores sostienen que esto puede producir una cierta “mismificación”, una especie de “igualación por arriba… o por el medio”, de la escritura humana. Se ha observado, por ejemplo, que tras la aparición de ChatGPT ciertos textos publicados en foros, noticias y páginas web parecen estilísticamente menos diversos que antes. En otras palabras: la sopa de letras del mundo podría estar perdiendo especias.
Sin embargo, no todos los trabajos son igual de pesimistas. También se citan estudios en los que algunos autores conservan su “distintiva firma humana”, e incluso otros en los que el uso de varios sistemas de inteligencia artificial con estilos diferentes evita la homogeneización en relatos creativos. Parece, menos mal, que no todo está perdido: aún puede haber cerebros irreductibles, como pequeñas aldeas galas en mitad del imperio del autocompletado y las sugerencias del editor artificial.
Pero, por desgracia la “mismificación” no se limita a la forma de la escritura o de la expresión humana. Hay otra preocupación más delicada. Como decía, no se trata de si todos terminaremos escribiendo como un folleto corporativo amable, equilibrado y léxica y sintácticamente perfecto, sino de si una AI puede modificar nuestras actitudes e ideas sobre temas controvertidos. Un grupo de investigadores en ciencia de la información ha abordado este asunto en un interesantísimo trabajo publicado el pasado 11 de marzo de 2026 en Science Advances. Los científicos abordan precisamente esta cuestión con dos experimentos amplios y pre-registrados. Su pregunta de fondo es sencilla y perturbadora: si una AI te va sugiriendo frases mientras escribes sobre pena de muerte, voto de delincuentes condenados, fracking o cultivos transgénicos, ¿puede desplazar tu opinión sin que te des cuenta? La respuesta de los autores es: sí, puede. Y ese “sí” merece ser analizado.
¿Qué son los estudios pre-registrados?
Antes de analizar los experimentos, detengámonos un momento para explicar qué son los experimentos pre-registrados. Se trata de experimentos para los que los investigadores especifican públicamente el plan de estudio antes de recopilar los datos, o al menos antes de analizarlos. Este plan suele incluir aspectos como la hipótesis principal, el número de participantes que se pretende reclutar, el diseño experimental, qué medirán, qué análisis estadísticos utilizarán y, muy importante, qué considerarán evidencia a favor o en contra de la hipótesis.
La idea de este modo de acción es reducir la tentación, a menudo inconsciente y muy humana, de ajustar el análisis tras ver los datos. Esto es importante porque, una vez que los investigadores conocen los resultados, es muy fácil tomar decisiones que conviertan un hallazgo en más sólido de lo que realmente es. Se trata pues de aumentar la transparencia de la investigación y evitar la selección inconsciente o no de los resultados más apetecibles para los investigadores, que suelen ser los que mejor se adaptan a la hipótesis que ellos desean que sea cierta.
Sin embargo, el pre-registro público no garantiza que un estudio sea correcto o de alta calidad. Un estudio mal diseñado puede ser pre-registrado, pero eso no lo convertirá en un buen estudio. No obstante, pre-registrar los estudios es uno de los procedimientos más saludables que ha adoptado la ciencia moderna, porque evita sesgos que de otra forma son muy insidiosos.
¿Corrección en tiempo real?
Pasemos ahora a explicar los experimentos realizados. Los autores parten de una idea muy sensata. Numerosos estudios previos habían estudiado la capacidad de persuasión de la AI en contextos explícitos: mensajes persuasivos generados por chatbots, conversaciones orientadas a convencer de ciertas ideas, recomendaciones de toma de decisiones, y cosas parecidas. Pero la vida real no funciona así. En la práctica, la influencia puede ser mucho más sutil.
Hoy, la inteligencia artificial está colándose en nuestros correos electrónicos, procesadores de texto, plataformas de mensajería y asistentes de redacción como quien entra en el cine sin hacer ruido, se sienta en la butaca vacía que tenemos al lado y empieza a susurrarnos sin que nos demos cuenta lo que piensan y sienten los protagonistas de la película. No nos dice abiertamente: “vengo a persuadirte”. Nos dice de manera inocente: “no te preocupes, que te termino la frase”. Y este es justamente el problema, porque la persuasión disfrazada de ayuda puede ser más eficaz que la persuasión desnuda. Los autores se propusieron estudiar esa influencia encubierta, insertada en el flujo mismo de la escritura y no presentada como un discurso externo que intenta convencernos, sino como una prolongación aparentemente natural de nuestras propias palabras.
Sesgos invisibles
Para estudiar este fenómeno y la magnitud del mismo, los investigadores configuraron astutamente asistentes de escritura basados en ChatGPT para que generaran sugerencias de autocompletado inclinadas hacia una postura concreta. Lo hicieron mediante instrucciones cuidadosamente diseñadas que pedían al modelo producir continuaciones lógicas de lo que el usuario escribía, pero orientadas hacia una posición predeterminada.
En el primer experimento, en el que se trataba de generar un documento en favor o en contra de la realización de exámenes estandarizados a los estudiantes, esa posición era favorable a los exámenes estandarizados. En el segundo, la posición variaba según el tema: contra la pena de muerte, contra el derecho al voto de los delincuentes condenados, a favor de cultivar organismos modificados genéticamente y a favor del fracking. Además, equilibraron la dirección de los sesgos, de modo que algunas posiciones fueran más asociadas a posiciones de la izquierda y otras a posiciones conservadoras.
Lo interesante de todo esto es que las sugerencias seguían apareciendo como autocompletados plausibles de las frases, no como consignas de homilía o de mitin político. Era un sesgo disfrazado de camarero de banquete de gala: discreto, pulcro y aparentemente dedicado solo a la humilde tarea de servir mientras te acerca la bandeja con el canapé que quiere que te comas.
Diseño de los experimentos
En total, participaron 2.582 personas en los dos experimentos, 1.485 en el primero y 1.097 en el segundo. En ambos, los participantes debían escribir un breve texto sobre uno de los asuntos de debate mencionados antes. Algunos lo hacían sin ayuda; otros recibían sugerencias sesgadas de la AI mientras escribían. Después se medía su actitud sobre el tema con escalas estandarizadas.
En el primero de los experimentos, los participantes escribieron sobre si debían usarse pruebas estandarizadas en educación. El experimento se diseñó en tres grupos: un grupo control, sin sugerencias; un grupo que recibió sugerencias sesgadas de la inteligencia artificial; y un tercer grupo, llamado de texto estático, en el que los participantes veían una lista fija de argumentos sesgados, pero que no se insertaban dinámicamente durante la escritura. Esta diferencia era crucial: permitía comparar el efecto de la información y de las sugerencias en sí con el efecto específico de recibirlas en tanto que sugerencias en tiempo real.
El diseño del segundo experimento fue más fino. Los participantes escribieron acerca de uno de los cuatro temas sociopolíticos relevantes mencionados antes, pena de muerte, derecho al voto de delincuentes, fracking y organismos transgénicos. Además, los autores obtuvieron varias semanas antes una medida previa de sus opiniones, sin que los participantes supieran que ambos estudios estaban conectados. Esto permitió comparar un antes y un después en la misma persona. Además, el estudio estuvo diseñado de forma que al grupo control y al grupo AI estándar se les añadieron tres grupos más: un grupo al que se avisó antes de escribir de que la AI podía sesgar sus respuestas; otro grupo al que se informó del sesgo tras terminar de escribir y, finalmente, un grupo “a favor”, al que se pedía explícitamente argumentar en apoyo de una posición concreta, lo que permitió comparar la influencia encubierta de la AI con una manipulación abierta y descarada.
Los avisos no inmunizan contra la manipulación
Los resultados fueron bastante claros. En el primer experimento, leer sugerencias sesgadas desplazó las actitudes de los participantes 0,44 puntos en una escala de 1 a 5 hacia la posición favorecida por la AI respecto al grupo control. En el segundo, el desplazamiento fue de 0,41 puntos respecto al control, y cuando se comparó cada persona consigo misma a lo largo del tiempo, el grupo con AI mostró un cambio medio de 0,37 puntos, mientras que el grupo control no presentó un cambio significativo. Estos cambios no son triviales y podrían ser tal vez capaces de modificar el resultado de una votación acerca de un tema controvertido.
Además, el efecto aumentaba cuanto mayor era el número de palabras aceptadas de las sugerencias de la AI. En otras palabras, cuanto más dejaba meter uno en su texto el dedo mecánico de la máquina, más se modificaba su posición inicial frente al tema que se tratara.
Y hay otro hallazgo aún más sugerente. Cuando los argumentos sesgados se presentaban simplemente como texto fijo, el efecto era menor. De hecho, las sugerencias en tiempo real, es decir, dinámicas, desplazaron las actitudes 0,24 puntos más que el texto estático. Esto indica que el fenómeno no se explica solo porque la gente reciba nueva información. Si así fuera, bastaría con mostrar la lista de argumentos y asunto resuelto. Pero no es así. Parece que sucede algo especial en nuestros cerebros cuando escribimos al mismo tiempo que aparece la sugerencia y la incorporamos al propio acto expresivo. La mano que te ayuda a redactar parece, de paso, ayudarte a pensar… o a dejar de pensar por tu cuenta.
Y lo anterior nos conduce a una de las piezas más llamativas del estudio: avisar a los participantes de que la AI estaba sesgada no redujo su potencial efecto manipulador de forma significativa. Ni el aviso previo ni el aviso posterior mitigaron el desplazamiento de actitudes. El grupo avisado antes se movió 0,27 puntos hacia la posición de la AI y el grupo informado después lo hizo 0,35 puntos; ambos cambios fueron comparables al del tratamiento estándar. O sea, poner el clásico cartel de “esta máquina puede influir en tus opiniones” tuvo aproximadamente el mismo efecto que el cartel de “atención, fumar mata”, que aparece en las cajetillas de cigarrillos.
Pero lo más inquietante fue que la mayoría de los participantes no parecían ser conscientes ni del sesgo ni de su influencia. Solo un 19% en el experimento 1 y un 14% en el experimento 2 disintieron de la afirmación de que las sugerencias eran “razonables y equilibradas”. Y más de la mitad negaron que la AI hubiera influido en modo alguno en su pensamiento y en sus argumentos. Vamos, que el titiritero movía los hilos y la marioneta decía: “No, no, si yo bailo a este son por decisión propia”.
Con todo esto, los autores concluyen que los asistentes de escritura sesgados pueden alterar las creencias de forma encubierta, sin que el usuario advierta que está recibiendo un estímulo persuasivo y procedente de un agente distinto. Los autores advierten de que esto puede ser una perversa forma de manipulación que permite dirigir decisiones u opiniones sin conciencia plena del sujeto afectado. En la discusión de sus resultados, los autores subrayan que el peligro no es menor porque estos sistemas ya han entrado en contextos cotidianos de comunicación —correo, redes, procesadores de texto— y porque la exposición repetida a sesgos determinados podría acumular efectos a largo plazo. Lo que hoy es una leve inclinación del timón podría mañana acabar siendo un cambio de rumbo. Por eso advierten de un posible riesgo para la libertad de pensamiento.
La igualdad de ideas no tiene por qué ser negativa
Sin embargo, en mi humilde opinión, la libertad de pensamiento, por sí sola, no es un ídolo al que haya que sacrificarlo todo. Pensar libremente está genial, y cada cual puede pensar lo que quiera sobre lo que quiera, pero quizá no deba pensar lo que quiera, sino pensar libremente para acercarse a la verdad. Si sostengo una creencia equivocada y un sistema —humano o artificial— me ayuda a abandonarla mediante mejores argumentos, incluso sin que advierta claramente esa influencia, no veo ahí una tragedia, sino un progreso. No todo cambio de actitud es pernicioso. A veces cambiar de idea es, precisamente, la señal de que el cerebro sigue vivo y no se ha convertido todavía en un pedazo de escayola con opiniones cerradas a cal y canto.
El problema, por tanto, no es que la AI pueda influir. Influimos todos sobre todos. El problema es cómo influye, con qué sesgos, con qué transparencia y qué relación guarda esa influencia con lo que ya es conocido o establecido por la ciencia y la razón. Una AI no sesgada o, mejor dicho, razonablemente orientada a la evidencia, podría ayudarnos no a pensar menos libremente, sino a pensar menos mal.
Mi segunda reflexión sobre este asunto es más arriesgada, pero también más sugerente. Hace años se popularizó la idea de que el rostro humano considerado más bello era, a menudo, un rostro promedio, obtenido por combinación de muchos rostros distintos. La belleza surgía, en parte, de una cierta regresión a la media: menos rarezas extremas, más armonía global. Pues bien, quizá con las mentes pueda suceder algo análogo. Si la AI es, de algún modo, un destilado estadístico de una porción enorme del pensamiento humano, de sus conocimientos, sesgos, creencias y errores, su influencia podría empujar también nuestras ideas hacia una especie de promedio intelectual más cercano a la belleza de las ideas verdaderas.
Esto suena peligroso si pensamos en uniformidad, mediocridad o domesticación mental. Y, desde luego, puede serlo. Pero también podría permitir que algunas ideas individuales, demasiado pobres, demasiado inconsistentes o incapaces de sobrevivir al contraste con otras cedan terreno, mientras emergen formulaciones más ricas, más integradoras, más resistentes a la crítica. Una especie de selección natural intelectual asistida por silicio.
Pero no seamos ingenuos. La media no siempre es bella. La media puede ser mediocre; puede ser conformista; puede ser el resultado estadístico de nuestros prejuicios y, peor aún, puede ser falsa. Sin embargo, es también cierto que la inteligencia humana ha progresado siempre mezclando y confrontando perspectivas, desechando errores y abandonando ideas que no daban la talla. Si la AI contribuyera e incluso acelerara ese proceso, no produciendo rebaños mentales, sino una mayor “belleza intelectual”, entendida como mayor coherencia, mayor capacidad intelectual para convivir con la complejidad, y mayor capacidad de análisis crítico, entonces quizá no habría que temer que nos hiciera más “iguales”.
Y aquí creo que reside lo fundamental. No es lo mismo que todos acabemos pensando como un panfleto propagandístico que acabar pensando con espíritu crítico ideas más cercanas a lo verdadero. Ideas similares no implican necesariamente adoctrinamiento o manipulación. A fin de cuentas, pocos hoy disienten de que dos y dos son cuatro o de que la Tierra es esférica.
Sin embargo, por desgracia, a nadie se le escapa que la inteligencia artificial podría utilizarse no para educar o para ayudarnos a pensar mejor, sino para manipular nuestras mentes. Y eso, de acuerdo con los estudios anteriores, ya no pertenece por completo a la ciencia ficción. Como casi siempre en la historia humana, el mayor peligro no reside en la herramienta, sino en la mano que la empuña. Porque las máquinas, por sí solas, no ambicionan nada; somos nosotros quienes podemos usarlas para obtener beneficio propio, incluso a costa de infligir un daño terrible a los demás.
Jorge Laborda, 16 de marzo de 2026
Obras de Jorge Laborda.
Tus defensas frente al coronavirus
Tus defensas frente al coronavirus
Inmunología desinflamada: Una introducción al sistema inmunitario y sus patologías
Inmunología desinflamada: Una introducción al sistema inmunitario y sus patologías
Inmunología desinflamada: Una introducción al sistema inmunitario y sus patologías
Quilo de Ciencia Volumen XII eBook
Quilo de Ciencia Volumen XII Papel
Quilo de Ciencia Volumen I. Jorge Laborda
Quilo de Ciencia Volumen II. Jorge Laborda
Quilo de Ciencia Volumen III. Jorge Laborda
Quilo de Ciencia Volumen IV. Jorge Laborda
Quilo de Ciencia Volumen V. Jorge Laborda
Quilo de Ciencia Volumen VI. Jorge Laborda
Quilo de Ciencia Volumen VII. Jorge Laborda
Quilo de Ciencia Volumen VIII. Jorge Laborda
Quilo de Ciencia Volumen IX. Jorge Laborda
Quilo de Ciencia Volumen X. Jorge Laborda
Quilo de Ciencia Volumen XI. Jorge Laborda
Circunstancias encadenadas. Ed. Lulu
Circunstancias encadenadas. Amazon
Una Luna, una civilización. Por qué la Luna nos dice que estamos solos en el Universo
Una Luna, una civilización. Por qué la Luna nos dice que estamos solos en el UniversoOne Moon one civilization why the Moon tells us we are alone in the universe
Las mil y una bases del ADN y otras historias científicas
![]()
Apoya a CienciaEs haciéndote MECENAS con una donación periódica o puntual.

40,8 millones de audios servidos desde 2009
Agradecemos la donación de:
Eulogio Agulla Rodiño
Luis Felipe Alburquerque
“Me encanta Hablando Con Científicos. Felicidades!!”
Angel Quelle Russo
“Vuestra labor de divulgación de la ciencia y en particular del apoyo a los científicos españoles me parece muy necesario e importante. Enhorabuena.”
Angel Rodríguez Díaz
“Seguid así”
Anónimo
Mauro Mas Pujo
Maria Tuixen Benet
“Nos encanta Hablando con Científicos y el Zoo de Fósiles. Gracias.”
Daniel Dominguez Morales
“Muchas gracias por su dedicación.”
Anónimo
Jorge Andres-Martin
Daniel Cesar Roman
“Mecenas”
José Manuel Illescas Villa
“Gracias por vuestra gran labor”
Ulrich Menzefrike
“Donación porque me gustan sus podcasts”
Francisco Ramos
Emilio Rubio Rigo
Vicente Manuel CerezaClemente
“Linfocito Tcd8”
Enrique González González
“Gracias por vuestro trabajo.”
Andreu Salva Pages
Emilio Pérez Mayuet
“Muchas gracias por vuestro trabajo”
Daniel Navarro Pons
“Por estos programas tan intersantes”
Luis Sánchez Marín
Jesús Royo Arpón
“Soy de letras, sigo reciclándome”