La inteligencia artificial promete agilizar tareas y hacer más eficiente el trabajo. Pero cuando su uso obliga a supervisar, revisar y validar de forma constante lo que generan varias herramientas, el esfuerzo mental no solo no desaparece, sino que puede intensificarse. Un estudio reciente publicado por Harvard Business Review, titulado When Using AI Leads to “Brain Fry”, pone el foco en ese riesgo y en varias medidas para prevenirlo, entre ellas acompañar la implantación de estas herramientas con formación. Porque más IA no siempre significa más productividad, y usarla bien también exige entender sus límites, sus riesgos y su impacto real en el trabajo.
Cuando la IA deja de aliviar trabajo y empieza a aumentar la carga mental
La IA puede ayudar cuando sustituye tareas repetitivas, filtra información o descarga parte del trabajo más mecánico. El problema aparece cuando la IA deja de ser un apoyo puntual y pasa a exigir atención constante para revisar resultados, detectar errores, contrastar información, supervisar varios sistemas a la vez y tomar decisiones a partir de lo que produce.
A eso se suma la velocidad de la propia herramienta y la presión de intentar seguir el ritmo de una tecnología que produce de forma continua y que empuja a revisar, decidir y validar cada vez más deprisa. Esa inmediatez puede generar una falsa necesidad de no parar, de no bajar el ritmo y de estar siempre a la altura de lo que la herramienta parece capaz de hacer.
El mencionado estudio When Using AI Leads to “Brain Fry”, plantea precisamente que ciertos patrones de uso de la IA pueden reducir el agotamiento, pero otros están derivando en una fatiga cognitiva que termina afectando al rendimiento, a la toma de decisiones y al bienestar. Si la IA se integra de manera que multiplica la revisión, la coordinación y la necesidad de estar pendiente de todo, la supuesta ganancia de eficiencia puede acabar convirtiéndose en sobrecarga y saturación, lo que aumenta el riesgo de error. Además, cuando esa dinámica se sostiene en el tiempo, también puede provocar la intención de abandonar el trabajo.
A todo ello puede sumarse, además, el miedo a ser sustituido por la IA, otra fuente de presión psicosocial que refuerza la necesidad de implantar estas tecnologías con atendiendo a su impacto en la carga mental y el bienestar y con formación suficiente.
Los expertos recomiendan formación, transparencia y límites claros
Lo más interesante del estudio no es solo el diagnóstico, sino las medidas que plantea. Los expertos recomiendan dar más transparencia al uso de estas herramientas, delimitar bien qué tareas se automatizan y cuáles deben seguir dependiendo del juicio humano, y acompañar su implantación con formación continua. No basta con dar acceso a una nueva tecnología: hace falta que las personas entiendan para qué se utiliza, qué límites tiene y qué riesgos puede generar.
Desde la prevención de riesgos laborales, este punto es especialmente relevante. Si el uso intensivo de la IA puede aumentar la carga mental, alterar el ritmo de trabajo o generar fatiga por supervisión constante, su impacto debe evaluarse y prevenirse. La Unión Europea ya exige alfabetización en IA, y esa obligación encaja plenamente con una lógica preventiva. Incorporar nuevas herramientas también exige pautas claras, criterios de uso, comunicación transparente y formación suficiente para asegurar un uso seguro, responsable y consciente de estas tecnologías.




