Muchas empresas ya utilizan herramientas de inteligencia artificial en su trabajo diario. Lo que no siempre se tiene en cuenta es que formar para un uso responsable y seguro es obligatorio. Como ocurre con cualquier nueva herramienta, incorporar inteligencia artificial al trabajo exige formación, pautas claras de uso y una comprensión suficiente de sus riesgos. Cuando esa base no existe, pueden aparecer malas prácticas que afectan a la organización y también a las personas trabajadoras. En ese contexto, la alfabetización en IA, recogida en la normativa europea, exige entender qué implica esta tecnología, qué riesgos presenta y cómo prevenirlos para favorecer un uso seguro, ético y responsable en el entorno laboral.
La alfabetización en IA ya es obligatoria: qué exige la Unión Europea
El reciente Reglamento (UE) 2024/1689 (conocido como la Ley de IA) establece en su artículo 4 la obligación de garantizar la «alfabetización en IA».
Esto significa que las organizaciones deben asegurarse de que las personas que utilizan herramientas de inteligencia artificial cuentan con la formación necesaria para usarlas de forma segura, ética y responsable en el entorno laboral. No se trata de aprender a programar ni de adquirir conocimientos técnicos avanzados, sino de entender qué se está utilizando, qué riesgos presenta y qué precauciones básicas deben aplicarse.
Además de responder a una exigencia normativa, esta formación es también una medida preventiva. Comprender los límites de la tecnología ayuda a reducir errores, malas prácticas y riesgos para la actividad de la empresa, y es también el primer paso para evitar que su uso afecte al bienestar y a la salud mental de las personas.
Los riesgos de usar herramientas de IA sin formación
El uso de herramientas de inteligencia artificial sin pautas claras puede derivar en malas prácticas y situaciones de riesgo para la organización y para quienes trabajan con estas herramientas. Entre los riesgos más habituales están:
- Confiar en respuestas no verificadas. La IA generativa puede ofrecer información incorrecta, inventada o descontextualizada con una apariencia totalmente convincente. Este fenómeno, conocido como alucinación, obliga a revisar siempre los datos importantes antes de utilizarlos, enviarlos o incorporarlos a un documento de trabajo.
- Comprometer la privacidad y la confidencialidad. Introducir datos personales, información sensible, estrategias internas, contratos o documentación confidencial en plataformas abiertas puede poner en riesgo la seguridad de la información.
- Reproducir sesgos. La IA aprende de grandes volúmenes de información generada por personas, y esa información incluye prejuicios, desigualdades y enfoques desactualizados. Sin supervisión humana, puede generar respuestas discriminatorias o poco objetivas.
- Consolidar malas prácticas. Automatizar tareas que requieren juicio profesional, delegar decisiones que no deberían externalizarse o asumir que una respuesta bien redactada equivale a una respuesta correcta puede generar errores y debilitar los criterios de trabajo.
IA, salud laboral y bienestar digital
Desde la perspectiva de la Prevención de Riesgos Laborales, el uso de la inteligencia artificial también merece atención. No solo por los riesgos legales, organizativos o de privacidad, sino también por su impacto en la salud laboral y en el bienestar digital.
Estos riesgos están conectados. Un error por confiar en una respuesta no verificada, una mala práctica con datos sensibles o una decisión tomada sin suficiente revisión puede afectar a la empresa, pero también generar estrés, inseguridad o sobrecarga en la persona que utiliza la herramienta.
Uno de los riesgos más claros es el tecnoestrés por inmediatez. La IA genera respuestas en segundos, y esa velocidad puede crear la falsa sensación de que la persona debe trabajar al mismo ritmo. Esa presión por responder, revisar o producir más deprisa puede elevar los niveles de ansiedad y estrés.
También puede aparecer sobrecarga cognitiva. Revisar con detalle lo que genera la herramienta para detectar errores, incoherencias o posibles alucinaciones exige una atención constante. Esa vigilancia sostenida agota mentalmente mucho más de lo que parece y puede aumentar la fatiga a lo largo de la jornada.
A esto se suma el sesgo de automatización. Cuando se confía ciegamente en la herramienta y se baja la guardia, aumenta el riesgo de cometer errores graves. Y cuando ese fallo acaba teniendo consecuencias en el trabajo, es habitual que aparezcan sensaciones de frustración, inseguridad o vulnerabilidad, precisamente porque la responsabilidad final sigue recayendo en la persona.
Hablar de alfabetización en IA también es hablar de prevención. Entender cómo funciona la herramienta, qué límites tiene y qué precauciones exige ayuda a reducir la exposición a estos riesgos y favorece un uso más saludable de la tecnología en el trabajo.
Qué debe saber cualquier persona que use IA en su trabajo
La formación en inteligencia artificial dentro de la empresa debe ser útil, concreta y aplicable. Su objetivo es proporcionar una base común para que las personas puedan utilizar estas herramientas de forma segura, ética y responsable en su trabajo diario. Como punto de partida, hay tres reglas básicas que conviene tener claras:
- La IA ayuda, pero no sustituye el criterio profesional ni el pensamiento crítico. Puede servir como apoyo, como punto de partida o como herramienta para agilizar tareas, pero el control final debe seguir estando en manos humanas. No solo para detectar errores, sino también para identificar sesgos, falta de contexto o formulaciones que no encajan con los valores, procedimientos o necesidades reales de la organización.
- Toda información relevante debe verificarse. Si una herramienta ofrece un dato normativo, una cifra, una referencia o una afirmación importante, hay que confirmarla antes de darla por válida.
- No todo se puede introducir en una plataforma de IA. Los datos personales, la información confidencial y los contenidos sensibles requieren cautela y, en su caso, entornos seguros y políticas internas claras.
La alfabetización en IA que exige Europa es, en definitiva, una herramienta de PRL. Entender la tecnología, sus límites y sus riesgos ayuda a usarla con más criterio, protege a las personas y permite aprovechar sus ventajas sin poner en riesgo su bienestar.




