Gestclar

Inteligencia Artificial en tu empresa: qué obliga la ley y qué debes hacer ahora

Profesional revisando documentos sobre regulación de Inteligencia Artificial en una oficina moderna de Madrid, con interfaces holográficas de redes neuronales y datos flotando a su alrededor, representando el impacto del AI Act en las empresas españolas

El pasado 9 de marzo de 2026, la vicepresidenta Yolanda Díaz presentó en Bruselas un paquete de seis medidas para regular el uso de la Inteligencia Artificial en el entorno laboral. Al mismo tiempo, el Reglamento Europeo de IA (AI Act) avanza en su calendario de aplicación. Si tienes una empresa en España, esto te afecta más de lo que crees.

¿Por qué la IA se ha convertido en un asunto laboral urgente?

No hace falta ser una gran multinacional tecnológica para que la Inteligencia Artificial forme parte de tu día a día empresarial. Desde el software de selección de currículums hasta los sistemas de gestión de tareas por turnos, pasando por los chatbots de atención al cliente, la IA ya está integrada en miles de pymes y autónomos españoles, muchas veces sin que sus titulares sean plenamente conscientes de las implicaciones legales que conlleva.

El Consejo de Empleo de la UE (EPSCO) situó este tema en el centro de su agenda el pasado 9 de marzo. Los ministros de trabajo de los 27 Estados miembros debatieron cómo garantizar que la transformación tecnológica no erosione los derechos de los trabajadores. España, liderada por Yolanda Díaz, llegó con una propuesta concreta: seis medidas para una transición justa.

 Dato clave: El Reglamento (UE) 2024/1689, la primera ley integral del mundo sobre IA, es de aplicación directa en España. Su cumplimiento no es opcional. Las sanciones pueden alcanzar hasta 35 millones de euros o el 7 % de la facturación global. 

Las 6 medidas que propone el Gobierno para regular la IA en el trabajo

La propuesta española en el EPSCO no es aún legislación en vigor, pero marca la hoja de ruta del Ministerio de Trabajo y avanza lo que está por venir. Estas son las seis líneas de actuación:

1. Derecho individual a la formación

Los trabajadores deben poder adquirir las nuevas competencias digitales que demanda el mercado laboral automatizado. La recualificación pasa a ser un derecho efectivo y accesible, no una opción.

2. Transparencia algorítmica

Las empresas deberán explicar cómo funcionan sus algoritmos. Las decisiones automatizadas que afecten a los trabajadores requerirán supervisión humana y no podrán tomarse de forma completamente autónoma.

3. Control sindical de los algoritmos

Los sindicatos tendrán acceso a herramientas y asesoramiento técnico especializado para auditar los sistemas de gestión algorítmica del trabajo: asignación de tareas, evaluación del rendimiento, control de presencia, etc.

4. Salud laboral y derecho a la desconexión digital

Se reforzará el derecho a la desconexión para evitar que la IA amplíe de forma encubierta la jornada laboral o permita nuevas formas de injerencia empresarial en la vida personal de los empleados.

5. Indicador europeo de riesgo de automatización

Se creará un índice europeo para identificar qué sectores y empleos son más vulnerables a la sustitución tecnológica, permitiendo adoptar medidas preventivas con antelación.

6. Agencia Pública Europea de Protección de Datos

Un organismo público con competencias para supervisar el uso de datos en el ámbito laboral y garantizar derechos homogéneos en todos los Estados miembros frente al impacto de algoritmos y sistemas de IA.

Además, el Ministerio planteó que las empresas vinculadas al desarrollo o uso intensivo de IA contribuyan fiscalmente a un fondo europeo de adaptación laboral, para financiar formación y protección social de los sectores más afectados por la automatización.

El marco legal que ya obliga a tu empresa: el AI Act europeo

Más allá de las propuestas del Gobierno español, hay una norma que ya está en vigor y que todo empresario debe conocer: el Reglamento Europeo de Inteligencia Artificial (AI Act), Reglamento (UE) 2024/1689. Entró en vigor el 1 de agosto de 2024 y su aplicación es progresiva (Fuente: Comisión Europea — https://digital-strategy.ec.europa.eu/es/policies/regulatory-framework-ai):

Febrero 2025

Ya en vigor Quedan prohibidas las prácticas de IA con riesgo inaceptable: manipulación conductual, puntuación social de ciudadanos, reconocimiento de emociones en el puesto de trabajo y biometría remota en tiempo real sin garantías judiciales.

Agosto 2025

Ya en vigor Entran en aplicación las reglas de gobernanza y las obligaciones para los modelos de IA de propósito general (GPAI): transparencia, documentación técnica y respeto a los derechos de autor.

Agosto 2026

¡Atención pymes! Plena aplicación de las obligaciones para sistemas de IA de alto riesgo: los usados en RRHH, selección de personal, gestión del rendimiento o acceso a servicios esenciales. Se exigen auditorías y registro obligatorio.

Agosto 2027

Ampliación Extensión para sistemas de IA de alto riesgo integrados en productos regulados (maquinaria, dispositivos médicos, vehículos).

¿Qué tipos de IA se consideran de alto riesgo en el ámbito laboral?

Esta es la pregunta que más preocupa a los empresarios. El AI Act clasifica los siguientes usos como de alto riesgo cuando afectan a personas:

Uso de IANivel de riesgoObligaciones clave
Selección y cribado de currículums🔴 Alto riesgoAuditoría, supervisión humana, documentación
Evaluación del rendimiento laboral🔴 Alto riesgoTransparencia, revisión periódica
Gestión de turnos y asignación de tareas🟡 Limitado / AltoInformación a trabajadores, control humano
Chatbots de atención al cliente🟡 Riesgo limitadoInformar que el usuario interactúa con IA
Filtros de spam, CRMs básicos🟢 Riesgo mínimoSin obligaciones específicas del AI Act

Importante para pymes y autónomos: Aunque no desarrolles IA propia, si utilizas sistemas de IA en procesos de Recursos Humanos, el AI Act te considera «responsable del despliegue» y tienes obligaciones concretas: verificar que el sistema es adecuado, informar a los afectados y garantizar la supervisión humana de las decisiones.

¿Qué pasa si mi empresa no cumple? Las sanciones del AI Act

El incumplimiento del Reglamento Europeo de IA no es un asunto menor:

Tipo de infracciónSanción máxima
Uso de IA con riesgo inaceptable (prácticas prohibidas)35 M€ o el 7 % de la facturación global
Incumplimiento de obligaciones para sistemas de alto riesgo15 M€ o el 3 % de la facturación global
Proporcionar información incorrecta a las autoridades7,5 M€ o el 1,5 % de la facturación global

En España, la supervisión recae sobre la AESIA (Agencia Española de Supervisión de la IA), creada por Real Decreto 729/2023, con sede en A Coruña. Más allá de las multas, el incumplimiento conlleva riesgo reputacional y la posible retirada forzosa de los sistemas de IA.

¿Qué debe hacer tu empresa ahora mismo? 5 pasos prácticos

No es necesario esperar a que la legislación sea plenamente exigible. Las empresas que actúen antes de agosto de 2026 tendrán ventaja competitiva y evitarán prisas. En Gestclar recomendamos estos cinco pasos:

Paso 1 — Haz un inventario de los sistemas de IA que usas

Identifica todas las herramientas tecnológicas que toman decisiones sobre personas o automatizan procesos relevantes: software de RRHH, plataformas de gestión de personal, herramientas de analítica, chatbots, etc.

Paso 2 — Clasifica el nivel de riesgo de cada sistema

Con el inventario en mano, determina en qué categoría del AI Act encaja cada herramienta. Para los sistemas de alto riesgo, el plazo de cumplimiento es agosto de 2026.

Paso 3 — Revisa tus contratos con proveedores tecnológicos

Si contratas software de terceros que incorpora IA, asegúrate de que tu proveedor cumple con el AI Act. Como responsable del despliegue, tú también tienes obligaciones aunque no hayas desarrollado el sistema. Consulta con tu asesor laboral en Gestclar la revisión de estos contratos.

Paso 4 — Forma a tu equipo


El AI Act exige alfabetización en IA desde febrero de 2025. Los empleados que trabajen con sistemas de IA deben entender cómo funcionan y cuáles son sus limitaciones. No es solo una obligación legal: es una ventaja competitiva real.

Paso 5 — Documenta todo

La documentación es el corazón del cumplimiento del AI Act. Registro de sistemas usados, evaluaciones de riesgo, medidas adoptadas, formación impartida… Todo debe quedar por escrito. Ante una inspección, la carga de la prueba recae sobre la empresa.

¿Puede la IA justificar un despido objetivo? La introducción de tecnología que modifica sustancialmente los procesos productivos puede encuadrarse en las causas técnicas u organizativas para un despido objetivo. Si estás en esta situación, es fundamental contar con asesoramiento antes de dar cualquier paso. Consúltanos en Gestclar.

La regulación siempre va por detrás de la tecnología: ¿qué puedes hacer?

Seamos honestos: la IA avanza a una velocidad que ningún legislador puede seguir completamente. Las seis medidas del Gobierno español son propuestas que tardarán en convertirse en obligaciones concretas. Sin embargo, el AI Act europeo sí es ya una realidad con plazos definidos.

La mejor estrategia para cualquier empresa no es esperar a que te exijan el cumplimiento, sino anticiparse. Esto es especialmente relevante para las pymes, que a menudo no cuentan con departamentos legales internos y son, paradójicamente, las más expuestas cuando llegan las inspecciones.

Si quieres profundizar en otras obligaciones laborales que afectan a tu empresa, consulta también nuestro artículo sobre ¿puede la empresa denegar un permiso retribuido? o nuestra guía sobre cómputo de antigüedad con contratos temporales.

¿Tu empresa está preparada para la regulación de la IA?

En Gestclar te ayudamos a analizar tu situación, identificar tus obligaciones y actuar antes de que sea tarde. Sin tecnicismos, con soluciones prácticas adaptadas a tu negocio.

Preguntas frecuentes sobre la IA y las empresas

¿El AI Act me afecta si soy autónomo o tengo una microempresa?

Sí, aunque con matices. El AI Act aplica a cualquier empresa o profesional que opere en la UE y use sistemas de IA en su actividad. Las pymes tienen cargas administrativas proporcionalmente menores, pero si utilizas herramientas de IA en procesos de selección, gestión de personal o atención al cliente, tienes obligaciones concretas. Para los sistemas de riesgo mínimo (filtros de spam, recomendaciones básicas), no hay obligaciones adicionales.

Sí. El Estatuto de los Trabajadores ya recoge el derecho a la información sobre algoritmos desde la reforma laboral de 2021. El AI Act europeo refuerza esta obligación: los trabajadores deben saber cuándo son objeto de decisiones automatizadas que les afectan y tienen derecho a que exista supervisión humana de dichas decisiones. No informar puede suponer una infracción laboral y del propio Reglamento de IA.

Una auditoría algorítmica es el proceso de revisar y documentar cómo funciona un sistema de IA, qué decisiones toma, si existen sesgos y si cumple con la normativa. El AI Act la exige de forma obligatoria para los sistemas de alto riesgo (como los usados en RRHH). Para el resto, el Gobierno español propone hacerlas también obligatorias, aunque esta medida está aún en fase de propuesta. Hacerla voluntariamente protege a tu empresa ante posibles reclamaciones.

La automatización mediante IA puede encuadrarse en las causas técnicas u organizativas que permiten un despido objetivo según el artículo 52 del Estatuto de los Trabajadores, siempre que quede acreditado que la tecnología afecta de forma real y directa al puesto de trabajo. Este proceso debe seguirse con asesoramiento legal previo y documentación adecuada. Un error de procedimiento puede convertir un despido objetivo en improcedente, con costes mucho mayores.

Las prohibiciones más graves ya son sancionables desde febrero de 2025. Para los sistemas de alto riesgo, el régimen sancionador completo entra en aplicación en agosto de 2026. La AESIA es el organismo encargado de la vigilancia en España y tiene potestad para iniciar expedientes sancionadores. Las sanciones van desde 7,5 millones de euros hasta 35 millones o el 7 % de la facturación global.

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) fue creada por Real Decreto 729/2023 y es el organismo nacional encargado de supervisar el cumplimiento del AI Act en España. Tiene competencias para investigar infracciones, imponer sanciones, emitir directrices de cumplimiento y coordinarse con la Oficina Europea de IA. Su sede está en A Coruña y comenzó a operar de forma efectiva en 2024.

Este artículo tiene carácter informativo. Para asesoramiento personalizado, contacta con Gestclar en gestclar.es

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad