El uso legal de la inteligencia artificial en el lugar de trabajo
- IT AHK

- 13 oct
- 2 Min. de lectura

Cada vez más empleados en Alemania utilizan la inteligencia artificial (IA) en su trabajo diario, por ejemplo, para la redacción de textos, la edición de imágenes o la atención al cliente. Sin embargo, el uso de estas herramientas plantea cuestiones jurídicas y organizativas: ¿qué está permitido, ¿quién asume la responsabilidad en caso de errores y en qué punto comienza un uso de alto riesgo?
El empleador decide si y cómo pueden utilizarse las herramientas de IA dentro de la empresa. Puede autorizar su uso, limitarlo o prohibirlo por completo. Se recomienda establecer directrices claras que regulen los siguientes aspectos:
qué herramientas de IA pueden utilizarse y con qué fines,
cómo deben identificarse los contenidos generados por IA,
cómo proteger los secretos comerciales y los datos personales,
y cómo evitar violaciones de derechos de autor.
La transparencia es especialmente importante: los empleados deben indicar cuando los contenidos han sido elaborados con ayuda de la IA.
En principio, quien utilice los resultados generados por una IA es responsable de los posibles errores. Si el uso de la IA causa daños, esto puede tener consecuencias laborales, como advertencias o despidos.
Sin embargo, no existe responsabilidad personal si:
la IA fue proporcionada por el empleador,
el error era inevitable,
y el empleado no tenía posibilidad de control.
En tales casos, la responsabilidad puede recaer en el empleador. A menudo, la responsabilidad se reparte entre ambas partes, según el grado de culpa.
El Reglamento de IA de la Unión Europea clasifica ciertas aplicaciones como sistemas de alto riesgo, especialmente en el ámbito de los recursos humanos. Entre ellas se incluyen:
la selección de candidatos,
la evaluación del rendimiento,
las decisiones sobre ascensos o despidos,
y cualquier tipo de perfilado automatizado de empleados.
Para estos sistemas, a partir del 2 de agosto de 2026, se aplicarán requisitos especialmente estrictos, que incluyen supervisión humana y medidas de seguridad adicionales.
Los empleados deben actuar con cautela al introducir datos en sistemas de IA, ya que muchas herramientas almacenan permanentemente la información y pueden utilizarla para entrenar sus modelos.
Si la IA es proporcionada por el empleador, deben establecerse normas claras sobre:
qué datos pueden almacenarse o eliminarse,
y durante cuánto tiempo deben conservarse los historiales de chat.
Las empresas que emplean IA deben formar adecuadamente a sus trabajadores, especialmente cuando se manejen datos personales o información sensible para la seguridad. Esta obligación se deriva tanto del Reglamento Europeo de IA como de las leyes laborales y de protección de datos.
En el caso de las aplicaciones de alto riesgo, también es necesaria la supervisión humana, con el fin de evitar errores o discriminaciones.
Uso actual de la IA en el entorno laboral
Actualmente, la IA generativa se utiliza principalmente en los siguientes ámbitos:
atención al cliente (89 % de las empresas),
marketing y comunicación (40 %),
investigación y desarrollo (20 %),
producción (17 %).
Su uso es menos frecuente en:
la gestión empresarial (7 %),
el departamento de recursos humanos (3 %),
y el área de tecnología de la información (2 %).
A nivel individual, muchos empleados utilizan la IA sobre todo para la redacción de textos (86 %), la generación de imágenes (83 %) o la producción de videos (19 %).
Fuente: ZDF Heute, Handelsblatt, Aktiv Online












Comentarios