Implantación de IA en las PYME

Spread the love

La inteligencia artificial (IA) ya forma parte del día a día de muchas pymes españolas. Desde chatbots para atención al cliente hasta algoritmos que optimizan inventarios o apoyan decisiones financieras, la IA se ha consolidado como una herramienta estratégica.

Hamburgo. Ayuntamiento. Epc

Con la aplicación de las normas a los modelos de IA del Reglamento Europeo de IA (Reglamento UE 2024/1689) a partir del 2 de agosto de 2026, se activan de forma definitiva obligaciones que afectan directamente al uso y comercialización de estas tecnologías. Este es, por tanto, un momento clave para repasar las principales exigencias que los directivos de pymes deben conocer, no solo para cumplir con la ley, sino también para identificar cómo la IA puede convertirse en una palanca de innovación y crecimiento.

  • 02/02/2025: prohibición de sistemas de riesgo inaceptable.
  • 02/08/2025: aplicación de normas a modelos de IA de propósito general.
  • 02/08/2026: fin del periodo transitorio y aplicación plena del Reglamento.

 

Modelos de IA de propósito general
Son sistemas que no están diseñados para una tarea concreta, sino que pueden realizar de manera competente una amplia variedad de tareas distintas. Ejemplos son los grandes modelos de lenguaje desarrollados por OpenAI (ChatGPT) o Google (Gemini), que pueden aplicarse a chatbots, generación de contenido o análisis de datos.

  • Desde agosto de 2025, los proveedores de estos modelos deben cumplir con requisitos de transparencia y seguridad en cuatro niveles, cada uno con ejemplos y requisitos distintos:
    •  Riesgo inaceptable: sistemas totalmente prohibidos por considerarse una amenaza para la seguridad o los derechos fundamentales. Ejemplos: puntuación social, manipulación subliminal del comportamiento, reconocimiento de emociones en entornos laborales o educativos, identificación biométrica en tiempo real en espacios públicos.
    • Alto riesgo: permitidos, pero sujetos a requisitos estrictos de evaluación, supervisión y seguridad. Incluye, entre otros, sistemas para filtrado de CVs en procesos de selección o algoritmos de evaluación crediticia o scoring financiero.
    • Riesgo limitado: no requieren requisitos técnicos complejos, pero sí transparencia hacia los usuarios. Dentro de esta categoría podríamos encontrar los chatbots y asistentes conversacionales, que deben identificarse claramente como IA, generadores de contenido sintético (deepfakes) que deben ir etiquetados, o sistemas que detectan emociones de clientes en un contexto comercial (con aviso previo).
    • Riesgo mínimo: uso libre sin obligaciones específicas en el Reglamento, aunque siguen aplicando otras leyes generales. Ejemplos: filtros anti-spam, recomendadores de productos en e-commerce, optimización de rutas logísticas o videojuegos con IA.

Un primer reto importante radica en identificar correctamente el nivel de riesgo de cada herramienta, ya que un sistema clasificado como alto riesgo puede implicar costes y procesos que desincentiven su uso.

Implicaciones del Reglamento de IA para las PYMEs

La mayoría de las pequeñas y medianas empresas operarán principalmente como usuarias de sistemas de inteligencia artificial, y el alcance de sus responsabilidades dependerá del nivel de riesgo de las herramientas que empleen.

Bruselas.

Los sistemas clasificados como de alto riesgo concentran la mayor parte de los requisitos técnicos y documentales, pero incluso los sistemas de riesgo limitado o mínimo implican obligaciones esenciales, especialmente en términos de transparencia y uso responsable. Entre ellas destacan la necesidad de utilizar la IA siguiendo las instrucciones del proveedor, garantizar supervisión humana en decisiones críticas —obligatoria en sistemas de alto riesgo y recomendable en el resto—, mantener registros de actividad, verificar la calidad de los datos introducidos y, cuando proceda, informar a empleados y clientes sobre la utilización de IA.

Un aspecto crítico es que modificar un sistema de IA o cambiar su finalidad puede transformar a la pyme de usuaria a proveedora de alto riesgo, con las consiguientes obligaciones legales y costes adicionales. Por ejemplo, una consultora de recursos humanos que adapte un modelo de propósito general, inicialmente de riesgo limitado, para crear un sistema de preselección de candidatos estaría desarrollando un sistema de alto riesgo. Este cambio implica mayores responsabilidades técnicas y jurídicas, y si la empresa no dispone de los recursos necesarios, podría enfrentar sanciones significativas.

El régimen sancionador del Reglamento de IA es riguroso y busca garantizar el uso responsable de la tecnología.

  • Las multas por incumplimiento pueden alcanzar hasta 35 millones de euros o el 7 % de la facturación anual global en casos de prácticas de IA inaceptables, y hasta 15 millones o el 3 % en infracciones relacionadas con sistemas de alto riesgo o con la gestión de modelos de propósito general.
  • Para PYMEs y empresas emergentes, se aplicará la cantidad menor entre el porcentaje de facturación y la cuantía fija. Este sistema, combinado con la complejidad del marco regulatorio, podría retrasar el lanzamiento de soluciones o incluso provocar su retirada del mercado europeo, dejando a algunas pymes en desventaja frente a empresas de otras regiones con regulaciones más flexibles.

Para adaptarse de manera práctica y aprovechar las oportunidades que ofrece la IA, las pymes deben seguir un plan estructurado: en primer lugar, elaborar un inventario detallado de todas las herramientas y sistemas de IA que utilizan, incluyendo aquellos integrados en otros softwares; en segundo lugar, clasificar cada herramienta según su nivel de riesgo —inaceptable, alto, limitado o mínimo—; y finalmente, contactar con los proveedores para confirmar planes de cumplimiento, solicitar documentación y verificar, en su caso, el marcado CE de los sistemas de alto riesgo. A estas acciones se suma la implementación de un programa de formación interna o “alfabetización en IA”, que permitirá al personal identificar riesgos, usar la IA de forma segura y generar valor para la organización. Designar un responsable interno que coordine este proceso y lidere la capacitación es clave para integrar la IA de manera estratégica en la pyme y convertir el cumplimiento normativo en un motor de innovación.

Consciente de las dificultades que enfrentan las PYMEs, la Unión Europea ha desarrollado medidas de apoyo específicas.

  • Programas como Digital Europe y Horizonte Europa, junto con los Fondos de Cohesión, facilitan recursos financieros y técnicos para la adopción de IA. A nivel operativo, los Digital Innovation Hubs (EDIHs)
  • Las AI Factories proporcionan espacios para experimentar y probar sistemas de IA bajo condiciones controladas, con asesoramiento especializado sobre cumplimiento normativo, seguridad y buenas prácticas.
  • Las Testing and Experimentation Facilities (TEFs) permiten evaluar prototipos antes de su despliegue comercial, garantizando un entorno seguro. Este ecosistema integral busca que las pymes desarrollen e integren soluciones de IA de manera conforme a la ley, sin perder competitividad frente a grandes plataformas tecnológicas, y que puedan acceder a oportunidades de innovación que antes solo estaban al alcance de corporaciones de mayor tamaño.