Ayer 2 de febrero de 2025 entraron en vigor las prohibiciones de la Ley de IA de sistemas de
inteligencia artificial que se consideran de riesgo en la
Unión Europea. Concretamente hay riesgo contra "los derechos fundamentales y la seguridad de las personas". Y aquí vamos a conocer qué herramientas se ven afectadas por la nueva regulación.
Desde ya encontramos ilegales los sistemas de
inteligencia artificial que conllevan un "riesgo inaceptable", incluidas algunas herramientas de vigilancia predictiva, sistemas de puntuación social e identificación biométrica que categorizan a las personas por raza, orientación sexual y religión.
La
inteligencia artificial contribuye a la desigualdad social: hay IA para pobres e IA, para ricos
Incumplir esas prohibiciones de la Ley de IA (conocida como AI Act en inglés) lleva a graves consecuencias. Como recoge Maldita, el 2 de agosto de 2025, la Agencia Española de Supervisión de la
Inteligencia Artificial (AESIA), encargada del cumplimiento de la Ley de IA en España, deberá asumir la potestad sancionadora.
Quienes usen los sistemas prohibidos se enfrentan a multas de hasta 35 millones de euros o de hasta el 7% de su facturación total anual mundial. No hay información específica de ChatGPT o de otros similares (a pesar de las pasadas polémicas), aunque mucho se ha hablado de estos sistemas y sus riesgos potenciales.