Una ley pretende regular aplicaciones como ChatGPT en la Unión Europea. Pero aún queda mucho camino por recorrer. Bernd Riegert informa desde Bruselas.
Este 14 de junio, el Parlamento Europeo debatirá en Estrasburgo un borrador correspondiente a la ley de inteligencia artificial (IA). Durante una visita a Alemania, el director de la empresa californiana OpenAI, Sam Altman, que lanzó el muy discutido generador de texto ChatGPT, advirtió contra el exceso de regulación. Sin embargo, retiró su amenaza de dejar de operar ChatGPT en Europa.
En principio, crear reglas para la inteligencia artificial es bueno, según el director general de OpenAI, pero «necesitamos claridad». Altman es un hombre muy solicitado. Su palabra tiene peso en el área de la IA. Incluso ha sido recibido por el canciller alemán, Olaf Scholz, en Berlín.
Sin prohibiciones, solo estándares europeos
El mercado europeo sería demasiado atractivo para los proveedores de inteligencia artificial como para que lo ignoren. «Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dice René Reparsi, miembro del Parlamento Europeo, encargado del tema en la bancada socialdemócrata. El Congreso estadounidense también está tratando de promulgar reglas para esta tecnología de autoaprendizaje.
El eurodiputado asegura que también se mantiene en contacto con sus colegas de EE.UU. «Al final del día, queremos crear estándares significativos y no competir entre nosotros», dice Reparsi. Las empresas tecnológicas estadounidenses tienen mucho capital, enormes cantidades de datos y una supremacía única que quieren defender. Pero eso no significa que las reglas europeas impidan que las nuevas empresas de la UE desarrollen aún más la IA, opina Repasi: «El hecho de que tantos gigantes tecnológicos tengan su sede en EE.UU. tiene un poco más que ver con los mercados en los que operan los monopolistas que con la cuestión de dónde reside la mayor innovación».
Advertencias sobre la IA
Uno de los padres de la IA, el exempleado de Google Geoffrey Hinton, advirtió recientemente en entrevistas sobre los peligros de su propia creación. La IA generativa podría ser pronto más inteligente que los humanos que la crearon. Los cambios para el mercado laboral aún no son previsibles. Incluso los desarrolladores de los sistemas y los altos directivos de Microsoft o Google admiten que ya no saben exactamente cómo funcionan las aplicaciones con inteligencia artificial. En una carta abierta, investigadores y empresarios, incluido el propietario de Twitter, Elon Musk, sugirieron tomarse una pausa hasta fin de año para establecer límites en el desarrollo de la IA.
La UE está respondiendo con una nueva ley que ha estado en discusión durante dos años. En principio, prevé dividir las aplicaciones de IA en diferentes clases de riesgo. Se prohibirán los sistemas de alto riesgo que analizan y predicen de manera inaceptable el comportamiento social de las personas. Los sistemas de riesgo deben estar sujetos a reglas y límites. Las aplicaciones simples, y esto probablemente también incluiría a generadores de texto como ChatGPT, no deberían estar muy restringidas. Sin embargo, se deben marcar todos los servicios que se generan con IA.
Ley en dos años
Hasta principios de 2025 no podrá entrar en vigor la ley europea sobre IA. Necesita la aprobación no solo del Parlamento Europeo, sino también de los 27 Estados miembros de la UE. Desarrollos de IA como ChatGPT aún no estaban en el mercado hace dos años y podrían estar ya avanzados para cuando la normativa entre en vigor en la UE, afirma el eurodiputado Axel Voss. «Pero el desarrollo es -de hecho- tan rápido que gran parte de él ya no cabrá en el momento en que la ley entre realmente en vigor», declaró a DW en abril.
Voss lleva años trabajando en inteligencia artificial para el partido alemán CDU y es uno de los principales autores de la «Ley de inteligencia artificial» de la UE. Voss advierte de un funcionamiento con prohibiciones rígidas: «En realidad, necesitamos -por razones competitivas y porque ya vamos rezagados- más espíritu de optimismo para ocuparnos intensamente de la IA. Pero lo que dice una mayoría del Parlamento Europeo es que la gente se está dejando guiar por miedos y preocupaciones e intenta excluirlo todo». Los comisarios de protección de datos de los Estados miembros de la UE piden una supervisión independiente de las aplicaciones de IA y nuevos ajustes en la protección de datos.
La ley sobre IA debería ser flexible, según el eurodiputado Reparsi. La cuestión de qué es de alto o menor riesgo en la IA no debería regularse en el propio texto de la ley, sino en el anexo. Éste siempre podría modificarse rápidamente y adaptarse a los avances tecnológicos.