Inteligencia artificial: Europa marca el camino
La Unión regula el uso de esta nueva tecnología protegiendo los derechos fundamentales, pero sin frenar su desarrollo
La Unión Europea va a ser la primera región del mundo que regule la inteligencia artificial (IA) de una manera integral. No se trata de echar una carrera con nadie, pero la iniciativa es importante, porque Europa es ahora mismo el único contrapeso creíble al tradicional laissez faire de Estados Unidos, la sede de las mayores empresas del sector, que también son los gigantes de la economía mundial. El Parlamento Europeo ha conseguido incluir restricciones importantes a esta tecnología poderosa y preocupante, aunque los Estados miembros también han logrado preservar su derecho a usarla en asuntos de seguridad nacional y persecución del crimen.
El aspecto que ha suscitado más discusión, como atestiguan las 36 horas que duraron las negociaciones en Bruselas, es la restricción de la vigilancia biométrica. Esta alude a los sistemas que reconocen una cara midiendo la distancia entre los ojos, el tamaño de la nariz o su distancia a la boca en cualquier orientación que capte una cámara. La técnica comete algunos errores, sobre todo con minorías étnicas, pero con el despliegue de cámaras que anega cualquier ciudad actual, la vigilancia biométrica ofrece a los gobiernos una oportunidad tentadora de controlar a sus ciudadanos. Se pueden plantear argumentos similares sobre los sistemas de reconocimiento de emociones en las empresas y las escuelas. Finalmente, la ley prohibirá los sistemas que supongan “riesgos inaceptables” para los derechos fundamentales de los ciudadanos, pero los Estados podrán utilizar sistemas de vigilancia biométrica en espacios públicos para identificar a víctimas de secuestros o tráfico sexual y en caso de amenaza terrorista “genuina”.
Una cuestión distinta son los llamados “modelos fundacionales”, los que subyacen a ChatGPT, el famoso conversador digital, y a muchos otros sistemas de generación de lenguaje, código computacional, imágenes sintéticas e investigaciones biomédicas. Un modelo fundacional se entrena con masas de datos —por ejemplo, todos los textos que aparecen en internet—, pero después se puede ajustar finamente a muchas tareas concretas. Aquí el regulador no puede entrar como un burro en una cacharrería y prohibirlo todo —aunque sí exige que se cumpla la ley de derechos de autor de la UE—, porque estos modelos son esenciales para la innovación, y Europa no puede quedarse atrás en este sector. Es una de las mayores industrias de las próximas décadas.
La alarma social que ha generado la inteligencia artificial se basa casi enteramente en sus usos aberrantes, como la generación automática de bulos virales o los falsos desnudos de las compañeras de clase. La mayor parte de estos abusos no demandan una regulación específica de la IA, sino la mera aplicación eficaz de las regulaciones que ya existen contra la manipulación, la propagación del odio y la violación de la intimidad. Una apuesta pedagógica por la educación ciudadana y el acceso a las redes haría más por resolver esta cuestión que una ley restrictiva del avance tecnológico. Culpar de cualquier cosa a la inteligencia artificial es una actitud evasiva. Y la plaga de la desinformación no va a desaparecer por muchas regulaciones cibernéticas que adopte Europa.
La nueva ley europea no estará en pleno vigor antes de tres años. Ahora mismo, nadie tiene ni idea de cómo será la inteligencia artificial para esa fecha. En materia de ciencia y tecnología, el regulador está condenado a ir corriendo detrás de unos avances de velocidad creciente. Una buena ley de inteligencia artificial debe incluir un mecanismo que la permita evolucionar con rapidez. Europa marca el camino.
Fuente: El Pais