La IA, a la espera de unos límites universales

La IA, a la espera de unos límites universales

No es la primera vez que la humanidad se ha planteado los límites del desarrollo tecnológico o, al menos, dónde se han de situar para proteger el mundo. Isaac Asimov lo hizo en los años 40 con los principios de la robótica, una década después el Organismo Internacional para la Energía Atómica (OEIA) nació para velar por la seguridad nuclear, a finales de los 90 vieron la luz agencias de protección de datos y ya en el siglo XXI marcos normativos para protegerlos. Ahora, la inteligencia artificial (IA) parece ser el nuevo objetivo, porque «es el riesgo número uno para este siglo», afirmó en 2011 el científico jefe de DeepMind (Google), Shane Legg, y, además, supondría controlar una tecnología que podría elevar la productividad mundial anual entre 2.300 y 4.400 millones de euros.

De «riesgos existenciales» llegan a hablar los padres de la ‘criatura’. Todos ellos han pedido regulación y medidas urgentes para abordar los peligros. «Trato de ser sincero. ¿Estoy haciendo algo bueno? ¿O realmente malo?», ha reflexionado Sam Altman, fundador de OpenAI, en varios foros públicos. Y es que los algoritmos que dan vida a esta nueva tecnología se han multiplicado por cien millones y son capaces de resolver desde una ecuación de segundo grado hasta detectar un cáncer de mama precoz. Un universo que alcanza cientos de miles de millones de inversión y que revolucionará la economía mundial. Por poner un ejemplo, Amazon acaba de desembolsar 4.000 millones en una ‘startup’ que desarrolle sus infinitas posibilidades, pero sus creadores alertan de su otra cara.

Advertencias que han sido recogidas desde el sector público y también del privado. «No podemos dejarla ir sola», advirtió el pasado mes de mayo el presidente de Telefónica, José María Álvarez-Pallete. «Expertos han pedido que el mundo actúe, declarando la IA una amenaza existencial para la humanidad, al nivel del riesgo de guerra nuclear. Debemos tomarnos esas advertencias en serio», afirmó António Guterres, secretario general de Naciones Unidas, meses más tarde. «Será complicado lograr una armonización», apuntan a este periódico fuentes de Digitales.

«Cuando nos enfrentamos a la emergencia de las tecnologías nucleares había mucho miedo y se podían hacer muchas cosas y no todas aceptables», advirtió Álvarez-Pallete. «Hizo falta un acuerdo global y esto también va a pasar con la inteligencia artificial». Así nació el Organismo Internacional para la Energía Atómica (OEIA) y que ahora se propone como germen para una agencia internacional para la inteligencia artificial o «un foro global de cooperación científica y técnica como se hizo en su momento con el desarrollo la energía atómica», apuntó el presidente de Telefónica. Guante recogido por Naciones Unidas, pero «que depende de los estados miembros».

En la última Asamblea General de Naciones Unidas del pasado mes de septiembre, se dejaron escuchar las primeras voces que apoyan esta medida. En 2017, apenas tres oradores mencionaron la IA durante el debate general. Este año, más de 20 portavoces lo hicieron, en representación de países que van desde Namibia hasta Macedonia del Norte, desde Argentina hasta Timor Oriental.

«Corremos el riesgo de que se convierta en una herramienta de destrucción», aseguró el ministro de asuntos exteriores de Islandia, Thórdís Kolbrún R. Gylfadóttir. Los miedos son comunes, pero la forma de afrontarlos difiere: ¿quizás un panel de expertos en evaluación? ¿O una agencia de vigilancia como el Organismo Internacional de Energía Atómica? ¿Una entidad normativa similar a las agencias de la ONU que regulan la aviación civil y el tránsito marítimo?

«Europa está a la cabeza de este asunto y en España hemos sido pioneros y ya tenemos la AESIA, la primera agencia estatal de supervisión de la IA de la Unión Europea. De este modo España se adelanta al requerimiento que sabemos que vendrá», explican fuentes de Digitales a este periódico.

Desde el 22 de agosto, La Coruña (Galicia) es la sede del supervisor de esta nueva tecnología. Una entidad que será clave en gestionar y liderar el ecosistema español de inteligencia artificial responsable gracias a la supervisión de forma voluntaria hasta la entrada en vigor de la normativa europea. Además, estará encargada de crear entornos de pruebas regulados que permitan desarrollar proyectos innovadores con esta base tecnológica.

De la ética a la regulación

España, con esta iniciativa, se adelanta a la legislación comunitaria que establece que cada Estado miembro de la Unión deberá contar con un organismo supervisor. «Yo lo veo poco realista», contrapone Lorena Jaume-Palasí, fundadora de The Ethical Society y antigua asesora del Gobierno español para la inteligencia artificial. «Estamos en una tecnología transversal y es como mezclar tocino con la velocidad», añade. «No me niego a una regulación, solo que estamos hablando de varias disciplinas y le pides a un ingeniero que se convierta en la vaca que da leche, huevos y bacon».

Por el momento, la Unesco ha desarrollado un marco ético voluntario, pero este mismo carácter es su debilidad. «Es conveniente tener un marco regulatorio», explica Antonio Cimorra, director de Agenda Digital y Estudios Sectoriales de Ametic.

En ese trabajo está inmersa la Unión Europea, que quiere regular esta tecnología para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. Sin embargo, esta asociación es consciente de los retos: «Será complicado lograr una armonización», apunta Cimorra en este periódico.

No obstante, el primer paso se dio el pasado mes de mayo en Hiroshima (Japón) tras la cumbre del G7. En la foto de familia estaban Estados Unidos, Japón, Alemania, Gran Bretaña, Francia, Italia, Canadá y la UE. Sobre la mesa de negociación, una posible alianza para encauzar esta tecnología. «Trabajaremos con empresas de tecnología y otras partes interesadas relevantes para impulsar la innovación responsable», expresaron en un comunicado conjunto.

Enlace de origen : La IA, a la espera de unos límites universales