«No se puede aplicar la IA solo con fines comerciales»

«No se puede aplicar la IA solo con fines comerciales»

La inteligencia artificial (IA) promete transformar, de forma radical, la realidad misma de las personas. Su desarrollo y democratización permitirá aumentar la riqueza, eso desde luego. Pero, si se emplea de la forma adecuada, también puede mejorar la asistencia sanitaria, reducir la jornada laboral e, incluso, marcar la diferencia en la lucha contra el cambio climático. Al menos, eso es lo que esperan numerosas empresas dedicadas a su desarrollo y grandes gurús de internet, como es el caso del cofundador de Microsoft Bill Gates o de Sam Altman, director ejecutivo de OpenAI y principal culpable del aluvión de herramientas generativas que han llegado a la red en los últimos meses. Todo gracias al estruendoso éxito del robot conversacional ChatGPT, que ha acelerado el desarrollo de la tecnología hasta puntos insospechados.

A pesar de que todo lo bueno que, se espera, traerá consigo, el empleo y desarrollo de esta tecnología también puede representar riesgos en la aplicación que hagan personas u organizaciones de ella, según señala Richard Benjamins, responsable de IA en Telefónica. Por un lado, destaca el posible empleo de inteligencia artificial por parte del cibercrimen para engañar a la sociedad mediante la generación de audios y vídeos falsos.

Asimismo, otro riesgo son los efectos negativos, no intencionados, que pueden provocar los sesgos que pueden tener los modelos en base a su entrenamiento con datos, lo que puede acabar vulnerando los derechos de las personas en función de minorías, la raza, el credo o el género, entre otros, que se ha manifestado puede influir por ejemplo en la asignación de créditos financieros o la predicción de criminalidad en barrios concretos. El tercer riesgo es el de aplicar la IA sólo con un fin lucrativo y no impulsar el desarrollo de la IA desde un punto de vista ético.

Noticias relacionadas

«Aplicar la IA sólo con fines comerciales y no para resolver los problemas grandes de nuestro tiempo como el cambio climático, las pandemias, los desastres naturales, la pobreza, y la desigualdad, es un peligro. Actualmente la inversión en IA comercial es enorme, mientras que la inversión en temas sociales o ambientales es anecdótica y soportada por la filantropía», señala el ejecutivo de la teleco española.

Para minimizar todos estos peligros, tanto empresas como científicos y académicos llevan meses reclamando a los estados la regulación de la tecnología. «Si esto sale mal, puede salir muy mal», advertía la pasada primavera Sam Altman durante una vista ante el Senado de Estados Unidos. El ejecutivo detrás del desarrollo de ChatGPT incluso ha llegado a señalar que el desarrollo de la IA puede terminar desembocando en la llegada de un nuevo algoritmo que sea capaz de superar a cualquier ser humano en conocimientos, y que este podría terminar convirtiéndose en un peligro para la supervivencia de la humanidad. Sin embargo, por el momento, no está nada claro que esa amenaza pueda llegar a ser real.

«El que la inteligencia artificial avance no implica que pueda, por ejemplo, desarrollar la tendencia de dominar el mundo. Somos los humanos los que la creamos y la orientamos. Es una herramienta», señala Juan Bernabé-Moreno, director de IBM Research en Europa. El investigador tampoco cree que, por el momento, la creación de una IA de esas características sea posible: «No estamos en ese punto. Se pueden ver algunos atisbos de razonamiento en los datos, pero todavía sigue siendo un área de investigación. Yo creo que queda tiempo todavía». En su opinión, hay que preocuparse por controlar los peligros reales antes que los hipotéticos y preparar a la sociedad, que será capital para que la tecnología no termine convirtiéndose en un problema. Especialmente en el mundo laboral.

Explicar las decisiones

El objetivo del Gobierno de España es que, para 2025, el 25% de las compañías nacionales utilicen la IA y el Big Data en sus negocios. Eso permitirá que el trabajo se aligere y que las empresas puedan ser más productivas. Sin embargo, es capital que todo el proceso de capacitación se haga de forma transparente. Sí, por ejemplo, una máquina decide si una persona tiene acceso a un determinado puesto de trabajo, o a un ascenso, debe saber bien cuál es el funcionamiento de la herramienta que toma esa decisión. Y eso solo es posible con transparencia.

«Cuando un negocio usa IA debe explicar por qué y cuáles son los beneficios de ese sistema. También los principios en los que se basa a la hora de emplearlo, como puede ser la búsqueda de la equidad. Y, evidentemente, hay que explicar cómo toma las decisiones, para que quede claro que no beneficia a nadie», apunta Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja. Rouyet reconoce que la IA va a transformar el mercado laboral.

De acuerdo con Goldman Sachs, unos 300 millones de empleos se verán afectados. Otros estudios apuntan que el desarrollo de este tipo de herramientas provocarán el surgimiento de nuevos puestos de trabajo. «Se destruirá empleo y se generará, habrá un poco de las dos cosas», apunta. Que la apuesta por la tecnología no se convierta en un problema dependerá mucho de la apuesta que hagan las empresas, y sobre todo la administración, para «capacitar a los ciudadanos».

Para minimizar los riesgos del uso de la tecnología, efectivamente, es imprescindible la regulación. Hace escasos días la UE consiguió sacar adelante un principio de acuerdo para la aprobación de su Ley de IA, que se espera que entre en vigor dentro de dos años. La normativa controlará los usos de la tecnología y obligará a las empresas de desarrollo a ser más transparentes sobre el funcionamiento de la tecnología. También limita el uso de tecnología de reconocimiento facial en espacios públicos y prohíbe directamente todas aquellas herramientas que puedan influir de forma negativa y premeditada en el usuario.

Enlace de origen : «No se puede aplicar la IA solo con fines comerciales»