Algunas consecuencias sociales del uso de la Inteligencia Artificial, según David Wright

La segunda jornada del 32 NEC Forum sobre Ética, celebrado en Madrid, dedica un espacio importante al uso y aplicación de la Inteligencia Artificial (IA) en las sociedades avanzadas, desde el enfoque de las personas investigadoras.

David Wright, Trilateral Research Founder and Chief Research Officer, ha sido uno de los ponentes de la mañana. Su intervención ha versado sobre las consecuencias sociales del uso de estas Inteligencias, de manera que voy a resumir algunas de sus conclusiones.

Para comenzar, cita al autor Mustafa Suleyman, quién aborda los problemas que se van a derivar (los considera riesgos) debido al uso de la IA, que está realizando profundos cambios sociales, y de manera muy veloz. Incluso afirma que hay una gran ola que se nos viene encima, y nos realiza una serie de advertencias, comenzando por la siguiente pregunta:

¿Cuánto tiempo falta para que la IA sepa más que nosotros? Más luego responde, en tono hilarante, que «bueno, ya sabe más que nosotros».

Vamos a esas consecuencias/advertencias:

La IA se está usando para entrenar los correos electrónicos, con los consiguientes riesgos para la clientela de estos servicios de correo. También advierte sobre los riesgos para la privacidad de las personas usuarias de estos servicios.

La IA proporciona consejos y orientaciones que pueden no ser los mejores, ¿sabremos distinguirlos?

La IA puede manipular la opinión de las personas votantes, a través de la selección de los contenidos informativos de acceso.

Se está dando un uso a la IA (en determinadas situaciones) que promueve la violencia: por ejemplo, los casos de desnudos de mujeres creados con IA que vemos actualmente que están generando situaciones de perjuicio en el colectivo femenino de la sociedad.

Advierte, David, que es posible que esta IA promueva seres humanos más perezosos, con todos los riesgos asociados para la salud.

En la actualidad falta regulación legal, y también reflexión y regulación Ética, pues el avance está siendo mucho más rápido que la reflexión y la regulación normativa. Necesitamos garantías legales y garantías éticas.

También nos advierte Wright sobre los riesgos medioambientales del uso de la IA, ya que consume grandes cantidades de energía…, ¿Qué impacto puede tener esto para el medio ambiente y para el cambio climático?

Aun se está investigando sobre las consecuencias de la IA en la sociedad, y se deben desarrollar los factores y riesgos sobre cómo equilibrar innovación y protección, y la bioética debe permanecer muy cerca de estos avances para ofrecer las garantías debidas para evitar caer en manos de las grandes corporaciones que manejan estos lobbies de IA (fundamentalmente en EE.UU y en China).

Finaliza David preguntándose en voz alta:

¿Cuáles son las posibilidades de que la IA se deslice por una pendiente resbaladiza (escala) escalofriantemente perniciosa para la humanidad? A continuación responde que existe un riesgo que va entre el 10-25% de que se torne negativa para nuestra especie, lo cual merece una especial atención y reflexión.

Necesitamos una Agencia Pública que regule legalmente el uso, desarrollo y avance de la innovación que proporcionan estas Inteligencias, y también es necesaria una regulación Ética, para no dañar a los seres humanos, y para orientarse hacia el bien común y el bienestar de los seres humanos. Mañana es tarde.

Notas tomadas in situ por Inmaculada Asensio Fernández, Directora de la Estrategia Ética de los Servicios Sociales de Andalucía.

Deja un comentario