IA: ¿Tiene la humanidad que temer por su supervivencia?

La Inteligencia Artificial (IA) está acaparando los titulares y fascina tanto como preocupa, especialmente desde que los LLMs (Large Language Models), ChatGPT a la cabeza, han irrumpido en la sociedad hace unos meses. Llaman la atención las advertencias recientes de los dirigentes tecnológicos acerca de los graves riesgos que la IA implica para la humanidad, empezando por los de las dos empresas líderes en este campo: 

«Los peligros de la IA me mantienen despierto por la noche.»

SundarPichai, CEO de Google

«Estamos un poco asustados.»

Sam Altman, CEO de OpenAI

Altman añadía: «Encuentro que la gente debería estar contenta de estemos un poco asustados» – lo cual sugiere que estas advertencias, aunque tal vez sinceras, forman parte de una estrategia de comunicación que tiene como objetivo reforzar su imagen de líderes responsables. 

También Elon Musk expresa desde hace varios años preocupaciones al respecto, y, más recientemente, ha hecho una llamada a favor de una regulación –hasta de una moratoria– del desarrollo de la IA. Como siempre sucede con el CEO de Tesla, SpaceX, Twitter y Neuralink, estas afirmaciones van envueltas de contradicciones que nos invitan a acogerlas con cautela. 

Vídeo Geoffrey Hinton, uno de los padres de la IA generativa que dejó su empleo en Google el mes pasado 

Pero ¿de qué riesgos estamos realmente hablando? Se suele mencionar la desinformación a gran escala, ciberataques, deep fakes, etc. 

Sin embargo, a pesar de que se trate de amenazas existenciales para nuestra especie, se echa en falta una visión sistemática y profunda de estos riesgos. 

En esta nueva edición de OFF vamos a considerar 3 grandes categorías de riesgos

ESCENARIO 1 | La IA como arma en manos de los humanos 

ESCENARIO 2 | La IA escapa al control de los humanos 

ESCENARIO 3 | Dependencia extrema de la IA y vulnerabilidad 

ESCENARIO 1 | La IA como arma en manos de los humanos 

«Hola ChatGPT 5.0: aquí tienes un fichero con datos sanitarios, psicográficos y relacionales de 200.000 pacientes. Emite una llamada y habla con cada uno de ellos imitando a la perfección la voz de su médico y diles que se tomen un fármaco que contravenga a su tratamiento.»

Ya en 2018, los mayores expertos en seguridad vinculada a las tecnologías emergentes alertaban sobre la posibilidad de que la IA se convirtiera en un arma fácilmente accesible por criminales, terroristas o Estados canallas, permitiéndoles: 

1. Aumentar la escala de ataques al abaratar su coste. 

2. Incrementar el número de objetivos y la cadencia de ataques. 

3. Ampliar el espectro de actores susceptibles de perpetuar ataques. 

En este escenario, la IA es utilizada de forma malintencionada por humanos para agredir, robar o sembrar el caos. Esto incluiría ataques contra: 

  • La seguridad digital: se aprovecharía la IA para penetrar en sistemas informáticos o identificar vulnerabilidades humanas y aprovecharse de ellas. Imagina que recibes la videollamada de un amigo que te pide ayuda con algo muy íntimo que únicamente tú y él conocéis, pero resulta ser un deep fake, que es indisociable de la realidad y que sería muy fácil de manipular. Para hacerte una idea te recomiendo escuchar Titania, el recién thriller audio de Podium Podcasts. 

  • La seguridad física: la IA permite automatizar ataques perpetuados por o contra vehículos autónomos, sistemas industriales, viviendas domotizadas o infraestructuras esenciales como hospitales, que dejarían de funcionar. Cuanto más conectadas todas las instalaciones, más vulnerables.  

  • La seguridad política: la manipulación política alcanzaría dimensiones industriales (el escándalo de Cambridge Analytica, al lado, sería una anécdota), trabando el acceso a una información veraz, imposibilitando elecciones justas, sesgando los procesos políticos – en definitiva, desestabilizando los fundamentos de nuestras democracias. 

 

Los Estados también son susceptibles de usar la IA con fines hostiles. No por nada declaró Putin en 2017 que “el país que se sitúe a la cabeza de la carrera de la IA será el dueño del mundo”. La IA permitirá también recaudar y procesar datos personales a grandísima escala (incrementando el poder de los Estados, democráticos o no, sobre sus ciudadanos). 

ESCENARIO 2 | La IA escapa al control de los humanos  

«Las máquinas podrían arrebatar el poder a las personas, dirigirlas, esclavizarlas, y por qué no, exterminarlas»

Anthony Aguirre, director del Future of Life Institute

Recordemos que la IA generativa se caracteriza por aprender y hacer cosas por sí sola, con cada vez menos supervisión humana. En este tipo de escenario, la IA toma las riendas, con consecuencias mprevisibles.  

Esto puede incluir:

  • Accidentes de laboratorio. Pensemos, por analogía, en accidentes nucleares o biológicos, donde una reacción en cadena sobrepasa el entorno confinado de una planta nuclear o de un centro de investigación. Uno de los principios clave para entender este escenario es la capacidad de la IA de autorreplicarse, aplicada a la robótica o la biotecnología.  

 Se conoce como plaga gris (grey goo problem en inglés) el escenario en el que nanorrobots se replicarían de forma infinita, absorbiendo todos los recursos del planeta. Más sutilmente, una IA podría ser utilizada para concebir un herbicida «perfecto» y desplegar esa sustancia que destrozaría todos los vegetales del planeta.  

  • La IA malinterpreta instrucciones humanas. En este escenario, la IA recibe órdenes que aplica al pie de la letra, pero la falta de precisión de éstas o la desalineación de la IA con los valores humanos le lleva a aplicar soluciones erróneas. 

 El filósofo Nick Boström imagina una máquina superinteligente encargada de producir el mayor número posible de clips sujetapapeles, y consume todos los recursos del universo para llevar a cabo su misión. En otro escenario, se encarga a una IA resolver el problema del cambio climático y ésta, considerando que el problema son los humanos, procede a exterminarlos para cumplir con su misión.  

  • IA hostil. Este tipo de escenario presupone un salto hacia la IA General (IAG) en el que ésta es capaz de marcar sus propios objetivos como la autopreservación y la adquisición de recursos para cumplir sus cometidos. Filósofos como Nick Boström advierten de la imposibilidad de que dos especies inteligentes convivan, y por tanto humanos e IA entrarían en un conflicto del que ésta, liberada del dominio de los primeros, probablemente saldría ganando.  

Una IA hostil podría ser letal de forma mucho más sutil que Terminator: «para un programa informático con una imaginación intelectual colosal con respecto a la nuestra, explica Kai-Fu-Lee, […] el conocimiento profundo de la química, de la física y de las nanotecnologías le permitirían alcanzar sus objetivos al instante».

ESCENARIO 3 | Dependencia extrema de la IA y vulnerabilidad

¿Alguna vez te has sentido totalmente desorientado al haberte quedado sin tu smartphone, ya sea porque se te ha estropeado o te lo has olvidado? Muchas personas en esta situación ya no son capaces de ir de un punto A a un punto B sin su GPS; se han olvidado de cómo levantar la mano para pedir un taxi; no recuerdan datos esenciales como números de teléfono; no pueden realizar pagos porque ahí tienen metida su tarjeta virtual, etc. Aún así, todavía consiguen superar este disgusto hasta que consiguen recuperar su dispositivo.

¿Seríamos capaces de sobrevivir en el caso de que esta dependencia de la IA y la tecnología fuera mucho mayor? Desde la salida de ChatGPT observamos cómo cada vez más personas usan el servicio como sustituto al pensamiento propio. Mientras tanto, empresas como Neuralink están desarrollando implantes neurotecnológicos con el objetivo de que la IA entre en el cerebro humano.  

>> En un escenario en el que dependiéramos de la IA para desempeñar funciones cognitivas y hasta biológicas básicas, ¿qué sucedería si dejase de funcionar, aunque fuera durante unos minutos, ya sea debido a un accidente externo incontrolable (como una tormenta solar) o un acto malintencionado? 

Este escenario preocupa también por su potencial escala. El experto en ciberseguridd de Harvard, Bruce Schneier, advierte que, si se detecta una vulnerabilidad en un iPhone, todos son inseguros. Si casi todos los objetos son conectados y nuestra vida depende de ellos hasta el punto de que no sabemos vivir sin ellos, esto nos da una idea de lo frágiles que seríamos frente a un fallo en la IA.   

«La IA será lo mejor o lo peor que le haya sucedido jamás a la humanidad».

Stephen Hawking

De hecho, si no establecemos cortafuegos políticos robustos, es probable que ocurran tanto lo mejor como lo peor. Sin embargo, si lo peor se refiere a la extinción de la humanidad o a escenarios apocalípticos, lo mejor tendrá poco valor.

OFF #7 | La newsletter para retomar el control

Junio 2023

Suscríbete a OFF, la newsletter para retomar el control.

Una vez al mes, propongo una reflexión sobre una faceta específica de la influencia de la tecnología digital en nuestras vidas para ayudar a entender mejor la transformación acelerada de nuestro día a día.

¿Te ha interesado?