¿el Santo Grial o la caja de Pandora?

Teknalix febrero 23, 2025 No hay comentarios

¿el Santo Grial o la caja de Pandora?

Según una encuesta realizada por el Future of Humanity Institute a 352 investigadores de IA, la mediana de las estimaciones para cuándo se logrará la inteligencia artificial general (AGI) es alrededor del año 2040, aunque las opiniones varían ampliamente. Según la encuesta de los casi 1.500 pronosticadores de Metaculus, no se espera que se alcance hasta 2030.

Si has estado leyendo los medios tecnológicos estos meses, ha quedado claro que la búsqueda de la AGI se ha convertido en la nueva carrera espacial del siglo XXI

Empresas, gobiernos y expertos de todo el mundo compiten por desarrollar una inteligencia artificial que pueda igualar o superar la capacidad humana en cualquier tarea. Pero, ¿está la humanidad realmente cerca de alcanzar este hito? Y, sobre todo, ¿está preparada para sus posibles consecuencias?

Según un informe de Stanford University’s Institute for Human-Centered AI, “a pesar de los avances significativos en IA, estamos aún lejos de crear sistemas que puedan igualar la flexibilidad y amplitud de la inteligencia humana”.

Miguel López, director para el Sur de EMEA en Barracuda Networks, comparte esta visión en una entrevista para Computer Hoy: “Lograr una Inteligencia General Artificial (AGI) es un objetivo complejo y ambicioso. Aunque sin duda veremos progresos importantes, alcanzar una AGI completa en esta década podría ser demasiado optimista”.

Riesgos inteligencia artificial fin de la humanidad

El estado actual de la AGI: más cerca que nunca, pero aún lejos

Pese a esto, se trata de una carrera y las grandes empresas tecnológicas están invirtiendo todo en el desarrollo de la AGI. DeepMind de Google, OpenAI —respaldada por Microsoft—, y Anthropic son algunos de los líderes en este campo. Por supuesto, esto en el lado de EEUU, porque hay que recordar que también ha entrado en el juego DeepSeek por parte de China. De Europa mejor ni comentarlo.

En esta carrera tecnológica, Europa parece estar quedándose atrás. “Actualmente, nuestro papel en esta tecnología es básicamente el de mero consumidor”, señala López. “Si no nos ponemos manos a la obra inmediatamente perderemos el tren… si es que no lo hemos perdido ya”.

Sin ir más lejos, y según un informe de la Comisión Europea, mientras EEUU y China invierten anualmente entre 20.000 y 30.000 millones de euros en investigación y desarrollo de IA, la inversión en Europa se estima en solo 3.200 millones de euros.

Y es que precisamente hablando de nuestro continente, que recordemos que tiene la Ley de Inteligencia Artificial activa, a medida que esta tecnología avanza, surge la duda sobre cómo regular y controlar una AGI. López advierte: “La preparación de gobiernos e instituciones para regular la AGI varía, y aunque muchos reconocen la necesidad de marcos regulatorios, la complejidad y el rápido avance tecnológico dejan atrás la capacidad regulatoria de la mayoría de los países”.

Stuart Russell, profesor de Ciencias de la Computación en UC Berkeley, ya ha expresado este mismo aspecto: “Necesitamos un esfuerzo global coordinado para garantizar que la AGI se desarrolle de manera segura y beneficiosa para la humanidad”.

En cuanto a sus pros y contras, hay de todo, desde innovaciones revolucionarias para problemas globales hasta riesgos extremos para la humanidad. El experto entrevistado advierte: “Podemos imaginar múltiples escenarios que van desde un impacto muy positivo para el desarrollo humano a otros mucho menos halagüeños y distópicos… Pero lo cierto es que, muy probablemente, la realidad nos sorprenda con algo que siquiera se nos ha ocurrido”.

La AGI tiene el potencial de ser tanto el Santo Grial de la tecnología como una caja de Pandora

Seguramente muchos se hagan también la pregunta de por qué algo podría salir mal si se está hablando de una tecnología que es el propio humano el que la está desarrollando, el que la puede reconducir e incluso modificar.

Pues bien, una de las grandes razones de este miedo es la incertidumbre intrínseca al desarrollo de una inteligencia que podría superar la nuestra. Como explica el filósofo Nick Bostrom en su libro Superinteligencia: Caminos, peligros, estrategias, una AGI podría evolucionar más allá de nuestro control, tomando decisiones y acciones que no se pueden prever o entender completamente. 

Esta “explosión de inteligencia” podría dejar a la humanidad en una posición vulnerable. Por otro lado, entra de lleno algo realmente peligroso y es el propio interés de los grandes países y empresas. En un principio todos parecen buscar una IA buena para la humanidad, pero nunca se sabe. Además, esto evoluciona tan rápido, la carrera por lograrla es tan feroz y las empresas están invirtiendo tanto para ello que se podrían dejar a un lado los intereses humanos con tal de ser el primero.

ChatGPT en laptop

Finalmente, hay un miedo existencial muy profundo: la posibilidad de que una AGI pueda dejar a un lado a la humanidad. Este escenario, aunque realmente complicado de que ocurra, está sobre la mesa como una pequeña posibilidad de que todo pueda estar controlado por esta, dejando al humano totalmente inutilizado.

En palabras del entrevistado: “Lo que está claro es que la probabilidad de enfrentarnos a escenarios problemáticos se incrementa exponencialmente si no se establecen medidas de supervisión y control en el desarrollo de esta tecnología”.

Como dijo el físico Stephen Hawking: “La inteligencia artificial podría ser lo mejor o lo peor que le ha pasado a la humanidad”. Nuestro gran objetivo es asegurarnos de que sea lo primero si posible.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Entrevistas, Inteligencia artificial

Etiquetas :