Google abre la caja de Pandora y elimina su promesa de no utilizar IA para armas y vigilancia
Teknalix febrero 5, 2025 No hay comentarios

La compañía del famoso buscador acaba de dejar a todos con la boca abierta, cambiado oficialmente sus principios éticos sobre inteligencia artificial. La compañía acaba de eliminar de la web su compromiso de no crear tecnologías de IA para armas o sistemas de vigilancia, abriendo la puerta a potenciales colaboraciones en el sector militar y de seguridad nacional.
Pero cuidado porque esta modificación no es algo que simplemente implique un cambio sin más y Demis Hassabis, máximo responsable de Inteligencia Artificial en Google, explicó que la situación geopolítica ha cambiado y existe una carrera en el campo de la IA que demanda un nuevo enfoque.
“Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, afirma Hassabis.
En pocas palabras, Google ya no se compromete explícitamente a evitar que se creen aplicaciones militares de inteligencia artificial. La empresa ahora habla de “mitigar resultados no deseados” y alinearse con principios internacionales de derechos humanos.
La carrera armamentística de la inteligencia artificial ya no es algo de ciencia ficción
Este cambio de Google lo cierto es que engloba algo más grande y es esa simbiosis que comienza a asomar la cabeza entre la inteligencia artificial y su aplicación militar.
James Manyika, vicepresidente senior de tecnología y sociedad de Google, argumentó que “las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”.
Teniendo en cuenta estas palabras, desde luego los de Mountain View no van a girar la cabeza para otro lado, sin embargo, reconocen las necesidades aunque se prevé una mayor disposición de Google a colaborar con agencias gubernamentales en proyectos relacionados con la defensa y la seguridad nacional.
Es más, han confirmado que “se mantendrá coherente con los principios ampliamente aceptados del derecho internacional y los derechos humanos, evaluando siempre el trabajo específico y evaluando cuidadosamente si los beneficios superan sustancialmente los riesgos potenciales”.
Además, en los últimos años, otras grandes empresas tecnológicas han vivido dilemas parecidos sobre el uso de la IA en el mundo militares. Microsoft, por ejemplo, ha mantenido contratos con el Pentágono para el desarrollo de tecnologías de realidad aumentada para uso militar, a pesar de las protestas de algunos de sus empleados.
Seguramente otros sigan los pasos de ahora Google y quizá esto aliente a todos a una regulación de la IA, pero no cabe duda de que esto, básicamente, acelera una peligrosa carrera armamentística que añade leña al fuego en un planeta dividido y con dos grandes figuras que compiten por el trono de la IA: Estados Unidos y China.
Organizaciones de derechos humanos ya han lanzado la voz de alarma por el potencial uso indebido de estas tecnologías, especialmente en países especialmente autoritarios o con una situación política y social inestable. Sin embargo, aquellos que defienden esta nueva política comentan que es vital que las democracias lideren el desarrollo de la IA para garantizar precisamente que estén alineadas con valores éticos y democráticos. Al final, si no lo hacen unos, lo harán otros.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Software
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *