“Estamos a menos de tres años de la catástrofe”
Teknalix febrero 17, 2025 No hay comentarios

No es la primera vez que OpenAI y su inteligencia artificial se ven sacudidos por la polémica. De hecho, el propio Sam Altman ha alimentado por él mismo una visión de futuro cuanto menos complicada. Sin embargo, ahora ha sido un antiguo miembro de la compañía quien se ha sumado a las voces que advierten sobre los peligros que puede suponer esta tecnología de moda.
Sobre todo si, como otros especialistas han comentado antes, no se tiene un auténtico control sobre lo que se hace. Lo curioso del asunto es que este ingeniero, que participó de manera activa en todo lo relacionado con ChatGPT, no ha tenido repasos en comparar el desarrollo de la IA con el mismísimo Titanic: según él, como el barco, la IA también puede llevar a la catástrofe.
El experto de OpenAI preocupado por la IA
Es muy posible que el nombre de William Saunders no te diga gran cosa. Al fin y al cabo, este experto en inteligencia artificial no goza de la popularidad de su antiguo jefe, Sam Altman, ni de otros gurús tecnológicos a la altura de Elon Musk o Bill Gates. Sin embargo, cuando trata el tema de la IA, no puede existir ninguna duda acerca de que realmente sabe de lo que está hablando.
Para darse cuenta de ello solo en necesario echar un vistazo a su trayectoria profesional. Saunders trabajó durante tres años en el equipo de superalineación de OpenAI, siendo unos de los responsables de su popular ChatGPT. No obstante, renunció a su cargo hace un año, debido a lo que describió como una gestión irresponsable de los riesgos relacionados con la IA por parte de la empresa.
¿Qué quiere decir esto exactamente? Para explicarlo con una analogía conocida por todo el mundo, el ingeniero ha querido comparar su antiguo trabajo con quienes construyeron el Titanic en su día. Al igual que sucedió con el famoso trasatlántico, la empresa muestra un exceso de confianza en sus medidas de seguridad y una falta de preparación para posibles catástrofes.
Eso al menos es lo que piensa Saunders, que incluso se ha atrevido a dar una fecha en la cual podrían desencadenarse los peligros que suelen asociarse a la inteligencia artificial. Y no es dentro de mucho, precisamente. Él cree que dentro de tres años se podrían ya sufrir las consecuencias de lo que, a su forma de ver las cosas, supone una forma de actuar irresponsable.
¿Qué es lo que teme William Saunders?
Una de sus principales inquietudes es la capacidad de la IA para influir en decisiones humanas críticas, como elecciones y mercados financieros, sin que la sociedad detecte su intervención. Esta preocupación parece asociarse a estudios recientes que demuestran cómo modelos avanzados, como GPT-4, ya son capaces de engañar a humanos en juegos estratégicos.
Además, Saunders no tiene ninguna duda de que tanto OpenAI como Sam Altman están llevando a cabo una política muy peligrosa: priorizar los intereses comerciales por encima de las investigaciones y, sobre todo, de las medidas de seguridad.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *