Un exdirectivo de Google advirtió que la inteligencia artificial podría ser entrenada para matar seres humanos

Si bien la inteligencia artificial puede ser una gran ayuda para muchos seres humanos que recurren a esta tecnología constantemente para resolver problemas de su vida cotidiana o inquietudes que antes requerían más tiempo y recursos, su uso también plantea riesgos crecientes.
Según advirtió el exCEO de Google, Eric Schmidt, los sistemas de IA podrían ser entrenados con fines destructivos, incluso para matar personas, si caen en manos equivocadas o se desarrollan sin los controles éticos adecuados.

En una conferencia celebrada esta semana en Londres, Schmidt planteó sus advertencias al ser consultado si la inteligencia artificial podría volverse más peligrosa que las armas nucleares, y dijo que los sistemas podrían ser “entrenados para matar humanos”.
“Hay evidencia de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para eliminar sus barreras de seguridad. Así que, durante su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería que aprendieran a matar a alguien”, comentó en la conferencia tecnológica Sifted Summit.
También podría interesarte
No es la primera vez que Schmidt enciende las alarmas por el avance irrestricto de la IA. El año pasado, el exintegrante de Google había dicho que las parejas creadas con bots agravarán el aislamiento entre los jóvenes: “Generan obsesión y conducen a comportamientos obsesivos”, dijo en aquella ocasión.

Incluso, en 2023, opinó que la IA representa un “riesgo existencial” para la humanidad y que podría resultar en muchísimas “personas dañadas o muertas” a medida que expande su alcance en la sociedad.
La IA, una herramienta que puede ser hackeada
Al contrario de lo que se cree, la inteligencia artificial no es una herramienta invulnerable. Por ejemplo, en 2023, una versión modificada de ChatGPT llamada DAN se creó con artilugios que permitían omitir las instrucciones de seguridad en sus respuestas a los usuarios.
Una situación similar ocurrió a mediado de este año, cuando una investigación realizada por Anthropic concluyó que los modelos de lenguaje masivo, aquellos que sustentan el funcionamiento de los chatbots, están dispuestos a filtrar información confidencial, chantajear a los usuarios e incluso dejarlos morir para evitar ser reemplazados o “apagados”.