EL JEFE DE INTELIGENCIA ARTIFICIAL DEL PENTAGONO ADVIRTIO SOBRE LOS PELIGROS DE ChatGPT:»ESTOY ATERRADO»

Craig Martell, jefe de inteligencia digital y artificial del Departamento de Defensa de Estados Unidos, se mostró asustado por los avances de herramientas como ChatGPT y advirtió que los modelos lingüísticos generativos de IA podrían ser utilizados con objetivos de desinformación.

“Sí, estoy muerto de miedo. Aterrado. Esa es mi opinión”, declaró Martell esta semana en una conferencia de prensa realizada en Baltimore en la que se habló sobre los problemas que plantea el uso de la inteligencia artificial.

“Mi mayor temor sobre ChatGPT es que ha sido entrenado para expresarse con fluidez y lo hace con autoridad. Así, es creíble incluso cuando está equivocado. Y eso significa que es una herramienta perfecta para la desinformación”, expresó.

Esta revolucionaria tecnología permitió que cualquier persona con acceso a Internet pueda generar cualquier tipo de texto. Aunque también presenta contras ante las que se debe prestar especial atención: en función del registro que obtenga sobre un determinado tema, alguna información puede resultar errónea o puede malinterpretar las consignas, por ejemplo.

Martell explicó que ante las respuestas o contenidos generados por ChatGPT, el contexto se pierde. Por ende, la gente puede malinterpretar sus palabras y tomarlas como hechos verdaderos, ya que están formuladas desde un supuesto lugar de autoridad. Y aunque la información resulte falsa o errónea, muchos usuarios pueden asumir que los datos proporcionados son reales.

“Realmente necesitamos herramientas para poder detectar este tipo de comportamientos de la inteligencia artificial. Lamentablemente, todavía no contamos con ellas y estamos perdiendo la batalla”, afirmó el funcionario del gobierno de Estados Unidos.

Martell, que tiene amplia experiencia en el desarrollo de inteligencias artificiales en empresas del sector privado, imploró a la industria que cree las herramientas necesarias para garantizar que la información generada a partir de todos los modelos generativos de IA -desde el lenguaje hasta las imágenes- sea precisa. El experto hizo referencia a creación de fotos falsas de hechos que nunca sucedieron o a la clonación de voces.

“Si se le pregunta a ChatGPT ‘¿Puedo confiar en tus respuestas?’, contestará con un rotundo ‘no’. Aunque ChatGPT aclara que es una herramienta y que los usuarios deber verificar ellos mismos la información brindada, mi temor es que confiemos demasiado en ella sin que los proveedores del servicio y sus desarrolladores incorporen las salvaguardas adecuadas. Y así, puede ser usada por nuestros enemigos para desinformar”, expresó Martell.

La advertencia del Departamento de Defensa se produce en un momento en que los altos mandos del Pentágono están anticipando formas de utilizar la IA generativa para la recopilación de información y futuras aplicaciones bélicas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *