El director ejecutivo de OpenAI, Sam Altman, advirtió a los ejecutivos de Wall Street que los malos actores podrían explotar la autenticación de identificación de voz digital para defraudar a los consumidores al permitir grandes transferencias de dinero, creando lo que él describe como una crisis de fraude inminente.
“Estoy muy nervioso de que tengamos una inminente y significativa crisis de fraude”, dijo Altman durante una conferencia sobre regulación bancaria organizada por la Reserva Federal el martes.
Durante un panel moderado por Michelle Bowman, vicepresidenta de supervisión de la Reserva Federal, Altman dijo que una de sus mayores preocupaciones es que algunas instituciones financieras aceptan la identificación de voz digital como autenticación para que alguien mueva mucho dinero.
LA VISIÓN DE IA DE TRUMP TOMA FORMA A MEDIDA QUE ORACLE Y OPENAI EXPANDEN EL MASIVO PROYECTO DE INFRAESTRUCTURA STARGATE
Subrayó la preocupación por la autenticación falsa, afirmando que «algún malhechor la va a publicar; no es algo muy difícil de hacer. Sucederá muy, muy pronto».
No se trata de una preocupación nueva: los expertos del sector llevan años advirtiendo sobre este problema.
En junio de 2024, la Asociación de Examinadores de Fraude Certificados (ACFE), la organización antifraude más grande del mundo, analizó cómo se puede utilizar la inteligencia artificial para replicar la voz de alguien “con una precisión asombrosa”.
Esta tecnología emplea sofisticados algoritmos y redes neuronales para analizar e imitar los patrones de habla, el tono y la cadencia de la persona objetivo. Si bien los deepfakes comenzaron con contenido visual, como videos falsos de celebridades o políticos, el avance de los deepfakes de audio es ahora una preocupación apremiante, escribió la ACFE, señalando que el uso indebido de voces generadas por IA puede tener graves consecuencias, incluyendo transacciones financieras no autorizadas.
LA INTELIGENCIA ARTIFICIAL IMPULSA LA DEMANDA DE ACTUALIZACIÓN DE LA RED ELÉCTRICA
En la Conferencia RSA 2025 en San Francisco a principios de este año, decenas de miles de profesionales de la ciberseguridad y la tecnología se reunieron para discutir cómo la IA está transformando rápidamente el panorama de la ciberseguridad.
Durante la conferencia, se discutió sobre cómo la tecnología no solo está acelerando la velocidad de los ciberataques (los piratas informáticos a menudo ingresan a los sistemas en menos de una hora), sino que también ofrece a los delincuentes nuevas formas de crear ataques altamente convincentes y personalizados a “una escala sin precedentes”, según la consultora McKinsey.
“La capacidad de los hackers para usar herramientas de IA —desde la creación de correos electrónicos de phishing convincentes, sitios web falsos e incluso vídeos deepfake hasta la inyección de mensajes o código malicioso— permite a los ciberdelincuentes crear mensajes y métodos personalizados y realistas que eluden los mecanismos de detección tradicionales”, afirmó McKinsey en su publicación de blog de mayo de 2025: “La IA es la mayor amenaza —y defensa— en ciberseguridad actual”.
Para detectar, disuadir y detener la suplantación de identidad relacionada con la IA, la Comisión Federal de Comercio (FTC) afirmó haber adoptado varias medidas preventivas, como la finalización de una norma en 2024 para combatir la suplantación de identidad de gobiernos y empresas. También lanzó un concurso de clonación de voz con el objetivo de desarrollar ideas para proteger a los consumidores mediante la detección y la detención del uso indebido de software de clonación de voz por parte de usuarios no autorizados, según la FTC.