Según una experta en fraude, de AARP, la clonación de voz por medio de inteligencia artificial desencadena una “revolución industrial” para los delincuentes

AI speaks and imitates the human voice, text-to-speech or TTS, speech synthesis applications, generative Artificial Intelligence, and futuristic technology in language and communication.
creditText

In English | Según una experta en fraude, de AARP, la clonación de voz por medio de inteligencia artificial desencadena una “revolución industrial” para los delincuentes

La experta principal en materia de fraude de AARP acompañó recientemente a funcionarios de la Casa Blanca y líderes de la industria en una reunión cuyo objetivo es ayudar al Gobierno federal a luchar contra el uso de la clonación de voz a través de inteligencia artificial para cometer fraude.

“El fraude dirigido a los consumidores ya está en un nivel de crisis, y la inteligencia artificial (IA) generativa promete empeorar mucho una situación de por sí grave”, advirtió Kathy Stokes, directora de Programas de Prevención de Fraudes de AARP, en el evento del 31 de enero que llevó a cabo el Consejo de Seguridad Nacional de Estados Unidos.

Stokes dijo que una reciente “llamada telefónica que parecía muy real —pero era muy falsa— del presidente Biden durante las primarias de Nuevo Hampshire” destacó el riesgo de la clonación de voz mediante la inteligencia artificial. Como resultado de esas llamadas falsas hechas a los votantes antes de las elecciones, la Comisión Federal de Comunicaciones este mes hizo ilegal el uso de la conación de voz mediante la inteligencia artificial para las llamadas automatizadas dirigidas a los consumidores.

Durante el evento de la Casa Blanca, Stokes contó la historia de una abuela en una reunión reciente del grupo de apoyo de la Red contra el Fraude, de AARP, quien dijo que le robaron $45,000 después de recibir una llamada de alguien que se hizo pasar por su nieto. “Con voz temblorosa, le pidió que no les dijera a sus padres, pero que había tenido un accidente automovilístico y había golpeado a una mujer embarazada”, dijo Stokes. El “nieto” dijo que necesitaba su ayuda de inmediato y la puso al teléfono con alguien que dijo que era su abogado.

“Imagínate el pánico de esa abuela que creía que su querido nieto estaba en problemas y que solo ella podía ayudarlo”, dijo Stokes.

Dijo que las estafas de “impostor” o de “abuelos” como la que describió ya son demasiado comunes. “Si unes la información personal del blanco con la voz real del nieto del blanco [gracias a la clonación de voz con inteligencia artificial], es como una revolución industrial para los delincuentes”.

La reunión estuvo dirigida por Anne Neuberger, asesora adjunta de seguridad nacional para tecnología cibernética y emergente, e incluyó a jefes de la Comisión Federal de Comercio y de la Comisión Federal de Comunicaciones, así como expertos académicos y líderes de la industria de las telecomunicaciones.

Durante mucho tiempo, AARP ha luchado por leyes y regulaciones para proteger a las personas de 50 años o más contra el fraude, y hemos trabajado para educar a los adultos mayores sobre las estafas más recientes y ofrecer apoyo a las víctimas y sus familias. Continuaremos trabajando con el Gobierno federal y otros para abordar la creciente amenaza de las estafas con IA.

Visita el sitio web de la Red contra el Fraude, de AARP, y escucha nuestro pódcast sobre crímenes reales The Perfect Scam para obtener más información sobre cómo protegerte. Lee más sobre las estafas de clonación de voz con inteligencia artificial y mantente al día con nuestra cobertura de estafas y fraudes.

Natalie Missakian cubre temas de políticas federales y estatales y escribe el blog AARP Fighting for You Every Day. Anteriormente trabajó como periodista para el New Haven Register y para periódicos de publicación diaria en Ohio. Su trabajo también ha aparecido en AARP Bulletin, The Hartford Business Journal y otras publicaciones.