La necromancia digital —la práctica moderna de "revivir" voces de personas fallecidas— ya no es solo un recurso de ciencia ficción. Hoy, con inteligencia artificial, basta un fragmento de audio para recrear la voz de cualquier persona. Aunque esta tecnología puede parecer fascinante, también abre la puerta a delitos cada vez más difíciles de detectar.
En El Mundo de Cabeza, el experto en innovación digital Carlos Arellano relató un experimento que encendió las alarmas. Clonó la voz de su madre con inteligencia artificial y envió un mensaje falso a 20 de sus amigas. El mensaje decía: "Hoy vi a tu esposo con otra". Todas creyeron que la voz era real. El objetivo de este experimento no era hacer una broma pesada, sino demostrar el riesgo latente.
El caso se inspiró en una experiencia personal. A un familiar suyo lo estafaron tras recibir una llamada con la voz clonada de una sobrina que supuestamente había tenido un accidente. Le pidieron $3.000 y transfirió el dinero sin dudar. Minutos después, descubrió que todo había sido un engaño digital.
¿Cómo funcionan estas estafas?
1. Recolección de audio: Basta un clip de WhatsApp, una historia de Instagram o un video.
2. Clonación con IA: Programas gratuitos o muy baratos permiten replicar voces en segundos.
3. Engaño emocional: Usan la voz clonada para crear situaciones de urgencia.
4. Transferencia de dinero: La víctima, confiada, actúa sin verificar.
Estas herramientas son cada vez más fáciles de usar, lo que las hace peligrosas. Aunque tienen aplicaciones creativas y artísticas, en las manos equivocadas se convierten en armas de manipulación.
La línea entre lo real y lo artificial es cada vez más delgada. Escuchar la voz de un ser querido ya no garantiza que sea auténtica. Frente a esta nueva realidad, estar informados es nuestra primera defensa.