Una nueva modalidad de fraude está generando preocupación en la entidad, estafadores utilizan inteligencia artificial para clonar la voz de sus víctimas a partir de unos pocos segundos de audio y suplantar su identidad ante familiares o contactos. Expertos en ciberseguridad advierten que el método inicia con llamadas sospechosas en las que, al contestar, no se escucha respuesta. Aunque parece inofensivo, el verdadero riesgo surge si la persona llega a pronunciar frases simples como “hola” o “sí”, suficientes para capturar su voz y recrearla con herramientas de IA.
Con este material, los delincuentes realizan llamadas haciéndose pasar por la víctima para solicitar dinero o información personal, un fraude que ya se ha documentado en distintos puntos del país y que comienza a replicarse en San Luis Potosí. Las autoridades recomiendan colgar inmediatamente cuando se atiendan llamadas en silencio, bloquear los números sospechosos y evitar dar respuestas verbales a desconocidos.