Directivo de Ferrari frustra un complot de deepfake haciendo una pregunta que solo el CEO podría responder.

Era media mañana un martes de este mes cuando un ejecutivo de Ferrari NV comenzó a recibir una gran cantidad de mensajes inesperados, aparentemente del CEO.

“Oye, ¿escuchaste sobre la gran adquisición que estamos planeando? Podría necesitar tu ayuda,” decía uno de los mensajes supuestamente del Director Ejecutivo Benedetto Vigna.

Los mensajes de WhatsApp vistos por Bloomberg no provenían del número móvil comercial habitual de Vigna. La imagen de perfil también era diferente, aunque era una imagen del CEO con gafas posando con traje y corbata, con los brazos cruzados, frente al logo del caballo rampante de Ferrari.

“Prepárate para firmar el Acuerdo de No Divulgación que nuestro abogado está listo para enviarte lo antes posible,” decía otro mensaje del impostor de Vigna. “El regulador del mercado de Italia y la bolsa de valores de Milán ya han sido informados. Mantente listo y por favor, extrema discreción.”

Según personas familiarizadas con el episodio, lo que sucedió a continuación fue uno de los últimos usos de herramientas deepfake para llevar a cabo una conversación telefónica en vivo con el objetivo de infiltrar un negocio reconocido internacionalmente. El fabricante italiano de superdeportivos salió ileso después de que el ejecutivo que recibió la llamada se dio cuenta de que algo no estaba bien, dijeron las personas que pidieron no ser identificadas debido a la sensibilidad del asunto.

La voz que imitaba a Vigna era convincente, una imitación perfecta del acento del sur de Italia.

El deepfaker de Vigna comenzó explicando que estaba llamando desde un número de teléfono móvil diferente porque necesitaba discutir algo confidencial — un acuerdo que podría enfrentar algunos obstáculos relacionados con China y requería una transacción de cobertura de divisas no especificada.

LEAR  Principales 6 Acciones de REIT de Alto Rendimiento que no Deberías Perderte

El ejecutivo se sorprendió y comenzó a sospechar, según las personas. Comenzó a notar los más mínimos matices mecánicos que solo profundizaron sus sospechas.

“Lo siento, Benedetto, pero necesito identificarte,” dijo el ejecutivo. Hizo una pregunta: ¿Cuál era el título del libro que Vigna le había recomendado unos días antes (era Decálogo de la Complejidad: Actuar, Aprender y Adaptarse en el Incesante Convertirse del Mundo de Alberto Felice De Toni)?

Con eso, la llamada terminó abruptamente. Ferrari inició una investigación interna, dijeron las personas. Los representantes de la compañía con sede en Maranello, Italia, declinaron hacer comentarios sobre el asunto.

Tendencia creciente

No es el primer intento de suplantar a un ejecutivo de alto perfil. En mayo, se informó que Mark Read, el CEO de la gigante de publicidad WPP Plc, también fue el objetivo de un intento de estafa deepfake igualmente elaborado que lo imitaba en una llamada de Teams.

“Este año estamos viendo un aumento en los criminales que intentan clonar voces utilizando inteligencia artificial,” dijo Rachel Tobac, CEO de la empresa de formación en ciberseguridad SocialProof Security, en una entrevista.

Aunque estas herramientas de IA generativa pueden crear imágenes, videos y grabaciones deepfake convincentes, aún no han demostrado ser lo suficientemente convincentes como para causar el engaño generalizado del que muchos han advertido.

Sin embargo, algunas empresas han sido víctimas de estafadores. A principios de este año, una empresa multinacional no identificada perdió HK$200 millones ($26 millones) después de que estafadores engañaran a sus empleados en Hong Kong utilizando tecnología deepfake, informó el South China Morning Post en febrero. Los estafadores fabricaron representaciones del director financiero de la empresa y otras personas en una videollamada y convencieron a la víctima para transferir dinero.

LEAR  Si solo pudiera comprar 1 acción de inteligencia artificial (IA), esta sería.

Otras empresas, como la empresa de seguridad de la información CyberArk, ya están entrenando a sus ejecutivos para que puedan detectar cuándo están siendo engañados por bots.

“Es solo cuestión de tiempo y se espera que estas herramientas de deepfake basadas en IA se vuelvan increíblemente precisas,” dijo Stefano Zanero, profesor de ciberseguridad en el Politécnico de Milán en Italia, en una entrevista telefónica.