L’EDITOREEL: L’AI che clona le voci familiari per truffare gli anziani

Parecchi episodi si sono verificati già in Canada e in Svezia.  Qui le persone si sono sentite chiedere con urgenza grosse somme di denaro da voci identiche a quelle di figli o nipoti. 

 

Si chiama audio deep fake ed è l’ultima ondata di truffe generate dall’Intelligenza artificiale.

Consiste nella voce clonata di un parente che gli hacker usano per spillare soldi al telefono soprattutto a persone anziane.

Parecchi episodi si sono verificati già in Canada e in Svezia.  Qui le persone si sono sentite chiedere con urgenza grosse somme di denaro da voci identiche a quelle di figli o nipoti. 

Di recente ne ha scritto anche Il Washington Post, mettendo in guardia il pubblico da questa nuova ondata di raggiri.

Nel 2022 sono state più di 36mila le segnalazioni e le cose stanno peggiorando con l’affinarsi della tecnologia.

Oggi infatti le voci contraffatte non devono nemmeno essere prese dall’originale in modo volontario. Basta un pezzetto di  video caricato sui social o un podcast.

Quindi se parenti vi chiedono urgentemente dei soldi, prima di mettere mano alla tasca, mettetela al telefono per contattarli e verificare che la richiesta sia effettivamente reale.


L’editoreel è la nuova rubrica pensata per i social media con lo scopo di riportare brevi considerazioni e pensieri personali in una nuova e più moderna modalità di comunicazione.

About Author