L’EDITOREEL: L’AI che clona le voci familiari per truffare gli anziani
Parecchi episodi si sono verificati già in Canada e in Svezia. Qui le persone si sono sentite chiedere con urgenza grosse somme di denaro da voci identiche a quelle di figli o nipoti.
Si chiama audio deep fake ed è l’ultima ondata di truffe generate dall’Intelligenza artificiale.
Consiste nella voce clonata di un parente che gli hacker usano per spillare soldi al telefono soprattutto a persone anziane.
Parecchi episodi si sono verificati già in Canada e in Svezia. Qui le persone si sono sentite chiedere con urgenza grosse somme di denaro da voci identiche a quelle di figli o nipoti.
Di recente ne ha scritto anche Il Washington Post, mettendo in guardia il pubblico da questa nuova ondata di raggiri.
Nel 2022 sono state più di 36mila le segnalazioni e le cose stanno peggiorando con l’affinarsi della tecnologia.
Oggi infatti le voci contraffatte non devono nemmeno essere prese dall’originale in modo volontario. Basta un pezzetto di video caricato sui social o un podcast.
Quindi se parenti vi chiedono urgentemente dei soldi, prima di mettere mano alla tasca, mettetela al telefono per contattarli e verificare che la richiesta sia effettivamente reale.
L’editoreel è la nuova rubrica pensata per i social media con lo scopo di riportare brevi considerazioni e pensieri personali in una nuova e più moderna modalità di comunicazione.