L’EDITOREEL: Quando l’IA decide per te
Lasceresti il tuo partner se lo dicesse ChatGPT? Sembra una provocazione, ma c’è chi lo fa davvero!
Lasceresti il tuo partner se lo dicesse ChatGPT?
Sembra una provocazione, ma è successo davvero: la modella Aleska Genesis avrebbe chiesto all’intelligenza artificiale se continuare la storia con Luca Onestini.
Risposta dell’IA? “Meglio chiudere”. E lei ha chiuso.
Potremmo liquidarla come una notizia di gossip… ma dietro c’è una questione enorme: quanto ci stiamo affidando agli algoritmi per decidere della nostra vita privata?
Vogue ha rivelato che il 57% dei giovani adulti negli USA preferisce chiedere consiglio a un’IA piuttosto che a un amico, anche in amore.
Scottish Sun ha raccontato il caso di una donna che ha fatto analizzare a ChatGPT ogni messaggio del partner per capire se fosse “tossico”… e poi ha troncato la relazione seguendo il verdetto.
Gli psicologi chiamano questo fenomeno automation bias: ci fidiamo delle macchine perché ci sembrano più razionali e oggettive, anche quando non conoscono tutto il contesto.
E in alcuni casi estremi si parla di IA psychosis: ansia, isolamento, perfino dipendenza emotiva da un algoritmo.
La verità è che l’IA è uno strumento, non un oracolo. Per chi crede negli oracoli ovviamente. Ed anche in questo caso si tratta di consigli non di sentenze…o almeno così dovrebbe essere.
A me è capitato di vedere contestate informazioni raccolte sul campo, personalmente, solo perché non considerate da Chat Gpt o Gemini in quanto, appunto, non ancora riportate on line. Perché non dimentichiamo che questi strumenti sono nati per ottimizzare i tempi di ricerca sul web.
