Ho chiesto a Gemini: “sulla base di quali fatti alcuni giornali parlano di attacchi da parte della AI?”.
La risposta di Gemini è piuttosto interessante e la riporto senza apportare alcuna modifica:
<<Quando alcuni giornali parlano di “attacchi da parte dell’AI”, di solito si riferiscono a fenomeni o rischi che, pur non essendo letteralmente un’aggressione fisica da parte di una macchina cosciente, minacciano o danneggiano sistemi, istituzioni, o l’integrità dell’informazione e della democrazia.
I fatti principali che alimentano questo tipo di linguaggio nei media riguardano tre aree fondamentali:
- 🛡️ Cyber-Attacchi Potenziati dall’AI (Cybersecurity)
Questo è l’ambito in cui il termine “attacco” è più vicino al suo significato tradizionale.
- Velocità e Complessità degli Attacchi: I cyber-criminali stanno sfruttando l’AI per rendere gli attacchi informatici (come il ransomware o il phishing) più veloci, più mirati e più difficili da rilevare per le difese tradizionali.
- Ingegneria Sociale Evoluta: L’AI rende il phishing e le truffe più convincenti. Ad esempio, la clonazione vocale (voice cloning) può essere usata per impersonare dirigenti o familiari in chiamate truffa, o l’AI può generare testi di phishing quasi perfetti.
- Aumento del Vettore di Attacco: Un report ha evidenziato che le aziende faticano a tenere il passo con la velocità degli attacchi potenziati dall’AI.
- 📰 Minaccia all’Informazione e al Giornalismo
In questo contesto, “attacco” si riferisce a una minaccia alla sostenibilità economica e all’integrità del lavoro giornalistico.
- Aggiramento dei Paywall (Browser AI): Alcuni nuovi browser basati sull’AI possono aggirare i sistemi di abbonamento (paywall) delle testate giornalistiche, accedendo e riassumendo contenuti che dovrebbero essere a pagamento. Questo minaccia i ricavi e la sopravvivenza dei media.
- Concorrenza di Google e AI Overview: Organizzazioni di editori (come la Fieg in Italia) hanno accusato servizi come l’AI Overview di Google di fornire risposte immediate generate dall’AI direttamente nei risultati di ricerca, riducendo la necessità per l’utente di cliccare sui siti dei giornali. Questo è visto come un “killer del traffico” e, di conseguenza, dei ricavi pubblicitari.
- Contenuti Generati dall’AI (Rumore di Sottofondo): Siti generati interamente dall’AI possono pubblicare articoli che imitano o riprendono in modo evidente i contenuti originali dei giornali. Questo crea un “grande rumore che somiglia alla verità, ma non lo è”, minacciando di svalutare l’informazione di qualità.
- 🤥 Disinformazione e Manipolazione (Deepfake)
L’AI è vista come un’arma nella guerra dell’informazione.
- Diffusione di Deepfake: L’AI generativa consente di creare video, audio e immagini falsi (deepfake) estremamente realistici che ritraggono persone che dicono o fanno cose che non sono mai successe. Questi possono essere usati per manipolare l’opinione pubblica, interferire nelle elezioni o danneggiare la reputazione di individui.
- Propagazione della Disinformazione: L’AI può generare rapidamente e su vasta scala testi e articoli convincenti ma falsi, amplificando la disinformazione e rendendo più difficile distinguere il vero dal falso.
In sintesi, l’uso di un linguaggio forte come “attacco” è spesso un modo per sottolineare la gravità e l’urgenza dei rischi che l’uso malevolo o l’impatto disruptive dell’Intelligenza Artificiale stanno avendo sui settori chiave della società.>>.
ACW











