L’Antitrust e il Garante privacy indagano sull’integrazione forzata di Meta AI in WhatsApp: nel mirino la posizione dominante e il trattamento dei dati. Ecco cosa sappiamo.
Meta sfrutta WhatsApp per lanciare la sua AI: due Autorità indagano sulle modalità di integrazione
Il 22 luglio 2025 l’Autorità Garante della Concorrenza e del Mercato ha aperto un procedimento formale contro Meta Platforms Inc. e le sue controllate europee, rilevando una possibile violazione dell’articolo 102 del Trattato sul funzionamento dell’Unione europea. L’istruttoria riguarda l’inserimento automatico dell’assistente digitale Meta AI nell’app di messaggistica WhatsApp, che in Italia raggiunge oltre il 95% della popolazione connessa.
Nel dettaglio, l’inchiesta punta a verificare se Meta abbia utilizzato la propria posizione dominante nel mercato della messaggistica per ottenere un vantaggio sleale nel settore emergente dell’intelligenza artificiale generativa. WhatsApp è stata aggiornata con l’integrazione visibile e attivabile di Meta AI, senza che l’utente debba compiere alcuna scelta esplicita o consapevole. Si tratta di una modalità che potrebbe rientrare nella strategia di tying: una pratica anticompetitiva in cui l’utilizzo di un servizio dominante è vincolato all’adozione automatica di un altro, appartenente a un mercato differente.
Il Garante per la Protezione dei Dati Personali ha avviato, in parallelo, una seconda indagine. Stavolta il focus è sulla conformità della raccolta e del trattamento dati ai sensi del GDPR, con particolare attenzione alle modalità di consenso, trasparenza, finalità del trattamento e sicurezza. Entrambe le azioni puntano a capire se Meta stia approfittando di un vantaggio installato, ottenuto senza una reale possibilità di scelta da parte degli utenti.
WhatsApp come vettore strategico: la tecnica del tying secondo l’Antitrust
L’AGCM ipotizza che Meta stia usando la diffusione capillare di WhatsApp come trampolino per imporre Meta AI nel mercato dei chatbot, saltando la concorrenza leale. Attraverso un’interfaccia già familiare agli utenti, l’assistente AI viene inserito nel flusso abituale di utilizzo, bypassando il confronto aperto con altri strumenti.
Nel dettaglio, il vantaggio competitivo nasce da tre fattori:
-
Esposizione integrata e anticipata: Meta AI compare in automatico nella barra di ricerca e con un’icona dedicata.
-
Assenza di attivazione volontaria: non viene richiesto alcun consenso specifico per interagire con il sistema.
-
Accesso immediato ai dati utente: ogni domanda o risposta produce materiale che alimenta il training del modello linguistico.
Questa architettura consente a Meta di costruire un vantaggio informativo e relazionale, sfruttando le interazioni personali già consolidate. Secondo l’Antitrust, si tratta di un’operazione di “leveraging”: una traslazione del potere da un mercato già conquistato (la messaggistica) a uno nuovo e in piena espansione (l’AI generativa).
L’esempio viene calato nel solco dei precedenti europei: Microsoft e Google, nel tempo, sono stati accusati di pratiche simili. Il caso Google Shopping, ad esempio, ha mostrato come l’abbinamento sistematico tra un servizio dominante e uno ancillare possa distorcere la concorrenza.
Nel caso WhatsApp, l’utente entra in contatto con Meta AI senza una vera frattura cognitiva. Non accede a un nuovo prodotto: si muove dentro lo stesso ambiente, guidato da automatismi ormai interiorizzati. Questa continuità apparente diventa il cuore del problema: Meta non obbliga, ma rende la propria AI irrinunciabile, proprio perché già “dentro casa”.
Privacy sotto esame: il Garante valuta trasparenza e uso dei dati da parte di Meta AI
L’Autorità Garante per la Privacy si concentra sull’altra faccia della medaglia: l’uso dei dati generati durante l’interazione con l’assistente digitale. Il tema centrale riguarda la mancanza di consapevolezza da parte dell’utente: Meta non fornisce strumenti chiari per comprendere come, quando e perché l’assistente venga attivato.
Nel mirino:
-
la persistenza delle conversazioni e la capacità del sistema di ricordare dati pregressi;
-
la mancanza di opt-in reale, ovvero l’assenza di una scelta esplicita prima dell’attivazione;
-
la difficoltà nel disattivare la funzione o limitarne il campo d’azione;
-
la possibile violazione dei principi del GDPR, in particolare trasparenza, minimizzazione, correttezza e sicurezza del trattamento.
Il Garante si interroga anche sull’asimmetria informativa: Meta possiede tutti gli strumenti per raccogliere, aggregare e processare dati sensibili in modo predittivo. L’utente, invece, è spesso ignaro della portata dell’interazione. Questo squilibrio, se confermato, potrebbe violare l’articolo 25 del GDPR: protezione dei dati fin dalla progettazione.

Un ulteriore passaggio cruciale riguarda l’addestramento continuo dell’algoritmo, descritto nei documenti tecnici, ma non accompagnato da una base giuridica chiara e specifica. Se l’AI impara dall’utente senza consenso pienamente informato, la violazione non è solo tecnica, ma strutturale.
Le indagini si incrociano. La preminenza dell’interfaccia – il fatto che Meta AI sia accessibile proprio dove gli utenti comunicano con amici, partner e familiari – introduce un rischio concreto: che il dato relazionale venga trasformato in combustibile predittivo, senza garanzie reali per chi lo genera.