Începând cu 27 mai 2025, Meta — compania-mamă a Facebook, Instagram și WhatsApp — a început oficial să utilizeze postările publice ale utilizatorilor adulți din Uniunea Europeană pentru a-şi antrena modelele de inteligență artificială, inclusiv Meta AI și LLaMA. Această decizie a stârnit controverse și reacții puternice din partea organizațiilor pentru drepturile digitale și a utilizatorilor preocupați de confidențialitatea datelor.

Postările publice devin combustibil pentru inteligenţa artificială

Meta a anunțat că va folosi conținutul public generat de utilizatori — postări, comentarii, imagini și interacțiuni cu instrumentele AI — pentru a îşi îmbunătăți modelele de inteligență artificială. Compania susține că această măsură este necesară pentru a „înţelege mai bine culturile, istoria şi limbajul” utilizatorilor europeni. Meta a precizat că nu va folosi mesaje private, conținut de la utilizatori sub 18 ani sau date sensibile cum ar fi nume și numere de telefon.

Meta AI este numele asistentului virtual creat de compania Meta, fostă Facebook. Este un chatbot conversațional, adică un program bazat pe inteligență artificială care poate răspunde la întrebări, scrie texte, genera imagini sau chiar edita fotografii. Acest asistent este integrat direct în aplicațiile  Facebook, Instagram, WhatsApp și Messenger, fiind gândit să devină parte din interacțiunile zilnice ale utilizatorilor. Practic, este echivalentul produselor deja cunoscute ca Chat GPT de la OpenAI sau Bard de la Google, însă  cu o prezență mai discretă, dar constantă, în rețelele sociale.

În spatele Meta AI se află un model de inteligență artificială numit LLaMA, acronim pentru „Large Language Model Meta AI”. Acesta este, de fapt, sistemul propriu-zis care învață și procesează limbajul. Meta a dezvoltat mai multe versiuni ale acestui model – LLaMA 1, LLaMA 2 și, mai recent, LLaMA 3, lansat în 2024. Fiecare nouă generație a fost capabilă să înțeleagă mai bine limbajul uman, să genereze texte mai fluente și să răspundă mai natural la întrebări.

Pentru a deveni mai performant, acest tip de model are nevoie de o cantitate uriașă de date din care să învețe. Practic, este „hrănit” cu exemple – milioane sau chiar miliarde de propoziții, conversații, descrieri sau comentarii – pentru a înțelege cum comunică oamenii în mod real. Astfel, modelul învață nu doar vocabularul, ci și expresiile colocviale, ironia, glumele sau  structura unui răspuns politicos de pe rețelele sociale.

Începând cu 27 mai 2025, Meta a anunțat că va folosi conținutul public postat de utilizatorii europeni pe Facebook și Instagram pentru a-și antrena aceste modele. Asta înseamnă că postările vizibile public, comentariile și imaginile pot fi procesate automat pentru a fi introduse în baza de date folosită la dezvoltarea inteligenței artificiale. Conform companiei, nu vor fi incluse mesajele private, story-urile vizibile doar prietenilor sau orice alt conținut destinat unui public restrâns. De asemenea, Meta susține că nu va folosi conținut creat de minori sau date extrase din aplicațiile criptate precum WhatsApp.

Conform companiei, acest proces, denumit „antrenarea modelului AI”, are ca scop îmbunătățirea performanței Meta AI și a altor produse bazate pe inteligență artificială. În esență, sistemul învață din ceea ce a fost deja scris, spus sau postat de utilizatori, pentru a putea reproduce – sub formă de text, imagine sau răspuns – ceva care pare uman.

Meta a crescut un copil şi-l hrăneşte cu vieţile noastre

Pentru a înțelege ce înseamnă antrenarea unui model de inteligență artificială, ne putem imagina un copil care învață să scrie povești. La început, îi sunt puse în față mii de cărți, iar copilul le citește, observă cum sunt construite, ce cuvinte se folosesc și cum încep sau se termină. Apoi începe să recunoască tipare – vede, de exemplu, că în poveștile cu zmei apare mereu un erou, că există o luptă, o problemă și o soluție. În cele din urmă, încearcă și el să scrie o poveste proprie. Nu copiază exact, dar imită stilul, structura și atmosfera poveștilor pe care le-a citit.

Cam așa funcționează și inteligența artificială. Meta, spre exemplu, îi „dă de citit” modelului AI tot ce este public pe Facebook și Instagram – de la comentarii la postări și reacții. Scopul este ca algoritmul să învețe cum comunică oamenii, ce exprimă, cum se adaptează limbajul în funcție de context. Rezultatul: un model capabil să genereze conținut nou care „sună” cât mai natural.

Problema apare atunci când „cărțile” pe care le citește copilul nu sunt doar ficțiune, ci fragmente din viețile reale ale oamenilor – postările lor personale, chiar dacă sunt publice, și interacțiunile cu platforma. Dacă, de pildă, acel copil ar învăța din jurnalele vecinilor fără ca aceștia să fie întrebați, ar fi firesc să apară indignarea. Exact această reacție a apărut și în cazul Meta, mai ales în Europa.

Europa spune nu copilului Meta

Anunțul Meta privind folosirea postărilor publice pentru antrenarea inteligenței artificiale nu a trecut neobservat în Europa. Mai multe organizații pentru drepturile digitale, autorități naționale și instituții europene au reacționat ferm, acuzând compania americană că încalcă spiritul și litera legislației europene privind protecția datelor.

Autoritatea de supraveghere irlandeză a fost notificată de ONG-ul NOYB (None of Your Business), condus de activistul Max Schrems, binecunoscut pentru procesele câștigate împotriva giganților tech. NOYB a trimis nu mai puțin de 11 plângeri în 11 țări europene diferite, acuzând Meta că își bazează noua politică pe un „interes ilegitim” care nu poate justifica folosirea masivă a datelor personale fără consimțământ explicit.

În Franța, autoritatea de protecție a datelor, Comisia Naţională pentru Informatică şi Libertăţi (CNIL) a confirmat că investighează cazul, în timp ce în Germania, comisarii pentru protecția datelor din landuri precum Bavaria sau Hessa au avertizat că Meta nu are voie să proceseze conținut personal fără acord. În Olanda, guvernul a emis o avertizare generală cu privire la „riscurile grave ale utilizării necontrolate a datelor publice pentru scopuri comerciale și predictive”.

În fața presiunii publice, Meta a publicat o pagină dedicată în care utilizatorii pot trimite o cerere de „opt-out”, adică excluderea din baza de date folosită pentru antrenarea AI. Însă, formularul este complex și alambicat şi, totodată, cere utilizatorului să explice „de ce se opune” folosirii datelor.

Cronologia scandalului privind utilizarea datelor publice de către Meta

Scandalul privind folosirea datelor publice de către Meta a început în martie 2024, când compania a lansat oficial Meta AI, un asistent conversațional integrat în aplicațiile Facebook și Instagram. În aprilie 2025, Meta a anunțat că, începând cu 27 mai, va începe să utilizeze postările publice ale utilizatorilor europeni pentru a-și antrena modelele de inteligență artificială.

Pe 14 mai 2025, ONG-ul austriac NOYB, fondat de cunoscutul activist Max Schrems, a transmis Meta o notificare legală în care a contestat temeiul juridic invocat de companie – așa-numitul „interes legitim” – susținând că acesta nu poate justifica folosirea datelor personale fără consimțământul explicit al utilizatorilor. Între 20 și 24 mai, Meta a început să trimită notificări direct în aplicațiile sale, oferind un formular prin care utilizatorii pot solicita excluderea postărilor lor din procesul de antrenare a inteligenței artificiale. Pe 23 mai 2025, o instanță din Köln a respins cererea depusă de o organizație germană pentru protecția consumatorilor, care solicitase blocarea folosirii datelor de către Meta.

În cele din urmă, pe 27 mai 2025, noua politică a Meta privind utilizarea datelor publice pentru inteligență artificială a intrat oficial în vigoare pe teritoriul Uniunii Europene.

Meta mizează pe tăcerea noastră
Pentru utilizatori, această schimbare ridică semne de întrebare esențiale legate de intimitate, controlul asupra propriilor date și încrederea în platformele digitale. Chiar dacă postările sunt publice, mulți nu s-au așteptat ca ele să fie analizate la scară industrială de algoritmi care învață din fiecare frază și reacție. 
În lipsa unei informări clare și a unui consimțământ real, riscul este ca mulți să devină, fără voia lor, surse de conținut pentru o inteligență artificială cu scopuri comerciale. Pentru Meta, miza este și mai mare. 
Compania încearcă să recupereze teren în cursa globală pentru dezvoltarea AI, dar dacă va forța limitele legale și etice, s-ar putea confrunta cu sancțiuni dure, procese costisitoare și pierderea încrederii publicului european – o piață imensă, dar tot mai puțin dispusă să tolereze ambiguități în privința datelor personale.

Citeşte şi:

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.