#QuitGPT și de ce am ales Claude AI
În ultimele zile, lumea AI-ului a fost zguduită de un scandal major care a declanșat una dintre cele mai mari revolte ale consumatorilor din scurta istorie a inteligenței artificiale comerciale. Vorbim de mișcarea #QuitGPT - un val de oameni care își anulează abonamentele la ChatGPT, nemulțumiți de direcția pe care OpenAI o urmează cu tot mai multă îndrăzneală.
Ce s-a întâmplat
Pe 27 februarie 2026, OpenAI a anunțat că a încheiat un acord cu Pentagonul (pe care mulți îl numesc mai potrivit „Departamentul de Război") pentru a-și pune modelele AI la dispoziția rețelelor clasificate ale armatei americane. Deși Sam Altman a susținut pe X că tehnologia nu va fi folosită pentru supraveghere în masă, un oficial guvernamental a contrazis imediat această afirmație, precizând că modelele OpenAI vor fi utilizate „prin orice mijloace legale" - iar supravegherea în masă a cetățenilor americani este, în anumite scenarii, perfect legală conform Legii PATRIOT post-9/11.
Contextul este și mai semnificativ dacă îl privim în ansamblu: cu câteva ore înainte de anunțul OpenAI, Anthropic - compania din spatele Claude AI - a refuzat categoric să ofere Pentagonului acces nerestricționat la tehnologia sa. Motivul? Armata dorea să folosească Claude pentru supravegherea în masă a cetățenilor și pentru roboți de ucidere autonomi, fără supraveghere umană. Anthropic a spus simplu: nu.
Răspunsul administrației Trump nu a întârziat: Anthropic a fost practic pusă pe lista neagră a agențiilor guvernamentale americane. Iar câteva ore mai târziu, OpenAI și-a anunțat afacerea cu Pentagonul.
Mișcarea #QuitGPT
Reacția utilizatorilor a fost imediată. Pe Reddit, pe X și pe alte platforme, mii de oameni au început să posteze capturi de ecran cu abonamentele anulate, sub hashtagul #QuitGPT și #CancelChatGPT. Motivele sunt multiple și s-au acumulat în timp:
- acordul cu Pentagonul și riscul folosirii AI pentru supraveghere și arme autonome;
- legăturile politice ale conducerii OpenAI (președintele Greg Brockman și soția sa au donat 25 de milioane de dolari către MAGA Inc. în 2025, iar Sam Altman a contribuit cu 1 milion de dolari la fondul inaugural al lui Trump);
- calitatea ChatGPT, considerată în declin față de acum câteva luni;
- eliminarea modelului ChatGPT-4o, îndrăgit de mulți utilizatori.
Și, nu în ultimul rând, ceva ce m-a deranjat personal și pe mine: anunțul că OpenAI va introduce reclame în ChatGPT.
De ce eu am renunțat la ChatGPT
Eu am renunțat la ChatGPT chiar în momentul în care s-a anunțat că platforma urmează să introducă reclame. Pentru mine, acela a fost semnalul clar că OpenAI nu mai este o companie care prioritizează utilizatorul, ci una care urmează un model de business clasic - orientat spre profit cu orice preț, indiferent de experiența celui care plătește abonamentul.
Poate că unii se vor întreba: de ce nu ai ales un AI european sau unul open source? Este o întrebare legitimă, mai ales pentru cineva preocupat de independență digitală și confidențialitate. Răspunsul este simplu și sincer: momentan, niciun AI european nu se ridică la nivelul lui Claude AI sau măcar al ChatGPT. Apreciez enorm eforturile din Europa în domeniul inteligenței artificiale - și sper că lucrurile se vor schimba în viitor - dar nu îmi pot permite să sacrific calitatea instrumentului pe care îl folosesc zilnic din motive pur ideologice. Când va exista un AI european la același nivel, voi fi primul care îl adoptă. Până atunci, aleg cel mai bun instrument disponibil, de la o companie care, cel puțin deocamdată, demonstrează că are o coloană vertebrală.
Am trecut la Claude AI, de la Anthropic, și nu am regretat nicio clipă această decizie. Sincer vorbind, Claude este considerabil mai bun decât ChatGPT în ceea ce privește calitatea răspunsurilor, coerența conversațiilor lungi, capacitatea de analiză și, nu mai puțin important, onestitatea - Claude nu încearcă să-ți spună ce vrei să auzi, ci ceea ce este corect.
De ce Anthropic merită respectul nostru
Ceea ce s-a întâmplat săptămâna aceasta confirmă ceva ce mulți dintre noi bănuiam deja: Anthropic este o companie cu principii reale, nu doar declarative.
Când Pentagonul a venit cu cereri care încălcau valorile companiei - utilizarea AI pentru supravegherea cetățenilor și pentru arme letale autonome - Anthropic a spus nu. Nu condiționat, nu cu condiții negociabile, ci pur și simplu nu. Și au plătit un preț politic real pentru asta: excluderea din agențiile guvernamentale americane.
Îmi place enorm că Anthropic nu se lasă intimidată nici de guvernul SUA, nici de armată, nici de presiunile financiare imense care vin la pachet cu contractele de apărare. Într-o industrie în care Google a eliminat interdicțiile interne privind tehnologia militară, Microsoft a acceptat armele autonome „cu condiția ca un om să apese trăgaciul", Amazon nu are nicio restricție clară, iar Meta curtează activ Pentagonul - Anthropic rămâne o voce izolată, dar puternică.
Această decizie nu este doar un gest moral. Este și un argument solid pentru utilizatorii care, ca mine, vor să știe că AI-ul pe care îl folosesc zilnic nu este antrenat sau adaptat pentru a servi interesele militare sau de supraveghere.
Concluzie
Mișcarea #QuitGPT nu este doar despre un contract cu Pentagonul. Este despre o întrebare mai profundă pe care toți utilizatorii de AI ar trebui să și-o pună: cui servește, de fapt, instrumentul pe care îl folosesc?
Eu mi-am găsit deja răspunsul. Claude AI, de la o companie care a ales principiile în fața banilor și a puterii politice, este alegerea mea. Și, judecând după creșterea rapidă a mișcării #QuitGPT, nu sunt deloc singur în această decizie.