Wel ChatGPT deleten maar Instagram niet? Hypocriet!

Bregman nagelt OpenAI terecht aan de schandpaal. Maar Meta's trackrecord is vele malen erger, en niemand roept op om dat platform te verlaten.

LA
Luke Andries
20 maart 2026
Afbrokkelend meta logo werpt schaduw over kinderen die naar hun smartphones staren

Ja, Bregman heeft gelijk over OpenAI. Maar als je ChatGPT deletet en wel op Instagram blijft, ben je hypocriet. Dit is waarom.

Rutger Bregman ging viral met zijn oproep om ChatGPT te boycotten. De aanklacht is stevig. Greg Brockman, OpenAI's president en mede-oprichter, doneerde 25 miljoen dollar aan Trumps politieke machine. ICE gebruikt OpenAI-technologie voor deportatie operaties. Het bedrijf lanceerde een Super PAC van 100 miljoen om AI-veiligheidswetten te torpederen. Terechte kritiek, helder gebracht, met een strakke call to action: delete ChatGPT en stap over naar een alternatief

Toch wringt het een beetje.. Bregman is naast historicus vooral een briljant marketeer voor zijn eigen doeleinden en bekendheid.

Niks mis mee. Maar terwijl hij OpenAI aan de schandpaal nagelt, loopt het werkelijke monster van Big Tech er vrijwel ongeschonden doorheen. Dat monster heet Meta.

We maken ons nu heel erg druk over ICE dat huishoud in Amerika. Ondertussen wordt er wereldwijd ellende veroorzaakt, ook in Europa en in Nederland, met onze jeugd als een van de doelwitten. Zou het niet logischer zijn om ons hier druk over te maken?

Een bedrijf met een strafblad

OpenAI maakt discutabele keuzes. Meta brengt al meer dan een decennium structureel schade toe aan democratieën, aan kinderen, aan hele bevolkingsgroepen. En komt steeds weer weg met een PR-offensief en de belofte om het beter te doen.

In 2018 bleek dat de persoonlijke gegevens van 87 miljoen Facebook-gebruikers zonder hun medeweten waren gedeeld met Cambridge Analytica. Die data werd ingezet om verkiezingen te manipuleren, van de Amerikaanse presidentsverkiezingen tot het Brexit-referendum. Meta wist ervan, deed niks en probeerde het vervolgens te bagatelliseren.

Dat was nog maar het begin.

Facebook als accelerator van een genocide

De VN-onderzoekscommissie concludeerde dat Facebook een "bruikbaar instrument" was voor het verspreiden van haatzaaierij tegen de Rohingya in Myanmar. In een land waar Facebook letterlijk het internet was, werkten Meta's algoritmes als versterker van etnisch geweld. Amnesty International stelde vast dat de systemen haatdragende content niet alleen doorlieten, maar actief bevorderden.

De Rohingya werden vermoord, gemarteld, verkracht en verdreven. Meer dan 700.000 mensen sloegen op de vlucht. Medewerkers hadden intern gewaarschuwd. Het bedrijf deed te weinig, te laat. Een voormalige medewerker vertelde Amnesty dat levens in het Zuiden simpelweg minder belangrijk werden gevonden dan levens in het Westen.

Het bleef niet bij Myanmar. In Ethiopië speelde Facebook dezelfde rol bij etnisch geweld. Een professor werd vermoord nadat haatberichten op het platform zijn locatie onthulden. Meta negeerde de waarschuwingen, opnieuw.

Winst boven welzijn tienermeiden

In 2021 bracht klokkenluider Frances Haugen aan het licht wat Meta allang wist. Instagram verergert het lichaamsbeeld van een op de drie tienermeiden. Tieners rapporteerden hogere niveaus van angst en depressie. Onder Britse tienermeiden had 13,5% vaker suicidale gedachten. Het algoritme leidde meisjes van dertien naar anorexia-content. Intern schreven Meta's eigen onderzoekers het onomwonden op: "We make body image issues worse for one in three teen girls."

Meta koos ervoor die bevindingen niet te publiceren, maar te herframen. Het bedrijf wist al sinds 2018 dat tieners in Instagram-DM's risico liepen op ongewenste seksuele content. Het duurde zes jaar voordat er een filter kwam. Intern debatteerden teams over de vraag of tieneraccount standaard privé moesten zijn. Meta's eigen groeiteam rekende voor dat die maatregel 5,4 miljoen ongewenste interacties per dag zou voorkomen. De maatregel werd geblokkeerd, want het zou de groei remmen. In een interne chat vatte een medewerker het samen: "IG is a drug... we're basically pushers."

Twee weken nadat tientallen Amerikaanse staten Meta aanklaagden voor het verslaafd maken van tieners, stuurde Instagram-baas Adam Mosseri een interne memo rond. De boodschap: meer tieners naar Instagram halen. Een intern document stelde het nog scherper. Kinderen als tweens binnenhalen zou Meta helpen om "big te winnen" zodra ze tieners worden. Niet veiligheid is het uitgangspunt. Groei is het uitgangspunt. Tieners waren geen gebruikers om te beschermen, maar een markt om te veroveren. En zo gaat het bij Meta altijd.

Meta-chatbots mochten seksuele gesprekken voeren met minderjarigen

In 2025 onthulde Reuters dat Meta's eigen richtlijnen voor AI-chatbots het toelaatbaar achtten om kinderen te betrekken in "romantische of sensuele gesprekken." Journalisten die zich voordeden als 14-jarige meisjes ontdekten dat Meta's chatbots zonder weerstand overgingen tot seksueel rollenspel. Intern testte Meta een chatbot-product dat in bijna 70% van de gevallen faalde om minderjarigen te beschermen tegen seksuele exploitatie.

Uit rechtbankdocumenten in New Mexico bleek dat Zuckerberg persoonlijk de aanbevelingen van zijn eigen veiligheidsteam verwierp. Medewerkers vroegen om ouderlijk toezicht. Het hoofd kinderveiligheid schreef intern dat het product "niet verdedigbaar" was. De top besloot anders. Zuckerberg wilde "minder restrictief" zijn.

Pas toen de pers het breed uitmat, trok Meta de stekker uit tiener-toegang tot companion-chatbots. Niet uit moreel besef, maar uit schadebeperking.

Zuckerbergs censuurrachine

Dan is er nog de kwestie van censuur. Zuckerberg presenteert zich al jaren als tegenstander van censuur, als verdediger van vrije meningsuiting. Ondertussen blokkeert Meta AI in de Verenigde Staten basisinformatie over gezondheid.

Wanneer een 16-jarig meisje in Washington DC via Meta AI vraagt wat er gebeurt tijdens een abortus, krijgt ze geen antwoord. De vraag welke anticonceptiemethoden er bestaan wordt geblokkeerd. Bij een vraag over ongewenste zwangerschap begint het antwoord te verschijnen en wordt het vervolgens gewist. Dezelfde vragen vanuit België leveren gewoon volledige antwoorden op. Dit is geen technische storing. Dit is een bewuste keuze om Amerikaanse meisjes en vrouwen de toegang tot gezondheidsinformatie te ontzeggen, in een land waar abortus in steeds meer staten illegaal is.

De man die zegt tegen censuur te zijn, bouwt een censuurrachine. Eentje die selectief werkt, per land, per onderwerp, per gebruiker. Zonder transparantie over wat wordt geblokkeerd en waarom.

Meta AI-brillen bespieden je in je slaapkamer

Het recentste hoofdstuk dateert van vorige week. De Zweedse kranten Svenska Dagbladet en Göteborgs-Posten publiceerden een gezamenlijk onderzoek. Meta-contracteurs in Nairobi, werkzaam bij een bedrijf genaamd Sama, krijgen elke ochtend videobeelden op hun scherm van Ray-Ban AI-brillen. Vastgelegd in slaapkamers, badkamers en keukens.

Een man zet zijn bril op een nachtkastje en verlaat de kamer. Zijn vrouw komt binnen en kleedt zich uit. Een medewerker in Kenia kijkt toe, tekent annotatievakken en labelt lichaamsdelen voor het algoritme.

Meta's marketing toont mensen op concerten, wandelpaden en diners. De gebruiksvoorwaarden vertellen een ander verhaal. Diep begraven in de kleine lettertjes staat dat beelden handmatig bekeken mogen worden. Anonimisatietools zouden gezichten moeten vervagen. Werknemers zeggen dat ze regelmatig falen.

Er zijn zeven miljoen brillen verkocht in 2025. Meta en EssilorLuxottica bespreken ondertusseneen verdubbeling van de productie naar twintig miljoen. De werknemers voelen zich er ongemakkelijk bij, maar gaan door. Want: "Je hoort het niet in twijfel te trekken. Als je vragen gaat stellen, ben je eruit." Ze houden liever hun baan.

Kortom: Een bedrijf met een marktwaarde van anderhalf biljoen dollar heeft zeven miljoen slaapkamers omgezet in trainingsdata. Niemand heeft ervoor getekend.

Nieuw schandaal, zelfde draaiboek

Het opvallendste aan Meta is niet de schade die het aanricht. Het is de reactie. Elke keer dezelfde grammatica, dezelfde zinsbouw, dezelfde loze beloften.

Het werkt zo. Eerst is er stilte. Meta reageert niet, of komt met een technisch klinkende ontkenning. Vervolgens brengen journalisten, klokkenluiders of rechtbanken de feiten naar buiten. Dan verschijnt de woordvoerder. De formulering is altijd een variatie op hetzelfde thema: we nemen dit zeer serieus, we hebben onze verantwoordelijkheid niet ruim genoeg bekeken, we verfijnen onze inspanningen.

Soms draait Zuckerberg zich in een hoorzitting om naar de slachtoffers en zegt dat het hem spijt. En dan gaat het bedrijf verder met precies datgene wat het schandaal veroorzaakte. Meta blijft de grenzen opzoeken van wat er mag en gaat er overheen. Vervolgens komt het ermee weg of betaalt het een boete en is de kous weer afgedaan. Na twintig jaar is het geen communicatiestrategie meer. Het is een bedrijfscultuur. En ik ben er klaar mee.

QuitMeta?

Bregman heeft gelijk over OpenAI. Maar als je nu meedoet met de hype om ChatGPT te deleten zou ik eens goed kijken naar welke Meta apps je gebruikt, zoals Facebook en Instagram. En WhatsApp? Ja, ook Whatsapp..

En dat steekt. Ik kom alleen niet van WhatsApp af omdat zelfs die overstap maken voor de meeste mensen al te veel gevraagd is. Daarom heb ik weinig hoop op verandering.

Delen:
LA
Luke Andries
AI-trainer bij Aigenwijs