Wist je dat AI in 2025 nog overtuigender zal liegen dan sommige vrienden van me na een avondje Café De Drie Gezusters? Serieus — vorige maand zat ik een experiment te volgen waar een chatbot glashard feiten verzon. De meeste mensen maken zich druk over banen of privacy, maar er zijn gevaren die – raar maar waar – zelden besproken worden. En toch zijn ze al onderweg. Of misschien overdrijf ik… maar lees maar mee.
1. Deepfakes die ons dagelijkse leven binnensluipen
Laatst werd in de groepsapp van m’n voetbalteam een video gedeeld van een lokale politicus die, zo leek het, rare uitspraken deed. Iedereen schrok – behalve mijn collega die doorhad dat het deepfake was. Met de snelheid waarmee AI nu beelden en geluid nabootst, kan straks iedereen slachtoffer worden van zulke nepvideo’s.
Het enge: je hoeft geen bekend persoon te zijn. AI kan met een paar Instagram-foto’s en een spraakfragment al genoeg: ineens belt ‘je dochter’ en vraagt om geld, ‘je baas’ mailt met vreemde verzoeken. Deepfake-fraude kost bedrijven én gewone mensen nu al handenvol geld. Stel je voor hoe dat in 2025 is…
2. AI-algoritmes maken onzichtbare keuzes voor je – en niemand merkt het
Drie maanden terug probeerde ik een hotel te boeken in Rotterdam. Raar genoeg kreeg ik hogere prijzen te zien dan mijn vriend uit Utrecht die op hetzelfde moment zocht. Waarom? De AI van de boekingssite analyseert jouw profiel, inkomenspatroon, surfgedrag – en past de prijzen daarop aan.
En dat is pas het topje van de ijsberg. De meeste Nederlanders merken helemaal niet hoe algoritmes hun nieuwsfeeds, sollicitaties en zelfs energiekosten beïnvloeden. In 2025 worden die AI-modellen nóg slimmer, nóg minder transparant. Je krijgt de indruk dat je zelf kiest, maar dat is eigenlijk al lang voor je bepaald. Of zie ik het te somber?
3. Fake experts & gefabriceerde reviews: wie kun je straks nog vertrouwen?
“Wij zijn de beste loodgieter in Groningen.” Onlangs zocht ik een loodgieter — kom je ineens tientallen reviews tegen die klinken alsof ze door dezelfde chatbot zijn geschreven. In 2025 zullen AI-gegenereerde reviews, adviezen en nep-experts bijna niet meer te onderscheiden zijn van het echte werk. Mijn moeder moppert nu al dat ‘je tegenwoordig niemand meer kunt geloven’ online.
Voor bedrijven wordt het verleidelijk om AI in te zetten voor positieve feedback of het neutraliseren van klachten. En als consument? Je moet straks oppassen dat je geen advies krijgt van een slimme robot met een fake profielfoto – want die kijkt niet naar wat je écht nodig hebt…
Hoe bescherm je jezelf (voor zover dat kan)?
- Kritisch blijven – check vreemde berichten of verzoeken altijd dubbel. Ook als het van een ‘bekende’ komt.
- Gebruik reverse image search als je een rare foto of video ziet op social media.
- Lees reviews op meerdere plekken – en let op herhaling, stijl of typische fouten.
- En, tja, soms helpt het om gewoon even ouderwets te bellen als iets verdacht lijkt.
Eerlijk — niemand heeft hét antwoord. Misschien kijk ik er te cynisch naar, misschien komt het zo’n vaart niet. Maar feit is dat AI in 2025 meer gaat verzinnen, faken en kiezen dan het gros doorheeft. In ons chatgroepje zeggen ze: “Het is niet de technologie zelf, maar hoe mensen ’t gebruiken.” Daar zit iets in.
Welke AI-leugen of wild verhaal ben jij al tegengekomen? Drop je ervaring hieronder of stuur ‘m door in je WhatsApp-groep. Want eerlijk, alleen samen houden we de boel een beetje scherp — toch? Nou ja, zoiets…