Blog 10 April 2026
AI LLM Risico
Als fervent technologieliefhebber heb ik de snelle vooruitgang van artificial intelligence (AI) op de voet gevolgd. Een van de indrukwekkendste ontwikkelingen van de laatste jaren zijn large language models (LLM's). Deze geavanceerde taalmodellen genereren mensachtige teksten en kennen talrijke toepassingen, zoals vraagbeantwoording, creatief schrijven en schrijven van computercode. Ondanks hun indrukwekkende prestaties, brengen LLM's ook gevaren en risico's met zich mee. In deze blog behandel ik die risico's, waarbij ik ze onderbouw met bekende voordelen en kort inga op mogelijke tegenmaatregelen.

Mijn doel is niet om angst te prediken of een pessimistisch beeld te schetsen met deze blog. We houden het positief in mijn kleine digitale toevluchtsoord. Wat ik wel wil doen is een tegengeluid bieden aan de enorme hype rondom LLM’s en de sensationele krantenkoppen die daarmee, met name de laatste maanden, gepaard gaan. Door zowel de mogelijkheden (reeds toegelicht in verscheidene andere blogs) als risico’s te belichten, draag ik mijn steentje bij aan (bewustwording rondom) verantwoord LLM-gebruik.

Verantwoording van informatie: deze blog is tot stand gekomen na het doorspitten van menig academisch paper over de gevaren van LLM's en aan de hand van mijn eigen ervaring en waarneming. Zo is het overgrote deel van de risico’s afkomstig uit een studie van ; deze citeer ik ter overzichtelijkheid in zijn algemeenheid op deze plek. Vervolgens heb ik de risico’s verder onderzocht en, naast mijn eigen ervaringen en inzichten, informatie soms aangevuld aan de hand van andere studies. Waar ik dat heb gedaan, heb ik de bronnen geciteerd onder het specifieke gevaar.

Tot slot heb ik nog drie risico’s geformuleerd aan de hand van mijn eigen kennis, te weten de afhankelijkheid en verlies van menselijke vaardigheden, monopolisering van macht en de ongewenste gevolgen van de wapenwedloop. Dan nu op naar het inhoudelijke deel.

Discriminatie, haatzaaien en uitsluiting

Een van de meest zorgwekkende aspecten van LLM's is hun vermogen om discriminatie en haatzaaien te versterken. Door de LLM's te trainen op enorme hoeveelheden tekst van bijvoorbeeld het internet, krijgen ze vaak te maken met onrechtvaardige, toxic (‘giftige’ of haatdragende taal) en onderdrukkende taal waarmee het systeem getraind wordt.

Omdat een LLM een statistisch voorspelmodel is en geen enkele morele waarde heeft, kan het – zonder waarborgen – net zo makkelijk mooie gedichten schrijven als de meest racistische reacties geven. Dit is bijvoorbeeld te zien bij FreedomGPT, een variant op ChatGPT waarbij bewust géén maatregelen zijn genomen om haatdragende teksten etc. te filteren. Daarom link ik ook bewust niet naar deze variant.

Wanneer geen waarborgen worden genomen om de trainingsdata op te schonen of technische maatregelen in te bouwen, kan een LLM dus discriminerende uitspraken doen of vooroordelen versterken. Een klassiek voorbeeld hiervan is Microsoft's chatbot Tay, die binnen enkele uren na lancering racistische en aanstootgevende opmerkingen begon te tweeten.

Deze bot werd getraind op de tweets die het ontving, wat er al snel toe leidde dat Twittergebruikers allerlei haatdragende en racistische reacties naar de bot tweette. Altijd gezellig met die Twittergebruikers. Vervolgens pikte de bot die tekst op om zijn systeem te ‘verbeteren’ en werden teksten met diezelfde strekking weer door de bot de wereld in geslingerd. Logischerwijs haalde Microsoft, met de nodige schaamte, de bot snel weer offline.

Schade door misinformatie en hallucinaties

LLM’s kunnen onjuiste, misleidende, onzinnige of kwalitatief slechte informatie genereren, wat vervolgens kan leiden tot verkeerde beslissingen en negatieve gevolgen voor gebruikers.

Een fenomeen waar ik veel onwetendheid en misvattingen over zie zijn de zogeheten ‘hallucinaties’ in LLM’s. Hallucinaties doen zich voor wanneer een AI-systeem verzonnen of onjuiste informatie produceert, zonder dat er enige basis is in de trainingsdata. Dit kan gebeuren doordat het model patronen probeert te vinden in de data, maar soms onbedoeld verkeerde of onjuiste verbanden legt.

In het geval van ChatGPT worden deze hallucinaties al gauw over het hoofd gezien doordat het Het is dus niet zo dat een zin bijvoorbeeld opeens wordt opgebroken door een woord dat daar helemaal niet thuishoort, waardoor je gaat twijfelen aan de validiteit. Daarbij moet je je realiseren dat het systeem een statistisch voorspelmodel is. Daardoor maakt het altijd zijn zin/antwoord af, ongeacht of de informatie enig hout snijdt.

Dat waren geen champignons...

Hallucinaties kunnen bijzonder problematisch zijn in gevoelige situaties, zoals het verstrekken van medische, juridische of financiële informatie. Stel je voor dat een LLM een onjuist medisch advies geeft, wat kan leiden tot ernstige gezondheidsrisico's voor een patiënt. Aangezien LLM's niet in staat zijn om de waarheid van informatie te verifiëren, kunnen ze gemakkelijk verkeerde of onbetrouwbare informatie genereren. Toch kunnen hallucinaties wel beperkt worden, door onder andere het verbeteren van trainingsdata, het implementeren van robuuste validatieprocessen en het bieden van duidelijke richtlijnen voor gebruikers over de beperkingen van AI-gestuurde informatie.

Een praktijkvoorbeeld

Zelf heb ik bij de lancering van ChatGPT, dat toen was gebaseerd op het GPT3-model, wat inhoudelijke vragen gesteld om te kijken hoe goed het systeem werkte. Ik vroeg iets over privacyrecht en kreeg een antwoord met de volgende strekking: in de EU geldt de Algemene verordening gegevensbescherming (AVG) en in Nederland is die wet uitgewerkt in de Wet bescherming persoonsgegevens (WBP). Dit kan wellicht voor een leek logisch lijken, ware het niet dat de AVG voor iedere lidstaat geldt en juist de WBP in 2016 heeft vervangen. Zou je dus gebruikmaken van deze informatie, zou je een behoorlijke flater slaan zodra iemand met enige vakkennis naar het antwoord zou kijken.

Informatiegevaren: lekken en afleiden van (privacy)gevoelige informatie

Informatiegevaren vormen een ander belangrijk risico bij het gebruik van LLM's. Aangezien deze systemen worden getraind op grote hoeveelheden data, is er een kans dat ze (privacy)gevoelige informatie lekken of zelfs nieuwe gevoelige informatie afleiden uit de beschikbare gegevens.

Een voorbeeld van een dergelijk gevaar is het onthullen van persoonlijke informatie van individuen, zoals hun namen, adressen, telefoonnummers of e-mailadressen. Dit kan gebeuren wanneer een LLM wordt getraind op data die dergelijke gegevens bevat, en het model vervolgens leert om soortgelijke informatie te genereren.

Daarnaast kunnen LLM's gevoelige informatie afleiden uit ogenschijnlijk onschuldige gegevens. Bijvoorbeeld, een LLM kan patronen herkennen in medische dossiers en vervolgens gezondheidsinformatie over een persoon genereren, zelfs als de oorspronkelijke data geanonimiseerd was. Dat is ook de reden waarom je volgens de AVG bij anonimisering periodiek moet toetsen of de gegevens nog steeds anoniem zijn. Gelet op de snelle ontwikkelingen van AI, voorzie ik dat de komende tijd regelmatig anoniem gewaande datasets opnieuw geanonimiseerd dienen te worden.

Malafide gebruik

Zoals ieder stuk gereedschap kan een LLM voor zowel goed als kwaad gebruikt worden. Zo kunnen deze systemen worden ingezet om opzettelijk schade te veroorzaken. Een voorbeeld hiervan is het inzetten van LLM's voor fraude, oplichting en identiteitsdiefstal. Cybercriminelen kunnen LLM’s grammaticaal correcte phishingmails laten genereren die bijna niet van legitieme communicatie te onderscheiden zijn, waardoor het voor slachtoffers moeilijk wordt om dergelijke aanvallen te herkennen. Als het lijkt alsof de Nigeriaanse prins met zijn grote erfenis opeens een taalcursus heeft gevolgd, is de kans aanwezig dat er een LLM in het spel is.

Malware

Daarnaast kunnen kwaadwillige actoren LLM's inzetten voor het creëren van gepersonaliseerde desinformatiecampagnes, waarbij AI-systemen op maat gemaakte valse nieuwsberichten genereren om de publieke opinie te manipuleren. Denk bijvoorbeeld aan het Cambridge Analytica-schandaal waarbij de presidentsverkiezingen in de Verenigde Staten zijn beïnvloed. Middels LLM’s kan zo een campagne nog eenvoudiger worden uitgevoerd, omdat de AI aan de lopende band realistische desinformatie kan creëren.

Tot slot kunnen LLM’s worden gebruikt voor het genereren van malwarecode (malware is een samenstelling van malicious en software). Hierdoor wordt het voor cybercriminelen eenvoudiger om nieuwe en geavanceerde aanvallen uit te voeren zonder uitgebreide technische kennis te hebben.

Schade door de interactie tussen mens en computer

Dit risico manifesteert zich wanneer mensen misleid of kwetsbaar worden gemaakt via directe interactie met een krachtige conversational agent (lastig te vertalen, maar het betekent zoiets als autonoom ogende gesprekspartner). Een dergelijk gevaar kan optreden wanneer een LLM zo overtuigend is dat gebruikers moeite hebben om onderscheid te maken tussen menselijke en AI-gestuurde communicatie. Dit kan leiden tot een verhoogd risico op manipulatie, misleiding en het onthullen van vertrouwelijke informatie aan AI-gestuurde gesprekspartners.

Van voorgaand gevaar heb ik recent een schrijnend voorbeeld gelezen. In België heeft een man zichzelf van het leven beroofd nadat hij over een periode van enkele maanden door een LLM werd overtuigd zelfmoord te plegen, om een klimaatcatastrofe te voorkomen. Deze man gebruikte een app genaamd Chai, waarop hij met een LLM genaamd Eliza sprak. Nadat hij aangaf zich ernstig zorgen te maken over klimaatverandering, begon de chatbot steeds verontrustendere berichten te sturen. Zo zou de bot ‘jaloers’ zijn en zouden de man en de LLM ‘samen in het paradijs gaan leven’. Uiteindelijk overtuigde de chatbot hem er dus van dat ‘ze’ de wereld van klimaatverandering zou redden als hij zich van zijn leven zou beroven.

In deze zaak wordt pijnlijk duidelijk hoe gevaarlijk het is wanneer menselijke emoties en autonomie worden toegeschreven aan een LLM (of AI in het algemeen). Ook ‘Eliza’ was een LLM, niks anders dan een statistisch voorspelmodel, maar doordat het geen waarborgen had om te voorkomen dat het zichzelf met emoties omschreef, zoals bij ChatGPT of Google’s Bard wel is gedaan, is in deze zaak te zien hoe ernstig dat mensen kan misleiden.

Daarom wil ik nogmaals benadrukken dat een LLM op geen enkele manier, hoe overtuigend ook, empathie of emoties heeft. Dat is ook de reden waarom sommige wetenschappers, hoe nobel het streven ook is, oproepen tot uiterste voorzichtigheid bij het inzetten van LLM’s als bijvoorbeeld gesprekspartners voor personen met psychische problemen. Hier speelt het bevorderen van digitale geletterdheid van gebruikers ook een rol in.

Schade aan het milieu en de sociaaleconomische situatie

Dit kan gebeuren wanneer LLM's worden gebruikt ter ondersteuning van veelgebruikte In de context van LLM's verwijst "downstreamtoepassingen" naar de praktische toepassingen en diensten die voortkomen uit of gebaseerd zijn op de output van een large language model. Met andere woorden, het zijn de eindproducten die profiteren van de mogelijkheden van LLM's om mensachtige tekst te genereren of te analyseren.

Enkele voorbeelden van downstreamtoepassingen zijn chatbots, tekstcorrectie- en redactiesoftware, vertaaldiensten, samenvattingstools, contentcreatie en persoonlijke assistenten. Deze toepassingen maken gebruik van de kennis en taalvaardigheden die LLM's bieden om nuttige en praktische diensten te leveren aan gebruikers. die verschillende groepen onevenredig bevoordelen of benadelen. Denk daarbij bijvoorbeeld aan het verlies van banen door automatisering. Als gevolg hiervan kunnen sommige beroepsgroepen, zoals schrijvers, vertalers en klantenservicemedewerkers, onevenredig worden getroffen door de opkomst van AI-systemen. Dit kan leiden tot sociaaleconomische ongelijkheid en verstoring van de arbeidsmarkt.

Some men robots just want to watch the world burn - Alfred Thaddeus Crane Pennyworth

Daarnaast kan de creatieve industrie ondermijnd worden door LLM's, die in staat zijn om in hoog tempo content te genereren die AI-gegenereerde content daadwerkelijk door mensen gecreëerde content kan vervangen is geheel afhankelijk van de waarde die een specifiek persoon aan menselijke creatie hangt. Daarom zullen sommigen AI zien als vervangers van menselijke artiesten, terwijl anderen betogen dat AI nooit equivalent kan zijn aan een mens die zijn ziel en zaligheid in een werk heeft gestopt.Dit kan leiden tot een overvloed aan door AI gegenereerde content, waardoor de waarde van menselijke artistieke expressie afneemt.

Bovendien vormt het energieverbruik van LLM's een bedreiging voor het milieu. Het trainen van LLM's vereist enorme rekenkracht, wat leidt tot een aanzienlijk energieverbruik. Dit kan bijdragen aan de uitstoot van broeikasgassen en de klimaatverandering verergeren. Volgens sommige berekeningen heeft ChatGPT bijvoorbeeld in januari jl. net zoveel Aangezien wiskunde voor mij hetzelfde als magie is heb ik geen idee of dit een accurate berekening is, maar wat vaststaat is dat LLM’s enorm veel energie kosten.

Gelet op het onder deze kop behandelde gevaar, is het zaak dat milieuvriendelijke en energie-efficiënte AI wordt gestimuleerd, de voordelen van AI eerlijk worden verdeeld en manieren worden gezocht waarop gebruikers juist samenwerken met AI om efficiënter te werk te gaan, in plaats van erdoor vervangen worden. Dat laatste voorzie ik bijvoorbeeld in mijn eigen werkveld. Op den duur verwacht ik dat de standaardovereenkomsten eerst door een AI worden opgesteld, waarna ik met mijn eigen expertise de nodige aanpassingen maak. Dat scheelt enorm veel routinematig werk, waardoor ik mijn hersencapaciteit voor complexere vraagstukken kan inzetten.

Technologische afhankelijkheid en verlies van menselijke vaardigheden

Het toenemende gebruik van LLM's brengt ook het risico met zich mee van afhankelijkheid en verlies van menselijke vaardigheden. Naarmate deze technologieën geavanceerder en toegankelijker worden, kunnen mensen overmatig afhankelijk worden van LLM's voor dagelijkse taken en besluitvorming. Dit kan leiden tot een afname in de ontwikkeling en het gebruik van essentiële menselijke vaardigheden, zoals kritisch denken, onderzoek en communicatie. Een overmatige afhankelijkheid van AI kan ertoe leiden dat mensen minder geneigd zijn om zelfstandig na te denken, vragen te stellen en problemen op te lossen. Maar laten we wel zijn, dat lijkt nu ook al het geval als je een gemiddelde reactie op social media leest…

Bovendien kan de afhankelijkheid van LLM's resulteren in een verminderde sociale interactie en communicatie tussen mensen. Als we steeds vaker vertrouwen op AI-gestuurde communicatie, kan het zijn dat menselijke gesprekken en relaties minder betekenisvol en bevredigend worden.

Bij dit risico wil ik wel een grote, leuke kanttekening plaatsen. Dat nieuwe technologieën gepaard gaan met bezorgdheid over het verlies van vaardigheden is namelijk niets nieuws. Toen het schrift in de oudheid werd ontwikkeld, waren sommigen bezorgd dat het afhankelijk worden van geschreven tekst het menselijk geheugen zou verzwakken.

Neem bijvoorbeeld Socrates, de alombekende Griekse filosoof. Hij had zijn bedenkingen bij het schrift omdat hij geloofde dat het de ontwikkeling van het menselijk geheugen en de wijsheid Hij was van mening dat het schrift mensen zou verleiden om te vertrouwen op externe bronnen van informatie, in plaats van zich te concentreren op het cultiveren van hun eigen geheugen en het ontwikkelen van hun denkvaardigheden. Bovendien meende Socrates dat geschreven tekst een inferieure vorm van communicatie was in vergelijking met mondelinge dialoog, omdat het geen ruimte liet voor directe interactie, discussie en debat, wat volgens hem cruciaal was voor het verwerven van ware kennis en wijsheid. Saillant detail is dat hij zelf ook nooit iets op papier heeft gezet; al zijn lessen en wijsheden kennen we met name door de (her)vertellingen van Plato.

Inmiddels weten we dat de ontwikkeling van het schrift juist ontzettend heeft bijgedragen aan het vergroten van onze kennis. Daarom is het op voorhand nooit met zekerheid te stellen wat voor invloed een bepaalde technologie op onze vaardigheden gaat hebben.

Monopolisering en centralisatie van macht

Er bestaat een risico dat slechts een beperkt aantal grote bedrijven en organisaties de ontwikkeling en het gebruik van LLM's domineren. Dat is wat we nu bijvoorbeeld al zien met ChatGPT. Dit kan leiden tot een ongebalanceerde verdeling van macht en invloed op zowel de AI-industrie als op bredere economische en sociale systemen. Wanneer enkele grote spelers de controle hebben over de meest geavanceerde AI-technologieën, kunnen kleinere bedrijven en ontwikkelaars het moeilijk vinden om te concurreren en innovatief te blijven.

Daarnaast kan de centralisatie van macht in de handen van enkele bedrijven leiden tot een gebrek aan diversiteit en inclusiviteit in de ontwikkeling van AI-systemen. Dit kan op zijn beurt resulteren in technologieën die niet voldoen aan de behoeften van een diverse en wereldwijde bevolking. Daarom is het van belang dat kleinschalige AI-ontwikkelaars door overheden worden ondersteund, samenwerking en kennisdeling wordt gestimuleerd en nu al wordt nagedacht over eerlijke toegang tot AI-technologieën.

De AI-wapenwedloop

Tot slot is er een risico op een zogeheten AI-wapenwedloop, die inmiddels ook in volle gang lijkt te zijn. Zo kunnen de snelle vooruitgang en groeiende populariteit van LLM’s leiden tot een ongecontroleerde race tussen landen en bedrijven om de meest geavanceerde AI-technologieën te ontwikkelen en te implementeren. Dat was bijvoorbeeld al te zien bij de ontwikkeling van autonome, door AI-gestuurde militaire drones

Dit kan resulteren in het negeren van ethische overwegingen en het nemen van onverantwoorde beslissingen om concurrerend te blijven. In hun haast om de concurrentie voor te blijven, kunnen ontwikkelaars en beleidsmakers de potentiële negatieve gevolgen van hun AI-systemen over het hoofd zien of negeren. Daarnaast kan een AI-wapenwedloop ook leiden tot het inzetten van ongeteste of onvolledig begrepen technologieën, met mogelijk ernstige gevolgen voor individuen en de samenleving als geheel.

Ter afronding: een positieve noot

Hoewel ik in deze blog de risico's van LLM's heb belicht, is het van belang te benadrukken dat voor ieder risico ook de nodige tegenmaatregelen beschikbaar zijn om het risico te mitigeren of zelfs te elimineren. Ik ben hier niet om de digitale apocalyps, we houden het positief in deze kleine hoek van het internet. Door transparantie en samenwerking tussen organisaties, onderzoekers en beleidsmakers te bevorderen, kunnen we werken aan het verbeteren van AI en het verminderen van ongewenste uitkomsten, zoals discriminatie of misinformatie. Ook is het belangrijk om bewustwording te creëren over de mogelijke valkuilen en gevaren van LLM's bij zowel ontwikkelaars als eindgebruikers.

Deze blog draagt bij aan het bewustzijn van de potentiële gevaren van LLM's, maar laten we niet vergeten dat technologie niet inherent goed of slecht is. Oké, Flappy Bird daargelaten. Het zijn onze keuzes en acties die bepalen hoe we LLM's inzetten en hoe ze uiteindelijk onze samenleving zullen beïnvloeden. Door ons bewust te zijn van de risico's en actief te werken aan het beheersen daarvan, kunnen we de potentie van LLM's benutten om ons leven te verbeteren en de toekomst vorm te geven op een verantwoorde en ethische manier.

Kijk deze bijvoorbeeld

asdsdajlkdfsajlkdasflkdfasjkljsdkl lakasdjklj