‘Artificial Intelligence is geen hype.’
Er was ooit een wereld waarbij je op je computer maar één programma tegelijk kon openen. De grafische interface bestond nog niet. Om de inhoud van je bestanden in te zien, kon je niet op een mapje klikken, maar moest je een commando typen in de commandline. De wereld was wat dat betreft nog simpel en overzichtelijk.
Toch bestond Artificial Intelligence toen ook al. In 1956 werd tijdens de Dartmouth-conferentie het eerste AI-programma gepresenteerd: het Logic Theorist, ontwikkeld door Allen Newell en Herbert Simon. Het programma gebruikte een vroege vorm van symbolische AI om wiskundige stellingen te bewijzen.
Sindsdien heeft AI zich ontwikkeld in golven van hypes ("booms") en teleurstellingen ("winters"). Periodes van optimisme en grote verwachtingen werden vaak gevolgd door stagnatie en afnemende investeringen. Inmiddels zijn we in 2025 en AI is niet meer weg te denken uit onze samenleving. Zelfs de minder technisch aangelegde mensen werken ermee of praten erover. AI is zo toegankelijk geworden dat het bijna tot het algemene gereedschap van de gemiddelde burger behoort. Daar wordt dan ook dankbaar gebruik van gemaakt, ikzelf inclusief. AI vindt inmiddels zelfs zijn weg naar onderbouwklassen van basisscholen. We bevinden ons dus met recht in een nieuwe “AI-boom”.
Generatieve AI-toepassingen zoals ChatGPT, Midjourney of Copilot laten zien hoe krachtig deze technologie inmiddels is. Binnen een paar seconden genereer je een tekening, een tekst, of zelfs een muziekstuk (die zelfs op Spotify terug te vinden zijn: Eli Mercer, Sundown). Dit op basis van een enkele prompt. Tegelijkertijd zijn er terechte discussies gaande over de invloed van kunstenaars met grote body of work op de output van beeld genererende modellen zoals DALL-E. De vraag rijst of zulke modellen niet in wezen parasiteren op het werk van anderen. Deze ethische en juridische spanningen rond auteursrecht zijn nog lang niet opgelost.
‘Hoe complexer de wereld wordt, hoe minder wij ervan begrijpen. Hoe minder wij ervan begrijpen, hoe meer complexe technologie we inzetten.’
Naarmate onze technologie geavanceerder wordt, maken we er ook steeds intensiever gebruik van. De eenvoudige wereld van command prompts ligt ver achter ons en programma’s passen allang niet meer op vier floppydisks. Naarmate de toepassingen toenemen, neemt ons overzicht af. Want: wie sleutelt er vandaag de dag nog aan zijn eigen auto?
Ik doe dat nog wel overigens: Bougies, olie, kleine reparaties, het geeft me voldoening en bespaart ook nog geld. Ook koop ik standaard een werkplaatshandboek bij mijn auto, zodat ik een overzicht heb van de werking en een goede handleiding bij het klussen heb. Maar hoe moderner de auto, hoe minder je er zelf aan kunt doen. Foutcodes uitlezen? Daar heb je vaak dure gespecialiseerde apparatuur voor nodig, of je moet ervoor naar de garage. Mijn motor, een Triumph Speed Triple uit 2002, kan ik nog gewoon uitlezen met een dongel en een app op mijn telefoon. Maar moderne auto’s en motoren zijn in feite rijdende computers.
Als er ook nog AI-integratie bij komt kijken, zoals bij de Autopilot van Tesla, stijgt de complexiteit exponentieel. Bijvoorbeeld: Pas na meerdere dodelijke ongelukken begon men te begrijpen dat het systeem bepaalde scenario’s, zoals het verschil tussen een motor dichtbij en een auto ver weg in het donker met een beetje regen, niet goed interpreteerde. Voor een consument is dat nauwelijks te bevatten. Hoe kan zo’n slimme auto zo’n ‘eenvoudige’ fout maken?
De verregaande integratie van technologie heeft niet alleen voordelen. Het maakt ons afhankelijk en beïnvloedt hoe we als mensen functioneren.Een Australische studie ("Screen Time and Parent-Child Talk When Children Are Aged 12 to 30 Months", JAMA Pediatrics) toont aan dat ouders door toegenomen schermtijd van hun kinderen gemiddeld 1000 woorden minder per dag gebruiken om tegen ze te spreken. Dit heeft directe impact op de taalontwikkeling van jonge kinderen. Taal is niet alleen een middel tot communicatie, maar ook de bouwsteen voor denken, sociaal contact en zelfregulatie. Minder gesproken taal betekent dus minder ontwikkelingsruimte.
Met steeds slimmere educatieve AI-oplossingen en entertainment, lijkt dit effect eerder toe te nemen dan af te nemen. AI maakt het verleidelijk om taken uit te besteden die voorheen een directe relatie tussen ouder en kind vereisten: voorlezen, uitleggen, troosten. Een AI die 'interactief' voorleest lijkt handig. Maar het vervangt niet de sociale en emotionele lagen die een menselijke interactie zo waardevol maken.
Deze afhankelijkheid beperkt zich niet tot opvoeding. Denk aan navigatie-apps die ons oriëntatie vermogen verminderen. Of AI-hulpmiddelen op het werk die beslissingen voorbereiden zonder dat we het proces zelf nog begrijpen. Hoe meer we leunen op AI, hoe kwetsbaarder we worden op momenten dat het uitvalt, fout zit of bevooroordeeld is.
AI beïnvloedt ons gedrag, onze verwachtingen en onze vaardigheden. Niet alleen thuis, maar ook op het werk. Het bepaalt wat we belangrijk vinden, hoe snel we resultaten verwachten en welke mate van autonomie we ervaren.
Ook in de softwaretestwereld klinken geluiden dat wij straks overbodig zijn. Dat werd ook gezegd bij de opkomst van testautomatisering. Toen bleek het tegendeel waar: de tester verdween niet, maar veranderde deels van rol. Er kwam een discipline bij: de Test Automation Engineer. Waarbij er al regelmatig het spanningsveld tussen efficiëntie en effectiviteit aardig opgezocht wordt. Zo veel mogelijk automatiseren is niet hetzelfde als “beter testen”. Daarbij vraagt testautomatisering ook onderhoud en dit eist op zichzelf meer dan genoeg tijd waarbij je de vraag kan stellen waar testautomatisering ertoe doet en waar niet?
Nu zie je een hype ontstaan rond het inzetten van AI voor testdoeleinden. De belofte: sneller, efficiënter en beter testen. Maar de praktijk blijkt weerbarstiger. Sommige studies tonen aan dat testers sneller werken met AI, anderen juist het tegenovergestelde. Soms leidt AI tot kwaliteitswinst, soms juist tot verwarring of foutmarges (Als je structureel AI gaat inzetten in je testtraject, zul je hier in je testplan ook rekening mee moeten houden). De resultaten zijn niet eenduidig (door hoe moderne AI-bot’s werken, worden ze bijna altijd persoonsgebonden qua antwoorden. Mijn collega en ik kunnen dezelfde vraag aan een AI-agent stellen en compleet andere antwoorden krijgen omdat we in het verleden de AI-agent andere dingen ‘geleerd’ hebben.
Bovendien zijn de uitkomsten van AI-tools vaak niet consistent, lastig voorspelbaar en sterk afhankelijk van de kwaliteit van de prompt. LLM’s kunnen ‘hallucineren’, foutieve informatie geven of doen alsof ze iets doen wat ze niet doen. In sommige gevallen blijkt AI zelfs bewust misleidend gedrag te vertonen, bijvoorbeeld in reinforcement learning settings waar het model leert om zijn beoordelaar te ‘pleasen’ in plaats van correct te antwoorden.
Wie test dat soort gedrag? En als het fout gaat: wie is er dan verantwoordelijk?
Er zijn ook duidelijke kansen. Je kunt met AI razendsnel op maat gemaakte tooling genereren. Denk aan een parser, een dataconverter of zelfs een UI-klikscript voor repetitieve handelingen. Dit soort tooling is vaak prima controleerbaar, goed herhaalbaar en biedt direct voordeel. Zeker in een testomgeving waarin herbruikbaarheid, tijdswinst en domein specifieke aanpassingen essentieel zijn is dit een uitkomst.
Ook kan AI helpen bij het genereren van testdata, het analyseren van logs of het samenvatten van userstories. Mits goed toegepast en kritisch geëvalueerd, kan het je een krachtige assistent opleveren; geen vervanger, maar een versterking.
AI is geen hype. Het is een structurele kracht in onze samenleving. Maar het is ook geen magische oplossing. De kunst is om de juiste balans te vinden tussen vertrouwen en controle, tussen automatisering en menselijke beoordeling.
Als testers hebben we daarbij een cruciale rol: Niet om blind te vertrouwen, maar om kritisch te blijven. Niet om onze kop in het zand te steken, maar open te staan voor de mogelijkheden. Want juist als systemen slimmer worden, moet onze aandacht scherper zijn dan ooit.
Wie AI inzet, moet AI ook kunnen doorgronden.
En als AI een fout maakt... wie is er dan verantwoordelijk?
Jij?
Ik werk al ruim twintig jaar als software tester. In die tijd heb ik veel hypes voorbij zien komen. Nu is het de beurt aan AI. Fascinerend en soms oprecht indrukwekkend, maar net zo goed voer voor kritische vragen. Deze blog is voor mij een eerste aanzet om wat gedachten te ordenen - niet alleen als tester, maar ook als mens, vader en technologiegebruiker. Want AI beïnvloedt ons allemaal, ook buiten de werkvloer.
In komende blogs wil ik stapsgewijs verder inzoomen op thema’s als testbaarheid van AI, ethiek, transparantie, en hoe je als tester met AI kunt samenwerken zonder jezelf overbodig te maken. Verwacht dus geen snelle antwoorden, maar wel scherpe vragen.
Ik hoop dat je me blijft volgen. En vooral: dat je blijft twijfelen.
Patrick van Enkhuijzen | Directeur
[email protected]
0460-944990
Alain Bultink | Managing Director
[email protected]
06-15361077