AI kan tegenwoordig zowat alles: van het maken van roosters en realtime monitoring via sensoren tot predictive maintenance. Maar welke toepassingen zijn vooral voor arboprofessionals relevant?
Jan Popma, gastonderzoeker Arbo, risico en recht aan de VU Amsterdam, beantwoordt die vraag: "Dat zijn vooral volgsystemen voor werknemers waarbij hun privacy in het geding komt. Maar ook AI-systemen die beslissingen nemen voor werknemers, waardoor zij hun autonomie kwijtraken. Dat is niet nieuw, want bij bijvoorbeeld lopendebandwerk gebeurt dat al een hele tijd. Maar het rukt nu ook op in de dienstensector, waar het steeds dwingender wordt."
Wes Damen, eveneens gastonderzoeker aan de VU Amsterdam, vertelt over de zogenaamde bossware. "Dit zijn softwaretoepassingen die werknemers monitoren, of zelfs scores en beoordelingen geven. Werkgevers kunnen zo elke klik en muisbeweging van hun werknemers volgen. Dat geeft hun ongelooflijke macht. Werknemers hebben daardoor – logischerwijs – het gevoel dat ze in de gaten gehouden, bekeken en bespioneerd worden. Dat kan leiden tot stress en het werkplezier negatief beïnvloeden."
Alarmsignalen bij problematische AI-systemen
De vraag die rijst is of er signalen zijn waaraan je kunt merken dat een AI-systeem problematisch is. "Die zijn er zeker", legt Popma uit. "Een belangrijk signaal is stijgend verzuim door psychosociale klachten. Gebrek aan autonomie en toenemende werkdruk zijn hiervan de twee belangrijkste oorzaken. Autonomie draagt namelijk bij aan het welbevinden en de psychische gezondheid van werknemers. En juist AI-systemen kunnen leiden tot minder autonomie en hogere werkdruk."
Maar ook agressie richting technologie of collega's kan een alarmsignaal zijn, gaat hij verder: "Als AI fouten maakt, als het onduidelijk is waarom iets gebeurt, of als AI output produceert die verwarrend of onnauwkeurig is, kan dit leiden tot boosheid, verwijten of agressief gedrag. Hier is nog vrij weinig onderzoek naar gedaan, maar de term technostress bestaat al sinds 1984."
Alert zijn op signalen van onlogische output
Het feit dat je onlogische output krijgt, kan ook een belangrijk signaal zijn dat een AI-systeem problematisch is, legt hoger veiligheidskundige Kees Kraaiveld uit. "Denk aan beslissingen die niet te herleiden zijn of afwijkingen die niet logisch lijken vanuit de eigen expertise. AI-systemen kunnen namelijk heel overtuigend en logisch klinken, maar dat betekent niet dat ze ook kloppen. Juist die ogenschijnlijke logica is verraderlijk: details kunnen net verkeerd zijn of niet passen binnen de Nederlandse wetgeving. Het is daarom belangrijk dat arboprofessionals alert zijn op signalen van onbetrouwbare output."
AI volgen kan leiden tot gevaarlijke situaties
In dit licht maakt Popma zich zorgen dat werknemers met weinig eigen expertise slaafs volgen wat het systeem hen opdraagt. "Dat heet computer bias: als een beslissing uit een computer komt, zijn we sneller geneigd om dat als waarheid aan te nemen. Dit kan leiden tot gevaarlijke situaties. Zeker wanneer veiligheidskritische systemen onverwachts falen of werknemers beslissingen van AI kritiekloos opvolgen."
Damen haakt hierop in met nog een ander veiligheidsrisico. "Stel dat AI namens de werkgever een distributiemedewerker de instructie geeft om pallets op te halen aan de andere kant van de loods, en wel binnen een x aantal minuten? De planning is vaak ingericht op een ongestoord proces, maar een verstoring is natuurlijk altijd mogelijk. Bijvoorbeeld door een heftruck die in de weg staat zodat de medewerker er niet langs kan. De veiligheid van de werknemer heeft hier uiteraard prioriteit, maar dit wordt zelden verdisconteerd in AI-systemen op de werkvloer. Algoritmisch management 'optimaliseert' vooral vanuit bedrijfsmatige overwegingen, niet vanuit de veiligheid en gezondheid van de werknemer."
Duidelijk AI-beleid van aanschaf tot werkvloer
Om de risico's van AI op de werkvloer te beperken, wijzen de deskundigen op een aantal maatregelen. Popma benadrukt dat het belangrijk is om al vóór de aanschaf van een systeem goed na te denken over de gevolgen voor het werk. "Het is belangrijk een goede Taak Risico Analyse (TRA) uit te voeren bij herontwerp van functies, bij voorkeur al vóór aanschaf. Zo'n risicobeoordeling is ook verplicht op grond van artikel 5 van de Arbowet. Daarnaast is het van belang tussentijdse evaluaties uit te voeren en een gebruikerstevredenheidsonderzoek te houden onder de werknemers die ermee werken."
Kraaiveld pleit voor duidelijke interne afspraken en structuur. "In veel organisaties gebruiken medewerkers AI zonder dat daar richtlijnen voor zijn. Dan is er geen beleid over wat je wel of niet mag invoeren, of welke systemen je moet gebruiken. Dat zorgt voor risico's rond privacy en bedrijfsgevoelige informatie. Het is daarom belangrijk dat er duidelijke afspraken in de organisatie zijn over wat wel en niet mag met AI. Wat zijn de do's en wat zijn de absolute don'ts?"
Ook stelt hij voor om een AI-officer aan te stellen in de organisatie. "Iemand die de interne richtlijnen opstelt en bewaakt. En die de snel op elkaar volgende AI-ontwikkelingen op de voet volgt. Zodat je als bedrijf rust hebt: we hebben iemand die het in de gaten houdt."
In vroeg stadium betrokken bij AI-systemen
Arboprofessionals kunnen hierin een belangrijke rol spelen. Volgens de deskundigen kunnen ze hun invloed het best laten gelden door vroeg in het proces betrokken te zijn bij de keuze en implementatie van AI-systemen.
Kraaiveld: "Dat begint met het overtuigend neerzetten van de casus waarom hun inbreng onmisbaar is. Als je als arboprofessional overtuigend kunt uitleggen welke risico's door AI kunnen ontstaan op het gebied van veiligheid, gezondheid en privacy, dan heb je een veel sterkere positie aan tafel. Bovendien kunnen arboprofessionals een waardevolle rol spelen bij het beoordelen van de afwegingskaders: introduceert het AI-systeem geen nieuwe risico's die groter zijn dan de risico's die het moet oplossen?"
Toekomstige werkvloer: slim, duurzaam, mensgericht
Dat AI de manier waarop we werken verandert, is overduidelijk. Maar hóe dat eruit zal zien, bepalen we voor een groot deel zelf. Door alert te blijven en tijdig expertise in te schakelen, kunnen we ervoor zorgen dat technologie de werkvloer niet overneemt, maar ondersteunt. Arboprofessionals hebben daarin een sleutelrol: zij zorgen ervoor dat innovatie hand in hand gaat met veiligheid, (mentaal) welzijn en respect voor werknemersrechten. Zo bouwen we aan een toekomst die niet alleen slim is, maar ook duurzaam en mensgericht.
Leestips:
- Popma, J. & Damen, W. Medezeggenschap bij de introductie van algoritmisch management. In: Tijdschrift Recht en Arbeid, 2025/32, april 2025, p. 2-7
- Cefaliello, A. & Popma, J. How can workers protect themselves against the risks of new technologies? In: HESAMAG 29
















