builderall

Stel je voor: je werkt in een organisatie waar de druk om te innoveren almaar toeneemt. Overal hoor je dat Artificiële Intelligentie (AI) hét wondermiddel zou zijn?dé nieuwe ?It Girl? onder de technologieën. Iedereen wil ermee geassocieerd worden; het lijkt bijna alsof je als bedrijf niet meer meetelt zonder AI in huis. In mijn trainingen rond verbindende besluitvorming en verbindende communicatie hoor ik het elke dag: ?We kunnen toch niet achterblijven? Hoe kunnen we AI inzetten om onze besluitvorming te versterken??


AI kan zeker een handige tool zijn, maar een tool is nooit méér dan een hulpmiddel. Het gevaar schuilt in het blind vertrouwen dat AI ?intelligent? en objectief zou zijn, zonder de beperkingen en biases die wij als mensen kennen. In deze blogpost duiken we in de dynamiek tussen mens en AI in het besluitvormingsproces. We bekijken hoe AI onze menselijke informatieverwerking kan sturen, hoe we ons niet laten vangen door deepfakes en misinformatie en vooral hoe we, vanuit een verbindend perspectief, kritisch én verantwoord kunnen omgaan met deze technologie.





---------


AI: Hét nieuwe wondermiddel?


Mentorschap is een relatie waarbij de mentor de mentee begeleidt en inspireert om te groeien, zowel op persoonlijk als professioneel vlak. Hoewel leidinggevenden en managers vaak een natuurlijke mentorrol op zich nemen vanwege hun invloed en ervaring, kan mentorschap op alle niveaus in een organisatie plaatsvinden. Soms is dat zelfs nog effectiever, want peers of vakgenoten snappen elkaars dagelijkse realiteit en drempels vaak nog beter.


Overreliance en commoditsering


Wanneer organisaties AI blind vertrouwen, komt er een fenomeen in beeld dat we ?overreliance? noemen: overmatig vertrouwen in technologie. Dit leidt tot een zekere gemakzucht of luiheid, waardoor je kritische zin verzwakt. In mijn trainingen zie ik soms dat teams, uit angst om ?achter te blijven?, zomaar AI-tools beginnen in te zetten zonder de nodige omkadering. Het gevolg? De AI-algoritmes worden gezien als onfeilbare orakels. Men vergeet dat die systemen óók door mensen geprogrammeerd zijn, mét alle vooroordelen en beperkingen die daarbij horen.


Tegelijkertijd wint AI in korte tijd zo?n grote populariteit dat er decommoditisering op de loer ligt: iedereen heeft het, iedereen wil het, waardoor het steeds minder een uniek competitief voordeel is. De ironie is dat deze hype en ?It Girl?-status ons vaak blind maakt voor zowel de kracht als de valkuilen die AI in zich draagt.


Hoe nemen wij als mens beslissingen?


Om te begrijpen hoe AI ons beslissingsproces beïnvloedt, moeten we eerst kijken naar hoe wij als mens, zonder technologie, tot keuzes komen. Een verhelderend perspectief komt uit de neurowetenschap, met het zogeheten accumulation to threshold-model. Dit model stelt voor dat je in je brein een aantal ?emmertjes? hebt waarin informatie druppelt. Zodra een emmer volloopt?een bepaald drempelniveau is bereikt?neem je een beslissing.


Voorbeeld: oversteken van de straat


Stel, je wil de straat oversteken. Je kijkt naar het licht: is het groen of rood? Zijn er auto?s in de buurt? Informatie die zegt dat het veilig is (?Er is geen auto?, ?Het licht is rood voor de auto?s?, enzovoort) vult je ?stap door?-emmer. Informatie die aantoont dat het onveilig is (?De auto?s rijden nog?, ?Het licht is niet duidelijk te zien door de mist?) vult je ?wacht even?-emmer. Zodra één van deze emmertjes vol is?er is genoeg bewijs om door te lopen of te wachten?komt de actie.


Rol van waarden, overtuigingen en biases


Niet alleen externe informatie is belangrijk; ook onze persoonlijke waarden en overtuigingen kleuren de informatie die in de emmertjes terechtkomt. Iemand die van nature risicovermijdend is, zal sneller geneigd zijn om een geel licht te interpreteren als ?stoppen?, terwijl een ander denkt: ?Geel betekent: nog snel doorstappen.? We projecteren onze bias en ons perspectief op de informatie die we binnenkrijgen, en dat proces stuurt onze uiteindelijke beslissing.


De invloed van AI op ons beslissingsproces


In het licht van dit beslissingsmodel is het duidelijk dat AI een enorme invloed kan uitoefenen op:


  1. Het soort informatie dat we ontvangen.
  2. De kwaliteit van die informatie.
  3. Onze perceptie van objectiviteit.


Echo chambers en gebrekkige diversiteit


AI-algoritmes?zoals we die al kennen van social media?laten ons vooral zien wat we vermoedelijk interessant vinden. Het gevolg is dat we minder blootgesteld worden aan tegengeluiden of alternatieve perspectieven. Daardoor vullen onze ?emmertjes? zich eenzijdig. We raken als het ware vast in een ?feedback loop?, waar we alleen informatie zien die bevestigt wat we al dachten. Het resultaat: een bevooroordeeld beslissingsproces, met minder ruimte voor kritische reflectie.


Hyper-realistische content en deepfakes


Een van de meest zorgwekkende ontwikkelingen is de opkomst van deepfake-video?s en zeer realistisch klinkende AI-gegenereerde stemmen. Deze technologieën kunnen onze zintuigen op het verkeerde been zetten. Want als je ogen en oren je vertellen dat iets ?echt? is, terwijl het kunstmatig gecreëerd blijkt, wordt het moeilijk om feit van fictie te onderscheiden. De informatie die we aan onze emmertjes toevoegen, is mogelijk misleidend of ronduit vals.


Dit heeft niet alleen invloed op het vertrouwen in de content die we wél zien, maar ondermijnt ook ons vertrouwen in authentiek materiaal. We bereiken een kantelpunt waar de scheidslijn tussen echt en nep vervaagt. Dat kan ervoor zorgen dat we óf overal aan gaan twijfelen (dus heel traag of niet meer beslissen) óf net uit angst of emotie impulsieve keuzes maken. Beide extremen zijn natuurlijk funest voor verbindende besluitvorming.


Vanuit verbindend perspectief: hoe blijven we kritisch én in dialoog?


Als trainer in verbindende besluitvorming en verbindende communicatie geloof ik sterk in het potentieel van AI. Maar ik bekijk het ook graag vanuit een holistische bril: hoe kunnen we AI inzetten op een manier die bijdraagt aan écht contact, échte verbinding? Daarvoor zijn twee elementen essentieel:


  1. Zelfbewustzijn: weten hoe wij als mens beslissingen nemen, inclusief onze eigen valkuilen, biases en emotionele triggers.
  2. Collectief leren: AI niet zien als een vervanging van menselijk overleg, maar als een extra instrument dat we samen kunnen benutten, mits we de uitkomsten (die de AI voorschotelt) kritisch durven bevragen.


Cultuur van psychologische veiligheid


Een cruciaal onderdeel van verbindende besluitvorming is het creëren van psychologische veiligheid: een omgeving waarin mensen zich vrij voelen om kritische vragen te stellen, ook over AI. Werknemers moeten zich veilig genoeg voelen om, indien een AI-resultaat of aanbeveling niet overeenstemt met de intuïtie of de feiten, hun bedenkingen te uiten.


In een organisatie waar AI als onfeilbaar wordt beschouwd, is de drempel om die AI-uitkomst in vraag te stellen vaak hoog. Maar wie of wat geeft ons de garantie dat de onderliggende dataset representatief is? Of dat er geen onbewuste vooroordelen zijn meegeslopen in het algoritme? Wanneer medewerkers zich veilig voelen om dergelijke vragen te stellen, bevordert dat de kwaliteit van de beslissingen en de menselijke component.


Realistische kijk op AI: grenzen en mogelijkheden


AI is een krachtig hulpmiddel, maar blijft uiteindelijk slechts een model dat patronen herkent en daaruit voorspellingen doet. AI heeft geen zelfbewustzijn, geen moreel kompas, en al helemaal geen ?common sense?. Wanneer we dus verbindend willen blijven samenwerken, moeten we beseffen dat de interpretatie en toepassing van AI-inzichten steeds in mensenhanden ligt.


Hoe doen we dat concreet? Door regelmatig stil te staan bij de vraag: ?Versterkt deze AI-tool onze samenwerking en besluitvorming, of staan we ons kritisch vermogen in de weg?? Durf te evalueren of bepaalde AI-toepassingen wel echt bijdragen aan het gemeenschappelijk doel.


Waarom is kritische reflectie zo belangrijk?


Menselijke biases versus AI-biases


Wij mensen hebben al sinds jaar en dag last van cognitieve biases: confirmation bias, anchoring bias, noem maar op. AI is geen neutrale tovenaar die deze menselijke fouten zomaar wegneemt. Sterker nog: AI kan onze biases versterken, doordat het leert van historische data waar dezelfde vooroordelen in zitten.


Zelfs de meest geavanceerde AI-modellen kunnen vooringenomen conclusies trekken als de data waarop ze getraind zijn, beperkt of gekleurd is. Bijvoorbeeld: een AI-recruitmenttool die hoofdzakelijk op data van mannelijke kandidaten getraind is, kan (onbewust) meer mannelijke kandidaten aanbevelen dan vrouwelijke, ook al is er formeel nergens ?voorkeur voor mannen? in geprogrammeerd.


Blinde vlekken en doorprikken


Een verbindende besluitvormingscultuur houdt in dat je niet alleen openstaat voor diverse invalshoeken, maar dat je actief op zoek gaat naar potentiële blinde vlekken. AI-resultaten zijn slechts zo goed als de vragen die je stelt en de data die je invoert. Het is dus zaak om altijd te checken: is dit resultaat plausibel en moreel juist? Vertelt het hele verhaal of slechts een deel?


Een mooi voorbeeld is een HR-team dat AI inzet voor het voorspellen van verzuim of verloop. Als de AI vooral gegevens meeneemt over ?verzuimverleden? maar niet kijkt naar werkomstandigheden of werkdruk, kan het algoritme foutieve conclusies trekken. Het is dan cruciaal om als mens te blijven doorprikken: ?Waar baseert deze AI zich op?? en ?Hoe kunnen we de dataset verrijken??


De impact op onze maatschappij


De populariteit van AI reikt verder dan alleen het bedrijfsleven. Ook in de bredere maatschappij roept het vragen op over privacy, ethische verantwoordelijkheid en democratische besluitvorming. Bijvoorbeeld: hoe gaan overheden AI inzetten om te beslissen over subsidies, vergunningen of veiligheidsmaatregelen? Als AI-algoritmes steeds vaker een beslissende stem krijgen, is er dan nog voldoende inspraak van burgers? Komt de menselijke maat niet in het gedrang?


Informatie als vorm van macht


AI heeft de capaciteit om gigantische hoeveelheden data te analyseren en patronen te herkennen die voor mensen verborgen blijven. Dat kan leiden tot indrukwekkende inzichten, maar ook tot nieuwe vormen van ongelijkheid. Degene die de technologie bezit en beheerst, kan de informatiestroom sturen en zo de besluitvorming (en zelfs de publieke opinie) beïnvloeden. Dat maakt het des te belangrijker om, vanuit verbindende principes, transparantie en open dialoog te bevorderen over hoe AI wordt ingezet.


De essentie: AI als instrument, niet als vervanging


In het kader van verbindende communicatie is het belangrijk dat we AI blijven zien als ondersteuning. De technologie mag geen barrière worden tussen mensen, maar eerder een facilitator van nieuwe mogelijkheden. Net zoals een goed gereedschap nuttig is in handen van een vakman, is een AI-systeem pas echt waardevol als het in samenspel met menselijke empathie, creativiteit en kritisch vermogen wordt ingezet.


3 tips om om te gaan met de gevaren van AI in het beslissingsproces


Ik rond graag af met drie concrete tips om je te wapenen tegen de valkuilen van AI in besluitvorming. Deze tips sluiten rechtstreeks aan bij de principes van verbindend samenwerken en communiceren.


Investeer in AI-geletterdheid en kritische competenties


Net zoals we alfabetisering hebben voor taal, moeten we in deze tijd ook investeren in ?AI-geletterdheid?. Het gaat hier niet (alleen) om technische kennis, maar vooral om inzicht in wat AI kan en niet kan, waar de fouten (biases, onvolledige data) kunnen zitten en hoe je AI-resultaten correct interpreteert. Een team dat weet hoe AI werkt, zal minder geneigd zijn tot blind vertrouwen. Zorg dus voor opleidingen en workshops waarin medewerkers en leidinggevenden leren welke vragen ze moeten stellen bij AI-output. Ondersteun dit met een cultuur van continu leren: AI evolueert razendsnel, dus ook je kennis moet up-to-date blijven.


?????


Creëer ruimte voor open dialoog en tegenspraak


Zorg voor een omgeving waar mensen zich veilig voelen om domme vragen te stellen of AI-resultaten in twijfel te trekken. Niet iedereen is technologie-expert, en juist in de dialoog tussen techneuten, beleidsmakers en eindgebruikers schuilt enorme waarde. Dit is een kernprincipe van verbindende besluitvorming: elke stem telt, en elke stem kan nieuwe inzichten opleveren. Organiseer bijvoorbeeld vaste momenten om AI-adviezen samen kritisch te analyseren, en benoem expliciet dat het oké is om vraagtekens te plaatsen bij de AI-resultaten.


Blijf het menselijke hart betrekken in elke beslissing


Verbinding maken betekent ook dat je de menselijke behoeften, waarden en emoties centraal blijft stellen. AI kan ons veel vertellen over feiten en statistieken, maar geen ethische keuzes voor ons maken. Blijf dus ruimte geven aan de menselijke factor: hoe voelt een bepaalde beslissing? Wat zijn de mogelijke sociale gevolgen? Gebruik AI-output als aanvulling, niet als vervanging, en weeg de menselijke argumenten mee. Ga bewust op zoek naar scenario?s waarin AI?s uitkomst haaks kan staan op morele overwegingen of langetermijngevolgen voor mens en maatschappij. Maak die spanningen bespreekbaar, en zorg dat empathie en ethiek in het hart van je besluitvorming staan.


Conclusie


AI is onmiskenbaar een krachtig hulpmiddel. Het kan een enorme meerwaarde bieden in ons beslissingsproces en onze samenwerking efficiënter maken. Maar laten we niet vergeten dat AI ook risico?s met zich meebrengt: van het creëren van echo chambers en vervormde informatie tot het inboezemen van onterecht vertrouwen in schijnbaar objectieve ?waarheden?.


In de kern gaat verbindende besluitvorming over het behouden van de menselijke maat: begrip voor elkaars perspectieven, kritische reflectie, ethische afwegingen en empathie. AI kan ons daarbij ondersteunen, maar niet vervangen. Laat het een wake-upcall zijn: in tijden van hypermoderne technologie is de vraag misschien wel urgenter dan ooit hoe we als mens en organisatie in verbinding blijven met ons kritisch vermogen en onze gemeenschappelijke waarden.


Dus ga vooral op ontdekking met AI, maar blijf alert. Zorg ervoor dat je team en organisatie voldoende kennis in huis hebben, stimuleer open dialoog en integreer de menselijke maat in élk besluit. Zo bouwen we samen aan een toekomst waarin AI en mensen hand in hand gaan?niet als vervanging, maar als versterking van wat ons mens maakt.