---------
Mentorschap is een relatie waarbij de mentor de mentee begeleidt en inspireert om te groeien, zowel op persoonlijk als professioneel vlak. Hoewel leidinggevenden en managers vaak een natuurlijke mentorrol op zich nemen vanwege hun invloed en ervaring, kan mentorschap op alle niveaus in een organisatie plaatsvinden. Soms is dat zelfs nog effectiever, want peers of vakgenoten snappen elkaars dagelijkse realiteit en drempels vaak nog beter.
Wanneer organisaties AI blind vertrouwen, komt er een fenomeen in beeld dat we ?overreliance? noemen: overmatig vertrouwen in technologie. Dit leidt tot een zekere gemakzucht of luiheid, waardoor je kritische zin verzwakt. In mijn trainingen zie ik soms dat teams, uit angst om ?achter te blijven?, zomaar AI-tools beginnen in te zetten zonder de nodige omkadering. Het gevolg? De AI-algoritmes worden gezien als onfeilbare orakels. Men vergeet dat die systemen óók door mensen geprogrammeerd zijn, mét alle vooroordelen en beperkingen die daarbij horen.
Tegelijkertijd wint AI in korte tijd zo?n grote populariteit dat er decommoditisering op de loer ligt: iedereen heeft het, iedereen wil het, waardoor het steeds minder een uniek competitief voordeel is. De ironie is dat deze hype en ?It Girl?-status ons vaak blind maakt voor zowel de kracht als de valkuilen die AI in zich draagt.
Om te begrijpen hoe AI ons beslissingsproces beïnvloedt, moeten we eerst kijken naar hoe wij als mens, zonder technologie, tot keuzes komen. Een verhelderend perspectief komt uit de neurowetenschap, met het zogeheten accumulation to threshold-model. Dit model stelt voor dat je in je brein een aantal ?emmertjes? hebt waarin informatie druppelt. Zodra een emmer volloopt?een bepaald drempelniveau is bereikt?neem je een beslissing.
Stel, je wil de straat oversteken. Je kijkt naar het licht: is het groen of rood? Zijn er auto?s in de buurt? Informatie die zegt dat het veilig is (?Er is geen auto?, ?Het licht is rood voor de auto?s?, enzovoort) vult je ?stap door?-emmer. Informatie die aantoont dat het onveilig is (?De auto?s rijden nog?, ?Het licht is niet duidelijk te zien door de mist?) vult je ?wacht even?-emmer. Zodra één van deze emmertjes vol is?er is genoeg bewijs om door te lopen of te wachten?komt de actie.
Niet alleen externe informatie is belangrijk; ook onze persoonlijke waarden en overtuigingen kleuren de informatie die in de emmertjes terechtkomt. Iemand die van nature risicovermijdend is, zal sneller geneigd zijn om een geel licht te interpreteren als ?stoppen?, terwijl een ander denkt: ?Geel betekent: nog snel doorstappen.? We projecteren onze bias en ons perspectief op de informatie die we binnenkrijgen, en dat proces stuurt onze uiteindelijke beslissing.
In het licht van dit beslissingsmodel is het duidelijk dat AI een enorme invloed kan uitoefenen op:
AI-algoritmes?zoals we die al kennen van social media?laten ons vooral zien wat we vermoedelijk interessant vinden. Het gevolg is dat we minder blootgesteld worden aan tegengeluiden of alternatieve perspectieven. Daardoor vullen onze ?emmertjes? zich eenzijdig. We raken als het ware vast in een ?feedback loop?, waar we alleen informatie zien die bevestigt wat we al dachten. Het resultaat: een bevooroordeeld beslissingsproces, met minder ruimte voor kritische reflectie.
Een van de meest zorgwekkende ontwikkelingen is de opkomst van deepfake-video?s en zeer realistisch klinkende AI-gegenereerde stemmen. Deze technologieën kunnen onze zintuigen op het verkeerde been zetten. Want als je ogen en oren je vertellen dat iets ?echt? is, terwijl het kunstmatig gecreëerd blijkt, wordt het moeilijk om feit van fictie te onderscheiden. De informatie die we aan onze emmertjes toevoegen, is mogelijk misleidend of ronduit vals.
Dit heeft niet alleen invloed op het vertrouwen in de content die we wél zien, maar ondermijnt ook ons vertrouwen in authentiek materiaal. We bereiken een kantelpunt waar de scheidslijn tussen echt en nep vervaagt. Dat kan ervoor zorgen dat we óf overal aan gaan twijfelen (dus heel traag of niet meer beslissen) óf net uit angst of emotie impulsieve keuzes maken. Beide extremen zijn natuurlijk funest voor verbindende besluitvorming.
Als trainer in verbindende besluitvorming en verbindende communicatie geloof ik sterk in het potentieel van AI. Maar ik bekijk het ook graag vanuit een holistische bril: hoe kunnen we AI inzetten op een manier die bijdraagt aan écht contact, échte verbinding? Daarvoor zijn twee elementen essentieel:
Een cruciaal onderdeel van verbindende besluitvorming is het creëren van psychologische veiligheid: een omgeving waarin mensen zich vrij voelen om kritische vragen te stellen, ook over AI. Werknemers moeten zich veilig genoeg voelen om, indien een AI-resultaat of aanbeveling niet overeenstemt met de intuïtie of de feiten, hun bedenkingen te uiten.
In een organisatie waar AI als onfeilbaar wordt beschouwd, is de drempel om die AI-uitkomst in vraag te stellen vaak hoog. Maar wie of wat geeft ons de garantie dat de onderliggende dataset representatief is? Of dat er geen onbewuste vooroordelen zijn meegeslopen in het algoritme? Wanneer medewerkers zich veilig voelen om dergelijke vragen te stellen, bevordert dat de kwaliteit van de beslissingen en de menselijke component.
AI is een krachtig hulpmiddel, maar blijft uiteindelijk slechts een model dat patronen herkent en daaruit voorspellingen doet. AI heeft geen zelfbewustzijn, geen moreel kompas, en al helemaal geen ?common sense?. Wanneer we dus verbindend willen blijven samenwerken, moeten we beseffen dat de interpretatie en toepassing van AI-inzichten steeds in mensenhanden ligt.
Hoe doen we dat concreet? Door regelmatig stil te staan bij de vraag: ?Versterkt deze AI-tool onze samenwerking en besluitvorming, of staan we ons kritisch vermogen in de weg?? Durf te evalueren of bepaalde AI-toepassingen wel echt bijdragen aan het gemeenschappelijk doel.
Wij mensen hebben al sinds jaar en dag last van cognitieve biases: confirmation bias, anchoring bias, noem maar op. AI is geen neutrale tovenaar die deze menselijke fouten zomaar wegneemt. Sterker nog: AI kan onze biases versterken, doordat het leert van historische data waar dezelfde vooroordelen in zitten.
Zelfs de meest geavanceerde AI-modellen kunnen vooringenomen conclusies trekken als de data waarop ze getraind zijn, beperkt of gekleurd is. Bijvoorbeeld: een AI-recruitmenttool die hoofdzakelijk op data van mannelijke kandidaten getraind is, kan (onbewust) meer mannelijke kandidaten aanbevelen dan vrouwelijke, ook al is er formeel nergens ?voorkeur voor mannen? in geprogrammeerd.
Een verbindende besluitvormingscultuur houdt in dat je niet alleen openstaat voor diverse invalshoeken, maar dat je actief op zoek gaat naar potentiële blinde vlekken. AI-resultaten zijn slechts zo goed als de vragen die je stelt en de data die je invoert. Het is dus zaak om altijd te checken: is dit resultaat plausibel en moreel juist? Vertelt het hele verhaal of slechts een deel?
Een mooi voorbeeld is een HR-team dat AI inzet voor het voorspellen van verzuim of verloop. Als de AI vooral gegevens meeneemt over ?verzuimverleden? maar niet kijkt naar werkomstandigheden of werkdruk, kan het algoritme foutieve conclusies trekken. Het is dan cruciaal om als mens te blijven doorprikken: ?Waar baseert deze AI zich op?? en ?Hoe kunnen we de dataset verrijken??
De populariteit van AI reikt verder dan alleen het bedrijfsleven. Ook in de bredere maatschappij roept het vragen op over privacy, ethische verantwoordelijkheid en democratische besluitvorming. Bijvoorbeeld: hoe gaan overheden AI inzetten om te beslissen over subsidies, vergunningen of veiligheidsmaatregelen? Als AI-algoritmes steeds vaker een beslissende stem krijgen, is er dan nog voldoende inspraak van burgers? Komt de menselijke maat niet in het gedrang?
AI heeft de capaciteit om gigantische hoeveelheden data te analyseren en patronen te herkennen die voor mensen verborgen blijven. Dat kan leiden tot indrukwekkende inzichten, maar ook tot nieuwe vormen van ongelijkheid. Degene die de technologie bezit en beheerst, kan de informatiestroom sturen en zo de besluitvorming (en zelfs de publieke opinie) beïnvloeden. Dat maakt het des te belangrijker om, vanuit verbindende principes, transparantie en open dialoog te bevorderen over hoe AI wordt ingezet.
In het kader van verbindende communicatie is het belangrijk dat we AI blijven zien als ondersteuning. De technologie mag geen barrière worden tussen mensen, maar eerder een facilitator van nieuwe mogelijkheden. Net zoals een goed gereedschap nuttig is in handen van een vakman, is een AI-systeem pas echt waardevol als het in samenspel met menselijke empathie, creativiteit en kritisch vermogen wordt ingezet.
Ik rond graag af met drie concrete tips om je te wapenen tegen de valkuilen van AI in besluitvorming. Deze tips sluiten rechtstreeks aan bij de principes van verbindend samenwerken en communiceren.
Net zoals we alfabetisering hebben voor taal, moeten we in deze tijd ook investeren in ?AI-geletterdheid?. Het gaat hier niet (alleen) om technische kennis, maar vooral om inzicht in wat AI kan en niet kan, waar de fouten (biases, onvolledige data) kunnen zitten en hoe je AI-resultaten correct interpreteert. Een team dat weet hoe AI werkt, zal minder geneigd zijn tot blind vertrouwen. Zorg dus voor opleidingen en workshops waarin medewerkers en leidinggevenden leren welke vragen ze moeten stellen bij AI-output. Ondersteun dit met een cultuur van continu leren: AI evolueert razendsnel, dus ook je kennis moet up-to-date blijven.
?????
Zorg voor een omgeving waar mensen zich veilig voelen om domme vragen te stellen of AI-resultaten in twijfel te trekken. Niet iedereen is technologie-expert, en juist in de dialoog tussen techneuten, beleidsmakers en eindgebruikers schuilt enorme waarde. Dit is een kernprincipe van verbindende besluitvorming: elke stem telt, en elke stem kan nieuwe inzichten opleveren. Organiseer bijvoorbeeld vaste momenten om AI-adviezen samen kritisch te analyseren, en benoem expliciet dat het oké is om vraagtekens te plaatsen bij de AI-resultaten.
Verbinding maken betekent ook dat je de menselijke behoeften, waarden en emoties centraal blijft stellen. AI kan ons veel vertellen over feiten en statistieken, maar geen ethische keuzes voor ons maken. Blijf dus ruimte geven aan de menselijke factor: hoe voelt een bepaalde beslissing? Wat zijn de mogelijke sociale gevolgen? Gebruik AI-output als aanvulling, niet als vervanging, en weeg de menselijke argumenten mee. Ga bewust op zoek naar scenario?s waarin AI?s uitkomst haaks kan staan op morele overwegingen of langetermijngevolgen voor mens en maatschappij. Maak die spanningen bespreekbaar, en zorg dat empathie en ethiek in het hart van je besluitvorming staan.
AI is onmiskenbaar een krachtig hulpmiddel. Het kan een enorme meerwaarde bieden in ons beslissingsproces en onze samenwerking efficiënter maken. Maar laten we niet vergeten dat AI ook risico?s met zich meebrengt: van het creëren van echo chambers en vervormde informatie tot het inboezemen van onterecht vertrouwen in schijnbaar objectieve ?waarheden?.
In de kern gaat verbindende besluitvorming over het behouden van de menselijke maat: begrip voor elkaars perspectieven, kritische reflectie, ethische afwegingen en empathie. AI kan ons daarbij ondersteunen, maar niet vervangen. Laat het een wake-upcall zijn: in tijden van hypermoderne technologie is de vraag misschien wel urgenter dan ooit hoe we als mens en organisatie in verbinding blijven met ons kritisch vermogen en onze gemeenschappelijke waarden.
Dus ga vooral op ontdekking met AI, maar blijf alert. Zorg ervoor dat je team en organisatie voldoende kennis in huis hebben, stimuleer open dialoog en integreer de menselijke maat in élk besluit. Zo bouwen we samen aan een toekomst waarin AI en mensen hand in hand gaan?niet als vervanging, maar als versterking van wat ons mens maakt.