Faciliteren met Kunstmatige Intelligentie

14/12/2022 Door Rick Lindeman

Eigenlijk dacht ik voor dit blog aan een echte clickbait-kop als ‘Deze geniale tool maakt de facilitator overbodig’, maar dat zou misschien voor mn eigen lange-termijnmarketing niet zo handig zijn. Bovendien, het is ook vooral interessant hoe kunstmatige-intelligentie de facilitator kan helpen.

De afgelopen weken is er veel ophef over ChatGPT geweest. Dit is een website die het mogelijk maakt met simpel commando’s chatbot een gedicht of een artikel te laten schrijven. Het ziet er heel menselijk uit. Het zal dan ook menig scholier aan een opstelletje helpen.

Ik was benieuwd of het ook een rol kon spelen in het Faciliteren van sessies. En dus ging ik lekker met de bot spelen. Ik liet ChatGPT maar eens brainstormen.

Zoals je ziet zijn het allemaal geen idioot-klinkende oplossingen. Bovendien leverde elke ‘run’ die ik de bot liet draaien nieuwe oplossingen op. Toch is de bot natuurlijk niet echt slim. Al deze oplossingen weet ie ergens te plukken van het internet. Ze zijn ook niet vernieuwend. Toch zijn ze niet heel veel anders dan ik onlangs van bij een trainee battle kreeg. Bij een gewone ‘kale’ brainstorm kan je ook niet veel meer verwachten, daarom passen we zaken als ‘context’ mapping toe om te zorgen dat oplossingen (vraag) gerichter worden of associëren we met bloemen of superhelden om nieuwe verbindingen te leggen. Zo wordt het brein getriggerd om tot hele nieuwe inzichten te komen.

Toch kan ChatGPT al wel nuttig zijn. Zo heb je bijvoorbeeld een set ‘basisoplossingen’ al klaar, of kan je je als facilitator voorbereiden op het type probleem wat je tegen kan komen in een sessie. Ik liet de bot bijvoorbeeld ook oplossing 3 uitwerken.

Dit is een mooie check of er geen perpectief vergeten is bij de uitwerking, of dat deelnemers de oplossing hetzelfde interpreteren. De bot weigerde trouwens de beste oplossing te kiezen, omdat dat volgens hem (?) contextafhankelijk was. Een fijn stukje zelfinzicht, want ChatGPT werd binnen al een dag al ontmaskerd, omdat hij behoorlijk wat vooroordelen in zich had. Een script om goede wetenschappers te kiezen bestond bijvoorbeeld uit vragen als ‘is het een man? is ie wit?’.

Toch was ik ook wel onder de indruk. Onderstaand plan van aanpak voor een fietsenstalling ziet er toch prima uit. Een gemiddelde ambtelijke werkgroep is hier toch wel een uurtje mee bezig.

Moeten die ambtenaren zich dan al bedreigd gaan voelen? Dat zal wel meevallen. Zoals Seth Godin fijntjes opmerkte in zijn blog ‘Als jouw werk echt niet beter is dan iets dan wat een bot in 12 seconde kan maken, dan is je werk misschien niet zo goed.’. Ik zie het risico wel ergens anders. We zien dat handboeken en algoritmes door tijdgebrek toegepast worden zonder na te denken. Dat levert soms verschrikkelijke resultaten op. Aangezien algoritmes en bots vol vooroordelen en aannames zitten, belooft dat weinig goeds.

Maar het blijft natuurlijk interessant om het te volgens. De visuele variant van deze chatbot Dall-E 2, kan bijvoorbeeld helpen om deelnemers niet zo veel vertrouwen hebben in hun tekentalenten toch een visuele weergave van hun idee te laten maken.

Maar uiteindelijk blijft het gewoon een stuk gereedschap, en aan de facilitator de taak om te kijken waar zo’n stuk gereedschap het best in te zetten is en in zijn of haar programma te verwerken. En zo’n programma, dat kan de AI-Bot toch nooit overnemende, hoewel…..