In organisaties van vandaag de dag wordt meer en meer, van de werkvloer tot op beleidsniveau, gebruik gemaakt van digitale technologie. Tegelijkertijd legt een toenemend aantal instellingen en bedrijven meer nadruk op betekeniseconomie of stakeholderschap, met andere woorden op sociaal, duurzaam, inclusief, maatschappelijk verantwoord ondernemen. Wilt u dat ook met uw organisatie? Lees dan in dit artikel hoe vakkundig begeleide nadenkgesprekken (socratische gesprekken) hierbij van toegevoegde waarde zijn.
Kunstmatige intelligentie heeft mensen nodig die nadenken
Op Spotify is in de interessante podcast “Welkom in de AI-fabriek” van BNRNieuwsradio te beluisteren hoe technologieën als AI en Chat-GPT werken en wat er de impact van is. Interviewer Ilyaz Masrullah, zelf informaticus met een professionele achtergrond in de data science, praat met belangrijke kenners van het vakgebied, onder wie Cynthia Liem, onderzoeker betrouwbare en verantwoorde kunstmatige intelligentie aan de TU Delft. Het belangrijkste advies dat zij geeft wanneer je als organisatie gebruik maakt of beter nog: van plan bent te gaan maken van AI luidt als volgt:
Ga zitten en denk er bewust en diep over na wat je ermee wilt en wat niet. Doe dit niet met haast, maar neem er de ruim de tijd voor. Doe het niet in je eentje, maar trek het breder met meerdere partijen die hier inzicht in hebben en liefst met uiteenlopende perspectieven.
AI denkt niet
Het bedrijf achter Chat-GPT is Open AI, maar hoe open AI überhaupt is, wordt duidelijk voor wie zich er wat verder in verdiept. Niet dus. Het is een gesloten systeem van in stukjes geknipte woorden waarmee combinaties kunnen worden gevormd in een proces van vergelijking met miljarden eerdere combinaties. Zo lijkt het alsof het systeem denkt, wat het dus niet doet. Het procest data. U weet net als ik wie er wel denkt: de mens, althans we zijn ertoe in staat. Doen we het niet of beperken we onszelf binnen een gesloten denksysteem, dan kan er veel misgaan.
In de vierde aflevering van de podcastserie legt één van ’s werelds bekendste videogame-ontwikkelaars ter wereld Rami Ismail uit wat een method collapse is. Het is wat er kan gebeuren in de wereld van AI en ik zal duidelijk maken dat het ook kan gebeuren in gesloten menselijke systemen. Dat zit zo:
Het belang van zorgvuldige informatie
Nu al is het zo dat de AI Fabriek Chat-GPT onzin uit kan kramen en dat dus ook met regelmaat doet. Het combineert namelijk data zonder te weten waar het over gaat. In de podcastserie wordt onder andere het voorbeeld gegeven van een advocaat met 30 jaar ervaring die dankzij Chat-GPT een boete van $5000,- kreeg wegens het inzetten van valse informatie in zijn pleidooi.
De AI Fabriek weet welke combinaties mogelijk zijn, maar niet wat waar is en wat niet. De fabriek vol gpu’s kent geen feiten, laat staan nuances of hoe het de relevantie van meningen kan bepalen. Er moet eigenlijk voortdurend op alles wat het systeem produceert door mensen controle worden uitgeoefend. Fact checking wordt dat ook wel genoemd, maar ja, wat zijn feiten? In het geval van natuurwetenschappelijke informatie kan het in de AI Fabriek nog gaan om gesloten circuits van kwantitatieve data waar pas iets misgaat bij incorrecte menselijke input. Maar de verschuiving van natuurwetenschap naar andere takken van academische interessegebieden is subtiel. Neem bijvoorbeeld het economische vakgebied dat voor een belangrijk deel met getallen en cijfers werkt. Het lijkt te werken met wetmatigheden zoals natuurwetenschap. Echter, economie gaat over menselijk gedrag binnen een cijfermatig kader. Precies dit is een precair onderscheid, voor mensen in bedrijven en instellingen waar het gaat om opbrengsten, terwijl men wel degelijk ook rekening zoekt te houden met bredere belangen buiten de organisatie. Je wilt niet graag worden afgerekend op een gebrek aan inzet van gezond verstand.
Aan zichzelf overgeleverde AI leidt tot totale onzin
Wat er gebeurt ingeval van een method collapse, is dat het systeem zonder menselijke input gebruik gaat maken van de informatie die het zelf heeft geproduceerd door stukjes info te combineren die er in eerste instantie wel degelijk via mensen in zijn terecht gekomen. Wanneer nu de menselijke input opdroogt, grijpt de fabriek terug op tweede generatie informatie, dat wil zeggen op informatie die het zelf heeft geproduceerd op basis van oorspronkelijk menselijke input. Daar waar het van de menselijke input zin al niet van onzin weet te onderscheiden, kan het dat uiteraard van de door zichzelf geproduceerde informatie ook niet. In menselijke informatie kunnen onwaarheden en andere onnauwkeurigheden zitten en Chat-GPT kan uit de beschikbare data, of die nu correct is of niet, onzinnige nieuwe informatie genereren. En dan gaat het verder. Het verspreidt zich als het stof bij een stofexplosie. Binnen de kortste keren is de totale dataverzameling vervuild en produceert het systeem “alleen nog maar onzin” zoals Ilyaz Masrullah het uitdrukt.
Nadenken ondersteunt innovativiteit
In tegenstelling tot de AI Fabriek is nadenken wel open. Althans, mits je het bewust en diepgaand doet, er de tijd voor neemt en er een zo divers mogelijke groep van deelnemers bij betrekt. Dan heb je het in feite over nadenkgesprekken.
Binnen culturen en subculturen, in politieke partijen en activistische bewegingen, maar ook in een systeem dat in principe open zou moeten zijn zoals dat van tv-productie en journalistiek en last but not least in bedrijven en instellingen is voor de oplettende toeschouwer te zien wat ook in de AI Fabriek gebeurt. Er is een bias en die werkt door in wat er wordt gezegd, wat er sowieso kan worden besproken en hoe dat gebeurt. Vanaf het begin van de vorming van gedachten en opvattingen over een onderwerp is er een bepaald woordgebruik, zijn er aannames waarvan het niemand opvalt dat het aannames zijn en hoe er vervolgens wordt gereageerd op wat er wordt beweerd. En hoe daar weer op wordt gereageerd. Er ontstaat een gesloten taalgebruik wat maakt dat over bepaalde onderwerpen alleen nog maar in de bewoordingen van dat taalgebruik kan worden gesproken en überhaupt kan worden nagedacht. Voor de gebruikers van die steeds meer in zichzelf opgesloten taal is het vanaf een bepaald punt niet langer mogelijk om alternatieve manieren van spreken over hetzelfde onderwerp te begrijpen of zelfs maar te kunnen horen. Vergelijk het met obstructie binnen wetenschappen door vastzitten in paradigmata. Men hecht nu eenmaal meer aan wat gegeven is dan aan wat mogelijk zou kunnen zijn.
Gelukkig gaat dat voor u en uw organisatie niet op. U ziet uzelf als innovatief en daarom staat u van nature juist open voor vragen die buiten gegeven kaders vallen. Uw medewerkers moedigt u aan op een opbouwende manier kritisch te zijn. U weet immers dat u concurrenten voor blijft door uit cirkels van voorgegeven denkpatronen te stappen en vanuit een buitenpositie in te zoomen op zaken die dermate vanzelfsprekend geworden zijn dat ze nodig weer eens bevraagd zouden moeten worden. U weet dat het in het algemeen belang is om gemeenschappelijke blindheid op het spoor te komen voordat zeker weten en eigen gelijk leiden tot ineenstorting van alle logica die uw instelling legitimeerde tot op dat moment.
Immers, niet nadenken over wat we collectief geloven en toepassen als vanzelfsprekend, staat innovatie in de weg en het kan zelfs leiden tot collapse in de gedaante van verlies van bestaansrecht of faillissement. De hierboven genoemde Cynthia Liem analyseerde de fraudedetectie-algoritmen die de Belastingdienst gebruikte in de toeslagenaffaire die uitliep op de val van een regering. En Ilja Leonard Pfeiffer schildert in zijn fenomenale historisch geënte boek Alkibiades de method collapse van de democratie van het klassieke Athene.
De Stadsfilosoof helpt contraproductieve bias binnen uw organisatie bloot te leggen en is beschikbaar om u te begeleiden bij nadenken met open oog voor wat gewoonlijk gemakkelijk aan de aandacht ontsnapt. Wilt u weten hoe? Neem dan snel contact op.