Artificiële intelligentie (AI) rukt snel op in het dagelijks leven, maar de vragen worden nog indringender zodra deze technologie de kerk binnenkomt. Wat kan AI eigenlijk wél en wat principieel niet? En waar ligt voor christenen de grens?
AI is niet meer weg te denken uit de samenleving. Als je iets opzoekt via Google, krijg je ongevraagd eerst een samenvatting van AI te zien. Natuurlijk kun je die negeren, maar het antwoord staat er wel, en het klopt niet altijd.
Chatbots zijn ook een vorm van AI en worden ingezet door bedrijven en instellingen. Hun eerste reactie op je vraag is meestal of je al op de website hebt gekeken. En natuurlijk heb je dat, anders zou je de strijd met de chatbot niet aangaan. Vervolgens begrijpt de chatbot je vraag niet en als je frustratiepeil hoog genoeg is opgelopen, vraag je om een medewerker te spreken. Over het algemeen begrijpt de chatbot dát dan weer wel.
Met de ‘intelligentie’ van AI wil het dus nog weleens tegenvallen. Toch gaat er ook veel goed, en het is niet voor niets dat steeds meer mensen AI voor allerlei toepassingen gebruiken. Niet in de laatste plaats voor het schrijven van teksten met ChatGPT. Wie dat weleens heeft geprobeerd, merkt dat je van zo’n programma geen sprankelende en bezielde teksten moet verwachten.
Omzeilen
Maar hoe zit het met toepassingen binnen de christelijke gemeente? Hoe onschuldig of twijfelachtig is dat? En wat moeten we denken van initiatieven om met speciale versies van ChatGPT de beperkingen van het ‘gewone’ ChatGPT te omzeilen voor gebruik in de christelijke gemeente?
Het antwoord op veel vragen rond AI hangt sterk samen met je visie op de aard van AI. Vanuit een christelijk mensbeeld is het belangrijkste dat AI geen ‘ziel’ heeft zoals een mens. De mens is door God als uniek wezen geschapen om met Hem in relatie te kunnen staan. Over wat een ziel precies is, zijn boeken vol geschreven, maar in ieder geval is het iets wat alleen de mens bij de schepping heeft ontvangen.
Omdat de mens een ziel heeft, kan hij vrije beslissingen nemen en daarover verantwoording afleggen aan God. Dat kan AI niet. Het werkt uitsluitend met algoritmen: ingeprogrammeerde voorschriften die de computer uitvoert. Doordat deze algoritmen steeds complexer worden, lijkt het soms alsof een computer zelf keuzes maakt of zijn kennis uitbreidt. Uiteindelijk wordt alles echter bepaald door algoritmen.
Improviseren
Het feit dat AI vastzit aan algoritmen heeft grote gevolgen. Het betekent dat we bepaalde dingen niet van AI kunnen verwachten. AI kan niet improviseren, want dat zou vereisen dat het buiten zijn algoritmen treedt. Als wij in een nieuwe, onbekende situatie terechtkomen, weten we misschien eerst ook niet wat we moeten doen, maar we kunnen wél improviseren en er zo meestal toch iets van maken.
AI is ook niet in staat om iets te bedenken wat werkelijk nieuw is. Daarvoor zou het buiten zijn algoritmen en gegevens moeten kunnen werken. Beelden en teksten die AI genereert, zijn dus uiteindelijk combinaties van wat het op internet of in andere databestanden aantreft.
Een belangrijk gevolg van het ontbreken van een ‘ziel’ bij AI is dat het niet verantwoordelijk kan worden gehouden. Het heeft immers geen vrije keuze, maar werkt alleen algoritmen af die het niet zelf heeft bedacht. Uiteindelijk is het dus altijd een mens die verantwoordelijk is voor wat er met AI wordt gedaan. Daarom moet de mens ook bewust beslissen of hij overneemt wat AI aanlevert.
Columbus
Omdat AI niet foutloos is, is het goed om de uitkomsten te controleren. Zo kan ChatGPT desgevraagd moeiteloos een prachtig verhaal produceren over Columbus die in 2026 naar Amerika reisde en diep onder de indruk was van alle wolkenkrabbers. Het gaat er dan namelijk van uit dat Columbus gewoon een jongensnaam is. Pas wanneer je aangeeft dat het om de ontdekkingsreiziger gaat, krijg je een betere tekst; bijvoorbeeld over hoe hij het zou hebben ervaren om in 2026 in Amerika aan te komen.
Het belangrijkste verschil tussen een mens en AI is dat AI geen echte zorg en liefde kan geven en geen empathie kent. Daarvoor is immers een ziel nodig, en die heeft AI niet. Een robotverpleegkundige kan vriendelijk praten, glimlachen en vragen hoe het gaat, maar daarachter zit geen ‘hart’ voor de cliënt of patiënt. Als er geen echte verpleegkundige meer langskomt, wordt er ook geen werkelijke liefde en zorg meer gegeven. De cliënt of patiënt blijft dan aangewezen op een schijn die steeds overtuigender wordt, maar uiteindelijk nooit meer is dan schijn.
Digitale ouderling?
Wat betekent dit nu voor het gebruik van AI in de christelijke gemeente? Laten we beginnen bij de laatstgenoemde beperking: het ontbreken van empathie en het niet verder komen dan een schijn van liefde en zorg. Er wordt inmiddels geëxperimenteerd met pastorale chatbots. Een dominee of ouderling hoeft dan niet meer langs te komen, want met pastorale vragen en worstelingen kun je terecht bij een chatbot. Een voorbeeld is JezusPT van het Nederlandse bedrijfje Watermelon. Wie geen bezwaar heeft tegen Engels, kan ook terecht bij Pastoralchatbots.com, waar op de hoofdpagina de tekst “AI Support for Spiritual Guidance” prominent staat.
Er wordt nu al gewaarschuwd voor de reële mogelijkheid dat een pastorale chatbot, bij gebrek aan eigen inzicht of initiatief, simpelweg met de pastorant mee praat en deze bijvoorbeeld bevestigt in suïcidale gedachten. Een chatbot mist dus niet alleen het vermogen om ondersteuning te bieden vanuit echte bewogenheid met de hulpzoekende, maar die ‘ondersteuning’ kan zelfs gevaarlijk worden.
ChatGPT
Dan het produceren van tekst. ChatGPT is daarvoor de bekendste AI-toepassing. Voor het schrijven van een tekst die niet per se inspirerend hoeft te zijn, maar gewoon nuchter en zakelijk, werkt ChatGPT best aardig. Toch blijft de mogelijkheid bestaan dat het programma ‘hallucineert’. Dat wil zeggen dat het onjuiste of ‘nep’-informatie geeft door te verwijzen naar een verzonnen bron. Of beter gezegd: een bron die uit de verkeerde context is overgenomen.
Een citaat van ds. I. Kievit dat ChatGPT geeft, kan dus zomaar helemaal niet bestaan, maar in werkelijkheid een uit zijn verband gerukte uitspraak van een heel andere ‘Kievit’ zijn. Zelfs bij teksten die alleen informatief bedoeld zijn, blijft het dus oppassen geblazen.
Preek
Ook een preek is een tekst. Kan ChatGPT een predikant helpen bij het maken daarvan? Zeker, maar dan vooral in voorbereidende zin. Ds. Wim Otte heeft bijvoorbeeld een AI-hulpmiddel ontwikkeld waarmee een preekschets en liederen voor de eredienst kunnen worden gegenereerd. Dit systeem maakt alleen gebruik van bronnen die vooraf zijn getoetst op Bijbelse betrouwbaarheid. Toch moet het bij voorwerk blijven, anders ontstaat er een preek die helemaal buiten de Geest om tot stand komt; iets wat ds. Otte zelf ook benadrukt.
De predikant zal hoe dan ook zelf door de tekst heen moeten gaan en biddend zoeken naar de boodschap voor zijn gemeente. Preken is immers iets anders dan informatie overdragen. Het is het met ambtelijk gezag verkondigen van de verzoening aan zondaren. Daarvoor is een doorleefde tekst nodig, geen kunstmatig geproduceerde preek.
RefGPT
Ten slotte de vraag of ChatGPT verantwoord gebruikt kan worden voor teksten in de kerkbode of voor Bijbelstudie. Het gewone ChatGPT kan teksten opleveren die Bijbels onverantwoord zijn, omdat het programma niet is getoetst op Bijbelse betrouwbaarheid. Er kan zomaar een vloek in voorkomen. De nieuwe variant RefGPT is wél getoetst. Dit programma maakt alleen gebruik van Bijbels betrouwbare bronnen en is bovendien zo opgezet dat de gebruiker niet lui wordt gemaakt, maar juist wordt gestimuleerd om zelf te blijven nadenken. Of dat laatste in de praktijk ook echt lukt, zal nog moeten blijken.
Uiteindelijk is RefGPT echter gebaseerd op dezelfde algoritmen als het gewone ChatGPT, met alle bijbehorende beperkingen. RefGPT is en blijft een AI-programma zonder ziel. Er wordt al een vergelijking gemaakt met reformatorische internetfilters. Daarvan is inmiddels wel duidelijk dat ze allerlei tekortkomingen hebben. Met een beetje echte ‘intelligentie’ zijn de beperkingen vaak te omzeilen, terwijl je soms juist tegen onterechte blokkades aanloopt. Zo kon een leerling met zo’n filter geen informatie vinden voor een werkstuk over een sextant of over Sexbierum. Kortom, zo intelligent is zo’n filter niet en in dat opzicht lijkt het inderdaad op AI.
Wat is wijsheid? Twee adviezen: blijf zelf de regie houden en vertrouw nooit blind op AI, en neem geen genoegen met een zielloze schijn. Dat zou binnen de christelijke gemeente niet vreemd moeten klinken. Daar stellen we ons vertrouwen immers alleen op God en weten we dat we nooit zonder echte liefde en zorg kunnen.