De misvatting dat ChatGPT een bron zou zijn, moet te vuur en te zwaard bestreden worden. Niet vanwege zorgen over gehallucineerde arresten of bulkplagiaat, maar vanwege de fundamentele en simpele reden dat zij geen bron ís. Bronnen plaatsen onderzoek. Bronnen legitimeren een betoog. Bronnen maken controle mogelijk. ChatGPT doet niets van dit alles. ChatGPT is een methodologisch instrument, niet meer en niet minder.
Massaal maken juristen gebruik van ChatGPT, Claude, CoPilot en collega-diensten als zoekmachine, als tekstenmaker en als bronnenzifter. Maar vaak genoeg lopen mensen tegen de lamp: verzonnen arresten en literatuurverwijzingen zijn inherent aan de uitvoer van deze grote taalmodellen.1 Controleer uw bronnen! Minstens zo problematisch is echter het verwerken van stukken AI-uitvoer in eigen werk.2 Ook na controle van bronnen blijft de vraag: is dit wel eigen werk?
De ogenschijnlijke oplossing is de bronvermelding: benoem het gebruik van deze dienst in een voetnoot, net zoals bij gebruik van mensenwerk van anderen. Vele universiteiten en hogescholen kennen ondertussen huisregels voor het correct citeren van AI-uitvoer, en ook in wetenschappelijk werk ziet men (sporadisch) noten die verwijzen naar deze dienst. Echter: dat iets eruitziet als een bronvermelding, maakt nog niet dat het daarin vervatte daadwerkelijk een bron is.
Bronnen hebben drie functies: zij bepalen de plaats van een onderzoek, zij legitimeren het betoog en zij maken controle mogelijk.3 ChatGPT vervult geen van deze drie. Zij bepaalt geen plaats: de uitvoer markeert geen stand van wetenschap, maar een synthetische illusie van consensus. Zij legitimeert niets: een tekst zonder herkomst verleent geen gezag, hoe vloeiend of retorisch overtuigend ook geformuleerd. En zij maakt controle onmogelijk: de lezer kan de prompt en de uitvoer misschien reproduceren, maar niet nagaan op welke onderliggende bronnen het antwoord is gebaseerd, noch welke bronnen zijn weggelaten.
Toch kan ChatGPT wel degelijk een rol spelen in rechtswetenschappelijk onderzoek. Niet als bron, maar als instrument in het bouwproces van het betoog – het ordenen, structureren en uitwerken van teksten.4 Het is daarmee een methode van onderzoek, net zoals de rechtsvergelijking of een literatuurstudie.
Fundamenteel is daar niets mis mee, ook niet met in het achterhoofd de inherente beperkingen zoals hallucinaties. Elk hulpmiddel kent zijn beperkingen. Die beperkingen maken het wel des te belangrijker dat de jurist verantwoording aflegt over de wijze van inzet. Echter, waar in andere disciplines de methode vanzelfsprekend wordt verantwoord, bestaat onder juristen nog altijd de neiging dit impliciet te laten.5 Soms omdat men vreest dat een methodologische paragraaf afbreuk doet aan de retorische kracht van het betoog,6 soms vanuit het idee dat het recht fundamenteel anders is dan wetenschap en dus geen expliciete methodiek behoeft,7 en soms eenvoudigweg omdat de vaardigheid ontbreekt om methodologische keuzes helder te verwoorden.8
Zonder inzicht in de gevolgde strategie, de gemaakte keuzes en de gehanteerde filters, kan juridisch onderzoek echter niet overtuigen. Methodologische verantwoording is geen luxe of academische bijzaak, maar de voorwaarde voor navolgbaarheid, toetsbaarheid en uiteindelijk ook gezag. Dit inzicht komt ook langzaam op in de rechtspraak. Zo bepaalde de Raad van State recent dat een overgelegd stuk ChatGPT-uitvoer geen waarde heeft zonder inzicht in de vraagstelling en de totstandkoming ervan.9 Dat is geen oproep tot een voetnoot, maar tot methodologische verantwoording. In lagere rechtspraak zien we evenzeer terug dat stukken uit ChatGPT niet overtuigen, juist omdat prompt en context ontbreken.10
Niet relevant daarbij is of een taalmodel wel of geen bronnen meegeeft of redeneerstappen expliciet maakt. Zulke toevoegingen vervullen niet de hierboven genoemde functies van bronnen, maar zij kunnen wel de kwaliteit van het onderzoek bevorderen. Net zoals een gespecialiseerde juridische databank doorgaans betrouwbaardere resultaten oplevert dan een snelle Google-zoekopdracht, helpt ook inzicht in de herkomst en betrouwbaarheid van AI-uitvoer de onderzoeker zijn keuzes te verantwoorden.
Hoe ziet die verantwoording er dan uit? In wezen niet anders dan bij andere vormen van onderzoek. Een literatuuronderzoek verantwoordt de gehanteerde zoektermen, de opbouw van de query en de gemaakte keuzes bij het filteren van resultaten. Bij empirisch onderzoek geldt hetzelfde, men legt steekproef, selectiecriteria en analysemethode vast, zodat de lezer kan toetsen of de bevindingen betrouwbaar zijn.11 Bij AI-diensten vertaalt zich dit naar de context waarmee het model gevoed is, de vraag of vragen die is of zijn gesteld, de correcties en vervolgvragen en eigen documenten waarmee de analyse is gevoed.12 Daarnaast zijn technische aspecten van belang: de datum van gebruik, de versie van het model en de dienstverlener. Alleen met dit spoor van keuzes kan de lezer reconstrueren wat de onderzoeker heeft gedaan en beoordelen of de uitkomsten betrouwbaar en relevant zijn. Pas dan krijgt het gebruik van ChatGPT betekenis als onderdeel van een navolgbaar wetenschappelijk proces.
ChatGPT is dus geen bron, maar een methode. Wie het gebruik ervan afdoet met een voetnoot miskent het wezenlijke onderscheid tussen bewijs en werkwijze. De rechtswetenschap wint niets met de fictie dat taalmodellen gezag of controleerbaarheid zouden toevoegen. Zij wint wél wanneer juristen helder uiteenzetten hoe zij ChatGPT hebben ingezet in hun onderzoek, welke keuzes zijn gemaakt en hoe de uitkomsten zijn gewogen. Alleen dan wordt zichtbaar dat ChatGPT geen auteur is, maar een steiger bij de bouw van het betoog – nuttig, maar betekenisloos zonder de verantwoordelijkheid van de onderzoeker.
Dit artikel is gepubliceerd in NJB 2025/2454, afl. 33
De afbeelding bij dit artikel is gemaakt met behulp van AI
Voetnoten
1 ‘AI verzint bronnen bij schrijfopdracht rechtenstudent, die dan ook de klos is’, mr-online.nl/ai-verzint-bronnen-bij-schrijfopdracht-rechtenstudent-die-is-dan-ook-de-klos/, onder verwijzing naar ABRvS 30 juli 2025, ECLI:NL:RVS:2025:3585.
3 R.A.J. van Gestel & J.B.M. Vranken, ‘Rechts-wetenschappelijke artikelen. Naar criteria voor methodologische verantwoording’, NJB 2007/1243 (m.m.v. J.L.M. Gribnau & H.E.B. Tijssen). Zie ook Asser/Vranken 1 2014/96.
4 Een uitgebreid voorbeeld hiervan is J. Struiksma, ‘Disruptief schrijven met ChatGPT’, in: B. Aarrass, L.C. Groen, F.J. van Ommeren, A.E. van Rooij & S.E. Zijlstra (red.), De orde overzien. Opstellen voor prof. mr. A.E. Schilder, Deventer: Wolters Kluwer 2025, p. 121-135.
5 S. Taekema & B. van Klink, ‘Een nieuwe impuls aan het methodendebat’, Recht en Methode in onderzoek en onderwijs 2011(1), p. 1-10. Zie ook J.A.I. Wendt, De methode der rechtswetenschap, Amsterdam: Paris 1967.
6 J.H. Nieuwenhuis, ‘De juristen moeten de vragen stellen, Interview met prof. Hans Nieuwenhuis’, in: Ph. Fruytier, D. van Leeuwen, H. Nieuwstadt, J. van Rijn van Alkemade & E. van Schagen (red.), Multidisciplinaire bestudering van de rechtswetenschap (AA-november 2007, Bijzonder Nummer), Nijmegen: Ars Aequi 2007, p. 920-925.
7 T. Arnoldussen, ‘Juristen moeten kennis hebben van doctrinair onderzoek en wetenschapsfilosofie’, Recht der Werkelijkheid 2023/3, p. 76-83.
8 C.E. Smith, W. Geelhoed, M.J. Dubelaar, B.P. ter Haar, J. van Rijn van Alkemade, K. van Willigenburg, A. Sprangers, J. van Rijn, T. Elseman & Q. Bongaerts, ‘Criteria voor goed rechtswetenschappelijk onderzoek: de omgekeerde route’, NJB 2008/604, afl. 12, p. 685-690.
9 ABRvS 29 januari 2025, ECLI:NL:RVS:2025:335.
10 Hof Den Haag 5 maart 2024, ECLI:NL:GHDHA:2024:711, r.o. 5.5; en Rb. Den Haag 6 november 2024, ECLI:NL:RBDHA:2024:18167, r.o. 10.1.
11 I. Curry-Sumner, F. Kristen, T. van der Linden-Smith & J. Tigchelaar, Onderzoeksvaardigheden. Instructie voor juristen / Research skills. Instruction for lawyers, Nijmegen: Ars Aequi Libri 2010; zie ook G. de Geest, ‘Hoe maken we van de rechtswetenschap een volwaardige wetenschap?’, NJB 2004/2, p. 58-66.
12 A. Alshami, M. Elsayed, E. Ali, A.E. Eltoukhy & T. Zayed, ‘Harnessing the power of ChatGPT for automating systematic review process: methodology, case study, limitations, and future directions’, Systems 2023, afl. 7, p. 351; E. Haber, D. Jemielniak, A. Kurasin´ski & A. Przegalin´ska, ‘Generative AI for Research’, in: Using AI in Academic Writing and Research, Cham: Palgrave Macmillan 2025, p. 27-38.