Universiteiten, hogescholen, ziekenhuizen, wetenschappers en studenten worden allemaal geconfronteerd met de grote mogelijkheden van kunstmatige intelligentie. Het is zaak om hier verantwoord mee om te gaan. Het is immers niet wenselijk dat publicaties volledig door de computer gegenereerd worden, maar met slim gebruik van AI kunnen wetenschappers en studenten hun publicaties wel naar een hoger niveau tillen. In dit blog zetten we uiteen welke mogelijkheden en risico’s AI biedt, welke regels er nu gelden voor wetenschappers, en welk beleid onderwijs- of onderzoeksinstellingen kunnen opstellen om de wetenschappelijke integriteit te garanderen.
Wat kan AI en wat zijn de risico’s?
Articifial Intelligence (AI) is een verzamelbegrip voor bepaalde soorten software. Kortgezegd is AI een programma dat kan “leren”. “Normale” software volgt eenvoudigweg regels en instructies die vooraf door een mens zijn geprogrammeerd, terwijl het bij AI gaat om een systeem dat de resultaten van zijn acties analyseert en hiervan leert, zonder tussenkomst van een mens. Zodoende “denkt” het systeem zelf na en verbetert het zichzelf.
AI-toepassingen bieden door hun zelflerende vermogen veel mogelijkheden die andere software niet kan bieden. Programma’s als ChatGPT en Bard hebben bijvoorbeeld zo veel teksten geanalyseerd, dat zij in staat zijn om zelf teksten te schrijven over allerlei onderwerpen. Dit kan nuttig zijn voor het schrijven van wetenschappelijke artikelen, maar daar kleven ook risico’s aan. Zo is het vaker dan eens voorgekomen dat het programma onjuiste informatie aan de gebruiker gaf. Een sprekend voorbeeld uit de praktijk is het genereren van niet bestaande rechterlijke uitspraken door AI.
Hetzelfde geldt voor data-analyse. Waar “oude” toepassingen vooral geschikt zijn voor het blootleggen van correlatie en voor datavisualisatie, kunnen AI-gedreven tools nieuwe inzichten bieden en creatieve verbanden leggen. Zo kan ChatGPT-4 zelfstandig data converteren, en geeft Power BI mogelijke verklaringen voor afwijkingen in een dataset. Het is hierbij echter ook de vraag of de tool blind te vertrouwen is. De gebruiker van AI toepassingen dient dan ook zeer kritisch te zijn op zijn eigen vraagstelling en de door AI toepassingen gegenereerde antwoorden.
Welke regels gelden er?
Is het nu integer, of überhaupt toegestaan, om AI te gebruiken in de wetenschap?
De Vereniging van Universiteiten (VSNU) heeft een gedragscode opgesteld om de wetenschappelijke integriteit te waarborgen. In deze Nederlandse Gedragscode Wetenschapsbeoefening staan een aantal grondbeginselen en regels om goed onderwijs en onderzoek te bewerkstelligen.
In het kader van het gebruik van AI zijn een aantal bepalingen uit deze code relevant:
- De wetenschapper mag geen onjuiste bevindingen presenteren;
- De privacy van betrokkenen moet gewaarborgd worden;
- De wetenschapper maakt duidelijk wat de herkomst is van geciteerde teksten;
- Conclusies horen niet speculatief te zijn;
- Gepresenteerde informatie is controleerbaar;
- De kwaliteit van de data wordt goed bewaakt en data wordt minstens 10 jaar bewaard;
- De wetenschapper is verantwoordelijk voor haar werk en is in staat het werk uit te leggen.
Hoewel uit deze regels goede lessen kunnen worden voor het gebruik van AI, zijn in deze gedragscode geen regels opgenomen voor het gebruik van AI. Wel heeft de VSNU reeds een kennistafel opgezet over AI. Het is goed mogelijk dat vanuit deze kennistafel concretere regels worden opgesteld.
Welke regels kunt u stellen?
Harde, specifieke regels over het gebruik van AI in de wetenschap zijn er dus niet. Toch is er zowel bij onderwijs- en onderzoeksinstellingen als bij gebruikers een behoefte aan bepaalde regels.
Onderwijs- en onderzoeksinstellingen doen er in dit kader goed aan om beleid te maken voor het gebruik van AI die data analyseert en AI die content genereert. Het is daarbij van belang dat transparantie gewaarborgd wordt en de verantwoordelijkheid voor de AI-gegenereerde content bij de juiste personen belegd wordt.
In dit kader verdient het aanbeveling om wetenschappers te wijzen op hun eindverantwoordelijkheid. Een AI-tool kan bijna gezien worden als een stagiaire: als wordt toegestaan dat de AI een relevante rol krijgt binnen het onderzoek, dan zal uiteindelijk de onderzoeker zelf de integriteit en kwaliteit moeten waarborgen. Dat betekent dat de output van de AI gecontroleerd dient te worden. De wetenschapper zelf is hier in eerste instantie verantwoordelijk voor.
Daarnaast is het goed om richtlijnen vast te stellen over transparantie. Is bijvoorbeeld vereist dat het gebruik van AI benoemd wordt in de publicatie, of is het reeds voldoende als de peer reviewer of de directe collega op de hoogte is van het gebruik? Daarnaast is het in het kader van transparantie goed om vast te leggen welke AI-gegenereerde content bewaard moet worden en welke niet.
Ook bevelen wij aan om bewustwording omtrent AI binnen onderzoeks- en onderwijsinstellingen te stimuleren. Waar liggen de mogelijkheden en waar liggen de zwaktes? Wakker de discussie tussen wetenschappers aan, en licht wetenschappers voor over het doelbewuste gebruik van AI.
In de praktijk zien we dat steeds meer organisaties gedragscodes en beleid publiceren voor het gebruik van AI. Hierdoor weten wetenschappers en studenten waar zij aan toe zijn. Gedacht kan worden aan regels over de volgende vragen:
- Mag AI worden gebruikt als zoekmachine?
- Mag AI gebruikt worden als generator voor teksten, visualisaties en programmeercodes?
- Mag AI gebruikt worden bij data-analyse?
- Mag AI gebruikt worden voor peer review?
- Welke (vertrouwelijke) gegevens mogen worden ingevoerd in een AI-programma, en welke niet?
- Moet een wetenschapper het vermelden als bepaalde content AI-gegenereerd is?
- Hoe specifiek moet de vermelding dat bepaalde content AI-gegenereerd is zijn?
- Op welke wijze moet de wetenschapper vermelden dat bepaalde content AI-gegenereerd is?
- Moeten de oorspronkelijke vraagstelling en output worden bewaard?
Wanneer de antwoorden op deze vragen worden vastgelegd als regels of richtlijnen van de organisatie, kan AI in het onderzoek en het onderwijs worden geïntegreerd. Verder kan een organisatie richting geven: welke programma’s zijn geschikt voor welke doeleinden en waar liggen de risico’s? En is er een aanbevolen citeerwijze voor het geval dat AI is gebruikt?
Door bewustwording, informatieverstrekking en concreet beleid, ontstaat de kans om AI goed te integreren in onderzoeks- en wetenschapsinstellingen. Zo wordt voorkomen dat onderzoekers en studenten AI op de verkeerde manier gebruiken, maar wordt er wel voor gezorgd dat de organisatie de kansen van AI omarmt.
Loopt uw onderwijs- of onderzoeksinstelling tegen kwesties over wetenschappelijke integriteit aan? Of overweegt u regels op te stellen over het gebruik van AI? Neem dan gerust contact op met ons of met een van onze collega’s. Wij helpen u graag met een gesprek, advies of workshop op maat over integriteit en AI.
Christel Jeunink en Thijmen van Hoorn, advocaten Intellectuele Eigendom en IT-recht