UT experimenteert met eigen AI-model

| Rense Kuipers

Het Digital Society Institute werkt samen met de dienst LISA en enkele UT-wetenschappers aan een eigen zogeheten large language model. Dat AI-model is bedoeld voor de gehele universiteit, vooral om meer veiligheid te creëren in het gebruik van kunstmatige intelligentie.

Photo by: RIKKERT HARINK

Adjunct-hoogleraar Maurice van Keulen, van de EEMCS-vakgroep Datamanagement & Biometrics, gebruikte binnen zijn vakgroep al een large language model voor onderzoek en onderwijs. Dat op een eigen server, maar op basis van open source-beschikbare kunstmatige intelligentie. Het enthousiasme over deze werkwijze was reden voor Stephanie Hessing, manager bij het Digital Society Institute, om iets vergelijkbaars voor de gehele UT te willen aanbieden.

Veiligheid van data

Waarom de UT zo’n eigen large language model wil? ‘Veiligheid’, zegt Hessing. ‘Met name als het gaat om onderzoeks- en onderwijsdata. Wat je wil voorkomen is dat wetenschappers, docenten en studenten van alles en nog wat in ChatGPT gooien en dat daar vervolgens misbruik van wordt gemaakt. Dat risico is zeer aanwezig. Daarom hebben we nu ook aanbevolen om gebruik te maken van het veiliger Mistral – en daarbij aanbevolen om de optie om hun AI-modellen te trainen op onze ingevoerde data uit te schakelen. De UT kan hiermee ook een voorbeeldfunctie vervullen voor andere organisaties die ook met gevoelige data werken, zoals ziekenhuizen.’

Vaart maken ondanks kritiek

Er is namelijk de nodige kritiek op het ‘kritiekloos invoeren van AI-technologieën in het hoger onderwijs’. Precies daarover verscheen vorige week een open brief, medeondertekend door meerdere UT-wetenschappers. Hessing snapt de argumenten wel. ‘Het is de pragmatische overweging tegenover de principiële. De technologie is er nu – en we kunnen er eigenlijk niet omheen. Anderzijds heeft het ook absoluut schaduwkanten. Het is een heel lastige afweging om te maken.’

Adjunct-hoogleraar Van Keulen is het daarmee eens. ‘AI is een krachtige technologie. Die moet je inderdaad niet kritiekloos invoeren. Maar volledig een stop toe roepen, zoals de brief betoogt, is ook niet de oplossing. We moeten leren die krachtige technologie op een juiste manier in te zetten en toe te passen; de campus en ons eigen werk kan hiervoor ons laboratorium zijn.’

De kracht van universiteiten

Ze vinden namelijk wel dat de UT vaart moet maken met het aanbieden van een eigen AI-model. ‘Dat vaart maken is nou niet bepaald de kracht van universiteiten’, zegt Hessing. ‘Ik snap heel goed dat je er zorgvuldig en grondig beleid op wil maken. Maar het is zo complex. Tegen de tijd dat alle gremia eruit zijn, is de technologie al lang drie stappen verder ontwikkeld. Je moet er wat meer ad hoc mee omgaan, terwijl je risico’s probeert te vermijden. Gezien de snelle ontwikkelingen kan het goed zijn dat de aanbeveling die we vandaag maken de week erop al gedateerd kan zijn. Die realiteit kunnen we maar beter accepteren, in plaats van dat we achter de feiten aan blijven lopen. Mensen willen het liefst duidelijkheid: of het mag wel, of het mag niet.’

Als het aan Hessing ligt, is het eigen large language model in het najaar beschikbaar voor UT-medewerkers en -studenten. ‘Tot die tijd moeten we goed allerlei afwegingen en keuzes maken over zaken als dataopslag, veiligheid, het ontwerp en de functionaliteiten.’

Wat is een large language model

Een large language model, of groot taalmodel, is een vorm van kunstmatige intelligentie die wordt getraind op basis van enorme hoeveelheden data. Bekende voorbeelden zijn ChatGPT, Google Gemini, Microsoft Copilot en Claude. Zulke ‘mensachtige’ taalmodellen worden bijvoorbeeld gebruikt voor het beantwoorden van vragen, genereren van code en afbeeldingen en samenvatten van teksten.

 

Stay tuned

Sign up for our weekly newsletter.