Ytring
ChatGPT og Erasmus Montanus
Ja, bør ikke ChatGPT være en anledning til å spørre om vi ikke bør innrette våre studier på en annen måte. Er det ikke andre ting enn det som maskiner kan vi bør vektlegge?
Skrevet av Thomas Dahl og ChatGPT.
Foto: Geir Mogen/NTNU
Etter at OpenAI lanserte sin chatte-robot i november i fjor, har det vært en viss frykt rundt i utdanningssystemer verden rundt: Hva skal vi gjøre når en maskin kan løse eksamensoppgaver like godt – og noen ganger bedre – enn studentene? Når en maskin kan skrive bedre enn de fleste studenter? Løse matematikkoppgaver og gjøre tekstanalyser? Det har ikke tatt lang tid før reaksjonene har kommet: Det er allerede innført forbud mot ChatGPT enkelte steder og andre steder blir eksamen gjennomført med penn og papir. Hold maskinen borte!
Er dette en riktig strategi? Hva kan vi ikke gjøre nå med ChatGPT som vi ikke kunne før? I stedet å bruke mye tid på å lete oss fram på nettet og hente informasjon herfra og derfra, kan ChatGPT hurtig sette sammen informasjon fra ulike kilder. Den kan til og med finne andre koblinger enn de vi selv klarer å finne av den informasjonen den har blitt foret med. Jeg har spurt den ut om områder jeg ikke kan så mye om, som paleontologi. Her har jeg fått den til å komme med flere teorier – med referanser til publikasjoner – om jordens alder, flere enn det de fleste lærebøker har. Jeg har fått den til å skrive et teorikapittel om utdanningsledelse – helt greit, og med gode referanser. Og jeg har fått den til å lage ikke bare ett, men flere forslag til struktur på metodekapittel i ei avhandling – og jeg som underviser i metode, synes forslagene var interessante.
ChatGPT bygger på kunstig intelligens. Kunstig intelligens er intelligent i ordets opprinnelige betydning: Inter-lego, evnen til å bygge eller sette (lego) sammen (inter). Den kan bare sette sammen det materialet det har eller det materialet det kan bygge av det materialet det har. Og her er den på mange områder mye mer intelligent enn oss: Den kan forholde seg mye hurtigere til og til mye mer materiale enn i hvert fall jeg kan, og den kan finne sammenhenger som jeg må bruke lang tid på finne – hvis jeg i det hele tatt finner dem. Det gjør den ved å finne fram til sannsynlige sammenhenger på mange nivåer og mellom nivåene, både for det den skriver og den informasjonen den finner.
ChatGPTs algorimer er matematiske modeller. Det viktigste teoretiske bidraget til disse modellene er å finne i Claude Shannons «Mathematical Theory of Communication», publisert allerede i 1948. Shannon viste der hvordan man med hjelp av sannsynlighetsmodeller kunne finne fram til informasjon i støy. Nettopp det er det ChatGPT gjør: Den lager informasjon av det har blitt foret med fra internett, og den gjør det med å finne den mest sannsynlige sammensetningen av informasjonen, oftest i form av sannsynlighetskjeder.
Men her er det at ChatGPT kan gå helt feil – og ofte går feil. Jeg spurte den litt ut om noe jeg kan noe om, nemlig Friedrich Nietzsche. Da klarte den på det mest bestemte å si at Nietzsche hadde vært lærer i Plauen og dirigert guttekoret der. Kanskje ikke usannsynlig, men fullstendig feil. Overrasket over påstanden, har jeg har lett rundt på internett og sjekket flere biografier for å se om det roboten hevder, kan være riktig. Det er ingen som har hevdet noe slik, og Nietzsche var aldri mer i Plauen enn noen uker. ChatGPT har selv konstruert påstanden ved den har koblet informasjon om Nietzsche, Plauen og antakelig Nietzsches slektninger med navn Nietzsche i Plauen. Den insisterte til og med på at det den hadde skrevet var riktig da jeg påpekte, at det faktisk var feil det den hevdet. Påstander fra ChatGPT må faktisk sjekkes – for å se om det er faktisk riktig det den hevder.
Ludwig Holberg harselerte med 1700-tallets utdanningssystem i komedien Erasmus Montanus. Der lot han Rasmus Berg, som gjennom studier ved universitet i København, hadde tillagt seg navnet Erasmus Montanus, vise sitt læringsutbytte i praksis. Berg var opplært i syllogismer, som også moderne datamaskiner benytter seg av med sine if-then-algoritmer. Berg demonstrerte sin ferdigheter for sin mor:
- En Steen kand ikke flyve
- Ney, det vist nok, undtagen man kaster den
- I kan ikke flyve
- Det er og sandt
- Ergo er Moerlille en Steen
Holberg viste hvor galt det kan gå dersom man går løs i verden med logikk og matematiske modeller utenfor universitets vegger. Nå var neppe Bergs bruk av syllogismen ikke i tråd med de logiske prinsipper for den og som han burde ha lært seg på universitetet, og ChatGPT kan enkelt vise hvilken feil Berg gjorde. Men Holbergs poeng (uten jeg har fått sjekket det med ChatGPT, den er jo så overbelastet) var ikke at man kan gå seg vill i syllogisme-algoritmene. Problemeet var heller at Berg ikke skjønte hva han kunne bruke dem til. Løytnantens tale mot slutten av komedien ga Berg noen råd: «Det beste Raad jeg kand give jer, er, .. om I endelig vil blive ved Studeringer, at I da indrætter dem paa en anden Maade.»
Ja, bør ikke ChatGPT være en anledning til å spørre om vi ikke bør innrette våre studier på en annen måte. Er det ikke andre ting enn det som maskiner kan vi bør vektlegge? Er våre vurderingskriterier slike at det er informasjonsbearbeiding som tilfredsstiller kvalifikasjonsrammeverket?
Også Nietzsche harselerte med utdanningssystemet i sin samtid og beskrev hva som ble forventet av det:
- Hva er formålet med høyere utdanning?
-Å gjøre mennesket til en maskin.
Jeg ba ChatGPT finne ut hvor Nietzsche skrev dette. Det klarte den ikke. I stedet produserte den en mengde wikipedia-babbel – altså ChatGPP.
- Utfordrer ChatGPT vårt utdanningssystem?
- Ja.
- Er det da ChatGPT eller utdanningssystemet som er problemet?
- Utdanningssystemet.
ChatGPT sier at det ikke er noe feil med den syllogismen. Men det er ikke en syllogisme.