Robotterne kommer: Maskinerne er her… hvad så?

Skrevet af Matthias Smed Larsen

Første gang jeg stiftede bekendtskab med det, der i daglig tale kaldes kunstig intelligens eller AI, var i 2015. Her stødte jeg på en YouTube-video, hvor en programmør forklarede, hvordan han ved hjælp af såkaldte ”neurale netværk” havde lavet et computerprogram, der kunne lære sig selv at spille computerspillet Super Mario World. De eneste instrukser, programmet var givet på forhånd var ”jo længere, spilkarakteren bevæger sig mod højre, uden at dø, jo bedre” og ”succeskriteriet er, at nå i mål i slutningen af hver bane”.

I de første iterationer af programmet, foretog det en række input der fremstod mere eller mindre vilkårlige. Snart lærte programmet, at input ”HØJRE” bragte det tættere på sit mål. Hver gang programmet stødte på en forhindring, prøvede det sig frem, indtil det fandt nogle inputs, der overvandt forhindringen. Til sidst formåede programmet at klare en fuld bane.

Det vigtigt at understrege at programmet ikke havde nogen egentlig bevidsthed som man ser det i science fiction. I deres grundform, er det, som alle AI-programmer foretager sig, mønstergenkendelse. Denne mønstergenkendelse kan være simpel – f.eks. et program der ved at blive vist titusindvis af billeder af solsikker lærer at genkende billeder af solsikker det ikke har set før, og afsondre dem fra andre planter og genstande – eller nok så avanceret – f.eks. programmer der ved at studere en omfattende elektronisk tekstsamling lærer at producere tekster der fremstår menneskelige, og måske endda at besvare spørgsmål. Med risiko for at blive beskyldt for overforsimpling vil jeg forbigå en nærmere redegørelse for teknologien der ligger bag.

Et eksempel på den sidstnævnte type program er ChatGPT, der blev tilgængelig for offentligheden i november 2022. Programmet fik stor pressebevågenhed, idet det kan give fyldestgørende svar på mange spørgsmål formuleret på en (stort set) naturlig måde. Undervisere på universiteter både her i Danmark og i udlandet har fodret programmet med spørgsmål fra ægte eksamener som den har besvaret i hvert fald godt nok til at kunne bestå, og enkelte gange rigtig godt.

Alt dette har givet anledning til diskussion om hvad programmer som ChatGPT betyder for ideen om uddannelse, både på det principielle plan (hvis maskinen kan gøre det, hvad skal vi så bruge mennesker til?) og det praktiske plan (hvis folk kan få et program til at spytte menneskelig tekst ud, der ikke er kopieret andetsteds fra, hvad betyder det så for eksamenssnyd?) Folk fra både tech-branchen og akademia har argumenteret for, at det er håbløst på den lange bane at forbyde ChatGPT, og at programmet og deslige i stedet bør indtænkes i uddannelsen, men er vi nået så vidt?

Jeg vil på ingen måde benægte det videnskabeligt interessante ved programmer som ChatGPT, og at kunstig intelligens skaber en række etiske og praktiske dilemmaer, også i undervisningssektoren, men jeg vil vove at påstå, at det er for tidligt at snakke om et paradigmeskifte.

Jeg er generelt skeptisk over for påstande om, at fremkomsten af ChatGPT kræver en fundamental ændring i, hvordan eksamener afholdes – i hvert fald på jura. For så vidt angår eksamensformer hvor der ikke er frit lejde ift. hjælpemidler, kan jeg ikke se hvordan ChatGPT – ud over det effektivitetsboost programmet medfører – er anderledes end hvis en studerende, dengang det var muligt at gå til eksamen med sin egen computer på en åben internetforbindelse, i det skjulte kommunikerede med en ekstern part der hjalp med udarbejdelsen af deres opgave. I begge tilfælde vil det være mere eller mindre umuligt at dechifrere hvorvidt der er sket snyd blot ved at kigge på slutproduktet – man er nødt til at opdage handlingen in situ. Nu hvor alle stedprøver på jura er såkaldte ITX-prøver, der foregår på KU’s computere, er dette problem endnu mindre fremtrædende.

Argumentet er for så vidt det samme når det kommer til skriftlige hjemmeopgaver. Ja, ChatGPT kan muligvis besvare opgaven, og sommetider besvare den godt, men jeg har svært ved at se den kvalitative forskel ift. den studerende der i smug kontakter sin onkel, der er ekspert i det pågældende retsområde, eller blot spørger sine medstuderende i et lukket chatroom. For så vidt angår større skriftlige opgaver, bachelorprojekter og specialer, er der righoldige eksempler på, at ChatGPT ikke kan finde ud af at fremskaffe gyldige kildehenvisninger, og i de tilfælde hvor der sker forsvar af det skriftlige arbejde (synopsiseksamen og specialet) tænker jeg, at det – ligesom hvis man har fået et andet menneske til at skrive opgaven – ret hurtigt vil være åbenlyst at man ikke ved, hvad man taler om.

Der er givetvis gråzoner og mellemformer, som er unikke for programmer som ChatGPT. Hvad hvis man til brug for sit bachelorprojekt eller speciale f.eks. beder ChatGPT om at give en et overview over et retsområde, opliste de vigtigste højesteretsdomme ang. et retsspørgsmål, eller komme med pro et contra-argumenter ift. en given problemstilling, men efterfølgende skriver en original tekst baseret på dette output? Her vil der dog ofte kunne analogiseres til eksisterende fænomener, der anses som fuldt legitime, såsom at bede en bibliotekar om at foretage en litteratursøgning eller at drøfte en problemstilling med sin vejleder eller en dygtig medstuderende. Når professor Thomas Riis holder introforelæsning for studerende, der skal skrive bachelorprojekt, ynder han at nævne en sag, hvor en studerende plankede en afhandlings disposition fra en eksisterende artikel om den retlige problemstilling projektet handlede om, men hvor alle analyser mv. var skrevet af den studerende selv. Dette blev ikke anset som snyd. Der kan indvendes mod dette argument, at opgaver ender med at blive rene parafraseringer af ChatGPT’s output. Der er en vis validitet i argumentet f.s.v.a. bachelorprojektet, der ikke forsvares, men lige så snart den studerende skal kunne forklare sine analytiske resultater on the spot, såsom ved et forsvar, mener jeg at denne risiko bliver minimeret.

For at opsummere, er min indvending mod ideen om, at ChatGPT kræver en fundamental ændring i organiseringen af eksamener, i bund og grund konceptuel. Jeg kan ikke se hvilke problemer – ud over den førnævnte øgede effektivitet – ang. eksamenssnyd som er mærkbart unikke for ChatGPT.

I forhold til argumentet om, at programmer som ChatGPT kræver en gentænkning af den juridiske uddannelse som sådan, mener jeg dette bygger på en fejlslutning mellem hvordan arbejdsmarkedet måske kommer til at se ud i fremtiden, og hvordan det er pt. Det kan godt være, at man om 15 år kan trække et juridisk responsum i ”LawyerGPT”-automaten, men så længe samfundet er bygget op om et system, hvor juridiske beslutninger og juridisk rådgivning er baseret på menneskelige beslutninger og en ansvarsordning hvor mennesker er personligt ansvarlige for deres arbejde, mener jeg det vil være forhastet allerede nu at gøre jurastudiet til et kursus i, hvordan man bedst anvender kunstig intelligens i det juridiske arbejde, på bekostning af hvad der forhåbentlig er en fremfostring af studerendes analytiske evner (om end jeg ikke ville modsætte mig et valgfag om emnet).

Ét område, hvor programmer som ChatGPT kan være interessante rent didaktisk, er som værktøjer til at fostre kritisk tænkning. Jeg stødte på sociale medier på et opslag fra en professor, der havde bedt sine studerende om at stille ChatGPT et spørgsmål om deres fag, hvorefter den studerende skulle gennemgå outputtet, rette evt. fejl og tilsnigelser, og herefter indsende begge dele til underviseren. Dette er en fin måde at fostre kritisk tænkning om teknologi og lære de studerende at forholde sig kritisk til en modparts argumenter.

Kunstig intelligens skaber mange nye dilemmaer for juraen – det er nu f.eks. muligt for AI at producere billeder der tilnærmelsesvis ligner ægte fotografier, hvilket udfordrer bevisretten – men at tale om et nybrud ift. den juridiske uddannelse mener jeg er for tidligt.

Del denne artikel