top of page

Skaber kunstig intelligens nye demokratiske problemer?




Datatilsynet siger nej tak til Copilot, og kinesisk AI-teknologi skubber til fundamentale forståelser om transparens, lige adgang og uafhængighed som uddannelsesmæssige grundværdier.


Inden for blot en enkelt uge har to markante begivenheder vist os, hvordan uddannelsessektoren er ved at blive fanget i krydsfeltet mellem teknologiske muligheder og demokratiske værdier. Datatilsynet har afvist selv at bruge Microsoft Copilot af hensyn til datasikkerheden​, og den kinesiske tech-udbyder DeepSeek​ har lanceret en ny gratis sprogmodel, der allerede har fået mange millioner brugere verden over - og også har skabt stor interesse herhjemme.


På overfladen har debatten om DeepSeek centreret sig om censur og en mere omkostningseffektiv udvikling af sprogmodellerne, men den egentlige udfordring for uddannelsessektoren ligger dybere - nemlig i fundamentale spørgsmål om datasikkerhed og manglende åbenhed omkring de store sprogmodeller. På den måde er de to sager forbundne, og tilsammen udgør de en problemstilling der er så kompleks, at vi ikke kan forvente, at uddannelsesinstitutionerne kan løse den på egen hånd.


Tvangsægteskabet med Microsoft

Jeg har tidligere beskrevet, hvordan ​de fleste danske uddannelsesinstitutioner er dybt afhængige af Microsofts infrastruktur.​ Men når Datatilsynet ikke længere selv vil bruge Copilot på grund af bekymringer om datasikkerheden, så bør alarmklokkerne ringe i hele sektoren.


Når Microsoft integrerer Copilot tæt i de forretningskritiske apps, vi allerede bruger – såsom Outlook, Word og Excel - så bliver vi ikke bare bundet yderligere til et enkelt produkt, men til hele Microsofts økosystem. Denne afhængighed indskrænker vores fremtidige valgmuligheder markant og gør os i praksis til "digitale fanger" – uddannelsesinstitutioner, der mister evnen til frit at navigere i det teknologiske landskab.


Microsofts produkter er indlysende nok udviklet til at optimere virksomheders indtjening, ikke til at sikre fri og åben videndeling i en akademisk kontekst. Men når institutionerne er så heftigt bundet til en enkelt leverandør, Microsoft eller andre, overlades vigtige beslutninger om datahåndtering, privatliv og adgang til viden til en enkelt virksomhed med kommercielle interesser. Hvad sker der eksempelvis, hvis Microsoft beslutter, at al tekst i MS Word pr. automatisk skal bruges til at træne deres generative AI-systemer? Hvordan påvirker det mon uddannelse og forskning, og hvad gør vi så?


Manglende gennemsigtighed er det egentlige problem

DeepSeeks indtog på AI-markedet markerer et afgørende skifte i udviklingen af kunstig intelligens. Ved at skabe avancerede sprogmodeller til en brøkdel af de etablerede aktørers pris, har virksomheden effektivt punkteret Silicon Valleys mangeårige fortælling om nødvendigheden af astronomiske investeringer i udviklingen af kunstig intelligens. Dette kunne umiddelbart fremstå som en kærkommen demokratisering af teknologi, men realiteten er mere kompleks.


Så længe tech-giganterne i både øst og vest ikke opererer med reel gennemsigtighed eller open source i egentlig forstand, er uddannelsessektoren overladt til proprietær datahåndtering og forskellige former for censur - eller kuratering af indhold, hvis man måtte foretrække denne formulering.


Særligt inden for de samfundsvidenskabelige og humanistiske fagområder rejser DeepSeeks censur af politisk sensitive emner fundamentale spørgsmål om teknologiens anvendelighed i en vestlig akademisk kontekst. Det handler ikke blot om konkrete begrænsninger i forhold til eksempelvis diskussioner om kinesisk politik eller Taiwan, men om en mere grundlæggende problematik - nemlig risikoen for, at økonomisk tilgængelige sprogmodeller bliver trojanske heste i en gradvis normalisering af begrænsninger i den akademiske frihed.


Hvis økonomisk trængte uddannelsesinstitutioner vælger DeepSeek, kan vi risikere en ny form for digital ulighed. Ressourcestærke institutioner vil fortsat kunne betale for de bedste AI-værktøjer, mens mindre velstillede institutioner måske må nøjes med gratis løsninger, hvor man eksempelvis betaler i form af data eller censureret indhold. Det skaber potentielt et demokratisk problem, hvor adgang til kritisk viden bliver betinget af økonomiske ressourcer, og hvor vi samtidig risikerer at skabe kvalitetsforskelle på tværs af uddannelseslandskabet. Disse forskelle forstærkes yderligere af varierende kompetencer og kapacitet til at håndtere teknologiens udfordringer.


Problemet med fravær af politiske visioner

Det er hverken hensigtsmæssigt eller forsvarligt at overlade de enkelte uddannelsesinstitutioner til selv at navigere i dette virvar af teknologiske, etiske, kompetencemæssige og økonomiske udfordringer. Spørgsmålet om kunstig intelligens i uddannelsessektoren er ikke blot et spørgsmål om teknologisk modernisering. Det drejer sig om lige adgang og lige muligheder for alle i uddannelsessystemet, og så handler det i allerhøjeste grad om sammenhængende og kompetent kompetenceudvikling for alle i uddannelsessektoren, ikke mindst i lyset af den nye EU AI-forordning - men det er et emne, der kræver sit eget nyhedsbrev på et senere tidspunkt.


Hvorom alting er, så har vi brug for koordineret politisk handling der kan sikre åbne, transparente AI-løsninger i uddannelsessektoren. Det handler om at finde gode balancer, hvor vi bruger de nye teknologier uden at kompromittere hverken datasikkerhed, akademisk frihed eller lige muligheder på tværs af de danske uddannelsesinstitutioner.


Jeg ser det som en samfundsopgave, der rækker ud over hvad man med rimelighed kan forvente af de enkelte uddannelsesinstitutioner, og den seneste udvikling viser med at tydelighed behovet for politisk handling og koordinering på nationalt niveau. Jeg håber på snarlig handling.

jeppe@stricker.ai

mobil 2222 8283

  • White LinkedIn Icon

©2024 JEPPE KLITGAARD STRICKER

bottom of page