Kunstig intelligens fremmer monopolkapitalisme
Det er ikke studerendes (mis)brug af chatbots, der er faren ved kunstig intelligens. Det er udspioneringen af brugerne og deres viden, skriver Morten Nørholm, der har leget lidt med chatbots inden for sit eget vidensområde.
Debatindlæg er udtryk for skribentens egne holdninger. Kontakt os her, hvis du selv vil bidrage til debatten.
For nyligt læste jeg to tekster om elektroniske medier. Den ene var en leder i det svenske dagblad Upsala Nya Tidning. Under overskriften “Vi ska inte servera Kina känslig [følsom] information” tager lederskribenten udgangspunkt i Uppsala kommunes forbud mod TikTok på kommunens tjenestetelefoner og advokerer mere generelt for et forbud.
Den anden var en artikel på Danmarks Radios hjemmeside. Under overskriften “OpenAI vil rulle ChatCPT ud til virksomheder og revolutionere arbejde” jubler skribenten over mulighederne med det nye redskab … og agerer reklamesøjle for ChatGPT.
ChatGPT er underholdning
Grundlæggende er der næppe den store forskel på TikTok og ChatGPT. Begge er lavet for at underholde. Det er den vare, de leverer. I det mindste til os, der bruger den. Spørgsmålet er, om ikke der er andre, som har større udbytte.
Jeg er ikke tech-ekspert, så jeg ved ikke meget om algoritmer og den slags teknikaliteter. Til gengæld har jeg forsøgt at anvende ChatGPT nogle gange. Det har givet underholdende, om end yderst useriøse resultater.
En af mulighederne er at justere, hvor fjollede eller opfindsomme svar bot’en leverer. Det gør man ved at justere “temperaturen”. Jo koldere, desto mere forudsigelig eller altså seriøs. Det seriøse er jo ikke specielt underholdende, ved vi. Og ChatGPT mener det samme.
I øvrigt gjorde det ikke den store forskel, om bot’en var varm eller kold, da jeg kommunikerede med den.
Den første begejstring holdt ikke
Første gang ville jeg anvende chatbot’en til at skrive et referat af en klassisk sociologisk tekst. Jeg vidste, at teksten indeholdt bestemte overvejelser, pointer og diskussioner, så jeg kunne stille bot’en præcise spørgsmål og give den ret præcise retningslinjer.
Først blev jeg så imponeret over de svar, jeg fik, at jeg glad og naivt delte resultaterne med en kollega, som også var imponeret om end lidt skeptisk. Præcise referater, præcise citater og præcise henvisninger med sidetal og kildeangivelse.
Da jeg afsluttede sessionen med at bede chatbot’en om et citat af hele det kapitel hvor pointer, referater og citater var hentet, fik jeg også det, atter med sideangivelse og kildehenvisning.
Så gik jeg på biblioteket og fandt originalen som bot’en havde angivet. Jeg ville kontrollere formaliteter som sidetal for det tilfælde, at der skulle findes flere forskellige udgaver af bogen.
Samtidig lavede jeg en stikprøveundersøgelse af den omhu, hvormed bot’en havde udført sit arbejde. Og det var skam meget omhyggeligt udført.
Alt var fuldkommen forkert.
Ud over den korrekte reference var absolut intet til at finde i originalteksten. Hvert eneste ord var pure opspind fra bot’ens side, så intet af det jeg havde fået leveret, kunne bruges til noget som helst – ud over som en slags bluffers guide to classical sociology.
Det var en skuffelse, eller måske snarere et wake up-call. Her var et redskab, jeg ikke kunne bruge. I det mindste ikke til noget seriøst.
Andet forsøg holdt heller ikke
I næste forsøg bad jeg bot’en om at referere en af mine egne tekster. De ligger allesammen frit tilgængeligt på nettet, så det burde være enkelt. Det var i det mindste enkelt for mig at kontrollere resultatet af bot’ens anstrengelser. Jeg bad om et referat og gav bot’en et doi-nummer [Digital Object Identifier – et unikt nummer til en videnskabelig artikel, som web-browsere kan aflæse ligesom et link, red.].
Bot’en svarede, at den ikke havde adgang til videnskabelig tekster, som ikke var frit tilgængelige. Den end ikke prøvede, om der nu var fri adgang (hvilket der er).
Dernæst gav jeg den en mere ‘almindelig’ adresse. Den takkede venligt for den “rigtige” adresse og gik ellers i gang.
Det første forsøg var forkert. Jeg bad den regenerere sit svar. Heller ikke det forsøg var i nærheden af min original. Tredje og fjerde forsøg ligeså. På intet tidspunkt fik jeg noget, der bare tilnærmelsesvist lignede den tekst, jeg selv havde skrevet. Den kunne end ikke gengive titlen på den tekst, jeg bad den referere, korrekt.
Skønt man skulle tro, at det var enkelt for en chatbot at levere et referat af en tekst, var det altså heller ikke en anvendelsesmulighed.
Tredje forsøg var forkert svar – med halvt opspind
Tredje forsøg var i en lidt lettere genre: Det drejede sig om en obskur børneplade, som fandtes i mit barndomshjem. Jeg skrev første linje til en af sangene og bad bot’en identificere sangen, fortælle hvem der synger og så videre. Det kunne den ikke. Den kom med en masse forskellige, spændende forslag, men de var alle forkerte.
Da jeg havde en mistanke om hvilket børnekor, som havde indsunget sangen, skrev jeg ordet “Dragørbørnene.” At det er helt ved siden af, gik efterhånden op for mig. Men det var ikke bot’ens fortjeneste.
Først bad den mig forklare, hvad jeg mente. Da jeg gentog mit input, skrev den, at Dragørbørnene var samletitlen på en firebinds selvbiografisk bogserie af Tove Ditlevsen om hendes opvækst i Dragør. Den gav titlerne på de fire bind: To af titlerne var rigtige og genfindes i Ditlevsens selvbiografiske trilogi om hendes opvækst på Vesterbro i København. De to andre titler var pure opspind.
Det kunne den altså heller ikke bruges til.
Hellere løgn end negativt svar
Underligt og foruroligende nok kunne bot’en ikke skrive noget så banalt som: “Det ved jeg ikke.” Den er tilsyneladende programmeret til hellere at levere en underholdende løgnehistorie end et fornuftigt negativt svar.
Selv når man beder bot’en om at sænke temperaturen eller eksplicit svare rigtigt, leverer bot’en endnu en gang vås.
I forhold til frygten for anvendelse ved eksamener er risikoen derfor mindre, at bot’en leverer rigtige svar på få sekunder, og i højere grad at de bedømmere, som skal bedømme svarene, er tvunget til at vide noget om de spørgsmål, der stilles.
At eksaminator og bedømmer altså skal til at arbejde for deres løn, er en anden risiko end den, der oftest fremhæves.
Trojansk industrispion
En bekendt med personaleansvar for programmering af systemer, der forvalter kundernes penge, har fortalt mig, at hun har besvær med at forhindre ansatte i at spørge ChatGPT til råds. De har det indtryk, at ChatGPT er dygtig til at programmere, så det kan spare tid. Måske er det rigtigt, det ved jeg ikke.
Set fra firmaets synspunkt er det dog en rigtig dårlig ide, fordi de ansatte på den måde deler forretningshemmeligheder med hele nettet – i det mindste udbyderen af chatbot’en.
Derfor er ChatGPT ikke velegnet til den slags arbejde.
ChatGPT vil, i den udgave der beskrives på dr.dk, fungere som en trojansk industrispion. Virksomhederne beder selv industrispionen komme indenfor. Bot’en kan for eksempel have yderst negative konsekvenser for firmaets konkurrenceevne.
Ingen ved, hvem der tjener på det – ud over firmaet bag ChatGPT. Men nogen kommer til at score kassen, og det er næppe de betalende brugere.
Præcis som TikTok og tidlige chatbots som Google giver ChatGPT størst hjælp til andre end dem, der har betalt for dens tjenester. Det er ikke bot’en, men brugeren, som er varen. Jf. den chatbot, som følger med Snapchat, som det koster penge at blive af med.
Dystopien er startet
Den store risiko ved kunstig intelligens er altså i mindre grad, at de studerende kan snyde. Det er snarere, at bot’erne beruser os med løgn og narrestreger, samtidig med at den stjæler vores tid og arbejde.
Ikke i en dystopisk fremtid, hvor robotter styrer, og mennesket er slaver. Men i en dystopi, hvor kapitalen er endnu mere monopoliseret, og hvor chatbot’er bliver brugt i en fremtid, som allerede er begyndt.
Kampen mod kunstig intelligens er derfor klassekamp mod monopolkapitalisme.
Kære bruger – du er nu nået gennem et opslag i Solidaritet
Vi håber, at du fik stillet din nysgerrighed eller diskussionslyst.
Alt stof på Solidaritet er frit tilgængelig uden betalingsmur. Men det er ikke gratis at drive et website.
Solidaritet er organiseret som en demokratisk forening, hvis formål er at gøre Solidaritet til platform for venstrefløjens debat i Danmark. Du kan også blive medlem – hvis du ikke allerede er.
Du kan nemt, hurtigt og direkte lave en aftale med Mobilepay, Visa eller Mastercard – og den kan opsiges med øjeblikkelig virkning.
20 kr./md. 60 kr./md. 100 kr./md. 150 kr./md.Foreningens indtægter er økonomisk rygrad i Mediehuset Solidaritets drift. Men foreningen er – ud over økonomisk fundament for drift – også et fællesskab, der sammen med ansatte og faste aktivister videreudvikler mediehusets aktiviteter. Læs mere om foreningen: HER