Kasper Saugmann går i dybden med AI på en tilgængelig måde på excitech. Han har tidligere skrevet for bl.a. Børsen, Frihedsbrevet og Weekendavisen og var desuden medstifter af mediet Den Uafhængige, der i 2023 blev solgt til Frihedsbrevet


 

Yoshua Bengio er endelig begyndt at sove godt igen. Han har ellers længe været holdt vågen til langt ud på natten af ChatGPT. Ikke fordi den 61-årige professor i datalogi ved universitetet i Montreal tilhører den voksende gruppe af mennesker, der knytter et intimt bånd til den populære chatbot og har svært ved at slippe samtalen ud på de sene timer.

Nej, han er tværtimod blevet ramt af bekymringer, alvorlige bekymringer endda, for konsekvenserne af den teknologi, som han selv har været med til at udvikle. Som den mest citerede AI-forsker i verden burde han ellers på papiret være lykkelig. Hans opdagelser har været med til at muliggøre de systemer for kunstig intelligens, som de seneste år har taget verden med storm. Men under sine daglige gåture i et skovområde nær hjemmet i Canada er erkendelserne om de mulige katastrofale konsekvenser kommet snigende.

“Det gik op for mig, at et potentielt katastrofalt misbrug eller tab af kontrol udgør alvorlige problemer – og det havde jeg ikke indset,” siger Yoshua Bengio om de bekymringer, der forstyrrede hans nattesøvn.

“Jeg tænkte, at mine børn måske slet ikke ville have en fremtid, hvis udviklingen fortsatte i den retning. Det, der gjorde, at jeg kunne begynde at sove igen, var, at jeg besluttede at gøre alt, hvad jeg kunne, for at mindske de risici og vende angsten til handling.

En del af det arbejde er at tage rundt og fortælle om risiciene ved kunstig intelligens. Det var den canadiske topforsker for et par uger siden for første gang i Danmark. Her var han hovedtaler på konferencen AI in Science Summit i Bella Center i København. 

Stoppet i Danmark er en del af en mindre turné i Europa, som også fører ham til Paris, London, Stockholm, Oslo og Berlin.

 

Vågn op

Alle vil høre om farerne ved den seneste digitale omvæltning fra manden, der selv har været med til at udvikle teknologien og betegnes som en af de tre godfathers inden for AI. Men hvad er det så for risici ved kunstig intelligens, som han nu pludselig advarer mod?

Yoshua Bengio forklarer, at de katastrofale risici ved kunstig intelligens kan opdeles i tre kategorier. Den første er menneskers ondsindede brug af teknologien, hvor nogen for eksempel bruger den til at opfinde en ny virus. Den anden er utilsigtet opførsel, hvor den kunstige intelligens for eksempel misforstår, hvad vi vil have den til. Den tredje er en overdreven magtkoncentration, hvor landene med den stærkeste kunstige intelligens ender med at dominere økonomisk, politisk og militært.

Særligt det sidste fylder under hans føromtalte besøg i København.

“Jeg tror ikke, at det er gået op for særlig mange, at hvis vi fortsætter på denne kurs med mere og mere kraftfuld AI, så vil dem, der kontrollerer det, have enorm økonomisk magt,” siger han og fortsætter:

“Der er en reel risiko for, at europæiske virksomheder bliver fuldstændig udkonkurreret af udenlandske virksomheder, hvis Europa ikke sikrer sig ejerskab over de mest avancerede AI-modeller.”

Og det er ikke nok bare at bygge datacentre, påpeger han. Europæerne skal også kontrollere selve teknologien.

Eller som han udtrykker det på en af de slides, han et par timer efter interviewet viser det fyldte auditorium i Bella Center: “Europe has a chance to do things differently, and needs to.” Med en tyk streg under de sidste to ord.

Men ifølge Bengio er europæerne hæmmet af en opgivende attitude. Følelsen af, at Europa ikke kan gøre noget, forhindrer den nødvendige handling. Derfor er det i hans øjne vigtigt, at den europæiske elite forstår problemstillingen og åbent erklærer det for offentligheden: Send signalerne, investér, vær med til at skabe digitale vindere i Europa, som kan være med i ræset mod techgiganterne fra USA og Kina, lyder det. Ja, fokusér lige så meget på det som på at reducere muligheden for, at Rusland invaderer Europa, lyder Bengios opfordring.

“Det er den form for eksistentiel risiko, vi bør have i tankerne – økonomisk risiko, risikoen for at miste kontrol – hvor det er afgørende, at alle forstår, hvor vigtigt det er. Tænk på, hvor hurtigt Europa, og selvfølgelig også andre lande, ændrede kurs, da pandemien brød ud. Så når vi virkelig vil, kan vi.”

Europa bør samarbejde med lande som Japan, Sydkorea og Indien, hvis europæerne skal klare sig i konkurrencen med amerikanere og kineserne, mener Yoshua Bengio.

“Alle andre lande – især dem med talent, kapital og energi – vil i bund og grund også være bekymrede for at blive domineret af enten kineserne eller amerikanerne. Derfor kan Europa faktisk blive et samlingspunkt, hvor landene mødes og arbejder sammen, og dermed skabe endnu stærkere virksomheder inden for kunstig intelligens end USA og Kina.”

– Covid var et wakeupcall. Tror du, vi har brug for sådan et i forhold til AI?

“Ja, det har vi. Vi er nødt til at vække den offentlige bevidsthed.”

Yoshua Bengio har ved flere lejligheder talt for, at alle kan engagere sig i spørgsmålet om AI. Som da han i april gav en TED Talk i et fyldt Vancouver Convention Centre. Men det er en udfordring, at AI typisk ligger langt nede ad listen over folks bekymringer, påpeger han.

“Bevidstheden skal vokse, så den offentlige bevægelse og de offentlige investeringer står mål med faren.”

“Vågn op,” lyder opfordringen til os alle fra Yoshua Bengio. “Enorme muligheder og enorme risici er på vej imod os. Vi har stadig handlekraft til at skabe en sikker og gavnlig fremtid. Men vi er nødt til at handle nu.”

Han opfordrer folk til at læse og tale om emnet og håber på at kunne se en politisk bevægelse, der måske minder om den, vi ser i forhold til klimaet.

“Vi kunne have en lignende folkelig bevægelse omkring AIs indflydelse, og hvad vi kollektivt bør gøre ved det. Det handler simpelthen om at øge forståelsen omkring dig, så flere mennesker forstår det.”

 

»Kan dræbe milliarder af mennesker«

Men forstår resten af verden det?

I bogen Architects of Intelligence (2018) er Yoshua Bengio citeret for at billige Kinas massive investeringer i AI, fordi vi alle i hans øjne kan drage fordel af den forskning. Men mener han stadig det i dag i lyset af de stigende spændinger mellem Kina og Vesten?

“Dengang var jeg endnu ikke så bekymret over misbrug af AI, men det er klart meget farligt, hvis kineserne og andre aktører med værdier, som ikke nødvendigvis er på linje med demokratiet, bevæger sig så hurtigt mod superintelligens.”

I stil med mange andre er han i tiltagende grad bekymret over den mulige militære brug af kunstig intelligens, som er blevet beskrevet som en tredje revolution inden for krigsførelse efter krudt og atomvåben. Helt tilbage i 2015 stod nonprofitorganisationen Future of Life Institute bag et åbent brev mod et »militært AI-våbenkapløb« og talte for et forbud mod offensive autonome våben uden for meningsfuld menneskelig kontrol. Mere end 34.000 skrev under på brevet, herunder Stephen Hawking, Elon Musk og Yoshua Bengio.

“I takt med, at AI bliver mere kraftfuld, vil brugen af AI i militæret forstærke både risiciene ved misbrug og tab af kontrol. Hvis AI kun bliver brugt i en kommerciel kontekst og opfører sig uønsket, vil konsekvenserne nok være ret begrænsede. Hvis AI er en dræbermaskine og opererer på uønskede måder, kan konsekvenserne blive katastrofale. Det ekstreme eksempel er selvfølgelig AI med kontrol over atomvåben. For hvis den bare begår en enkelt fejl med katastrofale atomare konsekvenser, er det selvfølgelig fuldstændig uacceptabelt.”

Bengios største bekymring er dog en helt anden.

“Hvis der er droner, der dræber mennesker, så dør måske tusindvis af mennesker. Men hvis der udvikles en virus, der kan dræbe milliarder af mennesker, så er det en helt anden sag. Det kan også være en stille trussel. Du ser det ikke nødvendigvis sprede sig.”

Han anerkender, at det for nogle kan føles som science fiction, men peger på, at vi allerede har set eksempler med AI, der kommer ud af kontrol, i den kommercielle brug af værktøjet.

“Selvfølgelig har det endnu ikke eksistentielle konsekvenser, fordi AI endnu ikke har evnerne til at gøre virkelig skadelige ting. AI ved ikke nok, planlægger ikke godt nok, ræsonnerer ikke godt nok. Men på alle disse områder kan vi se, ud fra resultaterne og udviklingen, at AI bliver bedre og bedre og bedre. Så vi bør i det mindste være forberedt på, at den udvikling fortsætter,” siger han og peger på den eksponentielle udvikling i evnerne til at planlægge hos AI. Et område, som AI-firmaerne er særligt ude efter, fordi det er sådan, de hurtigst vil kunne tjene penge på kunstig intelligens.

Foruden at have stået bag nogle af de innovationer, der har muliggjort nutidens AI-systemer, spillede Bengio også en mere direkte rolle i tilblivelsen af OpenAI. Den canadiske professor udarbejdede en liste over lovende forskere, som firmaet, der dengang var nonprofit, rekrutterede sine stiftende tekniske ansatte ud fra.

Nu står OpenAI bag noget af det, der bekymrer Bengio mest, nemlig at få AI til selv at være med til at designe de næste generationer af teknologien.

“Det er den farligste vej at gå,” siger Bengio og forklarer, at vi så måske slet ikke forstår, hvad der foregår. Der kan opstå bagdøre i systemet, som ingeniørerne ikke engang opdager.

“Så vi bør være meget, meget forsigtige i forhold til denne udvikling, som bør underlægges offentlig granskning og kontrol – eller endda forbydes, hvis den ikke udføres på den rette måde.”

 

Indrøm uvidenhed

Da en anden af de tre godfathers inden for moderne kunstig intelligens, Geoffrey Hinton, i 2023 forlod sit arbejde hos Google, var det med forklaringen, at han gerne ville kunne tale mere frit om de negative sider af teknologien. Til The New York Times’ podcast The Daily sagde han, at han faktisk fortrød, at teknologien var nået så langt, som den var nu, og sin egen rolle i det. Men, argumenterede han, man bør skelne mellem kloge og heldige beslutninger: Han fastholder, at det var en klog beslutning at prøve at finde ud af, hvordan hjernen fungerer, men det kan vise sig at have været uheldigt. Forstår Bengio manden, der i sin tid inspirerede ham til at gå ind i feltet?

“Ja, jeg er enig. Men jeg vil tilføje, at vi alle til en vis grad har været påvirket af psykologiske årsager til at se den positive side og delvist benægte farerne. Det er meget menneskeligt at ville føle sig godt tilpas med sit arbejde. Der findes et fænomen kaldet motiveret kognition, som får vores tanker til at fokusere på det, der stemmer overens med vores identitet og interesser. Derfor giver vi ikke for meget opmærksomhed til ting, der stiller spørgsmål ved værdien af det, vi laver.”

Den tredje godfather, Yann LeCun, der i dag er Chief AI Scientist hos Meta, ejeren af Facebook, stiller sig bemærkelsesværdigt nok modsat sine to fagfæller i spørgsmålet og mener, at risiciene ved AI er overdrevne. Samme holdning har for nylig lydt fra Jensen Huang, chefen for verdens mest værdifulde selskab, AI-chipproducenten Nvidia. Hvad er det, som de overser?

“Der er usikkerhed omkring, hvordan AIs udvikling vil forløbe, og hvordan samfundet vil reagere. Hverken de eller jeg ved det, men ingen kan benægte, at der findes nogle virkelig alvorlige mulige udfald. Man kan have forskellige meninger om sandsynligheden, men for mig er de alle så uacceptable, at vi er nødt til at gøre noget ved det. Det betyder ikke, at vi ikke også skal arbejde for fordelene ved AI. Men at komme med meget bastante udtalelser som ‘åh, det skal nok gå’, er ikke baseret på fornuft. Det er ikke baseret på videnskab. Det er blot et udsagn, der ikke støttes af andet end ens egen selvtillid. Jeg mener, at det kloge er at indrømme vores uvidenhed, indrømme, at der er forskellige mulige udfald, og derefter gøre det rationelle og følelsesmæssigt rigtige – nemlig at beskytte os selv.”

Bengio erkender, at hans budskaber kan lyde alarmistiske, men han er ikke en doomer, tværtimod, en do’er, fastslår han. Foruden at rejse rundt og fortælle om risiciene ved AI har han for nylig stiftet nonprofitorganisationen LawZero, der skal arbejde for netop en mere sikker anvendelse af teknologien. For eksempel ved, at systemerne kun kan forstå, ikke agere.

Samtidig skal der i hans øjne være fuld transparens, hvis AIen er usikker på noget. Han håber at kunne udvikle en teknologisk løsning, som vil kunne kobles oven på andre AI-systemer som et sikkerhedsværn. Hans organisation har indtil videre modtaget 30 millioner dollar i donationer fra blandt andet Bill Gates og Googles tidligere direktør Eric Schmidt.

Men Bengio er stadig grundlæggende bekymret og kan fortsat blive overrasket over hastigheden i udviklingen.

“Det her sker hurtigere, end selv jeg havde forudset,” siger han.

Inden lanceringen af ChatGPT regnede han med, at det ville tage 20-100 år at opnå AI-systemer med intelligens på niveau med mennesker. Nu tror han, at det vil tage 5-20 år. Men hvad vil være et tegn på, at vi har løst udfordringerne med AI?

“Åh, jeg leder ikke efter et tegn. Jeg leder efter videnskabelige argumenter. Det er også det, jeg selv prøver at opbygge i min egen forskning, sammen med min gruppe og med LawZero. Fremtiden for kunstig intelligens bør ikke afhænge af nogens mening, når vi taler om beslutninger, der kan påvirke hele menneskeheden og fremtidens demokratier. Det bør være noget, der kan modstå videnskabelig granskning.”