Søg støtte

Søg

Nyhed -

Hvad kan jeg bruge det til? Her er svar på jeres spørgsmål om kunstig intelligens

Der kom nysgerrige og opklarende – men også bekymrede spørgsmål – da vi i forrige uge spurgte, om der var noget, I gerne ville vide om kunstig intelligens. Vi fik en forsker til at hjælpe os med svarene.


Hvad kan en almindelig borger bruge kunstig intelligens til? Hvordan kan jeg gennemskue om en video er falsk? Og forstår kunstig intelligens dialekter? Det var bare nogle af de spørgsmål, vi fik fra jer – vores læsere og følgere – da vi i forrige uge spurgte, hvad I gerne vil vide om kunstig intelligens (også kaldet AI).

I weekenden 3.-4. februar afholdt TrygFonden en folkehøring om kunstig intelligens med forskere, politikere og ikke mindst 362 almindelige danskere. Her stillede vi nogle af jeres mange gode spørgsmål til Anders Kofod-Petersen, der er professor i anvendt kunstig intelligens ved Norges teknisk-naturvitenskapelige universitet.

Se eller læs hans svar nedenfor.

Spørgsmål og svar om kunstig intelligens

Spørgsmålene er stillet af TrygFondens læsere og besvaret af Anders Kofod-Petersen, der er professor i anvendt kunstig intelligens ved Norges teknisk-naturvitenskapelige universitet.

Hvad kan en almindelig borger bruge kunstig intelligens til? (John Holm Kristensen, Silkeborg)

"Det kan bruges til rigtig, rigtig mange ting. Jeg vil vove at påstå, at den almindelige borger bruger det allerede i dag uden nødvendigvis at være klar over det.

Skal du finde vej på Google Maps, så har du fået hjælp (af kunstig intelligens, red). Der kommer ikke så meget spam i din indbakke, så har du fået hjælp. Skal du finde ud af, hvordan din kalender ser ud i morgen, så har du fået hjælp. Skriver du en besked i dit chat-system og får ændret med stavekontrol, så har du fået hjælp.

Hvis man skal bruge det lidt mere eksplicit – nu skal jeg bruge det her (kunstig intelligens, red) til et eller andet – så skal man bruge det til de ting, man ikke selv er så god til. Og måske er ChatGPT et godt eksempel. Hvis du skal formulere et eller andet, kan man skrive til ChatGPT, om det kan omformulere det, så en femårig kan forstå det.”

Jeg finder det skræmmende, at der kan laves video, hvor tilsyneladende kendte mennesker optræder, uden man ser, at der er tale om en figur skabt af AI. Hvordan kan jeg se forskel? (Brenda C. Jensen, Aabenraa)

”Det korte svar er, at det kan du nok ikke. Hvis der er blevet brugt nok ressourcer på det, så kan du ikke. Men på en eller anden måde adskiller det sig ikke fra propaganda, som det hed i gamle dage – i dag hedder det deep fakes. Sovjetunionen havde flere tusinde mennesker ansat til at retouchere billeder og fjerne folk, der var blevet upopulære. Så i bund og grund appellerer det til, at vi er nødt til at have et kritisk forhold til det vi ser. Det er ikke en objektiv sandhed, det vi ser. Men det har det sådan set heller aldrig været.

Mit favoritfag i gymnasiet var historie – ikke fordi jeg var specielt historieinteresseret – men vi lærte utroligt meget om kildekritik, og det burde være et fast emne i skolen fra du er barn, til du går ud.”

 

Hvis vidensbanken, som er der hvor kunstig intelligens trækker sine oplysninger fra, efterhånden bliver fyldt med falske oplysninger, kan man så stole på AI?

”Nej, det er klart. Der er et fantastisk godt eksempel på det. For snart et år siden var der nogle amerikanske forskere, der tænkte, at 80 pct. af det indhold, der er på internettet i dag, er forfattet af mennesker og 20 pct. af maskiner. Det er det indhold, vi bruger til at træne maskinerne bag bl.a. ChatGPT. Men når vi nu har ChatGPT, så kan det jo skrive en masse ting, der ender på nettet. Så hvad nu hvis tallet var omvendt? Det tager måske fem år, så vil 80 pct. være skrevet af ChatGPT og 20 pct. af mennesker.

Forskerne trænede en sprogmodel på informationerne på nettet og fik den til at skrive noget. Herefter trænede de en ny sprogmodel, på det, den første sprogmodel havde skrevet. Da de havde gjort det tre gange, var det, der kom ud i den anden ende, komplet volapyk. Det er ret interessant. Så det er klart, at hvis det er forkert, det der kommer ind, er det sandsynligvis også forkert, det, der kommer ud. Det er en fuldstændig reel problemstilling. Der arbejdes på at kompensere for det, men det er bare ikke supernemt.”

Forstår AI dialekter? (Bodil, Ejstrupholm)

”Det er godt spørgsmål. Vi ved, at AI-systemer kan trænes til at forstå forskellige sprog. Og da sprog og dialekter er i samme boldgade, er der på papiret ikke noget i vejen for, at man kan træne den til at forstå forskellige dialekter. Men det kræver en vis volumen. Så hvis der er to personer på en afsidesliggende ø i Nordatlanten, der taler et sprog eller en dialekt, er der formentlig ikke nok data til at få en model til at forstå det – medmindre den dialekt er tilstrækkeligt tæt på et andet sprog, som den forstår.”

Hvor kan man få undervisning i kunstig intelligens? (Frank Lolk-Hansen, Frederikssund)

”Hvis man gerne vil lære lidt til værktøjskassen uden at være kode-nørd, så er der Elements of AI, som også tilbydes i Danmark via IT-universitetet, som giver dig en helt basal indføring i kunstig intelligens. På de forskellige folkeuniversiteter er ofte nogle forskellige foredrag. Der er flere oplysningsforbund, der også er ved at komme på banen, så der er ganske mange steder, hvis gerne vil vide noget om det uden selvfølgelig at tage en uddannelse.”

Vil man få et sandfærdigt svar, hvis man spørger om det er en maskine eller et menneske, man taler med? (Bodil, Ejstrupholm)

Dette er der næppe noget entydigt svar på. I udgangspunktet er graden af sandfærdighed hos et menneske knyttet til, hvad spørgsmålet drejer sig om. Jo mere et spørgsmål drejer sig om, hvad et menneske har oplevet, desto mindre sandsynligt er det, at det er sandfærdigt (ikke nødvendigvis bevidst løgn). Eksempelvis er det velkendt, at den mindst pålidelige bevisførelse, man kan føre, er vidner. Modsat vil et spørgsmål om udregning af momsværdien af en indkøbskurv næppe være falsk (med mindre der er tale om bevidst løgn).

På en måde kan man sige det samme om et AI-system; dog med en anden baggrund. AI-systemer (og mennesker) kan kun svare baseret på det, de har observeret og kan slutte sig til baseret på observationer; herunder viden. Så et maskinlæringssytem (ML-system) vil svare falskt, hvis det er trænet på falsk data. Dog, vil et ML-system antageligvis generelt kunne svare nærmere på sandheden, da det typisk vil kunne anvende mange flere datapunkter og -kilder end et menneske.

Kan man indarbejde empati i kunstig intelligens? (Morten Johannsen, Charlottenlund)

Først skal vi nok se på, hvad en god definition af empati kunne være: Empati er evnen til at forudsige en persons interne tilstand (humør, sindstilstand, eller følelser) baseret på, hvad der kan observeres; eksempelvis ansigtsudtryk og artikulation. Denne definition gælder i princippet både for mennesker og maskiner.

Så hvis et AI-system kan opfatte disse signaler – hvilket der er eksempler på – og kunne lære en sammenhæng mellem fx bestemte ansigtsudtryk og -træk, er der tale om en slags empati.
I øjeblikket er der ingen kendte gode eksempler på dette. I princippet vil et AI-system dog kunne udvise empati – eller i hvert fald noget, vi ville opfatte som empati.

Hvor meget data "stjæler" AI-tjenesterne? (Jens Chr. Lassen, Børkop)

I udgangspunktet er det uklart, om AI-tjenester som sådan stjæler data. I øjeblikket diskuteres det kraftigt, om tjenester – som fx ChatGPT – er baseret på, stjæler data fra kunstnere, skribenter og almindelige mennesker.

Så vidt jeg ved, er det ikke afklaret, om der er tale om at stjæle eller almindelig brug, som kan være lovligt under eksisterende regler. Det bliver interessant at se, hvad man kommer frem til i de nuværende juridiske slagsmål.

Det er nok ikke kontroversielt at sige, at der skal være en eller anden passende balance mellem AI-systemers og menneskers muligheder for at benytte sig af materiale produceret af andre – og disse producenters muligheder for at blive kompenseret.

Har du spørgsmål?

Peter Madsen

Projektchef