Artificiella intelligenser, AI, lär sig av datan den hanterar. Tränas den på felaktig information så gör den fel. Även om vi upplever informationen som korrekt, så kan den vara full av mänskliga värderingar, vilka i sin tur påverkar AI:ns beslut.
Detta är femte delen av totalt åtta från forskning.se på temat artificiell intelligens.
Här följer fler filmer och några artiklar som forskning.se tagit fram på temat AI – risker och etik.
Är det rätt att förbättra människan på konstgjord väg?
Vem ska bestämma om jag behöver ”förbättras”? Och vem ska i så fall betala behandlingen? Samhällsvinsterna är många, men också det etiska frågetecknen. I artikeln: Är det rätt att förbättra människan på konstgjord väg? ger Anders Sandberg, transhumanist och forskare i datavetenskap och neurovetenskap vid universitetet i Oxford sin syn.
Syntetiska känslor
Om vi har avancerad AI som fattar svåra beslut, så måste vi få in moral på något sätt i systemet, antingen genom att programmera in en moralisk teori, eller låta AI öva och lära sig själv, eller så kanske vi kan skapa artificiella känslor. Se intervjun med Linda Johansson, fil. dr. Försvarshögskolan.
Vem tar ansvar för AI?
När det finns maskiner med en lärande funktion och maskiner som kan programmera sig själv, vem bär då ansvaret ifall den gör något fel? Är det programmeraren, tillverkaren, användaren eller till och med maskinen själv som har det juridiska ansvaret? Filmen är en intervju med Linda Johansson, fil. dr. Försvarshögskolan.
När allt övervakas
Vi lämnar redan digitala spår och i snabb takt blir du allt mer uppkopplad. Då blir det ännu viktigare vem som har tillgång till datan och vad de har rätt att göra med den. Filmad intervju på engelska med Finn Arne Jørgensen, docent i teknik- och miljöhistoria, Umeå universitet och Universitetet i Stavanger.