Artikel från forskning.se

Den här artikeln kommer från redaktionen på forskning.se. Läs om hur redaktionen jobbar.

Om artificiella intelligenser tränas på felaktig information så gör den fel. Men oavsett om all indata är korrekt och värdeneutral, så behöver vi bygga in en moral. Vem är ansvarig för AI:n:s beslut?

I takt med den tekniska utvecklingen blir AI en allt större del av våra liv, och vi kommer alla att påverkas av deras beslut.

Klicka på bilden för att se filmen Risker & etik.

Vi gör ett tanke-experiment: Du åker i en självkörande bil som är programmerad för att göra minsta möjliga skada.

Plötsligt uppstår ett hinder på gatan och bilen färdas så fort att den inte kommer hinna bromsa! Vad ska bilen göra? Om den väjer vänster så träffar den och dödar två cyklister. Om den väjer höger så dödar den fem personer. Två mot fem.

Men om de fem gångtrafikanterna är barn?

Eller om du själv sitter i bilen, ensam, och den moraliska regeln väljer att köra rakt in i hindret, och kanske döda dig, för att rädda de två cyklisterna och de fem gångtrafikanterna?

Enkel regel blir snabbt komplicerad

Tanke-experimentet visar hur en enkel regel snabbt blir komplicerad. Borde systemet värdera risker efter antal människoliv, eller ålder eller något annat?

Artificiella intelligenser, AI, lär sig av datan den hanterar. Tränas den på felaktig information så gör den fel. Även om vi upplever informationen som korrekt, så kan den vara full av mänskliga värderingar, vilka i sin tur påverkar AI:ns beslut.

Och vem är ansvarig för de beslut som ett smart system tar? Programmeraren? Tillverkaren? Användaren? Eller rent av roboten själv?

Kunskapsöversikt:

forskning.se:s kunskapsöversikt om artificiell intelligens: http://www.ai.forskning.se

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera