AI blir snabbt mycket smartare – kommer människan fortsätta ha kontroll?

Nyligen lärde sig AI:n AlphaZero att spela schack på fyra timmar, och kom sedan på aldrig tidigare skådade drag för att utklassa sin motståndare. Nu oroar sig såväl forskare som AI-motståndare över om vi kommer fortsätta kunna kontrollera maskinerna, eller om vi inom kort kommer att bli kuvade under den empatilösa optimering som AI kan ta fram.
När DeepBlue slog Kasparow i schack 1997 menade experter att det skulle ta minst 100 år innan en dator kunde slå människan i spelet Go. Förra året, mindre än 20 år senare, blev det verklighet, och sedan dess har AI gjort mycket stora framsteg. Nu senast uppvisade AI:n AlphaZero häpnadsväckande kreativitet då den använde kungen som en offensiv pjäs i en serie om 100 matcher mot regerande schackdatorn Stockfish 8. AlphaZero hade dessutom inte fått några instruktioner alls, förutom spelets reglar, samt vad som krävdes för att vinna, alla drag hade den sedan lärt sig själv genom att under fyra timmar spela med sig själv.
Företaget bakom AlphaZero heter DeepMind och har även utvecklat AI för att kunna genomföra medicinska diagnoser. Såväl foton av misstänkta hudcancertumörer som bilder från ögonscanningar körs nu genom AI för att snabba på diagnosticeringsprocessen. Det problem som många nu lyfter är frågan om integritet, då DeepMind ägs av Google, som nu får tillgång till delar av brittiska hälsomyndigheten NHS patientjournaler. Exakt vad Google kan göra med denna information är det nu många som oroar sig över, för att inte prata om vad det innebär att en AI fattar beslut om diagnosticering och behandling.
Att fatta empatilösa beslut kan ju verka effektivt och opartiskt, men sedan kommer frågan om vilka patienter som ska få behandling. Är det värt att behandla patienter med obotliga sjukdomar, eller är det bättre att låta dem dö för att istället lägga resurser på de som har bäst chans att överleva och bli skattebetalande medborgare. Den typen av beslut kan verka logiska för en AI, men vore hårresande för en människa som fattar beslut delvis baserat på empati.
Forskare har dessutom noterat att det finns en stor risk med att låta AI få utveckla sig själv, eftersom människor inte kan hänga med eller kontrollera vad den lär sig. För bara några månader sedan stängde Facebook ner sitt projekt med AI, eftersom den börjat kommunicera på sätt som ingen människa kunde förstå. När en dator dessutom har tillgång till all världens information och kan processa den på extremt kort tid är det relevant att fundera kring vilka mönster som går att utröna, och vilka beslut som fattas baserat på det. Är människor helt enkelt ineffektiva parasiter, som antyds i den banbrytande filmen ”Matrix”, eller är det samarbetet mellan människor och maskiner som kommer att vara framtidens melodi.
Frågorna är många kring AI, i synnerhet som människor inte har förmågan att förstå det som en AI redan idag klarar av att göra. Med tanke på den fortsatta utvecklingen är det därför relevant att ta fasta på hur vi människor ska kunna fortsätta driva en utveckling samtidigt som vi inte banar väg för vår egen undergång. Ett tydligt sådant initiativ är det arbete som sker i organisationen ”Future of Life Institute”, grundat av bland annat den svensk-amerikanske AI-forskaren Max Tegmark. Deras arbete syftar till att skapa välvillig artificiell intelligens, och inte bara artificiell intelligens.