F:
Varför undersöker DARPA "förklarbar AI"?
A:I allmänhet blir förklarbar konstgjord intelligens en mycket förklarad del av banbrytande arbete inom datavetenskap. Det hjälper till att vägleda mänsklig kontroll över en naturligt flyktig och dynamisk typ av teknik - förklarbar AI hjälper till att svara på många av våra kollektiva frågor om hur konstgjord intelligens kommer att fungera.
För att förstå förklarliga AI, hjälper det att förstå hur "vanlig AI" ser ut. Traditionellt, när AI börjar ta form, består det typiska projektet av en snygg ny mjukvarukapacitet, dold i algoritmer och träningsuppsättningar och linjär kod, det är en slags "blockbox" för användare. De vet att det fungerar - de vet bara inte exakt hur.
Detta kan leda till "förtroendeproblem" där användare kan ifrågasätta grunden för vilken en teknik fattar beslut. Det är det som är förklarbart AI ska ta itu med: Förklarbara AI-projekt kommer med ytterligare infrastruktur för att visa slutanvändarna avsikt och struktur för AI - varför det gör vad den gör.
I en tid då toppinovatörer som Bill Gates och Elon Musk uttrycker oro över hur konstgjord intelligens kommer att fungera, verkar förklarbar AI extremt attraktiv. Experter hävdar att god förklarbar AI kan hjälpa slutanvändare att förstå varför tekniker gör vad de gör, ökar förtroendet och också ökar användbarheten och användningen av dessa tekniker.
DARPA förklarar dock på egen hand specifikt varför den är intresserad av de nya projekten. En sida på DARPA visar att försvarsdepartementet förutser en "torrent" av applikationer av artificiell intelligens och en del kaos i dess utveckling.
"Fortsatta framsteg lovar att producera autonoma system som kommer att uppfatta, lära sig, besluta och agera på egen hand", skriver David Gunning. ”Effekten av dessa system begränsas emellertid av maskinens nuvarande oförmåga att förklara sina beslut och handlingar för mänskliga användare. … Förklarbar AI - särskilt förklarbar maskininlärning - kommer att vara avgörande om framtida krigare ska förstå, på lämpligt sätt förtroende och effektivt hantera en framväxande generation av konstgjorda intelligenta maskinpartners. ”
Gunning's online-uppsats tyder på att förklarbara AI-system kommer att hjälpa till att "tillhandahålla skälen" för teknologier, visa sina styrkor och svagheter och göra användningsfall mer transparent. En grafik på sidan visar hur en enkel pipeline med artificiell intelligensfunktion från träningsdata skulle förstärkas av något som kallas en förklarbar modell och ett förklarbart gränssnitt som hjälper användaren att svara på frågor. Gunning antyder vidare att ett förklarbart AI-program kommer att ha två huvudsakliga fokusområden - ett skulle siktas genom multimediedata för att hitta vad som är användbart för användare, och ett andra fokus skulle simulera beslutsprocesser för beslutsstöd.
DARPA hoppas kunna tillhandahålla en ”verktygssats” som kan hjälpa till att utveckla framtida förklarbara AI-system.
