Diskussion angående Europeiska kommissionens white paper avseende AI
Denna blogg kommer att kort ta upp centrala delar av det white paper Europeiska kommissionen släppte avseende AI.
Friskrivning
Denna blogg kommer inte gå in på kommissionens definition av AI, eller hur AI har blivit ett samlingsbegrepp för flera olika typer av algoritmer som författaren inte anser är ”intelligenta”. Bloggen kommer heller ej behandla den filosofiska delen för definitionen av vad som är intelligens. Det kommer ändock nämnas att Europeiska kommissionen enkelt uttryckt definierar AI som ”en samling teknologier som kombinerar data, algoritmer och beräkningskraft” [1 Kapitel 1 tredje stycket]. I den definitionen omfattas även miniräknare, vilket inte kan betraktas som intelligenta.
Bakgrund
Europeiska kommissionen, som en del i sin digitala strategi för de nästkommande fem åren, släppte i slutet på februari ett white paper (hädanefter rapport) avseende AI. Rapporten beskriver de möjligheter som AI kan ge och presenterar Europeiska kommissionens vision för en koordinerat bemötande för implementationen av AI samt de risker som är involverat med tekniken.
Diskussion av utvalda delar från rapporten
Rapporten tar upp att de nya AI-metoderna i hög risk områden bör omfattas av strikta regulatoriska krav i syfte säkerställa att riskerna som är involverade med användningen av AI inte går obehandlade. Ett hög risk område definieras i rapporten som ett område som bemöter två kumulativa krav:
- AI-applikationen är implementerad i en sektor som, givet de aktiviteter som företas, kan utsättas för signifikanta risker med hög sannolikhet. Exempel som ges är sjukvård, transport, energi och delar av publika sektorn.
- AI-applikationen används på ett sådant sätt att signifikanta risker med stor sannolikhet kan ske. Riskbedömningen skall baseras på den påverkan AI-applikationen kan ge på alla inblandade parter. Exempel som ges är skada eller död för personer och signifikanta materiella eller immateriella skador.
I det ovanstående uppstår etiska problem, som Geoff Hinton, AI-forskare på Google, uppmärksammade i en tweet [2]. Han beskrev att om en person har cancer och tvingas välja mellan en AI som läkaren inte vet hur den fungerar men botar 90% av liknande fall eller en mänsklig kirurg som botar 80% av alla fall, ska AI-applikationen då förbjudas? Det är frågor som måste tas ställning till och relaterar till vilken träning applikationen utsätts för.
Europeiska kommissionen skriver vidare att den data som AI-system tränas på ska omfattas av i de regulatoriska kraven som nämndes. Träningsdata ska specificeras vid uppköp och användning för att säkerställa att alla som vill använda produkten vet vilken data som systemet/applikationen tränats på för att kunna verifiera legitimiteten av denna.
Utöver träningsdata ska följande områden omfattas av de regulatoriska kraven:
- Register ska föras över det träningsdata som används för att testa och träna systemen
- Tillhandahåll information till användare av AI-systemet att de använder en AI-tjänst
- Tillförlitlighet och noggrannhet av AI-systemen
- Mänsklig översikt, vilket inkluderar noggrann granskning av systemet
Slutsats
Det arbete och regulatoriska krav som omfattas av den strategi som Europeiska kommissionen har bestämt sig för är ett bra första steg för att säkerställa att AI-system utvecklas med avseende på säkerhet och robusthet. Det finns frågor som måste tas ställning till innan lagen träder i kraft som inte kommer utvecklas mer i denna blogg (men kanske i en nästa del i serien). För den intresserade läsaren finns hela rapporten på [1] och för den som har åsikter eller kommentarer på innehållet i rapporten har fram till och med 19 maj 2020 på sig att ge input till Europeiska kommissionen.
Referenser
[2] https://twitter.com/geoffreyhinton/status/1230592238490615816?s=20
[3] Bild tagen från: https://www.regens.com/en/blog/post/-/asset_publisher/iZcxL7EEG4ZI/content/ai-project-essentials-how-to-create-value-for-your-business