Simovits

AI för att upptäcka brott innan de utförs

Denna veckas blogg knyter an till förra veckans blogg avseende användning av kameror för säkerhetsrelaterade syften. Denna gång handlar det om ett exempel på hur data från övervakningskameror (CCTV) möjligtvis kan analyseras för att förebygga brott. Övervakning av butiker i sig med CCTV är knappast något nytt, men i ett nyligen uppmärksammat fall [1] har övervakningen kopplats till dataanalys på ett uppseendeväckande och aning udda vis: En framtagen mjukvara fungerar som ett verktyg för brottsbekämpning: en insamlad mängd övervakningsdata analyseras i realtid för ändamålet att på ett automatiserat vis upptäcka ett potentiellt brott innan det begås, t.ex. snatteri. Butikspersonal samt vakter kan således informeras om vad som är på väg att hända och kan agera för att förhindra brottet. Uppsidan är att personalkostnader kan sänkas och färre stölder begås. Frågor man kan ställa sig är: hur fungerar detta, kan man lita på resultatet, vilka risker finns kopplade till analysen?

Uteblivna intäkter inom detaljhandel globalt pga snatteri har uppskattats till 34 miljarder dollar 2017 [2]. I relation till omsättning (ca 2%) är detta inte anmärkningsvärda siffror. Dock kan det spela en mycket stor roll i en bransch känd för små marginaler. Detta i kombination med att många butiker globalt redan har säkerhetsövervakningen på plats i butiker gör att det finns en rejäl marknadspotential för produkter som kan tolka datat från övervakningen.

Produkter som kan detektera och analysera mänskligt beteende är ett växande område. Japan baserade Start-up (2017) företaget Vaak:s produkt analyserar t.ex. kroppsspråk hos individer i CCTV-data. Produkten har använts för att spåra individ som snattat ifrån en närbutik i Yokohama. De har påbörjat försäljning i mars med en målsättning att finnas i 100 000 butiker i Japan inom 3 år. Andra områden Vaak ser möjligheter är analys av videoövervakning av publika ytor som t.ex. tågplattformar.

Deras algoritm uppges ha tränats på 100 000 h CCTV data och tar hänsyn till 100 faktorer där ansiktsuttryck, kroppsspråk, rörelsemönster, kläder ingår men även data som brottsstatistik, väder samt tidpunkt på året (snatteri ökar under semestertider). Utifrån t. ex rastlöst skruvande på sig samt annat suspekt beteende, ska det kunna avgöras om beteendet tillhör normen eller är kriminellt, dvs om någon stoppar på sig en produkt utan att betala. Tanken är dock inte att primärt stödja brottsbekämpande myndighet utan istället butiksägaren eftersom produkten ska förutse handlingen innan det händer, och flagga för detta i en app på telefonen. Om individen i det läget då erbjuds hjälp i butiken ökar chanserna till att brottet aldrig begås.

Det finns anledningar att ta förmågan hos, och möjligheterna för, produkter inom detta segment med en nypa salt. Det finns låg transparens för exakt vilka faktorer som vägs in samt hur dessa viktas emot varandra i mjukvaran. Eftersom studier från MIT [3] har visat avsevärd vinkling avseende kön och etniskt ursprung för resultat från produkter som känner igen ansikten och analyserar ansiktsuttryck [4] bör man säkerställa att detta inte även gäller denna produkt. Dessutom kan det antas generellt att algoritmers träffsäkerhet och tillförlitlighet är beroende av mängden data och typ av data som de tränats på, och att det än så länge oftast behöver göras mänskliga bedömningar utöver automation som kan särskilja mellan korrelationer och kausalitet [5]. Om inte artificiell intelligens kan ersätta mänskliga beslut är det rimligt att förvänta sig att det hjälper människan att ta bättre beslut, inte sämre.

[1] https://www.google.se/amp/s/www.dailymail.co.uk/sciencetech/article-6774313/amp/Japanese-startup-unveils-Minority-Report-style-AI-spot-shoplifters-steal.html

[2] https://www.bloomberg.com/news/articles/2019-03-04/the-ai-cameras-that-can-spot-shoplifters-even-before-they-steal

[3] http://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212

[4] https://www.foxnews.com/tech/ocasio-cortez-slams-amazon-for-bias-in-its-facial-detection-technology

[5] https://www.google.se/amp/s/www.technologyreview.com/s/612775/algorithms-criminal-justice-ai/amp/