Rapport från AddAI 2018 del 3 – AI och människan tillsammans

Eftermiddagspasset på Internetdagarna 2018 om Artificiell intelligens: det nya gränslandet, som anordnades av AddAI i måndags, inleddes med en diskussion kring hur vi människor ska leva tillsammans med de allt intelligentare maskinerna. När AI tar över allt fler uppgifter från oss människor finns en uppenbar risk att vi känner oss hotade. Det ger också upphov till en mängd etiska frågeställningar såsom rättvisa, transparens, värderingar, fördomar och säkerhet.

Anna Felländer, medlem i regeringens digitaliseringsråd, listade följande fyra negativa etiska fallgropar som rådet identifierat för att med dessa som grund kunna skapa ett ramverk för AI-utveckling:

1. Missbruk av AI och data

2. AI är inte neutralt – det är upp till utvecklaren att, medvetet eller omedvetet, bygga in värderingar

3. Otränad data – exempelvis när AI-lösningen ger fel utslag därför att den inte har tränats på minoriteter

4. Bias i data – när datan inte beskriver verkligheten, eller den önskade verkligheten, utan förstärker oönskade fördomar och normer

Anna Felländer menade att AI idag mycket är ”ett experiment där man inte bryr sig om att titta på resultatet” och att rådet genom att identifiera dessa fallgropar vill lyfta de mer etiska aspekterna kring AI-utvecklingen. Hon gav som exempel en Starbucks-kampanj, där AI använts för personalisering av erbjudanden, vilket lett till att vissa kunder kom upp i ett dagligt kaloriintag överstigande 6 000 kalorier. Från AI-perspektiv sett var det självfallet lyckat att optimera försäljningen på det sättet, men inte från ett etiskt samhällsperspektiv. Denna aspekt var inte något som utvecklarna beaktat, utan en oavsiktlig konsekvens som upptäcktes först vid den faktiska användningen.

Stefan Larsson, jurist och docent på Lunds universitet, såg transparensfrågan som den största utmaningen framöver. Dagens försök med transparens genom att be kunder godkänna allmänna villkor och liknande kommer inte vara tillräckliga när AI-användningen av vår data ökar. Det behövs en annan sorts transparens som bygger på tillit och som mycket tydligare förklarar för personer hur deras data används, vilka processer det leder till, vad som blir konsekvensen osv, än genom svårtillgängliga användarvillkor.

Mikael Anneroth, Expert Human & Society perspective of ICT på Ericsson Research, tryckte också på tilliten som den största utmaningen. Dels i att försöka hindra avsiktligt missbruk av data, men kanske framför allt att adressera de oavsiktliga konsekvenserna av bias data, fördomar eller beteendepåverkan, så som i det nämnda exemplet från Starbucks-kampanjen.

Fredrik Heintz, docent och lektor vid Institutionen för Datavetenskap vid Linköpings universitet, såg som den största utmaningen i sig att vi måste agera idag och inte kan vänta in forskningen. Dvs att vi måste kombinera successivt lärande om vad vi borde göra och inte göra med AI samtidigt som vi implementerar och utvecklar lösningarna och fullt ut ser vad de får för konsekvenser.

Den samlade panelen, där utöver talarna ovan även Li Felländer-Tsai, professor i ortopedi och överläkare, ingick, fick avslutningsvis ge åhörarna ett medskick, genom att i en mening formulera det allra viktigaste för AI-utvecklingen framöver, vilket resulterade i dessa kloka tankar:

”Tänk efter före!”

”Tekniken har i sig inget självändamål.”

”Det finns värderingar även i tekniken.”

”Köp inte ’black-box / plug-and-play’ AI-applikationer utan att förstå vad dessa gör.”

”Våga! Försöka göra något. Undvik de värsta fallgroparna, men vi måste röra oss framåt.”

Läs alla rapporterna från Industridagarna här:

Share