År 2018 utsåg EU-kommissionen en grupp med 52 oberoende experter från olika länder som fick i uppgift se till att de etiska riktlinjerna för utveckling och användning av AI skulle kunna tillämpas i praktiken. Riktlinjerna mynnade ut i ett lagförslag som nu ligger till grund för hur EU på bästa sätt ska reglera artificiell intelligens och samtidigt främja innovation, etiska standarder och förtroende för tekniken.
GDPR, ett hinder för utveckling?
För att lära upp maskiner och AI så att de kan hjälpa och stötta oss i vår vardag krävs det att vi delar information om oss. Daniel Nilsson är utvecklingsansvarig på Hogia och följer noga expertgruppens arbete med riktlinjerna. Daniel berättar att GDPR reglerar mycket av vilken information vi får spara om våra användare och det kan ibland vara svårt att tillämpa maskininlärning och AI när man inte får samla in information som är tillräcklig för att kunna utveckla systemen.
– Jag tycker att GDPR är jättebra, då har du själv möjlighet att bestämma om du vill vara med eller inte. Om du till exempel väljer att gå ur Facebook, då ska de, enligt GDPR, radera all data de har om dig inom 90 dagar. Därmed kan du inte mätas utefter vad du tycker eller vad du gör för inlägg, säger Daniel. Däremot så måste du ha tillgång till och äga data om dina användare om du ska utveckla en AI-funktion i ett system, då kan GDPR istället vara ett hinder som man då måste hitta vägar för att komma runt.
Daniel Nilsson, utvecklingsansvarig på Hogia.
Det kan bli dyrt för företag som inte varit tydliga med att få sina användare/kunder att godkänna att deras personuppgifter sparas och tillämpas på olika sätt. Daniel berättar att en av EU:s riktlinjer handlar precis om detta.
– Medborgarna ska ha full kontroll över sina egna data står det i en av de sju riktlinjerna från EU. Som företag är det jätteviktigt att kontrollera hur man utformar sina avtal, att man är tydlig med vilken information man sparar och att man talar om hur och vad den ska användas till. Men man bör också tänka lite utanför lådan. Om man hämtar data från en extern partner till exempel, får man använda den då? Mitt råd är att man är väldigt kritisk och alltid transparent med vad man vill göra och vad man gör med data.
Måste finnas ett bra syfte med AI
I USA och andra länder har man inte våra regler om personuppgifter och där kan företag som till exempel Facebook spara och utnyttja sin användarinformation på olika sätt. Ett exempel är den proaktiva algoritmen hos Facebook som detekterar tidiga tecken på självmordsbenägna i användares inlägg.
Daniel anser att om man ska dela sin information med en AI-funktion så måste det finnas ett bra syfte med det. Om man till exempel utvecklar ett ekonomi- eller bokföringssystem så behöver man inte samla in personuppgifter, utan där handlar det om data om hur användarna tillämpar systemet så att AI kan lära sig hur användaren vill göra och sedan göra detta automatiskt för användaren.
– Man får inte glömma att en AI inte är lika smart som vi människor så därför måste människan ändå i slutändan vara de som tar de avgörande besluten, det kan vi inte lämna över till en AI, säger Daniel.
När en utvecklare skriver algoritmer och koder för en AI så gäller det att ta med så mycket information som möjligt och det är inte sällan som man missar något och alla de situationer som kan uppstå.
– För att lära en maskin att bara klassificera information så måste du ge den massvis med exempel, både på vad du försöker identifiera och på det du inte vill identifiera. Då lär sig maskinen mönstren för båda delar och skillnaden mellan dem. Men eftersom maskinen lär sig det som vi människor vill att den ska lära sig så färgas den också av våra värderingar, fördomar och känslor, menar Daniel.