Helt automatiskt, ultraeffektivt REVA

Polisens satsning på övervakningskameror med ansikts- och beteendeigenkänning, har inte fått mycket kritik alls. Det enda kritiska jag kan hitta om den, förutom min egen bloggpost, är Henrik ”HAX” Alexanderssons krönika.

Beror detta bara på att massmedia varit ytterst sparsamma med rapporteringen av det, eller tycker man inte att det är ett problem?

Jag tror att man helt enkelt inte inser kraften i ett sådant system. Därför ska jag jämföra det med någonting som fått mycket kritik, men i effektivitet och kraftfullhet är mindre likt kamerasystemet än en ångbil är lik en Tesla Roadster: REVA.

REVA var ett program som Polisen, Kriminalvården och Migrationsverket hade mellan 2009 och 2014 som gick ut på att avvisa papperslösa genom ett ”Rättssäkert och Effektivt VerkställighetsArbete”. Polisen stod bland annat i tunnelbanan i Stockholm och kontrollerade ID-handlingar. Projektet fick enorma mängder kritik, och det är inte långsökt att dra slutsatsen att det var därför det lades ner.

Sådant som kritiserades var att individer uppfattade det som kränkande, att det handlade om diskriminering eftersom främst människor med utländskt utseende kontrollerades, m.m., men egentligen handlade det nog mest om skillnaden mellan ”lawful” och ”good”, som Rick Falkvinge på ett tydligt sätt har beskrivit i andra sammanhang. Man höll helt enkelt inte med om att det lagen föreskrev var rätt – att söka reda på, och kasta ut dessa människor ur landet.

REVA innehöll mycket manuell hantering, poliserna var helt enkelt tvungna att begära att få se ID-kort. Om någon inte hade något, antar jag att man frågade om namnet och med hjälp av sambandscentralen försökte identifiera personen.

Med kamerasystemet kommer datorer att kunna göra hela hanteringen. En polis ställer sig i närheten av en övervakningskamera, under en omkringflygande drönare, eller patrullerar med en uniformkamera på sig. Videoströmmen skickas till Polisens central, datorn analyserar den och jämför alla ansikten  mot körkortsregistret. Om ingen träff hittas, kollas sociala media. Hur personen ser ut kan användas för att snabba upp sökningen – sådana som ser unga ut finns sannolikt inte i körkortsregistret, mörkhyade som inte hittas i svenska register är troligast att hitta i data från Afrika, personer i närheten av vissa religiösa byggnader är mer sannolika att tillhöra vissa grupper på Facebook, etc. Denna effektivisering är någonting som självlärande algoritmer gör, och ingen människa vet om hur det går till. Det är knappast möjligt att lära en algoritm vad ”diskriminering” betyder, och den enda stora skillnaden skulle vara beräkningshastigheten. Hursomhelst, algoritmen identifierar i realtid människor som går förbi, och kontrollerar om de har rätt att vistas i Sverige; om de har det, eller systemet överhuvudtaget inte kan hitta dem (osannolikt), händer ingenting (förutom att de registreras i ett ”bra att veta”-register, att de varit på platsen vid tidpunkten), om de inte har den rätten får polisen ett meddelande med en bild – ”Grip denna person”. Effektiviteten ökar från att kontrollera någon person per minut och polis, till tiotals (kanske hundratals i kameratäta områden) personer per sekund och polis.

Scenariot är förstås hypotetiskt, men vi vet ju att ändamålsglidning sker, och går mycket fortare än man först tror, så att det inte skulle användas på detta sätt senast år 2025 är ungefär lika sannolikt som att vinna högsta vinsten på lotto.

Detta är ett av de många sätt som övervakningskameror med databehandling kommer att användas.

Annonser

Taggar:, , , , , , , , , , , ,

Kommentera gärna här

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut / Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut / Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut / Ändra )

Google+ photo

Du kommenterar med ditt Google+-konto. Logga ut / Ändra )

Ansluter till %s

%d bloggare gillar detta: