I början av maj släpptes ett pressmeddelande från Harrisburg University som hävdade att två professorer och en doktorand hade utvecklat en ansiktsigenkänningsalgoritm som kan förutsäga om någon skulle vara en brottsling. Pressmeddelandet sade att forskningsrapporten skulle publiceras av Springer Nature, en stor akademisk bokförläggare.
Med ”80 procents säkerhet och utan rasfördomar” hävdade rapporten, A Deep Neural Network Model to Predict Criminality Using Image Processing, att algoritmen kan förutsäga ”om någon är en brottsling enbart baserat på en bild av deras ansikte”. Pressmeddelandet har sedan dess tagits bort från universitetets hemsida.
Över 1 000 AI-forskare, sociologer, historiker och etiker har skrivit under ett offentligt brev som fördömer rapporten, och Springer Nature bekräftade på Twitter att de inte kommer att publicera forskningsresultaten.
Men undertecknarna säger att problemet inte slutar där. De kallar sig för ”koalitionen för kritisk teknik” (CCT), och sade att rapportens påståenden ”bygger på osunda vetenskapliga förutsättningar, forskning och metoder som … har blivit motbevisade under årens lopp”. Brevet hävdar att det är omöjligt att förutsäga kriminalitet utan rasistiska fördomar, ”eftersom kategorin ’brottslighet’ i sig är rasistisk”.
Framsteg inom datavetenskap och maskininlärning har lett till många algoritmer under de senaste åren som utger sig för att kunna förutsäga brott eller kriminalitet. Men om de data som används för att bygga dessa algoritmer är partiska, kommer algoritmernas förutsägelser också att vara partiska. På grund av den rasistiskt snedvridna karaktären av polisarbetet i USA, hävdar brevet, kommer en prediktiv algoritm som modellerar brottslighet bara att återge fördomar som redan återspeglas i det straffrättsliga systemet.
Att använda sig av dessa fördomar till ansiktsanalys påminner om ”rasbiologin” från förr som använde olika tekniker för att identifiera skillnader mellan raserna, i mätningar som huvudstorlek eller näsbredd-som bevis på individernas medfödda intellekt, dygd, eller kriminalitet.
Rasforskning är avskaffad för länge sedan, men vetenskapsrapporter som använder AI och neurala nätverk för att ”förutsäga” medfödda attribut eller erbjuda diagnoser har börjat publiceras.
Redan 2016 hävdade forskare från Shanghai Jiao Tong University att deras algoritm kunde förutsäga brottslighet med hjälp av ansiktsanalys. Ingenjörer från Stanford och Google tillbakavisade rapportens påståenden, och kallade metoden en ny ”fysionomik”, en motbevisad rasvetenskap populär bland eugenister, som härleder personliga attribut från formen på någons huvud.
2017 hävdade ett par Stanford-forskare att deras artificiella intelligens kunde avslöja om någon är homo- eller heterosexuell baserat på deras ansikte. HBTQ-organisationer protesterade mot studien och underströk hur farlig idén om automatiserad sexuell identifiering kan vara i länder som kriminaliserar homosexualitet. Förra året hävdade forskare vid Keele University i England att deras algoritm, med inlärning från YouTube-videor av barn, kan förutsäga autism. Tidigare i år har en rapport i Journal of Big Data inte bara försökt att ”dra slutsatser om personlighetsdrag från ansiktsbilder” utan också citerat Cesare Lombroso, en 1800-talsforskare som hävdade uppfattningen att kriminalitet var ärftlig.
Var och en av dessa rapporter utlöste en motreaktion, trots att ingen ledde till nya produkter eller medicinska metoder. Författarna till Harrisburgsrapporten hävdade dock att deras algoritm var speciellt framtagen för brottsbekämpning.
”Brott är en av de mest dominerande frågorna i det moderna samhället” säger Jonathan W. Korn, doktorand vid Harrisburg och tidigare New York-polis, i ett citat från det borttagna pressmeddelandet. ”Utvecklingen av maskiner som kan utföra kognitiva uppgifter, såsom att identifiera kriminalitet hos [en] person från deras ansiktsbild, kommer att möjliggöra en betydande fördel för brottsbekämpande organ och andra underrättelsetjänster för att förhindra att brott inträffar i deras tilldelade områden.”
Medborgarrättsgrupper har länge varnat för brottsbekämpande användning av ansiktsigenkänning. Programvaran är mindre exakt på människor med mörkare hud än de med ljusare hy, enligt en rapport från AI-forskarna Timnit Gebru och Joy Buolamwini, som båda undertecknat CCT:s brev.
Under 2018 noterade American Civil Liberties Union (ACLU) att Amazons ansiktsigenkänningsprodukt, Rekognition, felidentifierade kongressledamöter som brottslingar, vilket oftare hände för svarta ledamöter än för vita. Amazon tillkännagav nyligen ett ettårigt moratorium för att tillhandahålla produkten till polisen.
Harrisburgrapporten har till vad det verkar aldrig varit offentligt publicerad, men att publicera kontroversiell forskning kan vara farligt. Förra året fann den Berlin-baserade säkerhetsforskaren Adam Harvey att ansiktsigenkänningsdata från amerikanska universitet användes av övervakningsföretag med anknytning till den kinesiska regeringen. Eftersom AI-forskning som skapats för ett ändamål kan användas för ett annat, kräver forskning intensiv etisk granskning även om de inte direkt leder till nya produkter eller metoder.
”Liksom datorer eller förbränningsmotorer är AI en generell teknik som kan användas för att automatisera många uppgifter, inklusive sådana som inte bör utföras överhuvud taget”, står det i brevet.