Ny organisk ”essäsamling” om Googles algoritmer

Den kanske lite oväntade inledaren Ivar Arpi skrev i Svenska Dagbladet den 18/8 2020 om hur ”Google manipulerar dina sökresultat”. Som exempel lyfte han frågan om att sökningar på vita heterosexuella män genererar andra saker än användaren (han) skulle önska.

Bildgooglar du ”gay couple” kommer du få rader av lyckliga homosexuella par. Gissa vad som händer om du söker på ”straight couple”? På varje rad kommer homosexuella par att vara med. ”Black family” ger vad man söker, ”white family” ger något annat, för att uttrycka det milt. Söker man på ”straight white couple” blir det ännu konstigare. Det andra fotot är en inzoomning av knogar som det står ”HATE” på. Den tredje bilden visar ett svart par. Som Murray skriver: ”Frågar man efter detta i plural (”straight white couples”) dyker det upp så bisarra bilder att det är tydligt att något är i görningen”.

Historien skrivs om utifrån våra mycket samtida känsligheter.

Arpi är intressant skribent, men framförallt väldigt erfaren (och framgångsrik) hundvisslare, så kommentarerna lät inte vänta på sig. Sammantaget blev det en spontan och organisk ”essäsamling” om hur Google egentligen fungerar – med Arpi som inledande konversationsstartare.

Johannes Klenell vid Arbetet inledde starkt med att försöka lugna (?) samtalet. ”Ivar Arpi kan vara lugn”! utbrast Klenell och förklarade lustfyllt hur Arpis tes om att Google förvränger verkligheten inte är så allvarlig som det framställts – eftersom man fortsatt kan finna normstärkande sökresultat om man bara googlar rätt.

Hade Arpi efter det orkat göra bildsökningen ”couple” så hade han kunnat pusta ut. Där finns nämligen de rader på rader med lyckliga heterosexuella par han söker.

Det handlar såklart om hur normer i ett samhälle ser ut. Det heterosexuella paret är en sådan norm i vårt samhälle att det inte behöver definieras av sin sexuella läggning. Det bara är.

I Arbetaren antar Annie Hellqvist en folkbildande roll och förklarar hur Google egentligen fungerar. Hon menar att Arpis tes är ett olycksfall i arbetet och försöker ge tips på vägen för att det inte ska upprepas.

För att förklara från kortfattat: Google bilds sökresultat bygger till stor del på ord, inte på vad som faktiskt syns i bilden. Lägger jag upp en bild på en häst och skriver om sälar i tillhörande text kan denna häst komma att dyka upp vid bildsökningar på sälar. Det betyder inte att Google förvrider verkligheten. Det betyder bara att den som googlar behöver vara lite källkritisk. 

Samma approach ser man i Syre där Johanna Buchholtz uppmanar Arpi att gå en googlingskurs.

Att en sökning på Google baseras på komplexa algoritmer och har inbyggda fördomar i sitt system är något som ska fortsätta undersökas och kritiseras. Men att ”white men”, eller ”white straight couple” som Arpi också sökte på, inte resulterar i bilder på enbart vita män och vita olikkönade par behöver inte vara resultatet av en politiskt korrekt manipulation som Arpi tvärsäkert hävdar. Mycket har de ett finger med i spelet på, men den närmaste slutsatsen som kan dras är att det blir så här för att Google inte är en kontrollerad bilddatabas. De flesta som lägger upp material är inte sökmotorsoptimerare, de taggar inte sina bilder särskilt noggrant. Återigen blir det texten som omger bilden som ligger till grund för sökresultatet som presenteras för dig. 

I Aftonbladet bereds Mattias Beijmo rum för att techsplaina Arpi, vilket faktiskt är en läsvärd kavalkad av utmaningar som vi alla borde lära oss mer om. Kombinerat med de tekniska detaljerna som redan nämnts – hur manipuleras egentligen de algoritmer vi utsätts för?

I call center-liknande lokaler i Kina är väggarna fyllda med smartphones. Underbetald arbetskraft står med utslitna pekfingrar framför väggen av små skärmar som spottar fram tusentals automatiserade Googlesökningar. De klickar sedan om och om igen på den sökträff kunden beställt trafik till.

Själv ger jag i ETC faktiskt Ivar Arpi rätt – det finns inte objektiva algoritmer. Jag drog mig lite för att skriva texten när jag fick frågan, eftersom jag uppfattar det inledande inlägget som en trollning snarare än ett kvalitativt inlägg i debatten – men det är samtidigt viktigt att diskussionen om algoritmer och bias på nätet inte blir alltför skev.

Istället bör vi diskutera vad det innebär att man inte lyckats lära algoritmer för ansiktsigenkänning att särskilja nyanser imörkare hudtoner, vilket i takt med utrullning av automatise-rade metoder för policing riskerar att försätta alla som digitalt definierats som icke-vita för misstanke och eventuell fara.

Med rapporten ”Slumpvis utvald”, framtagen av Civil Rights Defenders i samarbete med forskare vid Stockholms universitet, i färskt minne kan vi konstatera att det existerande problemet med etnisk- och rasprofilering inomsvensk poliskår måste hanteras innan tekniska lösningar för rättsliga åtgärder vidare implementeras. Om redan väl­dokumenterade orättvisor inom behandling av rättsvårdan­de myndigheter förstärks av fördomsfulla algoritmer, som i sin tur betraktas som objektiva, har vi att se fram emot en ökade klyfta vad gäller rättstatens principer och våra ge­mensamma demokratiska värden. Ett sådant samtal är vad Polismyndigheten bör engagera sig i, innan man implemen­terar innovativa metoder för brottsbekämpning – metoder som då riskerar att slå helt fel.

Vi bör också tala om hur kommuner som Trelleborg menar att man effektiviserat sin handläggning genom att omstruk­turera delar av sitt system att betala ut ekonomiskt bistånd till att istället för erfarna socialsekreterare låta digitala robo­tar göra bedömningar på vilka livsavgörande beslut sedan fattas. Akademikerförbundet SSR har upprepade gånger de senaste åren lyfte denna fråga, se­nast tidigare i år genom en JO-­anmälan.

Koden till robotens algoritmer är inte tillgänglig för granskning, och i avsak­nad av tydlig delegationsordning så betraktar man därför algoritmen som obehörig. Samtidigt fortsätter robo­ten att gallra bland ansökningar om försörjningsstöd, utan att erbjuda insyn i vilka parametrar den prioriterar. Om programmeringerna skett utan att soci­ala aspekter verkligen tagits omhand har vi alla ett problem, likaså om implemen­teringen av roboten skett av tjänstemän utan rätt teknisk kompetens. Precis dessa frågor var EU-kommissionens särskilda utre­dare av algoritmiskt beslutsfattande oroad för när jag mötte henne tidigare i våras.

Oundvikligt är också att prata om hur vi nu befinner oss i en snabbt ökande kunskapsklyvning där en växande del av befolkningen såväl i Sverige som i andra delar av världen får majoriteten av sin kunskap om omvärlden genom snabba flöden styrda av otillgängliga algoritmer.

Den nu fortsatt eskalerande pandemin behöver ett ökad kunskapsläge baserat på fakta – inte på villfarelser. Den svenska analysfirman Earhart beskrev i ett samtal som den nationella kommittén för Det demokratiska samtalet arrangerade härom­veckan hur de granskat tusentals och åter tusentals datapunk­ter från det öppet sökbara internet beskrivandes olika former av konspiratoriska självhjälpskurer mot covid­-19. Och tyvärr också enormt många exempel på hur personer avlidit ef­ter att ha druckit blekmedel och andra kemikalier i jakten på ett botemedel. Den typen av algoritm­styrd rappakalja drabbar främst den som saknar andra möjligheter att inhämta kunskap.

Som alltid är väldigt lite av allt ovanstående helt nytt. För åtta år sedan skrev jag en text till SVT Opinion om hur ”Google [nu] äger våra liv” just utifrån perspektivet att den verklighet Google sades leverera i sina sökresultat allt mer sällan var sann och istället var vad som betraktades som relevant. Om Google därför åt Ivar Arpi levererar konfliktbetonade resultat med fokus på hudfärg och sexualitet tänker jag att där finns något att betänka.

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *