Här följer ett utdrag ur inledningen av boken ”AI och makten över besluten”, skriven av bokens redaktörer Maja Fjaestad och Simon Vinge.
Makten i offentlig sektor ligger hos oss själva och det är bara vi som bestämmer hur samhället ska använda tekniken. Till detta kommer att tekniken är skapad av människor och att det inte finns några naturlagar som styr hur den tar sig uttryck eller hur den ska förändra våra liv. Denna premiss är synnerligen relevant för vår offentliga förvaltning. Under varje tekniksprång har vi stått inför samma frågeställningar.
Vem som skulle äga ny infrastruktur som telefonledningarna och hur de kommersiella intressena skulle balanseras mot allmännytta i den förändrade offentlighet som uppstod med nya massmedier, för att nämna ett par av dem.Ett sätt att säkra att rätt frågor ställs i de algoritmer som används i offentlig förvaltning är att förvaltningen utformar och kodar dem själva från grunden. Helst med öppen källkod som gör tekniken mer transparent och öppen för medskapande, och mindre beroende av enskilda företags egna, skyddade lösningar och patenterade system.
(…)
Under varje tekniksprång har vi stått inför samma frågeställningar.
Teknik är en form av maktutövning som behöver underkastas demokratins principer och ansvarsutkrävande. Det innebär en skyldighet för politiker och offentlig sektor att förstå, undersöka och ifrågasätta ny teknik – men även att förstå att AI är en del av samhället, inte något som står i motsats till samhället. Det motiverar också varför det är nödvändigt att aktivt reflektera kring inom vilka frågor vi inte vill använda AI. Denna reflektion saknar vi i debatten. Makten över AI idag och vad den ska göra ligger till stor del hos de stora teknikföretagen. För att säkerställa att AI inte hotar demokratiska rättigheter behövs regleringar och riktlinjer som styr användningen av AI.
En utgångspunkt är att detta aldrig kan uppnås tillfredsställande genom självreglering hos teknikföretagen. Reglering bör inbegripa transparens, ansvarsskyldighet och skydd av användarnas integritet.
Lämna ett svar