Hej,
Det händer mycket i världen just nu och det är svårt att sortera allt som dyker upp i ens flöden. Jag blev tidigt i veckan intervjuad till en artikel som Dagens Nyheter publicerade om hur de stora plattformarna allt tydligare misslyckas att skydda sina användare från traumatiserande innehåll. Det är förstås ingen nyhet för många, men det verkar helt klart vara så att fler reagerar negativt på att ens flöden fylls med väldigt grafiskt content från krig och elände. Jag skrev några fler tecken om detta på min LinkedIn under den inte så välavvägda rubriken ”Plattformarna har tappat det” där jag också länkar till lite längre läsning på temat: https://www.linkedin.com/feed/update/urn:li:activity:7121250399323328513/
Vi har också fått spendera de senaste veckorna med att hantera våra yngre barn som blir matade med terror och död via sina flöden på Tiktok. Har du barn så gör du dem en väldigt stor tjänst att prata med dem om hur världen ser ut, och kanske också om vikten att välja bort innehåll som får en att bli ledsen (när det går) eller helt sluta använda de allmänna flödena som finns i de stora apparna eftersom det är där bedrövelsen ofta dyker upp. Men det är också viktigt för oss vuxna att förstå att sekundär-trauma är på riktigt. Jag stötte på en väldigt läsvärd text om hur open source intelligence, alltså efterforskningsarbete via öppna källor, kan påverka dem som försöker debunka eller källgranska påståenden på internet. I tider av källkritik så är det enkelt att vilja ta reda på så mycket som möjligt om det man stöter på, och det är många (mig inräknad) som ofta sitter och jämför känsloladdat innehåll från öppna källor för att bättre förstå samtiden. Samtidigt riskerar man då att själv traumatiseras, ofta på sätt som kommer långsamt smygande. Den här artikeln pekar på några varningssignaler och ger också tips på hur man kan hantera dramatiskt innehåll på säkrare vis, läs den gärna: https://www.dutchosintguy.com/post/vicarious-trauma-osint-a-practical-guide
En helt annan fråga – som dock är ständigt återkommande – är hur vanliga hälsoappar hanterar den personliga, och ofta också känsliga, data som vi frivilligt lämnar ifrån oss för att få bättre analys av vårt välmående, tips på hur många steg vi ska ta eller hur ens menscykel bäst ska förstås. Min kompis Lucy Purdon som tidigare arbetat på den brittiska organisationen Privacy International har som del av ett fellowship finansierat av Mozilla Foundation under en tid forskat i just mens-appar och deras respekt för användarintegritet. Hennes rapport är spännande, och visar bland annat hur över 70% av de appar hon undersökt använder sig av användargenererad information för mer målgruppsanpassad reklam – något som tyder på att de släpper ifrån sig data om användarna på ett sätt som ofta inte alls är transparent. I tider när exempelvis amerikansk aborträtt inskränks till den milda grad att oro uppstått hur data från sociala medieplattformar kan leda till att kvinnor inte vågar söka sig till abortkliniker är det här en fråga som verkligen bör tas på allvar. Läs Lucys rapport här: https://foundation.mozilla.org/en/blog/fellow-research-reform-exploitative-digital-advertising-to-safeguard-womens-health-and-digital-rights-from-deteriorating/