Suvremene politike u području umjetne inteligencije i kibernetičke sigurnosti često se predstavljaju kao neutralne i inovativne. No, kako pojašnjava Anna Mysyshyn, suosnivačica i direktorica Institute of Innovative Governance te ekspertica za digitalnu sigurnost, pravo i umjetnu inteligenciju ta neutralnost je iluzija. Ako sustavi ne uzimaju u obzir potrebe žena i marginaliziranih skupina, rizik je da postanu alati diskriminacije, a ne zaštite.
Ovaj članak temelji se na razgovoru s Annom tijekom konferencije She Is Tech Vol. 3, posvećene tehnologijama, inovacijama i inkluzivnosti. S razvojem umjetne inteligencije, svijet je dobio moćne alate za generiranje slika i videa, analizu velikih podataka i automatizaciju procesa. Istovremeno, ti se alati sve češće koriste protiv žena.
- Stvaranje deepfakea, videa ili audio zapisa koji manipulira izgledom ili glasom osobe, postalo je izuzetno jednostavno. Ti se alati koriste za online uznemiravanje, bullying i širenje lažnog pornografskog sadržaja. Čak i kada se sadržaj prepozna kao lažan, posljedice po reputaciju, mentalno zdravlje i osobnu sigurnost ostaju ozbiljne, ističe Anna.
- Problem pristranosti u AI sustavima počinje od podataka na kojima se sustavi uče. Ako su žene u prošlosti bile nedovoljno zastupljene ili diskriminirane, algoritam ‘uči’ ponavljati te obrasce, objašnjava Anna.
Sustavi prepoznavanja lica češće pogrešno identificiraju žene s tamnijim tonom kože. Američki sustav COMPAS za procjenu rizika od recidiva dvostruko češće označava crne okrivljenike kao „visokorizične“ u odnosu na bijele, čak i kada podaci to ne podržavaju. Tijekom razgovora, Anna je spomenula i šokantan slučaj iz Španjolske 2023. godine: AI alati korišteni su za stvaranje lažnih intimnih slika stotina djevojčica, od kojih su neke imale samo 10–12 godina, koje su potom dijeljene na društvenim mrežama.
Kada algoritmi odlučuju tko dobiva posao
- U mnogim HR sustavima algoritmi za predselekciju životopisa filtriraju kandidatkinje za rukovodeće pozicije, jer su većina lidera u prošlosti bili muškarci, objašnjava Anna.
Problem se širi i na zdravstvenu skrb: ako su medicinski modeli umjetne inteligencije uglavnom trenirani na muškim podacima, mogu pogrešno prepoznati simptome kod žena, ugrožavajući zdravlje i život.
Imamo i jedan lokalni primjer, prema podacima HRT-a i Međunarodne organizacije rada, automatizacija najviše utječe na profesije koje tradicionalno obavljaju žene, administrativne i uredske poslove. Potencijalna transformacija u tim profesijama procjenjuje se na 9,6%, dok je u tradicionalno „muškim“ zanimanjima samo 3,5 posto.
Anna Mysyshyn naglašava da kibernetička sigurnost žena nije privatna stvar, već pitanje javne politike. Preporučuje razvijati rodno osjetljive protokole kibernetičke sigurnosti i educirati državne službenike kako reagirati na digitalno nasilje; kompanije trebaju preuzeti odgovornost za posljedice svojih AI proizvoda i digitalnih platformi, uključujući označavanje sadržaja nastalog umjetnom inteligencijom watermarkom odnosno vodenim žigom; stvarati testna okruženja za AI proizvode, provjeravati podatke na reprezentativnost i dodavati sintetičke podatke za nedovoljno zastupljene skupine.
- Skandinavske zemlje uzimaju u obzir različite društvene skupine prilikom razvoja bilo koje aplikacije: osobe s invaliditetom, žene, djevojčice i druge marginalizirane skupine. No, samo kopiranje njihovih praksi nije dovoljno — treba procijeniti kako će one utjecati na naše društvo, dodaje Anna.
- Razgovori o online sigurnosti žena ne bi se trebali svoditi isključivo na ‘ženska pitanja’. Sustavne promjene zahtijevaju uključivanje muškaraca, lidera u IT-u, poslovanju i politici. Promjene se neće dogoditi ako oni ne prepoznaju svoju odgovornost. Moramo raditi zajedno kako bi digitalni prostor bio siguran za sve, zaključuje Anna.