Autonomni automobili ne mogu prepoznati pješake tamnije boje kože

Izvor: interestingengineering.com

Novo izvješće pokazuje da sustavi dizajnirani za pomoć autonomnim automobilima u prepoznavanju pješaka mogu imati problema s prepoznavanjem osoba tamnije boje kože.

Već su postojali dokazi da se softver za prepoznavanje lica borio s prepoznavanjem tamnije boje kože, ali rezultati istraživanja autonomnih automobila imaju potencijalno smrtonosan ishod.

Svijet najbolje pokazuje predrasude

Istraživači iz Georgia Tech-a istražili su osam modela umjetne inteligencije koji se koriste u najsuvremenijim sustavima detekcije objekata kako bi dovršili svoje istraživanje. Ovi sustavi omogućuju autonomnim vozilima da prepoznaju prometne znakove, pješake i druge objekte dok putuju cestama. Testirali su te sustave koristeći dvije različite kategorije na temelju Fitzpatrickove skale (skala koja se obično koristi za klasifikaciju boje ljudske kože).

Ljudi tamnije boje kože izloženiji većem riziku

Ukupna točnost sustava smanjila se za 5% kada je prikazana skupina slika pješaka s tamnijom bojom kože. Prema objavljenom članku, modeli su pokazivali “ravnomjernije slabije performanse” kada su se suočili s pješacima s tri najtamnije nijanse na skali.

Ovi rezultati dolaze nakon što je ishod prilagođen kako bi se uzelo u obzir je li fotografija snimljena tijekom dana ili noći. Ukratko, izvješće sugerira da će ljudi tamnije boje kože biti manje sigurni u blizini cesta kojima dominiraju autonomna vozila od onih svjetlije boje kože.

Ukidanje pristranosti počinje raznolikošću u istraživanju

Izvješće daje kratak pregled kako riješiti ovu neshvatljivu stvarnost. Započinje jednostavnim povećanjem broja slika tamnoputih pješaka u skupovima podataka koji se koriste za obuku sustava. Inženjeri odgovorni za razvoj ovih sustava trebaju staviti veći naglasak na obuku sustava s većom točnošću za ovu skupinu ljudi.

Izvješće, za koje se autori nadaju da daje dovoljno uvjerljivih dokaza, treba se pozabaviti ovim kritičnim problemom prije uvođenja sustava prepoznavanja u svijet. To je još jedan podsjetnik na opći nedostatak raznolikosti u svijetu umjetne inteligencije.

Osobe tamnije boje kože izloženije su riziku da ih udari autonomno vozilo.

Nažalost, ovo nije prvo izvješće o potencijalno smrtonosnom rasizmu u sustavima koji pokreću umjetnu inteligenciju. ProPublica je u svibnju prošle godine izvijestila da softver koji se koristi za pomoć sucima u određivanju zločina izbacuje statistiku da su češći počinitelji crnci.

Rasno profiliranje je smrtonosno

Sustav koji koriste suci u kaznenim presudama daje ocjenu na temelju vjrojatnosti ponovnog počinjenja kaznenog djela. Visoki rezultat sugerira da će se ponovno počiniti kazneno djelo, a niska ocjena sugerira da je manja vrijednost počinjenja istog.

Istraživački novinari procijenili su ocjenu rizika dodijeljenu za više od 7000 ljudi u okrugu Boward na Floridi 2013. i 2014. godine, a zatim su promatrali jesu li isti ljudi optuženi za nove zločine u sljedeće dvije godine. 20% ljudi za koje je predviđeno da će počiniti zločin zaista je to i učinilo.

Algoritam ne samo da se pokazao nepouzdanim nego je bio i rasno pristran. Crni optuženici su najčešće bili označeni kao kriminalci te su bili pogrešno optuživani, gotovo dvostruko više od bijelih optuženika, dok su bijeli optuženici bili pogrešno označeni kao manje rizična skupina, češće od crnih optuženika.

Zajednica za razvoj umjetne inteligencije mora se okupiti i zauzeti javno stajalište protiv ove vrste masovnog oštetećenja.


Izvor: interestingengineering.com

Close