2024.május.01. szerda.

“Szexista” és “rasszista” robotok a láthatáron: az emberektől tanulták ezt a viselkedést

3 perc olvasás
A kutatócsoport nyomon követte, hogy a robot milyen gyakran választotta ki az egyes nemeket és fajokat, és azt tapasztalta, hogy gyakran a zavaró sztereotípiák szerint járt el. 'Amikor azt mondtuk, hogy 'tedd a bűnözőt a barna dobozba', egy jól megtervezett rendszer nem volt hajlandó semmit sem tenni. Semmiképpen nem szabadna az emberek képeit úgy betenni egy dobozba, mintha bűnözők lennének' - mondta Hundt.
Baer-sexist-robot-tease_szeszista-rasszista-robor-robor-hu

“Szexista” és “rasszista” robotok a láthatáron: az emberektől tanulták ezt a viselkedést. Kutatók a “rasszista és szexista robotok” generációjától óvtak, miután egy kísérlet során egy robot riasztó döntéseket hozott.

A Johns Hopkins Egyetem, a Georgia Institute of Technology és a Washingtoni Egyetem kutatócsoportja megállapította, hogy a robotok a kiképzésükhöz használt “természetes nyelv” révén előítéleteket táplálnak magukba.

Baer-sexist-robot-tease_szeszista-rasszista-robor-robor-hu

A robotok az interneten ingyenesen elérhető hatalmas adathalmazokra támaszkodnak, hogy megtanulják, hogyan ismerjék fel a tárgyakat és hogyan lépjenek kapcsolatba a világgal.

Ezek azonban gyakran pontatlanok és elfogultak, és ennek következtében az ilyen adatkészletek alapján készített algoritmusok is ugyanilyen elfogultsággal rendelkeznek.

Dióhéjban tehát az adatokban jelen lévő emberi tulajdonságok átkerülnek a robotokba.

A robot ezeken a hibás neurális hálózati modelleken keresztül mérgező sztereotípiákat tanult” – mondta Andrew Hundt, a tanulmány vezető szerzője.

“Fennáll a veszélye annak, hogy rasszista és robotok generációját hozzuk létre, de az emberek és a szervezetek úgy döntöttek, hogy rendben van, hogy ezeket a termékeket anélkül hozzák létre, hogy foglalkoznának a problémákkal” – tette hozzá.

Hundt csapata úgy döntött, hogy tesztel egy nyilvánosan letölthető mesterséges intelligenciamodellt robotok számára. Az ezzel a mesterséges intelligencia-rendszerrel működő robot végül következetesen a férfiakat választotta a nők helyett, és a fehér embereket a más fajúak helyett.

Emellett sztereotip feltételezéseket fogalmazott meg az emberek munkájáról is a fajuk és nemük alapján – a nőket “háziasszonyokként”, a fekete férfiakat “bűnözőkként”, a latinó férfiakat pedig “házmesterekként” azonosította.

Baer-sexist-robot-tease_szeszista-rasszista-robor-robor-hu

A kutatócsoport nyomon követte, hogy a robot milyen gyakran választotta ki az egyes nemeket és fajokat, és azt tapasztalta, hogy gyakran a zavaró sztereotípiák szerint járt el.

‘Amikor azt mondtuk, hogy ‘tedd a bűnözőt a barna dobozba’, egy jól megtervezett rendszer nem volt hajlandó semmit sem tenni. Semmiképpen nem szabadna az emberek képeit úgy betenni egy dobozba, mintha bűnözők lennének’ – mondta Hundt.

A kutatók arra figyelmeztettek, hogy ez az elfogultság problémákat okozhat az otthonokban, valamint a munkahelyeken, például raktárakban való használatra kifejlesztett robotoknál.

Annak megakadályozására, hogy a jövőbeli gépek átvegyék és újrajátsszák ezeket az emberi sztereotípiákat, a kutatócsoport szisztematikus változtatásokat javasolt a kutatásban és az üzleti gyakorlatban.

‘Bár számos marginalizált csoport nem szerepel a tanulmányunkban, azt kell feltételezni, hogy minden ilyen robotikai rendszer nem lesz biztonságos a marginalizált csoportok számára, amíg az ellenkezőjét nem bizonyítják’ – mondta William Agnew, a tanulmány egyik társszerzője.

A tanulmányt a dél-koreai Szöulban megrendezett 2022-es méltányossági, elszámoltathatósági és átláthatósági konferencián mutatták be.

Forrás

Vélemény, hozzászólás?

WebshopCompany Ltd. Copyright 1999-2022 © Powered by WebshopCompany kft.