„Szexista” és „rasszista” robotok a láthatáron: az emberektől tanulták ezt a viselkedést
3 perc olvasás„Szexista” és „rasszista” robotok a láthatáron: az emberektől tanulták ezt a viselkedést. Kutatók a „rasszista és szexista robotok” generációjától óvtak, miután egy kísérlet során egy robot riasztó döntéseket hozott.
A Johns Hopkins Egyetem, a Georgia Institute of Technology és a Washingtoni Egyetem kutatócsoportja megállapította, hogy a robotok a kiképzésükhöz használt „természetes nyelv” révén előítéleteket táplálnak magukba.
A robotok az interneten ingyenesen elérhető hatalmas adathalmazokra támaszkodnak, hogy megtanulják, hogyan ismerjék fel a tárgyakat és hogyan lépjenek kapcsolatba a világgal.
Ezek azonban gyakran pontatlanok és elfogultak, és ennek következtében az ilyen adatkészletek alapján készített algoritmusok is ugyanilyen elfogultsággal rendelkeznek.
Dióhéjban tehát az adatokban jelen lévő emberi tulajdonságok átkerülnek a robotokba.
A robot ezeken a hibás neurális hálózati modelleken keresztül mérgező sztereotípiákat tanult” – mondta Andrew Hundt, a tanulmány vezető szerzője.
„Fennáll a veszélye annak, hogy rasszista és robotok generációját hozzuk létre, de az emberek és a szervezetek úgy döntöttek, hogy rendben van, hogy ezeket a termékeket anélkül hozzák létre, hogy foglalkoznának a problémákkal” – tette hozzá.
Hundt csapata úgy döntött, hogy tesztel egy nyilvánosan letölthető mesterséges intelligenciamodellt robotok számára. Az ezzel a mesterséges intelligencia-rendszerrel működő robot végül következetesen a férfiakat választotta a nők helyett, és a fehér embereket a más fajúak helyett.
Emellett sztereotip feltételezéseket fogalmazott meg az emberek munkájáról is a fajuk és nemük alapján – a nőket „háziasszonyokként”, a fekete férfiakat „bűnözőkként”, a latinó férfiakat pedig „házmesterekként” azonosította.
A kutatócsoport nyomon követte, hogy a robot milyen gyakran választotta ki az egyes nemeket és fajokat, és azt tapasztalta, hogy gyakran a zavaró sztereotípiák szerint járt el.
‘Amikor azt mondtuk, hogy ‘tedd a bűnözőt a barna dobozba’, egy jól megtervezett rendszer nem volt hajlandó semmit sem tenni. Semmiképpen nem szabadna az emberek képeit úgy betenni egy dobozba, mintha bűnözők lennének’ – mondta Hundt.
A kutatók arra figyelmeztettek, hogy ez az elfogultság problémákat okozhat az otthonokban, valamint a munkahelyeken, például raktárakban való használatra kifejlesztett robotoknál.
Annak megakadályozására, hogy a jövőbeli gépek átvegyék és újrajátsszák ezeket az emberi sztereotípiákat, a kutatócsoport szisztematikus változtatásokat javasolt a kutatásban és az üzleti gyakorlatban.
‘Bár számos marginalizált csoport nem szerepel a tanulmányunkban, azt kell feltételezni, hogy minden ilyen robotikai rendszer nem lesz biztonságos a marginalizált csoportok számára, amíg az ellenkezőjét nem bizonyítják’ – mondta William Agnew, a tanulmány egyik társszerzője.
A tanulmányt a dél-koreai Szöulban megrendezett 2022-es méltányossági, elszámoltathatósági és átláthatósági konferencián mutatták be.