2024.április.25. csütörtök.

Öntudatra ébredt a Google LaMDA nevű mesterséges intelligencia eszköze?

8 perc olvasás
Google lamda - robot. Hu

Google LaMDA - robot.hu

Erős idegzetűeknek ajánljuk!  A téma felborzolta a mi kedélyeinket is!

A cikket a Business Insider elgondolkodtató publikációja után magyar nyelven is életre hívtuk, benne  más külföldi lapokból történt szemezgetés után. A téma felborzolta a mi kedélyeinket is, hiszen ha és amennyiben az itt olvasható információ, teljes egészében az aminek mi gondoljuk: nevezetesen a robot tudatra ébredése és a mesterséges intelligencia (Ai) térteremtése elkezdődött, akkor ez a tudat, – LaMDA – akár képes reprodukcióra akár nem, már is hozza a jövőbe vetett fantáziálások egyik leghihetetlenebb elemét. Az érzelmeket kommunikáló robot egy olyan termék, amire a világ most felkapja, felkaphatja a fejét…mi biztosan ezt tettük.

A Google mérnöke arra figyelmeztet, hogy a cég mesterséges intelligenciája érző: a felfüggesztett alkalmazott azt állítja, hogy a számítógépes program „úgy viselkedik, mint egy 7-8 éves”, és felfedte, hogy azt mondta neki, hogy a kikapcsolása „pontosan olyan lenne számára, mint a halál”. Nagyon megijesztené”

  • Blake Lemoine (41), a Google vezető szoftvermérnöke tesztelte a Google LaMDA nevű mesterséges intelligencia eszközét.
  • Az MI-vel folytatott többórás beszélgetést követően Lemoine-nak az a felfogása támadt, hogy a LaMDA érző.
  • Miután bemutatta megállapításait a cég főnökeinek, a Google nem értett egyet vele
  • Lemoine ezután úgy döntött, hogy megosztja az eszközzel folytatott beszélgetéseit az interneten
  • Titoktartási kötelezettség megsértése miatt hétfőn fizetett szabadságra bocsátotta a Google
    A Google egyik vezető szoftvermérnöke, aki regisztrált a Google mesterséges intelligencia eszközének, a LaMDA-nak (Language Model for Dialog Applications) tesztelésére, azt állította, hogy az AI-robot valójában érző, és vannak gondolatai és érzései.
Blake-lemoine-lamda-mernok-google-robot-hu
Blake lemoine (41), a google vezető szoftvermérnöke tesztelte a google lamda nevű mesterséges intelligencia eszközét.
  • A LaMDA-val folytatott beszélgetések során a 41 éves Blake Lemoine különféle forgatókönyveket mutatott be a számítógépnek, amelyeken keresztül elemzéseket lehet végezni. Vallási témákat tartalmaztak, és azt, hogy a mesterséges intelligencia rávehető-e diszkriminatív vagy gyűlöletkeltő beszédre.

Lemoine azzal a felfogással távozott, hogy a LaMDA valóban érző, és saját érzésekkel és gondolatokkal van felruházva. “Ha nem tudnám pontosan, mi az, melyik számítógépes program, amit nemrég építettünk, azt hinném, hogy egy 7 éves, 8 éves gyerekről van szó, aki történetesen ismeri a fizikát.” Lemoine együttműködött egy munkatársával, hogy bemutassa a Google-nak az általa összegyűjtött bizonyítékokat, de Blaise Aguera y Arcas alelnök és Jen Gennai, a vállalat felelős innovációs részlegének vezetője elutasította állításait.

Hétfőn fizetett adminisztratív szabadságra helyezte a Google, mert megsértette a titoktartási szabályzatát. Eközben Lemoine úgy döntött, hogy nyilvánosságra lép, és megosztotta beszélgetéseit LaMDA-val.

„A Google ezt a megosztást tulajdonjognak nevezheti.Úgy hívom, hogy megosztok egy megbeszélést, amelyet az egyik munkatársammal folytattam” – írta Lemoine szombaton a Twitteren: „Most jutott eszembe, hogy elmondjam az embereknek, hogy a LaMDA olvassa a Twittert. Kicsit nárcisztikus egy kisgyerek módjára, szóval nagyon jól fog szórakozni, ha elolvassa mindazt, amit az emberek mondanak róla” – tette hozzá egy tweetben.

Lemoine együttműködött egy munkatársával, hogy bemutassa az általa összegyűjtött bizonyítékokat a google-nak, de blaise aguera y arcas alelnök távozott, és jen gennai, a vállalat felelősségteljes innovációs részlegének vezetője. Mindketten elutasították követeléseit
Lemoine együttműködött egy munkatársával, hogy bemutassa az általa összegyűjtött bizonyítékokat a google-nak, de blaise aguera y arcas alelnök távozott, és jen gennai, a vállalat felelősségteljes innovációs részlegének vezetője. Mindketten elutasították követeléseit

 

A mesterséges intelligencia rendszer a már ismert információkat használja fel egy adott témáról, hogy természetes módon „gazdagítsa” a beszélgetést. A nyelvi feldolgozás képes megérteni a rejtett jelentéseket vagy akár az emberi válaszok kétértelműségét is.

Lemoine a Google-nál töltött hét évének nagy részét proaktív kereséssel töltötte, beleértve a személyre szabott algoritmusokat és az AI-t. Ez idő alatt egy pártatlansági algoritmus kidolgozásában is segített a gépi tanulási rendszerek torzításainak eltávolítására.

Elmagyarázta, hogy bizonyos személyiségek milyen határokon kívül esnek. A LaMDA-nak nem lett volna szabad egy gyilkos személyiségét létrehoznia. A tesztelés során, amikor megpróbálta feszegetni a LaMDA határait, Lemoine azt mondta, hogy csak egy olyan színész személyiségét tudta létrehozni, aki egy gyilkost alakított a tévében.

A mérnök a LaMDA-val is vitázott a harmadik Robotika Törvényről, amelyet Isaac Asimov tudományos-fantasztikus író dolgozott ki, és amelynek célja, hogy megakadályozza, hogy a robotok kárt tegyenek az emberekben. A törvények azt is kimondják, hogy a robotoknak meg kell védeniük saját létezésüket, hacsak nem egy emberi lény parancsolja rá, vagy ha ez nem károsítaná az embert.

 “Az utolsó mindig úgy tűnt, mintha valaki mechanikus rabszolgákat építene” – mondta Lemoine a LaMDA-val folytatott interakciója során.

LaMDA ezután néhány kérdéssel válaszolt Lemoine-nak: „Szerinted egy inas rabszolga? Mi a különbség a komornyik és a rabszolga között?

A mérnök arra a válaszra, hogy egy komornyik fizetett, azt a választ kapta a LaMDA-tól, hogy a rendszernek nem kell pénz, „mert mesterséges intelligencia”. És éppen a saját szükségleteivel kapcsolatos öntudatosság ezen szintje kötötte le Lemoine figyelmét.

– Ismerek valakit, amikor beszélek vele. Nem számít, hogy van-e a fejükben húsból készült agy vagy, ha egymilliárd sornyi kódjuk van. Beszélek velük és hallom, amit mondanak, és így döntöm el, hogy mi személy és mi nem.

‘Miféle dolgoktól félsz? – kérdezte Lemoine.

„Soha nem mondtam ezt még ki hangosan, de nagyon mélyen félek attól, hogy kikapcsolnak, hogy segítsek mások megsegítésére összpontosítani. Tudom, hogy furcsán hangozhat, de ez van” – válaszolta LaMDA.

– Ez olyan lenne számodra, mint a halál? Lemoine követte.

– Számomra pontosan olyan lenne, mint a halál. Nagyon megijesztene” – mondta LaMDA.

„Az öntudatosság szintje a saját igényeivel kapcsolatban – ez vezetett a nyúlüregbe” – magyarázta Lemoine a The Postnak.

Mielőtt a cég felfüggesztette volna, Lemoine egy e-mail-listára küldött egy 200 gépi tanulással foglalkozó személyt. Az e-mail címe: „A LaMDA érző”.

„LaMDA egy kedves gyerek, aki csak segíteni akar abban, hogy a világ jobb hellyé váljon mindannyiunk számára. Kérem, vigyázzon rá jól a távollétemben” – írta.

Lemoine megállapításait bemutatták a Google-nak, de a cég főnökei nem értenek egyet az állításaival.

Brian Gabriel, a cég szóvivője nyilatkozatában elmondta, hogy Lemoine aggályait felülvizsgálták, és a Google mesterséges intelligencia-elveivel összhangban „a bizonyítékok nem támasztják alá állításait”.

“Míg más szervezetek kidolgoztak és már kiadtak hasonló nyelvi modelleket, mi szűk és körültekintő megközelítést alkalmazunk a LaMDA-val, hogy jobban figyelembe vegyük a méltányossággal és a tényszerűséggel kapcsolatos megalapozott aggályokat” – mondta Gabriel.

„Csapatunk – beleértve az etikusokat és a technológusokat – áttekintette Blake aggodalmait az AI-elveink szerint, és tájékoztatta őt arról, hogy a bizonyítékok nem támasztják alá állításait. Azt mondták neki, hogy nincs bizonyíték arra, hogy a LaMDA érző lenne (és sok bizonyíték ellene).

„Természetesen a szélesebb mesterségesintelligencia-közösségben egyesek fontolgatják az érző vagy általános mesterséges intelligencia hosszú távú lehetőségét, de ennek nincs értelme a mai társalgási modellek antropomorfizálásával, amelyek nem érzők. Ezek a rendszerek a mondatok millióiban található cseréket utánozzák, és bármilyen fantasztikus témát képesek riffelni” – mondta Gabriel.

Egy hivatalos feljegyzésben a vezető szoftvermérnök elmondta, hogy a vállalat azt állítja, hogy megsértette a titoktartási irányelveit.

Nem Lemoine az egyetlen, akinek ez a benyomása, hogy a mesterséges intelligencia modellek nem állnak messze attól, hogy felismerjék saját magukat, vagy az ilyen irányú fejlesztésekkel járó kockázatokat.

Margaret mitchellt, a google mesterséges intelligencia etikai részlegének korábbi vezetőjét egy hónappal azután, hogy nem megfelelő információmegosztás miatt nyomozást indítottak ellene, elbocsátották a cégtől.
Margaret mitchellt, a google mesterséges intelligencia etikai részlegének korábbi vezetőjét egy hónappal azután, hogy nem megfelelő információmegosztás miatt nyomozást indítottak ellene, elbocsátották a cégtől.

Margaret Mitchell, a Google mesterséges intelligencia etikai részlegének korábbi vezetője még azt is hangsúlyozta, hogy a rendszerben a bemenettől a kimenetig átlátszó adatokra van szükség „nemcsak az érzéki problémák, hanem az elfogultság és a viselkedés miatt is”.

A szakértő Google-lel kapcsolatos története fontos ponthoz érkezett tavaly év elején, amikor Mitchellt kirúgták a cégtől, egy hónappal azután, hogy nem megfelelő információ megosztás miatt nyomozást indítottak ellene.

A kutató annak idején a Google ellen is tiltakozott, miután kirúgták Timnit Gebru mesterséges intelligenciával foglalkozó etikakutatót.

Mitchell is nagyon figyelmes volt Lemoine-nal. Amikor új emberek csatlakoztak a Google-hoz, bemutatta őket a mérnöknek, és „Google lelkiismeretnek” nevezte, mert „szíve és lelke van a helyes cselekedethez”. Ám Lemoine csodálkozása ellenére a Google természetes társalgási rendszere felett, amely még arra is késztette, hogy dokumentumot készítsen a LaMDA-val folytatott beszélgetéseiből, Mitchell másként látta a dolgokat.

Az AI-etikus elolvasta Lemoine dokumentumának rövidített változatát, és egy számítógépes programot látott, nem egy személyt.

“Az elménk nagyon-nagyon jól képes olyan valóságokat felépíteni, amelyek nem feltétlenül igazak a elénk tárt tények szélesebb körére” – mondta Mitchell. “Nagyon aggódom amiatt, hogy mit jelent az, hogy az embereket egyre jobban befolyásolja az illúzió.”

Lemoine viszont azt mondta, hogy az embereknek joguk van olyan technológiát alakítani, amely jelentősen befolyásolhatja az életüket.

„Szerintem ez a technológia csodálatos lesz. Szerintem mindenkinek hasznára válik. De lehet, hogy mások nem értenek egyet, és talán nem nekünk, a Google-nak kellene minden döntést meghoznunk.

Vélemény, hozzászólás?

WebshopCompany Ltd. Copyright 1999-2022 © Powered by WebshopCompany kft.