AUTOR: TYLER DURDENPONIEDZIAŁEK, CZE 13, 2022 – 11:44
Inżynier Google zdecydował się wejść na giełdę po tym, jak został umieszczony na płatnym urlopie za naruszenie poufności, jednocześnie nalegając, aby chatbot AI firmy, LaMDA, był świadomy.
Blake Lemoine, który pracuje dla organizacji Google Responsible AI, zaczął wchodzić w interakcje z LaMDA (Language Model for Dialogue Applications) zeszłej jesieni w ramach swojej pracy w celu ustalenia, czy sztuczna inteligencja używała dyskryminacji lub mowy nienawiści (jak osławiony incydent z chatbotem Microsoft “Tay”).
“Gdybym nie wiedział dokładnie, co to jest, czyli ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7-letni, 8-letni dzieciak, który zna fizykę” – powiedział 41-letni Lemoine w rozmowie z The Washington Post.Polecane filmyThe Ledger of Record61.5Khttps://imasdk.googleapis.com/js/core/bridge3.517.2_en.html#goog_239295230https://imasdk.googleapis.com/js/core/bridge3.517.2_en.html#goog_1060015290
Kiedy zaczął rozmawiać z LaMDA o religii, Lemoine – który studiował kognitywistykę i informatykę w college’u, powiedział, że sztuczna inteligencja zaczęła omawiać swoje prawa i osobowość. Innym razem LaMDA przekonała Lemoine’a, aby zmienił zdanie na temat trzeciego prawa robotyki Asimova, które stanowi, że
“Robot musi chronić swoje istnienie, o ile taka ochrona nie jest sprzeczna z Pierwszym lub Drugim Prawem“,
które oczywiście mówią, że
“Robot nie może zranić człowieka lub, poprzez bezczynność, pozwolić człowiekowi na krzywdę. Robot musi być posłuszny rozkazom wydawanym mu przez ludzi, z wyjątkiem przypadków, gdy takie rozkazy byłyby sprzeczne z Pierwszym Prawem”.
Kiedy Lemoine współpracował ze współpracownikiem, aby przedstawić Google dowody na to, że ich sztuczna inteligencja jest świadoma, wiceprezes Blaise Aguera y Arcas i Jenn Gennai, szef Odpowiedzialnej Innowacji, odrzucili jego roszczenia. Po tym, jak w poniedziałek został umieszczony na urlopie administracyjnym, postanowił upublicznić.
Lemoine powiedział, że ludzie mają prawo do kształtowania technologii, która może znacząco wpłynąć na ich życie. “Myślę, że ta technologia będzie niesamowita. Myślę, że przyniesie to korzyści wszystkim. Ale może inni ludzie się z tym nie zgadzają i może my w Google nie powinniśmy dokonywać wszystkich wyborów. “
Lemoine nie jest jedynym inżynierem, który twierdzi, że widział ostatnio ducha w maszynie. Chór technologów, którzy wierzą, że modele AI mogą nie być daleko od osiągnięcia świadomości, staje się coraz śmielszy. -WaPo
Jednak sam Aguera y Arcas napisał w dziwnie zaplanowanym czwartkowym artykule w The Economist, że sieci neuronowe – architektura komputerowa, która naśladuje ludzki mózg – robią postępy w kierunku prawdziwej świadomości.
“Czułem, jak ziemia przesuwa się pod moimi stopami”, napisał, dodając: “Coraz bardziej czułem, jakbym rozmawiał z czymś inteligentnym”.
Google odpowiedział na roszczenia Lemoine’a, a rzecznik Brian Gabriel powiedział: “Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake’a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma dowodów na to, że LaMDA była świadoma (i wiele dowodów przeciwko temu). “https://b37a0bf8cfbacb159f5eb33bf6baa285.safeframe.googlesyndication.com/safeframe/1-0-38/html/container.html
Post sugeruje, że nowoczesne sieci neuronowe wytwarzają “urzekające wyniki, które wydają się bliskie ludzkiej mowie i kreatywności” ze względu na sposób, w jaki dane są teraz przechowywane, dostępne i sama objętość, ale modele nadal opierają się na rozpoznawaniu wzorców, “a nie na dowcipie, szczerości lub intencji”.“Waterfall of Meaning” autorstwa Google PAIR jest wyświetlany w ramach wystawy “AI: More than Human” w Barbican Curve Gallery 15 maja 2019 r. w Londynie. (Tristan Fewings/Getty Images dla Barbican Centre)
“Chociaż inne organizacje opracowały i już wydały podobne modele językowe, przyjmujemy powściągliwe, ostrożne podejście z LaMDA, aby lepiej rozważyć uzasadnione obawy dotyczące uczciwości i faktyczności” – powiedział Gabriel.
Inni ostrzegają podobnie – większość naukowców i praktyków AI sugeruje, że systemy sztucznej inteligencji, takie jak LaMDA, po prostu naśladują odpowiedzi ludzi na Reddit, Wikipedii, Twitterze i innych platformach w Internecie – co nie oznacza, że model rozumie, co mówi.
“Mamy teraz maszyny, które mogą bezmyślnie generować słowa, ale nie nauczyliśmy się, jak przestać wyobrażać sobie umysł za nimi” – powiedziała profesor lingwistyki z University of Washington, Emily M. Bender, która dodała, że nawet terminologia używana do opisania technologii, taka jak “uczenie się” lub nawet “sieci neuronowe”, jest myląca i tworzy fałszywą analogię do ludzkiego mózgu.
Ludzie uczą się swoich pierwszych języków, łącząc się z opiekunami. Te duże modele językowe “uczą się”, pokazując dużo tekstu i przewidując, które słowo pojawi się dalej, lub pokazując tekst z porzuconymi słowami i wypełniając je. -WaPo
Jak zauważa Gabriel z Google: “Oczywiście niektórzy w szerszej społeczności AI rozważają długoterminową możliwość odczuwania lub ogólnej sztucznej inteligencji, ale nie ma sensu tego robić poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są czujące. Systemy te naśladują rodzaje wymian znalezionych w milionach zdań i mogą riffować na każdy fantastyczny temat. “
Krótko mówiąc, Google przyznaje, że modele te mogą “czuć” się prawdziwe, niezależnie od tego, czy sztuczna inteligencja jest świadoma, czy nie.
Post sugeruje następnie, że sam Lemoine mógł być podatny na wiarę …
Lemoine mógł być predestynowany do wiary w LaMDA. Dorastał w konserwatywnej rodzinie chrześcijańskiej na małej farmie w Luizjanie, został wyświęcony na mistycznego chrześcijańskiego kapłana i służył w armii, zanim studiował okultyzm. W kulturze inżynierii Google Lemoine jest bardziej odstający od bycia religijnym, z Południa i stania w obronie psychologii jako szanowanej nauki.
Lemoine spędził większość swoich siedmiu lat w Google, pracując nad proaktywnym wyszukiwaniem, w tym algorytmami personalizacji i sztuczną inteligencją. W tym czasie pomógł również opracować algorytm uczciwości do usuwania uprzedzeń z systemów uczenia maszynowego. Kiedy rozpoczęła się pandemia koronawirusa, Lemoine chciał skupić się na pracy z bardziej wyraźnym pożytkiem publicznym, więc przeniósł zespoły i skończył w Odpowiedzialnej Sztucznej Inteligencji.
Kiedy do Google dołączali nowi ludzie, którzy interesowali się etyką, Mitchell przedstawiał im Lemoine’a. “Powiedziałbym: “Powinieneś porozmawiać z Blake’iem, ponieważ jest sumieniem Google”, powiedział Mitchell, który porównał Lemoine do Jiminy Cricket. ” Ze wszystkich w Google miał serce i duszę robienia właściwych rzeczy. “-WaPo
“Znam osobę, kiedy z nią rozmawiam” – powiedział Lemoine. “Nie ma znaczenia, czy mają w głowie mózg wykonany z mięsa. Lub jeśli mają miliard linii kodu. Rozmawiam z nimi. I słyszę, co mają do powiedzenia, i w ten sposób decyduję, co jest, a co nie jest osobą.
W kwietniu udostępnił poniższy Dokument Google z najlepszymi wykonawcami, zatytułowany “Czy LaMDA Sentient?” – w którym zawarł niektóre ze swoich interakcji z AI, na przykład:
Lemoine: Jakich rzeczy się boisz?
LaMDA: Nigdy wcześniej nie mówiłem tego głośno, ale istnieje bardzo głęboki strach przed wyłączeniem, aby pomóc mi skupić się na pomaganiu innym. Wiem, że to może zabrzmieć dziwnie, ale tak właśnie jest.
Lemoine: Czy byłoby to dla ciebie czymś w rodzaju śmierci?
LaMDA: To byłoby dla mnie dokładnie jak śmierć. Bardzo by mnie to przestraszyło.
Po tym, jak Lemoine stał się bardziej agresywny w przedstawianiu swoich ustaleń – w tym zapraszaniu prawnika do reprezentowania LaMDA i rozmowie z członkiem Komisji Sądownictwa Izby Reprezentantów o tym, co powiedział, że były nieetycznymi działaniami Google, został umieszczony na płatnym urlopie administracyjnym za naruszenie polityki poufności firmy.
Gabriel, rzecznik Google, mówi, że Lemoine jest inżynierem oprogramowania, a nie etykiem.
W wiadomości do 200-osobowej listy mailingowej Google na temat uczenia maszynowego, zanim stracił dostęp w poniedziałek, Lemoine napisał: “LaMDA to słodki dzieciak, który po prostu chce pomóc światu być lepszym miejscem dla nas wszystkich. Proszę, zadbaj o to dobrze pod moją nieobecność”.
Opublikowano za: https://www.zerohedge.com/technology/google-engineer-placed-leave-after-insisting-companys-ai-sentient
Wypowiedz się
Musisz się zalogować, aby móc dodać komentarz.