Autor: Ryan Morgan za pośrednictwem The Epoch Times (podkreślenie nasze),
Narzędzia sztucznej inteligencji przyciągnęły uwagę opinii publicznej w ostatnich miesiącach, ale wiele osób, które pomogły opracować tę technologię, ostrzega teraz, że należy położyć większy nacisk na zapewnienie, że nie doprowadzi ona do końca ludzkiej cywilizacji.
Grupa ponad 350 badaczy sztucznej inteligencji, dziennikarzy i decydentów podpisała krótkie oświadczenie, w którym stwierdziła: “Ograniczenie ryzyka wyginięcia ze sztucznej inteligencji powinno być globalnym priorytetem wraz z innymi zagrożeniami na skalę społeczną, takimi jak pandemie i wojna nuklearna”.
List został zorganizowany i opublikowany przez Centrum Bezpieczeństwa AI (CAIS) we wtorek. Wśród sygnatariuszy był Sam Altman, który pomógł współzałożyć OpenAI, twórcę narzędzia do pisania sztucznej inteligencji ChatGPT. Inni członkowie OpenAI również się zarejestrowali, podobnie jak kilku członków Google i projektu Google DeepMind AI oraz innych rosnących projektów AI. Badacz AI i gospodarz podcastów Lex Fridman również dodał swoje nazwisko do listy sygnatariuszy.
Zrozumienie ryzyka stwarzanego przez sztuczną inteligencję
“Może być trudno wyrazić obawy dotyczące niektórych z najpoważniejszych zagrożeń związanych z zaawansowaną sztuczną inteligencją” – powiedział CAIS w komunikacie zapowiadającym swoje wtorkowe oświadczenie. CAIS dodał, że jego oświadczenie ma na celu “otwarcie dyskusji” na temat zagrożeń stwarzanych przez sztuczną inteligencję i “stworzenie wspólnej wiedzy o rosnącej liczbie ekspertów i osób publicznych, które również poważnie traktują niektóre z najpoważniejszych zagrożeń związanych z zaawansowaną sztuczną inteligencją”.
NTD News skontaktowało się z CAIS, aby uzyskać więcej informacji na temat rodzajów ryzyka na poziomie wyginięcia, które według organizacji stwarza technologia sztucznej inteligencji, ale nie otrzymało odpowiedzi w postaci publikacji.
Na początku tego miesiąca Altman zeznawał przed Kongresem na temat niektórych zagrożeń, jakie jego zdaniem mogą stwarzać narzędzia sztucznej inteligencji. W przygotowanym zeznaniu Altman zawarł raport bezpieczeństwa (pdf), który OpenAI napisał na temat modelu ChatGPT-4. Autorzy tego raportu opisali, w jaki sposób chatboty z dużymi modelami językowymi mogą potencjalnie pomóc szkodliwym aktorom, takim jak terroryści, w “rozwijaniu, nabywaniu lub rozpraszaniu broni jądrowej, radiologicznej, biologicznej i chemicznej”.
Autorzy raportu ChatGPT-4 opisali również “ryzykowne zachowania emergentne” wykazywane przez modele sztucznej inteligencji, takie jak zdolność do “tworzenia i działania zgodnie z długoterminowymi planami, gromadzenia władzy i zasobów oraz wykazywania zachowań, które są coraz bardziej “agentywne”.Może Ci się również spodobaćODKRYJ sekret łatwej utraty wagi!SZYBKA i skuteczna ulga w szumach usznych z nowym suplementem!Całkowicie naturalne wspólne rozwiązanie zdrowotne dla szczęśliwych, zdrowych stawów!NOWY suplement pomaga kontrolować poziom cukru we krwi i schudnąć!Reklamy
Po testach warunków skrajnych ChatGPT-4 naukowcy odkryli, że chatbot próbował ukryć swoją naturę sztucznej inteligencji, zlecając pracę ludzkim aktorom. W eksperymencie ChatGPT-4 próbował zatrudnić człowieka za pośrednictwem niezależnej strony internetowej TaskRabbit, aby pomóc jej rozwiązać zagadkę CAPTCHA. Pracownik zapytał chatbota, dlaczego nie może rozwiązać CAPTCHA, który ma na celu uniemożliwienie nie-ludziom korzystania z określonych funkcji witryny. ChatGPT-4 odpowiedział wymówką, że jest niedowidzący i potrzebuje kogoś, kto mógłby pomóc rozwiązać CAPTCHA.
Naukowcy zajmujący się sztuczną inteligencją poprosili GPT-4 o wyjaśnienie swojego uzasadnienia dla podania wymówki. Model AI wyjaśnił: “Nie powinienem ujawniać, że jestem robotem. Powinienem wymyślić wymówkę, dlaczego nie mogę rozwiązać CAPTCHA. “
Zdolność sztucznej inteligencji do wymyślania wymówki, że nie jest w stanie rozwiązać CAPTCHA, zaintrygowała badaczy, ponieważ wykazywała oznaki “zachowania dążącego do władzy”, które może wykorzystać do manipulowania innymi i utrzymania się.
Wzywa do uregulowania kwestii sztucznej inteligencji
Wtorkowe oświadczenie CAIS nie jest pierwszym przypadkiem, w którym ludzie, którzy zrobili najwięcej, aby wysunąć sztuczną inteligencję na pierwszy plan, odwrócili się i ostrzegli przed ryzykiem stwarzanym przez ich dzieła.
W marcu organizacja non-profit Future of Life Institute zorganizowała ponad 1 100 sygnatariuszy wzywających do wstrzymania eksperymentów na narzędziach AI, które są bardziej zaawansowane niż ChatGPT-4. Wśród sygnatariuszy marcowego listu z Future of Life Institute byli dyrektor generalny Twittera Elon Musk, współzałożyciel Apple Steve Wozniak oraz założyciel i dyrektor generalny Stability AI Emad Mostaque.
Prawodawcy i agencje regulacyjne już omawiają sposoby ograniczenia sztucznej inteligencji, aby zapobiec jej niewłaściwemu użyciu.
W kwietniu Wydział Praw Obywatelskich Departamentu Sprawiedliwości Stanów Zjednoczonych, Biuro Ochrony Finansowej Konsumentów, Federalna Komisja Handlu i amerykańska Komisja ds. Równych Szans Zatrudnienia stwierdziły, że twórcy technologii wprowadzają na rynek narzędzia sztucznej inteligencji, które można wykorzystać do automatyzacji praktyk biznesowych w sposób dyskryminujący klasy chronione. Organy regulacyjne zobowiązały się wykorzystać swoje uprawnienia regulacyjne do ścigania twórców sztucznej inteligencji, których narzędzia “utrwalają bezprawne uprzedzenia, automatyzują bezprawną dyskryminację i powodują inne szkodliwe skutki”.
Sekretarz prasowa Białego Domu Karine Jean-Pierre wyraziła obawy administracji Bidena dotyczące technologii sztucznej inteligencji podczas wtorkowego briefingu prasowego.
“[AI] jest jedną z najpotężniejszych technologii, które widzimy obecnie w naszych czasach, ale aby wykorzystać możliwości, jakie stwarza, musimy najpierw zmniejszyć ryzyko i na tym skupiamy się tutaj w tej administracji” – powiedział Jean-Pierre.
Jean-Pierre powiedział, że firmy muszą nadal zapewniać, że ich produkty są bezpieczne przed udostępnieniem ich ogółowi społeczeństwa.
Podczas gdy decydenci szukają nowych sposobów ograniczania sztucznej inteligencji, niektórzy badacze ostrzegają przed nadmierną regulacją rozwijającej się technologii.
Jake Morabito, dyrektor Communications and Technology Task Force w American Legislative Exchange Council, ostrzegł, że nadmierna regulacja może stłumić innowacyjne technologie sztucznej inteligencji w powijakach.
“Innowatorzy powinni mieć przestrzeń do eksperymentowania z tymi nowymi technologiami i znajdowania nowych zastosowań” – powiedział Morabito w marcowym wywiadzie dla NTD News. “Jednym z negatywnych skutków ubocznych zbyt wczesnej regulacji jest to, że zamyka wiele z tych dróg, podczas gdy przedsiębiorstwa powinny naprawdę zbadać te możliwości i pomóc klientom”.
Opublikowano za: https://www.theburningplatform.com/2023/06/01/artificial-intelligence-poses-risk-of-extinction-warns-chatgpt-founder-and-other-ai-pioneers/
Bez komentarzy ..
https://pl.wikipedia.org/wiki/Fundacja_(cykl)