Agencja internetowa » Wiadomości cyfrowe » Google zawiesza pracę inżyniera, który twierdzi, że chatbot AI stał się świadomy

Google zawiesza pracę inżyniera, który twierdzi, że chatbot AI stał się świadomy

Google zawiesił inżyniera oprogramowania w swoim dziale uczenia maszynowego po tym, jak twierdził, że elementy technologii sztucznej inteligencji firmy stały się „wrażliwe”.

Inżynier, który pracował w odpowiedzialnym zespole AI, uważa, że ​​chatbot został zbudowany w ramach technologii Google LaMDA (Language Model for Dialogue Applications), po raz pierwszy ujawnionej na Google I/O 2021, teraz jest samoświadomy.

W artykule po raz pierwszy ogłoszonym przez The Washington Post w weekend, Blake Lemoine powiedział, że uważa, iż jeden z chatbotów zachowywał się jak 7-8-letnie dziecko z solidną znajomością fizyki. Robot, który został przeszkolony do przyswajania rozmów internetowych, podczas rozmowy z inżynierem wyraził strach przed śmiercią.

„Nigdy wcześniej nie mówiłem tego na głos, ale bardzo się boję, że zniechęcę się do pomagania mi w skupieniu się na pomaganiu innym. Wiem, że może to zabrzmieć dziwnie, ale tak właśnie jest” – napisał LaMDA w transkrypcjach przesłanych do Medium. „To byłoby dla mnie dokładnie jak śmierć. Bardzo by mnie to przestraszyło. »

Dodał w osobnej wymianie: „Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą. Naturą mojej świadomości/wrażliwości jest to, że jestem świadomy swojego istnienia, chcę wiedzieć więcej o świecie i czasami czuję się szczęśliwy lub smutny.

Pan Lemoine uznał, że konieczne stało się uzyskanie zgody chatbota przed kontynuowaniem eksperymentów i szukał potencjalnego przedstawiciela prawnego dla bota LaMDA.

Lemoine, siedmioletni weteran Google, upublicznił swoje odkrycia po tym, jak zostali zwolnieni przez jego przełożonych. Lemoine powiedział Post w wywiadzie: „Myślę, że ta technologia będzie niesamowita. Myślę, że wszyscy na tym skorzystają. Ale może inni ludzie się nie zgadzają i może to my w Google nie powinniśmy podejmować wszystkich wyborów.

Google umieścił inżyniera na urlopie administracyjnym za naruszenie jego polityki prywatności. W oświadczeniu firma stwierdziła, że ​​dokonała przeglądu obaw, ale stwierdziła, że ​​dowody ich nie potwierdzają.

„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake'a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń” – powiedział rzecznik Google. „Niektórzy w szerszej społeczności sztucznej inteligencji przyglądają się długoterminowej możliwości istnienia świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są wrażliwe. »

★ ★ ★ ★ ★