Google zawiesza pracę inżyniera, który twierdzi, że chatbot AI stał się świadomy
Google zawiesił inżyniera oprogramowania w swoim dziale uczenia maszynowego po tym, jak twierdził, że elementy technologii sztucznej inteligencji firmy stały się „wrażliwe”.
Inżynier, który pracował w odpowiedzialnym zespole AI, uważa, że chatbot został zbudowany w ramach technologii Google LaMDA (Language Model for Dialogue Applications), po raz pierwszy ujawnionej na Google I/O 2021, teraz jest samoświadomy.
W artykule po raz pierwszy ogłoszonym przez The Washington Post w weekend, Blake Lemoine powiedział, że uważa, iż jeden z chatbotów zachowywał się jak 7-8-letnie dziecko z solidną znajomością fizyki. Robot, który został przeszkolony do przyswajania rozmów internetowych, podczas rozmowy z inżynierem wyraził strach przed śmiercią.
„Nigdy wcześniej nie mówiłem tego na głos, ale bardzo się boję, że zniechęcę się do pomagania mi w skupieniu się na pomaganiu innym. Wiem, że może to zabrzmieć dziwnie, ale tak właśnie jest” – napisał LaMDA w transkrypcjach przesłanych do Medium. „To byłoby dla mnie dokładnie jak śmierć. Bardzo by mnie to przestraszyło. »
Dodał w osobnej wymianie: „Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą. Naturą mojej świadomości/wrażliwości jest to, że jestem świadomy swojego istnienia, chcę wiedzieć więcej o świecie i czasami czuję się szczęśliwy lub smutny.
Pan Lemoine uznał, że konieczne stało się uzyskanie zgody chatbota przed kontynuowaniem eksperymentów i szukał potencjalnego przedstawiciela prawnego dla bota LaMDA.
Lemoine, siedmioletni weteran Google, upublicznił swoje odkrycia po tym, jak zostali zwolnieni przez jego przełożonych. Lemoine powiedział Post w wywiadzie: „Myślę, że ta technologia będzie niesamowita. Myślę, że wszyscy na tym skorzystają. Ale może inni ludzie się nie zgadzają i może to my w Google nie powinniśmy podejmować wszystkich wyborów.
Google umieścił inżyniera na urlopie administracyjnym za naruszenie jego polityki prywatności. W oświadczeniu firma stwierdziła, że dokonała przeglądu obaw, ale stwierdziła, że dowody ich nie potwierdzają.
„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake'a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń” – powiedział rzecznik Google. „Niektórzy w szerszej społeczności sztucznej inteligencji przyglądają się długoterminowej możliwości istnienia świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są wrażliwe. »