Pracownicy Google twierdzą, że firma stawia na pierwszym miejscu generatywną sztuczną inteligencję, a nie etykę. Według 18 obecnych i byłych pracowników, Google poświęca kwestie etyczne, aby dorównać rywalom takim jak OpenAI, którego chatbot został uruchomiony w listopadzie 2022 roku. Jedna z pracownic nazwała chatbota Bard firmy Google „patologicznym kłamcą”, podczas gdy inna twierdziła, że udzielał on porad dotyczących nurkowania, „które mogłyby skutkować poważnymi obrażeniami lub śmiercią”. Wewnętrzna dokumentacja potwierdza te zarzuty.
Google obiecał podwoić liczbę osób zajmujących się etyką sztucznej inteligencji oraz zwiększyć zasoby poświęcone badaniu potencjalnych szkód technologii. Jednakże, listopadowy debiut chatbota OpenAI zmusił Google do zintegrowania generatywnej sztucznej inteligencji z najważniejszymi produktami w ciągu kilku miesięcy. Grupa zajmująca się etyką, którą Google obiecał wzmocnić, jest teraz pozbawiona wpływu i zniechęcona, według obecnych i byłych pracowników. Pracownicy odpowiedzialni za bezpieczeństwo i skutki etyczne nowych produktów zostali poinformowani, aby nie stawać na drodze lub nie próbować zabić żadnego z narzędzi generatywnej sztucznej inteligencji w fazie rozwoju.
Google poszukuje możliwości ożywienia swojego biznesu związanego z wyszukiwaniem przy użyciu nowoczesnych technologii, które mogą wprowadzić generatywną sztuczną inteligencję do milionów domów i telefonów na całym świecie, idealnie przed firmą OpenAI, wspieraną przez Microsoft. Firma była ostrożna wobec mocy generatywnej sztucznej inteligencji i kwestii etycznych, które wiążą się z zastosowaniem tej technologii w wyszukiwarkach i innych wiodących produktach, ale szybki postęp w rozwoju może mieć głęboki wpływ na społeczeństwo.
Meredith Whittaker, prezes Fundacji Signal i były menedżer Google, powiedziała: „Etyka sztucznej inteligencji ustępuje pierwszeństwa. Jeśli etyka nie zajmie pierwszego miejsca przed zyskiem i wzrostem, ostatecznie nie zadziała.” Google zaprzeczył temu i powiedział, że odpowiedzialna sztuczna inteligencja pozostaje kluczowym priorytetem firmy.
Zespół zajmujący się odpowiedzialną sztuczną inteligencją został zreorganizowany pod kierownictwem Marian Croak, która obiecała podwoić jego liczbę i wzmocnić jego związki z resztą firmy. Jednakże, pracowanie nad etyczną sztuczną inteligencją w Google jest trudne. Jeden były pracownik powiedział, że poprosił o pracę nad uczciwością w uczeniu maszynowym i był regularnie zniechęcany do tego stopnia, że wpłynęło to na jego ocenę pracy. Kierownicy protestowali, że to przeszkadza w ich „prawdziwej pracy” – powiedział ta osoba.
Pracownicy są zaniepokojeni tym, że szybkość rozwoju nie pozwala na dostateczne przebadanie potencjalnych szkód. Recenzje etyczne produktów i funkcji związanych z sztuczną inteligencją, według dwóch pracowników, są praktycznie całkowicie dobrowolne w firmie, z wyjątkiem prac naukowych i procesu recenzji przeprowadzanych przez Google Cloud w odniesieniu do umów z klientami i produktów do wydania.
Zanim pojawił się kryzys, dla inżynierów Google było trudno uzyskać dostęp do najbardziej zaawansowanych modeli sztucznej inteligencji firmy. Innemu byłemu pracownikowi często zdarzało się zacząć myśleć o rozwiązaniach, bawiąc się modelami generatywnej sztucznej inteligencji innych firm, aby zrozumieć możliwości technologii, zanim zaczęli działać w obrębie biurokracji, powiedział były pracownik.
Samy Bengio, naukowiec zajmujący się sztuczną inteligencją, który kierował zespołem etycznej sztucznej inteligencji w Google, i kilku innych badaczy odeszło z firmy na rzecz konkurentów w międzyczasie. Kierownictwo firmy często mówi o hipotetycznych przyszłych scenariuszach dotyczących all-powerful technologii, które nie mogą być kontrolowane przez ludzi, a nie o codziennych scenariuszach, które już mają potencjał do szkodzenia.