• pon.. cze 5th, 2023

Twierdzenie Google, że Chatbot Bard sam nauczył się bengalskiego, zakwestionowane przez byłego specjalistę

Twierdzenie Google, że Chatbot Bard sam nauczył się bengalskiego, zakwestionowane przez byłego specjalistę

Sundar Pichai, dyrektor generalny Alphabetu, w ostatnich miesiącach pojawił się w licznych wywiadach i podcastach, przedstawiając wnikliwe spojrzenie na przyszłe plany firmy w dziedzinie sztucznej inteligencji (AI). Zważywszy na niedawne wyzwania firmy i intensywną konkurencję ze strony Microsoftu, strategia Pichai’a wydaje się słuszna. Jednak niedawny segment wideo na CBS w programie „60 Minutes” budzi wątpliwości.

W wywiadzie Pichai rozmawia obszernie o AI i jego wpływie na społeczeństwo. Jednym z aspektów wideo, który przyciągnął uwagę widzów, jest wzmianka o tym, że chatbot Google Bard nauczył się nieoczekiwanych umiejętności. Pichai twierdzi, że jedna z aplikacji AI Google’a przystosowała się do języka Bengalskiego, którego nie była szkolona do rozumienia.

Jednak była badaczka Google’a Margaret Mitchell skomentowała to na Twitterze, wskazując na dowody, że ta deklaracja jest nieprawidłowa. Mitchell zwróciła uwagę, że AI PaLM Google, który jest poprzednikiem Barda, zostało już szkolone w rozumieniu bengalskiego. Google ogłosił model PaLM podczas swojego wydarzenia Google I/O w 2022 roku, a był on szkolony do komunikacji w bengalskim, według Mitchell.

Wskazuje to na to, że może to być sposób na podtrzymywanie szumu medialnego wokół chatbota Barda przez Google’a, twierdząc, że nauczył się bengalskiego samodzielnie. Pytanie Mitchell o to, kto ponosi odpowiedzialność za dezinformację, zwraca uwagę na potrzebę przejrzystości w rozwijaniu AI. Nieprawdziwe twierdzenia, nawet jeśli niezamierzone, mogą wprowadzać ludzi w błąd i utrudniać postęp.

Stwierdzenie, że Bard nauczył się bengalskiego samodzielnie, zostało zakwestionowane, a to dodatkowo przyczyniło się do szumu wokół AI. Emily M. Bender, profesor językoznawstwa na Uniwersytecie Waszyngtona, odniosła się do wypowiedzi Pichai’a w programie CBS i powiedziała, że nie powinniśmy uważać szumu medialnego wokół AI za wiadomości. Przehajpowanie AI może prowadzić do nierealistycznych oczekiwań co do jego możliwości, co może zaszkodzić jego rozwojowi.

Jednak prywatne korporacje, takie jak Google, mogą zyskać na przehajpowaniu AI, ponieważ może to prowadzić do większych inwestycji i popytu na ich produkty i usługi z zastosowaniem AI. W rzeczywistości w segmencie wideo Pichai mówi, że społeczeństwo nie jest przygotowane na szybki rozwój AI. Chociaż takie stwierdzenia mogą wydawać się fascynujące, wielu uważa, że ​​tylko dodają do szumu wokół AI.

Dezinformacja dotycząca autonomowego uczenia się bengalskiego przez Barda ilustruje znaczenie etycznych praktyk AI. Wraz z postępującym rozwojem AI i jego coraz większą rolą w naszym życiu, istotne jest zapewnienie, że jego rozwój jest przejrzysty i dokładny. Przemysł AI musi skoncentrować się na tworzeniu realistycznych oczekiwań i rozwijaniu odpowiedzialnych praktyk AI, aby zapobiec rozprzestrzenianiu się dezinformacji i nierealistycznego szumu.

Podsumowując, twierdzenie, że chatbot Bard Google’a nauczył się bengalskiego samodzielnie, zostało zakwestionowane przez byłego badacza. Incydent ten podkreśla potrzebę przejrzystości w rozwoju AI i etycznych praktyk AI. Chociaż AI ma wielki potencjał, przehajpowanie go może być szkodliwe dla jego postępu, dlatego ważne jest skupienie się na odpowiedzialnych praktykach AI, aby zapobiec rozprzestrzenianiu się dezinformacji.