Apple rozwija własny system sztucznej inteligencji (AI) jednocześnie ograniczając korzystanie przez swoich pracowników z ChatGPT w celu ochrony prywatności użytkowników. Według raportu opublikowanego przez Wall Street Journal, gigant technologiczny ma na celu stworzenie dużego modelu językowego podobnego do ChatGPT i Barda od Google.
W rozwój AI w Apple zaangażowany jest John Giannandrea, były szef AI w Google, który dołączył do Apple w 2018 roku. Jego doświadczenie i wiedza w dziedzinie rozwoju AI stanowią cenne wsparcie dla ambicji Apple w tej dziedzinie. W ramach strategii skoncentrowanej na rozwoju AI, Apple w 2020 roku przejął dwa startupy zajmujące się tą dziedziną za łączną kwotę 250 milionów dolarów, co potwierdza ich zobowiązanie do rozszerzania możliwości w zakresie AI.
Integracja AI w produkty Apple to proces, który trwa od pewnego czasu. Asystent głosowy Siri korzysta już z uczenia maszynowego do interpretacji wejść użytkownika i dostarczania spersonalizowanych odpowiedzi. Dzięki postępom technologicznym w dziedzinie AI, Apple ma na celu dalsze ulepszanie swoich produktów i usług poprzez wprowadzenie elementów AI do ich struktury. Podczas ostatniego kwartalnego spotkania z udziałem inwestorów, CEO Apple, Tim Cook, podkreślił plany firmy dotyczące integracji AI we wszystkich produktach. Jednak Cook zaznaczył również, że należy podchodzić do technologii AI ostrożnie i rozwiązywać różne związane z nią wyzwania.
„Ważne jest, aby podejść do tych spraw z rozwagą i starannością” – powiedział Cook podczas rozmowy, cytowany przez Inc. „I istnieje wiele kwestii, które muszą zostać uregulowane, jak jest to obecnie omawiane w różnych miejscach, ale potencjał jest z pewnością bardzo interesujący”.
W trakcie prac nad AI, Apple podejmuje aktywne działania mające na celu ochronę prywatności użytkowników. Wewnętrzny dokument, uzyskany przez Wall Street Journal, ujawnia, że firma nakazała niektórym pracownikom ograniczenie korzystania z zewnętrznych narzędzi AI, w tym ChatGPT i narzędzia do kodowania Copilot, które jest własnością Microsoftu poprzez platformę GitHub. Obawy Apple wynikają z faktu, że korzystanie z tych narzędzi może przypadkowo prowadzić do ujawnienia poufnych danych, ponieważ dane wprowadzane przez użytkowników są często wykorzystywane do szkolenia modeli AI. Poprzez ograniczanie dostępu do zewnętrznych narzędzi AI, Apple stara się zmniejszyć potencjalne ryzyko związane z prywatnością danych i bezpieczeństwem.
W odpowiedzi na rosnące obawy dotyczące prywatności, ChatGPT, model językowy AI opracowany przez OpenAI, niedawno wprowadził funkcję pozwalającą użytkownikom wyłączyć historię rozmów, co daje użytkownikom większą kontrolę nad ich danymi i konwersacjami. Zauważając potrzebę wprowadzenia bardziej restrykcyjnych zasad, Amazon i Samsung również wprowadziły ograniczenia dotyczące korzystania z ChatGPT przez swoich pracowników, łącząc się z rosnącym naciskiem na prywatność i ochronę danych w branży.
W miarę rosnącego popytu na narzędzia konwersacyjne oparte na AI, OpenAI ogłosiło wydanie oficjalnej aplikacji ChatGPT dla użytkowników iPhone w Stanach Zjednoczonych. Dostępność tej aplikacji podkreśla rosnącą popularność i zapotrzebowanie na możliwości rozmów oparte na AI wśród konsumentów.
W momencie sporządzania tego tekstu, Apple nie udzieliło odpowiedzi na prośbę Insidera o komentarz, co pozostawia niewiadome w kwestii dalszych szczegółów dotyczących działań Apple w zakresie AI i środków ochrony prywatności. Niemniej jednak, jest oczywiste, że Apple podejmuje zrównoważone podejście do rozwoju AI, rozpoznając potencjał tej technologii, jednocześnie priorytetowo traktując prywatność użytkowników i bezpieczeństwo danych. Poprzez skoncentrowanie się na wewnętrznym rozwoju AI i ograniczenie korzystania z zewnętrznych narzędzi AI, Apple dąży do znalezienia równowagi między innowacją a ochroną prywatności użytkowników w zmieniającym się krajobrazie AI.