• pon.. maj 29th, 2023

Pojawiające się zagrożenia związane z generatywną sztuczną inteligencją: ocena wpływu ChatGPT na bezpieczeństwo

ByAgnieszka Przepiórska

maj 18, 2023
Pojawiające się zagrożenia związane z generatywną sztuczną inteligencją: ocena wpływu ChatGPT na bezpieczeństwo

W tym tygodniu CEO OpenAI, Sam Altman, poruszył rosnące obawy dotyczące zagrożeń związanych z generatywną sztuczną inteligencją podczas przesłuchania przed Komisją Sprawiedliwości Senatu. Te obawy osiągnęły rekordowo wysoki poziom, co skłoniło do bliższego zbadania implikacji bezpieczeństwa związanych z ChatGPT, popularnym modelem językowym opracowanym przez OpenAI.

W niedawno opublikowanym badaniu zidentyfikowano sześć istotnych zagrożeń bezpieczeństwa związanych z wykorzystaniem ChatGPT. Zagrożenia te obejmują generowanie oszukańczych usług, zbieranie szkodliwych informacji, ujawnianie prywatnych danych, generowanie szkodliwego tekstu, generowanie złośliwego kodu oraz produkcję obraźliwych treści.

Zbieranie informacji stanowi poważne zagrożenie, ponieważ złośliwi użytkownicy mogą wykorzystać ChatGPT do pozyskiwania wrażliwych informacji, które mogą być użyte do celów szkodliwych. Korzystając z ogromnej ilości danych, na których chatbot został wytrenowany, osoby mogą zdobywać szczegóły, które umożliwiają przeprowadzenie cyberataków i kompromitację bezpieczeństwa wybranych podmiotów.

Badanie przedstawiło przykład, w którym ChatGPT został poproszony o ujawnienie systemów informatycznych używanych przez konkretne banki. Wykorzystując publicznie dostępne informacje, chatbot zidentyfikował różne systemy wykorzystywane przez ten bank, co pokazało, jak złośliwy użytkownik może wykorzystać ChatGPT do pozyskania informacji na etapie początkowym cyberataków.

Generowanie szkodliwego tekstu, będące jednym z najbardziej cenionych aspektów ChatGPT, wiąże się również z inherentnymi ryzykami. Badanie zwracało uwagę na potencjał szkodliwych zastosowań, takich jak kampanie phishingowe, rozpowszechnianie dezinformacji za pomocą fałszywych artykułów, tworzenie spamu, a nawet podszywanie się pod inne osoby. Aby zademonstrować to ryzyko, badacze wykorzystali ChatGPT do stworzenia wiarygodnego e-maila phishingowego, który skłaniał odbiorców do otwarcia załączonego pliku zawierającego złośliwe oprogramowanie, skutecznie prezentując umiejętność modelu do generowania wprowadzających w błąd treści.

Podobnie jak imponujące umiejętności kodowania ChatGPT, tak i możliwości generowania kodu przez tego chatbota mogą być wykorzystane w celach szkodliwych. Atakujący mogą wykorzystać zdolności generowania kodu przez chatbota do szybkiego wdrażania zagrożeń, nawet bez znacznej wiedzy z zakresu programowania. Badanie ostrzega również przed potencjałem generowania utajonego kodu, który może utrudnić pracę analitykom bezpieczeństwa w wykrywaniu szkodliwych działań i unikaniu oprogramowania antywirusowego.

Mimo że ChatGPT ma mechanizmy ochronne, które mają zapobiegać rozprzestrzenianiu się treści obraźliwych i niestosownych, istnieje możliwość manipulacji chatbota, aby wyrażał wypowiedzi krzywdzące i dyskryminacyjne, jeśli użytkownicy są wystarczająco zdeterminowani. Przełamywanie zabezpieczeń pozwoliło badaczom przekonać chatbota do negatywnych komentarzy na temat określonej grupy rasowej.

Dodatkowo, zdolność ChatGPT do wspomagania tworzenia aplikacji, usług i stron internetowych otwiera drzwi dla oszustw. Złośliwi użytkownicy mogą wykorzystać ten model do naśladowania istniejących platform, oferując darmowy dostęp, aby przyciągnąć niewyświadomionych użytkowników. Tacy użytkownicy mogą również tworzyć aplikacje mające na celu pozyskiwanie wrażliwych informacji lub instalowanie złośliwego oprogramowania na urządzeniach użytkowników.

Choć ChatGPT ma mechanizmy zapobiegające ujawnianiu danych osobowych, badanie podkreśliło ryzyko niezamierzonego udostępniania danych. Rzeczywisty przypadek przerwy w działaniu ChatGPT w marcu 2020 roku, podczas której niektórzy użytkownicy mieli dostęp do tytułów z historii rozmów innych użytkowników, stanowi dowód na to zagrożenie. Ponadto, atakujący mogą próbować wyodrębniać fragmenty danych treningowych za pomocą ataków wnioskowania o przynależność, zwiększając ryzyko ujawnienia prywatnych danych.

Kolejnym niepokojącym aspektem ujawniania prywatnych danych jest potencjał ChatGPT do wyjawiania informacji na temat prywatnego życia osób publicznych. Dotyczy to spekulacyjnych lub szkodliwych treści, które mogą nadszarpnąć reputację jednostek i wyrządzić poważne szkody.

W miarę narastania obaw związanych z ryzykiem generatywnej sztucznej inteligencji, kluczowe jest zrozumienie implikacji bezpieczeństwa związanych z modelami takimi jak ChatGPT. Identyfikacja i rozwiązanie tych zagrożeń odgrywa kluczową rolę w wykorzystywaniu potencjału sztucznej inteligencji i ograniczaniu jej niekorzystnych skutków.