W ważnym ogłoszeniu podczas konferencji Google I/O 2023 Google przedstawiło trzy nowe innowacyjne funkcje mające na celu umożliwienie użytkownikom identyfikacji sztucznie generowanych fałszywych obrazów w wynikach wyszukiwania. Bloomberg informuje, że te funkcje zwiększą autentyczność obrazów poprzez śledzenie ich pochodzenia, dodawanie metadanych do obrazów generowanych przez sztuczną inteligencję Google oraz etykietowanie innych obrazów generowanych przez AI w wynikach wyszukiwania.
Wzrost liczby sztucznie generowanych fałszywych obrazów i jego konsekwencje
Pojawienie się modeli syntezy obrazów opartych na sztucznej inteligencji, takich jak Midjourney i Stable Diffusion, sprawiło, że tworzenie ogromnych ilości realistycznie wyglądających fałszywych obrazów stało się coraz łatwiejsze. Zjawisko to stanowi zagrożenie nie tylko dla dezinformacji i propagandy politycznej, ale również wpływa na nasze postrzeganie historii, ponieważ w obiegu pojawia się coraz więcej fałszywych mediów.
Reakcja Google: nowe funkcje dla wyszukiwarki obrazów
Google planuje wprowadzić te nowe funkcje do swojego produktu wyszukiwania obrazów w nadchodzących miesiącach, jako część ciągłych działań mających na celu zwalczanie dezinformacji i zapewnienie użytkownikom narzędzi do oceny treści i zrozumienia ich kontekstu. Rozpoznając ważność oceny treści wizualnych, Google ma na celu pomóc użytkownikom w rozróżnianiu między prawdziwymi a manipulowanymi obrazami.
Funkcja 1: „O tym obrazie”
Jedna z funkcji, zatytułowana „O tym obrazie”, pozwoli użytkownikom uzyskać dodatkowe informacje na temat historii obrazu. Poprzez kliknięcie trzech kropek w wynikach Google Images, użycie Google Lens do wyszukiwania obrazów lub zrzutów ekranu, lub przesunięcie palcem w górę w aplikacji Google, użytkownicy będą mogli dowiedzieć się, kiedy obraz został po raz pierwszy zindeksowany przez Google, skąd pochodził i gdzie jeszcze był widoczny w Internecie (np. na stronach informacyjnych, społecznościowych lub serwisach weryfikujących wiarygodność informacji).
Ponadto Google planuje umożliwić użytkownikom dostęp do tego narzędzia poprzez kliknięcie prawym przyciskiem myszy lub długie naciśnięcie obrazu w przeglądarce Chrome na komputerach stacjonarnych i urządzeniach mobilnych.
Funkcja 2: Etykiety pochodzenia AI
Zauważając coraz większe wykorzystanie narzędzi opartych na sztucznej inteligencji w tworzeniu obrazów, Google zamierza oznaczać wszystkie obrazy generowane przez swoje narzędzia AI specjalnym „znacznikiem” lub metadanymi wbudowanymi w każdy plik. Ta jasna informacja o pochodzeniu obrazu opartego na AI ma na celu promowanie przejrzystości i umożliwienie użytkownikom rozpoznawania autentyczności obrazu.
Funkcja 3: Współpraca
Ponadto Google współpracuje z innymi platformami i usługami, aby zachęcić je do wprowadzenia podobnych oznaczeń dla swoich sztucznie generowanych obrazów. Partnerzy, tak jak Midjourney i Shutterstock, zobowiązali się do osadzania metadanych w swoich obrazach generowanych przez AI, które będą odczytywane i wyświetlane użytkownikom w wynikach wyszukiwania obrazów Google.
Wyzwania i znaczenie wiarygodności źródła
Choć te działania stanowią znaczący wysiłek w zwalczaniu problemu deepfake’ów w sieci, nie są one doskonałe, ponieważ metadane mogą być zmieniane lub usunięte. Niemniej jednak, w miarę jak granica między prawdziwym a fałszywym zaczyna się zacierać wraz z rozpowszechnianiem obrazów generowanych przez AI, nasze zaufanie do wiarygodności źródeł pozostaje kluczowe. Technologiczne rozwiązania Google mogą pomóc użytkownikom w ocenie tej wiarygodności, zapewniając cenne wsparcie w dynamicznym rozwoju technologicznym.
Poprzez wprowadzenie tych funkcji i współpracę z innymi podmiotami, Google dąży do umożliwienia użytkownikom podejmowania bardziej świadomych decyzji dotyczących autentyczności i wiarygodności napotykanych w sieci obrazów. W ten sposób potwierdza swoje zaangażowanie w zwalczanie dezinformacji i ochronę integralności treści wizualnych.