We znaczącym wydarzeniu, które wywołało debatę na temat praw prywatności, najwyższy francuski sąd konstytucyjny zatwierdził stosowanie nadzoru opartego na sztucznej inteligencji (AI) podczas nadchodzących Igrzysk Olimpijskich. Ta decyzja jest ciosem dla działaczy walczących o prywatność, którzy wyrazili obawy dotyczące potencjalnych konsekwencji systemów nadzoru zasilanych przez AI.
Zaledwie dwa miesiące temu francuska Narodowa Izba Zgromadzenia uchwaliła prawo pozwalające na eksperymentalne stosowanie zaawansowanych technologii nadzoru w celu zapewnienia bezpieczeństwa na Igrzyskach, na które spodziewana jest ogromna liczba około 600 000 osób. Nowo zatwierdzone przepisy umożliwiają wprowadzenie automatycznego nadzoru wideo, w którym algorytmy AI skanujące obrazy w czasie rzeczywistym będą wykorzystywane do wykrywania podejrzanych działań, takich jak nagłe wzrosty tłumów czy pozostawione bez nadzoru bagaże.
Impulsem do tych działań była chaos, który wybuchł podczas ubiegłorocznego finału Ligi Mistrzów między Liverpoolem a Realem Madryt na Stade de France. Kibice, w tym dzieci, byli zasypywani gazem łzawiącym, a liczni zwolennicy donosili o kradzieżach. Te incydenty nasiliły obawy dotyczące bezpieczeństwa, co skłoniło rząd francuski do poszukiwania innowacyjnych rozwiązań.
Podczas gdy stosowanie nadzoru AI na Igrzyskach zostało zaakceptowane, francuski sąd konstytucyjny określił, że te środki są ograniczone do wydarzeń sportowych, rekreacyjnych lub kulturalnych, mających na celu przeciwdziałanie naruszeniom porządku publicznego. Przepisy te będą obowiązywać do marca 2025 roku, co czyni Francję pierwszym krajem w Unii Europejskiej, który przyjmuje nadzór oparty na AI. Jednak decyzja ta spotkała się z silnym sprzeciwem 38 grup praw człowieka, które uważają ten krok za „niebezpieczny precedens dla innych europejskich krajów”. W liście otwartym organizacje takie jak Amnesty International, Human Rights Watch i Big Brother Watch twierdzą, że propozycje te stanowią poważne zagrożenie dla wolności obywatelskich i zasad demokratycznych.
Grupy praw człowieka wyraziły obawy, że kamery zasilane przez AI mogą przypadkowo rejestrować ruchy, takie jak pozy ciała, sposób chodzenia czy gesty, naruszając w ten sposób prawo do prywatności i ochrony danych. Ich obawy wynikają z możliwości nadużycia lub nieautoryzowanego dostępu do tych wrażliwych informacji, co może mieć daleko idące konsekwencje dla jednostek.
Co więcej, decyzja Francji o kontynuowaniu nadzoru AI na Igrzyskach, poparta przez sąd konstytucyjny, może mieć wpływ na ostateczny kształt proponowanej ustawy dotyczącej sztucznej inteligencji w Unii Europejskiej. Komisja posłów do spraw Parlamentu Europejskiego niedawno zbadająca tę ustawę zagłosowała za przyjęciem grupy 12 poprawek, w tym całkowitym zakazem rozpoznawania twarzy w czasie rzeczywistym.
Nadchodzące głosowanie w pełnym Parlamencie Europejskim, zaplanowane na czerwiec, zadecyduje o losie tych poprawek. Następnie ustawodawstwo zostanie poddane dalszym dopracowaniom we współpracy z Komisją Europejską i państwami członkowskimi. Rząd francuski przyjął z zadowoleniem decyzję sądu konstytucyjnego, uważając, że umożliwi ona doskonalenie struktur bezpieczeństwa na Igrzyskach przyszłego roku. Jednak toczące się dyskusje na temat nadzoru AI podkreślają delikatną równowagę między zapewnianiem bezpieczeństwa publicznego a ochroną praw prywatności jednostek.