Hakerzy i inni przestępcy mogą łatwo przejąć kontrolę nad komputerami obsługującymi otwarte modele dużych języków poza barierami ochronnymi i ograniczeniami głównych platform sztucznej inteligencji, tworząc zagrożenia i luki w bezpieczeństwie – poinformowali badacze w czwartek, 29 stycznia.
Hakerzy mogą atakować komputery obsługujące LLM-y i kierować je do przeprowadzania operacji spamowych, tworzenia treści phishingowych lub kampanii dezinformacyjnych, omijając protokoły bezpieczeństwa platform – powiedzieli badacze.
Badania prowadzone wspólnie przez firmy cyberbezpieczeństwa SentinelOne i Censys przez 293 dni i udostępnione wyłącznie agencji Reuters, oferują nowe spojrzenie na skalę potencjalnie nielegalnych przypadków użycia tysięcy wdrożeń otwartych LLM-ów. Obejmują one hakowanie, mowę nienawiści i nękanie, treści przemocowe lub drastyczne, kradzież danych osobowych, oszustwa lub wyłudzenia, a w niektórych przypadkach materiały wykorzystujące seksualnie dzieci – powiedzieli badacze.
Chociaż istnieją tysiące otwartych wariantów LLM, znaczna część LLM-ów na hostach dostępnych przez internet to warianty Llama firmy Meta, Gemma firmy Google DeepMind i inne, według badaczy. Podczas gdy niektóre otwarte modele zawierają zabezpieczenia, badacze zidentyfikowali setki przypadków, w których zabezpieczenia zostały wyraźnie usunięte.
Rozmowy branży AI na temat kontroli bezpieczeństwa "ignorują tego rodzaju nadwyżkę pojemności, która jest wyraźnie wykorzystywana do różnych rzeczy, niektóre z nich legalne, niektóre oczywiście przestępcze" – powiedział Juan Andres Guerrero-Saade, dyrektor wykonawczy ds. badań nad wywiadem i bezpieczeństwem w SentinelOne. Guerrero-Saade porównał sytuację do "góry lodowej", która nie jest odpowiednio uwzględniana w całej branży i społeczności open-source.
Badanie przeanalizowało publicznie dostępne wdrożenia otwartych LLM-ów wdrożonych za pomocą Ollama, narzędzia umożliwiającego osobom i organizacjom uruchamianie własnych wersji różnych modeli dużych języków.
Badacze byli w stanie zobaczyć podpowiedzi systemowe, które są instrukcjami dyktującymi zachowanie modelu, w około jednej czwartej obserwowanych LLM-ów. Spośród nich ustalili, że 7,5% może potencjalnie umożliwić szkodliwą aktywność.
Około 30% hostów obserwowanych przez badaczy działa z Chin, a około 20% ze Stanów Zjednoczonych.
Rachel Adams, dyrektor generalna i założycielka Globalnego Centrum Zarządzania AI, powiedziała w e-mailu, że po wydaniu otwartych modeli odpowiedzialność za to, co się dzieje dalej, staje się wspólna w całym ekosystemie, w tym w laboratoriach źródłowych.
"Laboratoria nie są odpowiedzialne za każde niewłaściwe użycie niższego szczebla (które są trudne do przewidzenia), ale zachowują ważny obowiązek dbałości, aby przewidywać przewidywalne szkody, dokumentować ryzyko i zapewniać narzędzia i wytyczne łagodzące, szczególnie biorąc pod uwagę nierówną globalną zdolność egzekwowania" – powiedziała Adams.
Rzecznik Meta odmówił odpowiedzi na pytania dotyczące odpowiedzialności programistów za rozwiązywanie obaw związanych z nadużyciami otwartych modeli niższego szczebla i sposobem zgłaszania obaw, ale zwrócił uwagę na narzędzia Llama Protection firmy dla programistów Llama oraz przewodnik Meta Llama Responsible Use Guide firmy.
Ram Shankar Siva Kumar, lider Microsoft AI Red Team, powiedział w e-mailu, że Microsoft uważa, że otwarte modele "odgrywają ważną rolę" w różnych obszarach, ale "jednocześnie zdajemy sobie sprawę, że otwarte modele, jak wszystkie technologie transformacyjne, mogą być nadużywane przez przeciwników, jeśli zostaną wydane bez odpowiednich zabezpieczeń".
Microsoft przeprowadza oceny przed wydaniem, w tym procesy oceny "ryzyka dla scenariuszy narażonych na internet, hostowanych samodzielnie i wywoływania narzędzi, gdzie nadużycia mogą być wysokie" – powiedział. Firma monitoruje również pojawiające się zagrożenia i wzorce nadużyć. "Ostatecznie odpowiedzialne otwarte innowacje wymagają wspólnego zaangażowania twórców, wdrażających, badaczy i zespołów bezpieczeństwa".
Ollama nie odpowiedziała na prośbę o komentarz. Google należące do Alphabet i Anthropic nie odpowiedziały na pytania. – Rappler.com


