Przejdź do treści Wyszukiwarka
29.04.2024
„Dostępność i niskie koszty LLMs mogą radykalnie zmienić charakter oszustw z zakresu inżynierii społecznej. Dotychczas za najdroższe ogniwo operacji byli uznawani pracownicy, teraz jednak oszuści mogą zautomatyzować większość ich pracy, tworząc chatboty, generując i tłumacząc wiadomości (…).”

„LLMs (…) stwarzają możliwości sporządzenia w relatywnie krótkim czasie wielu komunikatów dostosowanych do różnych odbiorców. Inne argumenty oraz inne treści organizacja terrorystyczna będzie kierowała do 18-latków z paryskich przedmieść, inne do aktywistów walczących o prawo do noszenia muzułmańskich zasłon twarzy w miejscach publicznych, jeszcze inne do osób, które właśnie wyszły z zakładu karnego i szukają swojego miejsca w społeczeństwie.”

„Duże modele językowe mogą być, i często są, używane do moderacji treści, wykrywania dezinformacji, phishingu oraz do działań z zakresu inżynierii społecznej. (…) mogą pomóc m. in. w wykrywaniu przestępstw przez opisy wideo, w krytyce produktów analitycznych, w zakłócaniu działalności telemarketingowej, w dostarczaniu odmiennych punktów widzenia.”

„Podstawowym sposobem przeciwdziałania szkodom wynikającym z nadużycia LLMs jest edukacja, zwłaszcza dzieci i młodych, na temat zalet i wad tych modeli. Będą one stałym elementem rzeczywistości i pomijanie w procesie edukacji wiedzy na ten temat jest po prostu niemożliwe. Edukatorzy powinni być wyposażeni w narzędzia do uczenia odpowiedzialnego korzystania z LLMs. Istotne jest również wprowadzenie do programu nauczania fact-checkingu, aby uczniowie nabywali umiejętność weryfikacji informacji i krytycznego myślenia.”

Duże modele językowe mogą wykorzystywać terroryści, przestępcy czy państwa prowadzące wojnę hybrydową, dlatego zarówno służby państwowe, jak i system edukacji powinny korzystać z możliwości oferowanych przez AI.

Polecamy artykuł Julii Puczyńskiej, Marcina Podhajskiego (oboje z IDEAS NCBR), Karoliny Wojtasik (Polskie Towarzystwo Bezpieczeństwa Narodowego) i Tomasza Michalaka (IDEAS NCBR, lider zespołu „AI dla bezpieczeństwa”) w czasopiśmie ABW „Terroryzm. Studia, analizy, prewencja”, przeznaczony zwłaszcza dla czytelników nie będących ekspertami. Artykuł można pobrać tutaj.

Polecane aktualności

11.10.2024
IDEAHACK 2024
11.10.2024
Energożerna AI. Czy zrównoważony rozwój sztucznej inteligencji jest możliwy? Nowy odcinek podcastu
04.10.2024
6+1 posterów IDEAS NCBR na ECCV 2024