Przejdź do treści Wyszukiwarka
29.04.2024
„Dostępność i niskie koszty LLMs mogą radykalnie zmienić charakter oszustw z zakresu inżynierii społecznej. Dotychczas za najdroższe ogniwo operacji byli uznawani pracownicy, teraz jednak oszuści mogą zautomatyzować większość ich pracy, tworząc chatboty, generując i tłumacząc wiadomości (…).”

„LLMs (…) stwarzają możliwości sporządzenia w relatywnie krótkim czasie wielu komunikatów dostosowanych do różnych odbiorców. Inne argumenty oraz inne treści organizacja terrorystyczna będzie kierowała do 18-latków z paryskich przedmieść, inne do aktywistów walczących o prawo do noszenia muzułmańskich zasłon twarzy w miejscach publicznych, jeszcze inne do osób, które właśnie wyszły z zakładu karnego i szukają swojego miejsca w społeczeństwie.”

„Duże modele językowe mogą być, i często są, używane do moderacji treści, wykrywania dezinformacji, phishingu oraz do działań z zakresu inżynierii społecznej. (…) mogą pomóc m. in. w wykrywaniu przestępstw przez opisy wideo, w krytyce produktów analitycznych, w zakłócaniu działalności telemarketingowej, w dostarczaniu odmiennych punktów widzenia.”

„Podstawowym sposobem przeciwdziałania szkodom wynikającym z nadużycia LLMs jest edukacja, zwłaszcza dzieci i młodych, na temat zalet i wad tych modeli. Będą one stałym elementem rzeczywistości i pomijanie w procesie edukacji wiedzy na ten temat jest po prostu niemożliwe. Edukatorzy powinni być wyposażeni w narzędzia do uczenia odpowiedzialnego korzystania z LLMs. Istotne jest również wprowadzenie do programu nauczania fact-checkingu, aby uczniowie nabywali umiejętność weryfikacji informacji i krytycznego myślenia.”

Duże modele językowe mogą wykorzystywać terroryści, przestępcy czy państwa prowadzące wojnę hybrydową, dlatego zarówno służby państwowe, jak i system edukacji powinny korzystać z możliwości oferowanych przez AI.

Polecamy artykuł Julii Puczyńskiej, Marcina Podhajskiego (oboje z IDEAS NCBR), Karoliny Wojtasik (Polskie Towarzystwo Bezpieczeństwa Narodowego) i Tomasza Michalaka (IDEAS NCBR, lider zespołu „AI dla bezpieczeństwa”) w czasopiśmie ABW „Terroryzm. Studia, analizy, prewencja”, przeznaczony zwłaszcza dla czytelników nie będących ekspertami. Artykuł można pobrać tutaj.

Polecane aktualności

29.04.2024
Duże modele językowe i możliwości ich wykorzystania w terroryzmie dżihadystycznym i przestępczości
12.03.2024
Czy sztuczna inteligencja pomoże walczyć z deepfake?
20.02.2024
Potrzebujemy, aby innowacje jak najszybciej trafiały na rynek