„LLMs (…) stwarzają możliwości sporządzenia w relatywnie krótkim czasie wielu komunikatów dostosowanych do różnych odbiorców. Inne argumenty oraz inne treści organizacja terrorystyczna będzie kierowała do 18-latków z paryskich przedmieść, inne do aktywistów walczących o prawo do noszenia muzułmańskich zasłon twarzy w miejscach publicznych, jeszcze inne do osób, które właśnie wyszły z zakładu karnego i szukają swojego miejsca w społeczeństwie.”
„Duże modele językowe mogą być, i często są, używane do moderacji treści, wykrywania dezinformacji, phishingu oraz do działań z zakresu inżynierii społecznej. (…) mogą pomóc m. in. w wykrywaniu przestępstw przez opisy wideo, w krytyce produktów analitycznych, w zakłócaniu działalności telemarketingowej, w dostarczaniu odmiennych punktów widzenia.”
„Podstawowym sposobem przeciwdziałania szkodom wynikającym z nadużycia LLMs jest edukacja, zwłaszcza dzieci i młodych, na temat zalet i wad tych modeli. Będą one stałym elementem rzeczywistości i pomijanie w procesie edukacji wiedzy na ten temat jest po prostu niemożliwe. Edukatorzy powinni być wyposażeni w narzędzia do uczenia odpowiedzialnego korzystania z LLMs. Istotne jest również wprowadzenie do programu nauczania fact-checkingu, aby uczniowie nabywali umiejętność weryfikacji informacji i krytycznego myślenia.”
Duże modele językowe mogą wykorzystywać terroryści, przestępcy czy państwa prowadzące wojnę hybrydową, dlatego zarówno służby państwowe, jak i system edukacji powinny korzystać z możliwości oferowanych przez AI.
Polecamy artykuł Julii Puczyńskiej, Marcina Podhajskiego (oboje z IDEAS NCBR), Karoliny Wojtasik (Polskie Towarzystwo Bezpieczeństwa Narodowego) i Tomasza Michalaka (IDEAS NCBR, lider zespołu „AI dla bezpieczeństwa”) w czasopiśmie ABW „Terroryzm. Studia, analizy, prewencja”, przeznaczony zwłaszcza dla czytelników nie będących ekspertami. Artykuł można pobrać tutaj.