W ostatnich latach w mediach często mówi o „renesansie” sztucznej inteligencji. Ma to związek nie tyle z rewolucją w nauce, w której badania nad samouczącymi się algorytmami (w dyscyplinach takich jak matematyka, fizyka, informatyka czy logika formalna) trwają od dekad, co z nowymi, ekscytującymi zastosowaniami nowatorskich technologii w postaci opartych na #SI produktów i usług.
Postępy techniczne niekoniecznie wiążą się z lepszym rozumieniem tego, w jaki sposób sztuczna inteligencja faktycznie działa. Korzystanie z autonomicznych pojazdów, precyzyjnych robotów przemysłowych czy wirtualnych asystentów łudząco przypominających ludzi nie wymaga przecież od użytkowników poznania szczegółów tego, w jaki sposób podejmują one decyzje. Dla klientów prostota, przejrzystość i wygoda ze zrozumiałych względów są ważniejsze, niż dogłębne zrozumienie jak działa dane urządzenie czy program.
Między innymi z tego powodu osoby niezajmujące się zawodowo algorytmiką mogą nie wiedzieć, że historia badań nad #SI obok przykładów udanych realizacji pełna jest ślepych zaułków, błędów czy porażek. Poniżej prezentujemy 7 przykładów, w których rozwiązania oparte na #SI nie przyniosły rezultatów, na które liczyli ich twórcy.
- Rozpoznawanie obrazu
W 2018 roku okazało się, że SI nadal słabo radzi sobie z prostymi przekształceniami geometrycznymi na obiektach. Weźmy pod lupę autobus szkolny. SI rozpozna go na zdjęciu, kiedy stoi na czterech kołach, jednak w momencie, w którym autobus będzie odwrócony, na przykład w wyniku kolizji przewróci się na bok, SI może niesłusznie uznać go za kompletnie inny obiekt. Okazuje się, że na tym etapie rozwoju SI, przeciętny 3-latek posiada większe umiejętności w zakresie wyobraźni przestrzennej, a dokładniej rotowania obiektów w myślach, niż rozbudowane systemy sztucznej inteligencji dysponujące teraflopami mocy obliczeniowej i terabajtami danych. Wynika to z faktu, że sztuczna inteligencja rozpozna obraz, który już widziała, ale łatwo może się pomylić skonfrontowana z nowym przykładem. Algorytmom udało się również wielokrotnie sklasyfikować konia jako żabę, na podstawie jednego zmienionego na zdjęciu piksela. Jeśli przeniesiemy ten przykład na używane w diagnostyce medycznej klasyfikowanie przez SI zmian nowotworowych, to zobaczymy, z jak poważnym wyzwaniem mamy do czynienia. Ostatnimi czasy, naukowcy podejmują próby katologowania tak zwanych antagonistycznych („adversarial”) danych – małych zmian czy szumów, które potrafią kompletnie zmylić wytrenowane algorytmy. Jedno z badań pokazało, że odpowiednie umieszczenie małych naklejek na znakach stopu, pozwalało zmylić popularny program computer vision i sprawić, że rozpoznawał je jako ograniczenia prędkości. W innym badaniu drobna zmiana we wzorze skorupy figurki żółwia wydrukowanej na drukarce 3D, sprawiła że był on klasyfikowany przez program jako broń palna. No cóż, jak się okazuje nie można wymagać od algorytmu, aby samodzielnie wywnioskował, że karabiny nie posiadają czterech kończyn i skorup.
- Zniekształcenia poznawcze
Prostota dedukcji algorytmów SI charakteryzuje się przywiązaniem do utartych schematów wynikających z danych, którymi “karmione” są algorytmy. Dla porównania, ludzie cechują się elastycznością rozumowania i potrafią myśleć krytycznie, co pozwala im uniknąć niektórych błędów lub odpowiednio zareagować w odpowiedzi na dostrzeżoną nieprawidłowość. Sztuczna inteligencja pod względem mechanizmów poznawczych bardzo się od nas różni. Wynika to na ogół z tego, że rezultaty działania SI zależą przede wszystkim od zbiorów danych, na których jest trenowana. Z tego powodu mogliśmy się spotkać m.in. z opartym na SI systemowym rasizmem dotyczącym systemów określających zdolność kredytową i wysokość składek zdrowotnych w USA. Problem wyeliminowania uprzedzeń algorytmów nie jest jeszcze w pełni rozwiązany i być może nigdy nie będą one w 100% bezstronne. W konsekwencji, firmy z sektora mediów i komunikacji używające algorytmów SI, które zmagają się z tym problemem na masową skalę (np. platformy społecznościowe) muszą korzystać z dużej liczby tzw. „czyścicieli” („cleaners”) internetu czyli osób, które ręcznie przeglądają, akceptują i moderują publikowane w sieci treści.
- SI zapomina
Ciekawym przykładem wyzwania, przed którym wciąż stoi uczenie maszynowe jest kwestia uczenia się na błędach. Obecnie, ze względu na ograniczone moce obliczeniowe procesorów sztuczna inteligencja ma tendencję do zapominania tego, czego już się nauczyła. Gdy kilka lat temu w internecie popularne stały się fałszywe profile osób publicznych, naukowcy postanowili stworzyć rozwiązanie, które umożliwi sprawdzenie czy postać uwieczniona na danym obrazie (np. zdjęciu profilowym) jest prawdziwa czy sfałszowana. W rezultacie udało się wytrenować modele rozpoznające wspomniane falsyfikaty. Niestety, gdy deepfake’i zaczęły powstawać w oparciu o nowe, nieznane wcześniej algorytmy, dotrenowanie modeli służących ich rozpoznawaniu sprawiło, że „zapomniały” one jak rozpoznawać te uprzednio stosowane. Oznacza to, że w przypadku autonomicznie generowanych wizerunków skazani jesteśmy póki co na “wyścig zbrojeń” między twórcami programów oraz osobami, które tworzą systemy detekcji sfałszowanych obrazów.