Przejdź do treści Wyszukiwarka
14.06.2023
14 czerwca Parlament Europejski przyjął stosunkiem głosów 499 do 28 (przy 93 wstrzymujących się) AI Act – pierwszy zestaw regulacji związanych ze sztuczną inteligencją. Sprawę komentują prof. Tomasz Trzciński, lider grupy badawczej w IDEAS NCBR i dr Tomasz Michalak, lider zespołu badawczego w IDEAS NCBR.

Regulowanie rozpędzonego pociągu

– Unia Europejska zaczęła pracować nad ramami prawnymi dla sztucznej inteligencji już dwa lata temu, kiedy nie był to jeszcze tak głośny temat. Finałowy etap prac przypada już na czas przyspieszenia rozwoju AI, kiedy poważnie zainteresowały się nią media, politycy i biznes. Regulowanie „rozpędzonego pociągu” ma tę zaletę, że minimalizujemy ryzyko jego rozbicia, ale z drugiej strony będzie poruszał się wolniej niż konkurencyjne połączenia. Wydaje mi się, że kierunek jest dobry, ale ryzyko spowolnienia rozwoju AI w Europie jest znaczące i należy obie te kwestie brać pod uwagę przy wprowadzaniu ewentualnych regulacji – mówi prof. Tomasz Trzciński z IDEAS NCBR, lider grupy badawczej Zero-Waste machine learning in computer vision.

prof. Tomasz Trzciński

– Widać też, że UE nie zamierza uregulować wszystkiego raz na zawsze, bo chce powołać Europejski Urząd ds. Sztucznej Inteligencji na bieżąco śledzący rozwój tej technologii. Mam nadzieję że nie stanie się on „policją AI”, bo taka funkcja byłaby po prostu niemożliwa do zrealizowania – dostęp do modeli i danych jest zbyt rozproszony. Sensownym scenariuszem jest, by urząd sprawował rolę think tanku będącego ciałem doradczym dla rządów.

AI Act nie ograniczy badań naukowych?

– Unijne instytucje zapewniają, że regulacje zapisane w AI Act dotyczą tak naprawdę tylko komercyjnych zastosowań sztucznej inteligencji i nie ograniczają badań naukowych, więc Unia Europejska nie zostanie w tyle za USA czy Chinami. Jednak założenie, że to, co w badaniach, nie przenika do biznesu, jest dość ryzykowne. W praktyce przepływ ludzi i wiedzy pomiędzy tymi dwoma rezerwuarami jest znaczny i mocno wpływa na to, jak bardzo realne i stosowalne będą tego typu zabezpieczenia – komentuje Tomasz Trzciński.

– Pozytywny zaś jest fakt, że AI Act skupia się na rozwiązaniach, które uniemożliwiają stosowanie sztucznej inteligencji do zadań, których zazwyczaj się obawiamy, np. ingerowania w prywatność. Powinniśmy być szczególnie uważni na kwestie etyczne związane z danymi medycznymi, diagnozami czy profilowaniem osób w kontekście prawa. Ogólnie wszelkie zagadnienia związane z danymi osobowymi są dobrym wyróżnikiem potrzeby zmian w prawie. Mając dostęp do tych danych, powinniśmy mieć jasne ramy prawne, czego nie należy robić, podobnie jak dzieje się to w przypadku badań medycznych.

– Jednak nie spodziewałbym się, że dzięki samym przepisom wszyscy poczują się bezpiecznie ze sztuczną inteligencją. Użytkownicy ufają systemom, które są przewidywalne i których działanie rozumieją, a niekoniecznie tym, które są regulowane. Myślę, że w zakresie zaufania dużo więcej dobrego niż regulacje może przynieść interpretowalność AI, czyli rozwiązania z zakresu Explainable AI – dodaje Tomasz Trzciński.

Zmiany prawne a innowacje

AI Act komentuje także dr Tomasz Michalak, lider zespołu badawczego w IDEAS NCBR AI dla bezpieczeństwa.

– W przypadku każdej istotnej zmiany technologicznej pojawia się dylemat: czy lepiej poczekać, aż technologia się rozwinie przed jej regulacją, czy też regulować od samego początku, zanim osiągnie dojrzałość? Wprowadzanie regulacji dopiero w miarę rozwoju technologii umożliwia zwiększenie innowacyjności i elastyczności prowadzonych badań. Pozwala również na pełne wykorzystanie potencjału zawartego w rozwijanej technologii bez niepotrzebnych strat wynikających z pokonywania ograniczeń, co potencjalnie prowadzi do optymalizacji i zwiększenia efektywności podejmowanych działań. W rozwoju technologii pozostaje większa przestrzeń na kreatywność i łatwiej jest osiągnąć postępowe wyniki niż wtedy, gdy możliwości dalszego rozwoju są ściśle uregulowane – tłumaczy Tomasz Michalak.

dr Tomasz Michalak
dr Tomasz Michalak

– Z drugiej strony, regulowanie rozwoju AI od samego początku, nawet przed osiągnięciem pełnej dojrzałości tej technologii, ma swoje własne zalety. Pozwala z dużą odpowiedzialnością zidentyfikować potencjalne ryzyka związane z AI, jak również podejść do wyzwań natury etycznej w sposób proaktywny. Planowanie prac badawczych na wczesnym etapie rozwoju technologii we współpracy z legislatorami pozwala w bardziej celowy sposób wpłynąć na dostosowanie powstałych rozwiązań do  wartości i oczekiwań społeczeństwa. W rezultacie możliwe jest zapewnienie bezpieczeństwa, ochrony prywatności i odpowiedzialnego wykorzystania zasobów, co jest szczególnie istotne dla technologii o znaczącym wpływie na dobrobyt ludzki, a taką technologią jest właśnie AI.

– Niestety, znalezienie odpowiedniej równowagi między regulacją a innowacją jest dużym wyzwaniem. Wymaga ciągłego dialogu między decydentami, badaczami, przedsiębiorcami i społeczeństwem. Należy monitorować potencjalne ryzyka i korzyści wynikające z technologii, wybrać odpowiedni zakres regulacji i czas na ich wprowadzenie. Zatem dyskusje jakie się obecnie toczą w Unii Europejskiej, USA i na całym świecie są jak najbardziej na miejscu. Zważywszy na potencjalne ryzyka i wpływ AI na ludzkość, moim zdaniem, dmuchanie na zimne i regulacje są podejściem w tym przypadku właściwszym. Oczywiście, pytanie brzmi: jakie regulacje i komu służące?  – mówi lider zespołu badawczego w IDEAS NCBR.

– W kwestii Europejskiego Urzędu ds. Sztucznej Inteligencji i dyskusji, czy uczynić go  bardziej „policjantem”, czy ciałem doradczym, pojawia się kwestia: czy możliwe jest skuteczne regulowanie technologii, np. AI, bez żadnego mechanizmu egzekwowania? Ciekawym przykładem jest wczesna regulacja internetu. W początkowych dniach istnienia internetu, gdy była to technologia stosunkowo nowa, regulacje były bardzo ograniczone albo w ogóle nie istniały. Chodziło o wspieranie rozwoju, a nie narzucanie surowych mechanizmów egzekwowania. Wraz z upowszechnieniem dostępu do internetu wzrósł jego wpływ na różne obszary społeczeństwa. Rządy zaczęły wprowadzać bardziej rygorystyczne przepisy i mechanizmy ich egzekwowania, aby rozwiązać najważniejsze problemy: prywatność, prawo własności intelektualnej czy cyberbezpieczeństwo. Myślę, że osoby po 40-stce doskonale pamiętają, jak wyglądało przestrzeganie praw własności intelektualnej online 20 lat temu. Dlatego nie wierzę w koncepcję „policji AI” teraz. W przyszłości być może tak  – mówi Tomasz Michalak.

Regulacja AI jak regulacja lotnictwa

– Istnieją liczne przykłady technologii, do których wiele osób było najpierw nastawionych sceptycznie, ale dzięki regulacjom zyskały zaufanie społeczeństwa. Kiedy pojawiły się pierwsze samoloty, pilotów uważano za ryzykantów, a sam pomysł latania za fanaberię. Nie bez powodu ludzie nie mają skrzydeł, prawda? I faktycznie, samoloty w pierwszych latach swojego istnienia nie były oczywiście tak bezpieczne jak obecnie. Poprzez utworzenie organów regulacyjnych, wprowadzenie standardów bezpieczeństwa i dzięki postępowi technologicznemu, lotnictwo stopniowo zdobywało zaufanie społeczeństw. Dziś jest szeroko akceptowanym i regulowanym środkiem transportu. Na chwilę obecną wydaje mi się, że jest to droga, która będziemy musieli przejść z AI. Od wielkich obaw, poprzez regulacje, po oswojenie się i akceptację.

– Ale regulacje to także ryzyko, o którym mówiliśmy już wcześniej, tj. potencjalne zduszenie innowacji. Nie wiemy, czy badania, które na chwile obecną wydają nam się ryzykowne, nie okażą się przełomowe w zupełnie innym miejscu. Myślę jednak, że możliwe jest wymaganie pewnych podstawowych zasad sprawiedliwości od każdego rodzaju AI, np. zakaz dyskryminacji ze względu na kolor skóry czy wierzenia religijne. Można te wymagania zapisać w postaci prostych aksjomatów. Np. decyzja systemu opartego AI wobec osoby o pochodzeniu azjatyckim powinna być taka sama jak wobec osoby czarnoskórej, jeśli kolor skóry jest jedyną istotną zmienną odróżniającą te dwie osoby – dodaje lider zespołu badawczego w IDEAS NCBR.

– Oczywiście, istnieją obszary badawcze w AI, którym z zasady powinniśmy się bardziej przyglądać niż innym. Np. AI w ochronie zdrowia wymaga większej uwagi regulacyjnej niż w zastosowaniach przemysłowych do wykrywania ubytków w produktach na taśmie fabrycznej. Innym obszarem wymagającym uwagi jest zastosowanie AI w obszarze bezpieczeństwa i prewencji. Co ważne, te obszary już są bardzo mocno regulowane. Teoretycznie moglibyśmy rozciągnąć istniejące już regulacje na technologie AI  – mówi Tomasz Michalak.



Polecane aktualności

20.06.2024
Krzysztof Walas został członkiem Zarządu Adra
19.06.2024
Dyrektor biura
17.06.2024
Krok po kroku – jak ludzie uczą roboty chodzić?