– Kiedy wchodzimy do supermarketu z elektroniką, oznaczenia informują nas o sprawności energetycznej pralki, lodówki czy zmywarki. Mamy audyty energetyczne budynków. Takich etykiet nie ma na modelach językowych. Jako użytkownicy nie wiemy, jaki wpływ na środowisko ma to, że korzystamy z ChatGPT czy Copilot.
– Modele sztucznej inteligencji trzeba ciągle trenować od nowa. Część danych się powtarza, inne nie. Na przykład nie było wyborów parlamentarnych we Francji w 2023 roku. Wyniki wyborów muszą być włączone do modelu poprzez algorytmy uczenia ze wzmocnieniem albo modele muszą być ponownie wytrenowane. (…) Trzeba wyemitować dziesiątki tysięcy ton dwutlenku węgla, żeby chatbot nauczył się używać emotikonek.
– Próbujemy w Polsce budować nasze własne modele, m. in. modele językowe dla języka polskiego. IDEAS NCBR stara się, by w Polsce choć w części pozostały wiedza i kompetencje. Powinniśmy skupić się na długofalowej edukacji ludzi, którzy będą znać się na sztucznej inteligencji. (…) Jak możemy oczekiwać od społeczeństwa, że będzie znało zagrożenia i korzyści związane z rozwojem sztucznej inteligencji, jeśli – jak wynika z raportu opublikowanego ostatnio przez IDEAS NCBR i OPI PIB – tylko kilkaset osób obroniło doktoraty z dziedziny AI w ostatnich latach? To bardzo małe liczby, biorąc pod uwagę rozmiar Polski.
Polecamy rozmowę “Obserwatora Finansowego” z dr. hab. Tomaszem Trzcińskim, liderem grupy badawczej „Uczenie maszynowe zero-waste w wizji komputerowej” w IDEAS NCBR.