Przejdź do treści Wyszukiwarka
19.04.2023

W marcu OpenAI udostępniło nową wersję swojego modelu językowego – GPT-4. Pod koniec ubiegłego roku oparty na poprzedniej wersji (3.5) ChatGPT w krótkim czasie stał się najpopularniejszą aplikacją opartą na sztucznej inteligencji . Dlatego z jego nową odsłoną wiązano duże nadzieje. Twórcy modelu ujawnili, że pracujący na niej chatbot rewelacyjnie zdaje egzamin prawniczy. Co jednak nowe możliwości GPT4 oznaczają dla zwykłego użytkownika?

Piotr Krzywicki, badacz w IDEAS NCBR wskazuje na trzy nowe cechy GPT-4, dzięki którym jeszcze więcej osób zainteresuje się rozwiązaniami od OpenAI.

 – Przede wszystkim w wersji GPT-4 w porównaniu do poprzednich modeli zwiększono długość kontekstu, który chat jest w stanie jednorazowo przetworzyć: z kilku akapitów do naprawdę dużych bloków tekstu. Wprowadzić możemy całe artykuły, dokumentację czy książki i poprosić np. o streszczenie tekstu, czy znalezienie w nim odpowiedzi na zadane pytania. To szczególnie ważne w świetle najnowszych doniesień o pojawieniu się pluginów do ChatGPT pozwalających mu łatwiej korzystać z zewnętrznych narzędzi i treści. 

Po drugie, wprowadzono możliwość dopracowywania zadanego promptu, czyli tekstu sterującego stylem konwersacji. Pozwoli to na tworzenie dedykowanych zachowań modelu. Dużo łatwiej będzie tworzyć własne narzędzia i produkty z użyciem GPT-4, takie jak np. osobisty doradca podatkowy, nauczyciel, konsultant, sprzedawca czy rekruter.

I wreszcie wielomodalność, czyli w tym wypadku zdolność do analizowania już nie tylko tekstu, ale również obrazów. Widzieliśmy podczas prezentacji GPT-4 z Gregiem Brockmanem, jak szkic prostej strony internetowej na kartce papieru został przez model zamieniony nawet nie w opis strony, co od razu w kod potrzebny do jej uruchomienia.

Potencjalnie powinna ona pozwolić na większe zastosowanie AI w zadaniach z życia codziennego, dla których najbardziej intuicyjnym kanałem wejścia jest obraz, np. w zadaniach robotycznych. Do tej pory stosowane w takim ustawieniu były zewnętrzne modele wizyjne, do których model językowy mógł się odwoływać. Pełnię możliwości tej funkcji poznamy zapewne, dopiero gdy pojawi się ogólnodostępna pełna wersja chatu i – tak jak to było z wersją GPT-3.5 – miliony ludzi zaczną z nią eksperymentować, a następnie chwalić się w sieci uzyskanymi efektami – tłumaczy Piotr Krzywicki

Piotr, w ramach badań w IDEAS NCBR i na Uniwersytecie Warszawskim, zajmuje się zastosowaniami najnowszych metod uczenia maszynowego do zadań z dziedziny robotyki. W swojej pracy szczególnie skupia się na zadaniach manipulacji i podnoszenia przedmiotów codziennego użytku.



Polecane aktualności

09.07.2024
Science czy fiction? Jak AI zmienia naukę | Aleksander Mądry, Andrzej Dragan, Piotr Sankowski
05.07.2024
Użytkownicy nie wiedzą, jaki wpływ na środowisko mają modele językowe
28.06.2024
Stypendium w projekcie SONATA 18