22 lutego, 2025

Google DeepMind opracowuje nowoczesne i efektywne algorytmy uczenia ze wzmocnieniem dzięki ulepszonym modelom Transformer

Nowe podejście do uczenia przez wzmacnianie – przełom w modelach MBRL

Uczenie przez wzmacnianie (Reinforcement Learning, RL) to technika, w której algorytmy uczą się, jak maksymalizować nagrody poprzez interakcję ze środowiskiem. W podejściu online RL proces ten polega na podejmowaniu decyzji, zbieraniu obserwacji oraz aktualizowaniu polityki działania na podstawie zebranych doświadczeń. Istnieją dwie kluczowe odmiany tej metody: model-free RL (MFRL) oraz model-based RL (MBRL).

MFRL opiera się na bezpośrednim mapowaniu obserwacji na akcje, jednak wymaga ogromnych ilości danych, co czyni je kosztownym i czasochłonnym. MBRL natomiast wprowadza tzw. model świata (World Model, WM), który pozwala na planowanie działań w wyobrażonym środowisku, co znacząco poprawia efektywność prób i błędów.

Wyzwania i nowe podejście w MBRL

Metody MBRL różnią się sposobem wykorzystania modeli świata. Niektóre z nich stosują planowanie w tle (background planning), gdzie polityki są trenowane na danych wygenerowanych przez model, inne natomiast wykorzystują planowanie w czasie decyzji (decision-time planning), co pozwala na bardziej precyzyjne przewidywanie wyników w czasie rzeczywistym.

Jednym z najnowszych wyzwań w tej dziedzinie jest testowanie metod RL w bardziej wymagających środowiskach. Standardowe benchmarki, takie jak Atari-100k, często pozwalają algorytmom na zapamiętywanie zamiast rzeczywistego uogólniania wiedzy. Aby temu zaradzić, badacze wprowadzili Crafter – środowisko inspirowane Minecraftem, które wymaga głębokiej eksploracji i długofalowego planowania. Teraz, wersja JAX o nazwie Craftax-classic wprowadza proceduralnie generowane środowiska, częściową obserwowalność oraz system nagród o niskiej gęstości, co znacząco zwiększa złożoność zadania.

Przełomowe osiągnięcie badaczy Google DeepMind

Zespół badaczy z Google DeepMind zaprezentował nowe podejście do MBRL, które ustanawia rekord w środowisku Craftax-classic. Ich model osiągnął imponujący wynik 67,42% po 1 milionie kroków, przewyższając dotychczasowe najlepsze wyniki, w tym DreamerV3 (53,2%) oraz poziom osiągany przez ludzi (65,0%).

Kluczowe innowacje ich metody obejmują:

Dyna z rozgrzewką – połączenie rzeczywistych i wyobrażonych symulacji w celu zwiększenia efektywności uczenia.
Tokenizator najbliższego sąsiada (Nearest-Neighbor Tokenizer, NNT) – nowatorskie podejście do przetwarzania obrazów metodą podziału na fragmenty (patch-wise processing).
Blokowe wymuszanie nauczyciela (Block Teacher Forcing, BTF) – optymalizacja przewidywania tokenów, co znacząco poprawia jakość generowanych danych.

Te innowacje pozwoliły na znaczne zwiększenie efektywności próbkowania danych, co czyni to podejście jednym z najlepszych w dziedzinie oszczędnego uczenia przez wzmacnianie.

Rozbudowanie podstawowego modelu MFRL

W ramach badań ulepszono również podstawowy model MFRL poprzez zwiększenie jego rozmiaru oraz dodanie jednostek GRU (Gated Recurrent Unit), co podniosło skuteczność z 46,91% do 55,49%. Dodatkowo, opracowano metodę MBRL wykorzystującą model Transformer World Model (TWM) z kwantyzacją VQ-VAE, osiągającą wynik 31,93%.

Aby jeszcze bardziej zoptymalizować wydajność, zastosowano metodę opartą na Dyna do integracji rzeczywistych i wyobrażonych symulacji, co przyspieszyło proces uczenia. Co więcej, zastąpienie VQ-VAE nowym tokenizatorem NNT zwiększyło skuteczność modelu z 43,36% do 58,92%. Wyniki te pokazują, jak istotne jest łączenie mechanizmów pamięci, modeli bazujących na transformatorach oraz usprawnień w kodowaniu obserwacji.

Eksperymenty i wyniki

Badania przeprowadzono w środowisku Craftax-classic, wykorzystując 8 procesorów graficznych H100 i 1 milion kroków uczenia. Każda metoda zbierała trajektorie o długości 96 w 48 równoległych środowiskach. W przypadku metod MBRL generowano symulacje wyobrażone co 200 tysięcy kroków i aktualizowano je 500 razy.

Eksperymenty wykazały, że najlepszy agent (M5) osiągnął rekordowy wynik 67,42%. Dodatkowe badania ablacyjne potwierdziły znaczenie każdej wprowadzonej innowacji – Dyna, NNT, podziału na fragmenty oraz BTF. W porównaniu z istniejącymi metodami, nowa metoda MBRL osiągnęła najwyższą dotychczas skuteczność. Ponadto, testy w pełnej wersji Craftax wykazały zdolność modelu do generalizacji na bardziej wymagające środowiska.

Podsumowanie i przyszłe kierunki badań

Podsumowując, badanie wprowadza trzy kluczowe innowacje do agentów MBRL opartych na analizie obrazów i planowaniu w tle: Dyna z rozgrzewką, tokenizację najbliższego sąsiada oraz blokowe wymuszanie nauczyciela. Dzięki tym ulepszeniom nowy agent MBRL przewyższa dotychczasowe modele oraz poziom umiejętności ludzkich w benchmarku Craftax-classic.

Planowane dalsze badania obejmują:

– Eksplorację możliwości generalizacji poza środowisko Craftax.
– Priorytetyzację ponownego odtwarzania doświadczeń.
– Integrację metod RL działających poza polityką (off-policy).
– Udoskonalenie tokenizatora dla większych modeli wstępnie wytrenowanych, takich jak SAM i Dino-V2.
– Modyfikację polityki tak, aby akceptowała ukryte tokeny z nierekonstrukcyjnych modeli świata.

Te zmiany mogą doprowadzić do jeszcze bardziej zaawansowanych algorytmów RL, co w przyszłości może znaleźć zastosowanie w robotyce, grach oraz systemach autonomicznych.