Duże modele językowe, lub LLM to systemy przetwarzania języka naturalnego które są w stanie przetwarzać oraz generować tekst. Jednym z najbardziej znanych tego typu modeli jest GPT-3. Takie modele mogą odpowiadać na skomplikowane pytania emulując proces myślowy jednak ich trenowanie wymaga znacznej ilości danych treningowych.
Badacze Googla zauważyli że podczas gdy modele LLM wymagają znacznych zasobów podczas trenowania, ludzie mogą doskonalić swoje umiejętności rozumowania również na podstawie wewnętrznego dialogu bez dodatkowych walidacji z zewnątrz. Opracowali oni model który może z wysoką pewnością, udzielać odpowiedzi, na pytania dla których odpowiedź nie była ujęta w treningu. Sieć bazuje, podobnie jak człowiek, na racjonalnym rozumowaniu przypominającym łańcuch myśli. Na podstawie tych odpowiedzi model doskonali swoje możliwości trenując się na tak wygenerowanej odpowiedzi.
Badania wykazały znaczący poprawę zdolności rozumowania. Model Googla, zawierający 540B parametrów uzyskał 5 do 10% lepsze wyniki w sześciu na osiem wieloetapowych testach rozumowania. Oznacza to że modele których używamy dziś mogą zostać znacząco ulepszone bez potrzeby wprowadzania dodatkowych danych a znaczącą poprawę można uzyskać relatywnie niewielkim kosztem. Biorąc pod uwagę powyższe badania i wiele innych innowacyjnych publikacji które ukazały w tym roku możemy się spodziewać znaczącej poprawy precyzji najnowszych generacji modeli LLN.
Badanie można znaleźć na stronie https://arxiv.org/abs/2210.11610