Graph of Thoughts: Solving Elaborate Problems with Large Language Models
Przedstawiamy Graph of Thoughts (GoT): ramy koncepcyjne, które rozszerzają możliwości stosowania podpowiedzi w dużych modelach językowych (LLM) poza te oferowane przez podejścia takie jak Chain-of-Thought czy Tree of Thoughts (ToT). Kluczowym pomysłem i główną zaletą GoT jest możliwość modelowania informacji generowanych przez LLM jako dowolnego grafu, w którym jednostki informacji („myśli LLM”) stanowią wierzchołki, a krawędzie odpowiadają zależnościom między tymi wierzchołkami. Takie podejście pozwala na łączenie dowolnych myśli LLM w synergiczne wyniki, wydobywanie istoty całych sieci myśli lub ulepszanie myśli za pomocą pętli sprzężenia zwrotnego.
Pokazujemy, że GoT oferuje przewagę nad najnowocześniejszymi metodami w różnych zadaniach, na przykład zwiększając jakość sortowania o 62% w porównaniu z ToT, jednocześnie obniżając koszty o ponad 31%. Zapewniamy, że GoT jest rozszerzalny o nowe transformacje myśli, dzięki czemu może być wykorzystywany do tworzenia nowych schematów podpowiedzi. Praca ta przybliża sposób rozumowania LLM do myślenia ludzkiego lub mechanizmów działania mózgu, takich jak rekurencja, które również tworzą złożone sieci.
Materiał konferencyjny:
Proceedings of the AAAI Conference on Artificial Intelligence
Autorzy z PW:
Tomasz Lehmann
Dyscyplina:
Rok wydania: