Przejdź do treści

Opublikowano: 04.05.2023 09:04

Chcemy dogonić mózg – rozmowa z prof. Andrzejem Strójwąsem

Prof. Andrzej Strójwąs to światowej sławy specjalista w obszarze układów scalonych. 24 kwietnia 2023 r. otrzymał tytuł doktora honoris causa Politechniki Warszawskiej.

O Internecie wszystkiego, sztucznej inteligencji, ich symbiozie z najnowszymi technologiami, a także próbie dogonienia ludzkiego mózgu rozmawiamy z prof. Andrzejem Strójwąsem, doktorem honoris causa Politechniki Warszawskiej.

Panie Profesorze, mówi się, że przeszliśmy od Internetu rzeczy do Internetu wszystkiego? Jaka jest różnica pomiędzy tymi systemami?

Internet rzeczy polegał na tym, że głównie komunikowaliśmy się z obiektami, nazwijmy je agentami, a informacja była przesyłana w jedną stronę i z powrotem. Jej przetwarzanie następowało w chmurze, centralnie. Działało to dobrze, ale pewnym ograniczeniem było to, że te urządzenia peryferyjne nie miały dostatecznie dużych mocy obliczeniowych.

W Internecie wszystkiego przetwarzanie jest bardziej rozproszone. Staramy się zrobić wszystko to, co jest możliwe na urządzeniach peryferyjnych i dopiero kiedy potrzebujemy naprawdę dużej mocy obliczeniowej, korzystamy z chmury, z data center. To bardzo istotna zmiana.

Drugą technologią, która odgrywa coraz większą rolę w naszym życiu i ma największy potencjał do przekształcania przyszłości jest sztuczna inteligencja. Co Pan Profesor sądzi na temat jej wykorzystania i znaczenia?

Sztuczna inteligencja nie jest pojęciem nowym. Nazwa zrodziła się podczas konferencji w Dartmouth w 1956 r., ale pojęcia, główne koncepty sztucznej inteligencji, zaczęły się w starożytnej Grecji. Potem przez wiele lat pisarze science fiction byli twórcami, wydawałoby się, zwariowanych pomysłów. Wiele takich koncepcji wprowadzili między innymi Stanisław Lem i Issac Asimov.

Jaka jest historia ewolucji sztucznej inteligencji? Przez długi czas występowały jej specyficzne zastosowania, np. w autonomicznych pojazdach, po raz pierwszy stworzonych na Carnegie Mellon University – uczelni, na której pracowałem. Pojawiły się też systemy eksperckie. Głośno było o komputerze Deep Blue, który wygrał partię szachów z Garrim Kasparowem i później, kiedy superkomputer Watson pokonał dwóch mistrzów amerykańskiego turnieju „Jeopardy”.

Po okresie ekscytacji tą technologią, nadeszła tak zwana zima sztucznej inteligencji. Nie można było spełnić ogromnych oczekiwań, gdyż nie było wówczas dwóch rzeczy: danych, które można by w sposób masywny przesyłać, oraz mocy obliczeniowych.

Dopiero przez ostatnie 15 lat moce obliczeniowe, a także możliwość bardzo szybkiej komunikacji na przykład z systemami 5G, pozwoliły na to, że sztuczna inteligencja może być skutecznie wykorzystywana.

Sztuczna inteligencja naprawdę jest sztuczna i wcale nie jest taka inteligentna (śmiech). To są systemy samouczenia. To nie jest tak, że istnieje jakiś magiczny algorytm. On się uczy na podstawie ogromnego dopływu danych, aby pewne rzeczy, specyficzne aplikacje można było zaimplementować. Dlaczego Deep Blue wygrał z Kasparowem? Był w stanie w czasie rzeczywistym przewidzieć tyle następnych kroków, że znalazł niestandardowe rozwiązania, z którymi Kasparow się wcześniej nie spotkał.

Jakie są rodzaje sztucznej inteligencji?

Jest machine learning, czyli sztuczna inteligencja podstawowa – uczenie się maszyn bez ingerencji człowieka. Jest deep learning, który polega na tym, że stosuje się sieci neuronowe dla dużych zbiorów danych i wreszcie to, co ostatnio zrobiło furorę, czyli generatywna sztuczna inteligencja.

Najsłynniejszym programem jest chat GPT, który napisze za nas wypracowanie, zda egzamin lekarski, prawniczy, odrobi pracę domową z matematyki, napisze wiersz. Wygląda to tak, jakby sam człowiek się komunikował w naturalnym języku i można by oszukać test Alana Turinga, który polegał na tym, że nie da się odróżnić komunikacji z maszyną od tej z człowiekiem. A tak naprawdę nie jest.

We wcześniejszej wersji GPT potrzeba było 200 mld parametrów, a czas uczenia się ogromnych maszyn to rząd 2 miesięcy. Nad tym wszystkim panuje człowiek. To nie jest tak, że nagle te programy zaczną same myśleć, autonomicznie wykonywać czynności.  W programie „60 Minutes”, emitowanym w USA, pokazywano roboty, które grały w piłkę nożną bez trenera. Pokazano im jednak awatary piłkarzy z bardzo wielu meczów, dzięki czemu nauczyły się jak kiwać, strzelać gola itd.

Co wpłynęło na obecne możliwości Internetu wszystkiego i sztucznej inteligencji i bez czego dalszy rozwój nie będzie możliwy?

Potrzebna jest do tego infrastruktura, czyli dostępność danych, szybka komunikacja i ogromne moce obliczeniowe. Jeśli chodzi o komunikację, telekomunikację w szybkich sieciach i w mocach obliczeniowych, postęp jest ogromny.

Miniaturyzujemy wszystkie przyrządy. Kiedyś twierdzono, że nie da się ich zmniejszyć do mikrona. Teraz tworzymy przyrządy nawet o rozmiarach 10 nanometrów. Jak daleko możemy pójść? Jeśli będziemy używać nanorurek węglowych, to zejdziemy do 1 nanometra. To już jest poziom pojedynczych molekuł – granica, której nie przeskoczymy. Co możemy zrobić?

Mówimy o skalowaniu dwuwymiarowym, chociaż już 10 lat temu przeszliśmy na przyrządy trójwymiarowe, a mianowicie FinFETs (ang. fin field-effect transistor). To była jednak ciągle głównie miniaturyzacja w dwóch wymiarach, a w integracji trójwymiarowej budujemy w górę chiplet na chiplet. Takie „wysokościowce” mają tę zaletę, że w kierunku pionowym odległości są znacznie bliższe niż jeżeli zminiaturyzowane przyrządy pakujemy do chipa, który może mieć rozmiary np. 3 na 2,5 cm. Pionowo możemy umieścić tyle tych warstw, że to nie będzie skalowane w następnej generacji o 50%, tylko rzędu 10 i więcej. To jest właśnie ten trzeci wymiar. 

Oprócz tego istotne jest massively parallel computing, czyli masywne równoległe przetwarzanie. Nie da się już zwiększyć szybkości zegara ze względu na ogromny pobór mocy, więc zamiast tego stworzyliśmy  algorytmy, które będą wykorzystywały setki czy tysiące rdzeni i pamięci, które są blisko siebie. Tak naprawdę w najbardziej popularnych zastosowaniach, mniej więcej 90% mocy jest zużywane na komunikację między procesorem a pamięcią, a tylko 10% to obliczenia. Skrócenie odległości między procesorami a pamięciami daje nam bardzo dużą możliwość zwiększenia wydajności działań.

Panie Profesorze, po co to wszystko?

Co staramy się zrobić? Staramy się dogonić ludzki mózg. Jeżeli chodzi o złożoność systemów, nie jesteśmy wcale tak daleko. Na czym polega ta różnica? My potrzebujemy 20 watów na to, aby w sposób inteligentny podejmować decyzje, myśleć itd. Systemy potrzebują 500 megawatów, a średnia moc generowana przez elektrownię jądrową to 1 gigawat. Jeśli chodzi o pobór energii, nigdy nie dogonimy ludzkiego mózgu.

Staramy się to zrobić wykorzystując superkomputery, całe sieci, systemy, które są w centrach danych. Do tego potrzebna jest ogromna energia. Cała idea polega na tym, że aby osiągnąć te moce obliczeniowe, potrzebne jest masywne równoległe przetwarzanie, o którym wspominałem.

Jakie są bariery, co może stanąć na drodze do rozwoju?

Główne bariery to koszt i pobór mocy. Rozwój musi być skierowany na większą wydajność energetyczną. Z kosztem jest tak, że nie do wszystkich aplikacji niezbędna jest „elektrownia jądrowa”. Wykorzystujmy je zgodnie z potrzebami. Tutaj pojawiła się bardzo dobra symbioza między przemysłem półprzewodnikowym a sztuczną inteligencją – mariaż technologii i wymogów sztucznej inteligencji, która potrzebuje procesorów.

Czy możliwy jest bunt maszyn, czy sztuczna inteligencja może w jakimś stopniu zagrażać człowiekowi?

Zupełnie nie zgadzam się z wizjami zniszczenia naszej cywilizacji przez roboty. Nie oznacza to jednak, że w nieodpowiednich rękach sztuczna inteligencja nie może być wykorzystana do złych celów. Można stworzyć programy, które powstrzymają wszystkie działania, zlikwidują wszystkie systemy energetyczne itd., ale nie zrobi tego sztuczna inteligencja, tylko ludzie używający tych techologii.

Nie wierzę, że komputery same obrócą się przeciwko człowiekowi. Na świecie dzieją się straszne rzeczy – wojny, także o podłożu religijnym, giną ludzie, ale jest to efekt chorych ambicji jednostek. Sztuczna inteligencja może być wykorzystywana w pozytywny sposób i jest w stanie pomóc podejmować racjonalne, optymalne decyzje. Na tych zastosowaniach należy się skupić.

Dziękujemy za rozmowę.