Sztuczna inteligencja - duże modele językowe nie zmierzają w kierunku zrozumienia na poziomie człowieka
Wraz z pojawieniem się nowego typu systemów komputerowych, znanych jako Language Learning Machines (LLM), świat ludzkiej nauki i technologii stanął w obliczu nowych wyzwań i możliwości. Systemy maszynowego uczenia się wykazały zdumiewające zdolności, takie jak komponowanie tekstów w stylu różnych autorów, rozwiązywanie zagadek oraz rozumowanie kontekstowe.
Debata nad wpływem modeli językowych - sztucznej i ich możliwościami jest żywa, wywołując histerię wśród niektórych ekspertów (wywiad z profesorem Andrzejem Draganem na YouTube), którzy obawiają się, że maszyny te mogą prowadzić do wzrostu bezrobocia i zniszczenia cywilizacji.
Czy sztuczna inteligencja rozumie świat?
Mimo to, istnieją głosy twierdzące, że obawy te są przesadzone. Sednem dyskusji na ten temat jest pytanie, czy LLM-y faktycznie rozumieją świat, czy jedynie wydają się to robić?
Badania sugerują, że chociaż LLM mogą zdobywać wiedzę i wykazywać się pewnymi zdolnościami, wręcz cechami osobowości, ich zdolność do adaptacji do nowych sytuacji jest ograniczona w porównaniu z ludźmi.
Jak zatem rozumie sztuczna inteligencja?
Zrozumienie maszynowe może różnić się od ludzkiego, a sposób, w jaki uczą się maszyny, może wymagać rewizji klasycznych strategii uczenia się.
Pomimo tych wyzwań, potencjał dalszego rozwoju technologii jest ogromny, co rodzi pytania dotyczące przyszłości sztucznej inteligencji i jej miejsca w naszym społeczeństwie. Należy zadać pytanie: "Dlaczego duże modele językowe nie zmierzają w kierunku zrozumienia na poziomie ludzkim?"
Generatywna sztuczna inteligencja, pomimo swoich imponujących osiągnięć, napotyka wyzwania w stosowaniu nabytych umiejętności w nowych sytuacjach. Choć sieci neuronowe głębokiego uczenia (en. deep learning) zbliżyły komputery do ludzkich zdolności w rozpoznawaniu obrazów i przekształcaniu mowy na tekst, nadal istnieją ograniczenia. Te inteligentne komputery są podatne na oszustwa i wymagają szerokiego przeszkolenia w danej dziedzinie, co sprawia, że trudno jest im dostosować się do zróżnicowanych zadań.
Mimo postępów w specjalistycznych dziedzinach, takich jak rozpoznawanie obrazów, generatywna sztuczna inteligencja nadal nie dorównuje ludzkiej zdolności do elastycznego stosowania wiedzy w różnych kontekstach.
Co to jest deep learning?
Deep Learning (w języku polskim: głębokie uczenie maszynowe) to rodzaj sztucznej inteligencji, który modeluje wysokopoziomowe abstrakcje w danych poprzez używanie wielowarstwowych sieci neuronowych.
Głębokie uczenie się jest często stosowane do rozpoznawania wzorców w danych, takich jak obrazy, dźwięki czy teksty, i wykorzystywane w różnych zastosowaniach, takich jak rozpoznawanie mowy, przetwarzanie języka naturalnego, rozpoznawanie obrazów, przetwarzanie sygnałów i wiele innych.
W głębokim uczeniu maszynowym, dane wejściowe są przekazywane przez kilka warstw algorytmów, które wyodrębniają coraz bardziej abstrakcyjne cechy z danych.
Na przykład, w przypadku obrazów, pierwsza warstwa może wykrywać proste kształty, takie jak krawędzie, podczas gdy kolejne warstwy mogą wykrywać bardziej złożone cechy, takie jak kształty i tekstury. W ten sposób model staje się zdolny do nauki bardziej złożonych reprezentacji danych i dokonywania bardziej zaawansowanych predykcji lub klasyfikacji.
Głębokie uczenie się wykorzystuje zazwyczaj dużą ilość danych treningowych oraz potężne zasoby obliczeniowe, co umożliwia modelom uczenie się złożonych wzorców i tworzenie coraz bardziej skutecznych predykcji.
Jest to jedna z najważniejszych technik wykorzystywanych w dzisiejszych systemach sztucznej inteligencji i przyczyniła się do znacznego postępu w wielu dziedzinach, takich jak przetwarzanie języka naturalnego, rozpoznawanie obrazów czy dla samochodów autonomicznych.
Jakie są najnowsze wcielenia sztucznej inteligencji?
Poniższy materiał powstał na podstawie artykułu Toma Siegfrieda opublikowanego w ScienceNews.
Wypowiedź specjalisty od programowania Melanie Mitchell, ekspertki ds. sztucznej inteligencji w Instytucie Santa Fe w Nowym Meksyku:
„Wkroczyliśmy w nową erę sztucznej inteligencji” – „Wyszliśmy poza rewolucję głębokiego uczenia się z 2010 roku i wkroczyliśmy w erę generatywnej sztucznej inteligencji z lat 2020”.
Generacyjne systemy sztucznej inteligencji mogą wytwarzać rzeczy, które od dawna wydawały się bezpieczne dla ludzkich zdolności twórczych i kreatywności.
Systemy sztucznej inteligencji odpowiadają na pytania z umiejętnościami językowymi i ludzką wiedzą, potrafią pisać artykuły, wiersze i wydawać opinie prawne. SI potrafi tworzyć grafiki o jakości realistycznych zdjęć, a nawet tworzyć filmy wideo na temat wszelkiego rodzaju rzeczy, które opisujemy tekstowo.
Zapraszamy do zapoznania się z artykułem, który publikowaliśmy kilka dni temu: Sora zszokowała świat twórców. Jedno zdanie i film gotowy
Wiele z tych umiejętności sztucnzej inteligencji wynika z rozwoju modeli językowych, takich jak ChatGPT. Modele takie są bardzo duże i szkolą się na ogromnych ilościach danych. Wszystkim, co znajduje się w Internecie, łącznie z cyfrowymi kopiami książek! Taki duży model językowy może również odnosić się do ogromnej liczby danych, których można się „nauczyć” podczas czytania – nie tylko słów, ale także semantyki, symboli, wzorców, wyrażeń czy równań matematycznych.
Identyfikując wzorce łączenia elementów językowych, LLM-y przewidują, kolejność słów, tworzą zdania.
Jak działa LLM?
Zasadniczo LLM oblicza prawdopodobieństwo, jakie słowo powinno nastąpić po innym.
Modele (LLM) wykazują się zadziwiającymi zdolnościami, jak komponowanie tekstów - w różnym stylu, nawet charakterystycznym dla dowolnego autora. Modele językowe rozwiązują też zagadki z kontekstu treści!
Pojawienie się LLM wywołało masową histerię na świecie, ludzie obawiają się, żę mogą zwiększyć bezrobocie, zniszczyć cywilizację. Liczni eksperci twierdzą jednak, że takie obawy są, przynajmniej na razie, przesadzone.
Co sugerują badacze na temat sztucznej inteligencji?
Niektórzy badacze sugerują, że LLM potrafią myśleć i rozumować podobnie jak ludzie, ale inni są sceptyczni. W swoich artykułach, Mitchell i Lewis, przeprowadzili badania, które pokazują, że LLM wciąż mają trudności z dostosowaniem się do nowych sytuacji i nie radzą sobie z zadaniami, których wcześniej nie spotkały podczas nauki.
Zdaniem Mitchell, prawdziwe zrozumienie świata opiera się na pojęciach i zdolności do wnioskowania oraz przewidywania. Sztuczna inteligencja może kiedyś osiągnąć podobny poziom zrozumienia, ale może to być inny rodzaj inteligencji niż ludzka.
Autorzy takich publikacji zauważają również, że proces uczenia się sztucznej inteligencji jest odwrotny do procesu uczenia się ludzkiego, co sugeruje, że strategie zdobywania wiedzy mogą być inne dla maszyn i ludzi.
Czy w związku z tym mamy okazję oglądać na własne oczy powstanie nowego gatunku? Żyjącego we własnym świecie?
Specjaliści nie zaprzeczają, że sztuczna inteligencja może pewnego dnia osiągnąć podobny poziom inteligentnego zrozumienia. Jednak zrozumienie maszynowe może okazać się różne od zrozumienia ludzkiego. Nikt obecnie nie wie, jaki rodzaj technologii mógłby osiągnąć takie zrozumienie i jaka mogłaby być jego natura.
Jeśli okaże się, że choć trochę sztuczna inteligencja przypomina ludzkie zrozumienie, prawdopodobnie nie będzie opierać się na modelach LLM.
Modele LLM uczą się w odwrotnym kierunku niż ludzie. LLM-y rozpoczynają naukę języka i próbują abstrakcyjnych pojęć. Ludzkie dzieci najpierw uczą się pojęć, a dopiero później nabywają zdolności językowych, aby je opisać. Innymi słowy, być może czytanie Internetu może nie być właściwą strategią zdobywania inteligencji, tej sztucznej lub innej.
Zapraszamy was do dyskusji na naszym profilu facebook pod postem lub na platformie X Jesteśmy ciekawi co myślicie na ten temat, jakie są wasze obawy, czy waszym zadaniem powinniśmy wprowadzać regulacje prawne dla tego typu narzędzi?