Shutterstock/Valentyn640

W 1956 roku, podczas rocznej podróży do Londynu, mając około dwudziestu lat, matematyk i biolog teoretyczny Jack D. Cowan odwiedził Wilfreda Taylora i jego dziwne nowe „ucząca się maszyna”. Po przybyciu na miejsce był zdumiony „ogromnym zestawem aparatów”, jaki miał przed sobą. Cowan mógł tylko stać i patrzeć, jak „maszyna robi swoje”. Wyglądało na to, że robił „schemat pamięci skojarzeniowej” – wydawało się, że jest w stanie nauczyć się znajdować połączenia i pobierać dane.

Mogło to wyglądać jak nieporadne bloki obwodów elektrycznych, ręcznie zlutowane w masę przewodów i skrzynek, ale Cowan był świadkiem wczesnej analogowej formy sieci neuronowej – prekursora najbardziej zaawansowanej współczesnej sztucznej inteligencji, w tym dużo omawiane ChatGPT z możliwością generowania pisemnej treści w odpowiedzi na niemal każde polecenie. Podstawową technologią ChatGPT jest sieć neuronowa.

Kiedy Cowan i Taylor stali i obserwowali pracę maszyny, tak naprawdę nie mieli pojęcia, jak dokładnie radzi sobie z wykonaniem tego zadania. Odpowiedź na pytanie o tajemniczy mózg maszyny Taylora można znaleźć gdzieś w jej „analogowych neuronach”, w skojarzeniach dokonywanych przez pamięć maszyny i, co najważniejsze, w fakcie, że nie da się w pełni wyjaśnić jego zautomatyzowanego funkcjonowania. Znalezienie celu i uwolnienie tej mocy zajęłoby tym systemom dziesięciolecia.

Termin sieć neuronowa obejmuje szeroką gamę systemów, ale centralnie według IBM, te „sieci neuronowe – znane również jako sztuczne sieci neuronowe (ANN) lub symulowane sieci neuronowe (SNN) – stanowią podzbiór uczenia maszynowego i stanowią serce algorytmów głębokiego uczenia się”. Co najważniejsze, sam termin, jego forma i „struktura są inspirowane ludzkim mózgiem, naśladując sposób, w jaki neurony biologiczne przekazują sobie nawzajem sygnały”.

Na początkowych etapach mogły pojawiać się pewne wątpliwości co do ich wartości, ale wraz z upływem lat moda na sztuczną inteligencję zdecydowanie przesunęła się w stronę sieci neuronowych. Obecnie często uważa się je za przyszłość sztucznej inteligencji. Mają one ogromne konsekwencje dla nas i tego, co to znaczy być człowiekiem. Słyszeliśmy ostatnio słychać echa tych obaw z wezwaniami do wstrzymania nowych prac nad sztuczną inteligencją na okres sześciu miesięcy, aby zapewnić pewność co do ich konsekwencji.


wewnętrzna grafika subskrypcji


Z pewnością błędem byłoby odrzucenie sieci neuronowej jako skupiającej się wyłącznie na błyszczących, przyciągających wzrok nowych gadżetach. Zadomowiły się już w naszym życiu. Niektóre są potężne w swojej praktyczności. Już w 1989 roku zespół kierowany przez Yanna LeCuna z AT&T Bell Laboratories wykorzystał techniki propagacji wstecznej do wytrenowania systemu rozpoznawać odręcznie pisane kody pocztowe. Niedawny ogłoszenie Microsoftu że wyszukiwania Bing będą zasilane przez sztuczną inteligencję, co uczyni z niego „drugiego pilota w Internecie”, pokazuje, w jaki sposób rzeczy, które odkrywamy i jak je rozumiemy, będą w coraz większym stopniu produktem tego typu automatyzacji.

Wykorzystując ogromne dane w celu znalezienia wzorców, sztuczną inteligencję można podobnie wyszkolić do wykonywania takich czynności, jak szybkie rozpoznawanie obrazów – co skutkuje włączeniem ich do rozpoznawanie twarzy, na przykład. Ta umiejętność identyfikowania wzorców doprowadziła do wielu innych zastosowań, takich jak przewidywanie rynków akcji.

Sieci neuronowe zmieniają także sposób, w jaki interpretujemy i komunikujemy się. Opracowany przez ciekawie zatytułowanego Zespół mózgu Google, tłumacz Google to kolejne ważne zastosowanie sieci neuronowej.

Z takim też nie chciałbyś grać w szachy lub Shogi. Ich znajomość zasad, przypomnienie sobie strategii i wszystkich zarejestrowanych ruchów oznacza, że ​​są wyjątkowo dobrzy w grach (chociaż wydaje się, że ChatGPT walka z Wordlem). Systemy, które niepokoją graczy w Go (Go jest niezwykle podstępną strategiczną grą planszową) i arcymistrzów szachowych, to zbudowanych z sieci neuronowych.

Ale ich zasięg wykracza daleko poza te przypadki i nadal się rozszerza. Wyszukiwanie patentów ograniczone jedynie do wzmianek o dokładnym wyrażeniu „sieci neuronowe” daje 135,828 XNUMX wyników. W obliczu tak szybkiego i ciągłego rozwoju szanse na pełne wyjaśnienie wpływu sztucznej inteligencji mogą stać się jeszcze mniejsze. Oto pytania, które analizowałem w swoich badaniach i moja nowa książka o myśleniu algorytmicznym.

Tajemnicze warstwy „niepoznawalności”

Spojrzenie wstecz na historię sieci neuronowych mówi nam coś ważnego na temat zautomatyzowanych decyzji, które definiują naszą teraźniejszość lub te, które będą miały prawdopodobnie większy wpływ w przyszłości. Ich obecność mówi nam również, że z biegiem czasu prawdopodobnie jeszcze mniej będziemy rozumieć decyzje i skutki sztucznej inteligencji. Systemy te to nie tylko czarne skrzynki, to nie tylko ukryte fragmenty systemu, których nie można zobaczyć ani zrozumieć.

To coś innego, coś zakorzenionego w celach i konstrukcji samych systemów. Długotrwała pogoń za niewyjaśnionym. Im bardziej nieprzejrzysty, tym bardziej autentyczny i zaawansowany jest system. Nie chodzi tylko o to, że systemy stają się coraz bardziej złożone, czy kontrola własności intelektualnej ograniczająca dostęp (choć one są tego częścią). Zamiast tego należy powiedzieć, że etos, który nimi kieruje, kładzie szczególny i zakorzeniony nacisk na „niepoznawalność”. Tajemnica jest nawet zakodowana w samej formie i dyskursie sieci neuronowej. Mają głęboko ułożone warstwy – stąd określenie głębokie uczenie się – i w tych głębinach kryją się jeszcze bardziej tajemniczo brzmiące „ukryte warstwy”. Tajemnice tych systemów skrywają się głęboko pod powierzchnią.

Istnieje duża szansa, że ​​im większy wpływ będzie miała sztuczna inteligencja na nasze życie, tym mniej zrozumiemy, jak i dlaczego. Obecnie istnieje silny nacisk na sztuczną inteligencję, który można wytłumaczyć. Chcemy wiedzieć, jak to działa i jak wpływa na decyzje i wyniki. UE jest tak zaniepokojona potencjalnie „niedopuszczalnym ryzykiem”, a nawet „niebezpiecznymi” zastosowaniami, że obecnie pracuje nad nową ustawę o sztucznej inteligencji ma na celu ustanowienie „globalnego standardu” dla „rozwoju bezpiecznej, godnej zaufania i etycznej sztucznej inteligencji”.

Te nowe przepisy będą opierać się na potrzebie wyjaśnialności, domagając się tego „w przypadku systemów sztucznej inteligencji wysokiego ryzyka wymogi dotyczące wysokiej jakości danych, dokumentacji i identyfikowalności, przejrzystości, nadzoru ze strony człowieka, dokładności i solidności są bezwzględnie konieczne, aby ograniczyć ryzyko dla praw podstawowych i bezpieczeństwa stwarzane przez sztuczną inteligencję”. Nie chodzi tu tylko o takie rzeczy, jak samochody autonomiczne (chociaż systemy zapewniające bezpieczeństwo należą do unijnej kategorii sztucznej inteligencji wysokiego ryzyka), istnieje również obawa, że ​​w przyszłości pojawią się systemy, które będą miały konsekwencje dla praw człowieka.

Stanowi to część szerszych wezwań do przejrzystości w zakresie sztucznej inteligencji, aby można było sprawdzać, audytować i oceniać jej działania. Innym przykładem może być Towarzystwo Królewskie briefing polityczny na temat wyjaśnialnej sztucznej inteligencji w którym zwracają uwagę, że „w debatach politycznych na całym świecie coraz częściej pojawiają się wezwania do jakiejś formy wyjaśnienia sztucznej inteligencji w ramach wysiłków na rzecz włączenia zasad etycznych do projektowania i wdrażania systemów obsługujących sztuczną inteligencję”.

Jednak historia sieci neuronowych mówi nam, że w przyszłości prawdopodobnie raczej odejdziemy od tego celu, niż się do niego zbliżymy.

Zainspirowany ludzkim mózgiem

Te sieci neuronowe mogą być złożonymi systemami, ale mają pewne podstawowe zasady. Inspirowane ludzkim mózgiem, starają się kopiować lub symulować formy biologicznego i ludzkiego myślenia. Pod względem konstrukcji i designu są one, jak IBM również wyjaśnia, składający się z „warstw węzłowych zawierających warstwę wejściową, jedną lub więcej warstw ukrytych i warstwę wyjściową”. W ramach tego „każdy węzeł lub sztuczny neuron łączy się z innym”. Ponieważ wymagają danych wejściowych i informacji do wytworzenia wyników, „polegają na danych szkoleniowych, aby się uczyć i poprawiać swoją dokładność w miarę upływu czasu”. Te szczegóły techniczne mają znaczenie, ale równie ważna jest chęć modelowania tych systemów na podstawie złożoności ludzkiego mózgu.

Uchwycenie ambicji stojących za tymi systemami jest niezbędne do zrozumienia, jakie znaczenie mają te szczegóły techniczne w praktyce. W Wywiad 1993, naukowiec zajmujący się sieciami neuronowymi, Teuvo Kohonen, doszedł do wniosku, że „samoorganizujący się” system „to moje marzenie”, działający „na wzór tego, co instynktownie robi nasz układ nerwowy”. Jako przykład Kohonen wyobraził sobie, jak „samoorganizujący się” system, który sam siebie monitoruje i zarządza, „można wykorzystać jako panel monitorujący dowolną maszynę… w każdym samolocie, samolocie odrzutowym, każdej elektrowni jądrowej lub każdym samochód". To, jego zdaniem, oznaczałoby, że w przyszłości „będzie można od razu zobaczyć, w jakim stanie jest system”.

Nadrzędnym celem było stworzenie systemu zdolnego do dostosowania się do otoczenia. Byłoby natychmiastowe i autonomiczne, działające na wzór układu nerwowego. Takie było marzenie – mieć systemy, które poradziłyby sobie same, bez konieczności dużej interwencji człowieka. Złożoność i niewiadome mózgu, układu nerwowego i świata rzeczywistego wkrótce staną się podstawą rozwoju i projektowania sieci neuronowych.

„Coś w tym podejrzanego”

Ale wracając do roku 1956 i tej dziwnej uczącej się maszyny, uwagę Cowana natychmiast przykuło praktyczne podejście, jakie Taylor przyjął podczas jej budowy. Wyraźnie się spocił przy składaniu kawałków. Taylora, Cowan zauważył podczas własnego wywiadu na temat historii tych systemów „nie zrobił tego teoretycznie i nie zrobił tego na komputerze”. Zamiast tego, mając w ręku narzędzia, „faktycznie zbudował sprzęt”. Była to rzecz materialna, połączenie części, a może nawet urządzenie. A „wszystko zostało zrobione z obwodami analogowymi”, co według Cowana zajęło Taylorowi „kilka lat na jego zbudowanie i zabawę”. Sprawa prób i błędów.

Co zrozumiałe, Cowan chciał uporać się z tym, co widział. Próbował nakłonić Taylora, aby wyjaśnił mu tę uczącą się maszynę. Wyjaśnienia nie nadeszły. Cowan nie mógł nakłonić Taylora, żeby opisał mu, jak to działa. Neurony analogowe pozostały tajemnicą. Bardziej zaskakującym problemem, pomyślał Cowan, było to, że Taylor „sam tak naprawdę nie rozumiał, co się dzieje”. To nie było tylko chwilowe zerwanie komunikacji między dwoma naukowcami o różnych specjalizacjach, to było coś więcej.

W wywiad z połowy lat 1990wracając myślami do maszyny Taylora, Cowan ujawnił, że „do dziś w opublikowanych artykułach nie do końca można zrozumieć, jak ona działa”. Wniosek ten sugeruje, jak nieznane jest głęboko osadzone w sieciach neuronowych. Niewyjaśnialność tych systemów neuronowych była obecna już od podstawowych i rozwojowych etapów sięgających prawie siedmiu dekad.

Tajemnica ta pozostaje do dziś i można ją odnaleźć w postępowych formach sztucznej inteligencji. Niezgłębienie funkcjonowania skojarzeń wytwarzanych przez maszynę Taylora skłoniło Cowana do zastanowienia się, czy nie jest w tym „coś podejrzanego”.

Długie i splątane korzenie

Cowan nawiązał do swojej krótkiej wizyty u Taylora, zapytanej kilka lat później o recepcję jego własnej twórczości. Cowan stwierdził, że w latach sześćdziesiątych XX wieku ludzie „trochę wolno dostrzegali sens analogowej sieci neuronowej”. Działo się tak pomimo tego, jak wspomina Cowan, że prace Taylora z lat 1960. XX wieku nad „pamięcią skojarzeniową” opierały się na „neuronach analogowych”. Laureat Nagrody Nobla, ekspert w dziedzinie systemów neuronowych, – podsumował Leon N. Cooper że rozwój wokół zastosowania modelu mózgu w latach sześćdziesiątych XX wieku uznawano za „jedną z głębokich tajemnic”. Z powodu tej niepewności pozostał sceptycyzm co do możliwości sieci neuronowej. Ale wszystko powoli zaczęło się zmieniać.

Około 30 lat temu neurobiolog Walter J. Freeman, który był zaskoczony „znakomity” zakresu zastosowań, jakie znaleziono dla sieci neuronowych, już komentował fakt, że nie postrzega ich jako „zasadniczo nowego rodzaju maszyn”. Paliły się powoli, najpierw pojawiła się technologia, a potem znajdowano dla niej kolejne zastosowania. To wymagało czasu. Rzeczywiście, aby znaleźć korzenie technologii sieci neuronowych, moglibyśmy cofnąć się nawet dalej niż wizyta Cowana w tajemniczej maszynie Taylora.

Naukowiec zajmujący się sieciami neuronowymi James Anderson i dziennikarz naukowy Edward Rosenfeld zauważyłem że początki sieci neuronowych sięgają lat czterdziestych XX wieku i wczesnych prób, jak to opisują, „zrozumienia ludzkiego układu nerwowego i zbudowania sztucznych systemów, które działają tak samo, jak my, przynajmniej w pewnym stopniu”. I tak w latach czterdziestych tajemnice ludzkiego układu nerwowego stały się także tajemnicami myślenia obliczeniowego i sztucznej inteligencji.

Podsumowując tę ​​długą historię, pisarz zajmujący się informatyką Zauważył Larry Hardesty że głębokie uczenie się w postaci sieci neuronowych „wychodzi z mody i wychodzi z mody od ponad 70 lat”. Mówiąc dokładniej, dodaje, te „sieci neuronowe zostały po raz pierwszy zaproponowane w 1944 r. przez Warrena McCullocha i Waltera Pittsa, dwóch badaczy z Uniwersytetu w Chicago, którzy przenieśli się do MIT w 1952 r. jako członkowie-założyciele tak zwanego czasami pierwszego wydziału nauk o kognitywistyce”.

Gdzie indziej, 1943 czasami jest podawana data jako pierwszy rok technologii. Tak czy inaczej, przez około 70 lat sprawozdania sugerują, że sieci neuronowe pojawiały się i wychodziły z mody, często zaniedbywane, ale czasami zyskiwały na popularności i trafiały do ​​bardziej popularnych zastosowań i debat. Niepewność utrzymywała się. Ci pierwsi twórcy często opisują znaczenie swoich badań jako pomijane, dopóki nie osiągnęły one celu często wiele lat, a czasem kilkadziesiąt lat później.

Przechodząc od lat sześćdziesiątych do końca siedemdziesiątych XX wieku, możemy znaleźć dalsze historie o nieznanych właściwościach tych układów. Nawet wtedy, po trzech dekadach, sieć neuronowa wciąż nie miała poczucia celu. David Rumelhart, który miał doświadczenie w psychologii i był współautorem zbioru książek opublikowanych w 1960 r., które później ponownie zwróciły uwagę na sieci neuronowe, współpracował przy rozwoju sieci neuronowych ze swoim kolegą Jayem McClellandem.

Oprócz tego, że byli kolegami, spotkali się także niedawno na konferencji w Minnesocie, gdzie przemówienie Rumelharta na temat „rozumienia historii” wywołało dyskusję wśród delegatów.

Po tej konferencji McClelland powrócił z myślą o tym, jak opracować sieć neuronową, która mogłaby łączyć modele, aby była bardziej interaktywna. Ważne jest tutaj Wspomnienie Rumelharta „godzin i godzin majsterkowania przy komputerze”.

Usiedliśmy, zrobiliśmy to wszystko w komputerze i zbudowaliśmy te modele komputerowe, ale po prostu ich nie rozumieliśmy. Nie rozumieliśmy, dlaczego zadziałały lub dlaczego nie zadziałały, ani co było w nich najważniejsze.

Podobnie jak Taylor, Rumelhart zaczął majstrować przy systemie. Oni również stworzyli działającą sieć neuronową i, co najważniejsze, nie byli pewni, jak i dlaczego działa ona w taki sposób, w jaki to działa, pozornie ucząc się na danych i znajdując powiązania.

Naśladowanie mózgu – warstwa po warstwie

Być może zauważyłeś już, że dyskutując o początkach sieci neuronowych, obraz mózgu i złożoność, jaką on wywołuje, nigdy nie są daleko od siebie. Ludzki mózg działał jako swego rodzaju szablon dla tych systemów. Zwłaszcza na wczesnych etapach mózg – wciąż będący jedną z wielkich niewiadomych – stał się modelem działania sieci neuronowej.

Zatem te nowe, eksperymentalne systemy wzorowano na czymś, czego funkcjonowanie było w dużej mierze nieznane. Inżynier neuroinformatyki Carver Mead przemówił odkrywczo koncepcji „kognitywnej góry lodowej”, która wydała mu się szczególnie atrakcyjna. To tylko wierzchołek góry lodowej świadomości, z której jesteśmy świadomi i który jest widoczny. Skala i forma pozostałych pozostają nieznane pod powierzchnią.

W 1998, James Anderson, który przez pewien czas pracował nad sieciami neuronowymi, zauważył, że jeśli chodzi o badania mózgu, „naszym głównym odkryciem wydaje się być świadomość, że tak naprawdę nie wiemy, co się dzieje”.

W szczegółowym rachunku w Financial Times w 2018 rokudziennikarz technologiczny Richard Waters zauważył, że sieci neuronowe „są wzorowane na teorii działania ludzkiego mózgu, polegającej na przekazywaniu danych przez warstwy sztucznych neuronów, aż pojawi się możliwy do zidentyfikowania wzór”. Stwarza to problem domina, zaproponował Waters, ponieważ „w przeciwieństwie do obwodów logicznych stosowanych w tradycyjnym programie, nie ma możliwości śledzenia tego procesu, aby dokładnie określić, dlaczego komputer podaje konkretną odpowiedź”. Waters doszedł do wniosku, że tych wyników nie można odrzucić. Zastosowanie tego typu modelu mózgu, obejmującego wiele warstw danych, oznacza, że ​​odpowiedzi nie można łatwo odtworzyć. Wielowarstwowe nakładanie warstw jest tego dobrym powodem.

Wytrzymałość zaobserwowali również, że systemy te są „luźno wzorowane na ludzkim mózgu”. Powoduje to chęć budowania coraz większej złożoności przetwarzania, aby spróbować dopasować się do mózgu. Rezultatem tego celu jest sieć neuronowa, która „składa się z tysięcy, a nawet milionów prostych węzłów przetwarzających, które są ze sobą gęsto połączone”. Dane przemieszczają się przez te węzły tylko w jednym kierunku. Hardesty zaobserwował, że „pojedynczy węzeł może być połączony z kilkoma węzłami w warstwie znajdującej się pod nim, z której otrzymuje dane, oraz z kilkoma węzłami w warstwie znajdującej się nad nim, do których wysyła dane”.

Modele ludzkiego mózgu były częścią procesu tworzenia i projektowania tych sieci neuronowych od samego początku. Jest to szczególnie interesujące, gdy weźmiemy pod uwagę, że mózg sam w sobie był tajemnicą tamtych czasów (i pod wieloma względami nadal nią jest).

„Dostosowanie to cała gra”

Naukowcy tacy jak Mead i Kohonen chcieli stworzyć system, który mógłby rzeczywiście dostosować się do świata, w którym się znalazł. Zareaguje na swoje warunki. Mead był jasny, że zaletą sieci neuronowych jest to, że mogą ułatwić tego typu adaptację. W tamtym czasie i zastanawiając się nad tymi ambicjami, Dodał Miód że produkcja adaptacji „to cała gra”. Ta adaptacja jest potrzebna, pomyślał, „ze względu na naturę prawdziwego świata”, który, jak stwierdził, jest „zbyt zmienny, aby można było zrobić cokolwiek absolutnego”.

Z tym problemem trzeba się liczyć, zwłaszcza że, jego zdaniem, jest to coś, „co układ nerwowy odkrył już dawno temu”. Ci innowatorzy nie tylko pracowali z obrazem mózgu i jego niewiadomych, ale łączyli go z wizją „prawdziwego świata” oraz niepewności, niewiadomych i zmienności, jakie to niesie. Systemy, pomyślał Mead, muszą być w stanie reagować i dostosowywać się do okoliczności bez instrukcja.

Mniej więcej w tym samym czasie, w latach 1990., Stephen Grossberg – ekspert w dziedzinie systemów poznawczych z pogranicza matematyki, psychologii i inżynierii biomedycznej – też to argumentował adaptacja miała być ważnym krokiem w dłuższej perspektywie. Grossberg, pracując nad modelowaniem sieci neuronowych, pomyślał, że chodzi o to, „jak zaprojektowano biologiczne systemy pomiarowe i kontrolne, aby szybko i stabilnie dostosowywały się w czasie rzeczywistym do szybko zmieniającego się świata”. Jak widzieliśmy wcześniej w przypadku „marzenia” Kohonena o „samoorganizującym się” systemie, pojęcie „prawdziwego świata” staje się kontekstem, w którym reakcja i adaptacja są kodowane w tych systemach. Sposób, w jaki ten prawdziwy świat jest rozumiany i wyobrażany, niewątpliwie kształtuje sposób, w jaki te systemy są zaprojektowane do adaptacji.

Ukryte warstwy

W miarę mnożenia się warstw głębokie uczenie się zgłębiało nowe głębie. Sieć neuronowa jest szkolona przy użyciu danych treningowych, które: Hardesty wyjaśnił, „jest podawany do warstwy dolnej – warstwy wejściowej – i przechodzi przez kolejne warstwy, mnożąc się i sumując w złożony sposób, aż w końcu, radykalnie przekształcony, dociera do warstwy wyjściowej”. Im więcej warstw, tym większa transformacja i większa odległość od wejścia do wyjścia. Rozwój procesorów graficznych (GPU), na przykład w grach, dodał Hardesty, „umożliwił sieciom jednowarstwowym z lat sześćdziesiątych XX wieku oraz sieciom dwu- i trójwarstwowym z lat osiemdziesiątych XX wieku rozkwit do dziesięciu, piętnastu, a nawet 1960 sieci warstwowe współczesności”.

Sieci neuronowe są coraz głębsze. Według Hardesty’ego właśnie to dodawanie warstw „jest tym, do czego odnosi się «głębokie» w «głębokim uczeniu»”. Ma to znaczenie – proponuje, ponieważ „obecnie głębokie uczenie się odpowiada za najskuteczniejsze systemy w niemal każdym obszarze badań nad sztuczną inteligencją”.

Ale tajemnica jest jeszcze głębsza. W miarę jak warstwy sieci neuronowych piętrzyły się, ich złożoność wzrosła. Doprowadziło to również do wzrostu tak zwanych „ukrytych warstw” w tych głębokościach. Trwają dyskusje na temat optymalnej liczby warstw ukrytych w sieci neuronowej. Teoretyk mediów Beatrice Fazi napisała że „ze względu na sposób działania głębokiej sieci neuronowej, opierającej się na ukrytych warstwach neuronowych umieszczonych pomiędzy pierwszą warstwą neuronów (warstwa wejściowa) a ostatnią warstwą (warstwa wyjściowa), techniki głębokiego uczenia się są często nieprzejrzyste lub nieczytelne nawet dla programistów, którzy je pierwotnie skonfigurowali”.

W miarę zwiększania się liczby warstw (w tym warstw ukrytych) stają się one jeszcze mniej zrozumiałe – nawet, jak się okazuje, ponownie dla tych, którzy je tworzą. Podobnie wypowiada się wybitna i interdyscyplinarna myślicielka nowych mediów Katherine Hayles również zauważyć że istnieją granice „tego, ile możemy wiedzieć o systemie, co jest wynikiem istotnym dla„ warstwy ukrytej ”w sieci neuronowej i algorytmach głębokiego uczenia się”.

W pogoni za niewytłumaczalnym

Podsumowując, te długie zmiany są częścią tego, co socjolog technologii Tainę Bucher nazwał „problematycznym nieznanego”. Rozszerzając swoje wpływowe badania z zakresu wiedzy naukowej na dziedzinę AI, Harry Collins zwrócił na to uwagę Celem sieci neuronowych jest to, aby mogły być wytworzone przez człowieka, przynajmniej na początku, ale „po napisaniu program żyje własnym życiem; bez wielkiego wysiłku dokładne działanie programu może pozostać tajemnicą”. Ma to echa odwiecznych marzeń o samoorganizującym się systemie.

Dodałbym do tego, że nieznane, a może nawet niepoznawalne, było poszukiwane jako fundamentalna część tych systemów od ich najwcześniejszych etapów. Istnieje duża szansa, że ​​im większy wpływ będzie miała sztuczna inteligencja na nasze życie, tym mniej zrozumiemy, jak i dlaczego.

Jednak wielu osobom dzisiaj to nie odpowiada. Chcemy wiedzieć, jak działa sztuczna inteligencja i w jaki sposób podejmuje decyzje i wyniki, które mają na nas wpływ. W miarę jak rozwój sztucznej inteligencji w dalszym ciągu kształtuje naszą wiedzę i rozumienie świata, tego, co odkrywamy, jak jesteśmy traktowani, jak się uczymy, konsumujemy i wchodzimy w interakcje, impuls do zrozumienia będzie rosnąć. Jeśli chodzi o dającą się wyjaśnić i przejrzystą sztuczną inteligencję, historia sieci neuronowych mówi nam, że w przyszłości prawdopodobnie raczej odejdziemy od tego celu, niż się do niego zbliżymy.

Dawid Piwo, profesor socjologii, University of York

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.