Przytoczona w preambule definicja sztucznej inteligencji, podana przez Johna McCarthy’ego w 1956 roku na konferencji na Uniwersytecie Dartmouth, nie jest bezpośrednio związana z rozumieniem ludzkiej inteligencji. Według McCarthy’ego badacze sztucznej inteligencji mogą w razie potrzeby stosować techniki niespotykane u ludzi, jeśli są potrzebne do rozwiązania konkretnych problemów.

Jednocześnie istnieje punkt widzenia, zgodnie z którym inteligencja może być jedynie zjawiskiem biologicznym.

Jak zauważa przewodniczący petersburskiego oddziału Rosyjskiego Stowarzyszenia Sztucznej Inteligencji T. A. Gavrilova, w języku angielskim wyrażenie sztuczna inteligencja nie ma tej nieco fantastycznej antropomorficznej kolorystyki, jaką nabył w raczej nieudanym tłumaczeniu rosyjskim. Słowo inteligencja oznacza „zdolność racjonalnego rozumowania”, a wcale nie „inteligencję”, dla której istnieje angielski odpowiednik inteligencja .

Uczestnicy Rosyjskiego Stowarzyszenia Sztucznej Inteligencji podają następujące definicje sztucznej inteligencji:

Jedną ze szczegółowych definicji inteligencji, wspólną dla człowieka i „maszyny”, można sformułować następująco: „Inteligencja to zdolność systemu do tworzenia programów (głównie heurystycznych) w trakcie samouczenia się w celu rozwiązywania problemów określonej klasy złożoności i rozwiązać te problemy.”

Przesłanki rozwoju nauki o sztucznej inteligencji

Historia sztucznej inteligencji jako nowego kierunku naukowego rozpoczyna się w połowie XX wieku. Do tego czasu powstało już wiele przesłanek do jego powstania: wśród filozofów od dawna toczyły się debaty na temat natury człowieka i procesu rozumienia świata, neurofizjolodzy i psychologowie opracowali szereg teorii dotyczących pracy ludzkiego mózgu i myślenia, ekonomiści i matematycy zadawali pytania dotyczące optymalnych obliczeń i przedstawiania wiedzy o świecie w sformalizowanej formie; wreszcie narodził się fundament matematycznej teorii obliczeń – teoria algorytmów i powstały pierwsze komputery.

Możliwości nowych maszyn pod względem szybkości obliczeniowej okazały się większe od ludzkich, dlatego w środowisku naukowym pojawiło się pytanie: jakie są granice możliwości komputerów i czy maszyny osiągną poziom rozwoju człowieka? W 1950 roku jeden z pionierów informatyki, angielski naukowiec Alan Turing, napisał artykuł zatytułowany „Czy maszyna może myśleć?” , który opisuje procedurę, dzięki której możliwe będzie określenie momentu, w którym maszyna zrówna się z człowiekiem pod względem inteligencji, zwaną testem Turinga.

Historia rozwoju sztucznej inteligencji w ZSRR i Rosji

W ZSRR prace w dziedzinie sztucznej inteligencji rozpoczęły się w latach 60. XX wieku. Szereg pionierskich badań przeprowadzono na Uniwersytecie Moskiewskim i Akademii Nauk, na czele których stali Weniamin Puszkin i D. A. Pospelow. Od początku lat sześćdziesiątych XX wieku M. L. Tsetlin i jego współpracownicy rozwijają zagadnienia związane z uczeniem maszyn skończonych.

W 1964 roku opublikowano pracę leningradzkiego logika Siergieja Masłowa „The Inverse Method for Ustalenie dedukowalności w klasycznym rachunku predykatów”, w której jako pierwszy zaproponował metodę automatycznego wyszukiwania dowodów twierdzeń w rachunku predykatów.

Do lat 70. XX wieku w ZSRR wszelkie badania nad sztuczną inteligencją prowadzono w ramach cybernetyki. Według D. A. Pospelova nauki „informatyka” i „cybernetyka” były wówczas mieszane ze względu na szereg sporów akademickich. Dopiero pod koniec lat 70. w ZSRR zaczęto mówić o kierunku naukowym „sztuczna inteligencja” jako gałęzi informatyki. W tym samym czasie narodziła się sama informatyka, podporządkowując sobie swoją przodkę „cybernetykę”. Pod koniec lat 70. powstał słownik objaśniający dotyczący sztucznej inteligencji, trzytomowy podręcznik dotyczący sztucznej inteligencji oraz słownik encyklopedyczny z zakresu informatyki, w których zawarte są działy „Cybernetyka” i „Sztuczna inteligencja” oraz inne sekcje z informatyki. Termin „informatyka” rozpowszechnił się w latach 80. XX wieku, a termin „cybernetyka” stopniowo znikał z obiegu, pozostając jedynie w nazwach instytucji, które powstały w epoce „boomu cybernetycznego” przełomu lat 50. i 60. XX wieku. Nie wszyscy podzielają ten pogląd na sztuczną inteligencję, cybernetykę i informatykę. Wynika to z faktu, że na Zachodzie granice tych nauk są nieco inne.

Podejścia i kierunki

Podejścia do zrozumienia problemu

Nie ma jednej odpowiedzi na pytanie, czym zajmuje się sztuczna inteligencja. Niemal każdy autor piszący książkę o sztucznej inteligencji zaczyna od jakiejś definicji, rozważając w jej świetle osiągnięcia tej nauki.

  • top-down (ang. Top-Down AI), semiotyka - tworzenie systemów ekspertowych, baz wiedzy i systemów wnioskowania logicznego symulujących procesy umysłowe wysokiego poziomu: myślenie, rozumowanie, mowę, emocje, kreatywność itp.;
  • Bottom-Up AI), biologiczne – badanie sieci neuronowych i obliczeń ewolucyjnych modelujących inteligentne zachowania w oparciu o elementy biologiczne, a także tworzenie odpowiednich systemów obliczeniowych, takich jak neurokomputer czy biokomputer.

To drugie podejście, ściśle rzecz biorąc, nie należy do nauki o sztucznej inteligencji w sensie nadanym przez Johna McCarthy’ego – łączy je jedynie wspólny cel ostateczny.

Test Turinga i podejście intuicyjne

Podejście to koncentruje się na tych metodach i algorytmach, które pomogą inteligentnemu agentowi przetrwać w swoim środowisku podczas wykonywania swojego zadania. Dlatego tutaj algorytmy wyszukiwania ścieżki i podejmowania decyzji są badane znacznie dokładniej.

Podejście hybrydowe

Podejście hybrydowe zakłada, że tylko synergiczne połączenie modeli neuronowych i symbolicznych umożliwia osiągnięcie pełnego zakresu możliwości poznawczych i obliczeniowych. Na przykład eksperckie reguły wnioskowania mogą być generowane przez sieci neuronowe, a reguły generatywne są uzyskiwane za pomocą uczenia statystycznego. Zwolennicy tego podejścia uważają, że hybrydowe systemy informacyjne będą znacznie silniejsze niż suma poszczególnych koncepcji oddzielnie.

Modele i metody badawcze

Symboliczne modelowanie procesów myślowych

Analizując historię AI, możemy wyróżnić tak szeroki obszar jak modelowanie rozumowania. Przez wiele lat rozwój tej nauki podążał właśnie tą drogą, a obecnie jest to jeden z najbardziej rozwiniętych obszarów współczesnej sztucznej inteligencji. Rozumowanie modelujące polega na tworzeniu systemów symbolicznych, których dane wejściowe mają określone zadanie, a dane wyjściowe wymagają ich rozwiązania. Z reguły proponowany problem został już sformalizowany, czyli przetłumaczony na formę matematyczną, ale albo nie posiada algorytmu rozwiązania, albo jest zbyt skomplikowany, czasochłonny itp. Do tego obszaru zalicza się: dowodzenie twierdzeń, podejmowanie decyzji I teoria gier, planowanie i wysyłka, prognozowanie.

Praca z językami naturalnymi

Ważnym kierunkiem jest przetwarzanie języka naturalnego, w ramach którego przeprowadzana jest analiza możliwości rozumienia, przetwarzania i generowania tekstów w „ludzkim” języku. Kierunek ten ma na celu takie przetwarzanie języka naturalnego, aby można było samodzielnie zdobywać wiedzę, czytając istniejący tekst dostępny w Internecie. Niektóre bezpośrednie zastosowania przetwarzania języka naturalnego obejmują wyszukiwanie informacji (w tym eksplorację głębokiego tekstu) i tłumaczenie maszynowe.

Reprezentacja i wykorzystanie wiedzy

Kierunek inżynieria wiedzyłączy w sobie zadania pozyskiwania wiedzy z prostych informacji, ich systematyzacji i wykorzystania. Kierunek ten jest historycznie związany ze stworzeniem systemy ekspertowe- programy korzystające ze specjalistycznych baz wiedzy w celu uzyskania rzetelnych wniosków na temat dowolnego problemu.

Tworzenie wiedzy z danych jest jednym z podstawowych problemów eksploracji danych. Istnieją różne podejścia do rozwiązania tego problemu, w tym oparte na technologii sieci neuronowych, wykorzystujące procedury werbalizacji sieci neuronowej.

Uczenie maszynowe

Kwestie uczenie maszynowe dotyczy procesu niezależny pozyskiwanie wiedzy przez inteligentny system w procesie jego działania. Kierunek ten był centralny od samego początku rozwoju sztucznej inteligencji. W 1956 roku na letniej konferencji w Dartmund Ray Solomonoff napisał raport na temat probabilistycznej maszyny uczącej się bez nadzoru, nazywając ją „Maszyną do wnioskowania indukcyjnego”.

Robotyka

Twórczość maszynowa

Natura ludzkiej kreatywności jest jeszcze mniej zbadana niż natura inteligencji. Niemniej jednak obszar ten istnieje i stawiane są tu problemy komputerowego pisania muzyki, dzieł literackich (często poezji lub baśni) oraz twórczości artystycznej. Tworzenie realistycznych obrazów jest szeroko stosowane w branży filmowej i gier.

Odrębnie wyróżnia się badanie problemów kreatywności technicznej systemów sztucznej inteligencji. Początkiem takich badań była teoria rozwiązywania problemów wynalazczych, zaproponowana w 1946 roku przez G. S. Altszullera.

Dodanie tej możliwości do dowolnego inteligentnego systemu pozwala bardzo wyraźnie pokazać, co dokładnie system postrzega i jak to rozumie. Dodając szum zamiast brakujących informacji lub filtrując szum wiedzą dostępną w systemie, z wiedzy abstrakcyjnej powstają konkretne, łatwo dostrzegalne dla człowieka obrazy, jest to szczególnie przydatne w przypadku wiedzy intuicyjnej i o małej wartości, której weryfikacja w forma formalna wymaga znacznego wysiłku umysłowego.

Inne obszary badań

Wreszcie istnieje wiele zastosowań sztucznej inteligencji, z których każde stanowi niemal niezależną dziedzinę. Przykładami są inteligencja programistyczna w grach komputerowych, sterowanie nieliniowe, inteligentne systemy bezpieczeństwa informacji.

Zakłada się, że w przyszłości rozwój sztucznej inteligencji będzie ściśle powiązany z rozwojem komputera kwantowego, gdyż niektóre właściwości sztucznej inteligencji mają podobne zasady działania jak komputery kwantowe.

Można zauważyć, że wiele obszarów badań nakłada się na siebie. Jest to typowe dla każdej nauki. Jednak w sztucznej inteligencji związek pomiędzy pozornie różnymi obszarami jest szczególnie silny, co wiąże się z filozoficzną debatą na temat silnej i słabej sztucznej inteligencji.

Nowoczesna sztuczna inteligencja

Można wyróżnić dwa kierunki rozwoju AI:

  • rozwiązywanie problemów związanych z przybliżaniem wyspecjalizowanych systemów AI do możliwości człowieka i ich integracją, jaką realizuje natura ludzka ( zobacz Wzmocnienie inteligencji);
  • stworzenie sztucznej inteligencji, reprezentujące integrację już stworzonych systemów AI w jeden system zdolny do rozwiązywania problemów ludzkości ( zobacz Silna i słaba sztuczna inteligencja).

Jednak obecnie w dziedzinie sztucznej inteligencji obserwuje się zaangażowanie wielu dziedzin tematycznych, które mają praktyczny związek ze sztuczną inteligencją, a nie fundamentalny. Przetestowano wiele podejść, ale żadna grupa badawcza nie zajęła się jeszcze pojawieniem się sztucznej inteligencji. Poniżej znajdują się tylko niektóre z najbardziej znanych osiągnięć w dziedzinie sztucznej inteligencji.

Aplikacja

Do najbardziej znanych systemów AI należą:

Banki wykorzystują systemy sztucznej inteligencji (AI) w działalności ubezpieczeniowej (matematyka aktuarialna), grze na giełdzie i zarządzaniu nieruchomościami. Metody rozpoznawania wzorców (w tym zarówno bardziej złożone i wyspecjalizowane, jak i sieci neuronowe) znajdują szerokie zastosowanie w rozpoznawaniu optycznym i akustycznym (w tym tekstu i mowy), diagnostyce medycznej, filtrach antyspamowych, w systemach obrony powietrznej (identyfikacja celu), a także w celu zapewnienia szereg innych zadań związanych z bezpieczeństwem narodowym.

Psychologia i kognitywistyka

Metodologia modelowania poznawczego ma na celu analizę i podejmowanie decyzji w nieokreślonych sytuacjach. Zaproponował to Axelrod.

Opiera się na modelowaniu subiektywnych wyobrażeń ekspertów na temat sytuacji i obejmuje: metodologię konstruowania sytuacji: model reprezentacji wiedzy eksperta w postaci dwugrafu (mapy poznawczej) ze znakiem (F, W), gdzie F jest zbiór czynników sytuacji, W jest zbiorem związków przyczynowo-skutkowych pomiędzy czynnikami sytuacji; metody analizy sytuacji. Obecnie metodologia modelowania poznawczego rozwija się w kierunku udoskonalenia aparatu do analizy i modelowania sytuacji. Zaproponowano tutaj modele prognozowania rozwoju sytuacji; metody rozwiązywania problemów odwrotnych.

Filozofia

Nauka o „tworzeniu sztucznej inteligencji” nie mogła nie przyciągnąć uwagi filozofów. Wraz z pojawieniem się pierwszych inteligentnych systemów postawiono fundamentalne pytania dotyczące człowieka i wiedzy, a częściowo także porządku świata.

Filozoficzne problemy tworzenia sztucznej inteligencji można podzielić na dwie grupy, mówiąc relatywnie, „przed i po rozwoju AI”. Pierwsza grupa odpowiada na pytanie: „Co to jest sztuczna inteligencja, czy można ją stworzyć i jeśli to możliwe, jak to zrobić?” Druga grupa (etyka sztucznej inteligencji) zadaje pytanie: „Jakie są konsekwencje stworzenia AI dla ludzkości?”

Termin „silna sztuczna inteligencja” został wprowadzony przez Johna Searle’a, a podejście to scharakteryzowano w jego słowach:

Co więcej, taki program nie byłby po prostu modelem umysłu; ona, w dosłownym tego słowa znaczeniu, sama będzie umysłem, w tym samym sensie, w jakim ludzki umysł jest umysłem.

Jednocześnie należy zrozumieć, czy możliwy jest „czysto sztuczny” umysł („metamind”), rozumiejący i rozwiązujący realne problemy, a jednocześnie pozbawiony emocji charakterystycznych dla człowieka i niezbędnych dla jego indywidualnego przetrwania [ ] .

Z kolei zwolennicy słabej sztucznej inteligencji wolą postrzegać programy jedynie jako narzędzia, które pozwalają im rozwiązać pewne problemy, które nie wymagają pełnego zakresu zdolności poznawczych człowieka.

Etyka

Inne tradycyjne wyznania rzadko opisują zagadnienia związane ze sztuczną inteligencją. Niemniej jednak niektórzy teolodzy zwracają na to uwagę. Na przykład arcykapłan Michaił Zacharow, argumentując z punktu widzenia światopoglądu chrześcijańskiego, stawia następujące pytanie: „Człowiek jest istotą racjonalnie wolną, stworzoną przez Boga na Jego obraz i podobieństwo. Przyzwyczailiśmy się przypisywać wszystkie te definicje gatunkowi biologicznemu Homo Sapiens. Ale na ile jest to uzasadnione? . Odpowiada na to pytanie w ten sposób:

Jeśli założymy, że badania z zakresu sztucznej inteligencji doprowadzą kiedyś do pojawienia się sztucznej istoty, przewyższającej inteligencją człowieka i posiadającej wolną wolę, czy oznacza to, że istota ta jest osobą? ...człowiek jest dziełem Boga. Czy możemy nazwać to stworzenie dziełem Boga? Na pierwszy rzut oka jest to dzieło człowieka. Ale nawet podczas stwarzania człowieka nie warto dosłownie rozumieć, że Bóg własnymi rękami wyrzeźbił pierwszego człowieka z gliny. Jest to prawdopodobnie alegoria wskazująca na materialność ciała ludzkiego, stworzonego z woli Boga. Ale bez woli Bożej nic nie dzieje się na tym świecie. Człowiek, jako współtwórca tego świata, może, wypełniając wolę Boga, stworzyć nowe stworzenia. Takie stworzenia, stworzone rękami ludzkimi zgodnie z wolą Bożą, można chyba nazwać stworzeniami Bożymi. Przecież człowiek stwarza nowe gatunki zwierząt i roślin. A rośliny i zwierzęta uważamy za dzieła Boże. To samo można zastosować do sztucznej istoty o charakterze niebiologicznym.

Fantastyka naukowa

W pracach Roberta Heinleina temat sztucznej inteligencji jest rozpatrywany z różnych punktów widzenia: hipoteza pojawienia się samoświadomości sztucznej inteligencji, gdy struktura staje się bardziej złożona powyżej pewnego poziomu krytycznego i następuje interakcja ze światem zewnętrznym i innymi nośnikami inteligencja („Księżyc jest surową kochanką”, „Wystarczy czasu na miłość”, postacie Mycrofta, Dory i Ayi w serialu „Historia przyszłości”), problemy z rozwojem AI po hipotetycznej samoświadomości oraz pewne społeczne i kwestie etyczne („piątek”). Społeczno-psychologiczne problemy interakcji człowieka z sztuczną inteligencją poruszane są także w powieści Philipa K. Dicka „Czy androidy śnią o elektrycznych owcach? ”, znanego także z filmowej adaptacji Blade Runnera.

Prace pisarza science fiction i filozofa Stanisława Lema opisują i w dużej mierze antycypują powstanie wirtualnej rzeczywistości, sztucznej inteligencji, nanorobotów i wiele innych problemów filozofii sztucznej inteligencji. Na szczególną uwagę zasługuje futurologia technologii Sum. Ponadto w przygodach Iyona Cichego wielokrotnie opisywana jest relacja żywych istot z maszynami: bunt komputera pokładowego z kolejnymi nieoczekiwanymi zdarzeniami (11. podróż), adaptacja robotów w społeczeństwie ludzkim („Pranie Tragedia” z „Wspomnienia Ijona Cichego”), stworzenie absolutnego porządku na planecie poprzez przetwarzanie żywych mieszkańców (24 podróż), wynalazki Corcorana i Diagorasa („Wspomnienia Ijona Cichego”), klinika psychiatryczna dla robotów ( „Wspomnienia Ijona Cichego”). Do tego dochodzi cała seria powieści i opowiadań Cyberiad, w których niemal wszyscy bohaterowie to roboty, będące dalekimi potomkami robotów, które uciekły przed ludźmi (nazywają ludzi bladymi i uważają ich za stworzenia mityczne).

Kino

Niemal od lat 60. XX wieku, wraz z pisaniem opowiadań i nowel science fiction, powstawały filmy o sztucznej inteligencji. Wiele opowiadań autorów uznanych na całym świecie zostaje sfilmowanych i staje się klasyką gatunku, inne stają się kamieniem milowym w rozwoju

Sztuczna inteligencja (AI)(Angielski) Sztuczna inteligencja (AI) to nauka i rozwój inteligentnych maszyn i systemów, zwłaszcza inteligentnych programów komputerowych, mających na celu zrozumienie ludzkiej inteligencji. Jednakże stosowane metody niekoniecznie są biologicznie wiarygodne. Problem w tym, że nie wiadomo, które procedury obliczeniowe chcemy nazwać inteligentnymi. A skoro rozumiemy tylko niektóre mechanizmy inteligencji, to przez inteligencję w tej nauce rozumiemy tylko obliczeniową część zdolności do osiągania celów w świecie.

U wielu ludzi, zwierząt i niektórych maszyn istnieją różne typy i stopnie inteligencji, inteligentne systemy informacyjne oraz różne modele systemów ekspertowych o różnych bazach wiedzy. Jednocześnie, jak widzimy, ta definicja inteligencji nie ma związku z rozumieniem ludzkiej inteligencji – to są różne rzeczy. Co więcej, nauka ta modeluje ludzką inteligencję, ponieważ z jednej strony można dowiedzieć się czegoś o tym, jak zmusić maszyny do rozwiązywania problemów, obserwując innych ludzi, a z drugiej strony większość osób zajmujących się sztuczną inteligencją bada problemy, które ludzkość musi rozwiązać w sensie przemysłowym i technologicznym. Dlatego badacze sztucznej inteligencji mogą swobodnie stosować techniki, których nie obserwuje się u ludzi, jeśli jest to konieczne do rozwiązania konkretnych problemów.

W tym właśnie znaczeniu termin ten wprowadził J. McCarthy w 1956 roku na konferencji na Uniwersytecie Dartmouth i do chwili obecnej, pomimo krytyki ze strony tych, którzy uważają, że inteligencja jest jedynie zjawiskiem biologicznym, w środowisku naukowym termin ten zachował swoją pierwotne znaczenie, pomimo oczywistych sprzeczności z punktu widzenia ludzkiej inteligencji.

W filozofii kwestia natury i statusu ludzkiego intelektu nie została rozstrzygnięta. Nie ma też dokładnego kryterium osiągnięcia przez komputery „inteligencji”, chociaż u zarania sztucznej inteligencji proponowano szereg hipotez, na przykład test Turinga czy hipotezę Newella-Simona. Dlatego pomimo wielu podejść zarówno do zrozumienia problemów AI, jak i tworzenia inteligentnych systemów informatycznych, można wyróżnić dwa główne podejścia do rozwoju AI:

· malejąco (angielski) Odgórna sztuczna inteligencja), semiotyczny - tworzenie systemów ekspertowych, baz wiedzy i systemów wnioskowania logicznego, które symulują procesy umysłowe wysokiego poziomu: myślenie, rozumowanie, mowę, emocje, kreatywność itp.;

· rosnąco Oddolna sztuczna inteligencja), biologiczne – badanie sieci neuronowych i obliczeń ewolucyjnych modelujących inteligentne zachowanie w oparciu o mniejsze „nieinteligentne” elementy.

To drugie podejście, ściśle rzecz biorąc, nie odnosi się do nauki o sztucznej inteligencji w sensie nadanym przez J. McCarthy’ego; łączy je jedynie wspólny cel ostateczny.

Historia sztucznej inteligencji jako nowego kierunku naukowego rozpoczyna się w połowie XX wieku. Do tego czasu powstało już wiele przesłanek do jego powstania: wśród filozofów od dawna toczyły się debaty na temat natury człowieka i procesu rozumienia świata, neurofizjolodzy i psychologowie opracowali szereg teorii dotyczących pracy ludzkiego mózgu i myślenia, ekonomiści i matematycy zadawali pytania dotyczące optymalnych obliczeń i przedstawiania wiedzy o świecie w sformalizowanej formie; wreszcie narodził się fundament matematycznej teorii obliczeń – teoria algorytmów i powstały pierwsze komputery.

Możliwości nowych maszyn pod względem szybkości obliczeń okazały się większe od ludzkich, dlatego środowisko naukowe postawił pytanie: jakie są granice możliwości komputerów i czy maszyny osiągną poziom rozwoju człowieka? W 1950 roku jeden z pionierów informatyki, angielski naukowiec Alan Turing, w artykule „Can a Machine Think?” udziela odpowiedzi na podobne pytania i opisuje procedurę, dzięki której możliwe będzie określenie momentu, w którym maszyna zrównuje się pod względem inteligencji z człowiekiem, co nazywa się testem Turinga.

Test Turinga to test empiryczny zaproponowany przez Alana Turinga w jego artykule z 1950 r. „Computing Machines and Minds” opublikowanym w czasopiśmie filozoficznym Umysł" Celem tego testu jest określenie możliwości sztucznego myślenia zbliżonego do ludzkiego. Standardowa interpretacja tego testu jest następująca: „Osoba wchodzi w interakcję z jednym komputerem i jedną osobą. Na podstawie odpowiedzi na pytania musi określić z kim rozmawia: z osobą czy programem komputerowym. Celem programu komputerowego jest wprowadzenie człowieka w błąd w celu dokonania błędnego wyboru. Wszyscy uczestnicy testu nie mogą się widzieć.

Istnieją trzy podejścia do definiowania sztucznej inteligencji:

1) Logiczne podejście w kierunku tworzenia systemów sztucznej inteligencji ma na celu tworzenie systemów ekspertowych z logicznymi modelami baz wiedzy wykorzystującymi język predykatów. System programowania językowego i logicznego Prolog został przyjęty jako model szkoleniowy dla systemów sztucznej inteligencji w latach 80-tych. Bazy wiedzy napisane w języku Prolog reprezentują zbiory faktów i reguł wnioskowania logicznego zapisane w języku logicznym. Logiczny model baz wiedzy pozwala na zapisywanie w języku Prologu nie tylko konkretnych informacji i danych w postaci faktów, ale także informacji uogólnionych z wykorzystaniem reguł i procedur wnioskowania logicznego, w tym logicznych reguł definiowania pojęć wyrażających określoną wiedzę jako konkretną i uogólnione informacje. Ogólnie rzecz ujmując, badania nad problematyką sztucznej inteligencji w informatyce w ramach logicznego podejścia do projektowania baz wiedzy i systemów ekspertowych mają na celu tworzenie, rozwój i działanie inteligentnych systemów informatycznych, włączając w to problematykę nauczania studentów i dzieci w wieku szkolnym, a także szkolenie użytkowników i twórców takich inteligentnych systemów informatycznych.

2) Podejście agentowe rozwija się od początku lat 90-tych. Według tego podejścia inteligencja to część obliczeniowa (planowanie) zdolności do osiągnięcia celów postawionych inteligentnej maszynie. Taka maszyna sama w sobie będzie inteligentnym agentem, postrzegającym otaczający go świat za pomocą czujników i potrafiącym oddziaływać na obiekty w otoczeniu za pomocą aktuatorów. Podejście to koncentruje się na tych metodach i algorytmach, które pomogą inteligentnemu agentowi przetrwać w środowisku podczas wykonywania swojego zadania. Dlatego algorytmy wyszukiwania i podejmowania decyzji są tutaj badane znacznie dokładniej.

3) Intuicyjne podejście zakłada, że ​​sztuczna inteligencja będzie w stanie wykazywać zachowanie nie różniące się od ludzi i to w normalnych sytuacjach. Pomysł ten jest uogólnieniem podejścia do testu Turinga, które stwierdza, że ​​maszyna stanie się inteligentna, gdy będzie w stanie prowadzić rozmowę ze zwykłym człowiekiem, a on nie będzie w stanie zrozumieć, że rozmawia z maszyną (tzw. rozmowa prowadzona jest korespondencyjnie).

W definicji wyróżniono następujące obszary badań z zakresu AI:

- Symboliczne modelowanie procesów myślowych.

Analizując historię sztucznej inteligencji, możemy wyróżnić tak szeroki obszar, jak modelowanie rozumowania. Przez wiele lat rozwój AI jako nauki podążał właśnie tą drogą, a obecnie jest to jeden z najbardziej rozwiniętych obszarów współczesnej AI. Rozumowanie modelujące polega na tworzeniu systemów symbolicznych, których wejście stanowi pewien problem, a wynik wymaga jego rozwiązania. Z reguły proponowany problem został już sformalizowany, czyli przetłumaczony na formę matematyczną, ale albo nie posiada algorytmu rozwiązania, albo jest zbyt skomplikowany, czasochłonny itp. Do tego obszaru zalicza się: dowód twierdzeń, decyzję tworzenie i teoria gier, planowanie i kierowanie, prognozowanie.

- Praca z językami naturalnymi.

Ważnym obszarem jest przetwarzanie języka naturalnego, które polega na badaniu możliwości rozumienia, przetwarzania i generowania tekstów w „ludzkim” języku. W szczególności nie rozwiązano jeszcze problemu maszynowego tłumaczenia tekstów z jednego języka na inny. We współczesnym świecie rozwój metod wyszukiwania informacji odgrywa ważną rolę. Ze swej natury oryginalny test Turinga jest powiązany z tym kierunkiem.

- Gromadzenie i wykorzystywanie wiedzy.

Według wielu naukowców ważną właściwością inteligencji jest zdolność uczenia się. Tym samym na pierwszy plan wysuwa się inżynieria wiedzy, łącząca zadania pozyskiwania wiedzy z prostych informacji, jej systematyzacji i wykorzystania. Postępy w tej dziedzinie wpływają na niemal każdy inny obszar badań nad sztuczną inteligencją. Tutaj również nie można pominąć dwóch ważnych podobszarów. Pierwszy z nich – uczenie maszynowe – dotyczy procesu samodzielnego zdobywania wiedzy przez inteligentny system w procesie jego działania. Drugie wiąże się z tworzeniem systemów ekspertowych – programów wykorzystujących specjalistyczne bazy wiedzy w celu uzyskania rzetelnych wniosków na temat dowolnego problemu.

Dziedzina uczenia maszynowego obejmuje dużą klasę problemów związanych z rozpoznawaniem wzorców. Na przykład jest to rozpoznawanie znaków, tekst pisany odręcznie, mowa, analiza tekstu. Wiele problemów można skutecznie rozwiązać za pomocą modelowania biologicznego. Modelowanie biologiczne

Istnieją duże i ciekawe osiągnięcia w dziedzinie modelowania układów biologicznych. Ściśle mówiąc, może to obejmować kilka niezależnych kierunków. Sieci neuronowe służą do rozwiązywania niejasnych i złożonych problemów, takich jak rozpoznawanie kształtów geometrycznych lub grupowanie obiektów. Podejście genetyczne opiera się na założeniu, że algorytm może stać się bardziej wydajny, jeśli zapożyczy lepsze cechy od innych algorytmów („rodziców”). Stosunkowo nowe podejście, w którym zadaniem jest stworzenie autonomicznego programu – agenta wchodzącego w interakcję ze środowiskiem zewnętrznym, nazywane jest podejściem agentowym. Na szczególną uwagę zasługuje widzenie komputerowe, które również kojarzone jest z robotyką.

- Robotyka.

Generalnie robotyka i sztuczna inteligencja są często ze sobą kojarzone. Integrację tych dwóch nauk, tworzenie inteligentnych robotów, można uznać za kolejny obszar AI.

- Kreatywność maszyn.

Natura ludzkiej kreatywności jest jeszcze mniej zbadana niż natura inteligencji. Niemniej jednak obszar ten istnieje i stawiane są tu problemy komputerowego pisania muzyki, dzieł literackich (często poezji lub baśni) oraz twórczości artystycznej. Tworzenie realistycznych obrazów jest szeroko stosowane w branży filmowej i gier. Dodanie tej funkcji do dowolnego inteligentnego systemu pozwala bardzo wyraźnie pokazać, co dokładnie system postrzega i jak to rozumie. Dodając szum zamiast brakujących informacji lub filtrując szum wiedzą dostępną w systemie, wiedza abstrakcyjna zostaje przetworzona na konkretne, łatwo dostrzegalne dla człowieka obrazy, co jest szczególnie przydatne w przypadku wiedzy intuicyjnej i o małej wartości, której weryfikacja w forma formalna wymaga znacznego wysiłku umysłowego.

- Inne obszary badań.

Zastosowań sztucznej inteligencji jest wiele, a każde z nich wyznacza niemal niezależny kierunek. Przykłady obejmują inteligencję programistyczną w grach komputerowych, sterowanie nieliniowe i inteligentne systemy bezpieczeństwa informacji.

Podejścia do tworzenia inteligentnych systemów. Podejście symboliczne pozwala operować słabo sformalizowanymi reprezentacjami i ich znaczeniami. Wydajność i ogólna skuteczność zależą od umiejętności wyróżnienia tylko niezbędnych informacji. Szeroki zakres klas problemów skutecznie rozwiązywanych przez ludzki umysł wymaga niesamowitej elastyczności metod abstrakcji. Niedostępne w żadnym podejściu inżynierskim, które badacz początkowo wybierze w oparciu o celowo błędne kryterium, ze względu na jego zdolność do szybkiego zapewnienia skutecznego rozwiązania jakiegoś problemu, który jest mu najbliższy. Czyli dla jednego modelu abstrakcji i konstrukcji bytów już zaimplementowanych w postaci reguł. Powoduje to znaczne wydatkowanie zasobów na zadania inne niż podstawowe, czyli w przypadku większości zadań system powraca od inteligencji do brutalnej siły, a z projektu znika sama istota inteligencji.

Jest to szczególnie trudne bez logiki symbolicznej, gdy zadaniem jest opracowanie reguł, ponieważ ich elementy składowe, nie będąc pełnoprawnymi jednostkami wiedzy, nie są logiczne. Większość badań kończy się na niemożliwości przynajmniej zidentyfikowania nowych trudności, które pojawiły się przy użyciu wybranych na poprzednich etapach systemów symbolicznych. Co więcej, rozwiązuj je, a zwłaszcza trenuj komputer, aby je rozwiązywał, lub przynajmniej identyfikuj i wychodź z takich sytuacji.

Historycznie rzecz biorąc, podejście symboliczne było pierwszym w epoce maszyn cyfrowych, ponieważ dopiero po stworzeniu Lisp, pierwszego symbolicznego języka obliczeniowego, jego autor nabrał pewności co do możliwości praktycznego rozpoczęcia wdrażania tych środków inteligencji. Inteligencja jako taka, bez żadnych zastrzeżeń i konwencji.

Powszechnie praktykowane jest tworzenie hybrydowych systemów inteligentnych, w których wykorzystuje się kilka modeli jednocześnie. Eksperckie reguły wnioskowania mogą być generowane przez sieci neuronowe, a reguły generatywne są uzyskiwane za pomocą uczenia statystycznego.

Rozwój teorii zbiorów rozmytych. Rozwój teorii zbiorów rozmytych rozpoczął się od artykułu „Zbiory rozmyte” opublikowanego przez amerykańskiego profesora Lotfiego Zadeha, który jako pierwszy wprowadził pojęcie zbioru rozmytego, zaproponował ideę i pierwszą koncepcję teorii, która umożliwiła rozmycie opisywać rzeczywiste systemy. Najważniejszym kierunkiem teorii zbiorów rozmytych jest logika rozmyta, wykorzystywana do sterowania systemami, a także w eksperymentach nad tworzeniem ich modeli.

Lata 60. rozpoczęły okres szybkiego rozwoju komputerów i technologii cyfrowych opartych na logice binarnej. Uważano wówczas, że zastosowanie tej logiki pozwoli rozwiązać wiele problemów naukowych i technicznych. Z tego powodu pojawienie się logiki rozmytej pozostało prawie niezauważone, pomimo całej jej rewolucyjnej natury pojęciowej. Jednak znaczenie logiki rozmytej zostało docenione przez wielu przedstawicieli środowiska naukowego i zostało opracowane oraz praktyczne wdrożenie w różnych zastosowaniach przemysłowych. Po pewnym czasie zainteresowanie nią zaczęło wzrastać ze strony szkół naukowych zrzeszających zwolenników technologii opartych na logice binarnej. Stało się tak dlatego, że odkryto całkiem sporo problemów praktycznych, których nie dało się rozwiązać przy pomocy tradycyjnych modeli i metod matematycznych, pomimo znacznie zwiększonych dostępnych prędkości obliczeniowych. Potrzebna była nowa metodologia, której charakterystyczne cechy znalazła logika rozmyta.

Podobnie jak robotyka, logika rozmyta spotkała się z dużym zainteresowaniem nie w swoim kraju pochodzenia, Stanach Zjednoczonych, ale poza jej granicami, w konsekwencji pierwszym doświadczeniem przemysłowego wykorzystania logiki rozmytej – do sterowania instalacjami kotłowymi elektrowni – jest związany z Europą. Wszelkie próby zastosowania tradycyjnych, czasem bardzo skomplikowanych metod sterowania kotłem parowym kończyły się niepowodzeniem – ten nieliniowy układ okazał się niezwykle skomplikowany. Dopiero zastosowanie logiki rozmytej umożliwiło syntezę sterownika spełniającego wszystkie wymagania. W 1976 roku za podstawę systemu automatycznego sterowania piecem obrotowym do produkcji cementu wykorzystano logikę rozmytą. Jednak pierwsze praktyczne wyniki stosowania logiki rozmytej, uzyskane w Europie i Ameryce, nie spowodowały znaczącego wzrostu zainteresowania nią. Podobnie jak to było z robotyką, krajem, który jako pierwszy rozpoczął powszechne wdrażanie logiki rozmytej, zdając sobie sprawę z jej ogromnego potencjału, była Japonia.

Spośród stosowanych systemów rozmytych stworzonych w Japonii najbardziej znany jest system sterowania pociągiem metra opracowany przez firmę Hitachi w Sendai. Projekt był realizowany przy udziale doświadczonego kierowcy, którego wiedza i doświadczenie stanowiły podstawę opracowanego modelu sterowania. System automatycznie zmniejszał prędkość pociągu w miarę zbliżania się do stacji, zapewniając zatrzymanie się w żądanym miejscu. Kolejną zaletą pociągu był wysoki komfort, wynikający z płynnego przyspieszania i zwalniania. W porównaniu z tradycyjnymi systemami sterowania istniało wiele innych zalet.

Szybki rozwój logiki rozmytej w Japonii doprowadził do jej praktycznych zastosowań nie tylko w przemyśle, ale także w produkcji dóbr konsumpcyjnych. Przykładem może być kamera wideo wyposażona w podsystem rozmytej stabilizacji obrazu, który wykorzystano do kompensacji wahań obrazu spowodowanych brakiem doświadczenia operatora. Problem ten był zbyt złożony, aby można go było rozwiązać tradycyjnymi metodami, gdyż konieczne było odróżnienie przypadkowych wahań obrazu od celowego ruchu fotografowanych obiektów (na przykład ruchu ludzi).

Innym przykładem jest pralka automatyczna, którą obsługuje się za naciśnięciem przycisku (Zimmerman 1994). Ta „uczciwość” wzbudziła zainteresowanie i spotkała się z aprobatą. Zastosowanie metod fuzzy logic umożliwiło optymalizację procesu prania, zapewniając automatyczne rozpoznawanie rodzaju, objętości i stopnia zabrudzenia odzieży, nie mówiąc już o tym, że ograniczenie mechanizmu sterującego maszyną do jednego przycisku znacznie ułatwiło pranie. uchwyt.

Wynalazki logiki rozmytej zostały wdrożone przez japońskie firmy w wielu innych urządzeniach, w tym w kuchenkach mikrofalowych (Sanyo), układach przeciwblokujących i automatycznych skrzyniach biegów (Nissan), zintegrowanym systemie kontroli dynamiki pojazdu (INVEC) oraz sterownikach dysków twardych w komputerach skrócenie czasu dostępu do informacji.

Oprócz zastosowań wymienionych powyżej, od początku lat 90-tych. Następuje intensywny rozwój metod rozmytych w szeregu obszarów zastosowań, także tych niezwiązanych z technologią:

Elektroniczny system kontroli rozrusznika serca;

System sterowania pojazdem silnikowym;

Systemy chłodzenia;

Klimatyzatory i urządzenia wentylacyjne;

Urządzenia do spalania odpadów;

Piec do topienia szkła;

System monitorowania ciśnienia krwi;

Diagnostyka nowotworów;

Diagnoza aktualnego stanu układu sercowo-naczyniowego;

System sterowania dźwigami i mostami;

Przetwarzanie obrazu;

Szybka ładowarka;

Rozpoznawanie słów;

Zarządzanie bioprocesorem;

Sterowanie silnikiem elektrycznym;

Sprzęt spawalniczy i procesy spawalnicze;

Systemy kontroli ruchu;

Badania biomedyczne;

Stacje uzdatniania wody.

W tej chwili przy tworzeniu sztucznej inteligencji (w pierwotnym znaczeniu tego słowa systemy ekspertowe i programy szachowe nie mają tutaj miejsca) następuje intensywne wcieranie w bazy wiedzy wszystkich dziedzin tematycznych, które mają przynajmniej pewien związek z sztuczną inteligencją . Prawie wszystkie podejścia zostały przetestowane, ale żadna grupa badawcza nie zajęła się pojawieniem się sztucznej inteligencji.

Badania nad sztuczną inteligencją dołączyły do ​​ogólnego nurtu technologii osobliwości (przeskok gatunków, wykładniczy rozwój człowieka), takich jak informatyka, systemy ekspertowe, nanotechnologia, bioelektronika molekularna, biologia teoretyczna, teoria(e) kwantowe, nootropiki, ekstrofile itp. zobacz codzienny strumień Wiadomości Kurzweila, MIT.

Wyniki rozwoju w dziedzinie sztucznej inteligencji weszły do ​​szkolnictwa wyższego i średniego w Rosji w postaci podręczników do informatyki, gdzie obecnie badane są zagadnienia pracy i tworzenia baz wiedzy, systemów ekspertowych opartych na komputerach osobistych opartych na krajowych systemach programowania logicznego, a także studiowanie podstawowych zagadnień matematyki i informatyki na przykładach pracy z modelami baz wiedzy i systemów ekspertowych w szkołach i na uczelniach.

Opracowano następujące systemy sztucznej inteligencji:

1. Deep Blue - pokonał mistrza świata w szachach. (Mecz Kasparowa z superkomputerami nie przyniósł satysfakcji ani informatykom, ani szachistom, a system nie został rozpoznany przez Kasparowa, chociaż oryginalne kompaktowe programy szachowe są integralnym elementem szachowej kreatywności. Następnie w latach pojawiła się linia superkomputerów IBM brute force projektuje BluGene (modelowanie molekularne) i modelowanie układu komórek piramidalnych w szwajcarskim Blue Brain Center. Ta historia jest przykładem zawiłego i tajnego związku między sztuczną inteligencją, biznesem i krajowymi celami strategicznymi.)

2. Mycyna była jednym z pierwszych systemów eksperckich, który potrafił diagnozować niewielki zestaw chorób, często tak dokładnie, jak lekarze.

3. 20q to projekt oparty na pomysłach AI, oparty na klasycznej grze „20 pytań”. Dużą popularność zyskał po pojawieniu się w Internecie na stronie 20q.net.

4. Rozpoznawanie mowy. Systemy takie jak ViaVoice są w stanie służyć konsumentom.

5. Roboty rywalizują w uproszczonej formie piłki nożnej w corocznym turnieju RoboCup.

Banki wykorzystują systemy sztucznej inteligencji (AI) w działalności ubezpieczeniowej (matematyka aktuarialna) podczas gry na giełdzie i zarządzania nieruchomościami. W sierpniu 2001 r. roboty pokonały ludzi w zaimprowizowanym konkursie handlowym (BBC News, 2001). Metody rozpoznawania wzorców (w tym zarówno bardziej złożone i wyspecjalizowane, jak i sieci neuronowe) znajdują szerokie zastosowanie w rozpoznawaniu optycznym i akustycznym (w tym tekstu i mowy), diagnostyce medycznej, filtrach antyspamowych, w systemach obrony powietrznej (identyfikacja celów), a także w celu zapewnienia szeregu innych zadań związanych z bezpieczeństwem narodowym.

Twórcy gier komputerowych zmuszeni są do stosowania sztucznej inteligencji o różnym stopniu zaawansowania. Standardowe zadania AI w grach to odnajdywanie ścieżki w przestrzeni dwuwymiarowej lub trójwymiarowej, symulowanie zachowania jednostki bojowej, obliczanie prawidłowej strategii ekonomicznej i tak dalej.

Sztuczna inteligencja jest ściśle powiązana z transhumanizmem. Razem z neurofizjologią, epistemologią i psychologią poznawczą tworzy bardziej ogólną naukę zwaną naukami kognitywnymi. Filozofia odgrywa szczególną rolę w sztucznej inteligencji. Również epistemologia – nauka o wiedzy w ramach filozofii – jest ściśle związana z problematyką sztucznej inteligencji. Filozofowie pracujący nad tym tematem zmagają się z pytaniami podobnymi do tych, przed którymi stoją inżynierowie sztucznej inteligencji, dotyczącymi tego, jak najlepiej reprezentować i wykorzystywać wiedzę i informacje. Tworzenie wiedzy z danych jest jednym z podstawowych problemów eksploracji danych. Istnieją różne podejścia do rozwiązania tego problemu, w tym oparte na technologii sieci neuronowych, wykorzystujące procedury werbalizacji sieci neuronowej.

W informatyce problemy sztucznej inteligencji rozpatrywane są z perspektywy projektowania systemów ekspertowych i baz wiedzy. Bazy wiedzy rozumiane są jako zbiór danych i reguł wnioskowania, które umożliwiają logiczne wnioskowanie i sensowne przetwarzanie informacji. Ogólnie rzecz biorąc, badania nad problematyką sztucznej inteligencji w informatyce mają na celu tworzenie, rozwój i działanie inteligentnych systemów informatycznych, z uwzględnieniem zagadnień szkolenia użytkowników i twórców takich systemów.

Nauka o „tworzeniu sztucznej inteligencji” nie mogła nie przyciągnąć uwagi filozofów. Wraz z pojawieniem się pierwszych inteligentnych systemów postawiono fundamentalne pytania dotyczące człowieka i wiedzy, a częściowo także porządku świata. Z jednej strony są one nierozerwalnie związane z tą nauką, z drugiej zaś wprowadzają w nią pewien chaos. Filozoficzne problemy tworzenia sztucznej inteligencji można podzielić na dwie grupy, mówiąc relatywnie, „przed i po rozwoju AI”. Pierwsza grupa odpowiada na pytanie: „Czym jest AI, czy można ją stworzyć i jeśli to możliwe, jak to zrobić?” Druga grupa (etyka sztucznej inteligencji) zadaje pytanie: „Jakie są konsekwencje stworzenia AI dla ludzkości?”

Zagadnienia tworzenia sztucznej inteligencji. Widoczne są dwa kierunki rozwoju AI: pierwszy – w rozwiązywaniu problemów związanych z przybliżaniem wyspecjalizowanych systemów AI do możliwości człowieka i ich integracją, co realizuje natura ludzka, drugi – w tworzeniu Sztucznej Inteligencji, która reprezentuje integracja już stworzonych systemów AI w jeden system zdolny do rozwiązywania problemów ludzkości.

Wśród badaczy AI nadal nie ma dominującego punktu widzenia na kryteria inteligencji, systematyzacji celów i zadań do rozwiązania, nie ma nawet ścisłej definicji nauki. Istnieją różne punkty widzenia na temat tego, co uważa się za inteligencję. Podejście analityczne polega na analizie wyższej aktywności nerwowej człowieka do najniższego, niepodzielnego poziomu (funkcja wyższej aktywności nerwowej, elementarna reakcja na zewnętrzne czynniki drażniące (bodźce), podrażnienie synaps zbioru neuronów połączonych funkcją) i późniejsze odtworzenie tych funkcji.

Niektórzy eksperci mylą zdolność racjonalnego, umotywowanego wyboru w warunkach braku informacji z inteligencją. Oznacza to, że za program intelektualny uważa się po prostu program działania, który może wybierać spośród pewnego zestawu alternatyw, na przykład, dokąd się udać w przypadku: „pojedziesz w lewo…”, „pojedziesz w prawo”. ...”, „pojedziesz prosto…”.

Najbardziej gorącą debatą w filozofii sztucznej inteligencji jest kwestia możliwości myślenia stworzonego przez ludzkie ręce. Pytanie „Czy maszyna może myśleć?”, które skłoniło badaczy do stworzenia nauki polegającej na symulowaniu ludzkiego umysłu, zostało postawione przez Alana Turinga w 1950 roku. Dwa główne punkty widzenia na tę kwestię nazywane są hipotezami silnej i słabej sztucznej inteligencji.

Termin „silna sztuczna inteligencja” został wprowadzony przez Johna Searle’a i jego słowami charakteryzuje to podejście: „Taki program nie będzie jedynie modelem umysłu; ona, w dosłownym tego słowa znaczeniu, sama będzie umysłem, w tym samym sensie, w jakim ludzki umysł jest umysłem. Z kolei zwolennicy słabej sztucznej inteligencji wolą postrzegać programy jedynie jako narzędzia, które pozwalają im rozwiązać pewne problemy, które nie wymagają pełnego zakresu zdolności poznawczych człowieka.

Eksperyment myślowy Johna Searle’a „Chinese Room” dowodzi, że zdanie testu Turinga nie jest warunkiem posiadania przez maszynę prawdziwego procesu myślowego. Myślenie to proces przetwarzania informacji zapisanych w pamięci: analiza, synteza i samoprogramowanie. Podobne stanowisko zajmuje Roger Penrose, który w swojej książce „The King's New Mind” argumentuje za niemożnością uzyskania procesu myślenia w oparciu o systemy formalne.


6. Urządzenia liczące i mikroprocesory.

Mikroprocesor (MP) to urządzenie odbierające, przetwarzające i wysyłające informacje. Strukturalnie MP zawiera jeden lub więcej układów scalonych i wykonuje działania określone przez program przechowywany w pamięci (ryc. 6.1).

Rysunek 6.1– Wygląd posła

Wczesne procesory zostały stworzone jako unikalne komponenty jedynych w swoim rodzaju systemów komputerowych. Później producenci komputerów przeszli od kosztownych metod opracowywania procesorów przeznaczonych do uruchamiania jednego lub kilku wysoce wyspecjalizowanych programów na rzecz masowej produkcji typowych klas wielofunkcyjnych urządzeń procesorowych. Tendencja do standaryzacji komponentów komputerowych narodziła się w dobie szybkiego rozwoju elementów półprzewodnikowych, komputerów typu mainframe i minikomputerów, a wraz z pojawieniem się układów scalonych stała się jeszcze bardziej popularna. Stworzenie mikroukładów umożliwiło dalsze zwiększenie złożoności procesorów przy jednoczesnym zmniejszeniu ich rozmiaru fizycznego.

Standaryzacja i miniaturyzacja procesorów doprowadziła do głębokiej penetracji opartych na nich urządzeń cyfrowych do codziennego życia człowieka. Nowoczesne procesory można znaleźć nie tylko w zaawansowanych technologicznie urządzeniach, takich jak komputery, ale także w samochodach, kalkulatorach, telefonach komórkowych, a nawet zabawkach dla dzieci. Najczęściej są one reprezentowane przez mikrokontrolery, w których oprócz urządzenia obliczeniowego na chipie znajdują się dodatkowe komponenty (pamięć programów i danych, interfejsy, porty wejścia/wyjścia, timery itp.). Możliwości obliczeniowe mikrokontrolera są porównywalne z procesorami komputerów osobistych sprzed dziesięciu lat, a często nawet znacznie przewyższają ich wydajność.

System mikroprocesorowy (MPS) to system obliczeniowy, oprzyrządowania lub sterowania, w którym głównym urządzeniem przetwarzającym informacje jest MP. Układ mikroprocesorowy zbudowany jest z zestawu mikroprocesorowych LSI (rys. 6.2).

Rysunek 6.2– Przykład układu mikroprocesorowego

Generator impulsów zegarowych ustala przedział czasu, będący jednostką miary (kwantową) czasu trwania wykonania polecenia. Im wyższa częstotliwość, tym szybszy MPS, przy wszystkich innych czynnikach niezmiennych. MP, RAM i ROM są integralnymi częściami systemu. Interfejsy wejściowe i wyjściowe - urządzenia służące do łączenia MPS z blokami wejściowymi i wyjściowymi. Przyrządy pomiarowe charakteryzują się urządzeniami wejściowymi w postaci pilota przyciskowego i przetwornikami pomiarowymi (przetworniki ADC, czujniki, cyfrowe jednostki wejściowe informacji). Urządzenia wyjściowe to zazwyczaj wyświetlacze cyfrowe, ekran graficzny (wyświetlacz) i urządzenia zewnętrzne służące do komunikacji z systemem pomiarowym. Wszystkie bloki MPS są połączone magistralami cyfrowej transmisji informacji. MPS wykorzystuje zasadę komunikacji szkieletowej, w której bloki wymieniają informacje za pośrednictwem pojedynczej magistrali danych. Liczba linii w magistrali danych zwykle odpowiada pojemności MPS (liczbie bitów w słowie danych). Szyna adresowa służy do wskazania kierunku przesyłania danych - przesyła adres komórki pamięci lub bloku I/O, która aktualnie odbiera lub przesyła informację. Szyna sterująca służy do przesyłania sygnałów synchronizujących całą pracę MPS.

Konstrukcja IPS opiera się na trzech zasadach:

linia główna;

Modułowość;

Sterowanie mikroprogramem.

Zasada trunkingu – określa charakter połączeń pomiędzy blokami funkcjonalnymi MPS – wszystkie bloki podłączone są do jednej magistrali systemowej.

Zasada modułowości polega na tym, że system budowany jest w oparciu o ograniczoną liczbę typów kompletnych strukturalnie i funkcjonalnie modułów.

Zasady trunkingu i modułowości umożliwiają zwiększenie możliwości kontrolnych i obliczeniowych MP poprzez podłączenie innych modułów do magistrali systemowej.

Zasadą sterowania mikroprogramowego jest możliwość wykonywania elementarnych operacji – mikropoleceń (przesunięć, przekazów informacji, operacji logicznych), za pomocą których tworzony jest język technologiczny, czyli zestaw poleceń najlepiej odpowiadający celowi systemu.

Ze względu na swój cel parlamentarzyści dzielą się na uniwersalnych i wyspecjalizowanych.

Mikroprocesory uniwersalne to mikroprocesory ogólnego przeznaczenia, które rozwiązują szeroką gamę problemów obliczeniowych, przetwarzania i sterowania. Przykładem zastosowania uniwersalnych MP są komputery zbudowane na platformach IBM i Macintosh.

Specjalistyczne mikroprocesory są przeznaczone do rozwiązywania problemów tylko określonej klasy. Do wyspecjalizowanych MP zalicza się: sygnalizację, multimedia i transputery.

Procesory sygnałowe (DSP) są przeznaczone do cyfrowego przetwarzania sygnałów w czasie rzeczywistym (na przykład filtrowania sygnału, obliczania splotu, obliczania funkcji korelacji, ograniczania i kondycjonowania sygnału, wykonywania przedniej i odwrotnej transformaty Fouriera). (Rysunek 6.3) Do procesorów sygnałowych zaliczają się procesory firmy Texas Instruments — TMS320C80, Analog Devices — — ADSP2106x, Motorola — DSP560xx i DSP9600x.

Rysunek 6.3– Przykład wewnętrznej struktury DSP

Procesory multimedialne i multimedialne przeznaczone są do przetwarzania sygnałów audio, informacji graficznych, obrazów wideo, a także do rozwiązywania szeregu problemów w komputerach multimedialnych, konsolach do gier i sprzęcie AGD. Do procesorów tych zaliczają się procesory firm MicroUnity – Mediaprocessor, Philips – Trimedia, Cromatic Research – Mpact Media Engine, Nvidia – NV1, Cyrix – MediaGX.

Transputery przeznaczone są do organizowania masowo równoległych obliczeń i pracy w systemach wieloprocesorowych. Charakteryzują się obecnością pamięci wewnętrznej i wbudowanym interfejsem międzyprocesorowym, czyli kanałami komunikacyjnymi z innymi MP LSI.

Ze względu na rodzaj architektury, czyli zasadę konstrukcji, rozróżnia się parlamentarzystów o architekturze von Neumanna i parlamentarzystów o architekturze Harvardu.

Pojęcie architektury mikroprocesora definiuje jego części składowe, a także połączenia i interakcje między nimi.

Architektura obejmuje:

schemat blokowy MP;

Model oprogramowania MP (opis funkcji rejestru);

Informacje o organizacji pamięci (pojemność i metody adresowania pamięci);

Opis organizacji procedur wejścia/wyjścia.

Architektura Fonneumanna (ryc. 6.4, a) została zaproponowana w 1945 roku przez amerykańskiego matematyka Joe von Neumanna. Jego osobliwością jest to, że program i dane znajdują się w pamięci współdzielonej, do której dostęp można uzyskać za pośrednictwem jednej magistrali danych i poleceń.

Architekturę Harvarda po raz pierwszy zaimplementowano w 1944 roku w komputerze przekaźnikowym na Uniwersytecie Harvarda (USA). Cechą tej architektury jest to, że pamięć danych i pamięć programu są oddzielone i mają oddzielne magistrale danych i magistrale poleceń (ryc. 6.4, b), co umożliwia zwiększenie wydajności systemu MP.

Rysunek 6.4. Główne typy architektury: (a - von Neumann; 6 - Harvard)

Ze względu na rodzaj systemu instrukcji rozróżnia się procesory CISC (Complete Order Set Computing) z pełnym zestawem instrukcji (typowymi przedstawicielami CISC są rodzina mikroprocesorów Intel x86) i Procesory RISC(Przetwarzanie o zmniejszonym zestawie instrukcji) ze zredukowanym zestawem instrukcji (charakteryzującym się obecnością instrukcji o stałej długości, dużą liczbą rejestrów, operacjami między rejestrami i brakiem adresowania pośredniego).

Mikrokontroler jednoukładowy (MCU) to układ przeznaczony do sterowania urządzeniami elektronicznymi (rysunek 5). Typowy mikrokontroler łączy w sobie funkcje procesora i urządzeń peryferyjnych i może zawierać pamięć RAM i ROM. Zasadniczo jest to komputer jednoukładowy, który może wykonywać proste zadania. Zastosowanie pojedynczego chipa zamiast całego zestawu znacznie zmniejsza rozmiar, pobór mocy i koszt urządzeń opartych na mikrokontrolerach.

Rysunek 6.5– przykłady konstrukcji mikrokontrolerów

Mikrokontrolery są podstawą budowy systemów wbudowanych, można je znaleźć w wielu nowoczesnych urządzeniach, takich jak telefony, pralki itp. Większość procesorów produkowanych na świecie to mikrokontrolery.

Dziś 8-bitowe mikrokontrolery kompatybilne z i8051 firmy Intel, mikrokontrolery PIC firmy Microchip Technology i AVR firmy Atmel, szesnastobitowe MSP430 firmy TI, a także ARM, którego architektura jest rozwijana przez ARM i sprzedaje licencje innym firmom ich produkcji, cieszą się popularnością wśród programistów.

Projektując mikrokontrolery, należy zachować równowagę między rozmiarem i kosztem z jednej strony, a elastycznością i wydajnością z drugiej. W przypadku różnych zastosowań optymalna równowaga tych i innych parametrów może się znacznie różnić. Dlatego istnieje ogromna liczba typów mikrokontrolerów, różniących się architekturą modułu procesora, wielkością i rodzajem wbudowanej pamięci, zestawem urządzeń peryferyjnych, rodzajem obudowy itp.

Częściowa lista urządzeń peryferyjnych, które mogą być obecne w mikrokontrolerach, obejmuje:

Uniwersalne porty cyfrowe, które można skonfigurować jako wejście lub wyjście;

Różne interfejsy I/O, takie jak UART, I²C, SPI, CAN, USB, IEEE 1394, Ethernet;

Przetworniki analogowo-cyfrowe i cyfrowo-analogowe;

komparatory;

modulatory szerokości impulsu;

Timery, wbudowany generator zegara i timer watchdog;

Bezszczotkowe sterowniki silników;

Kontrolery wyświetlaczy i klawiatur;

Odbiorniki i nadajniki częstotliwości radiowych;

Tablice wbudowanej pamięci flash.

Sztuczna inteligencja (AI, ang. Sztuczna inteligencja, AI) – nauka i technologia tworzenia inteligentnych maszyn, w szczególności inteligentnych programów komputerowych. Sztuczna inteligencja wiąże się z podobnym zadaniem, jakim jest wykorzystanie komputerów do zrozumienia ludzkiej inteligencji, ale niekoniecznie ogranicza się do biologicznie wiarygodnych metod.

Czym jest sztuczna inteligencja

Inteligencja(od łac. intellectus – doznanie, percepcja, zrozumienie, zrozumienie, koncepcja, rozum) czyli umysł – cecha psychiki polegająca na umiejętności przystosowania się do nowych sytuacji, zdolności uczenia się i zapamiętywania w oparciu o doświadczenie, rozumienia i stosowania abstrakcyjne koncepcje i wykorzystywać swoją wiedzę do zarządzania środowiskowego. Inteligencja to ogólna zdolność poznania i rozwiązywania trudności, która łączy w sobie wszystkie zdolności poznawcze człowieka: czucie, percepcję, pamięć, reprezentację, myślenie, wyobraźnię.

Na początku lat 80. Obliczeniowcy Barr i Fajgenbaum zaproponowali następującą definicję sztucznej inteligencji (AI):


Później wiele algorytmów i systemów oprogramowania zaczęto klasyfikować jako sztuczną inteligencję, której charakterystyczną właściwością jest to, że mogą rozwiązać niektóre problemy w taki sam sposób, jak zrobiłaby to osoba myśląca o ich rozwiązaniu.

Główne właściwości AI to rozumienie języka, uczenie się oraz zdolność myślenia i, co ważne, działania.

AI to zespół powiązanych technologii i procesów, które rozwijają się jakościowo i szybko, na przykład:

  • przetwarzanie tekstu w języku naturalnym
  • systemy ekspertowe
  • wirtualni agenci (chatboty i wirtualni asystenci)
  • systemy rekomendacji.

Badania nad sztuczną inteligencją

  • Główny artykuł: Badania nad sztuczną inteligencją

Standaryzacja w AI

2018: Opracowanie standardów w obszarze komunikacji kwantowej, AI i smart city

W dniu 6 grudnia 2018 roku Komitet Techniczny „Systemy Cyber-Fizyczne” oparty na RVC wraz z Regionalnym Centrum Inżynieryjnym „SafeNet” rozpoczął opracowywanie zestawu standardów dla rynków Narodowej Inicjatywy Technologicznej (NTI) i gospodarki cyfrowej. Do marca 2019 r. planowane jest opracowanie dokumentów normalizacyjnych technicznych w dziedzinie komunikacji kwantowej – podaje RVC. Przeczytaj więcej.

Wpływ sztucznej inteligencji

Zagrożenie dla rozwoju cywilizacji ludzkiej

Wpływ na gospodarkę i biznes

  • Wpływ technologii sztucznej inteligencji na gospodarkę i biznes

Wpływ na rynek pracy

Błąd sztucznej inteligencji

U podstaw wszystkiego, co stanowi praktykę sztucznej inteligencji (tłumaczenie maszynowe, rozpoznawanie mowy, przetwarzanie języka naturalnego, wizja komputerowa, zautomatyzowana jazda i wiele więcej), leży głębokie uczenie się. Jest to podzbiór uczenia maszynowego, charakteryzujący się wykorzystaniem modeli sieci neuronowych, o których można powiedzieć, że naśladują działanie mózgu, więc sklasyfikowanie ich jako sztucznej inteligencji byłoby nadużyciem. Każdy model sieci neuronowej jest szkolony na dużych zbiorach danych, dzięki czemu nabywa pewne „umiejętności”, ale sposób, w jaki je wykorzystuje, pozostaje dla jego twórców niejasny, co ostatecznie staje się jednym z najważniejszych problemów wielu aplikacji głębokiego uczenia się. Powodem jest to, że taki model formalnie pracuje z obrazami, bez żadnego zrozumienia, co robi. Czy taki system to sztuczna inteligencja i czy można ufać systemom zbudowanym na uczeniu maszynowym? Konsekwencje odpowiedzi na ostatnie pytanie wykraczają poza laboratorium naukowe. Dlatego też zauważalnie wzrosło zainteresowanie mediów zjawiskiem zwanym stronniczością AI. Można to przetłumaczyć jako „stronniczość AI” lub „stronniczość AI”. Przeczytaj więcej.

Rynek technologii sztucznej inteligencji

Rynek sztucznej inteligencji w Rosji

Globalny rynek sztucznej inteligencji

Obszary zastosowań AI

Obszary zastosowań AI są dość szerokie i obejmują zarówno znane technologie, jak i pojawiające się nowe obszary, dalekie od masowego zastosowania, czyli inaczej mówiąc, jest to cała gama rozwiązań, od odkurzaczy po stacje kosmiczne. Całą ich różnorodność można podzielić według kryterium kluczowych punktów rozwoju.

Sztuczna inteligencja nie jest monolitycznym obszarem tematycznym. Co więcej, niektóre obszary technologiczne AI pojawiają się jako nowe podsektory gospodarki i odrębne podmioty, obsługując jednocześnie większość obszarów gospodarki.

Rozwój wykorzystania AI prowadzi do adaptacji technologii w klasycznych sektorach gospodarki wzdłuż całego łańcucha wartości i przekształca je, prowadząc do algorytmizacji niemal wszystkich funkcjonalności, od logistyki po zarządzanie firmą.

Wykorzystanie sztucznej inteligencji w sprawach obronnych i wojskowych

Zastosowanie w edukacji

Wykorzystanie AI w biznesie

Sztuczna inteligencja w branży elektroenergetycznej

  • Na poziomie projektowym: ulepszone prognozowanie generacji i zapotrzebowania na zasoby energii, ocena niezawodności urządzeń wytwórczych, automatyzacja zwiększonej generacji w przypadku gwałtownych wzrostów zapotrzebowania.
  • Na poziomie produkcyjnym: optymalizacja konserwacji prewencyjnej urządzeń, zwiększenie efektywności wytwarzania, ograniczenie strat, zapobieganie kradzieży zasobów energii.
  • Na poziomie promocji: optymalizacja cen w zależności od pory dnia i dynamiczne rozliczenia.
  • Na poziomie świadczenia usług: automatyczny wybór najbardziej dochodowego dostawcy, szczegółowe statystyki zużycia, zautomatyzowana obsługa klienta, optymalizacja zużycia energii z uwzględnieniem przyzwyczajeń i zachowań klienta.

Sztuczna inteligencja w produkcji

  • Na poziomie projektowym: zwiększenie efektywności rozwoju nowego produktu, zautomatyzowana ocena dostawców i analiza wymagań dotyczących części zamiennych.
  • Na poziomie produkcji: usprawnienie procesu realizacji zadań, automatyzacja linii montażowych, zmniejszenie liczby błędów, skrócenie czasu dostaw surowców.
  • Na poziomie promocji: prognozowanie wolumenu usług wsparcia i utrzymania, zarządzanie cenami.
  • Na poziomie świadczenia usług: usprawnienie planowania tras floty pojazdów, zapotrzebowanie na zasoby floty, podniesienie jakości szkolenia inżynierów serwisu.

AI w bankach

  • Rozpoznawanie wzorców - używane m.in. rozpoznawać klientów w oddziałach i przekazywać im specjalistyczne oferty.

AI w transporcie

  • Branża motoryzacyjna stoi u progu rewolucji: 5 wyzwań ery pojazdów bezzałogowych

AI w logistyce

AI w browarnictwie

Wykorzystanie AI w administracji publicznej

Sztuczna inteligencja w kryminalistyce

  • Rozpoznawanie wzorców - używane m.in. identyfikować przestępców w przestrzeni publicznej.
  • W maju 2018 r. wyszło na jaw, że holenderska policja wykorzystuje sztuczną inteligencję do prowadzenia dochodzeń w sprawie skomplikowanych przestępstw.

Jak podaje The Next Web, organy ścigania rozpoczęły digitalizację ponad 1500 raportów i 30 milionów stron związanych z nierozwiązanymi sprawami. Do formatu komputerowego przenoszone są materiały począwszy od 1988 roku, w których zbrodnia nie została wyjaśniona przez co najmniej trzy lata, a sprawca został skazany na ponad 12 lat więzienia.

Po zdigitalizowaniu cała treść zostanie podłączona do systemu uczenia maszynowego, który przeanalizuje zapisy i zdecyduje, w których przypadkach wykorzystano najbardziej wiarygodne dowody. Powinno to skrócić czas rozpatrywania spraw i rozwiązywania przeszłych i przyszłych przestępstw z kilku tygodni do jednego dnia.

Sztuczna inteligencja będzie kategoryzować przypadki według ich „rozwiązywalności” i wskaże możliwe wyniki badań DNA. Plan jest następnie zautomatyzować analizę w innych obszarach kryminalistyki, a być może nawet rozszerzyć ją na takie obszary, jak nauki społeczne i zeznania.

Dodatkowo, jak powiedział jeden z twórców systemu, Jeroen Hammer, w przyszłości mogą zostać udostępnione funkcje API dla partnerów.


Holenderska policja ma specjalną jednostkę, która specjalizuje się w opracowywaniu nowych technologii w celu rozwiązywania przestępstw. To on stworzył system AI do szybkiego wyszukiwania przestępców na podstawie dowodów.

AI w sądownictwie

Rozwój w dziedzinie sztucznej inteligencji pomoże radykalnie zmienić system sądownictwa, czyniąc go bardziej sprawiedliwym i wolnym od schematów korupcyjnych. Opinię tę wyraził latem 2017 roku Władimir Kryłow, doktor nauk technicznych, konsultant techniczny w firmie Artezio.

Naukowiec uważa, że ​​istniejące rozwiązania AI można z powodzeniem zastosować w różnych obszarach gospodarki i życia publicznego. Ekspert zwraca uwagę, że sztuczna inteligencja jest z powodzeniem stosowana w medycynie, ale w przyszłości może całkowicie zmienić wymiar sprawiedliwości.

„Patrząc codziennie na doniesienia prasowe o rozwoju w dziedzinie sztucznej inteligencji, zdumiewa Cię niewyczerpana wyobraźnia i płodność badaczy i programistów w tej dziedzinie. Doniesienia z badań naukowych stale przeplatają się z publikacjami o pojawiających się na rynku nowych produktach oraz raportami o niesamowitych wynikach uzyskanych dzięki zastosowaniu AI w różnych dziedzinach. Jeśli mówimy o spodziewanych wydarzeniach, którym towarzyszy zauważalny szum medialny, w którym AI ponownie stanie się bohaterem newsów, to raczej nie będę ryzykował tworzenia prognoz technologicznych. Mogę sobie wyobrazić, że kolejnym wydarzeniem będzie pojawienie się gdzieś niezwykle kompetentnego sądu w postaci sztucznej inteligencji, uczciwej i nieprzekupnej. Najwyraźniej stanie się to w latach 2020-2025. A procesy, które będą miały miejsce w tym sądzie, spowodują nieoczekiwane refleksje i chęć wielu osób przeniesienia na sztuczną inteligencję większości procesów zarządzania społeczeństwem ludzkim”.

Naukowiec uznaje wykorzystanie sztucznej inteligencji w wymiarze sprawiedliwości za „logiczny krok” w kierunku wypracowania równości i sprawiedliwości legislacyjnej. Inteligencja maszynowa nie podlega korupcji i emocjom, może ściśle trzymać się ram prawnych i podejmować decyzje biorąc pod uwagę wiele czynników, w tym dane charakteryzujące strony sporu. Analogicznie do medycyny, sędziowie-roboci mogą operować dużymi zbiorami danych z repozytoriów usług rządowych. Można założyć, że inteligencja maszynowa będzie w stanie szybko przetworzyć dane i uwzględnić znacznie więcej czynników niż człowiek-sędzia.

Eksperci psychologowie uważają jednak, że brak elementu emocjonalnego przy rozpatrywaniu spraw sądowych negatywnie wpłynie na jakość orzeczenia. Wyrok sądu maszynowego może być zbyt jednoznaczny, nieuwzględniający wagi uczuć i nastrojów ludzi.

Malarstwo

W 2015 roku zespół Google przetestował sieci neuronowe, aby sprawdzić, czy potrafią samodzielnie tworzyć obrazy. Następnie przeszkolono sztuczną inteligencję przy użyciu dużej liczby różnych zdjęć. Kiedy jednak maszynę „poproszono” o samodzielne zobrazowanie czegoś, okazało się, że w nieco dziwny sposób interpretuje otaczający nas świat. Na przykład do zadania rysowania hantli twórcy otrzymali obraz, na którym metal był połączony ludzkimi rękami. Prawdopodobnie stało się tak dlatego, że na etapie treningu analizowane zdjęcia z hantlami zawierały dłonie, a sieć neuronowa błędnie to zinterpretowała.

26 lutego 2016 roku na specjalnej aukcji w San Francisco przedstawiciele Google zebrali z psychodelicznych obrazów stworzonych przez sztuczną inteligencję około 98 tysięcy dolarów. Fundusze te przekazano na cele charytatywne. Jedno z najbardziej udanych zdjęć samochodu prezentujemy poniżej.

Obraz namalowany przez sztuczną inteligencję Google.

Wśród najważniejszych klas zadań, jakie stawiane są przed twórcami systemów inteligentnych od czasu zdefiniowania sztucznej inteligencji jako kierunku naukowego (od połowy lat 50. XX w.), należy wyróżnić: obszary sztucznej inteligencji, które rozwiązują trudne do sformalizowania problemy: dowód twierdzeń, rozpoznawanie obrazów, tłumaczenie maszynowe i rozumienie mowy ludzkiej, programy gier, kreatywność maszyn, systemy ekspertowe. Rozważmy pokrótce ich istotę.

Kierunki sztucznej inteligencji

Dowód twierdzeń. Badanie technik dowodzenia twierdzeń odegrało ważną rolę w rozwoju sztucznej inteligencji. Wiele nieformalnych problemów, na przykład diagnostyka medyczna, rozwiązuje się przy użyciu podejść metodologicznych, które były stosowane do automatyzacji dowodzenia twierdzeń. Znalezienie dowodu twierdzenia matematycznego wymaga nie tylko wyciągnięcia wniosków z hipotez, ale także stworzenia intuicyjnych założeń co do tego, które twierdzenia pośrednie należy udowodnić w celu uzyskania ogólnego dowodu głównego twierdzenia.

Rozpoznawanie obrazu. Zastosowanie sztucznej inteligencji do rozpoznawania obrazów umożliwiło stworzenie praktycznie działających systemów identyfikacji obiektów graficznych w oparciu o podobne cechy. Za cechy można uznać wszelkie cechy obiektów, które mają zostać rozpoznane. Cechy muszą być niezmienne w stosunku do orientacji, rozmiaru i kształtu obiektów. Alfabet funkcji jest tworzony przez twórcę systemu. Jakość rozpoznawania w dużej mierze zależy od tego, jak dobrze opracowany jest alfabet cech. Rozpoznawanie polega na uzyskaniu a priori wektora cech dla osobnego obiektu wybranego na obrazie, a następnie ustaleniu, któremu ze standardów alfabetu cech odpowiada ten wektor.

Tłumaczenie maszynowe i rozumienie mowy ludzkiej. Zadanie analizy zdań mowy ludzkiej za pomocą słownika jest typowym zadaniem dla systemów sztucznej inteligencji. Aby rozwiązać ten problem, stworzono język pośredni, który ułatwia porównywanie fraz z różnych języków. Następnie ten język pośredni przekształcił się w model semantyczny reprezentujący znaczenia tłumaczonych tekstów. Ewolucja modelu semantycznego doprowadziła do powstania języka wewnętrznej reprezentacji wiedzy. W rezultacie współczesne systemy analizują teksty i frazy w czterech głównych etapach: analiza morfologiczna, analiza syntaktyczna, semantyczna i pragmatyczna.

Programy do gier. Większość programów do gier opiera się na kilku podstawowych ideach sztucznej inteligencji, takich jak iteracja i samouczenie się. Jednym z najciekawszych problemów z zakresu programów do gier wykorzystujących metody sztucznej inteligencji jest nauczenie komputera gry w szachy. Została założona już w początkach informatyki, pod koniec lat 50-tych.

W szachach istnieją pewne poziomy umiejętności, stopnie jakości gry, które mogą zapewnić jasne kryteria oceny intelektualnego rozwoju systemu. Dlatego szachy komputerowe są aktywnie badane przez naukowców z całego świata, a wyniki ich osiągnięć są wykorzystywane w innych osiągnięciach intelektualnych, które mają realne znaczenie praktyczne.

W 1974 roku po raz pierwszy w ramach cyklicznego kongresu IFIP (Międzynarodowej Federacji Przetwarzania Informacji) w Sztokholmie odbyły się mistrzostwa świata programów szachowych. Zwycięzcą tego konkursu został program szachowy „Kaissa”. Powstał w Moskwie, w Instytucie Problemów Zarządzania Akademii Nauk ZSRR.

Twórczość maszynowa. Jednym z obszarów zastosowań sztucznej inteligencji są systemy oprogramowania, które potrafią samodzielnie tworzyć muzykę, poezję, opowiadania, artykuły, dyplomy, a nawet rozprawy doktorskie. Obecnie istnieje cała klasa muzycznych języków programowania (na przykład język C-Sound). Do różnych zadań muzycznych stworzono specjalne oprogramowanie: systemy przetwarzania dźwięku, syntezę dźwięku, interaktywne systemy kompozycji, programy do kompozycji algorytmicznej.

Systemy ekspertowe. Metody sztucznej inteligencji znalazły zastosowanie przy tworzeniu zautomatyzowanych systemów doradczych czy systemów eksperckich. Pierwsze systemy ekspertowe jako narzędzia badawcze powstały w latach 60. XX wieku.

Były to systemy sztucznej inteligencji zaprojektowane specjalnie do rozwiązywania złożonych problemów w wąskim obszarze tematycznym, takim jak diagnostyka medyczna chorób. Klasycznym celem tego kierunku było początkowo stworzenie systemu sztucznej inteligencji ogólnego przeznaczenia, który byłby w stanie rozwiązać każdy problem bez specjalistycznej wiedzy z danej dziedziny. Ze względu na ograniczone zasoby obliczeniowe problem ten okazał się zbyt złożony, aby można go było rozwiązać z akceptowalnym wynikiem.

Komercyjne wdrożenia systemów ekspertowych miało miejsce na początku lat 80. XX wieku i od tego czasu systemy ekspertowe stały się powszechne. Są stosowane w biznesie, nauce, technologii, produkcji i wielu innych obszarach, w których istnieje dobrze zdefiniowany obszar tematyczny. Główne znaczenie wyrażenia „dobrze zdefiniowany” polega na tym, że ekspert będący człowiekiem jest w stanie określić etapy rozumowania, za pomocą których można rozwiązać dowolny problem z danej dziedziny. Oznacza to, że podobne czynności może wykonać program komputerowy.

Teraz możemy to śmiało powiedzieć wykorzystanie systemów sztucznej inteligencji otwiera szerokie granice.

Obecnie systemy ekspertowe są jednym z najbardziej udanych zastosowań technologii sztucznej inteligencji. Dlatego zalecamy zapoznanie się z.


Definicja

Sztuczna inteligencja można zdefiniować jako dyscyplinę naukową zajmującą się automatyzacją inteligentnych zachowań.

Sztuczna inteligencja (sztuczna inteligencja, angielski Sztuczna inteligencja, sztuczna inteligencja) - nauka i technologia tworzenia inteligentnych maszyn, zwłaszcza inteligentnych programów komputerowych. Sztuczna inteligencja wiąże się z podobnym zadaniem, jakim jest wykorzystanie komputerów do zrozumienia ludzkiej inteligencji, ale niekoniecznie ogranicza się do biologicznie wiarygodnych metod.

Cele i zadania

Celem sztucznej inteligencji jest tworzenie systemów technicznych zdolnych do rozwiązywania problemów nieobliczeniowych i wykonywania działań wymagających przetworzenia znaczących informacji i uznawanych za przywilej ludzkiego mózgu. Do takich zadań zaliczają się na przykład problemy dowodzenia twierdzeń, problemy z grą (powiedzmy, podczas gry w szachy), problemy z tłumaczeniem z jednego języka na inny, komponowanie muzyki, rozpoznawanie obrazów wizualnych, rozwiązywanie złożonych problemów twórczych nauki i praktyki społecznej. Jednym z ważnych zadań sztucznej inteligencji jest tworzenie inteligentnych robotów zdolnych do samodzielnego wykonywania operacji, aby osiągać cele wyznaczone przez człowieka i dostosowywać swoje działania.

Struktura koncepcji

„Sztuczna inteligencja” składa się z kilku podstawowych zasad i dyscyplin, które stanowią jej podstawę. Jest to opisane bardziej szczegółowo na rysunku poniżej. Zdjęcie zaczerpnięte z

Poniżej znajdują się podstawowe definicje terminów użytych na obrazku.

Zakręcona logika oraz teoria zbiorów rozmytych - dział matematyki będący uogólnieniem logiki klasycznej i teorii mnogości. Pojęcie logiki rozmytej zostało po raz pierwszy wprowadzone przez profesora Lutfiego Zadeha w 1965 roku. W tym artykule pojęcie zbioru zostało rozszerzone o założenie, że funkcja przynależności elementu do zbioru może przyjmować dowolną wartość z przedziału , a nie tylko 0 lub 1. Takie zbiory nazywano rozmytymi. Autor zaproponował także różne operacje logiczne na zbiorach rozmytych oraz zaproponował koncepcję zmiennej językowej, której wartościami są zbiory rozmyte.

Sztuczne sieci neuronowe(SSN) – modele matematyczne oraz ich implementacje programowe lub sprzętowe, zbudowane na zasadach organizacji i funkcjonowania biologicznych sieci neuronowych – sieci komórek nerwowych organizmu żywego. Koncepcja ta zrodziła się podczas badania procesów zachodzących w mózgu i prób modelowania tych procesów. Pierwszą taką próbą były sieci neuronowe McCullocha i Pittsa. Następnie, po opracowaniu algorytmów uczenia się, powstałe modele zaczęto wykorzystywać do celów praktycznych: w prognozowaniu problemów, rozpoznawaniu wzorców, problemach sterowania itp.

Inteligentny agent- program samodzielnie wykonujący zadanie określone przez użytkownika komputera w długim okresie czasu. Inteligentni agenci pomagają operatorowi lub zbierają informacje. Przykładem zadań realizowanych przez agentów jest zadanie ciągłego wyszukiwania i gromadzenia niezbędnych informacji w Internecie. Wirusy komputerowe, boty, roboty wyszukujące – to wszystko również można zaliczyć do inteligentnych agentów. Chociaż tacy agenci mają ścisły algorytm, „inteligencja” w tym kontekście jest rozumiana jako zdolność do adaptacji i uczenia się.

System ekspertowy (ES, system ekspertowy)- program komputerowy, który może częściowo zastąpić eksperta w rozwiązywaniu sytuacji problemowej. Prace nad nowoczesnymi ES zaczęto prowadzić badaczy sztucznej inteligencji w latach 70. XX wieku, a w latach 80. XX wieku uzyskano wsparcie komercyjne. Prekursorów systemów ekspertowych zaproponował w 1832 roku S. N. Korsakow, który stworzył urządzenia mechaniczne, tzw. „inteligentne maszyny”, które pozwalały znaleźć rozwiązania dla danych warunków, np. określić najwłaściwsze leki na podstawie objawy choroby obserwowane u pacjenta.

Algorytm genetyczny(Angielski) algorytm genetyczny) to heurystyczny algorytm wyszukiwania używany do rozwiązywania problemów optymalizacji i modelowania poprzez losowy wybór, łączenie i różnicowanie pożądanych parametrów przy użyciu mechanizmów przypominających ewolucję biologiczną. Jest to rodzaj rachunku ewolucyjnego. Cechą charakterystyczną algorytmu genetycznego jest położenie nacisku na zastosowanie operatora „krzyżowania”, który wykonuje operację rekombinacji rozwiązań kandydujących, którego rola jest podobna do roli krzyżowania w przyrodzie ożywionej.

Modele i metody badawcze

Symboliczne modelowanie procesów myślowych

Analizując historię AI, możemy wyróżnić tak szeroki obszar jak modelowanie rozumowania. Przez wiele lat rozwój tej nauki podążał właśnie tą drogą, a obecnie jest to jeden z najbardziej rozwiniętych obszarów współczesnej sztucznej inteligencji. Rozumowanie modelujące polega na tworzeniu systemów symbolicznych, których wejście stanowi pewien problem, a wynik wymaga jego rozwiązania. Z reguły proponowany problem został już sformalizowany, czyli przetłumaczony na formę matematyczną, ale albo nie posiada algorytmu rozwiązania, albo jest zbyt skomplikowany, czasochłonny itp. Do tego obszaru zalicza się: dowodzenie twierdzeń, podejmowanie decyzji I teoria gier, planowanie i wysyłka, prognozowanie.

Praca z językami naturalnymi

Ważnym kierunkiem jest przetwarzanie języka naturalnego, w ramach którego przeprowadzana jest analiza możliwości rozumienia, przetwarzania i generowania tekstów w „ludzkim” języku. W szczególności nie rozwiązano jeszcze problemu maszynowego tłumaczenia tekstów z jednego języka na inny. We współczesnym świecie rozwój metod wyszukiwania informacji odgrywa ważną rolę. Ze swej natury oryginalny test Turinga jest powiązany z tym kierunkiem.

Gromadzenie i wykorzystanie wiedzy

Według wielu naukowców ważną właściwością inteligencji jest zdolność uczenia się. W ten sposób wysuwa się na pierwszy plan inżynieria wiedzy, łączący zadania pozyskiwania wiedzy z prostych informacji, jej systematyzacji i wykorzystania. Postępy w tej dziedzinie wpływają na niemal każdy inny obszar badań nad sztuczną inteligencją. Tutaj również nie można pominąć dwóch ważnych podobszarów. Pierwszy jest uczenie maszynowe- dotyczy procesu niezależny pozyskiwanie wiedzy przez inteligentny system w procesie jego działania. Drugie jest związane ze stworzeniem systemy ekspertowe- programy korzystające ze specjalistycznych baz wiedzy w celu uzyskania rzetelnych wniosków na temat dowolnego problemu.

Dziedzina uczenia maszynowego obejmuje dużą klasę problemów związanych rozpoznawanie wzorców. Na przykład jest to rozpoznawanie znaków, tekst pisany odręcznie, mowa, analiza tekstu. Wiele problemów można skutecznie rozwiązać za pomocą modelowania biologicznego (patrz następny akapit). Szczególnie warte wspomnienia wizja komputerowa, co jest również powiązane z robotyką.

Biologiczne modelowanie sztucznej inteligencji

Różni się ono od rozumienia sztucznej inteligencji według Johna McCarthy’ego, gdy wychodzą one ze stanowiska, że ​​sztuczne systemy nie mają obowiązku powtarzania w swojej strukturze i funkcjonowaniu struktury i procesów w nich zachodzących, właściwych systemom biologicznym; zjawiska zachowań człowieka, jego zdolność do uczenia się i adaptacji są konsekwencją budowy biologicznej i cech jego funkcjonowania.

Obejmuje to kilka obszarów. Sieci neuronowe służą do rozwiązywania niejasnych i złożonych problemów, takich jak rozpoznawanie kształtów geometrycznych lub grupowanie obiektów. Podejście genetyczne opiera się na założeniu, że algorytm może stać się bardziej wydajny, jeśli zapożyczy lepsze cechy od innych algorytmów („rodziców”). Stosunkowo nowe podejście, w którym zadaniem jest stworzenie autonomicznego programu – agenta wchodzącego w interakcję ze środowiskiem zewnętrznym, nazywa się podejście agenta.

Perspektywy rozwoju

Obecnie rozwój sztucznej inteligencji rozgałęził się na główne sektory, na których skupia się główna uwaga w postaci inwestycji materialnych i intelektualnych. Zdjęcie zaczerpnięte z

Literatura

1)„Zarządzanie wiedzą w przedsiębiorstwie i reengineering biznesu” Abdikeev, Kiselev

Głównymi zasobami dla rozwoju firm coraz częściej stają się ludzie i posiadana przez nich wiedza, kapitał intelektualny i wzrost kompetencji zawodowych personelu. Dziś potrzebne są nowe metody rozwoju organizacji, oparte na przecięciu podejścia humanitarnego i inżynieryjnego, które pozwolą uzyskać efekt synergiczny z ich interakcji. Podejście to opiera się na nowoczesnych osiągnięciach technologii informatycznych, a mianowicie technologiach kognitywnych służących rozwojowi organizacji. Rozwój symbiozy jest istotny koncepcje zarządzania wiedzą, reengineeringu procesów biznesowych i poznawczego komponentu ludzkiego.
Dla menedżerów wyższego szczebla, analityków biznesowych, studentów programów MBA w kierunki „Zarządzanie strategiczne”,„Zarządzanie antykryzysowe”, studenci uczelni ekonomicznych na poziomie magisterskim, absolwenci i nauczyciele kierunków zarządzanie przedsiębiorstwem i reengineering biznesu.

2) " Modele i metody sztucznej inteligencji. Zastosowanie w ekonomii.” MG Matveev, A.S. Sviridov, N.A. Alejnikowa

P Przedstawiono teoretyczne podstawy sztucznej inteligencji: aspekty informacyjne, informacje o logice binarnej i rozmytej, a także metody i modele aktualne obszary sztucznej inteligencji, systemów ekspertowych, inżynierii wiedzy, sieci neuronowych i algorytmów genetycznych. Szczegółowo omówiono zagadnienia praktycznego wdrażania systemów inteligentnych. Podano wiele przykładów ilustrujących rozwój i zastosowanie rozważanych metod i modeli. Szczególną uwagę zwraca się na problemy gospodarcze.

3) "Sztuczna inteligencja i inteligentne systemy sterowania.„ I. M. Makarov, V. M. Lokhin, S. V. Manko, MP Romanov; redaktor naczelny I. M. Makarov

Nowa, aktywnie rozwijająca się klasa inteligentnych układów automatycznego sterowania zbudowana w oparciu o technologię przetwarzania wiedzy, rozpatrywana jest z punktu widzenia efektywnego zastosowania w rozwiązywaniu problemów sterowania w warunkach niepewności. Zarysowano podstawy budowania inteligentnych systemów.

4) "Sztuczna inteligencja: nowoczesne podejście.„S. Russell, P. Norvig

W książce przedstawiono wszystkie współczesne osiągnięcia i idee, które zostały sformułowane w badaniach prowadzonych na przestrzeni ostatnich pięćdziesięciu lat, a także zebrane na przestrzeni dwóch tysiącleci w dziedzinie wiedzy, która stała się impulsem do rozwoju sztucznej inteligencji jako nauki o projektowaniu racjonalni agenci.

Lista źródeł


5) http://ru.wikipedia.org/wiki/%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0 %BD%D0%BD%D1%8B%D0%B9_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82

Ta część poświęcona jest algorytmom genetycznym. Czym są algorytmy genetyczne? Zasadniczo są to algorytmy optymalizacyjne należące do klasy heurystyk. Algorytmy te eliminują wyliczanie wszystkich opcji i znacznie skracają czas obliczeń. Specyfika działania tych algorytmów sprowadza się do symulowania procesów ewolucyjnych.

9) http://www.gotai.net/implementations.aspx

Znajdziesz tutaj pomysły i gotowe rozwiązania dotyczące wykorzystania sztucznej inteligencji i teorii z nią związanych do rozwiązywania konkretnych problemów praktycznych.

10) http://www.gotai.net/documents-logic.aspx

W tej części znajdują się materiały, które w jakiś sposób nawiązują do klasycznej metody modelowania systemów AI, modelowania w oparciu o różne urządzenia logiczne. Z reguły są to materiały związane z systemami ekspertowymi, systemami wspomagania decyzji i systemami agentowymi.

11) http://khpi-iip.mipk.kharkiv.edu/library/ai/conspai/12.html

Trendy w rozwoju sztucznej inteligencji



Ten artykuł jest również dostępny w następujących językach: tajski

  • Następny

    DZIĘKUJĘ bardzo za bardzo przydatne informacje zawarte w artykule. Wszystko jest przedstawione bardzo przejrzyście. Wydaje się, że włożono dużo pracy w analizę działania sklepu eBay

    • Dziękuję Tobie i innym stałym czytelnikom mojego bloga. Bez Was nie miałbym wystarczającej motywacji, aby poświęcić dużo czasu na utrzymanie tej witryny. Mój mózg jest zbudowany w ten sposób: lubię kopać głęboko, systematyzować rozproszone dane, próbować rzeczy, których nikt wcześniej nie robił i nie patrzył na to z tej perspektywy. Szkoda, że ​​nasi rodacy nie mają czasu na zakupy w serwisie eBay ze względu na kryzys w Rosji. Kupują na Aliexpress z Chin, ponieważ towary tam są znacznie tańsze (często kosztem jakości). Ale aukcje internetowe eBay, Amazon i ETSY z łatwością zapewnią Chińczykom przewagę w zakresie artykułów markowych, przedmiotów vintage, przedmiotów ręcznie robionych i różnych towarów etnicznych.

      • Następny

        W Twoich artykułach cenne jest osobiste podejście i analiza tematu. Nie rezygnuj z tego bloga, często tu zaglądam. Takich powinno być nas dużo. Wyślij mi e-mail Niedawno otrzymałem e-mail z ofertą nauczenia mnie handlu na Amazon i eBay.

  • Przypomniałem sobie Twoje szczegółowe artykuły na temat tych zawodów. obszar Przeczytałem wszystko jeszcze raz i doszedłem do wniosku, że te kursy to oszustwo. Jeszcze nic nie kupiłem na eBayu. Nie jestem z Rosji, ale z Kazachstanu (Ałmaty). Ale nie potrzebujemy jeszcze żadnych dodatkowych wydatków.
    Życzę powodzenia i bezpiecznego pobytu w Azji.