Історія штучного інтелекту
Істо́рія шту́чного інтеле́кту (ШІ, англ. artificial intelligence, AI) почалася у стародавньому світі, з міфів, оповідань та чуток про створення штучних істот, яких майстри обдарували розумом чи свідомістю. Зерна сучасного ШІ заклали філософи, які намагалися описати процес людського мислення як механічне маніпулювання символами. Ця робота досягла найвищої точки винайденням у 1940-х роках програмованого цифрового комп'ютера, машини, що ґрунтується на абстрактній сутності математичного міркування. Цей пристрій та ідеї в його основі надихнули невелику групу науковців почати серйозно обговорювати можливість побудови електронного мозку. Алан Тюрінг був першим, хто здійснив істотні дослідження в галузі, яку він називав машинним інтелектом (англ. Machine Intelligence).[1] Галузь дослідження ШІ заснували на семінарі[en], проведеному в кампусі Дартмутського коледжу в США влітку 1956 року.[2] Ті, хто відвідали той семінар, стали лідерами досліджень у галузі ШІ на десятиліття вперед. Багато хто з них прогнозували, що машина з інтелектом, рівносильним людському, з'явиться не більше, ніж за покоління, і їм виділили мільйони доларів для втілення цього бачення.[3] З часом стало очевидно, що дослідники дуже сильно недооцінили складність цього проєкту.[4] 1974 року, у відповідь на критику з боку Джеймса Лайтгілла та під тиском конгресу, уряди США та Великої Британії припинили фінансування неспрямованих досліджень щодо штучного інтелекту, і наступні складні роки стали відомі як «зима ШІ». Сім років потому візіонерська ініціатива японського уряду надихнула уряди та промисловість надавати ШІ мільярди доларів, але до кінця 1980-х років ці інвестори розчарувалися і знову відкликали фінансування. Інвестиції та інтерес до ШІ зазнали буму в 2020-х роках, коли до багатьох задач науки та промисловості стали успішно застосовувати машинне навчання завдяки новим методам, використанню потужного обчислювального обладнання, та збиранню величезних наборів даних. ПредтечіМіфічні, фантастичні, та гіпотетичні предтечіМіфи та легендиУ грецькій міфології Тал був гігантом, зробленим із бронзи, який був сторожем острова Крит. Він кидав валуни в кораблі загарбників та щоденно здійснював 3 обходи навколо периметра острова.[5] За даними «Бібліотеки» Псевдо-Аполлодора, Гефест викував Тала за допомогою циклопів і подарував цього автоматона Міносу.[6] В «Аргонавтиці» Ясон з аргонавтами перемогли його, витягнувши єдиний штир, розташований біля його стопи, який, бувши вийнятим, дозволив витекти життєдайному іхору з його тіла, залишивши його бездіяльним.[7] Пігмаліон у грецькій міфології був легендарним царем і скульптором, найвідомішим завдяки «Метаморфозам» Овідія. У 10-й книзі повісті Овідія Пігмаліон починає гидувати жінками після того, як стає свідком проституції Пропоетид[en].[8] Незважаючи на це, він приносить жертви до храму Венери й благає богиню дату йому жінку, точно таку, як скульптура, яку він вирізьбив. Середньовічні легенди про штучні створіння![]() У творі «Про природу речей», написаному швейцарським алхіміком Парацельсом, описано процедуру, яка, за його твердженням, дозволяє створити «штучну людину». Якщо помістити «чоловічу сперму» до кінського гною, й годувати її «Таємницею людської крові» протягом 40 днів, це місиво стане живим немовлям.[9] Найраніша писемна згадка про створення голема зустрічається у творах Елеазара бен Юда Вормського[en] на початку XIII століття.[10][11][сторінка?] У середньовіччі вважали, що оживлення Голема можливо досягти, вставивши до рота глиняної фігури аркуш паперу з будь-яким з імен бога.[12] На відміну від легендарних автоматів, таких як Бронзові голови[en],[13] Голем розмовляти не міг.[14] Таквін[en], штучне живе створення, було частою темою алхімічних рукописів ісмаїлітів, особливо тих, які приписувалися Джабіру ібн Хаяну. Ісламські алхіміки у своїй роботі намагалися створити різноманітні форми життя, від рослин до тварин.[15] У творі «Фауст: Друга частина трагедії[en]» Йоганна Вольфганга фон Гете створений алхімічно гомункул, призначений жити вічно у флаконі, в якому його створили, намагається народитися в повному людському тілі. Проте під час цього перетворення флакон розбивається, і гомункул гине.[16] Сучасна фантастикаІдеї про штучних людей і мислячі машини розвинулися у фантастиці вже на початку XIX століття, наприклад, у «Франкенштейні» Мері Шеллі та «Р. У. Р. (Россумових Універсальних Роботах)» Карела Чапека,[17] а також у гіпотезах, як у «Дарвіні серед машин» Семюеля Батлера,[18] і реальних випадках, включно з «Шахістом Мельцеля[en]» Едгара Аллана По.[19] ШІ залишається популярною темою у фантастиці й досі.[20] Автомати![]() Реалістичні гуманоїдні автомати створювали ремісники кожної з цивілізацій, зокрема, Янь Ші[en],[21] Герон Александрійський,[22] Аль-Джазарі[en],[23] П'єр Жаке-Дро[en] й Вольфганг фон Кемпелен[en].[24][25] Найстародавнішими відомими автоматами були священні статуї стародавнього Єгипту та Греції.[26] Віряни вважали, що ремісники наділи ці фігури справжніми розумами, здатними до мудрості й почуттів. Гермес Трисмегіст писав, що «відкривши справжню природу богів, людина змогла її відтворити».[27][28] Англійський учений Александр Некем[en] стверджував, що давньоримський поет Вергілій побудував палац з автоматичними статуями.[29] Протягом ранньомодерністського періоду стверджували, що ці легендарні автомати володіли магічною здатністю відповідати на адресовані їм запитання. Пізньосередньовічний алхімік та протопротестант Роджер Бекон вигадав бронзову голову[en], розпустивши легенду те, що він чарівник.[30][31] Ці легенди були схожі на скандинавський міф про Голову Міміра. За легендою, Мімір славився розумом і мудрістю, і був обезголовлений під час війни асів та ванів. Сказано, що Одін «забальзамував» його голову травами й читав заклинання над нею, так що голова Міміра зберегла здатність висловлювати мудрість перед Одіном. Одін відтоді зберігав цю голову при собі, щоби радитися з нею.[32] Формальне міркуванняШтучний інтелект ґрунтується на припущенні, що процес людського мислення можливо механізувати. Вивчення механічного або «формального» міркування має довгу історію. Китайські та грецькі філософи розробили структуровані методи формального виведення в першому тисячолітті до н. е. Їхні ідеї розвинули протягом століть такі філософи як Арістотель (який дав формальний аналіз силогізму), Евклід (чиї «Начала» були моделлю формального міркування), Аль-Хорезмі (який розвинув алгебру і дав своє ім'я «алгоритму») та європейські філософи-схоластики, як-от Вільям Оккам та Дунс Скот.[33] Іспанський філософ Раймунд Луллій (1232—1315) розробив декілька логічних машин, присвячених вироблянню знань логічними засобами;[34] Луллій описував свої машини як механічні сутності, які могли поєднувати базові й беззаперечні істини за допомогою простих логічних операцій, виконуваних машиною механічними засобами, таким чином, щоби виробити всі можливі знання.[35] Робота Луллія мала великий вплив на Готфріда Лейбніца, який переосмислив його ідеї.[36] ![]() У XVII столітті Лейбніц, Томас Гоббс та Рене Декарт досліджували, чи можливо все раціональне мислення зробити таким же систематизованим, як алгебра та геометрія.[37] Гоббс знаменито написав у «Левіафані»: «розум — це ніщо інше, як обчислення».[38] Лейбніц уявляв універсальну мову міркування, characteristica universalis[en], яка зводила би аргументування до обчислення, таким чином, що «потреби в суперечці між двома філософами було би не більше, ніж між двома бухгалтерами. Бо достатньо було би взяти їм олівці в руки, сісти до їхніх дощок, і сказати один одному (з другом як свідком, якщо бажають): Порахуймо.»[39] Ці філософи почали формулювати гіпотезу системи фізичних символів, яка стала дороговказною вірою досліджень ШІ. У XX столітті вивчення математичної логіки забезпечило необхідний прорив, який зробив штучний інтелект позірно правдоподібним. Основи заклали такі праці як «Закони мислення[en]» Буля та «Begriffsschrift[de]» Фреге. Спираючись на систему Фреге, Расселл та Вайтгед представили формальне викладення основ математики у своєму шедеврі, «Principia Mathematica» 1913 року. Надихнувшись успіхом Рассела, Давид Гільберт викликав математиків 1920-х і 30-х років відповісти на фундаментальне питання: «чи можливо формалізувати все математичне міркування?»[33] Відповідь на його питання дали доведення неповноти Геделя, машина Тюрінга та лямбда-числення Черча.[33][40] ![]() Їхня відповідь була несподіваною з двох боків. По-перше, вони довели, що насправді існують межі того, чого може досягти математична логіка. Але по-друге (і важливіше для ШІ), їхня робота підказувала, що в межах цих обмежень можливо механізувати будь-який вид математичного міркування. Ключовим прозрінням була машина Тюрінга — проста теоретична конструкція, яка вловлювала суть маніпулювання абстрактними символами.[42] Цей винахід надихнув групу науковців почати обговорювати можливість мислячих машин.[33][43] ІнформатикаЛічильні машини проєктували й будували у давнину та протягом історії багато людей, серед них Готфрід Лейбніц,[44] Жозеф Марі Жаккар,[45] Чарлз Беббідж,[46] Персі Ладгейт[en],[47] Леонардо Торрес Кеведо[en],[48] Веннівер Буш[49] та інші. Ада Лавлейс припускала, що машина Беббіджа була «мислячою або … розумною машиною», але застерігала: «Бажано захиститися від можливості перебільшення уявлень, що виникають щодо можливостей» цієї машини.[50][51] Олександр Щукарьов із Харківського технологічного інституту розглядав дещо вдосконалене ним «логічне піаніно» Джевонса як «машину логічного мислення», технічний засіб механізації тих сторін мислення, що формалізуються.[52][53][54] ![]() Перші сучасні комп'ютери були величезними машинами Другої світової війни (такими як Z3 Конрада Цузе, Гіт Робінсон[en] та Колос Алана Тюрінга, ABC Атанасова та Беррі (з використанням теоретичних праць Михайла Кравчука[55][56]), та ENIAC у Пенсільванському університеті).[57] ENIAC ґрунтувався на теоретичній основі, закладеній Аланом Тюрінгом, розробив його фон Нейман,[58] і він виявився найвпливовішим.[57] Перший електронний комп'ютер на теренах України, МЕЛМ, розробили вже після Другої світової війни в Інституті електротехніки АН УРСР, під керівництвом Сергія Лебедєва.[59][60][61] Народження машинного інтелекту (до 1956)![]() У 1940-х і 50-х роках група науковців з різних галузей (математики, психології, інженерії, економіки та політології) почали обговорювати можливість створення штучного мозку. Алан Тюрінг був першим, хто здійснив істотні дослідження в галузі, яку він називав машинним інтелектом (англ. Machine Intelligence).[1] Галузь досліджень штучного інтелекту заснували як академічну дисципліну 1956 року.[62] Кібернетика та ранні нейронні мережіНайраніші дослідження мислячих машин надихнув збіг ідей, які набули поширення наприкінці 1930-х, у 1940-х, та на початку 1950-х років. Новітні дослідження в неврології показали, що мозок виявився електричною мережею нейронів, які випромінювали імпульси типу «все або нічого». Кібернетика Норберта Вінера описувала керування та стабільність в електричних мережах. Теорія інформації Клода Шеннона описувала цифрові сигнали (тобто сигнали типу «все або нічого»). Теорія алгоритмів Алана Тюрінга показала, що будь-який вид обчислення можливо описати в цифровому вигляді. Тісний зв'язок між цими ідеями підказував, що може існувати можливість побудувати «електронний мозок».[63] Експериментальних роботів, як-от черепах[en] В. Грея Волтера[en] та звіра Джонса Гопкінса[en], побудували в 1950-х роках. Ці машини не використовували комп'ютери, цифрову електроніку або символьне міркування; вони керувалися суто аналоговою схемотехнікою.[64] Алан Тюрінг розмірковував про машинний інтелект щонайменше з 1941 року, коли він поширив статтю про машинний інтелект, яка може бути найранішою статтею в галузі ШІ, — хоча наразі її втрачено.[1] Волтер Піттс[en] та Воррен Маккалох аналізували мережі ідеалізованих штучних нейронів і показали, як вони можуть виконувати прості логічні функції, 1943 року.[65][66] Вони були першими, хто описав те, що пізніше дослідники назвуть нейронною мережею.[67] Ця праця зазнала впливу ранішої праці Тюрінга «Про обчисле́нні числа[en]» 1936 року, яка використовувала подібні двостанові булеві «нейрони», але в ній вперше застосували це до функціювання нейронів.[1] Одним зі студентів, кого надихнули Піттс[en] та Маккалох, був молодий Марвін Мінський, тоді 24-річний аспірант. 1951 року (з Діном Едмондсом) він побудував першу нейромережну машину, SNARC[en].[68] Мінський став одним із найважливіших лідерів та новаторів у ШІ. Тест ТюрінгаПротягом свого життя Алан Тюрінг використовував термін «машинний інтелект» (англ. 'Machine Intelligence'), який після його смерті 1954 року часто називають «штучним інтелектом» (англ. 'Artificial Intelligence'). 1950 року Алан Тюрінг опублікував поворотну й найвідомішу його працю «Обчислювальні машини та інтелект[en]», в якій він розмірковував про можливість створення машин, що думають, і яка представила його поняття, відоме тепер загалові як тест Тюрінга.[69] Він зазначив, що поняття «думати» визначити складно, і запропонував свій знаменитий тест Тюрінга.[70] Якщо машина могла би вести розмову (через телетайп) так, що її неможливо було би відрізнити від розмови з людиною, то було би розважливо сказати, що машина «думає». Ця спрощена версія задачі дозволила Тюрінгу переконливо довести, що «мисляча машина» є принаймні можливою, і ця праця відповіла на всі найпоширеніші заперечення проти цього твердження.[71] Тест Тюрінга був першою серйозною пропозицією у філософії штучного інтелекту. Після цього відбулися три радіопередачі про ШІ від Тюрінга: лекції «Розумна машинерія, єретична теорія» (англ. 'Intelligent Machinery, A Heretical Theory'), «Чи можуть цифрові комп'ютери думати?» (англ. 'Can Digital Computers Think?'), та панельна дискусія «Чи можливо сказати, що автоматичні обчислювальні машини думають» (англ. 'Can Automatic Calculating Machines be Said to Think'). До 1956 року комп'ютерний інтелект активно розвивався у Британії протягом понад десятиліття; найперші програми ШІ там було написано в 1951—52 роках.[1] Ігровий ШІ1951 року, використовуючи машину Ferranti Mark 1[en] Манчестерського університету, Крістофер Стрейчі[en] написав програму для гри в шашки, а Дітріх Принц[en] — для гри в шахи.[72] Програма для гри в шашки Артура Семюеля, предмет його статті 1959 року «Деякі дослідження в машинному навчанні з використанням гри в шашки», з часом досягла достатнього рівня майстерності, щоби викликати на поєдинок поважного аматора.[73] Ігровий ШІ продовжуватимуть використовувати як міру поступу в ШІ протягом усієї його історії. Символьне міркування та Логічний теоретикКоли у середині п'ятдесятих років уможливився доступ до цифрових комп'ютерів, декілька науковців інтуїтивно зрозуміли, що машина, яка може маніпулювати числами, може також маніпулювати й символами, і що маніпулювання символами може бути суттю людського мислення. Це був новий підхід до створення мислячих машин.[74] 1955 року Аллен Ньюелл і (майбутній лауреат Нобелівської премії) Герберт Саймон створили «Логічного теоретика[en]» (за допомогою Кліффа Шоу[en]). Ця програма згодом довела 38 із перших 52 теорем у «Principia Mathematica» Расселла і Вайтгеда, а для деяких знайшла нові й елегантніші доведення.[75] Саймон сказав, що вони «розв'язали шановану проблему розуму й тіла, пояснивши, як складена з матерії система може мати властивості розуму».[76] (Це була рання заява філософської позиції, яку Джон Серль пізніше назве «Сильним ШІ» (англ. "Strong AI"): що машини можуть містити розум так само, як і людські тіла.)[77] Народження штучного інтелекту (1956—1974)Сам термін «штучний інтелект» офіційно запровадив Джон Маккарті під час Дартмутського семінару[en] 1956 року, поворотної події, яка ознаменувала офіційне запровадження ШІ як академічної дисципліни. Основною метою цього семінару було дослідити можливості створення машин, здатних імітувати людський інтелект, що стало початком цілеспрямованого дослідження сфери ШІ.[78] Дартмутський семінар 1956 року[79] організували Марвін Мінський, Джон Маккарті та двоє старших науковців, Клод Шеннон та Натан Рочестер[en] з IBM. Пропозиція для цієї конференції містила таке твердження: «будь-який аспект навчання або будь-яку іншу ознаку інтелекту можливо описати так точно, що можливо буде зробити машину, яка її імітуватиме».[80] Серед учасників були Рей Соломонов[en], Олівер Селфрідж[en], Тренчард Мор[en], Артур Семюель, Аллен Ньюелл та Герберт Саймон, кожен з яких створить важливі програми протягом перших десятиліть досліджень ШІ.[81] На цьому семінарі Ньюелл та Саймон представили «Логічного теоретика[en]», а Маккарті переконав учасників прийняти «Штучний інтелект» (англ. "Artificial Intelligence") як назву цієї галузі.[82] (Маккарті обрав термін «Штучний інтелект», щоб уникнути асоціацій з кібернетикою та впливом Норберта Вінера.)[83] Семінар у Дартмуті 1956 року був моментом, коли ШІ отримав свою назву, свою місію, свій перший успіх і своїх головних гравців, і його широко вважають народженням ШІ.[84] Програми, розроблені в перші роки після Дартмутського семінару, були для більшості людей просто «дивовижними»:[85] комп'ютери розв'язували алгебричні задачі, доводили теореми в геометрії, та вчилися говорити англійською. Мало хто в той час вірив, що така «інтелектуальна» поведінка машин взагалі можлива.[86] Дослідники висловлювали надмірний оптимізм приватно й у друці, прогнозуючи, що повністю розумну машину буде побудовано менше ніж за 20 років.[87] Урядові агентства, як-от DARPA, вливали гроші в цю нову галузь.[88] У низці британських та американських університетів наприкінці 1950-х та на початку 1960-х років було створено лабораторії штучного інтелекту,[1] в Україні Віктор Глушков заснував Інститут кібернетики АН УРСР. ПідходиБуло багато успішних програм та нових напрямків наприкінці 50-х та у 60-х роках. Серед найвпливовіших були такі: Міркування як пошукБагато ранніх програм ШІ використовували один і той же базовий алгоритм. Щоби досягти якоїсь мети (наприклад, виграти гру або довести теорему), вони крок за кроком просувалися до неї (роблячи хід або виведення) так, ніби шукали шлях у лабіринті, відступаючи, коли потрапляли в тупик. Цю парадигму назвали «міркування як пошук[en]».[89] Основна складність полягала в тому, що для багатьох задач кількість можливих шляхів цим «лабіринтом» була просто астрономічною (ситуація, відома як «комбінаторний вибух»). Дослідники зменшували простір пошуку, використовуючи евристики або «евристичні формули», які виключали ті шляхи, що малоймовірно вели до розв'язку.[90] Ньюелл та Саймон намагалися охопити загальну версію цього алгоритму в програмі, яку назвали «Загальний розв'язувач задач» (англ. "General Problem Solver").[91] Інші програми «пошуку» змогли виконати вражаючі завдання, такі як розв'язування задач з геометрії та алгебри, наприклад «Доводник геометричних теорем» (англ. Geometry theorem prover) Герберта Гелернтера[en] (1958) та «Символьний автоматичний інтегрувальник» (англ. Symbolic automatic integrator, SAINT), написаний студентом Мінського Джеймсом Слейглом (1961).[92] Інші програми шукали цілі та підцілі, щоби планувати дії, як система STRIPS, розроблена у Стенфорді для керування поведінкою їхнього робота Шейкі.[93] Нейронні мережіСтаття Маккаллоха та Піттса (1944) надихнула підходи до створення обчислювального апаратного забезпечення, яке втілює нейронний підхід до штучного інтелекту в апаратурі. Найвпливовішими були зусилля під проводом Френка Розенблата щодо будівництва перцептронних машин (1957—1962) з кількістю шарів до чотирьох. Фінансувало його переважно Управління військово-морських досліджень США[en].[94] Бернард Уїдроу[en] та його студент Тед Гофф побудували ADALINE (1960) та MADALINE (1962), які мали до 1000 підлаштовуваних ваг.[95] Група у Стенфордському дослідницькому інституті під керівництвом Чарльза А. Розена[en] та Альфреда Е. (Теда) Брейна побудувала дві нейронні мережі, названі MINOS I (1960) та II (1963), фінансовані переважно Корпусом зв'язку армії США. MINOS II[96] мала 6600 підлаштовуваних ваг,[97] і керувалася комп'ютером SDS 910[en] у конфігурації під назвою MINOS III (1968), який міг класифікувати символи на армійських картах і розпізнавати символи, написані друкованими літерами на картках[en] Фортран.[98][99][100] Більшість досліджень нейронних мереж у цей ранній період полягала в побудові й використанні спеціалізованого апаратного забезпечення, а не моделюванні на цифрових комп'ютерах. Різноманітність апаратного забезпечення була особливо помітною в різних технологіях, які використовували для втілення підлаштовуваних ваг. Перцептронні машини та SNARC[en] використовували потенціометри, які рухали електричні моторчики. ADALINE використовувала мемістори, які регулювалися електроосадженням, хоча вони також використовували й моделювання на IBM 1620[en]. Машини MINOS використовували феритові осердя з кількома отворами в них, з можливістю індивідуального блокування, причому ступінь блокування подавав ваги.[101] Хоч були й багатошарові нейронні мережі, як-от метод групового урахування аргументів Олексія Івахненка з Інституту кібернетики АН УРСР,[102][103] більшість нейронних мереж у цей період мали лише один шар підлаштовуваних ваг. Були емпіричні спроби тренування понад одного шару, але вони були невдалими. Зворотне поширення не набуло поширення для тренування нейронних мереж до 1980-х років.[101] ![]() Природна моваОдна з важливих цілей досліджень штучного інтелекту — уможливити спілкування комп'ютерів природними мовами, як-от англійською. Раннім успіхом була програма Деніела Боброва[en] STUDENT[en], яка могла розв'язувати задачі з алгебри середньої школи.[104] Семантична мережа подає поняття (наприклад, «будинок», «двері») як вузли, а відношення між поняттями (наприклад, «має») як зв'язки між вузлами. Першу програмою ШІ, яка використовувала семантичну мережу, написав Росс Квілліан (англ. Ross Quillian)[105], а найуспішнішою (та найсуперечливішою) версією була теорія поняттєвої залежності[en] Роджера Скенка[en].[106] ELIZA Джозефа Вейценбаума могла вести розмови, які були настільки реалістичними, що користувачі іноді помилялися, думаючи, що вони спілкуються з людиною, а не з програмою (див. ефект Елізи). Але насправді ELIZA не мала жодного уявлення про те, про що вона говорила. Вона просто давала готову відповідь[en] або повторювала те, що до неї говорили, перефразовуючи свою відповідь за допомогою кількох граматичних правил. ELIZA була першим чат-ботом.[107] МікросвітиУ кінці 60-х років Марвін Мінський та Сеймур Пейперт з Лабораторії ШІ МТІ висунули пропозицію, що дослідження штучного інтелекту повинні зосередитися на штучно простих ситуаціях, відомих як мікросвіти (англ. micro-worlds). Вони вказали, що в успішних науках, як-от фізиці, розуміння основних принципів часто досягали, використовуючи спрощені моделі, як-от безтертьові площини або ідеально жорсткі тіла. Багато досліджень зосереджувалися на «світі кубиків[en]», що складається з кольорових фігур різних форм і розмірів, розташованих на пласкій поверхні.[108] Ця парадигма привела до інноваційної роботи в машинному баченні Джеральда Сасмена[en] (який очолював команду), Адольфо Гусмана, Девіда Вальца[en] (який винайшов «поширення обмежень», англ. "constraint propagation") та особливо Патріка Вінстона. У той же час Мінський та Пейперт побудували автоматичну руку, яка могла складати кубики, ожививши світ кубиків. Найвищим досягненням програми мікросвітів була SHRDLU Террі Винограда. Вона могла спілкуватися звичайними англійськими реченнями, планувати дії й виконувати їх.[109] АвтоматиУ Японії Університет Васеда розпочав проєкт WABOT 1967 року, й 1972 року завершив WABOT-1, перший у світі повномасштабний «розумний» робот-гуманоїд,[110][111] або андроїд. Його система керування кінцівками дозволяла йому ходити нижніми кінцівками та брати й переносити предмети руками, використовуючи тактильні давачі. Його система зору дозволяла йому вимірювати відстані та напрямки до об'єктів, використовуючи зовнішні рецептори, штучні очі та вуха. А його система розмови дозволяла йому спілкуватися з людиною японською мовою за допомогою штучного рота.[112][113][114] В Інституті кібернетики АН УРСР у 1972—1975 роках відділ біокібернетики Миколи Амосова за ініціативою й під проводом Ернста Куссуля створив триколісного автономного транспортного робота ТАІР, обладнаного далекомірами й давачами дотику, керованого втіленою апаратно нейронною мережею. Він міг здійснювати цілеспрямований рух у природному середовищі з оминанням перешкод.[115][116] ОптимізмПерше покоління дослідників штучного інтелекту зробило такі прогнози щодо своєї роботи:
ФінансуванняУ червні 1963 року МТІ отримав грант у розмірі 2,2 мільйона доларів від новоствореної Агенції передових дослідницьких проєктів США (пізніше відомої як DARPA). Гроші використали для фінансування проєкту MAC, який поглинув «Групу ШІ» (англ. "AI Group"), засновану Мінським та Маккарті п'ятьма роками раніше. DARPA продовжувала надавати три мільйони доларів на рік до 70-х років.[121] DARPA надавала подібні гранти програмі Ньюелла та Саймона в УКМ, та Стенфордському проєкту ШІ[en] (заснованому Джоном Маккарті 1963 року).[122] Іншу важливу лабораторію ШІ створив 1965 року в Единбурзькому університеті Дональд Мічі[en].[123] Ці чотири заклади продовжували бути основними центрами досліджень (та фінансування) ШІ в академічному середовищі протягом багатьох років.[124] Ці гроші було запропоновано з мінімальними обмеженнями: Джозеф Ліклайдер, тодішній директор ARPA, вважав, що його організація повинна «фінансувати людей, а не проєкти!», й дозволяв дослідникам займатися будь-якими напрямками, які їх цікавили.[125] Це створило вільну атмосферу в МТІ, яка породила хакерську культуру[en],[126] проте цей «бездоглядний» підхід триватиме довго. Перша зима ШІ (1974—1980)У 1970-х роках ШІ піддали критиці та затримкам фінансування. Дослідники ШІ не змогли оцінити складність задач, із якими стикнулися. Їхній надмірний оптимізм підняв громадські очікування занадто високо, і коли обіцяні результати не втілилися, спрямоване на ШІ фінансування майже зникло.[127][128] У той же час дослідження простих, одношарових штучних нейронних мереж було майже повністю припинено на десятиліття частково через книгу[en] Мінського, яка підкреслювала обмеження того, що можуть робити перцептрони.[129] Незважаючи на труднощі з громадським сприйняттям ШІ в кінці 70-х, було досліджено нові ідеї в логічному програмуванні, міркуванні здорового глузду та багатьох інших областях.[130][131] ПроблемиНа початку 70-х можливості програм ШІ були обмеженими. Навіть найразючіші могли впоратися лише з тривіальними версіями задач, які вони повинні були розв'язувати; всі програми були, в деякому сенсі, «іграшками».[132] Дослідники ШІ почали стикатися з декількома фундаментальними обмеженнями, подолати які в 1970-х роках було неможливо. Хоч деякі з цих обмежень і було подолано протягом наступних десятиліть, інші ускладнюють розвиток цієї галузі й дотепер.[133][134]
Кінець фінансуванняАгенції, які фінансували дослідження ШІ (як-от британський уряд, DARPA та NRC[en]), були розчаровані відсутністю прогресу, й урешті-решт припинили майже все фінансування для неспрямованих досліджень з ШІ. Ця картина почалася ще 1966 року, коли з'явився звіт ALPAC[en], що розкритикував зусилля з машинного перекладу. Після витрати 20 мільйонів доларів NRC[en] припинила всю підтримку.[142] 1973 року доповідь Лайтгілла про стан досліджень ШІ у Великій Британії розкритикувала повну невдачу ШІ досягти своїх «грандіозних цілей» і призвела до розпуску досліджень ШІ в цій країні.[143] (Ця доповідь зокрема згадувала комбінаторний вибух як причину невдач ШІ.)[144] DARPA глибоко розчарувалася в дослідниках, які працювали над програмою дослідження розуміння мовлення в УКМ, і скасувала щорічний грант у три мільйони доларів.[145] Станом на 1974 рік знайти фінансування проєктів ШІ було важко. Для досліджень нейронних мереж кінець фінансування наступив ще раніше, частково через відсутність результатів, і частково через конкуренцію з дослідженнями символьного ШІ[en]. Проєкт MINOS вичерпав фінансування 1966 року. Розенблат не зміг отримати продовження фінансування в 1960-х.[101] Ганс Моравек звинуватив цю кризу в нереалістичних прогнозах своїх колег. «Багато дослідників опинилися в павутинні зростаючої перебільшеності».[146] Проте була й іще одна проблема: з часу прийняття поправки Менсфілда[en] 1969 року DARPA була під зростаючим тиском фінансувати «орієнтовані на завдання прямі дослідження, а не базові ненаправлені дослідження». Фінансування для творчого, вільного дослідження, яке відбувалося в 60-х, з боку DARPA не повернулося. Замість цього гроші було спрямовано на конкретні проєкти з чіткими цілями, як-от автономні танки та системи управління боєм.[147] Критика з іншого боку кампусаДекілька філософів мали сильні заперечення проти тверджень, які робили дослідники ШІ. Одним із перших був Джон Лукас[en], який стверджував, що теорема Геделя про неповноту показувала, що формальна система (така як комп'ютерна програма) ніколи не може бачити істину певних тверджень, тоді як людина може.[148] Г'юберт Дрейфус[en] висміяв порушені обіцянки 1960-х і критикував припущення ШІ, стверджуючи, що людське міркування насправді містить дуже мало «символьної обробки», і багато втіленого, інстинктивного, несвідомого «знання-як[en]».[149][150] Джон Серль у своєму аргументі китайської кімнати, представленому 1980 року, намагався показати, що програма не може сказати, що «розуміє» символи, які використовує (якість, яку називають «інтенціональність»). Якщо символи не мають сенсу для машини, стверджував Серль, то машину неможливо назвати «мислячою».[151] Дослідники ШІ не сприймали цих критиків всерйоз, часто тому, що вони видавалися такими далекими від суті. Такі проблеми як непіддатливість і знання здорового глузду видавалися набагато безпосереднішими й серйознішими. Було незрозуміло, що змінює «знання-як[en]» чи «інтенціональність» для конкретної комп'ютерної програми. Мінський сказав про Дрейфуса та Серля: «Вони неправильно розуміють, їх слід ігнорувати».[152] Дрейфус, який викладав в МТІ, отримав холодне ставлення: він пізніше сказав, що дослідники ШІ «не наважувалися бути поміченими за обідом зі мною».[153] Джозеф Вейценбаум, автор ELIZA, відчував, що ставлення його колег до Дрейфуса[en] було непрофесійним і дитячим.[154] Хоч він і був голосним критиком позицій Дрейфуса, він «навмисно показав, що це не той спосіб поводитися з людиною».[155] Вейценбаум почав мати серйозні етичні сумніви щодо ШІ, коли Кеннет Колбі[en] написав «комп'ютерну програму, яка може вести психотерапевтичний діалог» на основі ELIZA.[156] Вейценбаума збентежило, що Колбі сприймав бездумну програму як серйозний терапевтичний інструмент. Почалася сварка, і ситуацію не поліпшувало те, що Колбі не віддав належне Вейценбауму за його внесок у програму. 1976 року Вейценбаум опублікував «Комп'ютерну силу і людський розум[en]», у якій стверджував, що зловживання штучним інтелектом має потенціал знецінити людське життя.[157] Перцептрони й напад на конекціонізмПерцептрон був одним із видів нейронних мереж, запропонованим 1958 року Френком Розенблатом, який був однокласником Марвіна Мінського у Вищій науковій школі Бронксу[en]. Як і більшість дослідників ШІ, він був оптимістичним щодо їхньої потужності, прогнозуючи, що «перцептрон може з часом набути здатності вчитися, ухвалювати рішення й перекладати мови». Активну програму досліджень у цій парадигмі проводили протягом 1960-х, але раптово припинили після публікації книги Мінського й Пейперта 1969 року «Перцептрони[en]». Вона підказувала, що існували суворі обмеження того, що могли би робити перцептрони, і що прогнози Френка Розенблатта були надзвичайно перебільшеними. Вплив книги був спустошливим: практично жодних досліджень з конекціонізму не фінансували протягом 10 років. З основних зусиль щодо нейронних мереж, Розенблат намагався зібрати кошти на побудову більших перцептронних машин, але загинув у човновій аварії 1971 року. Мінський (з боку SNARC) перетворився на запеклого противника чистого конекціоністського ШІ. Уїдроу (з боку ADALINE) звернувся до адаптивної обробки сигналів, використовуючи методи на основі алгоритму НСК[en]. Група СДІ (з боку MINOS) звернулася до символьного ШІ та робототехніки. Основними проблемами були нестача фінансування та нездатність тренувати багатошарові мережі (зворотне поширення було не відоме). Змагання за державне фінансування закінчилося перемогою підходів символьного ШІ.[100][101] Логіка в Стенфорді, УКМ та ЕдинбурзіЛогіку до досліджень ШІ ввів ще 1959 року Джон Маккарті у своїй пропозиції приймача порад[en].[158] 1963 року Джон Алан Робінсон відкрив простий метод втілення виведення на комп'ютерах, алгоритм резолюції та уніфікації. Проте прямі втілення, які спробували Маккарті та його студенти наприкінці 1960-х, були особливо непіддатливими: програми потребували астрономічної кількості кроків, щоби довести прості теореми.[159] Плідніший підхід до логіки розробив у 1970-х роках Роберт Ковальський в Единбурзькому університеті, й незабаром це призвело до співпраці з французькими дослідниками Аланом Кольмерое[en] та Філіпом Русселем[fr], які створили успішну мову логічного програмування Пролог (англ. Prolog).[160] Пролог використовує підмножину логіки (диз'юнкти Горна, тісно пов'язані з «правилами[en]» та «продукційними правилами»), яка дозволяює здійснювати розв'язні обчислення. Правила продовжуватимуть бути впливовими, надаючи основу для експертних систем Едварда Фейгенбаума та наступної роботи Аллена Ньюелла й Герберта Саймона, яка призвела до Soar[en] та їхніх узагальнених теорій пізнання[en].[161] Критики логічного підходу зауважили, як і Дрейфус[en], що люди рідко використовували логіку, коли розв'язували проблеми. Експерименти психологів, як-от Пітера Вейсона[en], Елеанори Рош[en], Амоса Тверські, Деніела Канемана та інших, надали докази.[162] Маккарті відповів, що те, що роблять люди, не стосується справи. Він стверджував, що насправді потрібні машини, здатні розв'язувати задачі, а не машини, які мислять, як люди.[163] «Антилогічний» підхід МТІСеред критиків підходу Маккарті були його колеги на іншому кінці країни в МТІ. Марвін Мінський, Сеймур Пейперт та Роджер Скенк[en] намагалися розв'язати такі задачі як «розуміння історій» та «розпізнавання об'єктів», які вимагали, щоб машина думала як людина. Щоби використовувати звичайні поняття, як-от «стілець» або «ресторан», вони мусили робити всі ті ж нелогічні припущення, які зазвичай роблять люди. На жаль, такі неточні поняття, як ці, важко подати в логіці. Джеральд Сасмен[en] зауважив, що «використання точної мови для опису неточних по суті понять не робить їх точнішими».[164] Скенк[en] назвав їхні «антилогічні» (англ. "anti-logic") підходи «нечупарними[en]» (англ. "scruffy"), на противагу до «чепурних[en]» (англ. "neat") парадигм, які використовували Маккарті, Ковальський, Фейгенбаум, Ньюелл та Саймон.[165] 1975 року, у знаковій статті, Мінський зауважив, що багато його колег-дослідників використовували один і той же інструмент: систему рамок, яка вловлює всі наші припущення здорового глузду про щось. Наприклад, якщо ми використовуємо поняття птаха, то в голові виникає сузір'я фактів, які одразу спадають на думку: ми можемо припустити, що він літає, їсть хробаків тощо. Ми знаємо, що ці факти не завжди правдиві, й що висновки, які використовують ці факти, не будуть «логічними», але ці структуровані набори припущень є частиною контексту всього, що ми кажемо й думаємо. Він назвав ці структури «рамками» (англ. "frames"). Скенк[en] використовував версію рамок, яку він називав «сценаріями[en]» (англ. "scripts"), щоби успішно відповідати на питання про короткі історії англійською.[166] Поява немонотонних логікЛогіки прийняли виклик. Пат Гейз[en] стверджував, що «більшість „рамок“ це лише новий синтаксис для частин логіки першого порядку.» Але він зазначив, що «є одна чи дві здавалося би незначні деталі, які викликають багато проблем, особливо замовчування».[167] Тим часом Реймон Райтер[en] визнав, що «традиційні логіки, такі як логіка першого порядку, не мають достатньої виразності для адекватного подання знань, необхідних для міркування за замовчуванням».[168] Він запропонував доповнити логіку першого порядку припущенням про замкненість світу[en], що висновок правильний (за замовчуванням), якщо неможливо довести протилежне. Він показав, як таке припущення відповідає загальноприйнятому припущенню, зробленому при міркуванні з рамками. Він також показав, що воно має свій «процедурний еквівалент» як заперечення як відмова в Пролозі. Припущення про замкненість світу, сформульоване Райтером, «не є поняттям першого порядку. (Це метапоняття.)»[168] Проте, Кіт Кларк[en] показав, що заперечення як скінченну відмову (англ. finite failure) можливо розуміти як неявне міркування з визначеннями в логіці першого порядку, включно з припущенням про унікальні назви[en], що різні терми позначують різних індивідів.[169] Протягом кінця 1970-х та протягом 1980-х років було розроблено численні логіки та розширення логіки першого порядку як для заперечення як відмови в логічному програмуванні, так і для міркування за замовчуванням загалом. Разом ці логіки стали відомі як немонотонні. Бум (1980—1987)У 1980-х роках корпорації по всьому світу прийняли один з видів програм ШІ, званий «експертними системами», і подання знань стало центром основних досліджень ШІ. У ті ж роки японський уряд активно фінансував ШІ своїм проєктом комп'ютерів п'ятого покоління. Ще одна заохочувальна подія на початку 1980-х була відродженням конекціонізму в роботі Джона Гопфілда та Девіда Румельхарта. Знову ж таки, ШІ досяг успіху.[170] Поширення експертних системЕкспертна система — це програма, яка відповідає на питання або розв'язує задачі з певної області знань, використовуючи логічні правила, виведені зі знань експертів. Найперші їх приклади розробили Едвард Фейгенбаум і його студенти. Дендрал (англ. Dendral), початок якого було закладено 1965 року, встановлював сполуки за даними спектрометра. MYCIN, розроблена 1972 року, діагностувала інфекційні захворювання крові. Вони продемонстрували здійсненність такого підходу.[171] Експертні системи обмежували себе невеликою областю специфічних знань (тим самим уникаючи проблеми здорового глузду), а їхній простий дизайн робив відносно легкими побудову та зміну програм після встановлення. Загалом, ці програми виявилися корисними: щось, чого ШІ до цього моменту досягти не міг.[172] 1980 року в УКМ завершили експертну система під назвою XCON для Digital Equipment Corporation. Це був величезний успіх: вона заощаджувала компанії 40 мільйонів доларів щорічно до 1986 року.[173] Корпорації по всьому світу почали розробляти та впроваджувати експертні системи, й до 1985 року вони витрачали понад мільярд доларів на ШІ, більшість з яких — на внутрішні відділи ШІ.[174] З'явилася галузь, що їх підтримувала, включно з компаніями з апаратного забезпечення, як-от Symbolics[en] та Lisp Machines[en], та компаніями з програмного забезпечення, як-от IntelliCorp[en] та Aion[en].[175] Революція знаньСила експертних систем полягала в експертних знаннях, які вони містили. Вони були частиною нового напряму в дослідженнях ШІ, який набирав обертів протягом 70-х років. «Дослідники ШІ почали підозрювати — неохоче, бо це порушувало науковий принцип ощадливості — що інтелект, можливо, дуже залежить від здатності використовувати великі кількості різноманітних знань різними способами»,[176] пише Памела Маккордак[en]. «[В]еликим уроком з 1970-х було те, що інтелектуальна поведінка дуже залежить від роботи зі знаннями, іноді досить докладними знаннями, з області, в якій лежить задана задача».[177] Системи на основі знань[en] та інженерія знань стали основним фокусом досліджень ШІ в 1980-х роках.[178] У 1980-х роках також народився Cyc (укр. Сайк), перша спроба лобової атаки на проблему здорового глузду, шляхом створення величезної бази даних, яка містила би всі буденні факти, що їх знає середня людина. Дуглас Ленат, який розпочав і очолював цей проєкт, стверджував, що короткого шляху не існує — єдиний спосіб, щоби машини знали значення людських понять, це навчати їх, по поняттю за раз, вручну. Проєкт не очікувався бути завершеним протягом багатьох десятиліть.[179] Програми для гри в шахи HiTech та Deep Thought[en] перемогли шахових гросмейстерів 1989 року. Обидві розробили в УКМ; розробка Deep Thought проклала шлях для Deep Blue.[180] Гроші повертаються: проєкт П'ятого покоління1981 року Міністерство міжнародної торгівлі та промисловості Японії[en] виділило 850 мільйонів доларів на проєкт комп'ютерів п'ятого покоління. Їхніми цілями було написати програми та побудувати машини, які могли би вести розмови, перекладати мови, інтерпретувати зображення та міркувати як людські істоти.[181] До жалю нечупар[en], як основну мову програмування для проєкту було обрано Пролог.[182] Інші країни відповіли власними новими програмами. Велика Британія розпочала проєкт Alvey[en] на 350 мільйонів фунтів стерлінгів. Консорціум компаній США створив Корпорацію мікроелектроніки та комп'ютерних технологій[en] (англ. Microelectronics and Computer Technology Corporation, MCC) для фінансування великомасштабних проєктів з ШІ та інформаційних технологій.[183][184] DARPA також відреагувала, заснувавши Стратегічну комп'ютерну ініціативу[en], і потроївши свої інвестиції в ШІ між 1984 і 1988 роками.[185] ![]() Відродження нейронних мереж1982 року фізик Джон Гопфілд зміг довести, що певний вигляд нейронної мережі (званий тепер «мережею Гопфілда») може навчатися й обробляти інформацію, і довідно збігатися після достатнього часу за будь-яких незмінних умов. Це був прорив, оскільки раніше вважали, що нелінійні мережі в загальному випадку розвиватимуться хаотично.[186] Приблизно в той же час Джефрі Гінтон та Девід Румельхарт популяризували метод тренування нейронних мереж, званий «зворотним поширенням» (англ. "backpropagation"), відомий також як зворотний режим автоматичного диференціювання, опублікований Сеппо Ліннаінмаа[en] (1970) та застосований до нейронних мереж Полом Вербосом[en]. Ці два відкриття допомогли відродити дослідження штучних нейронних мереж.[184][187] Починаючи з публікації 1986 року «Паралельно розподіленої обробки», двотомної збірки статей під редакцією Румельхарта та психолога Джеймса Макклелланда, дослідження нейронних мереж набули нового імпульсу, й стануть комерційно успішними в 1990-х роках у застосуванні до оптичного розпізнавання символів та розпізнавання мовлення.[184][188] Розвиток метал-діелектрик-напівпровідникових (МДН, англ. MOS) схем надвеликого рівня інтеграції (НВРІ, англ. VLSI) у вигляді технології комплементарних метал-оксид-напівпровідників (КМОН, англ. CMOS) уможливив розвиток практичної технології штучних нейронних мереж у 1980-х роках. Провідною публікацією в цій галузі була книга 1989 року «Аналогове НВРІ-втілення нейронних систем» Карвера А. Міда та Мохаммеда Ісмаїла.[189] Крах: друга зима ШІ (1987—1993)Захоплення ділової спільноти штучним інтелектом у 1980-х роках здійнялося й упало за класичним сценарієм економічної бульбашки. Коли десятки компаній зазнали невдач, склалося враження, що ця технологія нежиттєздатна.[190] Проте ця галузь продовжувала робити прогрес, незважаючи на критику. Багато дослідників, включно з розробниками робототехніки Родні Бруксом[en] та Гансом Моравеком, виступали за цілком новий підхід до штучного інтелекту. Зима ШІТермін «Зима ШІ» запровадили дослідники, які вижили після скорочення фінансування 1974 року, коли стали турбуватися, що ентузіазм щодо експертних систем вийшов з-під контролю, і що розчарування неодмінно настане.[191] Їхні побоювання були обґрунтованими: наприкінці 1980-х і на початку 1990-х років ШІ зазнає низки фінансових ударів. Першою ознакою зміни погоди був раптовий крах ринку спеціалізованого апаратного забезпечення для ШІ 1987 року. Настільні комп'ютери від Apple та IBM постійно збільшували швидкодію й потужність, і 1987 року вони стали потужнішими за дорожчі Лісп-машини, які випускали Symbolics[en] та інші. Купувати їх вже не було жодної доброї причини. Вся індустрія вартістю півмільярда доларів зруйнувалася за одну ніч.[192] Зрештою, найраніші успішні експертні системи, такі як XCON, виявилися занадто дорогими в обслуговуванні. Їх було важко оновлювати, вони не могли навчатися, вони були «крихкими» (тобто могли робити абсурдні помилки за незвичайних даних входу) й пали жертвою проблем (як-от проблеми кваліфікації[en]), які було виявлено ще роки тому. Експертні системи виявилися корисними, але тільки в декількох особливих контекстах.[193] Наприкінці 1980-х років Стратегічна комп'ютерна ініціатива[en] обрізала фінансування ШІ «різко і жорстоко». Нове керівництво DARPA вирішило, що ШІ не є «наступною хвилею», і спрямувало кошти на проєкти, отримання негайних результатів від яких видавалося правдоподібнішим.[194] До 1991 року вражаючого переліку цілей, сформульованих 1981 року для японського п'ятого покоління комп'ютерів, досягнуто не було. Насправді, деяких із них, як-от «підтримувати неформальну розмову», не було досягнуто навіть до 2010 року.[195] Як і з іншими проєктами ШІ, очікування були набагато вищими за те, що було можливим насправді.[195][196] Понад 300 компаній, які займалися ШІ, закрилися, збанкрутували або були придбані до кінця 1993 року, фактично завершивши першу комерційну хвилю ШІ.[197] 1994 року ГП Найквіст[en] заявив у книзі «The Brain Makers», що «Найближче майбутнє штучного інтелекту — в його комерційному вигляді — здається, залежить частково від продовження успіху нейронних мереж.»[197] Нувельний ШІ та втілений розумНаприкінці 1980-х років декілька дослідників пропагували цілком новий підхід до штучного інтелекту, на основі робототехніки.[198] Вони вважали, що для того, щоби проявити справжній інтелект, машині потрібно мати тіло — вона повинна сприймати, рухатися, виживати та взаємодіяти зі світом. Вони стверджували, що ці чуттєо-моторні навички необхідні для вищих рівнів навичок, як-от міркування здорового глузду, і що абстрактне міркування насправді є найменш цікавою чи важливою людською навичкою (див. парадокс Моравека). Вони пропагували побудову інтелекту «знизу вгору.»[199] Цей підхід відродив ідеї з кібернетики й теорії керування, які були непопулярними з 1960-х років. Іншим предтечею був Девід Марр, який прийшов до МТІ наприкінці 1970-х років з успішним досвідом у теоретичній нейробіології, щоби очолити групу, яка вивчала бачення. Він відкинув усі символьні підходи (як логіку Маккарті, так і рамки Мінського), стверджуючи, що ШІ потрібно було розуміти фізичну механіку зору знизу вгору, перш ніж відбувалася би будь-яка символьна обробка. (1980 року роботу Марра обірвала лейкемія.)[200] У своїй статті 1990 року «Слони не грають у шахи»[201] дослідник з робототехніки Родні Брукс[en] спрямував свою критику безпосередньо на гіпотезу системи фізичних символів, стверджуючи, що символи не завжди необхідні, оскільки «світ є найкращою моделлю самого себе. Він завжди точно актуальний. Він завжди має всі деталі, які треба знати. Секрет полягає в тому, щоби сприймати його доречним чином і достатньо часто.»[202] У 1980-х і 1990-х роках багато когнітивістів також відкинули модель символьної обробки розуму і стверджували, що для міркування необхідне тіло, теорію, названу тезою про втілений розум.[203] ШІ (1993—2011)Галузь ШІ, якій вже понад півстоліття, нарешті досягла деяких своїх найдавніших цілей. Її почали успішно використовувати в усій технологічній промисловості, хоча й дещо за лаштунками. Деякі з цих успіхів були пов'язані зі зростанням обчислювальної потужності, а деяких було досягнуто шляхом зосередження на конкретних ізольованих задачах і розв'язанні їх за найвищими стандартами наукової відповідальності. Проте репутація ШІ, принаймні в діловому світі, була не дуже бездоганною.[204] Усередині галузі бракувало згоди щодо причин невдачі ШІ у втіленні мрії про людський рівень інтелекту, яка захопила уяву світу в 1960-х роках. Разом усі ці чинники допомогли розколоти ШІ на конкурентні підгалузі, зосереджені на певних задачах або підходах, іноді навіть під новими назвами, які приховували потьмяніле походження від «штучного інтелекту».[205] ШІ став як обережнішим, так і успішнішим, ніж будь-коли раніше. Віхи та закон Мура11 травня 1997 року Deep Blue став першою комп'ютерною шаховою системою, яка перемогла чинного чемпіона світу з шахів Гаррі Каспарова.[206] Цей суперкомп'ютер був спеціалізованою версією платформи, створеної IBM, і міг обробляти вдвічі більше ходів за секунду, ніж під час першого матчу (який Deep Blue програв), а саме 200 000 000 ходів за секунду.[207] 2005 року робот зі Стенфорду виграв DARPA Grand Challenge[en], автономно проїхавши 121 км непідготовленою пустельною трасою.[208] Через два роки команда з УКМ виграла DARPA Urban Challenge[en], автономно проїхавши 89 км у міському середовищі, дотримуючись усіх дорожніх небезпек і правил дорожнього руху.[209] У лютому 2011 року в телевікторині Jeopardy![en] в показовому матчі система відповідей на запитання IBM, Watson, перемогла двох найкращих чемпіонів Jeopardy!, Бреда Раттера[en] та Кена Дженнінгса[en], зі значною перевагою.[210] Ці успіхи не були наслідком якоїсь революційної нової парадигми, а переважно ґрунтувалися на наполегливому застосуванні інженерних навичок та величезному зростанні швидкості й обсягу пам'яті комп'ютерів у 90-х роках.[211] Насправді, Deep Blue був у 10 мільйонів разів швидший за Ferranti Mark 1[en], якого Крістофер Стрейчі[en] навчив грати в шахи у 1951 році.[212] Це драматичне зростання вимірюється законом Мура, який передбачує, що швидкість і обсяг пам'яті комп'ютерів подвоюються кожні два роки внаслідок щодворічного подвоєння кількості[en] МДН-транзисторів. Основну проблему «сирої обчислювальної потужності» поступово вдавалося подолати. Інтелектуальні агентиНова парадигма, яку назвали «інтелектуальними агентами» (англ. "intelligent agents"), стала широко прийнятою протягом 1990-х років.[213] Хоч раніше дослідники й пропонували модульні підходи «розділяй і володарюй» до ШІ,[214] інтелектуальний агент не набув свого сучасного вигляду, доки Джуда Перл, Аллен Ньюелл, Леслі П. Келблінг[en] та інші не привнесли поняття з теорії рішень та економіки до вивчення ШІ.[215] Коли економістське визначення раціонального агента було поєднано з інформатичним визначенням об'єкта або модуля, парадигму інтелектуального агента було завершено. Інтелектуальний агент — це система, яка сприймає своє середовище і вживає дії, які максимізують її шанси на успіх. За цим визначенням, прості програми, які розв'язують конкретні задачі, є «інтелектуальними агентами», так само як і людські істоти та організації людських істот, такі як фірми. Парадигма інтелектуальних агентів визначає дослідження ШІ як «вивчення інтелектуальних агентів». Це узагальнення деяких попередніх визначень ШІ: воно виходить за рамки вивчення людського інтелекту; воно вивчає всі види інтелекту.[216] Ця парадигма дала дослідникам можливість вивчати окремі задачі й знаходити рішення, які були одночасно перевірними й корисними. Вона надала спільну мову для опису задач та обміну їхніми рішеннями між собою та з іншими галузями, які також використовували поняття абстрактних агентів, як-от з економікою та теорією керування. Сподівалися, що завершена агентна архітектура[en] (як-от SOAR[en] Ньюелла) колись дозволить дослідникам побудувати універсальніші та інтелектуальніші системи із взаємодійних інтелектуальних агентів.[215][217] Імовірнісне міркування та більша строгістьДослідники ШІ почали розробляти й використовувати складніші математичні інструменти, ніж будь-коли раніше.[218] Було загальне усвідомлення, що над багатьма задачами, які треба було розв'язати ШІ, вже працювали дослідники з таких галузей як математика, електротехніка, економіка та дослідження операцій. Спільна математична мова уможливила вищий рівень співпраці з усталенішими й успішнішими галузями та досягнення результатів, які були вимірюваними й довідними; ШІ став більш строгою «науковою» дисципліною. Впливова книга Джуди Перла 1988 року[219] привнесла до ШІ ймовірність та теорію рішень. Серед багатьох нових інструментів у вжитку були баєсові мережі, приховані марковські моделі, теорія інформації, статистичне моделювання та класична оптимізація. Також було розроблено точні математичні описи для таких парадигм «обчислювального інтелекту» як нейронні мережі та еволюційні алгоритми.[220] ШІ за лаштункамиАлгоритми, первинно розроблені дослідниками ШІ, почали з'являтися як частини більших систем. ШІ розв'язав багато дуже складних задач[221] і їхні розв'язки виявилися корисними в усій технологічній промисловості,[222] як-от у розробленні даних, промисловій робототехніці, логістиці,[223] розпізнаванні мовлення,[224] банківському програмному забезпеченні,[225] медичному діагностуванні[225] та пошуковій системі Google.[226] Галузь ШІ отримала мало або жодного визнання за ці успіхи у 1990-х та на початку 2000-х років. Багато з найбільших нововведень ШІ було зведено до статусу просто ще одного предмета в скриньці інструментів інформатики.[227] Нік Бостром пояснює: «Багато передового ШІ просочилося в загальні застосування, часто без називання цього ШІ, тому що коли щось стає достатньо корисним і поширеним, його вже не мітять як ШІ.»[228] Багато дослідників ШІ у 1990-х навмисно називали свою роботу іншими назвами, як-от інформатикою, системами на основі знань[en], когнітивними системами та обчислювальним інтелектом. Можливо, частково через те, що вони вважали свою галузь принципово відмінною від ШІ, але також ці нові назви допомагали залучати фінансування. У комерційному світі, принаймні, невиконані обіцянки зими штучного інтелекту продовжували переслідувати дослідження ШІ у 2000-х роках, як повідомляла New York Times 2005 року: «Інформатики та програмісти уникали терміну „штучний інтелект“ через побоювання бути сприйнятими як мрійники з шаленими очима.»[229][230][231][232] Глибоке навчання, великі дані (2011—2020)У перших десятиліттях XXI століття доступ до великої кількості даних (відомих як «великі дані», англ. "big data"), дешевші та швидші комп'ютери та передові методики машинного навчання успішно застосували до багатьох задач по всій економіці. Справді, McKinsey Global Institute[en] оцінили у своїй відомій статті «Великі дані: наступний рубіж для інновацій, конкуренції та продуктивності» (англ. "Big data: The next frontier for innovation, competition, and productivity"), що «до 2009 року майже всі сектори економіки США мали принаймні середній рівень 200 терабайт збережених даних». До 2016 року ринок продуктів, апаратного та програмного забезпечення, пов'язаних із ШІ, досяг понад 8 мільярдів доларів, а New York Times повідомили, що інтерес до ШІ досяг «божевільного» рівня.[233] Застосування великих даних почали досягати й інших галузей, як-от тренування моделей в екології[234] та для різних застосувань в економіці.[235] Просування й дослідження в глибокому навчанні (особливо в глибоких згорткових нейронних мережах та рекурентних нейронних мережах) підштовхнули просування й дослідження в обробці зображень і відео, аналізі тексту, й навіть розпізнаванні мовлення.[236] На першому глобальному саміті з безпеки ШІ[en], що відбувся в Блечлі-Парку в листопаді 2023 року, обговорили найближчі та віддалені ризики штучного інтелекту й можливість обов'язкових та добровільних регуляторних рамок.[237] 28 країн, включно зі США, Китаєм та ЄС, оприлюднили декларацію на початку саміту, закликаючи до міжнародної співпраці для управління викликами та ризиками штучного інтелекту.[238][239] Глибоке навчанняГлибоке навчання (англ. deep learning) — це галузь машинного навчання, яка моделює високорівневі абстракції в даних за допомогою глибокого графа з багатьма шарами обробки.[236] За теоремою про універсальне наближення (теоремою Цибенка), глибина не є необхідною для нейронної мережі, щоби наближувати довільні неперервні функції. Незважаючи на це, є багато проблем, поширених для неглибоких мереж (як-от перенавчання), яких глибокі мережі допомагають уникати.[240] Як такі, глибокі нейронні мережі здатні насправді породжувати набагато складніші моделі порівняно з їхніми неглибокими аналогами. Проте, глибоке навчання має свої власні проблеми. Поширеною проблемою для рекурентних нейронних мереж є проблема зникання градієнту, яка полягає в тому, що градієнти, які передаються між шарами, поступово знижуються й буквально зникають, коли округлюються до нуля. Було розроблено багато методів, щоби підійти до цієї проблеми, як-от вузли довгої короткочасної пам'яті. Глибокі нейронні архітектури рівня останніх досягнень іноді навіть можуть змагатися з людською точністю в таких галузях як комп'ютерне бачення, зокрема в таких речах, як база даних MNIST та розпізнавання дорожніх знаків.[241] Мовні обробники, які працюють на основі розумних пошукових систем, можуть легко перемагати людей у відповідях на загальні питання (як-от IBM Watson), а нещодавні розробки в глибокому навчанні дали дивовижні результати у змаганні з людьми в таких речах як Ґо та Doom (який, будучи стрілялкою від першої особи, викликав деякі суперечки).[242][243][244][245] Великі даніВеликі дані (англ. big data) — це збірка даних, якими неможливо оволодіти, управляти та обробляти їх звичайними програмними інструментами протягом певного часового проміжку. Це величезна кількість можливостей для ухвалювання рішень, розуміння та оптимізації процесів, які вимагають нових моделей обробки. У книзі «Ера великих даних» (англ. The Big Data Era), написаній Віктором Майєром Шонбергом та Кеннетом Куком[en], великі дані означають, що замість випадкового аналізу (вибіркового дослідження) для аналізу використовують усі дані. Характеристики 5 «V» великих даних (запропоновані IBM): обсяг (англ. Volume), швидкість (англ. Velocity), різноманітність (англ. Variety)[246], цінність (англ. Value)[247], достовірність (англ. Veracity)[248]. Стратегічна значущість технології великих даних полягає не в тому, щоби оволодіти величезною кількістю інформації, а в тому, щоби спеціалізуватися на цих змістовних даних. Іншими словами, якщо великі дані порівняти з промисловістю, то ключем до досягнення прибутковості в цій промисловості є підвищення «можливостей процесу[en]» цими даними та реалізація їхньої «доданої вартості» шляхом «обробки». Ера ШІ, сильний штучний інтелект (2020—дотепер)Ера ШІ починається з початкової розробки ключових архітектур й алгоритмів, таких як трансформерна архітектура 2017 року, що призвела до масштабування та розвитку великих мовних моделей, які виявляють подібні до людських риси розуміння, пізнання, уваги та творчості. Початком ери ШІ вважають приблизно 2022—2024 роки із розробкою масштабованих великих мовних моделей, як-от ChatGPT.[249][250][251][252][253] Великі мовні моделі2017 року дослідники з Google запропонували трансформерну архітектуру. Вона використовує механізм уваги, й пізніше стала широко використовуваною у великих мовних моделях.[254] Моделі-основи[en] (англ. foundation models), що є великими мовними моделями, натренованими на величезних кількостях немічених даних, які можливо пристосовувати для широкого спектра підзадач, почали розробляти 2018 року. Моделі, такі як GPT-3, випущену організацією OpenAI 2020 року, та Gato[en], випущену компанією DeepMind 2022 року, описували як важливі досягнення машинного навчання. 2023 року Microsoft Research перевірили велику мовну модель GPT-4 на великому розмаїтті завдань та зробили висновок, що «її можливо стерпно розглядати як ранню (але все ще неповну) версію системи сильного штучного інтелекту (СШІ, англ. artificial general intelligence, AGI)»[255] Див. також
Примітки
Література
|
Portal di Ensiklopedia Dunia