Ямпольський є автором близько 100 публікацій[5], включаючи численні книги[6].
Безпека штучного інтелекту
Ямпольський попереджав про можливість екзистенційного ризику від сильного штучного інтелекту та виступав за дослідження щодо «коробкування» (англ. boxing) штучного інтелекту.[7] У ширшому сенсі, Ямпольський та його колега Мікаель Трацці у 2018 році запропонували запровадити «ахіллесові п'яти» в потенційно небезпечному штучному інтелекті, наприклад, заборонивши штучному інтелекту доступ до власного початкового коду та його зміну.[8][9] Ще одна пропозиція полягає в застосуванні «менталітету безпеки» до безпеки ШІ, деталізуючи потенційні результати, щоб краще оцінити запропоновані механізми безпеки.[10]
Він припустив, що немає жодних доказів вирішення проблеми контролю над штучним інтелектом, і запропонував призупинити розробку ШІ, стверджуючи, що «Уявлення про те, що люди можуть контролювати надрозумний ШІ, трохи схоже на уявлення про те, що мураха може контролювати результат футбольного матчу НФЛ, який відбувається навколо неї».[11][12] Він приєднався до дослідників штучного інтелекту, таких як Йошуа Бенджіо та Стюарт Рассел, підписавши відкритий лист з пропозицією припинити гігантські експерименти зі штучним інтелектом.[13]
Виступаючи в подкасті Лекса Фрідмана у 2024 році, Ямпольський передбачив ймовірність того, що штучний інтелект може призвести до вимирання людства, з ймовірністю «99,9 % протягом наступних ста років».[14]
У 2015 році Ямпольський започаткував інтелектологію - нову галузь досліджень, засновану для аналізу форм та меж інтелекту.[16][17][18] Ямпольський вважає штучний інтелект підгалуззю цього.[16] Прикладом інтелектуальної роботи Ямпольського є спроба визначити зв'язок між різними типами свідомості та доступним простором розваг, тобто простором ненудних занять.[19]
↑Roman Yampolskiy. Future of Life Institute(амер.). Процитовано 3 липня 2024.
↑ абYampolskiy, Roman V. (2015). Artificial Superintelligence: a Futuristic Approach. Chapman and Hall/CRC Press (Taylor & Francis Group). ISBN978-1482234435.