Роман Ямпольський

Роман Ямпольский
Roman Yampolskiy
Ямпольський в 2023 р.
Народився13 серпня 1979 (45 років)(19790813)
Riga, Latvian SSR, Soviet Union
Національністьлатвієць
Діяльністьінформатик Редагувати інформацію у Вікіданих
Галузьінформатика і ШІ[1] Редагувати інформацію у Вікіданих
Alma materУніверситет у Буффало
Науковий ступіньдоктор філософії (PhD)
Науковий керівникVenugopal Govindarajud[2] Редагувати інформацію у Вікіданих
Знання мованглійська[1] і російська[1] Редагувати інформацію у Вікіданих
Заклад

Роман Володимирович Ямпольський (нар. в Ризі, 13 серпня 1979) — латвійський вчений-комп'ютерник з Університету Луїсвілла, відомий своєю роботою з безпеки штучного інтелекту та кібербезпеки. Має ступінь доктора філософії Університету Буффало (2008).[3] Є засновником і нинішнім директором Лабораторії кібербезпеки на кафедрі комп'ютерної інженерії та інформатики в Інженерній школі Д. Б. Спіда Університету Луїсвілла.[4]

Ямпольський є автором близько 100 публікацій[5], включаючи численні книги[6].

Безпека штучного інтелекту

Ямпольський попереджав про можливість екзистенційного ризику від сильного штучного інтелекту та виступав за дослідження щодо «коробкування» (англ. boxing) штучного інтелекту.[7] У ширшому сенсі, Ямпольський та його колега Мікаель Трацці у 2018 році запропонували запровадити «ахіллесові п'яти» в потенційно небезпечному штучному інтелекті, наприклад, заборонивши штучному інтелекту доступ до власного початкового коду та його зміну.[8][9] Ще одна пропозиція полягає в застосуванні «менталітету безпеки» до безпеки ШІ, деталізуючи потенційні результати, щоб краще оцінити запропоновані механізми безпеки.[10]

Він припустив, що немає жодних доказів вирішення проблеми контролю над штучним інтелектом, і запропонував призупинити розробку ШІ, стверджуючи, що «Уявлення про те, що люди можуть контролювати надрозумний ШІ, трохи схоже на уявлення про те, що мураха може контролювати результат футбольного матчу НФЛ, який відбувається навколо неї».[11][12] Він приєднався до дослідників штучного інтелекту, таких як Йошуа Бенджіо та Стюарт Рассел, підписавши відкритий лист з пропозицією припинити гігантські експерименти зі штучним інтелектом.[13]

Виступаючи в подкасті Лекса Фрідмана у 2024 році, Ямпольський передбачив ймовірність того, що штучний інтелект може призвести до вимирання людства, з ймовірністю «99,9 % протягом наступних ста років».[14]

Ямпольський був науковим радником Науково-дослідного інституту машинного інтелекту та стипендіатом з безпеки штучного інтелекту Інституту Форсайту.[15]

Інтелектологія

У 2015 році Ямпольський започаткував інтелектологію - нову галузь досліджень, засновану для аналізу форм та меж інтелекту.[16][17][18] Ямпольський вважає штучний інтелект підгалуззю цього.[16] Прикладом інтелектуальної роботи Ямпольського є спроба визначити зв'язок між різними типами свідомості та доступним простором розваг, тобто простором ненудних занять.[19]

ШІ-повнота

Ямпольський працював над розробкою теорії повноти штучного інтелекту, пропонуючи тест Тюрінга, як визначальний приклад.[20]

Книги

  • Feature Extraction Approaches for Optical Character Recognition. — Briviba Scientific Press, 2007. — ISBN 0-6151-5511-1.
  • Computer Security: from Passwords to Behavioral Biometrics. — New Academic Publishing, 2008. — ISBN 0-6152-1818-0.
  • Game Strategy: a Novel Behavioral Biometric. — Independent University Press, 2009. — ISBN 0-578-03685-1.
  • Artificial Superintelligence: a Futuristic Approach. — Chapman and Hall/CRC Press, 2015. — 277 p. — ISBN 978-1482234435.
  • AI: Unexplainable, Unpredictable, Uncontrollable. — Chapman & Hall/CRC Press, 2024. — ISBN 978-1032576268.

Див. також

Примітки

  1. а б в Чеська національна авторитетна база даних
  2. Математичний генеалогічний проєкт — 1997.
  3. Dr. Roman V. Yampolskiy, Computer Science, Speed School, University of Louisville, KY. Cecs.louisville.edu. Процитовано 25 вересня 2012.
  4. Cyber-Security Lab. University of Louisville. Процитовано 25 вересня 2012.
  5. Roman V. Yampolskiy. Google Scholar. Процитовано 25 вересня 2012.
  6. roman yampolskiy. Amazon.com. Процитовано 25 вересня 2012.
  7. Hsu, Jeremy (1 березня 2012). Control dangerous AI before it controls us, one expert says. NBC News. Процитовано 28 січня 2016.
  8. Baraniuk, Chris (23 серпня 2018). Artificial stupidity could help save humanity from an AI takeover. New Scientist. Процитовано 12 квітня 2020.
  9. Trazzi, Michaël; Yampolskiy, Roman V. (2018). Building safer AGI by introducing artificial stupidity. arXiv:1808.03644 [cs.AI].
  10. Baraniuk, Chris (23 травня 2016). Checklist of worst-case scenarios could help prepare for evil AI. New Scientist. Процитовано 12 квітня 2020.
  11. There is no evidence that AI can be controlled, expert says. The Independent (англ.). 12 лютого 2024. Процитовано 4 липня 2024.
  12. McMillan, Tim (28 лютого 2024). AI Superintelligence Alert: Expert Warns of Uncontrollable Risks, Calling It a Potential 'An Existential Catastrophe'. The Debrief (амер.). Процитовано 4 липня 2024.
  13. Pause Giant AI Experiments: An Open Letter. Future of Life Institute (амер.). Процитовано 4 липня 2024.
  14. Altchek, Ana. Why this AI researcher thinks there's a 99.9% chance AI wipes us out. Business Insider (амер.). Процитовано 13 червня 2024.
  15. Roman Yampolskiy. Future of Life Institute (амер.). Процитовано 3 липня 2024.
  16. а б Yampolskiy, Roman V. (2015). Artificial Superintelligence: a Futuristic Approach. Chapman and Hall/CRC Press (Taylor & Francis Group). ISBN 978-1482234435.
  17. Intellectology and Other Ideas: A Review of Artificial Superintelligence. Technically Sentient. 20 вересня 2015. Архів оригіналу за 7 серпня 2016. Процитовано 22 листопада 2016.{{cite web}}: Обслуговування CS1: bot: Сторінки з посиланнями на джерела, де статус оригінального URL невідомий (посилання)
  18. Roman Yampolskiy on Artificial Superintelligence. Singularity Weblog. 7 вересня 2015. Процитовано 22 листопада 2016.
  19. Ziesche, Soenke; Yampolskiy, Roman V. (2016). Artificial Fun: Mapping Minds to the Space of Fun. arXiv:1606.07092.
  20. Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness. In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3–17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf [Архівовано 2013-05-22 у Wayback Machine.]

Посилання

Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9

Portal di Ensiklopedia Dunia

Kembali kehalaman sebelumnya