근위 정책 최적화
근위 정책 최적화(Proximal policy optimization, PPO)는 지능형 에이전트를 훈련하기 위한 강화 학습(RL) 알고리즘이다. 구체적으로, 정책 네트워크가 매우 큰 경우 심층 RL에 자주 사용되는 정책 그래디언트 방법이다. PPO의 전신인 신뢰 영역 정책 최적화(Trust Region Policy Optimization, TRPO)는 2015년에 발표되었다. 신뢰 영역 방법을 사용하여 기존 정책과 새 정책 간의 KL 발산을 제한함으로써 다른 알고리즘인 심층 Q-네트워크(DQN)의 불안정성 문제를 해결했다. 그러나 TRPO는 헤시안 행렬(2차 도함수의 행렬)을 사용하여 신뢰 영역을 적용하지만 헤시안은 대규모 문제에 비효율적이다. PPO는 2017년에 발표되었다. 본질적으로 헤시안을 계산할 필요가 없는 TRPO의 근사치였다. KL 발산 제약 조건은 정책 그래디언트를 간단히 클리핑하여 근사화되었다.[1] 2018년부터 PPO는 오픈AI의 기본 RL 알고리즘이었다. PPO는 로봇 팔 제어, 도타 2(오픈AI 파이브)에서 프로 선수를 이기는 것, 아타리 게임을 하는 것 등 여러 분야에 적용되었다.[2] 같이 보기각주
외부 링크 |
Index:
pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve
Portal di Ensiklopedia Dunia