»ó¼¼Á¤º¸
¹Ì¸®º¸±â
ÆÄÀÌÅäÄ¡¿Í À¯´ÏƼ ML-Agents·Î ¹è¿ì´Â °ÈÇнÀ [ÀÀ¿ëÆí]
- ÀúÀÚ
- ¹Î±Ô½Ä,ÀÌÇöÈ£,¹ÚÀ¯¹Î °øÀú
- ÃâÆÇ»ç
- À§Å°ºÏ½º
- ÃâÆÇÀÏ
- 2025-06-30
- µî·ÏÀÏ
- 2026-01-12
- ÆÄÀÏÆ÷¸Ë
- PDF
- ÆÄÀÏÅ©±â
- 55MB
- °ø±Þ»ç
- YES24
- Áö¿ø±â±â
-
PC
PHONE
TABLET
À¥ºä¾î
ÇÁ·Î±×·¥ ¼öµ¿¼³Ä¡
ºä¾îÇÁ·Î±×·¥ ¼³Ä¡ ¾È³»
Ã¥¼Ò°³
À¯´ÏƼ¸¦ ÀÌ¿ëÇÏ¿© Á÷Á¢ °ÔÀÓÀ» Á¦ÀÛÇϰí ML-Agents·Î °ÈÇнÀ ȯ°æÀ» ±¸¼ºÇØ º¸ÀÚ! À¯´ÏƼ ML-Agents´Â °ÔÀÓ ¿£ÁøÀÎ À¯´ÏƼ¸¦ ÅëÇØ Á¦ÀÛÇÑ ½Ã¹Ä·¹ÀÌ¼Ç È¯°æÀ» °ÈÇнÀÀ» À§ÇÑ È¯°æÀ¸·Î ¸¸µé¾îÁÖ´Â °í¸¶¿î µµ±¸ÀÌ´Ù. ML-Agents¸¦ ÅëÇØ ¸¹Àº °³¹ßÀÚ, ¿¬±¸ÀÚµéÀÌ ¿øÇÏ´Â °ÈÇнÀ ȯ°æÀ» Á÷Á¢ ¸¸µé ¼ö ÀÖ°Ô µÇ¸é¼ ML-Agents´Â ÇмúÀû, »ê¾÷ÀûÀ¸·Î °ÈÇнÀÀÇ »ç¿ë¿¡ ÀÖ¾î Áß¿äÇÑ µµ±¸°¡ µÇ¾ú´Ù. ÇÏÁö¸¸ ¾ÆÁ÷±îÁöµµ ML-Agents, ±×Áß¿¡¼µµ ƯÈ÷ ML-Agents 2.0 ÀÌÈÄÀÇ ¹öÀüÀ» ´Ù·ç´Â Âü°í ÀÚ·á°¡ ¸¹Áö ¾Ê±â ¶§¹®¿¡ ML-Agents¸¦ »ç¿ëÇÏ´Â µ¥ ¾î·Á¿òÀÌ ¸¹¾Ò´Ù. ÀÌ Ã¥Àº 2022³â¿¡ Ãâ°£µÈ ¡ºÆÄÀÌÅäÄ¡¿Í À¯´ÏƼ ML-Agents·Î ¹è¿ì´Â °ÈÇнÀ¡»ÀÇ ÈļӯíÀ¸·Î ´õ¿í ±íÀÌ ÀÖ´Â °ÈÇнÀ¿¡ ´ëÇÑ À̷аú ÄÚµå, À̸¦ À§ÇÑ È¯°æ Á¦ÀÛ ¹æ¹ý µîÀ» ´Ù·ç°í ÀÖ´Ù.
ÀúÀÚ¼Ò°³
ÇѾç´ëÇб³ ¹Ì·¡ÀÚµ¿Â÷°øÇаú¿¡¼ ¹Ú»çÇÐÀ§¸¦ ÃëµæÇßÀ¸¸ç ÇöÀç īī¿À¿¡¼ AI ¿£Áö´Ï¾î·Î ÀÏÇϰí ÀÖ´Ù. °ÈÇнÀ °ü·Ã ÆäÀ̽ººÏ ±×·ìÀÎ Reinforcement Learning KoreaÀÇ ¿î¿µÁøÀ¸·Î Ȱµ¿Çϰí ÀÖÀ¸¸ç À¯´ÏƼ ÄÚ¸®¾Æ¿¡¼ °øÀÎÇÑ À¯´ÏƼ Àü¹®°¡ ±×·ìÀÎ Unity Masters 3~5±â·Î Ȱµ¿Çß´Ù.
¸ñÂ÷
00Àå: À¯´ÏƼ¿Í ML-Agents ¼³Ä¡Çϱâ À¯´ÏƼ¿Í ML-Agents ¼³Ä¡Çϱâ __À¯´ÏƼ Çãºê ´Ù¿î·Îµå ¹× ¼³Ä¡ __À¯´ÏƼ ¶óÀ̼±½º Ȱ¼ºÈ __À¯´ÏƼ ¿¡µðÅÍ ¼³Ä¡ ML-Agents ¼³Ä¡ __ML-Agents ÆÄÀÏ ³»·Á¹Þ±â __À¯´ÏƼ¿¡ ML-Agents ¼³Ä¡Çϱâ __ML-Agents ÆÄÀÌ½ã ÆÐŰÁö ¼³Ä¡Çϱâ 01Àå: À¯´ÏƼ¿Í ML-Agents ¼³Ä¡Çϱâ 1.1 ÇÁ·ÎÁ§Æ® ½ÃÀÛÇϱâ 1.2 ´åÁö ȯ°æ ±¸¼ºÇϱâ 1.3 ½ºÅ©¸³Æ® ÀÛ¼ºÇϱâ __1.3.1 ½ºÅ©¸³Æ® ÆÄÀÏ »ý¼º ¹× ¼³Á¤ __1.3.2 DodgeScene ½ºÅ©¸³Æ® __1.3.3 BallScript ½ºÅ©¸³Æ® __1.3.4 Area ½ºÅ©¸³Æ® __1.3.5 DodgeAgent ½ºÅ©¸³Æ® 1.4 ´åÁö ȯ°æ ¼³Á¤ ¹× ȯ°æ ºôµå 02Àå: Proximal Policy Optimization (PPO) 2.1 PPO ¾Ë°í¸®ÁòÀÇ °³¿ä 2.2 PPO ¾Ë°í¸®ÁòÀÇ ÀÌ·Ð __2.2.1 PPO ¾Ë°í¸®ÁòÀÇ ¸ñÀûÇÔ¼ö __2.2.2 PPOÀÇ ºÐ»êÇнÀ __2.2.3 PPOÀÇ ³×Æ®¿öÅ© ±¸Á¶ __2.2.4 PPO ¾Ë°í¸®ÁòÀÇ ÇнÀ __2.2.5 PPO ¾Ë°í¸®ÁòÀÇ ¼º´É 2.3 PPO ÄÚµå __2.3.1 ¶óÀ̺귯¸® ºÒ·¯¿À±â __2.3.2 ÆÄ¶ó¹ÌÅÍ °ª ¼³Á¤ __2.3.3 Model Ŭ·¡½º __2.3.4 Agent Ŭ·¡½º __2.3.5 Main ÇÔ¼ö __2.3.6 ÇнÀ °á°ú 2.4 mlagents-learn (ÆÄ¶ó¹ÌÅÍ ·£´ýÈ) 2.5 Ä¿¸®Å§·³ ÇнÀ __2.5.1 mlagents-learnÀ» ÀÌ¿ëÇÑ Ä¿¸®Å§·³ ÇнÀ __2.5.2 Python-API¸¦ ÀÌ¿ëÇÑ Ä¿¸®Å§·³ ÇнÀ 03Àå: °¡º¯ÀûÀÎ ÀԷ ȯ°æ°ú ¾îÅÙ¼Ç 3.1 °¡º¯ÀûÀÎ ÀԷ ȯ°æÀÇ °³¿ä 3.2 ´åÁö ȯ°æ ¼öÁ¤(°¡º¯ÀûÀÎ ÀԷ ȯ°æ) 3.3 ¾îÅÙ¼Ç ±â¹ýÀÇ ÀÌ·Ð __3.3.1 ¸ÖƼ Çìµå ¾îÅÙ¼Ç __3.3.2 °ÈÇнÀ¿¡¼ ¾îÅÙ¼ÇÀÇ Àû¿ë 3.4 ¾îÅÙ¼Ç PPO ÄÚµå __3.4.1 ¶óÀ̺귯¸® ºÒ·¯¿À±â __3.4.2 ÆÄ¶ó¹ÌÅÍ °ª ¼³Á¤ __3.4.3 Model Ŭ·¡½º __3.4.4 Agent Ŭ·¡½º __3.4.5 Main ÇÔ¼ö __3.4.6 ÇнÀ °á°ú 04Àå: Æþ ȯ°æ ¸¸µé±â 4.1 ÇÁ·ÎÁ§Æ® ½ÃÀÛÇϱâ 4.2 Æþ ȯ°æ ±¸¼ºÇϱâ 4.3 ½ºÅ©¸³Æ® ÀÛ¼ºÇϱâ __4.3.1 ½ºÅ©¸³Æ® ÆÄÀÏ »ý¼º __4.3.2 PongAgent ½ºÅ©¸³Æ® __4.3.3 EnvController ½ºÅ©¸³Æ® 4.4 Æþ ȯ°æ ¼³Á¤ ¹× ȯ°æ ºôµå 05Àå: Àû´ëÀû °ÈÇнÀ 5.1 Àû´ëÀû °ÈÇнÀ °³¿ä 5.2 Àû´ëÀû PPO ÄÚµå __5.2.1 ¶óÀ̺귯¸® ºÒ·¯¿À±â __5.2.2 ÆÄ¶ó¹ÌÅÍ °ª ¼³Á¤ __5.2.3 Model Ŭ·¡½º __5.2.4 Agent Ŭ·¡½º __5.2.5 Main ÇÔ¼ö __5.2.6 ÇнÀ °á°ú 5.3 mlagents-learn(Àû´ëÀû °ÈÇнÀ) 06Àå: ¹æÅ»Ãâ ȯ°æ ¸¸µé±â 6.1 ÇÁ·ÎÁ§Æ® ½ÃÀÛÇϱâ 6.2 ¹æÅ»Ãâ ȯ°æ ±¸¼ºÇϱâ 6.3 ½ºÅ©¸³Æ® ÀÛ¼ºÇϱâ __6.3.1 ½ºÅ©¸³Æ® ÆÄÀÏ »ý¼º __6.3.2 EnvController ½ºÅ©¸³Æ® __6.3.3 BlockAgent ½ºÅ©¸³Æ® 6.4 ¹æÅ»Ãâ ȯ°æ ¼³Á¤ ¹× ȯ°æ ºôµå 07Àå: MA-POCA 7.1 COMA ¾Ë°í¸®ÁòÀÇ ÀÌ·Ð __7.1.1 COMA ¾Ë°í¸®Áò °³¿ä __7.1.2 Áß¾ÓÈ Å©¸®Æ½, Å»Áß¾ÓÈ ¾×ÅÍ __7.1.3 ¹Ý»ç½ÇÀû º£À̽º¶óÀÎ __7.1.4 COMA ³í¹®ÀÇ °á°ú 7.2 MA-POCA ¾Ë°í¸®ÁòÀÇ ÀÌ·Ð __7.2.1 MA-POCA ¾Ë°í¸®Áò °³¿ä __7.2.2 MA-POCAÀÇ °¡Ä¡ÇÔ¼ö __7.2.3 MA-POCAÀÇ ¹Ý»ç½ÇÀû º£À̽º¶óÀÎ __7.2.4 MA-POCA ³í¹®ÀÇ °á°ú 7.3 MA-POCA ÄÚµå __7.4.1 ¶óÀ̺귯¸® ºÒ·¯¿À±â __7.4.2 ÆÄ¶ó¹ÌÅÍ °ª ¼³Á¤ __7.4.3 Model Ŭ·¡½º __7.4.4 Agent Ŭ·¡½º __7.4.5 Main ÇÔ¼ö __7.4.6 ÇнÀ °á°ú 7.4 mlagents-learn(MA-POCA) 08Àå: ¸ÞÀÌÁî ȯ°æ ¸¸µé±â 8.1 ÇÁ·ÎÁ§Æ® ½ÃÀÛÇϱâ 8.2 ¸ÞÀÌÁî ȯ°æ ±¸¼ºÇϱâ 8.3 ½ºÅ©¸³Æ® ÀÛ¼ºÇϱâ __8.3.1. ½ºÅ©¸³Æ® ÆÄÀÏ »ý¼º __8.3.2. HardExplorationAgent ½ºÅ©¸³Æ® 8.4 ¸ÞÀÌÁî ȯ°æ ¼³Á¤ ¹× ºôµåÇϱâ 09Àå: Random Network Distillation 9.1 RND ¾Ë°í¸®ÁòÀÇ °³¿ä 9.2 RND ¾Ë°í¸®ÁòÀÇ ±â¹ý 9.3 RND ¾Ë°í¸®Áò ±¸Çö 9.4 RND ÄÚµå __9.4.1 ¶óÀ̺귯¸® ºÒ·¯¿À±â ¹× ÆÄ¶ó¹ÌÅÍ °ª ¼³Á¤Çϱâ __9.4.2 Model Ŭ·¡½º __9.4.3 RMS Ŭ·¡½º __9.4.4 Agent Ŭ·¡½º __9.4.5 Main ÇÔ¼ö __9.4.6 ÇнÀ °á°ú 9.5 mlagents-learn(RND) 10Àå: Åõ ¹Ì¼Ç ȯ°æ ¸¸µé±â 10.1 ÇÁ·ÎÁ§Æ® ½ÃÀÛÇϱâ 10.2 Åõ ¹Ì¼Ç ȯ°æ ±¸¼ºÇϱâ 10.3 ½ºÅ©¸³Æ® ÀÛ¼ºÇϱâ __10.3.1 ½ºÅ©¸³Æ® ÆÄÀÏ »ý¼º __10.3.2 TwoMissionAgent ½ºÅ©¸³Æ® __10.3.3 TwoMissionEnvController ½ºÅ©¸³Æ® __10.3.4 TwoMissionGoalDetect ½ºÅ©¸³Æ® 10.4 Åõ ¹Ì¼Ç ȯ°æ ¼³Á¤ ¹× ºôµåÇϱâ 11Àå: Hypernetworks 11.1 Hypernetworks ¾Ë°í¸®ÁòÀÇ °³¿ä 11.2 Hypernetworks ¾Ë°í¸®ÁòÀÇ ±â¹ý 11.3 Hypernetworks ÄÚµå __11.3.1 ¶óÀ̺귯¸® ºÒ·¯¿À±â ¹× ÆÄ¶ó¹ÌÅÍ °ª ¼³Á¤ __11.3.2 Model Ŭ·¡½º __11.3.3 Agent Ŭ·¡½º __11.3.4 Main ÇÔ¼ö __11.3.5 ÇнÀ °á°ú 11.4 mlagents-learn(HyperNetworks) 12Àå: ¸¶¹«¸® 12.1 ÀÀ¿ëÆí ³»¿ë Á¤¸® 12.2 Ã¥¿¡¼ ´Ù·çÁö ¾ÊÀº ³»¿ë __12.2.1 ¼øÈ¯ ½Å°æ¸Á __12.2.2 Soft Actor Critic 12.3 À¯´ÏƼ ¸Ó½Å·¯´× ¿¡ÀÌÀüÆ® Àû¿ë »ç·Ê __12.3.1 ÀÚÀ²ÁÖÇà ¿¬±¸ ȯ°æ ±¸Ãà »ç·Ê __12.3.2 ¸Ó½Å·¯´× ¿¡ÀÌÀüÆ®¸¦ ÀÌ¿ëÇÑ À¯Æ©ºê »ç·Ê __12.3.3 »ê¾÷ ¹®Á¦¿¡ ¸Ó½Å·¯´× ¿¡ÀÌÀüÆ®¸¦ Àû¿ëÇÑ »ç·Ê __12.3.4 »ó¿ë °ÔÀÓ¿¡ ¸Ó½Å·¯´× ¿¡ÀÌÀüÆ®¸¦ Àû¿ëÇÑ »ç·Ê