پژوهشنامه حمل و نقل

پژوهشنامه حمل و نقل

مدل‌سازی رفتار غیرعادی در ترافیک برای بهبود تصمیم‌گیری تغییر لاین خودروهای خودران با یادگیری تقویتی

نوع مقاله : مقاله پژوهشی

نویسندگان
1 دانشجوی دکترا، پردیس بین المللی کاسپین، دانشگاه تهران، تهران، ایران
2 استادیار، دانشکده فنی کاسپین، دانشکدگان فنی، دانشگاه تهران، تهران، ایران
چکیده
با پیشرفت فناوری خودروهای خودران، تصمیم‌گیری در شرایط ترافیکی پیچیده به چالشی اساسی تبدیل شده است. در این پژوهش، رفتارهای غیرعادی رانندگان مانند تغییر لاین ناگهانی، رانندگی با سرعت‌های غیرعادی و واکنش‌های نامنظم با استفاده از محیط شبیه‌سازی SUMO مدل‌سازی شده است. برای بهبود تصمیم‌گیری خودروهای خودران در تغییر لاین، از یادگیری تقویتی عمیق (DQN) استفاده شده است. شبیه‌سازی‌ها شامل انواع خودروها از جمله رانندگان عادی، پرخطر، محتاط بیش از حد و غیرقابل پیش‌بینی بوده است. نتایج نشان می‌دهد که نرخ موفقیت تغییر لاین از ۴۰٪ در اپیزودهای اولیه به ۸۰٪ در اپیزودهای پایانی افزایش یافته و میزان برخورد از ۲۵٪ به کمتر از ۱۰٪ کاهش پیدا کرده است. پاداش‌ها بر اساس سرعت (بیش از ۲۰: +۱۰)، موقعیت لاین (لاین وسط: +۱۵) و برخورد (-۵۰) تعیین شده‌اند. با این حال، پاداش‌های تجمعی در اپیزودهای اولیه نوسانات زیادی داشتند و با پیشرفت یادگیری پایدارتر شدند. این موضوع نشان‌دهنده چالش‌های یادگیری تقویتی در محیط‌های پویا و غیرقابل پیش‌بینی است. تحلیل‌ها حاکی از آن است که عامل یادگیرنده در موقعیت‌های غیرمنتظره عملکرد ناپایداری دارد و نیاز به بهینه‌سازی بیشتری دارد. این پژوهش همچنین پیشنهاد می‌دهد که روش‌های پیشرفته‌تر مانند یادگیری تقویتی توزیعی یا ترکیب مدل‌های پیش‌بینی رفتار رانندگان می‌تواند تصمیم‌گیری را بهبود دهد. در نهایت، این مطالعه بر اهمیت مدل‌سازی دقیق‌تر شرایط واقعی ترافیک و استفاده از روش‌های ترکیبی برای پایداری یادگیری در خودروهای خودران تاکید دارد.
کلیدواژه‌ها

موضوعات


عنوان مقاله English

Modeling Abnormal Traffic Behavior to Improve Lane-Changing Decisions of Autonomous Vehicles Using Reinforcement Learning

نویسندگان English

Majid Dashti Maljaei 1
Seyed Omid Hasanpour Jesri 2
1 Ph.D., Student, Caspian International Campus, University of Tehran, Tehran, Iran.
2 Assistant Professor, Caspian Faculty of Engineering, College of Engineering, University of Tehran, Tehran, Iran.
چکیده English

With the advancement of autonomous vehicle technologies, decision-making in complex traffic scenarios has become a significant challenge. This study models abnormal driver behaviors—such as sudden lane changes, unusual speeds, and erratic reactions—using the SUMO simulation environment. To enhance autonomous vehicles' lane-changing decisions, Deep Q-Network (DQN) reinforcement learning was employed. The simulations included various driver types, such as normal, aggressive, overly cautious, and unpredictable drivers. Results indicate that the lane-changing success rate increased from 40% in the initial episodes to 80% in the final episodes, while collision rates dropped from 25% to below 10%. Rewards were defined based on speed (above 20 km/h: +10), lane position (center lane: +15), and collisions (-50). However, cumulative rewards showed high variance during early episodes and became more stable as learning progressed, reflecting the challenges of reinforcement learning in dynamic and unpredictable environments. Analysis reveals that the learning agent's performance remains unstable in unexpected situations, suggesting a need for further optimization. The study also proposes that more advanced methods, such as distributional reinforcement learning or integrating driver behavior prediction models, could improve decision-making. Ultimately, this research highlights the importance of more accurate modeling of real-world traffic conditions and hybrid approaches to ensure learning stability in autonomous vehicles.

کلیدواژه‌ها English

Lane Changing
Autonomous Vehicles
Abnormal Driver Behavior
Reinforcement Learning
- F. Ye, X. Cheng, P. Wang, C.-Y. Chan, and J. Zhang (2020). Automated lane change strategy using proximal policy optimization-based deep reinforcement learning. in 2020 IEEE Intelligent Vehicles Symposium (IV), IEEE, 1746-1752.
- F. Ye, P. Wang, C.-Y. Chan, and J. Zhang, (2021). Meta reinforcement learning-based lane change strategy for autonomous vehicles. in 2021 IEEE Intelligent Vehicles Symposium (IV), IEEE, 223-230.
-G. Li et al., (2022). Lane change strategies for autonomous vehicles: A deep reinforcement learning approach based on transformer. IEEE Transactions on Intelligent Vehicles, Vol. 8, No. 3, 2197-2211.
-H. Wang, S. Yuan, M. Guo, X. Li, and W. Lan, (2021). A deep reinforcement learning-based approach for autonomous driving in highway on-ramp merge. Proceedings of the Institution of Mechanical engineers, Part D: Journal of Automobile Engineering, Vol. 235, No. 10-11, 2726-2739.
- J. Wang, Q. Zhang, D. Zhao, and Y. Chen, (2019). Lane change decision-making through deep reinforcement learning with rule-based constraints. in 2019 International Joint Conference on Neural Networks (IJCNN), IEEE,  1-6.
-J. Peng, S. Zhang, Y. Zhou, and Z. Li, (2022). An integrated model for autonomous speed and lane change decision-making based on deep reinforcement learning. IEEE Transactions on Intelligent Transportation Systems, Vol. 23, No. 11, 21848-21860.
-M. Yuan, J. Shan, and K. Mi, (2021). Deep reinforcement learning based game-theoretic decision-making for autonomous vehicles. IEEE Robotics and Automation Letters, Vol. 7, No. 2, 818-825.
 -Ó. Pérez-Gil et al., (2022). Deep reinforcement learning based control for Autonomous Vehicles in CARLA. Multimedia Tools and Applications, Vol. 81, No. 3, 3553-3576.
-S. Shalev-Shwartz, S. Shammah, and A. Shashua,  (2016). Safe, multi-agent, reinforcement learning for autonomous driving.  arXiv preprint arXiv:1610.03295.
-X. He, H. Yang, Z. Hu, and C. Lv,  (2022). Robust lane change decision making for autonomous vehicles: An observation adversarial reinforcement learning approach. IEEE Transactions on Intelligent Vehicles,
 
Vol. 8, No. 1, 184-193.
-Z. Zhu and H. Zhao (2021). A survey of deep RL and IL for autonomous driving policy learning. IEEE Transactions on Intelligent Transportation Systems, Vol. 23, No. 9,14043-14065.