Alleviation of OHT Vehicle Congestion in Semiconductor FAB with Dynamic Link Weight Control : A Reinforcement Learning Approach
- 주제(키워드) 반도체 FAB , OHT 시스템 , 자동화 자재 취급 시스템 , 동적 링크 가중치 제어 , 강화학습 , 다중 에이전트
- 주제(DDC) 658.5
- 발행기관 아주대학교 일반대학원
- 지도교수 신영철
- 발행년도 2026
- 학위수여년월 2026. 2
- 학위명 석사
- 학과 및 전공 일반대학원 산업공학과
- 실제URI http://www.dcollection.net/handler/ajou/000000035559
- 본문언어 영어
- 저작권 아주대학교 논문은 저작권에 의해 보호받습니다.
초록/요약
최근 반도체 수요의 지속적인 증가로 인해 반도체 제조업체들은 생산 능력 확장을 위해 팹(FAB) 설비를 대형화하고 있다. 이에 따라 Overhead Hoist Transport (OHT) 차량을 제어하는 자동물류이송시스템(AMHS)의 규모와 구조 또한 점차 복잡해지고 있다. 특히 트랙 네트워크가 밀집된 대규모 FAB 환경에서는 OHT 교통량이 특정 구간에 집중되면서 빈번한 혼잡과 병목 현상이 발생하고, 이는 전체 생산성 저하로 이어진다. 그러나 기존의 정적 경로 선택 방식은 개별 OHT 수준에서만 경로를 결정하기 때문에 실시간 혼잡 상황을 충분히 반영하지 못하며, 결과적으로 일부 영역에 교통이 과도하게 집중되는 비효율이 발생한다. 이러한 한계를 극복하기 위하여 본 연구에서는 강화학습 기반 동적 링크 가중치 제어(Dynamic Link Weight Control, DLWC) 기법을 제안한다. 제안 기법은 AMHS 레이아웃을 복수의 영역으로 분할한 후 각 영역의 링크 가중치를 동적으로 조정함으로써 OHT가 상대적으로 덜 혼잡한 경로를 선택하도록 유도한다. 시뮬레이션 실험 결과, 제안한 DLWC 기법은 기존 규칙 기반 접근법 대비 처리량과 리드타임 측면에서 우수한 성능을 보였으며, 대규모 AMHS 환경에서 OHT 혼잡을 효과적으로 완화하는 데에 실질적인 유효성이 있음을 확인하였다.
more초록/요약
With the continuous growth in semiconductor demand, semiconductor manufacturers have expanded the capacity of fabrication (FAB) facilities. Consequently, an Automated Material Handling System (AMHS), which controls Overhead Hoist Transport (OHT) vehicles, has become larger and more complex. In large-scale FAB environments characterized by dense track networks, frequent congestion often leads to bottlenecks, ultimately decreasing overall productivity. However, traditional static routing approaches for each OHT fail to effectively manage real-time congestion, resulting in traffic being concentrated on specific areas and causing operational inefficiencies. To address this issue, we propose a reinforcement learning-based Dynamic Link Weight Control (DLWC) method. By partitioning the AMHS layout into multiple areas, the DLWC controls the link weights that influence OHT route selection, leading OHTs to choose less congested paths. Simulation experiments demonstrate that the proposed DLWC method outperforms conventional rule-based approaches in terms of both throughput and lead time, validating the practical effectiveness of congestion control in large-scale AMHS environments.
more목차
1 Introduction 1
2 Literature Review 5
2.1 Optimization and rule-based methods 5
2.2 Learning-based methods 8
2.3 Key distinctions between our study and related prior studies 10
3 Problem Description 12
3.1 Markov decision process (MDP)model 13
4 Simulation based reinforcement learning 16
4.1 Reinforcement learning model 16
4.2 Reinforcement learning framework 16
5 Computational experiments 22
5.1 Experiment settings 22
5.2 Comparative analysis 25
5.3 Analysis of OHT distribution 31
5.4 Comparison with dynamic weight policies 33
5.4.1 Comparison with random weight policy 33
5.4.2 Comparison with OHT count-based policy 35
5.5 Arrival distribution analysis 38
5.6 Area division and sensitivity analysis 38
5.7 Robustness comparison under link-failure events 42
6 Conclusions 44
6.1 Managerial insights 44
6.2 Limitations and future research 46
참고문헌 48
국문초록 54

