검색 상세

모바일 애드혹 네트워크를 위한 Q-Learning 기반의 위치기반 라우팅 프로토콜

Q-Learning Based Geographic Routing Protocol for Mobile Ad-hoc Networks

초록/요약

드론과 원격으로 조종되는 자동차와 같은 새로운 이동 로봇 장치의 등장은 새로운 미래 서비스들을 위한 기회를 제공한다. 이와 동시에, 모바일 애드혹 네트워크 설계에 새로운 도전 과제를 제기한다. 이러한 로봇 네트워크 설계에 가장 큰 문제는 쉽게 연결이 끊어지기 때문에 라우팅을 구성하기 어렵다는 점이다. 이동 로봇 장치들을 원격에서 제어하고 모니터링 하기 위해서는 빠르고 신뢰성 있는 네트워크는 필수적이다. 하지만 무인 장비들이 빠르게 움직이기 때문에 발생하는 경로 선정 및 복구를 위한 네트워크 오버헤드의 제어는 로봇 네트워크에서 여전히 중요한 문제로 남아있다. 이러한 라우팅 오버헤드 문제를 완화하기 위해 본 논문에서는 모바일 애드혹 네트워크에서 라우팅 오버헤드를 줄이기 위해 기계 학습 기반의 위치기반 라우팅 기법을 제안한다. 제안하는 기법은 NS-3를 이용하여 다른 유사한 라우팅 프로토콜의 성능과 비교 검증되었으며 다른 기법에 비해 보다 향상된 패킷 전송 성공률과 적은 양의 네트워크 오버헤드를 발생시키는 것을 확인하였다.

more

초록/요약

The appearance of new mobile robotic devices, such as drones and remote controlled vehicles, offers opportunities for future services. At the same time, this revolution raises new challenges in Mobile Ad-hoc Networks (MANETs) design. The most critical problem is the difficulty of routing in a network with easily disconnected features. A rapid and reliable network is essential for the remote control and monitoring of mobile robotic devices. However, controlling the network overhead required for route selection and repair is still a notable challenge, owing to high mobility of the devices. To alleviate routing overhead problem, this thesis proposes a machine-learning based geographic routing scheme to reduce network overhead in MANETs. The performance of proposed routing scheme is compared with other similar routing methods and evaluated using NS-3 simulator. The comparison results show that proposed routing scheme has a higher packet delivery ratio and lower network overhead than existing methods.

more

목차

CHAPTER 1 INTRODUCTION 1
CHAPTER 2 BACKGROUND AND RELATED WORK 4
2.1 REINFORCEMENT MACHINE LEARNING 4
2.2 Q-LEARNING-BASED ROUTING PROTOCOLS 8
CHAPTER 3 Q-LEARNING BASED GEOGRAPHIC ROUTING 11
3.1 CALCULATING LOCATION ESTIMATION ERROR 13
3.2 CALCULATING REWARD FUNCTION 16
3.3 ADJUSTING DISCOUNT FACTOR 17
3.4 FORWARDING NODE SELECTION IN QGEO 19
CHAPTER 4 PERFORMANCE EVALUATION 23
4.1 SIMULATION ENVIRONMENT 23
4.2 PERFORMANCE EVALUATION 25
CHAPTER 5 CONCLUSION 31

more