KR102712787B1 - 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법, 이를 수행하기 위한 기록 매체 및 장치 - Google Patents
에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법, 이를 수행하기 위한 기록 매체 및 장치 Download PDFInfo
- Publication number
- KR102712787B1 KR102712787B1 KR1020210134362A KR20210134362A KR102712787B1 KR 102712787 B1 KR102712787 B1 KR 102712787B1 KR 1020210134362 A KR1020210134362 A KR 1020210134362A KR 20210134362 A KR20210134362 A KR 20210134362A KR 102712787 B1 KR102712787 B1 KR 102712787B1
- Authority
- KR
- South Korea
- Prior art keywords
- task
- offloading
- time
- energy
- iot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/485—Task life-cycle, e.g. stopping, restarting, resuming execution
- G06F9/4856—Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
- G06F9/4893—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues taking into account power or heat criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1012—Server selection for load balancing based on compliance of requirements or conditions with available server resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/62—Establishing a time schedule for servicing the requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/09—Management thereof
- H04W28/0958—Management thereof based on metrics or performance parameters
- H04W28/0967—Quality of Service [QoS] parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 장치의 블록도이다.
도 3은 수집에너지를 각 단위 시간 슬롯에 할당하는 것을 설명하기 위한 도면이다.
도 4는 본 발명에서 사용하는 사용하는 Q-learning 기반 태스크 오프로딩 기법(QTO)을 보여주는 알고리즘이다.
도 5는 본 발명의 성능을 검증하기 위해 IoT 개수를 다르게 하여 기존 알고리즘들과 정전시간을 비교한 시뮬레이션 결과이다.
도 6은 본 발명의 성능을 검증하기 위해 IoT 개수를 다르게 하여 기존 알고리즘들과 지연시간을 비교한 시뮬레이션 결과이다.
도 7은 본 발명의 성능을 검증하기 위해 IoT 개수를 다르게 하여 기존 알고리즘들과 태스크 미수행 측면을 비교한 시뮬레이션 결과이다.
도 8은 본 발명의 성능을 검증하기 위해 태스크의 크기를 다르게 하여 기존 알고리즘들과 정전시간을 비교한 시뮬레이션 결과이다.
도 9는 본 발명의 성능을 검증하기 위해 태스크의 크기를 다르게 하여 기존 알고리즘들과 지연시간을 비교한 시뮬레이션 결과이다.
도 10은 본 발명의 성능을 검증하기 위해 태스크의 크기를 다르게 하여 기존 알고리즘들과 태스크 미수행 측면을 비교한 시뮬레이션 결과이다.
도 11은 본 발명의 일 실시예에 따른 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법의 흐름도이다.
10: 강화학습 기반 동적 태스크 오프로딩 장치
110: 시간 분할부
130: 데이터 센싱부
150: 태스크 분할부
170: 오프로딩 결정부
190: 로컬 처리부
Claims (11)
- 복수의 엣지 노드와 함께 모바일 엣지 컴퓨팅(Mobile Edge Computing, MEC) 시스템을 구성하는 IoT 장치에서, 일정한 간격으로 시간을 분할하는 단계;
분할된 시간 k에서 처리해야 할 데이터 량을 센싱하는 단계;
센싱한 데이터 량을 기초로 수행할 태스크를 미리 정해진 단위로 분할하는 단계;
할당된 에너지양, 배터리 잔량 및 무선 전송속도를 기반으로 Q-러닝을 이용하여 시간 k에서 태스크를 오프로딩 할 엣지 노드 및 태스크의 오프로딩 비율을 결정하는 단계; 및
결정된 비율의 태스크를 결정된 엣지 노드에 오프로딩하고, 나머지 비율의 태스크를 로컬에서 처리하는 단계;를 포함하고
상기 태스크를 오프로딩 할 엣지 노드 및 태스크의 오프로딩 비율을 결정하는 단계는,
할당된 에너지양, 현재 배터리 레벨 및 각 에지 노드의 이전 시간의 무선 전송속도를 상태로 정의하고, 오프로딩할 엣지 노드와 오프로딩 비율을 액션으로 정의하는 Q-러닝을 이용하여, 다음 시간의 오프로딩 정책을 결정하는 단계;를 더 포함하고,
상기 태스크를 오프로딩 할 엣지 노드 및 태스크의 오프로딩 비율을 결정하는 단계는,
상기 결정된 오프로딩 정책에 따라 태스크 실행을 완료한 엣지 노드로부터 결과를 수신하여 평가하는 단계; 및
평가를 기반으로 Q-함수를 업데이트하는 단계;를 더 포함하고,
상기 태스크 실행을 완료한 엣지 노드로부터 결과를 수신하여 평가하는 단계는,
전체 지연시간, 에너지 활용도, 태스크 미수행 손실 및 태스크 오프로딩 이득 중 적어도 하나를 평가항목으로 활용하여 IoT 장치의 보상값을 지정하되, 상기 보상값은 다음 수학식에 의해 산출되는, 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법.
여기서, k는 일정한 간격으로 분할된 시간, 는 IoT 장치의 보상값, 는 오프로딩 비율, 는 시간 k에서 처리해야할 태스크의 비트수이다. 는 태스크 미수행 비용이며, 는 가 참이면 1, 거짓이면 0으로 정의한다. 는 시간 k+1에서 배터리 레벨, 는 에너지 소비의 가중치, 는 시간 k에서 에너지 소비, 는 지연시간의 가중치, 는 시간 k에서 지연시간이다.
- 삭제
- 삭제
- 삭제
- 삭제
- 제1항에 따른 상기 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체.
- 복수의 엣지 노드와 함께 모바일 엣지 컴퓨팅(Mobile Edge Computing, MEC) 시스템을 구성하는 IoT 장치에서, 일정한 간격으로 시간을 분할하는 시간 분할부;
분할된 시간 k에서 처리해야 할 데이터 량을 센싱하는 데이터 센싱부;
센싱한 데이터 량을 기초로 수행할 태스크를 미리 정해진 단위로 분할하는 태스크 분할부;
할당된 에너지양, 배터리 잔량 및 무선 전송속도를 기반으로 Q-러닝을 이용하여 시간 k에서 태스크를 오프로딩 할 엣지 노드 및 태스크의 오프로딩 비율을 결정하는 오프로딩 결정부; 및
결정된 비율의 태스크를 결정된 엣지 노드에 오프로딩하고, 나머지 비율의 태스크를 로컬에서 처리하는 로컬 처리부;를 포함하고,
상기 로컬 처리부는,
할당된 에너지양, 현재 배터리 레벨 및 각 에지 노드의 이전 시간의 무선 전송속도를 상태로 정의하고, 오프로딩할 엣지 노드와 오프로딩 비율을 액션으로 정의하는 Q-러닝을 이용하여, 다음 시간의 오프로딩 정책을 결정하고,
상기 오프로딩 결정부는,
상기 결정된 오프로딩 정책에 따라 태스크 실행을 완료한 엣지 노드로부터 결과를 수신하여 평가하고, 평가를 기반으로 Q-함수를 업데이트하고,
상기 오프로딩 결정부는,
전체 지연시간, 에너지 활용도, 태스크 미수행 손실 및 태스크 오프로딩 이득 중 적어도 하나를 평가항목으로 활용하여 IoT 장치의 보상값을 지정하되, 상기 보상값은 다음 수학식에 의해 산출되는, 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 장치.
여기서, k는 일정한 간격으로 분할된 시간, 는 IoT 장치의 보상값, 는 오프로딩 비율, 는 시간 k에서 처리해야할 태스크의 비트수이다. 는 태스크 미수행 비용이며, 는 가 참이면 1, 거짓이면 0으로 정의한다. 는 시간 k+1에서 배터리 레벨, 는 에너지 소비의 가중치, 는 시간 k에서 에너지 소비, 는 지연시간의 가중치, 는 시간 k에서 지연시간이다.
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210127760 | 2021-09-28 | ||
KR20210127760 | 2021-09-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230045486A KR20230045486A (ko) | 2023-04-04 |
KR102712787B1 true KR102712787B1 (ko) | 2024-10-04 |
Family
ID=85928472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210134362A Active KR102712787B1 (ko) | 2021-09-28 | 2021-10-08 | 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법, 이를 수행하기 위한 기록 매체 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102712787B1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117499491B (zh) * | 2023-12-27 | 2024-03-26 | 杭州海康威视数字技术股份有限公司 | 基于双智能体深度强化学习的物联网服务编排方法及装置 |
CN118175588B (zh) * | 2024-05-11 | 2024-08-16 | 北京航空航天大学杭州创新研究院 | 面向服务时长可变场景的任务卸载方法及相关装置 |
CN119271308A (zh) * | 2024-12-06 | 2025-01-07 | 南京理工大学 | 自供能移动边缘计算场景中低延迟高可靠的任务卸载与调度方法 |
CN119402919A (zh) * | 2024-12-30 | 2025-02-07 | 杭州毅景技术有限公司 | 面向边缘计算和非线性能量收集的多无人机资源分配方法、装置、电子设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210004265A (ko) * | 2019-07-04 | 2021-01-13 | 대보정보통신 주식회사 | 감시카메라의 성능개선 구조 |
KR102463776B1 (ko) * | 2019-12-03 | 2022-11-04 | 경희대학교 산학협력단 | 무인항공기를 이용한 모바일 엣지 컴퓨팅 시스템에서의 태스크 오프로딩 방법 및 그를 이용한 모바일 엣지 컴퓨팅 시스템, 그를 위한 무인 항공기 |
CN111641681A (zh) | 2020-05-11 | 2020-09-08 | 国家电网有限公司 | 基于边缘计算和深度强化学习的物联网服务卸载决策方法 |
-
2021
- 2021-10-08 KR KR1020210134362A patent/KR102712787B1/ko active Active
Non-Patent Citations (3)
Title |
---|
미국공개특허 제2021-0004265호(2021.01.07.) 1부.* |
차량 엣지 컴퓨팅에서 로드 밸런싱을 고려한 강화학습 기반의 마이그레이션(https://kiss.kstudy.com/thesis/thesis-view.aspkey=3893584, 2021 춘계학술발표대회 논문집 제28권 제1호(2021.05) 1부.* |
한국공개특허 제10-2021-0069588호(2021.06.11.) 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR20230045486A (ko) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102712787B1 (ko) | 에너지 수집형 IoT 엣지 컴퓨팅 환경에서 강화학습 기반 동적 태스크 오프로딩 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
Li et al. | Deep reinforcement learning based computation offloading and resource allocation for MEC | |
CN111556461B (zh) | 一种基于深度q网络的车载边缘网络任务分发卸载方法 | |
Min et al. | Learning-based computation offloading for IoT devices with energy harvesting | |
CN109947545B (zh) | 一种基于用户移动性的任务卸载及迁移的决策方法 | |
CN107743308A (zh) | 一种用于环境监测的节点分簇数据收集方法及装置 | |
CN115567978A (zh) | 多约束边环境下计算卸载与资源分配联合优化系统及方法 | |
CN111988787B (zh) | 一种任务的网络接入和服务放置位置选择方法及系统 | |
Zhao et al. | QoE aware and cell capacity enhanced computation offloading for multi-server mobile edge computing systems with energy harvesting devices | |
CN114173421B (zh) | 基于深度强化学习的LoRa逻辑信道及功率分配方法 | |
CN113573363B (zh) | 基于深度强化学习的mec计算卸载与资源分配方法 | |
Erkal et al. | Optimal offline broadcast scheduling with an energy harvesting transmitter | |
Hua et al. | Energy efficient task offloading in NOMA-based mobile edge computing system | |
Raval et al. | Optimization of clustering process for WSN with hybrid harmony search and K-means algorithm | |
ES2994884T3 (en) | Method for scheduling inference workloads on edge network resources | |
Engidayehu et al. | Deep reinforcement learning-based task offloading and resource allocation in MEC-enabled wireless networks | |
CN114449584B (zh) | 基于深度强化学习的分布式计算卸载方法及装置 | |
Charef et al. | AI-based energy model for adaptive duty cycle scheduling in wireless networks | |
CN113821346A (zh) | 基于深度强化学习的边缘计算中计算卸载与资源管理方法 | |
CN110768827B (zh) | 一种基于群智能算法的任务卸载方法 | |
Yang et al. | Multi-objective deep reinforcement learning for mobile edge computing | |
Ma et al. | FLIRRAS: Fast learning with integrated reward and reduced action space for online multitask offloading | |
CN116634565A (zh) | 一种基于改进双深度q学习的超密集网络资源分配方法 | |
CN116339748A (zh) | 基于移动性预测的边缘计算网络中的自适应应用程序部署方法 | |
Li | Deep reinforcement learning based resource allocation for LoRaWAN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211008 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230331 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230926 Patent event code: PE09021S01D |
|
PE0601 | Decision on rejection of patent |
Patent event date: 20240624 Comment text: Decision to Refuse Application Patent event code: PE06012S01D |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20240923 Comment text: Decision to Grant Registration Patent event code: PX07013S01D |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240926 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240927 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |