KR101585775B1 - Context-aware content providing system for qos in mobile cloud system - Google Patents
Context-aware content providing system for qos in mobile cloud system Download PDFInfo
- Publication number
- KR101585775B1 KR101585775B1 KR1020140077260A KR20140077260A KR101585775B1 KR 101585775 B1 KR101585775 B1 KR 101585775B1 KR 1020140077260 A KR1020140077260 A KR 1020140077260A KR 20140077260 A KR20140077260 A KR 20140077260A KR 101585775 B1 KR101585775 B1 KR 101585775B1
- Authority
- KR
- South Korea
- Prior art keywords
- service
- mobile cloud
- network
- information
- cloud service
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 43
- 230000002787 reinforcement Effects 0.000 claims abstract description 35
- 230000005540 biological transmission Effects 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 7
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
모바일 클라우드 시스템에서 서비스 품질을 위한 상황인지 기반 콘텐츠 전송 시스템을 개시한다. 모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법은 네트워크 엔티티(Network entity)들 각각의 소프트웨어 정의 네트워크 에이전트(Software Defined Network Agent)로부터 사용자에게 제공되는 서비스에 대한 정보를 수집하는 과정과, 상기 수집된 서비스에 대한 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하는 과정 및 상기 강화 학습 결과를 반영하여 모바일 클라우드 환경에서 콘텐츠 전송 서비스를 제공하는 과정을 포함한다. A context-aware content delivery system for service quality in a mobile cloud system is disclosed. The context awareness-based mobile cloud service method of a mobile cloud service server includes a step of collecting information on a service provided to a user from a software defined network agent of each of network entities, A step of performing reinforcement learning based on information about the service, and a step of providing a content transfer service in a mobile cloud environment by reflecting the reinforcement learning result.
Description
모바일 클라우드에 관한 것으로서, 모바일 클라우드 시스템에서 서비스 품질 유지를 위한 상황인지 기반의 콘텐츠 제공 시스템에 관한 것이다. The present invention relates to a mobile cloud, and more particularly, to a context-aware content providing system for maintaining service quality in a mobile cloud system.
최근, 클라우드 서비스를 통한 콘텐츠 서비스, 예를 들어 영화, 음악, 어플리케이션 다운로드와 같은 콘텐츠 서비스가 증가하고 있다. Recently, content services such as downloading movies, music, and applications through cloud services are increasing.
특히, 모바일 단말을 통한 클라우드 서비스 이용이 폭발적으로 증가하고 있는 추세이다. In particular, the use of cloud services through mobile terminals is increasing explosively.
따라서, 상황인지 기반의 모바일 클라우드에 있어서, 신뢰성이 높거나 QoS(Quality of Service)가 보장되는 콘텐츠 전송 프레임워크가 요구된다. Therefore, in a context aware mobile cloud, there is a need for a content transmission framework that has high reliability or QoS (Quality of Service).
이때, 모바일 클라우드는 기기의 종류와 OS의 종류와는 상관없이 N스크린 지향성의 모바일 클라우드 컴퓨팅 환경을 제공하여, 기존의 클라우드 서비스를 제공함과 동시에 단말 자원 재 사용을 위한 디바이스로서의 서비스(DaaS : Device as a Service)를 위한 클라우드 기술을 말한다.At this time, mobile cloud provides mobile cloud computing environment with N screen directivity irrespective of device type and OS type, and provides service as a device for reusing terminal resources while providing existing cloud service (DaaS: Device as a service for cloud computing.
본 발명의 실시예의 목적은, 모바일 클라우드 환경에서 효율적인 콘텐츠 전송을 위해 상황을 인지할 수 있는 방법 및 시스템을 제공하는 것이다. It is an object of embodiments of the present invention to provide a method and system for recognizing a situation for efficient content transmission in a mobile cloud environment.
또한, 본 발명의 실시예의 목적은 모바일 클라우드 환경에서 콘텐츠 제공에 대한 QoS를 보장하는 콘텐츠 전송 프레임워크를 제공하는 것이다. It is also an object of embodiments of the present invention to provide a content delivery framework that ensures QoS for content provision in a mobile cloud environment.
일 실시예에 따른 모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법은 네트워크 엔티티(Network entity)들 각각의 소프트웨어 정의 네트워크 에이전트(Software Defined Network Agent)로부터 사용자에게 제공되는 서비스에 대한 정보를 수집하는 과정; 상기 수집된 서비스에 대한 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하는 과정; 및 상기 강화 학습 결과를 반영하여 모바일 클라우드 환경에서 콘텐츠 전송 서비스를 제공하는 과정을 포함한다. The context awareness-based mobile cloud service method of a mobile cloud service server according to an embodiment includes a process of collecting information on services provided to a user from a software defined network agent of each of network entities ; Performing reinforcement learning based on information about the collected services; And providing a content transmission service in a mobile cloud environment by reflecting the reinforcement learning result.
또한, 일 실시예에 따른 모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법은, 네트워크 엔티티(Network entity)의 소프트웨어 정의 네트워크 에이전트(Software Defined Network Agent)로부터 사용자에게 제공되는 서비스에 대한 이벤트 메시지를 수신하는 단계; 상기 이벤트 메시지에 대응하는 새로운 플로우 테이블(flow table)을 생성하고, 상기 새로운 플로우 테이블을 상기 네트워크 엔티티로 전송하는 단계; 및 상기 네트워크 엔티티를 통해 상기 이벤트 메시지에 대응하는 서비스를 제공하는 단계를 포함한다. In addition, the mobile cloud service method of the mobile cloud service server according to an exemplary embodiment of the present invention includes receiving an event message for a service provided to a user from a software defined network agent of a network entity ; Generating a new flow table corresponding to the event message and transmitting the new flow table to the network entity; And providing a service corresponding to the event message through the network entity.
또한, 일 실시예에 따른 모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법은, 모바일 클라우드 서비스를 위한 네트워크의 성능에 대한 정보, 콘텐츠 전달 지연에 대한 정보 및 네트워크 처리량에 대한 정보를 포함하는 환경 정보를 획득하는 단계; 기 설정된 기준값들과 상기 획득된 환경 정보를 비교하여 보상 값과 패널티 값을 결정하는 단계; 및 상기 보상 값과 패널티 값을 반영하여 상기 상황 인지 정보를 생성하는 단계를 포함한다. In addition, the mobile cloud service method based on the context awareness of the mobile cloud service server according to an exemplary embodiment of the present invention is a method for providing a context aware environment based on environment information including information on performance of a network for mobile cloud service, information on content delivery delay, ; Determining a compensation value and a penalty value by comparing the obtained reference values with the obtained environment information; And generating the context awareness information by reflecting the compensation value and the penalty value.
이때, 상기 보상 값은 네트워크 데이터 처리량(Network Throughput), 콘텐츠의 전송 시간(Content Delivery Time), 네트워크에서 발생하는 오버헤드 값(Overhead in the network), 상기 모바일 클라우드 서비스의 사용자 접속 네트워크의 데이터 처리량(Access network throughput) 중 적어도 어느 하나를 고려하여 결정될 수 있다. In this case, the compensation value may include at least one of a network throughput, a content delivery time, an overhead in the network, a data throughput of the user access network of the mobile cloud service, Access network throughput).
본 발명의 일 실시예에 따르면, 모바일 클라우드 환경에서 효율적인 콘텐츠 전송을 위해 상황을 인지할 수 있는 방법 및 시스템을 제공된다. According to an embodiment of the present invention, a method and system for recognizing a situation for efficient content transmission in a mobile cloud environment are provided.
또한, 본 발명의 일 실시예에 따르면, 모바일 클라우드 환경에서 콘텐츠 제공에 대한 QoS를 보장하는 콘텐츠 전송 프레임워크를 제공된다. According to an embodiment of the present invention, there is also provided a content transmission framework for assuring QoS for content provision in a mobile cloud environment.
또한, 본 발명의 일 실시예에 따르면, CCN을 사용하지 않는 클라우드환경에서도, SDN 기법을 이용하여 노드 이동시 제어평면 메시지를 줄인 새로운 경로를 제공할 수 있으며, 이를 이용하여 좀 더 이동성에 적합한 네트워크를 제공할 수 있다.Also, according to an embodiment of the present invention, it is possible to provide a new path reducing the control plane message in the node movement using the SDN technique even in a cloud environment not using the CCN, .
도 1은 콘텐츠 중심 네트워크의 콘텐츠 전송 동작을 설명하기 위한 예시도이다.
도 2는 SDN의 개념을 설명하기 위한 예시도이다.
도 3은 일 실시예에 따른 상황인지 기반 콘텐츠 전송 프레임워크를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 서버의 구성을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 상황인지 기반 콘텐츠 제공 시스템의 콘텐츠 전송 시나리오의 예를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 방법을 설명하기 위한 흐름도이다.
도 7은 다른 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 방법을 설명하기 위한 흐름도이다.
도 8은 또 다른 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 방법을 설명하기 위한 흐름도이다.1 is an exemplary diagram for explaining a content transfer operation of a content-oriented network.
2 is an exemplary diagram for explaining the concept of the SDN.
3 is a diagram for explaining a context-aware content delivery framework according to an embodiment.
4 is a diagram for explaining a configuration of a context aware mobile cloud service server according to an embodiment.
FIG. 5 is a view for explaining an example of a content transmission scenario in the context-awareness-based content providing system according to an embodiment.
6 is a flowchart illustrating a context aware mobile cloud service method according to an exemplary embodiment of the present invention.
7 is a flowchart illustrating a context aware mobile cloud service method according to another embodiment of the present invention.
8 is a flowchart illustrating a context aware mobile cloud service method according to another embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
기존의 클라우드 컴퓨팅 환경에서는 이동 노드가 이동하게 되면, 클라우드 내부에 콘텐츠 재전송과 이동노드를 처리하기 위한 제어평면(Control Plane) 메시지가 증가하고, 콘텐츠 요청 메시지가 다시 서버에게 전달되는 문제점이 있다. 따라서, 본 발명의 일 실시예는 이러한 문제점을 해결하기 위해, 모바일 클라우드에서 소프트웨어 정의 네트워크(SDN: Software Defined Network)기반 콘텐츠 전송 프레임워크를 제안하고, 문제점을 해결하기 위해 강화학습을 적용시킨 콘텐츠 전송방법을 제안하고자 한다. In a conventional cloud computing environment, when a mobile node moves, a control plane message for processing content retransmissions and mobile nodes increases in the cloud, and a content request message is delivered to the server again. Accordingly, an embodiment of the present invention proposes a software-defined network (SDN) -based content delivery framework in a mobile cloud to solve such a problem, .
강화학습은 에이전트가 어떤 행위를 선택하여 얻게되는 시행착오를 통해 주어진 환경(state)을 학습하고, 정해진 정책에 따라 행동(action)을 결정하고 실행한다. 행동에 따라 얻게 되는 보상(reward)을 기초로 행동정책을 수정해가면서 학습하는 기계학습의 일종이다.
Reinforcement learning learns a given state through trial and error, which agent gets from selecting an action, and determines and executes action according to a set policy. It is a type of machine learning that learns by modifying the behavioral policy based on the reward that is gained by action.
도 1은 콘텐츠 중심 네트워크의 콘텐츠 전송 동작을 설명하기 위한 예시도이다. 1 is an exemplary diagram for explaining a content transfer operation of a content-oriented network.
콘텐츠 중심 네트워크(CCN: Contents Centric Network)는 미래 인터넷 연구의 일부분으로, IP(Internet Protocol)대신 컨텐츠를 이용한 데이터 통신을 통해, 현재 인터넷에서 발생되고 있는 메시지 복제 문제를 해결하는 것을 목적으로 하고 있다.Contents Centric Network (CCN) is a part of future Internet research. It aims at solving the message duplication problem that is currently occurring on the Internet through data communication using contents instead of IP (Internet Protocol).
CCN에서 각 노드들은 데이터 통신을 위해 요청 메시지인 Interesting Packet과 요청에 대한 응답 메시지인 Data Packet을 통해 통신한다. In the CCN, each node communicates through a request packet, Interesting Packet, and a data packet, which is a response message to the request, for data communication.
그리고 Data Packet을 통해 전달된 컨텐츠는 CCN 라우터의 컨텐츠 스토어에 저장된다. 따라서, CCN 라우터에 이전에 저장된 컨텐츠에 대한 Interesting Packet이 전달되면, 라우터는 컨텐츠 목록을 검색하여 컨텐츠 목록에서 요청된 컨텐츠가 검색되면 요청한 곳으로 Data Packet을 전달할 수 있다.The content delivered through the data packet is stored in the content store of the CCN router. Accordingly, when an Interesting Packet for content previously stored in the CCN router is delivered, the router can search the content list and deliver the data packet to the requested location when the requested content is retrieved from the content list.
도 1을 참조하면, (1)은 Client 1이 콘텐츠를 요청하는 경우를 나타낸다. 도 1의 (1)을 참조하면, Client 1은 Interesting packet을 통해 네트워크에 콘텐츠를 요청(Data Request)하고, Interesting packet은 요청된 콘텐츠를 가지고 있는 노드 A까지 전달된다. Referring to FIG. 1, (1) represents a case where
도 1의 (2)는 소스 노드인 A로부터 Client 1에 콘텐츠가 전달되는 과정을 나타낸다. 도 1의 (2)를 참조하면, CCN의 라우터 A는 요청된 콘텐츠를 서버(110)로부터 수신하고, 콘텐츠를 Interesting Packet의 역순으로 Client 1에게 전달한다.FIG. 1 (2) shows a process in which a content is transferred from the source node A to the
도 1의 (2)에서 각 CCN 라우터들(A, B, D, H)은 컨텐츠를 전송 할 때마다 자신의 캐쉬에 컨텐츠를 저장한다.In FIG. 1 (2), each of the CCN routers A, B, D, and H stores content in its cache every time the content is transmitted.
이때, 도 1의 (3)과 같이 Client 2가 Client 1과 동일한 컨텐츠를 요청하면, Interesting Packet은 CCN 라우터 D에게 전달된다. CCN 라우터 D는At this time, when
이미 요청된 컨텐츠를 자신의 캐쉬에 저장하고 있기 때문에 도 1의 (4)와 같이 Data Packet을 Client2에게 전달하게 된다. 이러한 전달 방법을 통해 CCN은 기존의 IP 네트워크에서 발생할 수 있는 자원 중복 복제의 문제점을 해결할 수 있다.
Since the already requested content is stored in its own cache, the data packet is transmitted to Client2 as shown in (1) of FIG. Through this delivery method, CCN can solve the problem of resource duplication that can occur in existing IP network.
도 2는 SDN의 개념을 설명하기 위한 예시도이다. 2 is an exemplary diagram for explaining the concept of the SDN.
SDN은 종래 네트워크가 폐쇄적이라는 문제점을 개선하기 위해 미국의 Stanford 대학에서 Openflow를 최초로 개발한 후 이를 기반으로 네트워크에 소프트웨어 개념을 접목시킨 SDN이 개발되었다. SDN을 통해 네트워킹 기술을 컴퓨팅 기술로 모델링하고, 소프트웨어 프로그램에 의해 네트워크 제어 및 관리가 가능하게 되었다.In order to solve the problem that the conventional network is closed, the SDN developed the first Openflow at Stanford University in USA and then developed the SDN which incorporated the software concept into the network based on this. With SDN, networking technology is modeled as computing technology, and network control and management is enabled by software program.
SDN에서, 중앙 컨트롤러인 SDN controller(230)는 전체 네트워크를 관리할 수 있고 모든 네트워크 경로와 장비 기능에 대한 정보가 하나의 애플리케이션에 위치할 수 있다. 따라서, SDN controller는 발신지(210)와 목적지(220) 주소를 기반으로 경로를 계산하고 여러 트래픽 유형에 대해 다양한 네트워크 경로를 사용할 수 있으며, 네트워크 환경의 변화에 신속하게 대응할 수 있다.
In the SDN, the
도 3은 일 실시예에 따른 상황인지 기반 콘텐츠 전송 프레임워크를 설명하기 위한 도면이다. 3 is a diagram for explaining a context-aware content delivery framework according to an embodiment.
클라우드 서비스를 제공하는 클라우드 서비스 서버는 복수의 Virtual Machine들을 포함하고, SDN의 Hypervisor를 포함할 수 있다. The cloud service server providing the cloud service includes a plurality of virtual machines and can include the hypervisor of SDN.
이때, 복수의 Virtual Machine들 각각은 SDN VM(Virtual Machine), Content Management Package, Learning Engine(LE) 및 Service Analyzer를 포함할 수 있다. At this time, each of the plurality of virtual machines may include an SDN VM (Virtual Machine), a Content Management Package, a Learning Engine (LE), and a Service Analyzer.
LE는 본 발명의 실시예에 따라, QoS를 보장하는 콘텐츠 전송을 위해 네트워크 오버헤드, 네트워크 throughput, 콘텐츠 전송시간뿐만이 아니라, 서비스의 종류, 사용하고 있는 네트워크의 성능 등을 고려하여 최적화된 콘텐츠 전송 방법을 선택할 수 있다. The LE is a content transmission method optimized in consideration of not only the network overhead, the network throughput, the content transmission time, but also the type of service, the performance of the network being used, and the like for content transmission guaranteeing QoS according to the embodiment of the present invention Can be selected.
사용자가 사용하는 서비스에 대한 정보는 SDN Agent를 통해 Service Analyzer에 수집되고, 수집된 서비스 정보는 LE에 전달되어 활용될 수 있다. Information about the services that the user uses is collected in the Service Analyzer through the SDN Agent, and the collected service information can be transferred to the LE.
이때, 서비스에 대한 정보는 예를 들어, CCN 또는 IP 기반 전송을 통해 서비스를 제공 받고 있는지 여부, 제공 받고 있는 콘텐츠 서비스의 종류 등을 포함할 수 있다. At this time, information on the service may include, for example, whether the service is provided through CCN or IP-based transmission, the kind of the content service being provided, and the like.
또한, 콘텐츠 서비스는 TCP/IP 전송을 사용하였을 때 더 좋은 효율을 가지는 Non-Content Service (SMS, e-mail etc)와 CCN 콘텐츠 전송 기법을 사용하였을 때 더 좋은 전송 효율을 가지는 Content Service (동영상 스트리밍, 대용량 데이터 전송 등)으로 구분 될 수 있다. Also, when using TCP / IP transmission, the content service uses the non-content service (SMS, e-mail etc) and CCN contents transmission technique which have better efficiency, , Large-capacity data transmission, etc.).
도 3을 참조하면, 콘텐츠 전송을 위해 사용자 단말(UE)이 사용하는 엑세스 네트워크의 종류는 LTE 망, 펨토셀(소형 기지국) 및 무선랜(WiFi)를 포함할 수 있다. Referring to FIG. 3, a type of an access network used by a user terminal (UE) for content transmission may include an LTE network, a femtocell (small base station), and a wireless LAN (WiFi).
도 3에서, 각각의 네트워크 엔티티들(eNB, Femto Cell AP, Wifi AP, Router 등)은 클라우드 서비스 서버의 SDN Controller와 통신을 하기위해 SDN Agent를 포함하고 있다. In FIG. 3, each of the network entities (eNB, Femto Cell AP, Wifi AP, Router, etc.) includes an SDN Agent for communicating with the SDN Controller of the cloud service server.
각각의 네트워크 엔티티들은 SDN Agent의 Flow Table에 정의되어 있지 않은 새로운 이벤트 메시지(노드 이동 및 콘텐츠 요청 등)가 도착하면 이를 클라우드에 전송한다. Each network entity sends a new event message (such as node movement and content request) that is not defined in the SDN Agent's Flow Table to the cloud when it arrives.
이 메시지는 클라우드 내의 SDN VM에 전달된다. SDN VM내부의 SDN Controller는 Agent Handling 기능과 Flow Management 기능을 통해 새로운 Flow Table을 정의하고, 이를 각각의 SDN Agent에 통보하여 동작하게 한다. 그리고 콘텐츠 전달과 같은 메시지가 도착하면 콘텐츠 관리 패키지(Content Management Package) 내부의 Forwarding Engine을 통해 해당 콘텐츠를 검색하고, 검색된 컨텐츠를 제공할 수 있다.
This message is delivered to the SDN VM in the cloud. The SDN Controller in the SDN VM defines a new flow table through the Agent Handling function and the Flow Management function, and notifies each SDN Agent to operate it. When a message such as a content delivery arrives, the corresponding content can be searched through the Forwarding Engine in the Content Management Package, and the searched content can be provided.
도 4는 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 서버의 구성을 설명하기 위한 도면이다. 4 is a diagram for explaining a configuration of a context aware mobile cloud service server according to an embodiment.
도 4를 참조하면, 상황인지 기반 모바일 클라우드 서비스 서버(400)는 서비스 분석부(410), 강화 학습 수행부(420) 및 제어부(430)를 포함한다. Referring to FIG. 4, the context awareness-based mobile
서비스 분석부(410)는 도 3의 Service Analyzer의 기능을 수행할 수 있다. 예를 들어, 서비스 분석부(410)는 네트워크 엔티티(Network entity)들 각각의 소프트웨어 정의 네트워크 에이전트(Software Defined Network Agent)로부터 사용자에게 제공되는 서비스에 대한 정보를 수집한다. The
이때, 사용자에게 제공되는 서비스는 콘텐츠 중심 네트워크(CCN; Content Centric Network)를 통한 콘텐츠 전송 서비스 및 인터넷 프로토콜(IP; Internet Protocol) 기반 네트워크 전송 서비스를 포함할 수 있다. At this time, the service provided to the user may include a content transmission service through a content center network (CCN) and an internet protocol (IP) based network transmission service.
강화 학습 수행부(420)는 도 3의 Learning Engine의 기능을 수행할 수 있다. 예를 들어, 강화 학습 수행부(420)는 수집된 서비스에 대한 정보에 기초하여 강화 학습(Reinforcement learning)을 수행한다. The reinforcement
강화 학습 수행부(420)는 상기 수집된 서비스에 대한 정보에 기초하여 모바일 클라우드 서비스와 연결된 전체 네트워크의 서비스 품질(QoS; Quality of Service)과 관련된 환경 정보를 유추하고, 상기 유추된 환경 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하여 상황 인지 정보를 생성할 수 있다. The reinforcement
이때, 서비스 품질과 관련된 환경 정보는 네트워크 성능, 콘텐츠 전송 시간 및 서비스의 종류 중 적어도 어느 하나를 포함하고, 상기 강화 학습은 기 설정된 기준값과 상기 환경 정보를 비교하여 보상 값과 패널티 값을 결정하고, 상기 보상 값과 패널티 값을 반영하여 상기 상황 인지 정보를 생성할 수 있다. In this case, the environment information related to the service quality includes at least one of network performance, content transmission time, and service type. The reinforcement learning determines a compensation value and a penalty value by comparing the environment information with a predetermined reference value, The state information may be generated by reflecting the compensation value and the penalty value.
제어부(430)는 도 3의 Virtual Machine과 같이 클라우드 서비스의 전반적인 동작을 제어하며, SDM VM 및 Content Management Package의 기능을 수행할 수 있다. The
따라서, 제어부(430)는 SDN VM(431) 및 Content Management Package의 기능을 수행하는 컨텐츠 관리부(433)를 포함할 수 있다. Accordingly, the
예를 들어, 제어부(430)는 강화 학습 결과를 반영하여 모바일 클라우드 환경에서 상황인지 기반 콘텐츠 전송 서비스를 제공할 수 있다. For example, the
예를 들어, 제어부(430)는 강화 학습 결과를 반영하여 콘텐츠 전송을 위한 경로나 네트워크를 선택할 수 있다. 또한, 제어부(430)는 상황 인지 정보에 기초하여 모바일 클라우드 서비스를 위한 콘텐츠 전송 경로 또는 서비스 종류를 결정할 수 있다.
For example, the
도 5는 일 실시예에 따른 상황인지 기반 콘텐츠 제공 시스템의 콘텐츠 전송 시나리오의 예를 설명하기 위한 도면이다. FIG. 5 is a view for explaining an example of a content transmission scenario in the context-awareness-based content providing system according to an embodiment.
도 5에 도시된 예는, LTE 기지국인 eNB 1을 통해 비디오 스트리밍 서비슬 받고 있던 노드 UE가 다른 기지국 eNB 2로 이동한 상황을 나타낸다. The example shown in FIG. 5 shows a situation in which a node UE that has been receiving video streaming service through an
이때, 네트워크 엔티티들은 네트워크 환경에서 정의된 핸드오버 이벤트를 발생시킨다. 예를 들어, eNB 2는 이벤트 확인 메시지를 CCN의 Router 2를 통해 클라우드 내부의 SDN VM에 전달 할 수 있다. At this time, the network entities generate handover events defined in the network environment. For example,
CNN의 전송 특성에 의해, UE 는 Router 2가 아닌, 기존에 콘텐츠를 전달 받았던 Router1의 Content Store에 저장된 콘텐츠를 전달 받게 된다. Due to the transmission characteristics of the CNN, the UE receives the content stored in the content store of the
즉, SDN VM을 사용하여 핸드오버가 완료된 후, 비디오 스트리밍 서비스를 UE에 재전송하기 위해 콘텐츠 요청 메시지가 서버로 전달되는 것이 아니라, 해당 콘텐츠를 가지고 있는 Router 1을 통해 비디오 스트리밍 서비스가 UE로 제공될 수 있다. That is, after the handover is completed using the SDN VM, the content request message is not transmitted to the server in order to retransmit the video streaming service to the UE, but the video streaming service is provided to the UE through the
따라서, 일 실시예에 따르면, 핸드오버 시 발생하는 Control Plane과 관련된 메시지의 수를 줄이고, 서버로의 서비스 요청메시지 재전송 및 콘텐츠 전송으로 인한 네트워크 부하를 줄일 수 있다.
Accordingly, according to an embodiment, it is possible to reduce the number of messages related to the control plane occurring at the time of handover, to retransmit the service request message to the server, and to reduce the network load due to the content transmission.
한편, 본 발명의 실시예에 따른 강화 학습(Reinforcement learning)은 콘텐츠 전송 시 콘텐츠 전송 방법을 선택하기 위해 적용될 수 있다. Meanwhile, Reinforcement learning according to an embodiment of the present invention can be applied to select a content transmission method at the time of content transmission.
[수학식 1]은 Learning Engine 내에서 강화학습 문제를 해결하기 위해 정의된 상태(S), 동작 집합(A), 행동에 대한 보상(R)을 나타낸다.[Equation 1] represents a state (S), a motion set (A), and a compensation (R) for the behavior defined in the Learning Engine to solve the reinforcement learning problem.
행동에 대한 보상은 각각의 요인에 의해 보상값과 패널티값으로 결정될 수 있다. The compensation for the behavior can be determined by the compensation value and the penalty value by each factor.
[수학식 1][Equation 1]
[수학식 1]에서 각 파라미터의 의미는 [표 1]에 정의된 바와 같다. In Equation (1), the meaning of each parameter is as defined in [Table 1].
[표 1][Table 1]
이때, UTCP/IP는 TCP/IP 기반의 콘텐츠 전송 상태를 의미하고, UCCN은 CCN기반의 콘텐츠 전송 상태를 의미하고, DTCP/IP는 TCP/IP 기반의 서비스로 변경하는 행동, DCCN은 IP 기반 전송에서 CCN 기반 전송으로 변경하는 행동을 의미하고, NOP는 특별한 행동을 하지 않는 행동을 의미한다. In this case, U TCP / IP act, which means the content transmission status of TCP / IP-based and, U CCN mean, change D TCP / IP is a TCP / IP-based service content delivery status of CCN-based, D CCN Refers to an action that changes from an IP-based transport to a CCN-based transport, and NOP refers to an action that does not perform any particular action.
그리고, HSLA는 현재 서비스의 네트워크 처리량(데이터 처리량)의 기준 값, TSLA는 콘텐츠 전송에 걸리는 시간 또는 지연의 기준 값, Oth는 네트워크에서 발생하는 오버헤드의 임계값을 의미하고, ANSLA는 엑세스 네트워크의 처리량의 기준 값을 의미한다. And, H SLA is the current standard value of the network throughput (throughput) of the service, T SLA is the reference value of time or delay applied to the content transmission, Oth mean threshold of the overhead in the network, and AN SLA is It means the reference value of the throughput of the access network.
따라서, 아래 첨자가 있는 파라미터는 실험에 의해 결정되거나, 또는 네트워크에서 요구되는 기준 값일 수 있다. 예를 들어 현재 서비스의 네트워크 처리량(H)이 기준값(HSLA)보다 크고, 지연(T)이 기준값(TSLA) 보다 작을수록 현재 행동에 대한 보상 값이 커지게 된다. Thus, the parameters with subscripts may be determined experimentally, or may be reference values required in the network. For example, as the network throughput H of the current service is larger than the reference value H SLA and the delay T is smaller than the reference value T SLA , the compensation value for the current behavior becomes larger.
패널티 값(P)을 구성하는 요소들을 살펴 보면, Prqst는 네트워크 처리량에 대한 패널티이고, Pdl은 콘텐츠 전송 시간에 대한 패널티이고, Povhd는 네트워크 오버헤드에 대한 패널티이고, PAN은 엑세스 네트워크의 처리량에 대한 패널티 값을 의미한다. Looking at the components that make up the penalty value (P), P rqst is a penalty for the network throughput, P dl is the penalty for a content transmission time, P ovhd is the penalty for a network overhead, P AN are access network Quot; is the penalty value for the throughput of the < / RTI >
이때, Rsrv, Csrv, 및 패널티 값을 구성하는 각 요소들은 강화 학습 알고리즘에서 사용되는 다양한 방식으로 산출 될 수 있다. At this time, each element constituting R srv , C srv , and penalty value can be calculated in various ways used in the reinforcement learning algorithm.
예를 들어, Rsrv 및 Csrv는 [수학식 2]와 같이 정의 될 수 있다. For example, R srv and C srv can be defined as: " (2) "
[수학식 2]&Quot; (2) "
이때, NCS는 Non-Content Service를 의미하고, CS는 Content Service를 의미하며, 각 콘텐츠 서비스가 각각 TCP/IP 및 CCN을 통해 서비스되는 확률일 수 있다. In this case, NCS means Non-Content Service, CS means Content Service, and the probability that each content service is served through TCP / IP and CCN, respectively.
또한, 예를 들어 패널티 값을 구성하는 각 요소들은 [수학식 3]과 같이 정의 될 수 있고, 이때 는 기준값 또는 임계값을 위반을 제어하기 위한 가중치를 의미한다. Also, for example, each element constituting the penalty value can be defined as in Equation (3) Means a weight for controlling violation of a reference value or a threshold value.
[수학식 3]&Quot; (3) "
Learning Engine은 강화 학습 도중, 최적의 정책(policy) 와 가장 가까운 Q값을 찾기 위해 Q(s, a)를 갱신할 수 있다. The Learning Engine uses the best policy during reinforcement learning, Q (s, a) can be updated to find the closest Q value.
Q(s, a)를 갱신하기 위한 정책은 [수학식 4]와 같이 정의 될 수 있다. A policy for updating Q (s, a) can be defined as: " (4) "
[수학식 4]&Quot; (4) "
이때, 는 learning rate(예를 들어, 0.3)이고, 는 discount rate(예를 들어, 0.8)을 나타낸다. 그리고, r은 보상값을 나타낸다. At this time, Is a learning rate (for example, 0.3) Represents a discount rate (for example, 0.8). And r represents the compensation value.
하기 [표 2]는 Q(s, a)를 갱신하는 절차를 나타내는 슈도 코드(Pseudo Code)의 예를 나타낸다. Table 2 below shows an example of a pseudo code indicating a procedure for updating Q (s, a).
[표 2][Table 2]
도 6은 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 방법을 설명하기 위한 흐름도이다. 6 is a flowchart illustrating a context aware mobile cloud service method according to an exemplary embodiment of the present invention.
도 6에 도시된 방법은 도 4에 도시된 모바일 클라우드 서비스 서버(400)에 의해 수행될 수 있다. The method shown in FIG. 6 may be performed by the mobile
610단계에서 서버(400)는 네트워크 엔티티(Network entity)들 각각의 소프트웨어 정의 네트워크 에이전트(Software Defined Network Agent)로부터 사용자에게 제공되는 서비스에 대한 정보를 수집한다. In
620단계에서 서버(400)는 상기 수집된 서비스에 대한 정보에 기초하여 강화 학습(Reinforcement learning)을 수행한다. In
강화 학습을 수행하는 과정은, 상기 수집된 서비스에 대한 정보에 기초하여 모바일 클라우드 서비스와 연결된 전체 네트워크의 서비스 품질(QoS; Quality of Service)과 관련된 환경 정보를 유추하는 단계를 포함할 수 있다. The step of performing reinforcement learning may include estimating environment information related to a quality of service (QoS) of the entire network connected to the mobile cloud service based on the collected service information.
이때, 환경 정보는 예를 들어 패널티 값(P)을 구성하는 각 요소들, 보상 값을 구성하는 각 요소들일 수 있다. At this time, the environment information may be, for example, each element constituting the penalty value P, and each element constituting the compensation value.
강화 학습을 수행하는 과정은, 상기 유추된 환경 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하여 상황 인지 정보를 생성하는 단계를 포함할 수 있다. The step of performing the reinforcement learning may include the step of performing reinforcement learning based on the inferred environmental information to generate the context information.
이때, 상황 인지 정보는 예를 들어, 갱신된 Q(s, a)일 수 있다. At this time, the context information may be, for example, updated Q (s, a).
630단계에서 서버(400)는 강화 학습 결과를 반영하여 모바일 클라우드 환경에서 콘텐츠 전송 서비스를 제공한다.
In
도 7은 다른 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a context aware mobile cloud service method according to another embodiment of the present invention.
도 7에 도시된 방법은 도 4에 도시된 모바일 클라우드 서비스 서버(400)에 의해 수행될 수 있다.The method shown in Fig. 7 can be performed by the mobile
710단계에서 서버(400)는 네트워크 엔티티(Network entity)의 소프트웨어 정의 네트워크 에이전트(Software Defined Network Agent)로부터 사용자에게 제공되는 서비스에 대한 이벤트 메시지를 수신한다. In
예를 들어, 서버(400)는 도 5와 같이 핸드오버 이벤트 메시지를 수신할 수 있다. For example, the
720단계에서 서버(400)는 이벤트 메시지에 대응하는 새로운 플로우 테이블(flow table)을 생성하고, 상기 새로운 플로우 테이블을 상기 네트워크 엔티티로 전송한다. In
730단계에서 서버(400)는 상기 네트워크 엔티티를 통해 상기 이벤트 메시지에 대응하는 서비스를 제공한다. In
이때, 이벤트 메시지에 대응하는 서비스는 예를 들어, 도 5와 같이 Router1에 저장된 콘텐츠를 UE에 제공하는 것일 수 있다.
At this time, the service corresponding to the event message may be, for example, providing the contents stored in
도 8은 또 다른 일 실시예에 따른 상황인지 기반 모바일 클라우드 서비스 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a context aware mobile cloud service method according to another embodiment of the present invention.
도 8에 도시된 방법은 도 4에 도시된 모바일 클라우드 서비스 서버(400)에 의해 수행될 수 있다.The method shown in Fig. 8 can be performed by the mobile
도 8에 도시된 방법은 강화 학습을 수행하는 과정일 수 있다. The method shown in FIG. 8 may be a process of performing reinforcement learning.
810단계에서 서버(400)는 모바일 클라우드 서비스를 위한 네트워크의 성능에 대한 정보, 콘텐츠 전달 지연에 대한 정보 및 네트워크 처리량에 대한 정보를 포함하는 환경 정보를 획득한다. In
820단계에서 서버(400)는 기 설정된 기준값들과 상기 획득된 환경 정보를 비교하여 보상 값과 패널티 값을 결정한다. In
이때, 기준 값들은 예를 들어 수학식 1에서 설명된 파라미터들 일 수 있다. At this time, the reference values may be, for example, the parameters described in Equation (1).
830단계에서 서버(400)는 보상 값과 패널티 값을 반영하여 상기 상황 인지 정보를 생성한다. In
이때, 보상 값은 수학식 1에서 설명한 바와 같이, 네트워크 데이터 처리량(Network Throughput), 콘텐츠의 전송 시간(Content Delivery Time), 네트워크에서 발생하는 오버헤드 값(Overhead in the network), 상기 모바일 클라우드 서비스의 사용자 접속 네트워크의 데이터 처리량(Access network throughput) 중 적어도 어느 하나를 고려하여 결정될 수 있다.
In this case, as described in Equation (1), the compensation value includes a network throughput, a content delivery time, an overhead in the network, May be determined in consideration of at least one of the access network throughput of the user access network.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (12)
상기 수집된 서비스에 대한 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하는 과정; 및
상기 강화 학습 결과를 반영하여 모바일 클라우드 환경에서 콘텐츠 전송 서비스를 제공하는 과정을 포함하고,
상기 강화 학습을 수행하는 과정은
상기 수집된 서비스에 대한 정보에 기초하여 모바일 클라우드 서비스와 연결된 전체 네트워크의 서비스 품질(QoS; Quality of Service)과 관련된 환경 정보를 유추하는 단계; 및
상기 유추된 환경 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하여 상황 인지 정보를 생성하는 단계
를 포함하는 모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법.Collecting information on a service provided to a user from a software defined network agent of each of the network entities;
Performing reinforcement learning based on information about the collected services; And
And providing a content transmission service in a mobile cloud environment by reflecting the reinforcement learning result,
The process of performing the reinforcement learning
Estimating environment information related to a quality of service (QoS) of the entire network connected to the mobile cloud service based on the collected service information; And
And generating context aware information by performing reinforcement learning based on the inferred environmental information
A mobile cloud service method based on context awareness of a mobile cloud service server.
상기 사용자에게 제공되는 서비스는
콘텐츠 중심 네트워크(CCN; Content Centric Network)를 통한 콘텐츠 전송 서비스 및 인터넷 프로토콜(IP; Internet Protocol) 기반 네트워크 전송 서비스를 포함하는
모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법.The method according to claim 1,
The service provided to the user
A content transmission service through a content-centric network (CCN), and an internet protocol (IP) -based network transmission service.
A mobile cloud service based on context awareness of mobile cloud service server.
상기 서비스 품질과 관련된 환경 정보는 네트워크 성능, 콘텐츠 전송 시간 및 서비스의 종류 중 적어도 어느 하나를 포함하고,
상기 강화 학습은 기 설정된 기준값과 상기 환경 정보를 비교하여 보상 값과 패널티 값을 결정하고, 상기 보상 값과 패널티 값을 반영하여 상기 상황 인지 정보를 생성하는
모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법.The method according to claim 1,
Wherein the environment information related to the service quality includes at least one of a network performance, a content transmission time, and a service type,
The reinforcement learning determines a compensation value and a penalty value by comparing the predetermined reference value and the environment information, and generates the context awareness information by reflecting the compensation value and the penalty value
A mobile cloud service based on context awareness of mobile cloud service server.
상기 강화 학습을 수행하는 과정은
상기 상황 인지 정보에 기초하여 모바일 클라우드 서비스를 위한 콘텐츠 전송 경로 또는 서비스 종류를 결정하는 단계
를 더 포함하는 모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법.The method according to claim 1,
The process of performing the reinforcement learning
Determining a content transmission path or service type for the mobile cloud service based on the context awareness information
The mobile cloud service method comprising:
상기 이벤트 메시지에 대응하는 새로운 플로우 테이블(flow table)을 생성하고, 상기 새로운 플로우 테이블을 상기 네트워크 엔티티로 전송하는 단계; 및
상기 네트워크 엔티티를 통해 상기 이벤트 메시지에 대응하는 서비스를 제공하는 단계를 포함하는
모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법.Receiving an event message for a service provided to a user from a software defined network agent of a network entity;
Generating a new flow table corresponding to the event message and transmitting the new flow table to the network entity; And
And providing a service corresponding to the event message through the network entity
A mobile cloud service based on context awareness of mobile cloud service server.
기 설정된 기준값들과 상기 획득된 환경 정보를 비교하여 보상 값과 패널티 값을 결정하는 단계; 및
상기 보상 값과 패널티 값을 반영하여 상기 상황 인지 정보를 생성하는 단계를 포함하되,
상기 보상 값은 네트워크 데이터 처리량(Network Throughput), 콘텐츠의 전송 시간(Content Delivery Time), 네트워크에서 발생하는 오버헤드 값(Overhead in the network), 상기 모바일 클라우드 서비스의 사용자 접속 네트워크의 데이터 처리량(Access network throughput) 중 적어도 어느 하나를 고려하여 결정되는
모바일 클라우드 서비스 서버의 상황인지 기반 모바일 클라우드 서비스 방법.Obtaining environmental information including information on performance of a network for a mobile cloud service, information on content delivery delay, and information on network throughput;
Determining a compensation value and a penalty value by comparing the obtained reference values with the obtained environment information; And
And generating the context recognition information by reflecting the compensation value and the penalty value,
The compensation value includes a network throughput, a content delivery time, an overhead in the network, an access network of the mobile cloud service, throughput) is determined in consideration of at least any one of
A mobile cloud service based on context awareness of mobile cloud service server.
상기 수집된 서비스에 대한 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하는 강화 학습 수행부; 및
상기 강화 학습 결과를 반영하여 모바일 클라우드 환경에서 콘텐츠 전송 서비스를 제공하는 제어부를 포함하고,
상기 강화 학습 수행부는
상기 수집된 서비스에 대한 정보에 기초하여 모바일 클라우드 서비스와 연결된 전체 네트워크의 서비스 품질(QoS; Quality of Service)과 관련된 환경 정보를 유추하고, 상기 유추된 환경 정보에 기초하여 강화 학습(Reinforcement learning)을 수행하여 상황 인지 정보를 생성하는
상황인지 기반 모바일 클라우드 서비스 서버.A service analyzer for collecting information on a service provided to a user from a software defined network agent of each of network entities;
A reinforcement learning performing unit for performing reinforcement learning based on the collected service information; And
And a controller for providing a content transmission service in a mobile cloud environment by reflecting the reinforcement learning result,
The reinforcement learning performing unit
Based on information about the collected service, environment information related to the quality of service (QoS) of the entire network connected to the mobile cloud service is estimated, and reinforcement learning is performed based on the inferred environment information To generate context-aware information
Situational aware mobile cloud service server.
상기 사용자에게 제공되는 서비스는
콘텐츠 중심 네트워크(CCN; Content Centric Network)를 통한 콘텐츠 전송 서비스 및 인터넷 프로토콜(IP; Internet Protocol) 기반 네트워크 전송 서비스를 포함하는
상황인지 기반 모바일 클라우드 서비스 서버.9. The method of claim 8,
The service provided to the user
A content transmission service through a content-centric network (CCN), and an internet protocol (IP) -based network transmission service.
Situational aware mobile cloud service server.
상기 서비스 품질과 관련된 환경 정보는 네트워크 성능, 콘텐츠 전송 시간 및 서비스의 종류 중 적어도 어느 하나를 포함하고,
상기 강화 학습은 기 설정된 기준값과 상기 환경 정보를 비교하여 보상 값과 패널티 값을 결정하고, 상기 보상 값과 패널티 값을 반영하여 상기 상황 인지 정보를 생성하는
상황인지 기반 모바일 클라우드 서비스 서버.9. The method of claim 8,
Wherein the environment information related to the service quality includes at least one of a network performance, a content transmission time, and a service type,
The reinforcement learning determines a compensation value and a penalty value by comparing the predetermined reference value and the environment information, and generates the context awareness information by reflecting the compensation value and the penalty value
Situational aware mobile cloud service server.
상기 제어부는
상기 상황 인지 정보에 기초하여 모바일 클라우드 서비스를 위한 콘텐츠 전송 경로 또는 서비스 종류를 결정하는
상황인지 기반 모바일 클라우드 서비스 서버.
9. The method of claim 8,
The control unit
And determines a content transmission path or a service type for the mobile cloud service based on the context awareness information
Situational aware mobile cloud service server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140077260A KR101585775B1 (en) | 2014-06-24 | 2014-06-24 | Context-aware content providing system for qos in mobile cloud system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140077260A KR101585775B1 (en) | 2014-06-24 | 2014-06-24 | Context-aware content providing system for qos in mobile cloud system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160000887A KR20160000887A (en) | 2016-01-06 |
KR101585775B1 true KR101585775B1 (en) | 2016-01-18 |
Family
ID=55164863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140077260A KR101585775B1 (en) | 2014-06-24 | 2014-06-24 | Context-aware content providing system for qos in mobile cloud system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101585775B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021231734A1 (en) * | 2020-05-14 | 2021-11-18 | Intel Corporation | Techniques for management data analytics (mda) process and service |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102065359B1 (en) * | 2017-02-28 | 2020-01-13 | 한국전자통신연구원 | Network configuration method for content delivery in wireless communication system and network system thereof |
KR102602371B1 (en) * | 2021-12-09 | 2023-11-16 | 부산대학교 산학협력단 | Apparatus and method for caching based on reinforcement learning in content-centric network |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100408525B1 (en) * | 2001-10-31 | 2003-12-06 | 삼성전자주식회사 | System and method of network adaptive real- time multimedia streaming |
KR20100112742A (en) | 2009-04-10 | 2010-10-20 | 경기대학교 산학협력단 | A behavior-based architecture for reinforcement learning |
KR20120060565A (en) | 2010-12-02 | 2012-06-12 | 서울대학교산학협력단 | Method and System for Smooth Migration toward Contents-aware Networking Architecture |
US9191459B2 (en) | 2011-07-12 | 2015-11-17 | Futurewei Technologies, Inc. | Method and apparatus for seamless mobility techniques in content-centric network |
KR20130070489A (en) | 2011-12-19 | 2013-06-27 | 인텔렉추얼디스커버리 주식회사 | Design of middleware system for open mobile cloud computing and service method thereof |
KR102067439B1 (en) * | 2012-10-22 | 2020-01-20 | 한국전자통신연구원 | Method and apparatus for providing quality of service in software defiend neworking network |
-
2014
- 2014-06-24 KR KR1020140077260A patent/KR101585775B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021231734A1 (en) * | 2020-05-14 | 2021-11-18 | Intel Corporation | Techniques for management data analytics (mda) process and service |
Also Published As
Publication number | Publication date |
---|---|
KR20160000887A (en) | 2016-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220174539A1 (en) | Method and system for using policy to handle packets | |
WO2017167237A1 (en) | Systems and methods for service and session continuity in software defined topology management | |
US10129315B2 (en) | Optimizing multimedia streaming in WLANs (wireless local access networks) with a remote SDN (software-defined networking) controller | |
JP4705173B2 (en) | Modular policy decision using network | |
US10470218B2 (en) | System and method for optimized idle and active state transitions of user equipment in a network environment | |
EP3440867B1 (en) | Context aware qos/qoe policy provisioning and adaptation in 5g systems | |
CN109076419B (en) | Anchor mobility in wireless networks | |
US20220303208A1 (en) | Method for artificial intelligent software defined network enabled border gateway protocol routing disaster recovery | |
US20200305042A1 (en) | Interest packet routing in information centric networks | |
US20230247476A1 (en) | Data Unit Handling in a Wireless System | |
US20240086253A1 (en) | Systems and methods for intent-based orchestration of a virtualized environment | |
KR101585775B1 (en) | Context-aware content providing system for qos in mobile cloud system | |
US10341453B2 (en) | Facilitating in-network content caching with a centrally coordinated data plane | |
US20190386895A1 (en) | East-west traffic monitoring solutions for the microservice virtualized data center lan | |
Amadeo et al. | Empowering 5G network softwarization through information centric networking | |
Suguna et al. | LARIC: latency-aware QoS routing for interactive communication in software defined multimedia | |
Meneses et al. | Traffic-aware Live Migration in Virtualized CPE Scenarios | |
WO2021078792A1 (en) | Mechanism for controlling service migration | |
Kalan et al. | Multimedia service management with virtualized cache migration | |
KR101384934B1 (en) | Method and apparatus for processing movement of mobile node | |
US20240224114A1 (en) | Method and system for congestion notification in transport nodes | |
Kimmerlin | Caching in LTE networks using Software-Defined Networking | |
Latvakoski | A Hierarchical routing algorithm for small world wireless networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200106 Year of fee payment: 5 |