KR102537163B1 - Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform - Google Patents

Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform Download PDF

Info

Publication number
KR102537163B1
KR102537163B1 KR1020210078308A KR20210078308A KR102537163B1 KR 102537163 B1 KR102537163 B1 KR 102537163B1 KR 1020210078308 A KR1020210078308 A KR 1020210078308A KR 20210078308 A KR20210078308 A KR 20210078308A KR 102537163 B1 KR102537163 B1 KR 102537163B1
Authority
KR
South Korea
Prior art keywords
cloud
image data
container
platform
terminal
Prior art date
Application number
KR1020210078308A
Other languages
Korean (ko)
Other versions
KR20220168502A (en
Inventor
최성준
김주홍
이기태
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020210078308A priority Critical patent/KR102537163B1/en
Publication of KR20220168502A publication Critical patent/KR20220168502A/en
Application granted granted Critical
Publication of KR102537163B1 publication Critical patent/KR102537163B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 네트워크 상태 및 영상 데이터를 전송하는 단말기; 및 클라우드 서버를 포함하는 클라우드 AR 플랫폼을 포함하고, 상기 클라우드 서버는 상기 네트워크 상태 및 상기 영상 데이터를 수신하고, 상기 수신한 네트워크 상태에 기초하여 상기 영상 데이터를 복원하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템을 제공한다. The present invention provides a terminal for transmitting network status and image data; and a cloud AR platform including a cloud server, wherein the cloud server receives the network state and the image data, and restores the image data based on the received network state. Provides an image transmission and reception system of

Figure R1020210078308
Figure R1020210078308

Description

단말기, 클라우드 서버 및 클라우드 증강현실(AR) 플랫폼의 영상 송수신 시스템 및 그 방법{TERMINAL, CLOUD SERVER, SYSTEM AND METHOD FOR TRANSRECEIVE VIDEO ON CLOUD AUGMENTED REALITY PLATFORM}Video transmission and reception system of terminal, cloud server and cloud augmented reality (AR) platform and its method

본 발명은 클라우드 AR 플랫폼의 영상 송수신 시스템 및 그 방법에 관한 것으로, 보다 구체적으로 본 발명은 단말기, 클라우드 서버 및 클라우드 서버를 포함하는 클라우드 AR 플랫폼의 영상 송수신 시스템 및 그 방법이 제공된다. The present invention relates to a system for transmitting and receiving a video of a cloud AR platform and a method thereof, and more particularly, the present invention provides a system and method for transmitting and receiving a video of a cloud AR platform including a terminal, a cloud server, and a cloud server.

증강현실(augmented reality, 이하, AR)은 가상현실(VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법으로, 최근에는 이와 같은 증강현실 기법을 적용한 AR 플랫폼(platform)들을 적용한 다양한 디바이스들이 개발되고 있다. 다만, 디바이스의 GPU(graphics processing unit)의 성능 차이로 인하여 저사양 디바이스에서는 AR플랫폼을 이용할 수 없다는 문제가 있었다. Augmented reality (AR) is a field of virtual reality (VR) and is a computer graphics technique that synthesizes virtual objects or information in a real environment to make them look like objects in the original environment. Recently, various devices to which AR platforms to which such an augmented reality technique is applied are being developed. However, there was a problem that the AR platform could not be used in low-end devices due to the difference in performance of the GPU (graphics processing unit) of the device.

이러한 AR플랫폼이 디바이스의 하드웨어적인 사양에 관계 없이 소비자에게 실시간으로 제공되기 위하여, AR 플랫폼은 고정된 서버가 아닌 클라우드 서버에 기반하여 제공될 수 있다. 이에 따라, 사용자의 입장에서는 고사양의 디바이스가 없더라도 클라우드 서비스를 이용하여 AR 플랫폼을 손쉽게 즐길 수 있게 된다. In order to provide this AR platform to consumers in real time regardless of hardware specifications of the device, the AR platform may be provided based on a cloud server rather than a fixed server. Accordingly, from the user's point of view, even if they do not have a high-end device, they can easily enjoy the AR platform using the cloud service.

그러나, 클라우드 서버를 통하여 AR 플랫폼이 제공하게 되는 AR영상들은 증강현실을 구현하기 위하여 상당히 큰 용량으로 제공되기 때문에 단말기에서 클라우드 AR 플랫폼을 이용하기 위하여는 원활한 네트워크 상태를 요구하게 된다. However, since the AR images provided by the AR platform through the cloud server are provided in a fairly large capacity to implement augmented reality, a smooth network condition is required to use the cloud AR platform in the terminal.

이때, 네트워크 상태가 좋지 못하다면 단말기에서는 대용량의 AR 영상을 송수신할 때 지연시간이 필연적으로 생기게 되며 클라우드 AR 플랫폼을 이용하는데 어려움이 있게 된다. At this time, if the network condition is not good, delay time inevitably occurs when transmitting and receiving large-capacity AR images in the terminal, and it is difficult to use the cloud AR platform.

본 발명은 클라우드 AR 플랫폼의 영상 송수신 시스템 및 그 방법에 관한 것으로, 영상 입력 디바이스(예를 들어, 모바일 단말기)에서 서버로 영상을 전송할 때 네트워크의 의존도 또는 부하를 줄이는 것을 목적으로 한다. The present invention relates to a video transmission/reception system and method of a cloud AR platform, and an object of the present invention is to reduce network dependence or load when video is transmitted from a video input device (eg, mobile terminal) to a server.

또한, 본 발명은 클라우드 AR 플랫폼에서 영상을 송수신할 때, 지연시간(latency)의 최적화를 제공하는 것을 목적으로 한다. In addition, an object of the present invention is to provide optimization of latency when transmitting and receiving images on a cloud AR platform.

본 발명의 일측면에 따르면, 네트워크 상태 및 영상 데이터를 전송하는 단말기; 및 클라우드 서버를 포함하는 클라우드 AR 플랫폼을 포함하고, 상기 클라우드 서버는 상기 네트워크 상태 및 상기 영상 데이터를 수신하고, 상기 수신한 네트워크 상태에 기초하여 상기 영상 데이터를 복원하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템을 제공한다. According to one aspect of the present invention, a terminal for transmitting network status and image data; and a cloud AR platform including a cloud server, wherein the cloud server receives the network state and the image data, and restores the image data based on the received network state. Provides an image transmission and reception system of

또한, 상기 클라우드 서버는 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행하는 것을 특징으로 한다. In addition, the cloud server restores the image data using a deep-learning module, and the deep-learning module is characterized in that it performs at least one function of increasing resolution or restoring color.

또한, 상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 한다. In addition, the deep learning module may set the reconstructed image data as input data and set the image data before restoration as target data to learn a deep learning model.

또한, 상기 클라우드 AR 플랫폼은 세션 서버를 더 포함하고, 상기 클라우드 AR 플랫폼은 상기 세션 서버를 통해 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 서버로 전송하는 것을 특징으로 한다. In addition, the cloud AR platform further includes a session server, and the cloud AR platform transmits the network state and the image data to the cloud server through the session server.

또한, 상기 클라우드 AR 플랫폼의 영상 송수신 시스템은 셋톱박스(STB)를 더 포함하고, 상기 클라우드 AR 플랫폼은 상기 복원된 영상 데이터를 상기 셋톱박스로 전송하는 것을 특징으로 한다. In addition, the video transmission/reception system of the cloud AR platform further includes a set-top box (STB), and the cloud AR platform transmits the restored video data to the set-top box.

또한, 상기 셋톱박스는 상기 수신한 영상 데이터를 디코딩하고, 디코딩된 영상 데이터를 디스플레이 장치로 재생하는 것을 특징으로 한다. Also, the set-top box is characterized in that it decodes the received video data and reproduces the decoded video data on a display device.

본 발명의 일측면에 따르면, AR 애플리케이션을 실행하는 안드로이드 컨테이너; 적어도 하나의 인디코딩 컨테이너; 및 상기 안드로이드 컨테이너 및 상기 인디코딩 컨테이너를 관리하는 컨테이너 매니저를 포함하고, 상기 인디코딩 컨테이너는 영상 데이터를 디코딩하고, 상기 디코딩된 영상 데이터를 복원하고, 상기 복원된 영상 데이터와 상기 AR 애플리케이션으로부터 수신한 AR 콘텐츠를 합성하고, 상기 합성된 영상을 인코딩하는 것을 특징으로 하는, 클라우드 서버를 제공한다. According to one aspect of the present invention, an Android container running an AR application; at least one incoding container; and a container manager that manages the Android container and the incoding container, wherein the incoding container decodes video data, restores the decoded video data, and stores the restored video data and the data received from the AR application. A cloud server is provided that synthesizes AR content and encodes the synthesized video.

또한, 상기 인디코딩 컨테이너는 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행하는 것을 특징으로 한다. In addition, the incoding container restores the image data using a deep-learning module, and the deep-learning module is characterized in that it performs at least one function of increasing resolution or restoring color.

또한, 상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 한다. In addition, the deep learning module may set the reconstructed image data as input data and set the image data before restoration as target data to learn a deep learning model.

또한, 상기 컨테이너 매니저는 상기 AR 애플리케이션에 기초하여 기 설정된 딥러닝 모듈을 포함하는 제 1 인디코딩 컨테이너를 실행하는 것을 특징으로 한다. In addition, the container manager is characterized in that it executes a first indy-coding container including a preset deep learning module based on the AR application.

또한, 상기 영상 데이터는 상기 클라우드 서버와 상이한 서버로부터 수신된 것을 특징으로 한다. Also, the image data is characterized in that it is received from a server different from the cloud server.

본 발명의 일측면에 따르면, 영상을 획득하는 카메라; 통신부; 및 네트워크 체크 모듈 및 영상 변환 모듈을 포함하는 제어부를 포함하고, 상기 제어부는 상기 네트워크 체크 모듈을 통해 상기 통신부로부터 수신된 네트워크 상태를 확인하고, 상기 영상 변환 모듈을 통해 상기 획득된 영상을 변환하고, 상기 확인된 네트워크 상태 및 상기 변환된 영상에 대응하는 영상 데이터를 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기를 제공한다. According to one aspect of the present invention, a camera for obtaining an image; communications department; and a control unit including a network check module and an image conversion module, wherein the control unit checks a network state received from the communication unit through the network check module, converts the acquired image through the image conversion module, It provides a terminal, characterized in that for transmitting image data corresponding to the confirmed network state and the converted image to a cloud AR platform.

또한, 상기 제어부는 상기 클라우드 AR 플랫폼에서 제공하는 서비스가 시작됨에 따라 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, the control unit may transmit the network status and the video data to the cloud AR platform as a service provided by the cloud AR platform starts.

또한, 상기 제어부는 상기 네트워크 상태에 기초하여 상기 영상을 변환하는 것을 특징으로 한다. In addition, the control unit is characterized in that the image is converted based on the network state.

또한, 상기 제어부는 상기 카메라의 성능 정보를 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, the control unit is characterized in that it transmits the performance information of the camera to the cloud AR platform.

또한, 상기 제어부는 상기 카메라의 성능이 기 설정된 수준 이상인 경우, 상기 네트워크 상태에 기초하여 상기 영상 데이터를 제 1 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, when the performance of the camera is equal to or higher than a predetermined level, the control unit converts the image data into a first image quality based on the network condition and transmits the converted image data to the cloud AR platform.

또한, 상기 제어부는 상기 카메라의 성능이 상기 기 설정된 수준 이하인 경우, 상기 영상 데이터를 제 2 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, when the performance of the camera is lower than the predetermined level, the control unit converts the image data into a second quality and transmits the image data to the cloud AR platform.

또한, 상기 제어부는 상기 카메라의 성능이 상기 기 설정된 수준 이하인 경우, 상기 제 2 화질로 변환된 영상 데이터를 회색조(grayscale)로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, when the performance of the camera is equal to or less than the predetermined level, the control unit converts the image data converted to the second quality into grayscale and transmits the converted image data to the cloud AR platform.

본 발명의 일측면에 따르면, 단말기로부터 네트워크 상태 및 영상 데이터를 수신하는 단계; 및 상기 수신한 네트워크 상태에 기초하여 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하는 단계를 포함하되, 상기 딥러닝 모듈은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 방법을 제공한다. According to one aspect of the present invention, receiving network status and image data from a terminal; and restoring the image data using a deep-learning module based on the received network state, wherein the deep-learning module performs at least one function of increasing resolution or restoring color. Characteristically, it provides a method for transmitting and receiving images of a cloud AR platform.

본 발명의 일 실시예에 따르면, 낮은 네트워크 품질에서도 클라우드 AR 플랫폼을 이용할 수 있다는 장점이 있다. According to an embodiment of the present invention, there is an advantage that the cloud AR platform can be used even with low network quality.

또한, 본 발명의 일 실시예에 따르면, 클라우드 AR 플랫폼의 지연시간을 개선시켜 서비스 사용성을 증가시킬 수 있다. In addition, according to an embodiment of the present invention, service usability can be increased by improving the latency of the cloud AR platform.

또한, 본 발명의 일 실시예에 따르면, 초-해상도(super resolution) 기법이 서버에서 처리되기 때문에 단말기의 카메라 또는 GPU 성능에 영향받지 않는다는 장점이 있다. In addition, according to an embodiment of the present invention, since the super resolution technique is processed in the server, there is an advantage that the performance of the camera or GPU of the terminal is not affected.

도 1은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템의 구성을 설명하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템을 설명하는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 단말기의 구성을 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 세션 서버의 구성을 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 클라우드 서버의 구성을 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 클라우드 서버를 설명하는 순서도이다.
도 7은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 방법을 설명하는 순서도이다.
1 is a diagram explaining the configuration of a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.
2 is a flowchart illustrating a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.
3 is a diagram for explaining the configuration of a terminal according to an embodiment of the present invention.
4 is a diagram illustrating the configuration of a session server according to an embodiment of the present invention.
5 is a diagram illustrating a configuration of a cloud server according to an embodiment of the present invention.
6 is a flowchart illustrating a cloud server according to an embodiment of the present invention.
7 is a flowchart illustrating a video transmission/reception method of a cloud AR platform according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves.

또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

현재 단말기에서 획득된 카메라 영상을 스트리밍 하기 위해서는 다음의 비트 전송률이 필요하다. The following bit rate is required to stream the camera image obtained from the current terminal.

유형category 15fps15 fps 30fps30 fps 1080p1080p 4Mbps4 Mbps 6Mbps6 Mbps 720p720p 2.5Mbps2.5 Mbps 3.5Mbps3.5 Mbps 480p480p 1.2Mbps1.2 Mbps 2Mbps2 Mbps

즉, 1080p(30fps) 기준 6Mbps의 대역폭이 필요하기 때문에 단말기의 네트워크 상황이 좋지 못하면 원활한 클라우드 AR 플랫폼을 이용할 수 없는 문제가 생긴다. 이에 따라, 네트워크 상황이 좋지 못하면 단말기에서 대용량의 AR 영상을 송수신할 때 지연시간이 생기기 때문에 클라우드 AR 플랫폼의 서비스 제공에 어려움이 있게 된다. In other words, because a bandwidth of 6 Mbps is required for 1080p (30 fps), if the network condition of the terminal is not good, a smooth cloud AR platform cannot be used. Accordingly, if the network conditions are not good, delay time occurs when transmitting and receiving large-capacity AR images in the terminal, which makes it difficult to provide services of the cloud AR platform.

본 발명을 위와 같은 문제를 해결하기 위한 것으로 이하 도 1 내지 도 7를 통하여 본 발명을 자세히 설명하도록 한다. The present invention is to solve the above problems, and the present invention will be described in detail with reference to FIGS. 1 to 7 below.

도 1은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템의 구성을 설명하는 도면이다. 1 is a diagram explaining the configuration of a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템(100)은 단말기(110), 클라우드 AR 플랫폼(120) 및 셋톱박스(130, 이하, STB)를 포함할 수 있다. 도 1에 도시된 구성요소들은 클라우드 AR 플랫폼의 영상 송수신 시스템(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 시스템은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 1 , a video transmission/reception system 100 of a cloud AR platform according to an embodiment of the present invention may include a terminal 110, a cloud AR platform 120, and a set-top box 130 (hereinafter referred to as STB). there is. The components shown in FIG. 1 are not essential to implement the video transmission and reception system 100 of the cloud AR platform, so the system described in this specification may have more or fewer components than the components listed above. can

여기에서, 단말기(110)는 영상 전송 애플리케이션(111), 통신부(112) 및 카메라(113)를 포함할 수 있다. 본 발명의 일 실시예에 따른, 단말기(110)는 네트워크 상태 및 영상 데이터를 전송할 수 있다. Here, the terminal 110 may include a video transmission application 111, a communication unit 112, and a camera 113. According to an embodiment of the present invention, the terminal 110 may transmit network status and image data.

이를 위하여, 영상 전송 애플리케이션(111)은 네트워크 체크 모듈(111a) 및 영상 변환 모듈(111b)을 포함할 수 있다. 이때, 영상 전송 애플리케이션(111)은 도면에 도시되지는 않았으나 단말기(110)의 제어부에 의해 제어될 수 있다. To this end, the video transmission application 111 may include a network check module 111a and an image conversion module 111b. At this time, the video transmission application 111 is not shown in the figure, but may be controlled by the control unit of the terminal 110.

네트워크 체크 모듈(111a)은 통신부(112)로부터 수신된 네트워크 상태를 확인할 수 있다. 이때, 네트워크 체크 모듈(111a)은 기 설정된 시간 간격으로 네트워크 상태를 확인할 수 있다. 또한, 본 발명의 일 실시예에서, 네트워크 체크 모듈(111a)은 단말기(110)의 네트워크 상태를 확인하여 영상 변환 모듈(111b)로 전송할 수 있다. The network check module 111a may check the network status received from the communication unit 112 . At this time, the network check module 111a may check the network status at preset time intervals. In addition, in one embodiment of the present invention, the network check module 111a may check the network state of the terminal 110 and transmit it to the image conversion module 111b.

영상 변환 모듈(111b)은 카메라(113)를 통해 획득된 영상을 변환할 수 있다. 이를 위하여, 영상 변환 모듈(111b)는 카메라(113)를 통해 획득된 영상을 수신할 수 있다. 이때, 영상 변환 모듈(111b)은 네트워크 상태에 기초하여 획득된 영상을 변환할 수 있다. 예를 들어, 카메라(113)의 성능이 기 설정된 수준 이상인 경우, 네트워크 상태에 기초하여 영상 데이터를 제 1 화질로 변환할 수 있다. 반면, 카메라(113)의 성능이 기 설정된 수준 이하인 경우, 영상 데이터를 제 2 화질로 변환할 수 있다. 이때, 제 1 화질은 제 2 화질보다 좋은 화질에 대응할 수 있다. 또한, 본 발명의 일 실시예에서, 영상 변환 모듈(111b)은 카메라(113)의 성능이 기 설정된 수준 이하인 경우, 제 2 화질로 변환된 영상 데이터를 회색조(grayscale)로 변환할 수 있다. The image conversion module 111b may convert an image acquired through the camera 113 . To this end, the image conversion module 111b may receive an image acquired through the camera 113 . At this time, the image conversion module 111b may convert the obtained image based on the network state. For example, when the performance of the camera 113 is equal to or higher than a predetermined level, image data may be converted into a first quality image based on a network condition. On the other hand, if the performance of the camera 113 is below a predetermined level, the image data may be converted into the second quality. In this case, the first image quality may correspond to a better image quality than the second image quality. In addition, in one embodiment of the present invention, the image conversion module 111b may convert the image data converted to the second quality into grayscale when the performance of the camera 113 is below a predetermined level.

통신부(112)는 확인된 네트워크 상태 및 변환된 영상에 대응하는 영상 데이터를 외부로 전송할 수 있다. 통신부(112)는 단말기(110)의 네트워크 상태를 확인하여 해당 정보를 네트워크 체크 모듈(111a)로 전송할 수 있다. The communication unit 112 may externally transmit image data corresponding to the confirmed network state and the converted image. The communication unit 112 may check the network status of the terminal 110 and transmit corresponding information to the network check module 111a.

카메라(113)는 영상을 획득할 수 있다. 본 발명의 일 실시예에서, 단말기(110)는 클라우드 AR 플랫폼(120)에서 제공하는 서비스가 시작됨에 따라 네트워크 상태 및 영상 데이터를 클라우드 AR 플랫폼(120)에 전송할 수 있다. The camera 113 may obtain an image. In one embodiment of the present invention, the terminal 110 may transmit network status and image data to the cloud AR platform 120 as a service provided by the cloud AR platform 120 starts.

이에 대하여는, 도 3에서 더욱 자세히 설명하도록 한다. This will be described in more detail in FIG. 3 .

또한, 클라우드 AR 플랫폼(120)는 세션 서버(121) 및 클라우드 서버(122)를 포함할 수 있다. In addition, the cloud AR platform 120 may include a session server 121 and a cloud server 122 .

여기에서, 세션 서버(121)는 네트워크 상태 확인 모듈(121a), 영상 입력 모듈(121b)을 포함할 수 있다. 본 발명의 일 실시예에서, 클라우드 AR 플랫폼(120)은 세션 서버(121)를 통해 단말기(110)로부터 네트워크 상태 및 영상 데이터를 수신할 수 있고, 수신한 네트워크 상태 및 영상 데이터를 클라우드 서버(122)로 전송할 수 있다. Here, the session server 121 may include a network status checking module 121a and an image input module 121b. In one embodiment of the present invention, the cloud AR platform 120 may receive network status and video data from the terminal 110 through the session server 121, and the received network status and video data may be transmitted to the cloud server 122. ) can be transmitted.

또한, 클라우드 서버(122)는 인디코딩 컨테이너(1221), 안드로이드 컨테이너(1222) 및 컨테이너 매니저(1223)를 포함할 수 있다. 본 발명의 일 실시예에서, 클라우드 서버(122)는 단말기(110)로부터 네트워크 상태 및 영상 데이터를 수신할 수 있다. 이때, 클라우드 서버(122)는 단말기(110)로부터 직접 네트워크 상태 및 영상 데이터를 수신하지 않고, 세션 서버(121)를 통하여 네트워크 상태 및 영상 데이터를 전달받을 수 있다. 또한, 클라우드 서버(122)는 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. In addition, the cloud server 122 may include an incoding container 1221, an Android container 1222, and a container manager 1223. In an embodiment of the present invention, the cloud server 122 may receive network status and image data from the terminal 110 . In this case, the cloud server 122 may receive the network status and video data through the session server 121 without directly receiving the network status and video data from the terminal 110 . Also, the cloud server 122 may restore image data based on the received network state.

인디코딩 컨테이너(1221)는 인코딩 모듈(1221a), 딥러닝 모듈(1221b) 및 디코딩 모듈(1221c)을 포함할 수 있다. 또한, 도 1에서는 인디코딩 컨테이너(1221)가 하나만 도시되어 있으나 클라우드 서버(122)는 복수개의 인디코딩 컨테이너를 포함할 수 있음은 물론이다. The incoding container 1221 may include an encoding module 1221a, a deep learning module 1221b, and a decoding module 1221c. In addition, in FIG. 1, only one incoding container 1221 is shown, but the cloud server 122 may include a plurality of incoding containers.

인코딩 모듈(1221a)은 복원된 영상 데이터와 AR 애플리케이션(1222a)으로부터 수신한 AR 콘텐츠를 합성할 수 있다. 또한, 인코딩 모듈(1221a)은 합성된 영상을 인코딩할 수 있다. The encoding module 1221a may synthesize the reconstructed image data and the AR content received from the AR application 1222a. Also, the encoding module 1221a may encode the synthesized video.

본 발명의 일 실시예에서, 클라우드 서버(122)는 딥러닝 모듈(1221b)을 이용하여 영상 데이터를 복원할 수 있다. 이때, 딥러닝 모듈(1221b)은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행할 수 있다. In one embodiment of the present invention, the cloud server 122 may restore image data using the deep learning module 1221b. In this case, the deep learning module 1221b may perform at least one function of increasing resolution or restoring color.

또한, 딥러닝 모듈(1221b)은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. In addition, the deep learning module 1221b may learn a deep learning model by setting restored image data as input data and setting image data before restoration as target data.

디코딩 모듈(1221c)은 영상 데이터를 디코딩할 수 있다. The decoding module 1221c may decode image data.

안드로이드 컨테이너(122)는 AR 애플리케이션(1222a) 및 안드로이드 프레임워크(Android Framework, 1222b)를 포함할 수 있다. 본 발명의 일 실시예에서, 안드로이드 컨테이너(1222)는 AR 애플리케이션(1222a)을 실행할 수 있다. The Android container 122 may include an AR application 1222a and an Android framework 1222b. In one embodiment of the invention, Android container 1222 may run AR application 1222a.

컨테이너 매니저(1223)는 인디코딩 컨테이너(1221) 및 안드로이드 컨테이너(1222)를 관리할 수 있다. 본 발명의 일 실시예에서, 컨테이너 매니저(1223)는 AR 애플리케이션(1222a)에 기초하여 기 설정된 딥러닝 모듈(1221b)을 포함하는 인디코딩 컨테이너(1221)를 실행할 수 있다. 상술한 바와 같이, 클라우드 서버(122)는 복수개의 인디코딩 컨테이너(1221)를 포함할 수 있다. 이 경우, 컨테이너 매니저(1223)는 AR 애플리케이션(1222a)에 기초하여 적절한 딥러닝 모듈(1221b)을 포함하는 인디코딩 컨테이너(1221)를 실행할 수 있다. The container manager 1223 may manage the incoding container 1221 and the Android container 1222. In one embodiment of the present invention, the container manager 1223 may execute the incoding container 1221 including the preset deep learning module 1221b based on the AR application 1222a. As described above, the cloud server 122 may include a plurality of incoding containers 1221 . In this case, the container manager 1223 may execute the incoding container 1221 including an appropriate deep learning module 1221b based on the AR application 1222a.

이에 대하여는 도 4 및 도 5를 통해 더욱 자세히 설명하도록 한다. This will be described in more detail with reference to FIGS. 4 and 5 .

또한, STB(130)는 플레이어 애플리케이션(131) 및 디코딩 모듈(132)을 포함할 수 있다. 본 발명의 일 실시예에서, 클라우드 AR 플랫폼(120)은 복원된 영상 데이터를 STB(130)로 전송할 수 있다. In addition, the STB 130 may include a player application 131 and a decoding module 132 . In one embodiment of the present invention, the cloud AR platform 120 may transmit restored video data to the STB 130.

STB(130)는 수신한 영상 데이터를 디코딩 모듈(132)을 통하여 디코딩할 수 있다. 또한, STB(130)는 디코딩된 영상 데이터를 플레이어 애플리케이션(131)을 통해 디스플레이 장치로 재생할 수 있다. The STB 130 may decode the received image data through the decoding module 132 . Also, the STB 130 may reproduce the decoded video data on a display device through the player application 131 .

도 2는 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템을 설명하는 순서도이다. 2 is a flowchart illustrating a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.

도 2를 참조하면, 단계(S210)에서, 단말기는 세션 서버에게 단말기의 네트워크 상태 및 영상 데이터를 전송할 수 있다. 이때, 단말기는 단말기와 클라우드 AR 플랫폼이 연결됨에 따라 클라우드 AR 플랫폼의 세션 서버에게 네트워크 상태 및 영상 데이터를 전송할 수 있다. 예를 들어, 단말기는 클라우드 AR 플랫폼에서 제공하는 서비스가 시작됨에 따라 클라우드 AR 플랫폼의 세션 서버에게 네트워크 상태 및 영상 데이터를 전송할 수 있다. 또한, 영상 데이터는 단말기의 네트워크 상태에 기초하여 변환된 데이터에 대응할 수 있다. 또한, 단말기 내부에서는 단말기의 통신부(네트워크 송수신부)를 통해 네트워크 상태를 확인하고, 확인된 네트워크 상태를 네트워크 체크 모듈로 전송할 수 있다. 또한, 단말기의 카메라는 영상을 획득하고, 획득된 영상을 영상 변환 모듈로 전송할 수 있다. 이에 따라, 단말기는 네트워크 체크 모듈을 통해 네트워크 상태를 세션 서버의 네트워크 상태 확인 모듈로 전송하고, 영상 변환 모듈을 통해 영상 데이터를 세션 서버의 영상 입력 모듈로 전송할 수 있다. Referring to FIG. 2 , in step S210, the terminal may transmit network status and image data of the terminal to the session server. At this time, the terminal may transmit network status and video data to the session server of the cloud AR platform as the terminal and the cloud AR platform are connected. For example, as a service provided by the cloud AR platform starts, the terminal may transmit network status and image data to the session server of the cloud AR platform. Also, the image data may correspond to data converted based on the terminal's network state. In addition, inside the terminal, the network status may be checked through the communication unit (network transmission/reception unit) of the terminal, and the checked network status may be transmitted to the network check module. In addition, the camera of the terminal may obtain an image and transmit the acquired image to the image conversion module. Accordingly, the terminal may transmit the network status to the network status checking module of the session server through the network check module, and transmit video data to the video input module of the session server through the video conversion module.

단계(S220)에서, 세션 서버는 단말기로부터 수신한 네트워크 상태 및 영상 데이터를 클라우드 서버에게 전송할 수 있다. 보다 상세하게는, 세션 서버는 네트워크 상태 확인 모듈을 통해 단말기로부터 수신한 네트워크 상태를 클라우드 서버의 디코딩 모듈에게 전송하고, 영상 입력 모듈을 통해 단말기로부터 수신한 영상 데이터를 클라우드 서버의 디코딩 모듈에게 전송할 수 있다. In step S220, the session server may transmit the network status and image data received from the terminal to the cloud server. More specifically, the session server may transmit the network status received from the terminal through the network status check module to the decoding module of the cloud server, and transmit the video data received from the terminal through the video input module to the decoding module of the cloud server. there is.

단계(S230)에서, 클라우드 서버는 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. 이때, 클라우드 서버는 딥러닝 모듈을 이용하여 영상 데이터를 복원할 수 있다. 딥러닝 모듈은 영상 데이터의 복원을 위해 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행할 수 있다. 또한, 딥러닝 모듈은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. 또한, 도면에 도시되지는 않았으나, 단계(S230)에 앞서 클라우드 서버 내부에서는, 컨테이너 매니저는 AR 서비스에 맞는 딥러닝 모듈을 탑재한 인디코딩 컨테이너를 실행할 수 있다. 이에 대하여는 도 6에서 한번 더 설명하도록 한다. In step S230, the cloud server may restore image data based on the received network state. At this time, the cloud server may restore image data using a deep learning module. The deep learning module may perform at least one function of increasing resolution or restoring color to restore image data. In addition, the deep learning module may learn a deep learning model by setting reconstructed image data as input data and setting unreconstructed image data as target data. In addition, although not shown in the figure, inside the cloud server prior to step S230, the container manager may execute an indy coding container equipped with a deep learning module suitable for AR service. This will be described once more in FIG. 6 .

단계(S240)에서, 클라우드 서버는 인코딩된 AR 합성 영상을 STB의 디코딩 모듈에게 전송할 수 있다. 이후, STB의 디코딩 모듈은 수신한 AR 합성 영상을 디코딩하고, 디코딩된 영상 데이터를 디스플레이 장치로 재생할 수 있다. 예를 들어, 셋톱박스는 수신한 AR 합성 영상을 TV로 재생할 수 있다. In step S240, the cloud server may transmit the encoded AR synthesized video to the decoding module of the STB. Thereafter, the decoding module of the STB may decode the received AR synthesized video and reproduce the decoded video data on the display device. For example, the set-top box can play the received AR synthesized video on a TV.

도 3은 본 발명의 일 실시예에 따른 단말기의 구성을 설명하는 도면이다. 3 is a diagram for explaining the configuration of a terminal according to an embodiment of the present invention.

도 3을 참조하면, 단말기(300)는 영상 전송 애플리케이션(310), 통신부(320) 및 카메라(330)를 포함할 수 있다. 또한, 도 3에 도시된 구성요소들은 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 3 , a terminal 300 may include a video transmission application 310 , a communication unit 320 and a camera 330 . In addition, the components shown in FIG. 3 are not essential to implement the terminal, so the terminal described in this specification may have more or fewer components than the components listed above.

영상 전송 애플리케이션(310)은 네트워크 체크 모듈(311) 및 영상 변환 모듈(312)을 포함할 수 있다. 또한, 영상 전송 애플리케이션(310)은 단말기(300)의 제어부에 의해 제어될 수 있다. The video transmission application 310 may include a network check module 311 and an image conversion module 312 . Also, the video transmission application 310 may be controlled by the control unit of the terminal 300 .

네트워크 체크 모듈(311)은 통신부(320)를 통해 수신된 네트워크 상태를 확인할 수 있다. 네트워크 체크 모듈(311)은 수신한 네트워크 상태에 대한 정보를 영상 변환 모듈(312)로 전달할 수 있다. 또한, 네트워크 체크 모듈(311)은 네트워크 상태에 대한 정보를 세션 서버의 네트워크 상태 확인 모듈로 전송할 수 있다. The network check module 311 may check the network status received through the communication unit 320 . The network check module 311 may transfer the received information on the network state to the image conversion module 312 . In addition, the network check module 311 may transmit information about the network status to the network status check module of the session server.

영상 변환 모듈(312)은 카메라(330)를 통해 획득된 영상을 변환할 수 있다. 이때, 영상 변환 모듈(312)은 획득된 영상의 해상도를 변환하고 색 변환을 수행할 수 있다. 특히, 영상 변환 모듈(312)은 확인된 네트워크 상태에 기초하여 획득된 영상을 변환할 수 있다. 이때, 영상 변환 모듈(312)은 네트워크 체크 모듈(311)로부터 수신한 네트워크 상태 정보를 기반으로 변환할 해상도를 결정할 수 있다. 예를 들어, 영상 변환 모듈(312)은 네트워크 상태가 “상”일 경우, 영상을 1080p로 변환할 수 있고, 네트워크 상태가 “중”일 경우, 영상을 720p로 변환할 수 있고, 네트워크 상태가 “하”일 경우, 영상을 480p로 변환할 수 있다. 또한, 영상 변환 모듈(312)은 RGB 형식의 영상을 회색조 형식의 영상으로 변환할 수 있다. 480p 및 30fps의 회색조 영상은 네트워크 대역폭을 2Mbps를 사용하고, 1080p 및 30fps의 RGB 영상은 네트워크 대역폭을 6Mbps를 사용하기 때문에, 회색조 영상이 RGB 영상 대비 1/9의 네트워크 대역폭을 점유하게 된다. (회색조 영상 데이터는 1채널 데이터만 필요하나, RGB 영상 데이터의 경우 3채널의 데이터가 필요하기 때문이다.) 이에 따라, 회색조 영상으로 변환하여 클라우드 AR 플랫폼에 영상 데이터를 전송하는 경우, 네트워크 사용을 최적화할 수 있다. 또한, 영상 변환 모듈(312)은 변환된 영상 데이터를 세션 서버의 영상 입력 모듈로 전송할 수 있다. The image conversion module 312 may convert an image acquired through the camera 330 . At this time, the image conversion module 312 may convert the resolution of the obtained image and perform color conversion. In particular, the image conversion module 312 may transform the acquired image based on the identified network state. At this time, the image conversion module 312 may determine a resolution to be converted based on the network state information received from the network check module 311 . For example, the image conversion module 312 may convert a video to 1080p when the network status is “high”, and convert an image to 720p when the network status is “medium”. In the case of “bottom”, the video can be converted to 480p. Also, the image conversion module 312 may convert an RGB format image into a grayscale format image. Since 480p and 30 fps grayscale images use 2 Mbps of network bandwidth, and 1080p and 30 fps RGB images use 6 Mbps network bandwidth, grayscale images occupy 1/9 of the network bandwidth compared to RGB images. (This is because grayscale image data requires only 1-channel data, but RGB image data requires 3-channel data.) Accordingly, when image data is converted to grayscale image and transmitted to the cloud AR platform, network use is avoided. can be optimized. Also, the video conversion module 312 may transmit the converted video data to the video input module of the session server.

통신부(320)는 단말기(300)와 무선 통신 시스템 사이, 단말기(300)와 다른 단말기 또는 단말기(300)와 외부 서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(320)는 단말기(300)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 이를 위하여, 통신부(320)는 방송 수신 모듈, 이동 통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 중 적어도 하나를 포함할 수 있으나 이는 일반적인 단말기(300)의 통신부(320)가 포함할 수 있는 모듈로써 이러한 설명은 생략하도록 한다. 본 발명의 일 실시예에서, 통신부(320)는 단말기(300)의 네트워크 상태를 송수신하며, 네트워크 체크 모듈(311)에게 네트워크 상태를 보고할 수 있다. 이때, 통신부(320)는 네트워크의 상태를 상/중/하로 구분할 수 있다. 물론, 이는 예시일 뿐으로 통신부(320)는 설계에 따라서 더욱 세분화가 가능하다. 또한, 통신부(320)는 클라우드 AR 플랫폼의 서비스를 사용중인 경우에는 주기적으로 네트워크 상태를 확인할 수 있다. 단말기(300)는 통신부(320)로부터 수신한 네트워크 상태를 네트워크 체크 모듈(311)로 전달할 수 있다. 이후, 통신부(320)는 제어부의 제어에 따라 네트워크 상태 및 변환된 영상 데이터를 클라우드 AR 플랫폼에 전송할 수 있다. 또한, 통신부(320)는 카메라(330)의 성능(spec) 정보를 클라우드 AR 플랫폼에 전송할 수 있다. The communication unit 320 may include one or more modules enabling wireless communication between the terminal 300 and a wireless communication system, between the terminal 300 and other terminals, or between the terminal 300 and an external server. Also, the communication unit 320 may include one or more modules that connect the terminal 300 to one or more networks. To this end, the communication unit 320 may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-distance communication module, and a location information module, but this may be included in the communication unit 320 of the general terminal 300. As a module, this description will be omitted. In one embodiment of the present invention, the communication unit 320 may transmit and receive the network status of the terminal 300 and report the network status to the network check module 311 . At this time, the communication unit 320 may classify the state of the network into high/medium/low. Of course, this is just an example, and the communication unit 320 can be further subdivided according to design. In addition, the communication unit 320 may periodically check the network status when using the service of the cloud AR platform. The terminal 300 may transfer the network status received from the communication unit 320 to the network check module 311 . Then, the communication unit 320 may transmit the network status and converted image data to the cloud AR platform under the control of the controller. Also, the communication unit 320 may transmit spec information of the camera 330 to the cloud AR platform.

카메라(330)는 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 본 발명의 일 실시예에서, 카메라는 영상을 획득할 수 있다. 여기에서, 영상은 정지영상(image) 또는 동영상(video)을 포함하는 것으로 어느 하나에 국한되지 않음은 물론이다. 또한, 처리된 화상 프레임은 디스플레이(미도시)에 표시되거나 메모리(미도시)에 저장될 수 있다. 즉, 본 발명의 일 실시예에서, 획득된 영상은 메모리에 저장되어 있는 영상을 포함할 수 있다. 본 발명의 일 실시예에서, 단말기(300)는 카메라(330)의 성능이 기 설정된 수준 이상일 경우, 네트워크 상태에 기초하여 단말기(300)에서 전송되는 영상 데이터의 화질을 1080p/720p/480p 중 1개로 선택하여 15fps로 클라우드 AR 플랫폼 서버에 전송할 수 있다. 반면, 단말기(300)는 카메라(330)의 성능이 기 설정된 수준 이하인 경우, 영상 데이터의 화질을 480p 및 15fps로 고정하여 클라우드 AR 플랫폼 서버에 전송할 수 있다. 뿐만 아니라, 단말기(300)는 영상 데이터의 화질을 회색조(grayscale)로 전송할 수 있다. 이 경우, 기존 RGB 영상 대비 네트워크 대역폭을 1/3 감소시킬 수 있는 효과가 있다. 이후, 클라우드 AR 플랫폼 서버에서는 기 학습된 딥러닝 모델(예를 들어, SRGAN 모델)을 활용하여 수신된 회색조 영상 데이터를 RGB 색을 포함한 1080p 및 30fps로 복원 후에 단말기(300)로 재전송할 수 있다. 이에 대하여는, 이하의 도면에서 자세히 설명하도록 한다. The camera 330 may process an image frame such as a still image or a moving image obtained by an image sensor. In one embodiment of the present invention, a camera may obtain an image. Here, the image includes still images (image) or moving images (video) and is not limited to any one. Also, the processed image frame may be displayed on a display (not shown) or stored in a memory (not shown). That is, in one embodiment of the present invention, the acquired image may include an image stored in a memory. In one embodiment of the present invention, the terminal 300 sets the quality of image data transmitted from the terminal 300 to 1 of 1080p/720p/480p based on a network condition when the performance of the camera 330 is equal to or higher than a preset level. It can be selected and transmitted to the cloud AR platform server at 15 fps. On the other hand, when the performance of the camera 330 is below a predetermined level, the terminal 300 may fix the quality of image data to 480p and 15 fps and transmit the same to the cloud AR platform server. In addition, the terminal 300 may transmit the quality of image data in grayscale. In this case, there is an effect of reducing the network bandwidth by 1/3 compared to the existing RGB image. Thereafter, the cloud AR platform server may retransmit the received grayscale image data to the terminal 300 after restoring the received grayscale image data to 1080p and 30 fps including RGB colors by utilizing a pre-learned deep learning model (eg, SRGAN model). This will be described in detail in the following drawings.

이에 따라, 단말기(300)는 단말기(300)의 네트워크 상태를 주기적으로 확인하여 네트워크 품질이 낮은 상황에서는 저-해상도 영상을 전송할 수 있고, 네트워크 품질이 높은 상황에서는 고-해상도 영상을 전송할 수 있다. Accordingly, the terminal 300 periodically checks the network state of the terminal 300 to transmit a low-resolution video in a situation where the network quality is low, and transmit a high-resolution video in a situation where the network quality is high.

도 4는 본 발명의 일 실시예에 따른 세션 서버의 구성을 설명하는 도면이다. 4 is a diagram illustrating the configuration of a session server according to an embodiment of the present invention.

도 4를 참조하면, 세션 서버(400)는 네트워크 상태 확인 모듈(410) 및 영상 입력 모듈(420)을 포함할 수 있다. Referring to FIG. 4 , the session server 400 may include a network status check module 410 and an image input module 420 .

네트워크 상태 확인 모듈(410)은 단말기의 네트워크 체크 모듈로부터 단말기의 네트워크 상태에 대한 정보(데이터)를 수신할 수 있다. 이후, 네트워크 상태 확인 모듈(410)은 수신한 네트워크 상태에 대한 정보를 클라우드 서버의 디코딩 모듈로 전송할 수 있다. The network status check module 410 may receive information (data) about the network status of the terminal from the network check module of the terminal. Thereafter, the network status checking module 410 may transmit the received information on the network status to the decoding module of the cloud server.

영상 입력 모듈(420)은 단말기의 영상 변환 모듈로부터 단말기로부터 변환된 영상 데이터를 수신할 수 있다. 이후, 영상 입력 모듈(420)은 변환된 영상 데이터를 클라우드 서버의 디코딩 모듈로 전송할 수 있다. The image input module 420 may receive converted image data from the terminal from the image conversion module of the terminal. Then, the image input module 420 may transmit the converted image data to the decoding module of the cloud server.

즉, 세션 서버(400)는 단말기로부터 수신한 영상과 네트워크 상태에 대한 정보를 클라우드 서버로 전달하는 역할을 한다. That is, the session server 400 plays a role of transferring the video received from the terminal and information on the network state to the cloud server.

도 5는 본 발명의 일 실시예에 따른 클라우드 서버의 구성을 설명하는 도면이다. 5 is a diagram illustrating a configuration of a cloud server according to an embodiment of the present invention.

도 5를 참조하면, 클라우드 서버(500)는 인디코딩 컨테이너(510), 안드로이드 컨테이너(520) 및 컨테이너 매니저(530)를 포함할 수 있다. Referring to FIG. 5 , the cloud server 500 may include an incoding container 510, an Android container 520, and a container manager 530.

인디코딩 컨테이너(510)는 인코딩 모듈(511), 딥러닝 모듈(512) 및 디코딩 모듈(513)을 포함할 수 있다. The incoding container 510 may include an encoding module 511 , a deep learning module 512 , and a decoding module 513 .

인코딩 모듈(511)은 AR 콘텐츠와 영상 데이터를 인코딩할 수 있다. 보다 상세하게는, 인코딩 모듈(511)은 AR 애플리케이션(521)으로부터 수신한 AR 콘텐츠와 합성된 영상 데이터를 인코딩할 수 있다. 또한, 인코딩 모듈(511)은 인코딩된 AR 콘텐츠와 합성된 영상 데이터를 STB의 플레이어 애플리케이션의 디코딩 모듈로 전송할 수 있다. The encoding module 511 may encode AR content and image data. More specifically, the encoding module 511 may encode AR content received from the AR application 521 and image data synthesized. In addition, the encoding module 511 may transmit encoded AR content and synthesized image data to the decoding module of the player application of the STB.

딥러닝 모듈(512)은 디코딩된 영상 데이터를 딥러닝을 통하여 해상도를 높이고 색을 복원할 수 있다. 보다 상세하게는, 딥러닝 모듈(512)은 세션 서버로부터 전달받은 저해상도의 영상 데이터를 딥러닝 모델(예를 들어, SRGAN)을 활용하여 실시간으로 고해상도 영상 데이터로 복원할 수 있다. 예를 들어, 딥러닝 모듈(512)은 전송받은 네트워크 상태 정보를 기반으로 SRGAN 모델을 활용하여 전송받은 영상 데이터를 1080p 및 30fps RGB 영상 데이터로 복원할 수 있다. 또한, 딥러닝 모듈(512)은 AR 애플리케이션(521)마다 다르게 학습된 딥러닝 모델을 사용할 수 있다. 예를 들어, A 서비스의 경우, 집 안에서 부모가 아이들을 카메라를 통해 촬영하고, AR 컨텐츠(공룡, 동물 등)와 합성하여 보여주는 시나리오가 존재하는 경우, 딥러닝 모델은 학습 할 때 집 내부에 사람이 있는 사진 데이터 세트를 학습 데이터로 사용할 수 있다. 또한, 딥러닝 모듈(512)은 회색조로 변환된 영상 데이터의 RGB 색상을 복원할 수 있다. 즉, 딥러닝 모듈(512)을 통하여 저해상도의 회색조 영상 데이터를 고해상도의 RGB 영상 데이터로 복원할 수 있다. 본 발명의 일 실시예에서, 복원된 영상 데이터는 클라우드 서버에서 동작하고 있는 AR 애플리케이션(521)으로 전송될 수 있다. 또한, 딥러닝 모듈(512)은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. The deep learning module 512 may increase resolution and restore color of the decoded image data through deep learning. More specifically, the deep learning module 512 may restore low resolution image data transmitted from the session server to high resolution image data in real time by using a deep learning model (eg, SRGAN). For example, the deep learning module 512 may restore the received image data to 1080p and 30fps RGB image data by using the SRGAN model based on the received network state information. In addition, the deep learning module 512 may use a deep learning model trained differently for each AR application 521 . For example, in the case of service A, if there is a scenario in which parents film their children at home through a camera and combine them with AR content (dinosaur, animal, etc.), the deep learning model A photo data set with . can be used as training data. In addition, the deep learning module 512 may restore RGB color of image data converted to grayscale. That is, low-resolution grayscale image data may be restored to high-resolution RGB image data through the deep learning module 512 . In one embodiment of the present invention, the restored image data may be transmitted to the AR application 521 operating in the cloud server. In addition, the deep learning module 512 may learn a deep learning model by setting restored image data as input data and setting image data before restoration as target data.

디코딩 모듈(513)은 세션 서버로부터 수신한 영상 데이터를 디코딩할 수 있다. 이때, 디코딩 모듈(513)은 디코딩된 영상 데이터를 네트워크 상태 정보와 함께 딥러닝 모듈(512)로 전송할 수 있다. The decoding module 513 may decode video data received from the session server. At this time, the decoding module 513 may transmit the decoded image data to the deep learning module 512 together with network state information.

안드로이드 컨테이너(520)는 AR 애플리케이션(521) 및 안드로이드 프레임워크(Android Framework, 522)를 포함할 수 있다. 즉, 안드로이드 컨테이너(520)는 AR 애플리케이션(521)을 구동할 수 있다. The Android container 520 may include an AR application 521 and an Android framework 522. That is, the Android container 520 may drive the AR application 521.

AR 애플리케이션(521)은 AR 콘텐츠와 수신한 영상 데이터를 합성하여 인코딩 모듈(511)로 전송할 수 있다. The AR application 521 may synthesize the AR content and the received image data and transmit the result to the encoding module 511 .

컨테이너 매니저(530)는 각 컨테이너의 실행 또는 중지 등을 관리하는 매니저에 대응할 수 있다. 본 발명의 일 실시예에서, 컨테이너 매니저(530)는 안드로이드 컨테이너(520)에서 실행되고 있는 AR 애플리케이션의 서비스에 기초하여 기 학습된 딥러닝 모델을 탑재한 인디코딩 컨테이너를 실행할 수 있다. 예를 들어, 컨테이너 매니저(530)는 A 서비스에 최적화된 A1 딥러닝 모듈을 포함하는 A’ 인디코딩 컨테이너를 실행하고, B 서비스에 최적화된 B1 딥러닝 모듈을 포함하는 B’ 인디코딩 컨테이너를 실행할 수 있다. 또한, A1 딥러닝 모듈 및 B1 딥러닝 모듈에서 사용하는 딥러닝 모델은 해당 서비스의 시나리오에 최적화되도록 미리 시나리오를 학습할 수 있다. The container manager 530 may correspond to a manager that manages execution or suspension of each container. In one embodiment of the present invention, the container manager 530 may execute an indie coding container loaded with a pre-learned deep learning model based on the service of an AR application running in the Android container 520 . For example, the container manager 530 executes an A' indie coding container including an A1 deep learning module optimized for service A and executes an indie coding container B' including a B1 deep learning module optimized for service B. can In addition, the deep learning models used in the A1 deep learning module and the B1 deep learning module can learn scenarios in advance to be optimized for the scenario of the service.

또한, 초해상도 변환을 위하여는 다양한 딥러닝 모델이 적용될 수 있다. 즉, 해상도 변환을 위하여 상술한 예시인 SRGAN 외에도 다양한 다른 딥러닝 모델이 사용될 수 있다. 예를 들어, SRCNN, VDSR, EDSR 및 MDSR 등의 다양한 딥러닝 모델이 사용될 수 있다. 다양한 딥러닝 모델을 사용하는 이유는 학습 데이터에 따라서 그 성능에 유의미한 차이를 보이기 때문이다. 이에 따라, 본 발명의 일 실시예에서는, 안드로이드 컨테이너(520)에서 구동되는 AR 애플리케이션의 서비스 시나리오에 최적화된 딥러닝 모델을 사용하여 딥러닝의 성능을 높일 수 있다. 예를 들어, 특정 AR 애플리케이션의 경우, 부모가 아이를 비추면 공룡, 동물 등의 AR 컨텐츠와 합성하여 보여주는 시나리오가 존재한다. 이 경우, 딥러닝 모델은 실내에 사람이 있는 카테고리의 이미지 데이터 세트를 학습 데이터로 구성하여 학습할 수 있다. 또한, 딥러닝 모듈은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. 보다 상세하게는, 딥러닝 모듈은 선택한 카테고리의 데이터 세트의 원본 영상 데이터를 목표 데이터로, 해상도를 낮추고 회색조로 변환한 영상 데이터를 입력 데이터로 설정하여 학습 데이터 세트를 구성하여 딥러닝 모델을 학습시킬 수 있다. 또한, 다른 실시예로, 딥러닝 모듈은 써드 파티에서 제공하는 카테고리별 동영상 데이터 세트를 활용하여 학습할 수 있다. (참고: https://research.google.com/youtube8m)In addition, various deep learning models may be applied for super-resolution conversion. That is, various other deep learning models may be used for resolution conversion in addition to SRGAN as an example described above. For example, various deep learning models such as SRCNN, VDSR, EDSR, and MDSR may be used. The reason why various deep learning models are used is that their performance varies significantly depending on the training data. Accordingly, in one embodiment of the present invention, the performance of deep learning may be improved by using a deep learning model optimized for a service scenario of an AR application running in the Android container 520. For example, in the case of a specific AR application, there is a scenario in which AR contents such as dinosaurs and animals are synthesized and displayed when a parent shines on a child. In this case, the deep learning model may be trained by configuring an image data set of a category in which a person is indoors as training data. In addition, the deep learning module may learn a deep learning model by setting reconstructed image data as input data and setting unreconstructed image data as target data. More specifically, the deep learning module configures a training data set by setting the original image data of the selected category of data set as the target data and the image data converted to grayscale after lowering the resolution as the input data to train the deep learning model. can Also, as another embodiment, the deep learning module may learn by utilizing a video data set for each category provided by a third party. (Reference: https://research.google.com/youtube8m )

또한, 상술한 SRGAN 모델에 대하여 간단히 알아보면 다음과 같다. In addition, the above-described SRGAN model is briefly described as follows.

GAN 모델은 생성자(generator)와 구별자(discriminator)로 구성되어 있어, 생성자는 실제 입력 데이터와 최대한 비슷하게 데이터를 생성해내고, 구별자는 생성된 데이터와 실제의 샘플 데이터를 최대한 구분하려는 목표를 가지고 있다. 또한, 기존 GAN 모델은 MSE(mean squared error)를 loss function으로 설정하고 최적화를 진행하여 높은 PSNR(peak signal to noise ration)를 얻을 수 있었으나, 높은 주파수(high frequency) 성분을 갖는 질감(texture)을 잘 표현하지 못하는 문제가 있었다. The GAN model is composed of a generator and a discriminator. The generator generates data as similar as possible to the actual input data, and the discriminator aims to distinguish generated data from actual sample data as much as possible. . In addition, the existing GAN model was able to obtain a high peak signal to noise ration (PSNR) by setting the mean squared error (MSE) as the loss function and proceeding with optimization. There was a problem that I couldn't express well.

이를 극복하기 위하여 SRGAN 모델은 PSNR 대신 Perceptual loss function을 정의하여 학습을 진행하 된다. 즉, SRGAN 모델은 기존 GAN 모델보다 PSNR 값은 낮으나 높은 MOS(mean opinion score)를 기록하여 사람 기준에서 더 정교한 이미지를 만들어낼 수 있게 된다. To overcome this, the SRGAN model is trained by defining a perceptual loss function instead of PSNR. That is, the SRGAN model has a lower PSNR value than the existing GAN model, but records a high mean opinion score (MOS), so that a more sophisticated image can be created in human terms.

본 발명의 일 실시예는 이와 같은 SRGAN 모델을 딥러닝 모듈에 사용하여 클라우드 AR 플랫폼의 네트워크 의존도 및 지연시간을 최소화할 수 있다. An embodiment of the present invention can use such an SRGAN model in a deep learning module to minimize network dependence and latency of the cloud AR platform.

도 6은 본 발명의 일 실시예에 따른 클라우드 서버를 설명하는 순서도이다. 도 6은 클라우드 서버 내에서 컨테이너 매니저, 인코딩 컨테이너 및 안드로이드 컨테이너가 실시하는 다양한 실시예에 대해 보다 자세히 설명하도록 한다. 6 is a flowchart illustrating a cloud server according to an embodiment of the present invention. 6 describes in detail various embodiments implemented by a container manager, an encoding container, and an Android container in a cloud server.

도 6을 참조하면, 단계(S610)에서, 컨테이너 매니저는 AR 애플리케이션에 기초하여 제 1 딥러닝 모듈을 포함하는 제 1 인디코딩 컨테이너를 실행할 수 있다. 즉, 클라우드 서버는 적어도 하나의 인디코딩 컨테이너를 포함할 수 있고, 컨테이너 매니저는 합성하고자 하는 AR 컨텐츠를 고려하여 적절한 딥러닝 모듈을 포함하는 인디코딩 컨테이너를 실행할 수 있다. Referring to FIG. 6 , in step S610, the container manager may execute a first incoding container including a first deep learning module based on the AR application. That is, the cloud server may include at least one incoding container, and the container manager may execute an incoding container including an appropriate deep learning module in consideration of the AR content to be synthesized.

단계(S620)에서, 실행된 인디코딩 컨테이너는 수신한 영상 데이터를 디코딩할 수 있다. In step S620, the executed incoding container may decode the received image data.

단계(S630)에서, 인디코딩 컨테이너는 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. 이때, 인디코딩 컨테이너는 딥러닝 모듈을 이용하여 영상 데이터를 복원할 수 있다. 딥러닝 모듈은 영상 데이터의 복원을 위해 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행할 수 있다. 또한, 딥러닝 모듈은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. 이에 대하여는, 상술한 바와 같다. In step S630, the incoding container may restore image data based on the received network state. At this time, the indycoding container may restore image data using a deep learning module. The deep learning module may perform at least one function of increasing resolution or restoring color to restore image data. In addition, the deep learning module may learn a deep learning model by setting reconstructed image data as input data and setting unreconstructed image data as target data. This is as described above.

단계(S640)에서, 인디코딩 컨테이너는 복원된 영상 데이터를 안드로이드 컨테이너로 전송할 수 있다. 예를 들어, 인디코딩 컨테이너는 1080p 및 30fps(고해상도)의 RGB 영상 데이터를 안드로이드 컨테이너의 AR 애플리케이션에게 전송할 수 있다. In step S640, the incoding container may transmit restored image data to the Android container. For example, the incoding container can transmit RGB image data of 1080p and 30 fps (high resolution) to the AR application of the Android container.

단계(S650)에서, 안드로이드 컨테이너는 복원된 영상 데이터와 AR 컨텐츠가 합성된 영상을 인디코딩 컨테이너에게 전송할 수 있다. 보다 상세하게는, 안드로이드 컨테이너의 AR 애플리케이션은 복원된 영상 데이터와 AR 컨텐츠가 합성된 영상을 인디코딩 컨테이너의 인코딩 모듈에게 전송할 수 있다. In step S650, the Android container may transmit an image obtained by synthesizing the restored image data and AR content to the incoding container. More specifically, the AR application of the Android container may transmit an image in which the restored image data and AR contents are synthesized to the encoding module of the incoding container.

단계(S660)에서, 인디코딩 컨테이너는 복원된 영상 데이터와 AR 컨텐츠를 인코딩할 수 있다. 인디코딩 컨테이너의 인코딩 모듈은 수신한 영상 데이터와 AR 컨텐츠를 인코딩할 수 있고, 이후 인코딩된 AR 합성 영상 데이터를 STB의 디코딩 모듈에게 전송할 수 있다. In step S660, the incoding container may encode the reconstructed video data and AR content. The encoding module of the incoding container may encode the received video data and AR content, and then transmit the encoded AR synthesized video data to the decoding module of the STB.

도 7은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 방법을 설명하는 순서도이다. 7 is a flowchart illustrating a video transmission/reception method of a cloud AR platform according to an embodiment of the present invention.

도 7을 참조하면, 단계(S710)에서, 클라우드 AR 플랫폼은 단말기로부터 네트워크 상태 및 영상 데이터를 수신할 수 있다. 클라우드 AR 플랫폼은 단말기의 네트워크 체크 모듈로부터 네트워크 상태를 수신할 수 있고, 영상 변환 모듈로부터 저해상도 또는 회색조 중 적어도 하나로 변환된 영상 데이터를 수신할 수 있다. Referring to FIG. 7 , in step S710, the cloud AR platform may receive network status and image data from the terminal. The cloud AR platform may receive a network state from the network check module of the terminal, and image data converted to at least one of low resolution and grayscale from the image conversion module.

단계(S720)에서, 클라우드 AR 플랫폼은 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. 이때, 클라우드 AR 플랫폼은 합성하고자 하는 AR 컨텐츠를 고려하여 적절한 딥러닝 모듈을 통해 영상 데이터를 복원할 수 있다. 딥러닝 모듈을 통해 영상을 복원하는 방법은 상술한 실시예와 같다. 이후, 클라우드 AR 플랫폼은 복원된 영상 데이터와 AR 컨텐츠를 합성하여 STB에게 전송할 수 있다. In step S720, the cloud AR platform may restore image data based on the received network state. At this time, the cloud AR platform may restore image data through an appropriate deep learning module in consideration of the AR content to be synthesized. A method of restoring an image through the deep learning module is the same as in the above-described embodiment. Thereafter, the cloud AR platform may synthesize the restored image data and AR contents and transmit the result to the STB.

또한, 상술한 도면을 통해 기술한 실시예들은 도 7과 같이 방법으로서 실시될 수 있음은 물론이다. In addition, it goes without saying that the embodiments described through the above drawings can be implemented as a method as shown in FIG. 7 .

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those implemented in the form of a carrier wave (eg, transmission over the Internet).

이상 본 발명의 실시예에 따른 단말기, 클라우드 서버, 클라우드 AR 플랫폼의 영상 송수신 시스템 및 방법을 구체적인 실시 형태로서 설명하였으나, 이는 예시에 불과한 것으로서 본 발명은 이에 한정되지 않는 것이며, 본 명세서에 개시된 기초 사상에 따르는 최광의 범위를 갖는 것으로 해석되어야 한다. 당업자는 개시된 실시 형태들을 조합, 치환하여 적시되지 않은 실시 형태를 실시할 수 있으나, 이 역시 본 발명의 권리범위를 벗어나지 않는 것이다. 이외에도 당업자는 본 명세서에 기초하여 개시된 실시형태를 용이하게 변경 또는 변형할 수 있으며, 이러한 변경 또는 변형도 본 발명의 권리범위에 속함은 명백하다.Although the video transmission/reception system and method of the terminal, cloud server, and cloud AR platform according to the embodiment of the present invention have been described as specific embodiments, this is only an example and the present invention is not limited thereto, and the basic idea disclosed herein should be construed as having the widest scope according to A person skilled in the art may implement an embodiment that is not indicated by combining or substituting the disclosed embodiments, but this also does not deviate from the scope of the present invention. In addition, those skilled in the art can easily change or modify the disclosed embodiments based on this specification, and it is clear that such changes or modifications also fall within the scope of the present invention.

100: 클라우드 AR 플랫폼의 영상 송수신 시스템
110: 단말기
120: 클라우드 AR 플랫폼
130: STB
100: Video transmission and reception system of cloud AR platform
110: terminal
120: Cloud AR platform
130: STB

Claims (19)

네트워크 상태 및 영상 데이터를 전송하는 단말기; 및
클라우드 서버를 포함하는 클라우드 AR 플랫폼을 포함하고,
상기 클라우드 서버는
AR 애플리케이션을 실행하는 안드로이드 컨테이너;
적어도 하나의 인디코딩 컨테이너; 및
상기 안드로이드 컨테이너 및 상기 인디코딩 컨테이너를 관리하는 컨테이너 매니저를 포함하되,
상기 컨테이너 매니저는 상기 AR 애플리케이션에 기초하여 상기 인디코딩 컨테이너를 실행하고,
상기 단말기로부터 상기 네트워크 상태 및 상기 영상 데이터를 수신하고,
상기 인디코딩 컨테이너는
상기 수신한 네트워크 상태에 기초하여 상기 영상 데이터를 복원하되,
상기 클라우드 서버는 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 색 복원 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템.
a terminal that transmits network status and image data; and
Including a cloud AR platform including a cloud server,
The cloud server
An Android container running an AR application;
at least one incoding container; and
Including a container manager that manages the Android container and the indie coding container,
The container manager executes the incoding container based on the AR application,
Receiving the network state and the image data from the terminal;
The indicoding container is
Restoring the image data based on the received network state;
The cloud server restores the image data using a deep-learning module, and the deep-learning module performs a color restoration function.
제 1 항에 있어서,
상기 딥러닝 모듈은 해상도 증가 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템.
According to claim 1,
The deep learning module is a video transmission and reception system of a cloud AR platform, characterized in that it performs a resolution increase function.
제 2 항에 있어서,
상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템.
According to claim 2,
The deep learning module sets the restored image data as input data and sets the image data before restoration as target data to learn a deep learning model.
제 1 항에 있어서,
상기 클라우드 AR 플랫폼은 세션 서버를 더 포함하고,
상기 클라우드 AR 플랫폼은 상기 세션 서버를 통해 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 서버로 전송하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템.
According to claim 1,
The cloud AR platform further includes a session server,
The cloud AR platform, characterized in that for transmitting the network state and the image data to the cloud server through the session server, video transmission and reception system of the cloud AR platform.
제 1 항에 있어서,
상기 클라우드 AR 플랫폼의 영상 송수신 시스템은 셋톱박스(STB)를 더 포함하고,
상기 클라우드 AR 플랫폼은 상기 복원된 영상 데이터를 상기 셋톱박스로 전송하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템.
According to claim 1,
The video transmission and reception system of the cloud AR platform further includes a set-top box (STB),
The cloud AR platform transmits and receives the image data of the cloud AR platform, characterized in that for transmitting the restored image data to the set-top box.
제 5 항에 있어서,
상기 셋톱박스는
상기 수신한 영상 데이터를 디코딩하고,
디코딩된 영상 데이터를 디스플레이 장치로 재생하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템.
According to claim 5,
The set top box
decoding the received video data;
A video transmission and reception system of a cloud AR platform, characterized in that the decoded video data is reproduced on a display device.
AR 애플리케이션을 실행하는 안드로이드 컨테이너;
적어도 하나의 인디코딩 컨테이너; 및
상기 안드로이드 컨테이너 및 상기 인디코딩 컨테이너를 관리하는 컨테이너 매니저를 포함하고,
상기 컨테이너 매니저는
상기 AR 애플리케이션에 기초하여 상기 인디코딩 컨테이너를 실행하고,
상기 인디코딩 컨테이너는
영상 데이터를 디코딩하고,
상기 디코딩된 영상 데이터를 복원하되,
상기 인디코딩 컨테이너는 상기 인디코딩 컨테이너 내에 포함된 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 색 복원 기능을 수행하고,
상기 복원된 영상 데이터와 상기 AR 애플리케이션으로부터 수신한 AR 콘텐츠를 합성하고,
상기 합성된 영상을 인코딩하는 것을 특징으로 하는, 클라우드 서버.
An Android container running an AR application;
at least one incoding container; and
A container manager for managing the Android container and the indie coding container;
The container manager
Execute the incoding container based on the AR application;
The indicoding container is
decoding the video data;
Restoring the decoded video data;
The indie-coding container restores the image data using a deep-learning module included in the indi-coding container, and the deep-learning module performs a color restoration function;
synthesizing the restored image data and AR contents received from the AR application;
Characterized in that for encoding the synthesized video, the cloud server.
제 7 항에 있어서,
상기 딥러닝 모듈은 해상도 증가 기능을 수행하는 것을 특징으로 하는, 클라우드 서버.
According to claim 7,
Characterized in that the deep learning module performs a resolution increase function, the cloud server.
제 8 항에 있어서,
상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 하는, 클라우드 서버.
According to claim 8,
The cloud server, characterized in that the deep learning module learns a deep learning model by setting the restored image data as input data and setting the image data before restoration as target data.
제 7 항에 있어서,
상기 컨테이너 매니저는 상기 AR 애플리케이션에 기초하여 기 설정된 딥러닝 모듈을 포함하는 제 1 인디코딩 컨테이너를 실행하는 것을 특징으로 하는, 클라우드 서버.
According to claim 7,
Characterized in that, the container manager executes a first indy-coding container including a preset deep learning module based on the AR application.
제 7 항에 있어서,
상기 영상 데이터는 상기 클라우드 서버와 상이한 서버로부터 수신된 것을 특징으로 하는, 클라우드 서버.
According to claim 7,
Characterized in that the image data is received from a server different from the cloud server, the cloud server.
영상을 획득하는 카메라;
통신부; 및
네트워크 체크 모듈 및 영상 변환 모듈을 포함하는 제어부를 포함하고,
상기 제어부는
상기 네트워크 체크 모듈을 통해 상기 통신부로부터 수신된 네트워크 상태를 확인하고,
상기 카메라의 성능 정보를 클라우드 AR 플랫폼에 전송하고,
상기 영상 변환 모듈을 통해 상기 획득된 영상을 변환하고,
상기 확인된 네트워크 상태 및 상기 변환된 영상에 대응하는 영상 데이터를 상기 클라우드 AR 플랫폼에 전송하되,
상기 카메라의 성능이 기 설정된 수준 이하인 경우, 상기 영상 데이터를 회색조(grayscale)로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기.
a camera that acquires an image;
communications department; and
Including a control unit including a network check module and an image conversion module,
The control unit
Checking the network status received from the communication unit through the network check module;
Transmitting the performance information of the camera to the cloud AR platform,
Converting the acquired image through the image conversion module;
Transmitting image data corresponding to the confirmed network state and the converted image to the cloud AR platform,
Characterized in that, when the performance of the camera is below a predetermined level, the image data is converted to grayscale and transmitted to the cloud AR platform.
제 12 항에 있어서,
상기 제어부는 상기 클라우드 AR 플랫폼에서 제공하는 서비스가 시작됨에 따라 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기.
According to claim 12,
The terminal, characterized in that the control unit transmits the network status and the image data to the cloud AR platform as the service provided by the cloud AR platform starts.
제 12 항에 있어서,
상기 제어부는 상기 네트워크 상태에 기초하여 상기 영상을 변환하는 것을 특징으로 하는, 단말기.
According to claim 12,
Characterized in that the control unit converts the image based on the network state, the terminal.
삭제delete 제 12 항에 있어서,
상기 제어부는 상기 카메라의 성능이 기 설정된 수준 이상인 경우, 상기 네트워크 상태에 기초하여 상기 영상 데이터를 제 1 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기.
According to claim 12,
The terminal, characterized in that, when the performance of the camera is equal to or higher than a predetermined level, the control unit converts the video data into a first quality image based on the network condition and transmits the image data to the cloud AR platform.
제 16 항에 있어서,
상기 제어부는 상기 카메라의 성능이 상기 기 설정된 수준 이하인 경우, 상기 영상 데이터를 제 2 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기.
17. The method of claim 16,
The terminal, characterized in that, when the performance of the camera is equal to or less than the predetermined level, the control unit converts the image data into a second quality and transmits the converted image data to the cloud AR platform.
삭제delete 클라우드 서버를 포함하는 클라우드 AR 플랫폼의 영상 시스템에 있어서,
상기 클라우드 서버에 포함된 안드로이드 컨테이너를 통하여 AR 애플리케이션을 실행하는 단계;
상기 클라우드 서버에 포함된 컨테이너 매니저를 통하여 상기 AR 애플리케이션에 기초하여 인디코딩 컨테이너를 실행하고, 상기 인디코딩 컨테이너를 관리하는 단계;
단말기로부터 네트워크 상태 및 영상 데이터를 수신하는 단계; 및
상기 수신한 네트워크 상태에 기초하여 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하는 단계를 포함하되, 상기 딥러닝 모듈은 해상도 증가 및 색 복원 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 방법.
In the video system of the cloud AR platform including the cloud server,
Executing an AR application through an Android container included in the cloud server;
Executing an indie coding container based on the AR application through a container manager included in the cloud server and managing the indie coding container;
Receiving network status and image data from a terminal; and
Restoring the image data using a deep-learning module based on the received network state, characterized in that the deep-learning module performs a function of increasing resolution and restoring color. AR platform video transmission and reception method.
KR1020210078308A 2021-06-16 2021-06-16 Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform KR102537163B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210078308A KR102537163B1 (en) 2021-06-16 2021-06-16 Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210078308A KR102537163B1 (en) 2021-06-16 2021-06-16 Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform

Publications (2)

Publication Number Publication Date
KR20220168502A KR20220168502A (en) 2022-12-23
KR102537163B1 true KR102537163B1 (en) 2023-05-26

Family

ID=84536268

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210078308A KR102537163B1 (en) 2021-06-16 2021-06-16 Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform

Country Status (1)

Country Link
KR (1) KR102537163B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102197615B1 (en) * 2019-08-12 2020-12-31 주식회사 엘지유플러스 Method of providing augmented reality service and server for the providing augmented reality service

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102072731B1 (en) * 2012-12-18 2020-02-04 삼성전자주식회사 Photographing apparatus, method for controlling the same, and computer-readable storage medium
KR102190483B1 (en) * 2018-04-24 2020-12-11 주식회사 지디에프랩 System for compressing and restoring picture based on AI
KR102319172B1 (en) * 2019-11-29 2021-10-29 주식회사 데브스택 Platform providing system based on cloud computing and platform provision method using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102197615B1 (en) * 2019-08-12 2020-12-31 주식회사 엘지유플러스 Method of providing augmented reality service and server for the providing augmented reality service

Also Published As

Publication number Publication date
KR20220168502A (en) 2022-12-23

Similar Documents

Publication Publication Date Title
US8422553B2 (en) Information processing device and method
CN104813666A (en) Decoding device and decoding method, and coding device and coding method
CN109819272B (en) Video sending method, video sending device, computer readable storage medium and electronic equipment
KR102106103B1 (en) Method and Apparatus for Extracting Video from High Resolution Video
JPWO2007058294A1 (en) Encoding apparatus and method, decoding apparatus and method, and transmission system
US10893276B2 (en) Image encoding device and method
JP2007506305A (en) Adaptive management of video storage resources
JP2008523738A (en) Media player having high resolution image frame buffer and low resolution image frame buffer
US20020057898A1 (en) Method and apparatus for trick play of bitstream data
CN103493481A (en) Adaptive bit rate control based on scenes
US20220007028A1 (en) Method and device for signaling information on chroma format
US20110310965A1 (en) Communication device, communication method, and communication program product
CN104333762A (en) Video decoding method
CN101170685B (en) Network video transmission method
WO2017183479A1 (en) Encoding device and encoding method, and decoding device and decoding method
CN106454186A (en) Multi-channel video recording and platform interaction method and device based on Android system
KR20120132444A (en) Method and apparatus for controlling data rate in wireless communication system
CN111263192A (en) Video processing method and related equipment
JP5870458B2 (en) Bitstream syntax for graphics-mode compression in wireless HD 1.1
KR102537163B1 (en) Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform
US20080267284A1 (en) Moving picture compression apparatus and method of controlling operation of same
CN113747191A (en) Video live broadcast method, system, equipment and storage medium based on unmanned aerial vehicle
JP4731600B2 (en) Server apparatus and content transmission method in content transmission system
CN107786873A (en) The recorded broadcast method and system of automatic video frequency transcoding package form based on transcoding queue
KR102114509B1 (en) Receiving device, transmission device, and image transmission method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant