KR102537163B1 - Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform - Google Patents
Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform Download PDFInfo
- Publication number
- KR102537163B1 KR102537163B1 KR1020210078308A KR20210078308A KR102537163B1 KR 102537163 B1 KR102537163 B1 KR 102537163B1 KR 1020210078308 A KR1020210078308 A KR 1020210078308A KR 20210078308 A KR20210078308 A KR 20210078308A KR 102537163 B1 KR102537163 B1 KR 102537163B1
- Authority
- KR
- South Korea
- Prior art keywords
- cloud
- image data
- container
- platform
- terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 16
- 230000003190 augmentative effect Effects 0.000 title description 4
- 230000005540 biological transmission Effects 0.000 claims abstract description 27
- 238000013135 deep learning Methods 0.000 claims description 56
- 238000006243 chemical reaction Methods 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 25
- 238000013136 deep learning model Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 4
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 3
- 241000086550 Dinosauria Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/24—Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
- H04N21/2402—Monitoring of the downstream path of the transmission network, e.g. bandwidth available
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/222—Secondary servers, e.g. proxy server, cable television Head-end
- H04N21/2223—Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4621—Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8166—Monomedia components thereof involving executable data, e.g. software
- H04N21/8173—End-user applications, e.g. Web browser, game
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명은 네트워크 상태 및 영상 데이터를 전송하는 단말기; 및 클라우드 서버를 포함하는 클라우드 AR 플랫폼을 포함하고, 상기 클라우드 서버는 상기 네트워크 상태 및 상기 영상 데이터를 수신하고, 상기 수신한 네트워크 상태에 기초하여 상기 영상 데이터를 복원하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템을 제공한다. The present invention provides a terminal for transmitting network status and image data; and a cloud AR platform including a cloud server, wherein the cloud server receives the network state and the image data, and restores the image data based on the received network state. Provides an image transmission and reception system of
Description
본 발명은 클라우드 AR 플랫폼의 영상 송수신 시스템 및 그 방법에 관한 것으로, 보다 구체적으로 본 발명은 단말기, 클라우드 서버 및 클라우드 서버를 포함하는 클라우드 AR 플랫폼의 영상 송수신 시스템 및 그 방법이 제공된다. The present invention relates to a system for transmitting and receiving a video of a cloud AR platform and a method thereof, and more particularly, the present invention provides a system and method for transmitting and receiving a video of a cloud AR platform including a terminal, a cloud server, and a cloud server.
증강현실(augmented reality, 이하, AR)은 가상현실(VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 마치 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법으로, 최근에는 이와 같은 증강현실 기법을 적용한 AR 플랫폼(platform)들을 적용한 다양한 디바이스들이 개발되고 있다. 다만, 디바이스의 GPU(graphics processing unit)의 성능 차이로 인하여 저사양 디바이스에서는 AR플랫폼을 이용할 수 없다는 문제가 있었다. Augmented reality (AR) is a field of virtual reality (VR) and is a computer graphics technique that synthesizes virtual objects or information in a real environment to make them look like objects in the original environment. Recently, various devices to which AR platforms to which such an augmented reality technique is applied are being developed. However, there was a problem that the AR platform could not be used in low-end devices due to the difference in performance of the GPU (graphics processing unit) of the device.
이러한 AR플랫폼이 디바이스의 하드웨어적인 사양에 관계 없이 소비자에게 실시간으로 제공되기 위하여, AR 플랫폼은 고정된 서버가 아닌 클라우드 서버에 기반하여 제공될 수 있다. 이에 따라, 사용자의 입장에서는 고사양의 디바이스가 없더라도 클라우드 서비스를 이용하여 AR 플랫폼을 손쉽게 즐길 수 있게 된다. In order to provide this AR platform to consumers in real time regardless of hardware specifications of the device, the AR platform may be provided based on a cloud server rather than a fixed server. Accordingly, from the user's point of view, even if they do not have a high-end device, they can easily enjoy the AR platform using the cloud service.
그러나, 클라우드 서버를 통하여 AR 플랫폼이 제공하게 되는 AR영상들은 증강현실을 구현하기 위하여 상당히 큰 용량으로 제공되기 때문에 단말기에서 클라우드 AR 플랫폼을 이용하기 위하여는 원활한 네트워크 상태를 요구하게 된다. However, since the AR images provided by the AR platform through the cloud server are provided in a fairly large capacity to implement augmented reality, a smooth network condition is required to use the cloud AR platform in the terminal.
이때, 네트워크 상태가 좋지 못하다면 단말기에서는 대용량의 AR 영상을 송수신할 때 지연시간이 필연적으로 생기게 되며 클라우드 AR 플랫폼을 이용하는데 어려움이 있게 된다. At this time, if the network condition is not good, delay time inevitably occurs when transmitting and receiving large-capacity AR images in the terminal, and it is difficult to use the cloud AR platform.
본 발명은 클라우드 AR 플랫폼의 영상 송수신 시스템 및 그 방법에 관한 것으로, 영상 입력 디바이스(예를 들어, 모바일 단말기)에서 서버로 영상을 전송할 때 네트워크의 의존도 또는 부하를 줄이는 것을 목적으로 한다. The present invention relates to a video transmission/reception system and method of a cloud AR platform, and an object of the present invention is to reduce network dependence or load when video is transmitted from a video input device (eg, mobile terminal) to a server.
또한, 본 발명은 클라우드 AR 플랫폼에서 영상을 송수신할 때, 지연시간(latency)의 최적화를 제공하는 것을 목적으로 한다. In addition, an object of the present invention is to provide optimization of latency when transmitting and receiving images on a cloud AR platform.
본 발명의 일측면에 따르면, 네트워크 상태 및 영상 데이터를 전송하는 단말기; 및 클라우드 서버를 포함하는 클라우드 AR 플랫폼을 포함하고, 상기 클라우드 서버는 상기 네트워크 상태 및 상기 영상 데이터를 수신하고, 상기 수신한 네트워크 상태에 기초하여 상기 영상 데이터를 복원하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템을 제공한다. According to one aspect of the present invention, a terminal for transmitting network status and image data; and a cloud AR platform including a cloud server, wherein the cloud server receives the network state and the image data, and restores the image data based on the received network state. Provides an image transmission and reception system of
또한, 상기 클라우드 서버는 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행하는 것을 특징으로 한다. In addition, the cloud server restores the image data using a deep-learning module, and the deep-learning module is characterized in that it performs at least one function of increasing resolution or restoring color.
또한, 상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 한다. In addition, the deep learning module may set the reconstructed image data as input data and set the image data before restoration as target data to learn a deep learning model.
또한, 상기 클라우드 AR 플랫폼은 세션 서버를 더 포함하고, 상기 클라우드 AR 플랫폼은 상기 세션 서버를 통해 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 서버로 전송하는 것을 특징으로 한다. In addition, the cloud AR platform further includes a session server, and the cloud AR platform transmits the network state and the image data to the cloud server through the session server.
또한, 상기 클라우드 AR 플랫폼의 영상 송수신 시스템은 셋톱박스(STB)를 더 포함하고, 상기 클라우드 AR 플랫폼은 상기 복원된 영상 데이터를 상기 셋톱박스로 전송하는 것을 특징으로 한다. In addition, the video transmission/reception system of the cloud AR platform further includes a set-top box (STB), and the cloud AR platform transmits the restored video data to the set-top box.
또한, 상기 셋톱박스는 상기 수신한 영상 데이터를 디코딩하고, 디코딩된 영상 데이터를 디스플레이 장치로 재생하는 것을 특징으로 한다. Also, the set-top box is characterized in that it decodes the received video data and reproduces the decoded video data on a display device.
본 발명의 일측면에 따르면, AR 애플리케이션을 실행하는 안드로이드 컨테이너; 적어도 하나의 인디코딩 컨테이너; 및 상기 안드로이드 컨테이너 및 상기 인디코딩 컨테이너를 관리하는 컨테이너 매니저를 포함하고, 상기 인디코딩 컨테이너는 영상 데이터를 디코딩하고, 상기 디코딩된 영상 데이터를 복원하고, 상기 복원된 영상 데이터와 상기 AR 애플리케이션으로부터 수신한 AR 콘텐츠를 합성하고, 상기 합성된 영상을 인코딩하는 것을 특징으로 하는, 클라우드 서버를 제공한다. According to one aspect of the present invention, an Android container running an AR application; at least one incoding container; and a container manager that manages the Android container and the incoding container, wherein the incoding container decodes video data, restores the decoded video data, and stores the restored video data and the data received from the AR application. A cloud server is provided that synthesizes AR content and encodes the synthesized video.
또한, 상기 인디코딩 컨테이너는 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행하는 것을 특징으로 한다. In addition, the incoding container restores the image data using a deep-learning module, and the deep-learning module is characterized in that it performs at least one function of increasing resolution or restoring color.
또한, 상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 한다. In addition, the deep learning module may set the reconstructed image data as input data and set the image data before restoration as target data to learn a deep learning model.
또한, 상기 컨테이너 매니저는 상기 AR 애플리케이션에 기초하여 기 설정된 딥러닝 모듈을 포함하는 제 1 인디코딩 컨테이너를 실행하는 것을 특징으로 한다. In addition, the container manager is characterized in that it executes a first indy-coding container including a preset deep learning module based on the AR application.
또한, 상기 영상 데이터는 상기 클라우드 서버와 상이한 서버로부터 수신된 것을 특징으로 한다. Also, the image data is characterized in that it is received from a server different from the cloud server.
본 발명의 일측면에 따르면, 영상을 획득하는 카메라; 통신부; 및 네트워크 체크 모듈 및 영상 변환 모듈을 포함하는 제어부를 포함하고, 상기 제어부는 상기 네트워크 체크 모듈을 통해 상기 통신부로부터 수신된 네트워크 상태를 확인하고, 상기 영상 변환 모듈을 통해 상기 획득된 영상을 변환하고, 상기 확인된 네트워크 상태 및 상기 변환된 영상에 대응하는 영상 데이터를 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기를 제공한다. According to one aspect of the present invention, a camera for obtaining an image; communications department; and a control unit including a network check module and an image conversion module, wherein the control unit checks a network state received from the communication unit through the network check module, converts the acquired image through the image conversion module, It provides a terminal, characterized in that for transmitting image data corresponding to the confirmed network state and the converted image to a cloud AR platform.
또한, 상기 제어부는 상기 클라우드 AR 플랫폼에서 제공하는 서비스가 시작됨에 따라 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, the control unit may transmit the network status and the video data to the cloud AR platform as a service provided by the cloud AR platform starts.
또한, 상기 제어부는 상기 네트워크 상태에 기초하여 상기 영상을 변환하는 것을 특징으로 한다. In addition, the control unit is characterized in that the image is converted based on the network state.
또한, 상기 제어부는 상기 카메라의 성능 정보를 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, the control unit is characterized in that it transmits the performance information of the camera to the cloud AR platform.
또한, 상기 제어부는 상기 카메라의 성능이 기 설정된 수준 이상인 경우, 상기 네트워크 상태에 기초하여 상기 영상 데이터를 제 1 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, when the performance of the camera is equal to or higher than a predetermined level, the control unit converts the image data into a first image quality based on the network condition and transmits the converted image data to the cloud AR platform.
또한, 상기 제어부는 상기 카메라의 성능이 상기 기 설정된 수준 이하인 경우, 상기 영상 데이터를 제 2 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, when the performance of the camera is lower than the predetermined level, the control unit converts the image data into a second quality and transmits the image data to the cloud AR platform.
또한, 상기 제어부는 상기 카메라의 성능이 상기 기 설정된 수준 이하인 경우, 상기 제 2 화질로 변환된 영상 데이터를 회색조(grayscale)로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 한다. In addition, when the performance of the camera is equal to or less than the predetermined level, the control unit converts the image data converted to the second quality into grayscale and transmits the converted image data to the cloud AR platform.
본 발명의 일측면에 따르면, 단말기로부터 네트워크 상태 및 영상 데이터를 수신하는 단계; 및 상기 수신한 네트워크 상태에 기초하여 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하는 단계를 포함하되, 상기 딥러닝 모듈은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 방법을 제공한다. According to one aspect of the present invention, receiving network status and image data from a terminal; and restoring the image data using a deep-learning module based on the received network state, wherein the deep-learning module performs at least one function of increasing resolution or restoring color. Characteristically, it provides a method for transmitting and receiving images of a cloud AR platform.
본 발명의 일 실시예에 따르면, 낮은 네트워크 품질에서도 클라우드 AR 플랫폼을 이용할 수 있다는 장점이 있다. According to an embodiment of the present invention, there is an advantage that the cloud AR platform can be used even with low network quality.
또한, 본 발명의 일 실시예에 따르면, 클라우드 AR 플랫폼의 지연시간을 개선시켜 서비스 사용성을 증가시킬 수 있다. In addition, according to an embodiment of the present invention, service usability can be increased by improving the latency of the cloud AR platform.
또한, 본 발명의 일 실시예에 따르면, 초-해상도(super resolution) 기법이 서버에서 처리되기 때문에 단말기의 카메라 또는 GPU 성능에 영향받지 않는다는 장점이 있다. In addition, according to an embodiment of the present invention, since the super resolution technique is processed in the server, there is an advantage that the performance of the camera or GPU of the terminal is not affected.
도 1은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템의 구성을 설명하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템을 설명하는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 단말기의 구성을 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 세션 서버의 구성을 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 클라우드 서버의 구성을 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 클라우드 서버를 설명하는 순서도이다.
도 7은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 방법을 설명하는 순서도이다. 1 is a diagram explaining the configuration of a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.
2 is a flowchart illustrating a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.
3 is a diagram for explaining the configuration of a terminal according to an embodiment of the present invention.
4 is a diagram illustrating the configuration of a session server according to an embodiment of the present invention.
5 is a diagram illustrating a configuration of a cloud server according to an embodiment of the present invention.
6 is a flowchart illustrating a cloud server according to an embodiment of the present invention.
7 is a flowchart illustrating a video transmission/reception method of a cloud AR platform according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves.
또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be.
반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
현재 단말기에서 획득된 카메라 영상을 스트리밍 하기 위해서는 다음의 비트 전송률이 필요하다. The following bit rate is required to stream the camera image obtained from the current terminal.
즉, 1080p(30fps) 기준 6Mbps의 대역폭이 필요하기 때문에 단말기의 네트워크 상황이 좋지 못하면 원활한 클라우드 AR 플랫폼을 이용할 수 없는 문제가 생긴다. 이에 따라, 네트워크 상황이 좋지 못하면 단말기에서 대용량의 AR 영상을 송수신할 때 지연시간이 생기기 때문에 클라우드 AR 플랫폼의 서비스 제공에 어려움이 있게 된다. In other words, because a bandwidth of 6 Mbps is required for 1080p (30 fps), if the network condition of the terminal is not good, a smooth cloud AR platform cannot be used. Accordingly, if the network conditions are not good, delay time occurs when transmitting and receiving large-capacity AR images in the terminal, which makes it difficult to provide services of the cloud AR platform.
본 발명을 위와 같은 문제를 해결하기 위한 것으로 이하 도 1 내지 도 7를 통하여 본 발명을 자세히 설명하도록 한다. The present invention is to solve the above problems, and the present invention will be described in detail with reference to FIGS. 1 to 7 below.
도 1은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템의 구성을 설명하는 도면이다. 1 is a diagram explaining the configuration of a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템(100)은 단말기(110), 클라우드 AR 플랫폼(120) 및 셋톱박스(130, 이하, STB)를 포함할 수 있다. 도 1에 도시된 구성요소들은 클라우드 AR 플랫폼의 영상 송수신 시스템(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 시스템은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 1 , a video transmission/
여기에서, 단말기(110)는 영상 전송 애플리케이션(111), 통신부(112) 및 카메라(113)를 포함할 수 있다. 본 발명의 일 실시예에 따른, 단말기(110)는 네트워크 상태 및 영상 데이터를 전송할 수 있다. Here, the
이를 위하여, 영상 전송 애플리케이션(111)은 네트워크 체크 모듈(111a) 및 영상 변환 모듈(111b)을 포함할 수 있다. 이때, 영상 전송 애플리케이션(111)은 도면에 도시되지는 않았으나 단말기(110)의 제어부에 의해 제어될 수 있다. To this end, the
네트워크 체크 모듈(111a)은 통신부(112)로부터 수신된 네트워크 상태를 확인할 수 있다. 이때, 네트워크 체크 모듈(111a)은 기 설정된 시간 간격으로 네트워크 상태를 확인할 수 있다. 또한, 본 발명의 일 실시예에서, 네트워크 체크 모듈(111a)은 단말기(110)의 네트워크 상태를 확인하여 영상 변환 모듈(111b)로 전송할 수 있다. The network check module 111a may check the network status received from the
영상 변환 모듈(111b)은 카메라(113)를 통해 획득된 영상을 변환할 수 있다. 이를 위하여, 영상 변환 모듈(111b)는 카메라(113)를 통해 획득된 영상을 수신할 수 있다. 이때, 영상 변환 모듈(111b)은 네트워크 상태에 기초하여 획득된 영상을 변환할 수 있다. 예를 들어, 카메라(113)의 성능이 기 설정된 수준 이상인 경우, 네트워크 상태에 기초하여 영상 데이터를 제 1 화질로 변환할 수 있다. 반면, 카메라(113)의 성능이 기 설정된 수준 이하인 경우, 영상 데이터를 제 2 화질로 변환할 수 있다. 이때, 제 1 화질은 제 2 화질보다 좋은 화질에 대응할 수 있다. 또한, 본 발명의 일 실시예에서, 영상 변환 모듈(111b)은 카메라(113)의 성능이 기 설정된 수준 이하인 경우, 제 2 화질로 변환된 영상 데이터를 회색조(grayscale)로 변환할 수 있다. The image conversion module 111b may convert an image acquired through the
통신부(112)는 확인된 네트워크 상태 및 변환된 영상에 대응하는 영상 데이터를 외부로 전송할 수 있다. 통신부(112)는 단말기(110)의 네트워크 상태를 확인하여 해당 정보를 네트워크 체크 모듈(111a)로 전송할 수 있다. The
카메라(113)는 영상을 획득할 수 있다. 본 발명의 일 실시예에서, 단말기(110)는 클라우드 AR 플랫폼(120)에서 제공하는 서비스가 시작됨에 따라 네트워크 상태 및 영상 데이터를 클라우드 AR 플랫폼(120)에 전송할 수 있다. The
이에 대하여는, 도 3에서 더욱 자세히 설명하도록 한다. This will be described in more detail in FIG. 3 .
또한, 클라우드 AR 플랫폼(120)는 세션 서버(121) 및 클라우드 서버(122)를 포함할 수 있다. In addition, the
여기에서, 세션 서버(121)는 네트워크 상태 확인 모듈(121a), 영상 입력 모듈(121b)을 포함할 수 있다. 본 발명의 일 실시예에서, 클라우드 AR 플랫폼(120)은 세션 서버(121)를 통해 단말기(110)로부터 네트워크 상태 및 영상 데이터를 수신할 수 있고, 수신한 네트워크 상태 및 영상 데이터를 클라우드 서버(122)로 전송할 수 있다. Here, the
또한, 클라우드 서버(122)는 인디코딩 컨테이너(1221), 안드로이드 컨테이너(1222) 및 컨테이너 매니저(1223)를 포함할 수 있다. 본 발명의 일 실시예에서, 클라우드 서버(122)는 단말기(110)로부터 네트워크 상태 및 영상 데이터를 수신할 수 있다. 이때, 클라우드 서버(122)는 단말기(110)로부터 직접 네트워크 상태 및 영상 데이터를 수신하지 않고, 세션 서버(121)를 통하여 네트워크 상태 및 영상 데이터를 전달받을 수 있다. 또한, 클라우드 서버(122)는 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. In addition, the
인디코딩 컨테이너(1221)는 인코딩 모듈(1221a), 딥러닝 모듈(1221b) 및 디코딩 모듈(1221c)을 포함할 수 있다. 또한, 도 1에서는 인디코딩 컨테이너(1221)가 하나만 도시되어 있으나 클라우드 서버(122)는 복수개의 인디코딩 컨테이너를 포함할 수 있음은 물론이다. The
인코딩 모듈(1221a)은 복원된 영상 데이터와 AR 애플리케이션(1222a)으로부터 수신한 AR 콘텐츠를 합성할 수 있다. 또한, 인코딩 모듈(1221a)은 합성된 영상을 인코딩할 수 있다. The
본 발명의 일 실시예에서, 클라우드 서버(122)는 딥러닝 모듈(1221b)을 이용하여 영상 데이터를 복원할 수 있다. 이때, 딥러닝 모듈(1221b)은 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행할 수 있다. In one embodiment of the present invention, the
또한, 딥러닝 모듈(1221b)은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. In addition, the deep learning module 1221b may learn a deep learning model by setting restored image data as input data and setting image data before restoration as target data.
디코딩 모듈(1221c)은 영상 데이터를 디코딩할 수 있다. The
안드로이드 컨테이너(122)는 AR 애플리케이션(1222a) 및 안드로이드 프레임워크(Android Framework, 1222b)를 포함할 수 있다. 본 발명의 일 실시예에서, 안드로이드 컨테이너(1222)는 AR 애플리케이션(1222a)을 실행할 수 있다. The
컨테이너 매니저(1223)는 인디코딩 컨테이너(1221) 및 안드로이드 컨테이너(1222)를 관리할 수 있다. 본 발명의 일 실시예에서, 컨테이너 매니저(1223)는 AR 애플리케이션(1222a)에 기초하여 기 설정된 딥러닝 모듈(1221b)을 포함하는 인디코딩 컨테이너(1221)를 실행할 수 있다. 상술한 바와 같이, 클라우드 서버(122)는 복수개의 인디코딩 컨테이너(1221)를 포함할 수 있다. 이 경우, 컨테이너 매니저(1223)는 AR 애플리케이션(1222a)에 기초하여 적절한 딥러닝 모듈(1221b)을 포함하는 인디코딩 컨테이너(1221)를 실행할 수 있다. The
이에 대하여는 도 4 및 도 5를 통해 더욱 자세히 설명하도록 한다. This will be described in more detail with reference to FIGS. 4 and 5 .
또한, STB(130)는 플레이어 애플리케이션(131) 및 디코딩 모듈(132)을 포함할 수 있다. 본 발명의 일 실시예에서, 클라우드 AR 플랫폼(120)은 복원된 영상 데이터를 STB(130)로 전송할 수 있다. In addition, the
STB(130)는 수신한 영상 데이터를 디코딩 모듈(132)을 통하여 디코딩할 수 있다. 또한, STB(130)는 디코딩된 영상 데이터를 플레이어 애플리케이션(131)을 통해 디스플레이 장치로 재생할 수 있다. The
도 2는 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 시스템을 설명하는 순서도이다. 2 is a flowchart illustrating a video transmission/reception system of a cloud AR platform according to an embodiment of the present invention.
도 2를 참조하면, 단계(S210)에서, 단말기는 세션 서버에게 단말기의 네트워크 상태 및 영상 데이터를 전송할 수 있다. 이때, 단말기는 단말기와 클라우드 AR 플랫폼이 연결됨에 따라 클라우드 AR 플랫폼의 세션 서버에게 네트워크 상태 및 영상 데이터를 전송할 수 있다. 예를 들어, 단말기는 클라우드 AR 플랫폼에서 제공하는 서비스가 시작됨에 따라 클라우드 AR 플랫폼의 세션 서버에게 네트워크 상태 및 영상 데이터를 전송할 수 있다. 또한, 영상 데이터는 단말기의 네트워크 상태에 기초하여 변환된 데이터에 대응할 수 있다. 또한, 단말기 내부에서는 단말기의 통신부(네트워크 송수신부)를 통해 네트워크 상태를 확인하고, 확인된 네트워크 상태를 네트워크 체크 모듈로 전송할 수 있다. 또한, 단말기의 카메라는 영상을 획득하고, 획득된 영상을 영상 변환 모듈로 전송할 수 있다. 이에 따라, 단말기는 네트워크 체크 모듈을 통해 네트워크 상태를 세션 서버의 네트워크 상태 확인 모듈로 전송하고, 영상 변환 모듈을 통해 영상 데이터를 세션 서버의 영상 입력 모듈로 전송할 수 있다. Referring to FIG. 2 , in step S210, the terminal may transmit network status and image data of the terminal to the session server. At this time, the terminal may transmit network status and video data to the session server of the cloud AR platform as the terminal and the cloud AR platform are connected. For example, as a service provided by the cloud AR platform starts, the terminal may transmit network status and image data to the session server of the cloud AR platform. Also, the image data may correspond to data converted based on the terminal's network state. In addition, inside the terminal, the network status may be checked through the communication unit (network transmission/reception unit) of the terminal, and the checked network status may be transmitted to the network check module. In addition, the camera of the terminal may obtain an image and transmit the acquired image to the image conversion module. Accordingly, the terminal may transmit the network status to the network status checking module of the session server through the network check module, and transmit video data to the video input module of the session server through the video conversion module.
단계(S220)에서, 세션 서버는 단말기로부터 수신한 네트워크 상태 및 영상 데이터를 클라우드 서버에게 전송할 수 있다. 보다 상세하게는, 세션 서버는 네트워크 상태 확인 모듈을 통해 단말기로부터 수신한 네트워크 상태를 클라우드 서버의 디코딩 모듈에게 전송하고, 영상 입력 모듈을 통해 단말기로부터 수신한 영상 데이터를 클라우드 서버의 디코딩 모듈에게 전송할 수 있다. In step S220, the session server may transmit the network status and image data received from the terminal to the cloud server. More specifically, the session server may transmit the network status received from the terminal through the network status check module to the decoding module of the cloud server, and transmit the video data received from the terminal through the video input module to the decoding module of the cloud server. there is.
단계(S230)에서, 클라우드 서버는 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. 이때, 클라우드 서버는 딥러닝 모듈을 이용하여 영상 데이터를 복원할 수 있다. 딥러닝 모듈은 영상 데이터의 복원을 위해 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행할 수 있다. 또한, 딥러닝 모듈은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. 또한, 도면에 도시되지는 않았으나, 단계(S230)에 앞서 클라우드 서버 내부에서는, 컨테이너 매니저는 AR 서비스에 맞는 딥러닝 모듈을 탑재한 인디코딩 컨테이너를 실행할 수 있다. 이에 대하여는 도 6에서 한번 더 설명하도록 한다. In step S230, the cloud server may restore image data based on the received network state. At this time, the cloud server may restore image data using a deep learning module. The deep learning module may perform at least one function of increasing resolution or restoring color to restore image data. In addition, the deep learning module may learn a deep learning model by setting reconstructed image data as input data and setting unreconstructed image data as target data. In addition, although not shown in the figure, inside the cloud server prior to step S230, the container manager may execute an indy coding container equipped with a deep learning module suitable for AR service. This will be described once more in FIG. 6 .
단계(S240)에서, 클라우드 서버는 인코딩된 AR 합성 영상을 STB의 디코딩 모듈에게 전송할 수 있다. 이후, STB의 디코딩 모듈은 수신한 AR 합성 영상을 디코딩하고, 디코딩된 영상 데이터를 디스플레이 장치로 재생할 수 있다. 예를 들어, 셋톱박스는 수신한 AR 합성 영상을 TV로 재생할 수 있다. In step S240, the cloud server may transmit the encoded AR synthesized video to the decoding module of the STB. Thereafter, the decoding module of the STB may decode the received AR synthesized video and reproduce the decoded video data on the display device. For example, the set-top box can play the received AR synthesized video on a TV.
도 3은 본 발명의 일 실시예에 따른 단말기의 구성을 설명하는 도면이다. 3 is a diagram for explaining the configuration of a terminal according to an embodiment of the present invention.
도 3을 참조하면, 단말기(300)는 영상 전송 애플리케이션(310), 통신부(320) 및 카메라(330)를 포함할 수 있다. 또한, 도 3에 도시된 구성요소들은 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 3 , a terminal 300 may include a
영상 전송 애플리케이션(310)은 네트워크 체크 모듈(311) 및 영상 변환 모듈(312)을 포함할 수 있다. 또한, 영상 전송 애플리케이션(310)은 단말기(300)의 제어부에 의해 제어될 수 있다. The
네트워크 체크 모듈(311)은 통신부(320)를 통해 수신된 네트워크 상태를 확인할 수 있다. 네트워크 체크 모듈(311)은 수신한 네트워크 상태에 대한 정보를 영상 변환 모듈(312)로 전달할 수 있다. 또한, 네트워크 체크 모듈(311)은 네트워크 상태에 대한 정보를 세션 서버의 네트워크 상태 확인 모듈로 전송할 수 있다. The
영상 변환 모듈(312)은 카메라(330)를 통해 획득된 영상을 변환할 수 있다. 이때, 영상 변환 모듈(312)은 획득된 영상의 해상도를 변환하고 색 변환을 수행할 수 있다. 특히, 영상 변환 모듈(312)은 확인된 네트워크 상태에 기초하여 획득된 영상을 변환할 수 있다. 이때, 영상 변환 모듈(312)은 네트워크 체크 모듈(311)로부터 수신한 네트워크 상태 정보를 기반으로 변환할 해상도를 결정할 수 있다. 예를 들어, 영상 변환 모듈(312)은 네트워크 상태가 “상”일 경우, 영상을 1080p로 변환할 수 있고, 네트워크 상태가 “중”일 경우, 영상을 720p로 변환할 수 있고, 네트워크 상태가 “하”일 경우, 영상을 480p로 변환할 수 있다. 또한, 영상 변환 모듈(312)은 RGB 형식의 영상을 회색조 형식의 영상으로 변환할 수 있다. 480p 및 30fps의 회색조 영상은 네트워크 대역폭을 2Mbps를 사용하고, 1080p 및 30fps의 RGB 영상은 네트워크 대역폭을 6Mbps를 사용하기 때문에, 회색조 영상이 RGB 영상 대비 1/9의 네트워크 대역폭을 점유하게 된다. (회색조 영상 데이터는 1채널 데이터만 필요하나, RGB 영상 데이터의 경우 3채널의 데이터가 필요하기 때문이다.) 이에 따라, 회색조 영상으로 변환하여 클라우드 AR 플랫폼에 영상 데이터를 전송하는 경우, 네트워크 사용을 최적화할 수 있다. 또한, 영상 변환 모듈(312)은 변환된 영상 데이터를 세션 서버의 영상 입력 모듈로 전송할 수 있다. The
통신부(320)는 단말기(300)와 무선 통신 시스템 사이, 단말기(300)와 다른 단말기 또는 단말기(300)와 외부 서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(320)는 단말기(300)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 이를 위하여, 통신부(320)는 방송 수신 모듈, 이동 통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 중 적어도 하나를 포함할 수 있으나 이는 일반적인 단말기(300)의 통신부(320)가 포함할 수 있는 모듈로써 이러한 설명은 생략하도록 한다. 본 발명의 일 실시예에서, 통신부(320)는 단말기(300)의 네트워크 상태를 송수신하며, 네트워크 체크 모듈(311)에게 네트워크 상태를 보고할 수 있다. 이때, 통신부(320)는 네트워크의 상태를 상/중/하로 구분할 수 있다. 물론, 이는 예시일 뿐으로 통신부(320)는 설계에 따라서 더욱 세분화가 가능하다. 또한, 통신부(320)는 클라우드 AR 플랫폼의 서비스를 사용중인 경우에는 주기적으로 네트워크 상태를 확인할 수 있다. 단말기(300)는 통신부(320)로부터 수신한 네트워크 상태를 네트워크 체크 모듈(311)로 전달할 수 있다. 이후, 통신부(320)는 제어부의 제어에 따라 네트워크 상태 및 변환된 영상 데이터를 클라우드 AR 플랫폼에 전송할 수 있다. 또한, 통신부(320)는 카메라(330)의 성능(spec) 정보를 클라우드 AR 플랫폼에 전송할 수 있다. The
카메라(330)는 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 본 발명의 일 실시예에서, 카메라는 영상을 획득할 수 있다. 여기에서, 영상은 정지영상(image) 또는 동영상(video)을 포함하는 것으로 어느 하나에 국한되지 않음은 물론이다. 또한, 처리된 화상 프레임은 디스플레이(미도시)에 표시되거나 메모리(미도시)에 저장될 수 있다. 즉, 본 발명의 일 실시예에서, 획득된 영상은 메모리에 저장되어 있는 영상을 포함할 수 있다. 본 발명의 일 실시예에서, 단말기(300)는 카메라(330)의 성능이 기 설정된 수준 이상일 경우, 네트워크 상태에 기초하여 단말기(300)에서 전송되는 영상 데이터의 화질을 1080p/720p/480p 중 1개로 선택하여 15fps로 클라우드 AR 플랫폼 서버에 전송할 수 있다. 반면, 단말기(300)는 카메라(330)의 성능이 기 설정된 수준 이하인 경우, 영상 데이터의 화질을 480p 및 15fps로 고정하여 클라우드 AR 플랫폼 서버에 전송할 수 있다. 뿐만 아니라, 단말기(300)는 영상 데이터의 화질을 회색조(grayscale)로 전송할 수 있다. 이 경우, 기존 RGB 영상 대비 네트워크 대역폭을 1/3 감소시킬 수 있는 효과가 있다. 이후, 클라우드 AR 플랫폼 서버에서는 기 학습된 딥러닝 모델(예를 들어, SRGAN 모델)을 활용하여 수신된 회색조 영상 데이터를 RGB 색을 포함한 1080p 및 30fps로 복원 후에 단말기(300)로 재전송할 수 있다. 이에 대하여는, 이하의 도면에서 자세히 설명하도록 한다. The
이에 따라, 단말기(300)는 단말기(300)의 네트워크 상태를 주기적으로 확인하여 네트워크 품질이 낮은 상황에서는 저-해상도 영상을 전송할 수 있고, 네트워크 품질이 높은 상황에서는 고-해상도 영상을 전송할 수 있다. Accordingly, the terminal 300 periodically checks the network state of the terminal 300 to transmit a low-resolution video in a situation where the network quality is low, and transmit a high-resolution video in a situation where the network quality is high.
도 4는 본 발명의 일 실시예에 따른 세션 서버의 구성을 설명하는 도면이다. 4 is a diagram illustrating the configuration of a session server according to an embodiment of the present invention.
도 4를 참조하면, 세션 서버(400)는 네트워크 상태 확인 모듈(410) 및 영상 입력 모듈(420)을 포함할 수 있다. Referring to FIG. 4 , the
네트워크 상태 확인 모듈(410)은 단말기의 네트워크 체크 모듈로부터 단말기의 네트워크 상태에 대한 정보(데이터)를 수신할 수 있다. 이후, 네트워크 상태 확인 모듈(410)은 수신한 네트워크 상태에 대한 정보를 클라우드 서버의 디코딩 모듈로 전송할 수 있다. The network
영상 입력 모듈(420)은 단말기의 영상 변환 모듈로부터 단말기로부터 변환된 영상 데이터를 수신할 수 있다. 이후, 영상 입력 모듈(420)은 변환된 영상 데이터를 클라우드 서버의 디코딩 모듈로 전송할 수 있다. The
즉, 세션 서버(400)는 단말기로부터 수신한 영상과 네트워크 상태에 대한 정보를 클라우드 서버로 전달하는 역할을 한다. That is, the
도 5는 본 발명의 일 실시예에 따른 클라우드 서버의 구성을 설명하는 도면이다. 5 is a diagram illustrating a configuration of a cloud server according to an embodiment of the present invention.
도 5를 참조하면, 클라우드 서버(500)는 인디코딩 컨테이너(510), 안드로이드 컨테이너(520) 및 컨테이너 매니저(530)를 포함할 수 있다. Referring to FIG. 5 , the
인디코딩 컨테이너(510)는 인코딩 모듈(511), 딥러닝 모듈(512) 및 디코딩 모듈(513)을 포함할 수 있다. The
인코딩 모듈(511)은 AR 콘텐츠와 영상 데이터를 인코딩할 수 있다. 보다 상세하게는, 인코딩 모듈(511)은 AR 애플리케이션(521)으로부터 수신한 AR 콘텐츠와 합성된 영상 데이터를 인코딩할 수 있다. 또한, 인코딩 모듈(511)은 인코딩된 AR 콘텐츠와 합성된 영상 데이터를 STB의 플레이어 애플리케이션의 디코딩 모듈로 전송할 수 있다. The
딥러닝 모듈(512)은 디코딩된 영상 데이터를 딥러닝을 통하여 해상도를 높이고 색을 복원할 수 있다. 보다 상세하게는, 딥러닝 모듈(512)은 세션 서버로부터 전달받은 저해상도의 영상 데이터를 딥러닝 모델(예를 들어, SRGAN)을 활용하여 실시간으로 고해상도 영상 데이터로 복원할 수 있다. 예를 들어, 딥러닝 모듈(512)은 전송받은 네트워크 상태 정보를 기반으로 SRGAN 모델을 활용하여 전송받은 영상 데이터를 1080p 및 30fps RGB 영상 데이터로 복원할 수 있다. 또한, 딥러닝 모듈(512)은 AR 애플리케이션(521)마다 다르게 학습된 딥러닝 모델을 사용할 수 있다. 예를 들어, A 서비스의 경우, 집 안에서 부모가 아이들을 카메라를 통해 촬영하고, AR 컨텐츠(공룡, 동물 등)와 합성하여 보여주는 시나리오가 존재하는 경우, 딥러닝 모델은 학습 할 때 집 내부에 사람이 있는 사진 데이터 세트를 학습 데이터로 사용할 수 있다. 또한, 딥러닝 모듈(512)은 회색조로 변환된 영상 데이터의 RGB 색상을 복원할 수 있다. 즉, 딥러닝 모듈(512)을 통하여 저해상도의 회색조 영상 데이터를 고해상도의 RGB 영상 데이터로 복원할 수 있다. 본 발명의 일 실시예에서, 복원된 영상 데이터는 클라우드 서버에서 동작하고 있는 AR 애플리케이션(521)으로 전송될 수 있다. 또한, 딥러닝 모듈(512)은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. The
디코딩 모듈(513)은 세션 서버로부터 수신한 영상 데이터를 디코딩할 수 있다. 이때, 디코딩 모듈(513)은 디코딩된 영상 데이터를 네트워크 상태 정보와 함께 딥러닝 모듈(512)로 전송할 수 있다. The
안드로이드 컨테이너(520)는 AR 애플리케이션(521) 및 안드로이드 프레임워크(Android Framework, 522)를 포함할 수 있다. 즉, 안드로이드 컨테이너(520)는 AR 애플리케이션(521)을 구동할 수 있다. The
AR 애플리케이션(521)은 AR 콘텐츠와 수신한 영상 데이터를 합성하여 인코딩 모듈(511)로 전송할 수 있다. The
컨테이너 매니저(530)는 각 컨테이너의 실행 또는 중지 등을 관리하는 매니저에 대응할 수 있다. 본 발명의 일 실시예에서, 컨테이너 매니저(530)는 안드로이드 컨테이너(520)에서 실행되고 있는 AR 애플리케이션의 서비스에 기초하여 기 학습된 딥러닝 모델을 탑재한 인디코딩 컨테이너를 실행할 수 있다. 예를 들어, 컨테이너 매니저(530)는 A 서비스에 최적화된 A1 딥러닝 모듈을 포함하는 A’ 인디코딩 컨테이너를 실행하고, B 서비스에 최적화된 B1 딥러닝 모듈을 포함하는 B’ 인디코딩 컨테이너를 실행할 수 있다. 또한, A1 딥러닝 모듈 및 B1 딥러닝 모듈에서 사용하는 딥러닝 모델은 해당 서비스의 시나리오에 최적화되도록 미리 시나리오를 학습할 수 있다. The
또한, 초해상도 변환을 위하여는 다양한 딥러닝 모델이 적용될 수 있다. 즉, 해상도 변환을 위하여 상술한 예시인 SRGAN 외에도 다양한 다른 딥러닝 모델이 사용될 수 있다. 예를 들어, SRCNN, VDSR, EDSR 및 MDSR 등의 다양한 딥러닝 모델이 사용될 수 있다. 다양한 딥러닝 모델을 사용하는 이유는 학습 데이터에 따라서 그 성능에 유의미한 차이를 보이기 때문이다. 이에 따라, 본 발명의 일 실시예에서는, 안드로이드 컨테이너(520)에서 구동되는 AR 애플리케이션의 서비스 시나리오에 최적화된 딥러닝 모델을 사용하여 딥러닝의 성능을 높일 수 있다. 예를 들어, 특정 AR 애플리케이션의 경우, 부모가 아이를 비추면 공룡, 동물 등의 AR 컨텐츠와 합성하여 보여주는 시나리오가 존재한다. 이 경우, 딥러닝 모델은 실내에 사람이 있는 카테고리의 이미지 데이터 세트를 학습 데이터로 구성하여 학습할 수 있다. 또한, 딥러닝 모듈은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. 보다 상세하게는, 딥러닝 모듈은 선택한 카테고리의 데이터 세트의 원본 영상 데이터를 목표 데이터로, 해상도를 낮추고 회색조로 변환한 영상 데이터를 입력 데이터로 설정하여 학습 데이터 세트를 구성하여 딥러닝 모델을 학습시킬 수 있다. 또한, 다른 실시예로, 딥러닝 모듈은 써드 파티에서 제공하는 카테고리별 동영상 데이터 세트를 활용하여 학습할 수 있다. (참고: https://research.google.com/youtube8m)In addition, various deep learning models may be applied for super-resolution conversion. That is, various other deep learning models may be used for resolution conversion in addition to SRGAN as an example described above. For example, various deep learning models such as SRCNN, VDSR, EDSR, and MDSR may be used. The reason why various deep learning models are used is that their performance varies significantly depending on the training data. Accordingly, in one embodiment of the present invention, the performance of deep learning may be improved by using a deep learning model optimized for a service scenario of an AR application running in the
또한, 상술한 SRGAN 모델에 대하여 간단히 알아보면 다음과 같다. In addition, the above-described SRGAN model is briefly described as follows.
GAN 모델은 생성자(generator)와 구별자(discriminator)로 구성되어 있어, 생성자는 실제 입력 데이터와 최대한 비슷하게 데이터를 생성해내고, 구별자는 생성된 데이터와 실제의 샘플 데이터를 최대한 구분하려는 목표를 가지고 있다. 또한, 기존 GAN 모델은 MSE(mean squared error)를 loss function으로 설정하고 최적화를 진행하여 높은 PSNR(peak signal to noise ration)를 얻을 수 있었으나, 높은 주파수(high frequency) 성분을 갖는 질감(texture)을 잘 표현하지 못하는 문제가 있었다. The GAN model is composed of a generator and a discriminator. The generator generates data as similar as possible to the actual input data, and the discriminator aims to distinguish generated data from actual sample data as much as possible. . In addition, the existing GAN model was able to obtain a high peak signal to noise ration (PSNR) by setting the mean squared error (MSE) as the loss function and proceeding with optimization. There was a problem that I couldn't express well.
이를 극복하기 위하여 SRGAN 모델은 PSNR 대신 Perceptual loss function을 정의하여 학습을 진행하 된다. 즉, SRGAN 모델은 기존 GAN 모델보다 PSNR 값은 낮으나 높은 MOS(mean opinion score)를 기록하여 사람 기준에서 더 정교한 이미지를 만들어낼 수 있게 된다. To overcome this, the SRGAN model is trained by defining a perceptual loss function instead of PSNR. That is, the SRGAN model has a lower PSNR value than the existing GAN model, but records a high mean opinion score (MOS), so that a more sophisticated image can be created in human terms.
본 발명의 일 실시예는 이와 같은 SRGAN 모델을 딥러닝 모듈에 사용하여 클라우드 AR 플랫폼의 네트워크 의존도 및 지연시간을 최소화할 수 있다. An embodiment of the present invention can use such an SRGAN model in a deep learning module to minimize network dependence and latency of the cloud AR platform.
도 6은 본 발명의 일 실시예에 따른 클라우드 서버를 설명하는 순서도이다. 도 6은 클라우드 서버 내에서 컨테이너 매니저, 인코딩 컨테이너 및 안드로이드 컨테이너가 실시하는 다양한 실시예에 대해 보다 자세히 설명하도록 한다. 6 is a flowchart illustrating a cloud server according to an embodiment of the present invention. 6 describes in detail various embodiments implemented by a container manager, an encoding container, and an Android container in a cloud server.
도 6을 참조하면, 단계(S610)에서, 컨테이너 매니저는 AR 애플리케이션에 기초하여 제 1 딥러닝 모듈을 포함하는 제 1 인디코딩 컨테이너를 실행할 수 있다. 즉, 클라우드 서버는 적어도 하나의 인디코딩 컨테이너를 포함할 수 있고, 컨테이너 매니저는 합성하고자 하는 AR 컨텐츠를 고려하여 적절한 딥러닝 모듈을 포함하는 인디코딩 컨테이너를 실행할 수 있다. Referring to FIG. 6 , in step S610, the container manager may execute a first incoding container including a first deep learning module based on the AR application. That is, the cloud server may include at least one incoding container, and the container manager may execute an incoding container including an appropriate deep learning module in consideration of the AR content to be synthesized.
단계(S620)에서, 실행된 인디코딩 컨테이너는 수신한 영상 데이터를 디코딩할 수 있다. In step S620, the executed incoding container may decode the received image data.
단계(S630)에서, 인디코딩 컨테이너는 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. 이때, 인디코딩 컨테이너는 딥러닝 모듈을 이용하여 영상 데이터를 복원할 수 있다. 딥러닝 모듈은 영상 데이터의 복원을 위해 해상도 증가 또는 색 복원 중 적어도 하나의 기능을 수행할 수 있다. 또한, 딥러닝 모듈은 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습할 수 있다. 이에 대하여는, 상술한 바와 같다. In step S630, the incoding container may restore image data based on the received network state. At this time, the indycoding container may restore image data using a deep learning module. The deep learning module may perform at least one function of increasing resolution or restoring color to restore image data. In addition, the deep learning module may learn a deep learning model by setting reconstructed image data as input data and setting unreconstructed image data as target data. This is as described above.
단계(S640)에서, 인디코딩 컨테이너는 복원된 영상 데이터를 안드로이드 컨테이너로 전송할 수 있다. 예를 들어, 인디코딩 컨테이너는 1080p 및 30fps(고해상도)의 RGB 영상 데이터를 안드로이드 컨테이너의 AR 애플리케이션에게 전송할 수 있다. In step S640, the incoding container may transmit restored image data to the Android container. For example, the incoding container can transmit RGB image data of 1080p and 30 fps (high resolution) to the AR application of the Android container.
단계(S650)에서, 안드로이드 컨테이너는 복원된 영상 데이터와 AR 컨텐츠가 합성된 영상을 인디코딩 컨테이너에게 전송할 수 있다. 보다 상세하게는, 안드로이드 컨테이너의 AR 애플리케이션은 복원된 영상 데이터와 AR 컨텐츠가 합성된 영상을 인디코딩 컨테이너의 인코딩 모듈에게 전송할 수 있다. In step S650, the Android container may transmit an image obtained by synthesizing the restored image data and AR content to the incoding container. More specifically, the AR application of the Android container may transmit an image in which the restored image data and AR contents are synthesized to the encoding module of the incoding container.
단계(S660)에서, 인디코딩 컨테이너는 복원된 영상 데이터와 AR 컨텐츠를 인코딩할 수 있다. 인디코딩 컨테이너의 인코딩 모듈은 수신한 영상 데이터와 AR 컨텐츠를 인코딩할 수 있고, 이후 인코딩된 AR 합성 영상 데이터를 STB의 디코딩 모듈에게 전송할 수 있다. In step S660, the incoding container may encode the reconstructed video data and AR content. The encoding module of the incoding container may encode the received video data and AR content, and then transmit the encoded AR synthesized video data to the decoding module of the STB.
도 7은 본 발명의 일 실시예에 따른 클라우드 AR 플랫폼의 영상 송수신 방법을 설명하는 순서도이다. 7 is a flowchart illustrating a video transmission/reception method of a cloud AR platform according to an embodiment of the present invention.
도 7을 참조하면, 단계(S710)에서, 클라우드 AR 플랫폼은 단말기로부터 네트워크 상태 및 영상 데이터를 수신할 수 있다. 클라우드 AR 플랫폼은 단말기의 네트워크 체크 모듈로부터 네트워크 상태를 수신할 수 있고, 영상 변환 모듈로부터 저해상도 또는 회색조 중 적어도 하나로 변환된 영상 데이터를 수신할 수 있다. Referring to FIG. 7 , in step S710, the cloud AR platform may receive network status and image data from the terminal. The cloud AR platform may receive a network state from the network check module of the terminal, and image data converted to at least one of low resolution and grayscale from the image conversion module.
단계(S720)에서, 클라우드 AR 플랫폼은 수신한 네트워크 상태에 기초하여 영상 데이터를 복원할 수 있다. 이때, 클라우드 AR 플랫폼은 합성하고자 하는 AR 컨텐츠를 고려하여 적절한 딥러닝 모듈을 통해 영상 데이터를 복원할 수 있다. 딥러닝 모듈을 통해 영상을 복원하는 방법은 상술한 실시예와 같다. 이후, 클라우드 AR 플랫폼은 복원된 영상 데이터와 AR 컨텐츠를 합성하여 STB에게 전송할 수 있다. In step S720, the cloud AR platform may restore image data based on the received network state. At this time, the cloud AR platform may restore image data through an appropriate deep learning module in consideration of the AR content to be synthesized. A method of restoring an image through the deep learning module is the same as in the above-described embodiment. Thereafter, the cloud AR platform may synthesize the restored image data and AR contents and transmit the result to the STB.
또한, 상술한 도면을 통해 기술한 실시예들은 도 7과 같이 방법으로서 실시될 수 있음은 물론이다. In addition, it goes without saying that the embodiments described through the above drawings can be implemented as a method as shown in FIG. 7 .
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those implemented in the form of a carrier wave (eg, transmission over the Internet).
이상 본 발명의 실시예에 따른 단말기, 클라우드 서버, 클라우드 AR 플랫폼의 영상 송수신 시스템 및 방법을 구체적인 실시 형태로서 설명하였으나, 이는 예시에 불과한 것으로서 본 발명은 이에 한정되지 않는 것이며, 본 명세서에 개시된 기초 사상에 따르는 최광의 범위를 갖는 것으로 해석되어야 한다. 당업자는 개시된 실시 형태들을 조합, 치환하여 적시되지 않은 실시 형태를 실시할 수 있으나, 이 역시 본 발명의 권리범위를 벗어나지 않는 것이다. 이외에도 당업자는 본 명세서에 기초하여 개시된 실시형태를 용이하게 변경 또는 변형할 수 있으며, 이러한 변경 또는 변형도 본 발명의 권리범위에 속함은 명백하다.Although the video transmission/reception system and method of the terminal, cloud server, and cloud AR platform according to the embodiment of the present invention have been described as specific embodiments, this is only an example and the present invention is not limited thereto, and the basic idea disclosed herein should be construed as having the widest scope according to A person skilled in the art may implement an embodiment that is not indicated by combining or substituting the disclosed embodiments, but this also does not deviate from the scope of the present invention. In addition, those skilled in the art can easily change or modify the disclosed embodiments based on this specification, and it is clear that such changes or modifications also fall within the scope of the present invention.
100: 클라우드 AR 플랫폼의 영상 송수신 시스템
110: 단말기
120: 클라우드 AR 플랫폼
130: STB100: Video transmission and reception system of cloud AR platform
110: terminal
120: Cloud AR platform
130: STB
Claims (19)
클라우드 서버를 포함하는 클라우드 AR 플랫폼을 포함하고,
상기 클라우드 서버는
AR 애플리케이션을 실행하는 안드로이드 컨테이너;
적어도 하나의 인디코딩 컨테이너; 및
상기 안드로이드 컨테이너 및 상기 인디코딩 컨테이너를 관리하는 컨테이너 매니저를 포함하되,
상기 컨테이너 매니저는 상기 AR 애플리케이션에 기초하여 상기 인디코딩 컨테이너를 실행하고,
상기 단말기로부터 상기 네트워크 상태 및 상기 영상 데이터를 수신하고,
상기 인디코딩 컨테이너는
상기 수신한 네트워크 상태에 기초하여 상기 영상 데이터를 복원하되,
상기 클라우드 서버는 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 색 복원 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템. a terminal that transmits network status and image data; and
Including a cloud AR platform including a cloud server,
The cloud server
An Android container running an AR application;
at least one incoding container; and
Including a container manager that manages the Android container and the indie coding container,
The container manager executes the incoding container based on the AR application,
Receiving the network state and the image data from the terminal;
The indicoding container is
Restoring the image data based on the received network state;
The cloud server restores the image data using a deep-learning module, and the deep-learning module performs a color restoration function.
상기 딥러닝 모듈은 해상도 증가 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템. According to claim 1,
The deep learning module is a video transmission and reception system of a cloud AR platform, characterized in that it performs a resolution increase function.
상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템. According to claim 2,
The deep learning module sets the restored image data as input data and sets the image data before restoration as target data to learn a deep learning model.
상기 클라우드 AR 플랫폼은 세션 서버를 더 포함하고,
상기 클라우드 AR 플랫폼은 상기 세션 서버를 통해 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 서버로 전송하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템. According to claim 1,
The cloud AR platform further includes a session server,
The cloud AR platform, characterized in that for transmitting the network state and the image data to the cloud server through the session server, video transmission and reception system of the cloud AR platform.
상기 클라우드 AR 플랫폼의 영상 송수신 시스템은 셋톱박스(STB)를 더 포함하고,
상기 클라우드 AR 플랫폼은 상기 복원된 영상 데이터를 상기 셋톱박스로 전송하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템. According to claim 1,
The video transmission and reception system of the cloud AR platform further includes a set-top box (STB),
The cloud AR platform transmits and receives the image data of the cloud AR platform, characterized in that for transmitting the restored image data to the set-top box.
상기 셋톱박스는
상기 수신한 영상 데이터를 디코딩하고,
디코딩된 영상 데이터를 디스플레이 장치로 재생하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 시스템. According to claim 5,
The set top box
decoding the received video data;
A video transmission and reception system of a cloud AR platform, characterized in that the decoded video data is reproduced on a display device.
적어도 하나의 인디코딩 컨테이너; 및
상기 안드로이드 컨테이너 및 상기 인디코딩 컨테이너를 관리하는 컨테이너 매니저를 포함하고,
상기 컨테이너 매니저는
상기 AR 애플리케이션에 기초하여 상기 인디코딩 컨테이너를 실행하고,
상기 인디코딩 컨테이너는
영상 데이터를 디코딩하고,
상기 디코딩된 영상 데이터를 복원하되,
상기 인디코딩 컨테이너는 상기 인디코딩 컨테이너 내에 포함된 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하되, 상기 딥러닝 모듈은 색 복원 기능을 수행하고,
상기 복원된 영상 데이터와 상기 AR 애플리케이션으로부터 수신한 AR 콘텐츠를 합성하고,
상기 합성된 영상을 인코딩하는 것을 특징으로 하는, 클라우드 서버. An Android container running an AR application;
at least one incoding container; and
A container manager for managing the Android container and the indie coding container;
The container manager
Execute the incoding container based on the AR application;
The indicoding container is
decoding the video data;
Restoring the decoded video data;
The indie-coding container restores the image data using a deep-learning module included in the indi-coding container, and the deep-learning module performs a color restoration function;
synthesizing the restored image data and AR contents received from the AR application;
Characterized in that for encoding the synthesized video, the cloud server.
상기 딥러닝 모듈은 해상도 증가 기능을 수행하는 것을 특징으로 하는, 클라우드 서버. According to claim 7,
Characterized in that the deep learning module performs a resolution increase function, the cloud server.
상기 딥러닝 모듈은 상기 복원된 영상 데이터를 입력 데이터로 설정하고, 복원되기 전인 상기 영상 데이터를 목표 데이터로 설정하여 딥러닝 모델을 학습하는 것을 특징으로 하는, 클라우드 서버. According to claim 8,
The cloud server, characterized in that the deep learning module learns a deep learning model by setting the restored image data as input data and setting the image data before restoration as target data.
상기 컨테이너 매니저는 상기 AR 애플리케이션에 기초하여 기 설정된 딥러닝 모듈을 포함하는 제 1 인디코딩 컨테이너를 실행하는 것을 특징으로 하는, 클라우드 서버. According to claim 7,
Characterized in that, the container manager executes a first indy-coding container including a preset deep learning module based on the AR application.
상기 영상 데이터는 상기 클라우드 서버와 상이한 서버로부터 수신된 것을 특징으로 하는, 클라우드 서버. According to claim 7,
Characterized in that the image data is received from a server different from the cloud server, the cloud server.
통신부; 및
네트워크 체크 모듈 및 영상 변환 모듈을 포함하는 제어부를 포함하고,
상기 제어부는
상기 네트워크 체크 모듈을 통해 상기 통신부로부터 수신된 네트워크 상태를 확인하고,
상기 카메라의 성능 정보를 클라우드 AR 플랫폼에 전송하고,
상기 영상 변환 모듈을 통해 상기 획득된 영상을 변환하고,
상기 확인된 네트워크 상태 및 상기 변환된 영상에 대응하는 영상 데이터를 상기 클라우드 AR 플랫폼에 전송하되,
상기 카메라의 성능이 기 설정된 수준 이하인 경우, 상기 영상 데이터를 회색조(grayscale)로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기. a camera that acquires an image;
communications department; and
Including a control unit including a network check module and an image conversion module,
The control unit
Checking the network status received from the communication unit through the network check module;
Transmitting the performance information of the camera to the cloud AR platform,
Converting the acquired image through the image conversion module;
Transmitting image data corresponding to the confirmed network state and the converted image to the cloud AR platform,
Characterized in that, when the performance of the camera is below a predetermined level, the image data is converted to grayscale and transmitted to the cloud AR platform.
상기 제어부는 상기 클라우드 AR 플랫폼에서 제공하는 서비스가 시작됨에 따라 상기 네트워크 상태 및 상기 영상 데이터를 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기. According to claim 12,
The terminal, characterized in that the control unit transmits the network status and the image data to the cloud AR platform as the service provided by the cloud AR platform starts.
상기 제어부는 상기 네트워크 상태에 기초하여 상기 영상을 변환하는 것을 특징으로 하는, 단말기. According to claim 12,
Characterized in that the control unit converts the image based on the network state, the terminal.
상기 제어부는 상기 카메라의 성능이 기 설정된 수준 이상인 경우, 상기 네트워크 상태에 기초하여 상기 영상 데이터를 제 1 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기. According to claim 12,
The terminal, characterized in that, when the performance of the camera is equal to or higher than a predetermined level, the control unit converts the video data into a first quality image based on the network condition and transmits the image data to the cloud AR platform.
상기 제어부는 상기 카메라의 성능이 상기 기 설정된 수준 이하인 경우, 상기 영상 데이터를 제 2 화질로 변환하여 상기 클라우드 AR 플랫폼에 전송하는 것을 특징으로 하는, 단말기. 17. The method of claim 16,
The terminal, characterized in that, when the performance of the camera is equal to or less than the predetermined level, the control unit converts the image data into a second quality and transmits the converted image data to the cloud AR platform.
상기 클라우드 서버에 포함된 안드로이드 컨테이너를 통하여 AR 애플리케이션을 실행하는 단계;
상기 클라우드 서버에 포함된 컨테이너 매니저를 통하여 상기 AR 애플리케이션에 기초하여 인디코딩 컨테이너를 실행하고, 상기 인디코딩 컨테이너를 관리하는 단계;
단말기로부터 네트워크 상태 및 영상 데이터를 수신하는 단계; 및
상기 수신한 네트워크 상태에 기초하여 딥러닝(deep-learning) 모듈을 이용하여 상기 영상 데이터를 복원하는 단계를 포함하되, 상기 딥러닝 모듈은 해상도 증가 및 색 복원 기능을 수행하는 것을 특징으로 하는, 클라우드 AR 플랫폼의 영상 송수신 방법. In the video system of the cloud AR platform including the cloud server,
Executing an AR application through an Android container included in the cloud server;
Executing an indie coding container based on the AR application through a container manager included in the cloud server and managing the indie coding container;
Receiving network status and image data from a terminal; and
Restoring the image data using a deep-learning module based on the received network state, characterized in that the deep-learning module performs a function of increasing resolution and restoring color. AR platform video transmission and reception method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210078308A KR102537163B1 (en) | 2021-06-16 | 2021-06-16 | Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210078308A KR102537163B1 (en) | 2021-06-16 | 2021-06-16 | Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220168502A KR20220168502A (en) | 2022-12-23 |
KR102537163B1 true KR102537163B1 (en) | 2023-05-26 |
Family
ID=84536268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210078308A KR102537163B1 (en) | 2021-06-16 | 2021-06-16 | Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102537163B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102197615B1 (en) * | 2019-08-12 | 2020-12-31 | 주식회사 엘지유플러스 | Method of providing augmented reality service and server for the providing augmented reality service |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102072731B1 (en) * | 2012-12-18 | 2020-02-04 | 삼성전자주식회사 | Photographing apparatus, method for controlling the same, and computer-readable storage medium |
KR102190483B1 (en) * | 2018-04-24 | 2020-12-11 | 주식회사 지디에프랩 | System for compressing and restoring picture based on AI |
KR102319172B1 (en) * | 2019-11-29 | 2021-10-29 | 주식회사 데브스택 | Platform providing system based on cloud computing and platform provision method using the same |
-
2021
- 2021-06-16 KR KR1020210078308A patent/KR102537163B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102197615B1 (en) * | 2019-08-12 | 2020-12-31 | 주식회사 엘지유플러스 | Method of providing augmented reality service and server for the providing augmented reality service |
Also Published As
Publication number | Publication date |
---|---|
KR20220168502A (en) | 2022-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8422553B2 (en) | Information processing device and method | |
CN104813666A (en) | Decoding device and decoding method, and coding device and coding method | |
CN109819272B (en) | Video sending method, video sending device, computer readable storage medium and electronic equipment | |
KR102106103B1 (en) | Method and Apparatus for Extracting Video from High Resolution Video | |
JPWO2007058294A1 (en) | Encoding apparatus and method, decoding apparatus and method, and transmission system | |
US10893276B2 (en) | Image encoding device and method | |
JP2007506305A (en) | Adaptive management of video storage resources | |
JP2008523738A (en) | Media player having high resolution image frame buffer and low resolution image frame buffer | |
US20020057898A1 (en) | Method and apparatus for trick play of bitstream data | |
CN103493481A (en) | Adaptive bit rate control based on scenes | |
US20220007028A1 (en) | Method and device for signaling information on chroma format | |
US20110310965A1 (en) | Communication device, communication method, and communication program product | |
CN104333762A (en) | Video decoding method | |
CN101170685B (en) | Network video transmission method | |
WO2017183479A1 (en) | Encoding device and encoding method, and decoding device and decoding method | |
CN106454186A (en) | Multi-channel video recording and platform interaction method and device based on Android system | |
KR20120132444A (en) | Method and apparatus for controlling data rate in wireless communication system | |
CN111263192A (en) | Video processing method and related equipment | |
JP5870458B2 (en) | Bitstream syntax for graphics-mode compression in wireless HD 1.1 | |
KR102537163B1 (en) | Terminal, cloud server, system and method for transreceive video on cloud augmented reality platform | |
US20080267284A1 (en) | Moving picture compression apparatus and method of controlling operation of same | |
CN113747191A (en) | Video live broadcast method, system, equipment and storage medium based on unmanned aerial vehicle | |
JP4731600B2 (en) | Server apparatus and content transmission method in content transmission system | |
CN107786873A (en) | The recorded broadcast method and system of automatic video frequency transcoding package form based on transcoding queue | |
KR102114509B1 (en) | Receiving device, transmission device, and image transmission method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |