KR20220037617A - Method and apparatus for video processing using edge computing service - Google Patents
Method and apparatus for video processing using edge computing service Download PDFInfo
- Publication number
- KR20220037617A KR20220037617A KR1020200120308A KR20200120308A KR20220037617A KR 20220037617 A KR20220037617 A KR 20220037617A KR 1020200120308 A KR1020200120308 A KR 1020200120308A KR 20200120308 A KR20200120308 A KR 20200120308A KR 20220037617 A KR20220037617 A KR 20220037617A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- main
- downscaled
- sub
- images
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012545 processing Methods 0.000 title abstract description 5
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 24
- 238000004590 computer program Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
Description
다양한 실시예들은 엣지 컴퓨팅 서비스(예: MEC(multi-access edge computing) 서비스)를 이용한 동영상 처리 방법 및 장치에 관한 것이다.Various embodiments relate to a video processing method and apparatus using an edge computing service (eg, a multi-access edge computing (MEC) service).
최근, 엣지 서버(edge server)를 이용하여 데이터를 전송하는 엣지 컴퓨팅(edge computing) 기술이 논의되고 있다. 엣지 컴퓨팅 기술은, 예를 들어, MEC(Multi-access Edge Computing) 또는 포그 컴퓨팅(fog computing, FOC)을 포함할 수 있다. 엣지 컴퓨팅 기술은 전자 장치와 지리적으로 가까운 위치, 예를 들어, 기지국 내부 또는 기지국 근처에 설치된 별도의 서버(이하, ‘엣지 데이터 네트워크’ 또는 ‘MEC 서버’라 한다)를 통해 전자 장치로 데이터를 제공하는 기술을 의미할 수 있다. 예를 들어, 전자 장치에 설치된 적어도 하나의 애플리케이션 중 낮은 지연 시간(latency)을 요구하는 애플리케이션은 외부 데이터 네트워크(data network, DN)(예: 인터넷)에 위치한 서버를 통하지 않고, 지리적으로 가까운 위치에 설치된 엣지 서버를 통해 데이터를 송수신할 수 있다.Recently, an edge computing technology for transmitting data using an edge server is being discussed. Edge computing technology may include, for example, multi-access edge computing (MEC) or fog computing (FOC). Edge computing technology provides data to an electronic device through a location geographically close to the electronic device, for example, a separate server installed inside or near the base station (hereinafter referred to as 'edge data network' or 'MEC server') It can mean the skill to For example, an application requiring low latency among at least one application installed in the electronic device is located in a geographically close location without going through a server located in an external data network (DN) (eg, the Internet). Data can be sent and received through the installed edge server.
최근에는 엣지 컴퓨팅 기술을 이용한 서비스(이하, ‘MEC 기반 서비스’ 또는 ‘MEC 서비스’라 한다)에 관하여 논의되고 있으며, MEC 기반 서비스를 지원하도록 전자 장치에 관한 연구 및 개발이 진행되고 있다. 예를 들면, 전자 장치의 애플리케이션은 엣지 서버(또는 엣지 서버의 애플리케이션)와 애플리케이션 레이어(application layer) 상에서 엣지 컴퓨팅 기반 데이터를 송수신할 수 있다.Recently, services using edge computing technology (hereinafter referred to as 'MEC-based services' or 'MEC services') are being discussed, and research and development on electronic devices to support MEC-based services are in progress. For example, an application of the electronic device may transmit/receive edge computing-based data to and from an edge server (or an application of the edge server) on an application layer.
MEC 기반 서비스를 지원하기 위한 연구 및 개발이 진행됨에 따라, MEC를 이용하여 동영상을 전자 장치로 제공하기 위한 기술들이 논의 되고 있다.As research and development for supporting MEC-based services progress, technologies for providing moving images to electronic devices using MEC are being discussed.
다양한 실시예들은 엣지 컴퓨팅 서비스를 이용하여 ERP(Equirectangular projection) 동영상 내 프레임에 대응되는 이미지들을 변환하는 동영상 처리 방법 및 장치에 관한 것이다.Various embodiments relate to a video processing method and an apparatus for converting images corresponding to frames in an ERP (Equirectangular Projection) video using an edge computing service.
일 실시예에 따른 엣지 데이터 네트워크가 ERP(Equirectangular projection) 이미지를 변환하는 방법은, ERP 이미지를 획득하는 단계, 상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계, 상기 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하는 단계, 상기 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하는 단계, 상기 다운스케일링 된 복수의 메인 이미지들 및 상기 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성하는 단계를 포함할 수 있고, 상기 변환된 ERP 이미지는 기 설정된 크기의 사각형 모양을 가지는 것일 수 있다. A method for an edge data network to convert an ERP (Equirectangular projection) image according to an embodiment includes acquiring an ERP image, dividing the ERP image into a plurality of main images and a plurality of sub images, the plurality of downscaling a partial region of each of the main images of to generate a converted ERP image, the converted ERP image may have a rectangular shape of a preset size.
일 실시예에 따른 ERP 이미지를 변환하는 엣지 데이터 네트워크는, 네트워크 인터페이스, 하나 이상의 인스트럭션들을 저장하는 메모리, 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고, 상기 프로세서는, ERP 이미지를 획득하고, 상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하고, 상기 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하고, 상기 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하고, 상기 다운스케일링 된 복수의 메인 이미지들 및 상기 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성하되, 상기 변환된 ERP 이미지는 기 설정된 크기의 사각형 모양을 가지는 것일 수 있다.The edge data network for converting an ERP image according to an embodiment includes a network interface, a memory for storing one or more instructions, and a processor for executing the one or more instructions, wherein the processor acquires the ERP image, and the ERP dividing an image into a plurality of main images and a plurality of sub images, downscaling a partial area of each of the plurality of main images, downscaling an entire area of each of the plurality of sub images, and the downscaling A converted ERP image is generated by rearranging the plurality of main images and the plurality of downscaled sub-images, and the converted ERP image may have a rectangular shape of a preset size.
일 실시예에 따른 동영상 처리 방법 및 장치는, ERP 동영상을 획득하고, ERP 동영상 내 프레임에 대응되는 이미지 내 복수의 영역을 구분하고 영역별로 각각 다른 동영상 처리를 적용함으로써 이미지 크기를 줄여 전송 효율을 높이고, 이미지 내 구분된 복수의 영역 간 해상도 변화가 매끄러운 동영상을 사용자에게 제공할 수 있는 동영상 처리 방법 및 장치에 관한 것이다.A video processing method and apparatus according to an embodiment acquires an ERP video, classifies a plurality of areas in an image corresponding to a frame in the ERP video, and applies different video processing for each area to reduce image size to increase transmission efficiency , relates to a video processing method and apparatus capable of providing a user with a video having a smooth resolution change between a plurality of regions divided in an image.
도 1은 일 실시예에 따른 네트워크 환경에서 MEC(Multi-access Edge Computing) 기술을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 엣지 데이터 네트워크가 변환된 ERP 이미지를 생성하고, 전자 장치로 스트리밍하는 방법을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 엣지 데이터 네트워크가 변환된 ERP 이미지를 생성하는 방법을 도시한 흐름도이다.
도 4a 내지 도 4e는 도 3에서 설명한 일 실시예에 따른 엣지 데이터 네트워크가 변환된 ERP 이미지를 생성하는 방법을 더 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 엣지 데이터 네트워크가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하여 해상도가 감소되도록 하는 방법을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 엣지 데이터 네트워크가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하여 계단 모양으로 해상도가 감소되도록 하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 엣지 데이터 네트워크가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링 할 때, 소정 값 K가 변경되는 것을 설명하기 위한 도면이다.
도 8은 ERP 이미지 내에서 메인 영역을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 엣지 데이터 네트워크 엣지 데이터 네트워크와 연결된 전자 장치로부터 획득한 시선 정보에 기초하여 ERP 이미지 내에서 복수의 메인 이미지들을 구분하는 단계를 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 엣지 데이터 네트워크가 제1 메인 이미지 및 제2 메인 이미지의 해상도를 결정하는 방법을 설명하기 위한 도면이다.
도 11은 엣지 데이터 네트워크 및 전자 장치의 구성을 설명하기 위한 도면이다.
도 12는 도 11에 도시된 엣지 데이터 네트워크 및 전자 장치에 관한 것으로, 엣지 데이터 네트워크가 전자 장치로부터 센서 정보를 수신하고, 수신된 센서 정보에 기초하여 변환된 ERP 이미지를 생성하고, 전자 장치로 전송하는 동작들을 도시한 흐름도이다.1 is a diagram for explaining a multi-access edge computing (MEC) technology in a network environment according to an embodiment.
FIG. 2 is a diagram for explaining a method of generating a converted ERP image by an edge data network and streaming it to an electronic device according to an exemplary embodiment.
3 is a flowchart illustrating a method of generating a converted ERP image by an edge data network according to an embodiment.
4A to 4E are diagrams for further explaining a method of generating an ERP image converted by the edge data network according to the embodiment described with reference to FIG. 3 .
FIG. 5 is a diagram for explaining a method for an edge data network to reduce a resolution by downscaling a partial region of each of a plurality of main images, according to an embodiment.
FIG. 6 is a diagram for explaining a method for an edge data network to downscale a partial area of each of a plurality of main images to reduce a resolution in a step shape according to an exemplary embodiment;
7 is a diagram for explaining that a predetermined value K is changed when the edge data network downscales a partial region of each of a plurality of main images according to an embodiment.
8 is a diagram for explaining a main area within an ERP image.
9 is a diagram for explaining a step of classifying a plurality of main images in an ERP image based on gaze information obtained from an electronic device connected to an edge data network and an edge data network according to an embodiment.
FIG. 10 is a diagram for describing a method for an edge data network to determine resolutions of a first main image and a second main image according to an embodiment.
11 is a diagram for explaining the configuration of an edge data network and an electronic device.
FIG. 12 relates to the edge data network and the electronic device shown in FIG. 11 , wherein the edge data network receives sensor information from the electronic device, generates a converted ERP image based on the received sensor information, and transmits it to the electronic device It is a flowchart showing the operations to be performed.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명의 일 실시예에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and an embodiment of the present invention will be described in detail.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in this specification have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in this specification should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 일 실시예에 따른 네트워크 환경에서 MEC(Multi-access Edge Computing) 기술을 설명하기 위한 도면이다.1 is a diagram for explaining a multi-access edge computing (MEC) technology in a network environment according to an embodiment.
도 1을 참조하면, 본 개시의 네트워크 환경(100)은 전자 장치(1000), 엣지 데이터 네트워크(2000), 클라우드 서버(3000) 및 액세스 네트워크(access network, AN, 1100)를 포함할 수 있다. 다만, 네트워크 환경(100)이 포함하는 구성이 이에 제한되는 것은 아니다.Referring to FIG. 1 , the
일 실시예에 따르면, 네트워크 환경(100)에 포함되는 구성요소들 각각은 물리적인 객체(entity) 단위를 의미하거나, 개별적인 기능(function)을 수행할 수 있는 소프트웨어 또는 모듈 단위를 의미할 수 있다.According to an embodiment, each of the components included in the
일 실시예에 따르면, 전자 장치(1000)는 사용자에 의해 사용되는 장치를 의미할 수 있다. 예를 들면, 전자 장치(1000)는 단말(terminal), 사용자 단말(UE, user equipment), 이동국(mobile station), 가입자국(subscriber station), 원격 단말(remote terminal), 무선 단말(wireless terminal), 또는 사용자 장치(user device)를 의미할 수 있다.According to an embodiment, the
또한, 전자 장치(1000)는 가상 현실(Virtual Reality, VR), 증강 현실(Augmented Reality, AR), 또는 혼합 현실(Mixed Reality, MR) 중 적어도 하나를 포함하는 가상 환경에 사용자가 몰입(immersed) 하도록 하기 위한, 컨텐츠를 제공하는 단말일 수 있다. 즉, 일 실시예에 의하면, 전자 장치(1000)는 가상 현실, 증강 현실 또는 혼합 현실을 위한 컨텐츠를 제공하는 헤드 마운트 디스플레이(Head Mounted Display, HMD) 또는 가상 현실 헤드셋(Virtual Reality Headset, VRH)일 수 있다.In addition, the
도 1을 참조하면, 전자 장치(1000)는 제1 애플리케이션 클라이언트(또는, 애플리케이션 클라이언트)(122), 제2 애플리케이션 클라이언트(124) 및 엣지 인에이블러 클라이언트(edge enabler client)(또는, MEL(MEC enabling layer))(130)를 포함할 수 있다. 전자 장치(110)는 MEC 서비스의 사용을 위하여 엣지 인에이블러 클라이언트(130)를 이용하여 필요한 작업을 수행할 수 있다. 예를 들어, 엣지 인에이블러 클라이언트(130)를 이용하여 애플리케이션을 검색하고 요구되는 데이터를 애플리케이션에 공급할 수 있다.Referring to FIG. 1 , the
일 실시예에 따르면, 전자 장치(1000)는 복수의 애플리케이션들을 실행할 수 있다. 예를 들면, 전자 장치(1000)는 제1 애플리케이션 클라이언트(122) 및 제2 애플리케이션 클라이언트(124)를 실행할 수 있다. 복수의 애플리케이션들은 요구되는 데이터 전송 속도, 지연 시간(또는 속도)(latency), 신뢰성(reliability), 네트워크에 접속(access)된 전자 장치의 수, 전자 장치(110)의 네트워크 접속 주기, 또는 평균 데이터 사용량 중 적어도 하나에 기반하여 서로 다른 네트워크 서비스를 요구(require)할 수 있다. 서로 다른 네트워크 서비스는, 예를 들어, eMBB(enhanced mobile broadband), URLLC(ultra- reliable and low latency communication), 또는 mMTC(massive machine type communication)를 포함할 수 있다.According to an embodiment, the
전자 장치(1000)의 애플리케이션 클라이언트는 전자 장치(1000)에 미리 설치된 기본 애플리케이션 또는 제 3자가 제공하는 애플리케이션을 의미할 수 있다. 즉, 특정 응용 서비스를 위하여 전자 장치(1000) 내에서 구동되는 클라이언트(client) 응용 프로그램을 의미할 수 있다. 전자 장치(1000) 내에는 여러 애플리케이션 클라이언트들이 구동될 수 있다. 이 애플리케이션 클라이언트들 중 적어도 하나 이상은 엣지 데이터 네트워크(2000)로부터 제공되는 서비스를 사용할 수 있다. 예를 들면, 애플리케이션 클라이언트는 전자 장치(1000)에 설치되어 실행되는 애플리케이션으로서, 엣지 데이터 네트워크(2000)를 통해 데이터를 송수신하는 기능을 제공할 수 있다. 전자 장치(1000)의 애플리케이션 클라이언트는, 하나 이상의 특정 엣지 애플리케이션들에 의해 제공된 기능을 이용하기 위해, 전자 장치(1000) 상에서 실행되는 애플리케이션 소프트웨어를 의미할 수 있다.The application client of the
일 실시예에 따르면, 전자 장치(1000)의 복수의 애플리케이션들(122, 124)은 요구되는 네트워크 서비스 타입에 기반하여 클라우드 서버(3000)와 데이터 전송을 수행하거나, 또는 엣지 데이터 네트워크(2000)와 엣지 컴퓨팅에 기반한 데이터 전송을 수행할 수 있다. 예를 들어, 제1 애플리케이션 클라이언트(122)가 낮은 지연 시간을 요구하지 않으면, 제1 애플리케이션 클라이언트(122)는 클라우드 서버 (3000)와 데이터 전송을 수행할 수 있다. 다른 예를 들어, 제2 애플리케이션 클라이언트(124)가 낮은 지연 시간을 요구하면, 제2 애플리케이션 클라이언트(124)는 엣지 데이터 네트워크(2000)와 MEC 기반 데이터 전송을 수행할 수 있다.According to an embodiment, the plurality of
일 실시예에 따르면, 전자 장치(1000)의 애플리케이션은, 애플리케이션 클라이언트(application client), 클라이언트 애플리케이션(client application, Client App), UE 애플리케이션(UE App)으로 지칭될 수 있다. 설명의 편의를 위해, 이하에서는 전자 장치(1000)의 애플리케이션은 애플리케이션 클라이언트로 지칭하기로 한다.According to an embodiment, the application of the
일 실시예에 따르면, 엑세스 네트워크(1100)는 전자 장치(1000)와의 무선 통신을 위한 채널(channel)을 제공할 수 있다. 예를 들면, 엑세스 네트워크(1100)는 RAN(radio access network), 기지국(base station), 이노드비(eNB, eNodeB), 5G 노드(5G node), 송수신 포인트(TRP, transmission/reception point), 또는 5GNB(5th generation NodeB)를 의미할 수 있다.According to an embodiment, the
일 실시예에 따르면, 엣지 데이터 네트워크(2000)는 전자 장치(1000)가 MEC 서비스를 이용하기 위하여 접속하는 서버를 의미할 수 있다. 엣지 데이터 네트워크(2000)는 전자 장치와 지리적으로 가까운 위치, 예를 들어, 기지국 내부 또는 기지국 근처에 설치될 수 있다. According to an embodiment, the
일 실시예에 따르면, 엣지 데이터 네트워크(2000)는 외부 데이터 네트워크(data network, DN)(예: 인터넷)를 통하지 않고, 전자 장치(1000)와 데이터를 송수신할 수 있다. 일 실시 예에서, MEC는 multi-access edge computing 또는 mobile-edge computing로 지칭될 수 있다.According to an embodiment, the
일 실시예에 따르면, 엣지 데이터 네트워크(2000)는, MEC 호스트(host), 엣지 컴퓨팅 서버(edge computing server), 모바일 엣지 호스트(mobile edge host), 엣지 컴퓨팅 플랫폼(edge computing platform), MEC 서버 등으로 지칭될 수 있다. 편의를 위해, 이하에서는 MEC 서버는 엣지 데이터 네트워크(2000)로 지칭하기로 한다. According to an embodiment, the
도 1을 참조하면, 엣지 데이터 네트워크(2000)는, 제1 엣지 애플리케이션(edge application)(142), 제2 엣지 애플리케이션(144) 및 엣지 인에이블러 서버(또는, MEP(MEC platform))(146)를 포함할 수 있다. 엣지 인에이블러 서버(146)는 엣지 데이터 네트워크(2000)에서 MEC 서비스를 제공하거나 트래픽 제어 등을 수행하는 구성으로, 엣지 인에이블러 서버(146)는 애플리케이션에 관련된 정보(예를 들어, 애플리케이션의 유효성/활성화(availability/enablement))를 엣지 인에이블러 클라이언트(130)에 제공할 수 있다. Referring to FIG. 1 , the
일 실시예에 따르면, 엣지 데이터 네트워크(2000)는 복수의 애플리케이션들을 실행할 수 있다. 예를 들면, 엣지 데이터 네트워크(2000)는 제1 엣지 애플리케이션(142) 및 제2 엣지 애플리케이션(144)을 실행할 수 있다. 일 실시예에 따르면, 엣지 에플리케이션은 MEC 서비스를 제공하는 엣지 데이터 네트워크(2000) 내 제 3자가 제공하는 응용 애플리케이션을 의미할 수 있고, 엣지 애플리케이션으로 지칭될 수도 있다. 엣지 애플리케이션은 애플리케이션 클라이언트와 관련된 데이터를 송수신하기 위하여, 애플리케이션 클라이언트와 데이터 세션을 형성하는데 이용될 수 있다. 즉, 엣지 애플리케이션은 애플리케이션 클라이언트와 데이터 세션을 형성할 수 있다. According to an embodiment, the
일 실시예에 따르면, 데이터 세션은, 전자 장치(1000)의 애플리케이션 클라이언트와 엣지 데이터 네트워크(2000)의 엣지 애플리케이션이 데이터를 송수신하기 위하여 형성되는 통신 경로를 의미할 수 있다.According to an embodiment, the data session may refer to a communication path formed in order to transmit and receive data between the application client of the
일 실시예에 따르면, 엣지 데이터 네트워크(2000)의 애플리케이션은, MEC 애플리케이션(MEC App), 엣지 애플리케이션 서버(edge application server) 및 엣지 애플리케이션으로 지칭될 수 있다. 편의를 위해, 이하, 본 개시에서는 엣지 데이터 네트워크(2000)의 애플리케이션은 엣지 에플리케이션으로 지칭된다. 이때, 애플리케이션으로 기재되었으나, 엣지 애플리케이션은 엣지 데이터 네트워크에 존재하는 애플리케이션 서버를 의미할 수 있다.According to an embodiment, the application of the
일 실시예에 따르면, 클라우드 서버(3000)는 애플리케이션과 관련된 컨텐츠를 제공할 수 있다. 예를 들어, 클라우드 서버(3000)는 컨텐츠 사업자에 의하여 관리될 수 있다. 일 실시예에 따르면, 클라우드 서버(3000)는 외부 데이터 네트워크(data network, DN)(예: 인터넷)를 통해서, 전자 장치(1000)와 데이터를 송수신할 수 있다.According to an embodiment, the
도 1에는 도시되지 아니하였으나, 엑세스 네트워크(1100)와 엣지 데이터 네트워크(2000) 사이에 코어 네트워크(core network, CN) 및 데이터 네트워크(data network, DN)가 존재할 수 있다. Although not shown in FIG. 1 , a core network (CN) and a data network (DN) may exist between the
일 실시예에 따르면, 데이터 네트워크는 코어 네트워크 및 엑세스 네트워크(1100)를 통해, 전자 장치(1000)에게 데이터(또는 데이터 패킷)를 송수신함으로써 서비스(예: 인터넷 서비스, IMS(IP multimedia subsystem) 서비스)를 제공할 수 있다. 예를 들어, 데이터 네트워크는 통신 사업자에 의하여 관리될 수 있다. 일 실시 예에 있어서, 엣지 데이터 네트워크(2000)는 데이터 네트워크(예: 로컬(local) DN)를 통해 엑세스 네트워크(1100) 또는 코어 네트워크와 연결될 수 있다.According to an embodiment, the data network transmits and receives data (or data packets) to and from the
일 실시예에 따르면, 전자 장치(1000)에서 제1 애플리케이션 클라이언트(122) 또는 제2 애플리케이션 클라이언트(124)가 실행되는 경우, 전자 장치는 엑세스 네트워크(1100)를 통해 엣지 데이터 네트워크(2000)에 접속함으로써, 애플리케이션 클라이언트를 실행시키기 위한 데이터를 송수신할 수 있다.According to an embodiment, when the
개시된 실시예들에 따르면, 전술한 전자 장치(1000), 엣지 데이터 네트워크(2000) 및 클라우드 서버(3000) 사이의 동영상 처리 방법 및 스트리밍 방법이 제공될 수 있다. 보다 상세하게는, 엣지 데이터 네트워크(2000)가 전자 장치에서 재생될 동영상을 처리하는 방법 및 전자 장치(1000)에서 재생되는 동영상에 대한 사용자의 인터랙션 정보(예를 들어, 시선 정보, 모션 정보)에 기초하여, 가상 현실, 증강 현실 또는 혼합 현실을 위한 컨텐츠를 사용자에게 효과적으로 제공하기 위한 방법이 설명된다.According to the disclosed embodiments, a video processing method and a streaming method between the above-described
도 2는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 변환된 ERP 이미지를 생성하고, 전자 장치로 스트리밍하는 방법을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining a method in which the
도 2를 참조하면, 일 실시예에 따른 전자 장치(1000)는 센서부를 통해 센서 정보를 획득할 수 있다. 전자 장치(1000)가 획득하는 센서 정보로는 사용자의 위치와 관련된 위치 추적 정보, 사용자의 움직임에 관련된 모션 정보, 사용자의 시선에 관련된 시선 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 전자 장치(1000)는 센서부를 통해 획득한 센서 정보를 주기적으로 엣지 데이터 네트워크(2000)로 전송하거나, 센서 정보의 센싱값에 변화가 있는 경우에만 센서 정보를 비주기적으로 엣지 데이터 네트워크(2000)로 전송할 수 있다.Referring to FIG. 2 , the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 360 ° 구체(sphere) 동영상을 변환한 ERP 동영상(Equirectangular Projection Video)을 획득할 수 있다. 엣지 데이터 네트워크(2000)는 수신된 센서 정보를 기초로, 획득된 ERP 동영상의 복수의 프레임들에 대응되는 복수의 ERP 이미지들 각각에 대해서, 메인 이미지들 및 서브 이미지들을 결정하고, 각각의 이미지 별로 다운스케일링을 수행하여, 변환된 ERP 이미지를 생성할 수 있다. 이하에서는 설명의 편의를 위하여, 개시된 실시예들은 ERP 동영상 내 포함되는 복수의 프레임들에 대응되는 복수의 이미지 중 하나의 ERP 이미지를 예로 들어 설명하기로 한다. 또한, 개시된 실시예들에서, 변환된 ERP를 생성하는 방법은 전자 장치로부터 사용자의 양안으로 제공되는 이미지들 중 단안용 이미지(monocular image)를 기준으로 설명하기로 한다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 센서 정보를 기초로 ERP 이미지(210) 내에서 중요한 부분으로 판단되는 영역을 메인 영역으로 결정할 수 있다. 예를 들어, 센서 정보를 기초로 사용자의 시야에 포함되는 영역인 FOV(Field Of View) 영역을 메인 영역으로 결정할 수 있다. 또한, 엣지 데이터 네트워크(2000)는 메인 영역보다 중요도가 낮고, 메인 영역에 인접한 영역을 서브 영역으로 결정할 수 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 결정된 메인 영역으로부터 메인 영역의 상단(top) 영역에 대응되는 제1 메인 이미지(222), 메인 영역의 하단(bottom) 영역에 대응되는 제2 메인 이미지(224), 메인 영역의 좌측에 인접한 서브 영역에 대응되는 제1 서브 이미지(226) 및 메인 영역의 우측에 인접한 서브 영역에 대응되는 제2 서브 이미지(228)를 결정할 수 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 메인 이미지(222)의 일부 영역, 제2 메인 이미지(224)의 일부 영역, 제1 서브 이미지(226) 및 제2 서브 이미지(228)의 전체 영역의 해상도를 감소시키는 스케일링을 수행할 수 있다. 도 2를 참조하여 구체적으로 설명하면, 제1 메인 이미지(222)의 상단 영역 일부를 스케일링하여, 제1 일부 영역의 상단으로 갈수록 가로방향 해상도가 감소되도록 할 수 있다. 또한 제2 메인 이미지(224)의 하단 영역 일부를 스케일링하여, 제2 일부 영역의 하단으로 갈수록 가로방향 해상도가 감소되도록 할 수 있다. 또한 제1 서브 이미지(226) 및 제2 서브 이미지(228)의 전체 영역을 스케일링하여 해상도를 감소시킬 수 있다. The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 스케일링 된 제1 메인 이미지, 스케일링 된 제2 메인 이미지, 스케일링 된 제1 서브 이미지 및 제2 서브 이미지를 구성하는 픽셀들을 재배치하여 변환된 ERP 이미지(230)를 생성할 수 있다. 엣지 데이터 네트워크(2000)는 변환된 ERP 이미지(230)를 인코딩하여, 인코딩된 ERP 이미지 정보를 생성할 수 있고, 인코딩된 ERP 이미지 정보를 전자 장치(1000)로 전송할 수 있다.The
전자 장치(1000)는 인코딩된 ERP 이미지 정보를 디코딩하여 변환된 ERP 이미지를 획득하고, 변환된 ERP 이미지를 360 ° 구체 이미지로 렌더링한 후에, 사용자의 FOV 영역 내에 메인 이미지들이 디스플레이 되도록 할 수 있다. The
엣지 데이터 네트워크(2000)는 변환된 ERP 이미지를 생성함으로써, 렌더링에 필요한 이미지 사이즈를 줄이고, 메인 영역 내에 디스플레이되는 메인 이미지들은 각각 상단 또는 하단으로 갈수록 가로 해상도가 감소되도록 함으로써 사용자가 느끼는 해상도 저하를 감소시킬 수 있다.The
도 3은 일 실시예에 따른 엣지 데이터 네트워크(2000)가 변환된 ERP 이미지를 생성하는 방법을 도시한 흐름도이다. 3 is a flowchart illustrating a method of generating a converted ERP image by the
단계 S310에서, 엣지 데이터 네트워크(2000)는 ERP(Equirectangular projection) 이미지를 변환하기 위해, ERP 이미지를 획득할 수 있다. 일 실시예에 따른 엣지 데이터 네트워크(2000)는 클라우드 서버(3000) 또는 다른 외부 장치 등으로부터 ERP 이미지를 획득할 수 있다. 또한, 엣지 데이터 네트워크(2000)는 클라우드 서버(3000) 또는 다른 외부 장치 등으로부터 구체(sphere) 이미지를 획득하고, 획득된 구체 이미지를 변환하여 ERP 이미지를 획득할 수 있다.In step S310 , the
단계 S320에서, 엣지 데이터 네트워크(2000)는 획득된 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분할 수 있다. In step S320 , the
일 실시예에 따르면, 복수의 메인 이미지들은, 획득된 ERP 이미지의 메인 영역에 위치하는 이미지들일 수 있다. 또한, 복수의 서브 이미지들은 획득된 ERP 이미지의 메인 영역에 인접하는 서브 영역들을 가리키는 이미지들일 수 있다. According to an embodiment, the plurality of main images may be images located in the main area of the obtained ERP image. Also, the plurality of sub-images may be images indicating sub-regions adjacent to the main area of the obtained ERP image.
일 실시예에 따른 엣지 데이터 네트워크(2000)는 엣지 데이터 네트워크(2000)와 연결된 전자 장치(1000)로부터 사용자의 시선 위치와 관련된 시선 정보를 획득할 수 있다. 엣지 데이터 네트워크(2000)는 획득된 시선 정보에 기초하여, FOV 영역이 ERP 이미지의 메인 영역이 되도록 획득된 ERP 이미지를 변환할 할 수 있다. 또한, 엣지 데이터 네트워크(2000)는 획득된 시선 정보에 기초하여, FOV 영역이 ERP 이미지의 메인 영역이 되도록 획득된 구체 이미지를 ERP 이미지로 변환할 수 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)가 획득된 ERP 이미지 내에서 복수의 메인 이미지들 및 복수의 서브 이미지들을 구분하는 방법에 있어서, 엣지 데이터 네트워크(2000)는 획득된 ERP 이미지의 메인 영역을 상하로 인접하는 제1 메인 이미지, 제2 메인 이미지로 구분할 수 있으나, 이에 한정되는 것은 아니다. 또한, 엣지 데이터 네트워크(2000)는 획득된 ERP 이미지의 메인 영역의 좌측 서브 영역 및 우측 서브 영역에 각각 인접하는 서브 이미지들을 제1 서브 이미지, 제2 서브 이미지로 구분할 수 있으나, 이에 한정되는 것은 아니다.In the method for the
단계 S330에서, 엣지 데이터 네트워크(2000)는 복수의 메인 이미지들 각각에 대하여, 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하여 해상도를 감소시킬 수 있다.In operation S330 , the
예를 들어, 단계 S320에서 설명한 것과 같이, 엣지 데이터 네트워크(2000)는 메인 영역의 상단을 제1 메인 이미지, 메인 영역의 하단을 제2 메인 이미지로 구분할 수 있다. For example, as described in step S320 , the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 메인 이미지의 일부 영역인 상단 영역을 다운스케일링하여 제1 메인 이미지의 해상도를 감소시킬 수 있다. 엣지 데이터 네트워크(2000)는 제1 메인 이미지의 상단으로 향할수록 가로 방향 해상도가 더 감소되도록 다운스케일링 정도를 크게 하여, 상단으로 향할수록 제1 메인 이미지의 가로 해상도가 감소되도록 할 수 있다. 또한, 제1 메인 이미지의 일부 영역이 다운스케일링 된 모양은 사다리꼴일 수 있으나, 이에 한정되지 않으며, 다운스케일링 된 제1 메인 이미지의 일부 영역의 모양은 상단으로 향할수록 제1 메인 이미지의 일부 영역의 가로 해상도가 감소되는 폭을 더 크게 하여, 삼각형이 될 수도 있다. The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 제2 메인 이미지의 일부 영역인 하단 영역을 다운스케일링하여 제2 메인 이미지의 해상도를 감소시킬 수 있다. 엣지 데이터 네트워크(2000)는 제2 메인 이미지의 하단으로 향할수록 가로 방향 해상도를 더 감소되도록 다운스케일링 정도를 크게 하여, 하단으로 향할수록 제2 메인 이미지의 가로 해상도가 감소되도록 할 수 있다. 또한, 제2 메인 이미지의 일부 영역이 다운스케일링 된 모양은 사다리꼴일 수 있으나, 이에 한정되지 않으며, 다운스케일링 된 제2 메인 이미지의 일부 영역의 모양은 하단으로 향할수록 제2 메인 이미지의 일부 영역의 가로 해상도가 감소되는 폭을 더 크게 하여 삼각형이 될 수도 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 메인 영역에 위치하는 제1 메인 이미지의 일부 및 제2 메인 이미지의 일부의 해상도를 감소시킴으로써, 사용자의 시선이 위치하는 ERP 영상의 중앙에서 위 또는 아래로 향하는 경우에 사용자가 느끼는 화질 저하의 정도를 감소시킬 수 있다. 엣지 데이터 네트워크(2000)가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하는 구체적인 방법에 대해서는, 도 4b 및 도 4c에 대한 설명에서 상세하게 서술하기로 한다. The
단계 S340에서, 엣지 데이터 네트워크(2000)는 복수의 서브 이미지들 각각에 대하여, 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하여 해상도를 감소시킬 수 있다.In operation S340 , the
예를 들어, 단계 S320에서 설명한 것과 같이, 엣지 데이터 네트워크(2000)는 메인 이미지들의 좌측에 인접하는 서브이미지를 제1 서브 이미지, 메인 이미지들의 우측에 인접하는 서브이미지를 제2 서브 이미지로 구분할 수 있다.For example, as described in step S320, the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 서브 이미지의 전체 영역 및 제2 서브 이미지의 전체 영역을 각각 소정 비율로 다운스케일링하여 제1 서브 이미지 및 제2 서브 이미지의 해상도를 감소시킬 수 있다. 다운스케일링 된 제1 서브 이미지 및 제2 서브 이미지의 모양은, 사각형일 수 있다. 엣지 데이터 네트워크(2000)가 복수의 서브 이미지들 각각의 일부 영역을 다운스케일링하는 구체적인 방법에 대해서는, 도 4d에 대한 설명에서 상세하게 서술하기로 한다.The
단계 S350에서, 엣지 데이터 네트워크(2000)는 다운스케일링 된 복수의 메인 이미지들 및 다운스케일링된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성할 수 있다.In step S350 , the
예를 들어, 다운스케일링 된 제1 메인 이미지의 한 변과, 다운스케일링 된 제2 메인 이미지의 한 변이 서로 인접하도록 배치하고, 다운스케일링 된 제1 서브 이미지 및 다운스케일링 된 제2 서브 이미지 각각을 다운스케일링 된 제1 메인 이미지 및 다운스케일링 된 제2 메인 이미지 모두에 인접하도록 배치할 수 있다.For example, one side of the downscaled first main image and one side of the downscaled second main image are arranged to be adjacent to each other, and each of the downscaled first subimage and the downscaled second subimage is down It may be arranged to be adjacent to both the scaled first main image and the downscaled second main image.
이하, 엣지 데이터 네트워크(2000)가 다운스케일링 된 복수의 메인 이미지들 및 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성하는 방법은, 도 4a 내지 도 4c에 대한 설명을 참조하여 더 서술하기로 한다.Hereinafter, the method of generating a converted ERP image by rearranging the plurality of downscaled main images and the plurality of downscaled sub-images by the
도 4a 내지 도 4e는 도 3에서 설명한 일 실시예에 따른 엣지 데이터 네트워크(2000)가 변환된 ERP 이미지를 생성하는 방법을 더 설명하기 위한 도면이다.4A to 4E are diagrams for further explaining a method of generating a converted ERP image by the
도 4a는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 ERP 이미지(400)를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 것을 설명하기 위한 도면이다.4A is a diagram for explaining that the
도 4a를 참조하면, 엣지 데이터 네트워크(2000)는 획득한 ERP 이미지(400)를 메인 영역 및 메인 영역에 인접하는 서브 영역들로 구분할 수 있다. 이 경우, 메인 이미지들은 메인 영역(402)에 위치하는 이미지일 수 있다. 또한 서브이미지들은 메인 영역에 인접하는 서브 영역들(404, 406)에 위치하는 이미지들일 수 있다.Referring to FIG. 4A , the
엣지 데이터 네트워크(2000)는 획득한 ERP 이미지(400)를, 메인 영역(402)의 상단 영역을 제1 메인 이미지(410), 메인 영역(402)의 하단 영역을 제2 메인 이미지(412), 메인 영역(402)의 좌측 서브 영역(404)을 제1 서브 이미지(414), 메인 영역(402)의 우측 서브 영역(406)을 제2 서브 이미지(416)로 구분할 수 있다.The
도 4b는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하고, 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하는 방법을 설명하기 위한 도면이다.4B is a diagram for explaining a method of downscaling a partial area of each of a plurality of main images and downscaling an entire area of each of a plurality of sub images by the
도 4b를 참조하면, 엣지 데이터 네트워크(2000)는 제1 메인 이미지(410), 제2 메인 이미지(412), 제1 서브 이미지(414), 제2 서브 이미지(416)를 각각 다운스케일링 할 수 있다. 또한, 제1 메인 이미지(410)는 제1 메인 이미지의 일부 영역과 제1 메인 이미지의 나머지 영역으로 구성될 수 있고, 제2 메인 이미지(412)는 제2 메인 이미지의 일부 영역과 제2 메인 이미지의 나머지 영역으로 구성될 수 있다. 이하에서는 설명의 편의를 위하여, 제1 메인 이미지의 일부 영역은 제1 일부 영역(420), 제1 메인 이미지의 나머지 영역은 제1 나머지 영역(422), 제2 메인 이미지의 일부 영역은 제2 일부 영역(424), 제2 메인 이미지의 나머지 영역은 제2 나머지 영역(423)으로 지칭하기로 한다.Referring to FIG. 4B , the
제1 메인 이미지(410)는 제1 일부 영역(420)과 제1 나머지 영역(422)으로 구분될 수 있다. 일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 일부 영역(420)을 다운스케일링하여 해상도를 감소시킬 수 있다. 엣지 데이터 네트워크(2000)가 제1 일부 영역(420)을 다운스케일링 할 때, 엣지 데이터 네트워크(2000)는 제1 일부 영역(420)의 상단으로 향할수록 가로 방향 해상도가 더 감소되도록 다운스케일링 정도를 크게 함으로써, 다운스케일링 된 제1 일부 영역(421)을 생성할 수 있다. 즉, 다운스케일링 된 제1 메인 이미지는 다운스케일링 된 제1 일부 영역(421)과 제1 나머지 영역(422)으로 구성될 수 있다. 또한, 다운스케일링 된 제1 일부 영역(421)은 사다리꼴 모양일 수 있으나, 이에 한정되지 않는다.The first
또한, 제2 메인 이미지(412)는 제2 일부 영역(424)과 제2 나머지 영역(423)으로 구분될 수 있다. 일 실시예에 따른 엣지 데이터 네트워크(2000)는 제2 일부 영역(424)을 다운스케일링하여 해상도를 감소시킬 수 있다. 엣지 데이터 네트워크(2000)가 제2 일부 영역(424)을 다운스케일링 할 때, 엣지 데이터 네트워크(2000)는 제2 일부 영역(422)의 하단으로 향할수록 가로 방향 해상도가 더 감소되도록 다운스케일링 정도를 크게 함으로써, 다운스케일링 된 제2 일부 영역(425)을 생성할 수 있다. 즉, 다운스케일링 된 제2 메인 이미지는 다운스케일링 된 제2 일부 영역(425)과 제2 나머지 영역(423)으로 구성될 수 있다. 또한, 다운스케일링 된 제2 일부 영역(425)은 사다리꼴 모양일 수 있으나, 이에 한정되지 않는다.Also, the second
일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 서브 이미지(414) 및 제2 서브 이미지(416)의 전체 영역을 다운스케일링하여 해상도를 감소시킬 수 있다.The
도 4c는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 복수의 메인 이미지들 각각의 일부 영역을 다양한 비율로 스케일링하는 방법을 설명하기 위한 도면이다.FIG. 4C is a diagram for explaining a method of scaling, by the
도 4c를 참조하면, 엣지 데이터 네트워크(2000)는 제1 메인 이미지(410)의 일부 영역을 다운스케일링 할 때, 제1 메인 이미지(410)의 일부 영역을 다양한 비율로 다운스케일링 할 수 있다. Referring to FIG. 4C , when downscaling a partial region of the first
예를 들어, 도 4c의 430과 같이, 제1 메인 이미지(410)의 높이에 대한 제1 나머지 영역(422)의 높이의 비율과 제1 메인 이미지(410)의 폭에 대한 제1 일부 영역의 상단 폭에 대한 비율이 서로 동일하도록 제1 메인 이미지(410)를 다운스케일링 할 수 있다.For example, as shown in 430 of FIG. 4C , the ratio of the height of the first remaining
다른 예에서, 도 4c의 432와 같이, 제1 메인 이미지(410)의 높이에 대한 제1 나머지 영역(422)의 높이의 비율과 제1 메인 이미지(410)의 폭에 대한 제1 일부 영역의 상단 폭에 대한 비율이 각각 서로 다르게 되도록 제1 메인 이미지(410)를 다운스케일링 할 수 있다. In another example, as shown in 432 of FIG. 4C , the ratio of the height of the first remaining
엣지 데이터 네트워크(2000)는 제2 메인 이미지(412)의 일부 영역을 다운스케일링 할 때, 제2 메인 이미지(412)의 일부 영역 또한 다양한 비율로 다운스케일링 할 수 있다. 이 경우, 엣지 데이터 네트워크(2000)는 제2 메인 이미지(412)를 다운스케일링 할 때, 제1 메인 이미지(410)를 다운스케일링 한 비율과 동일한 비율로 다운스케일링 할 수 있다. 또한, 다운스케일링 된 제2 메인 이미지(412)의 모양은 다운스케일링 된 제1 메인 이미지(410)의 모양과 대각 방향으로 대칭될 수 있다. 엣지 데이터 네트워크(2000)가 제2 메인 이미지(412)를 다운스케일링 하는 방법은, 엣지 데이터 네트워크(2000)가 제1 메인 이미지(410)를 다운스케일링 하는 방법과 동일하므로, 설명을 생략하기로 한다.When the
도 4d는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 복수의 서브 이미지들 각각의 전체 영역을 스케일링하는 방법을 설명하기 위한 도면이다. 도 4d를 설명함에 있어서, 도 4b의 도면 부호를 함께 사용하여 설명하기로 한다.4D is a diagram for explaining a method of scaling the entire area of each of a plurality of sub-images by the
도 4d를 참조하면, 엣지 데이터 네트워크(2000)는 제1 메인 이미지(410) 및 제2 메인 이미지(412)를 다운스케일링 한 비율에 기초하여, 제1 서브 이미지(414)의 전체 영역을 다운스케일링 할 수 있다. 예를 들어, 도 4d의 재배치된 이미지(445)와 같이, 다운스케일링 된 제1 메인 이미지의 사다리꼴 빗변 부분과 다운스케일링된 제2 메인 이미지의 사다리꼴 빗변 부분이 서로 인접하게 배치되는 경우에, 엣지 데이터 네트워크(2000)는 재배치된 이미지(445)의 비어있는 공간(442)에 다운스케일링 된 제1 서브 이미지(440)가 배치될 수 있도록 제1 서브 이미지(414)의 전체 영역을 다운스케일링 할 수 있다. Referring to FIG. 4D , the
또한, 엣지 데이터 네트워크(2000)는 제1 메인 이미지(410) 및 제2 메인 이미지(412)를 다운스케일링 한 비율에 기초하여, 제2 서브 이미지(416)의 전체 영역을 다운스케일링 할 수 있다. 제2 서브 이미지(416)의 전체 영역을 다운스케일링하는 방법은 제1 서브 이미지(414)의 전체 영역을 다운스케일링하는 방법과 동일하므로, 설명을 생략하기로 한다.Also, the
도 4e는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 다운스케일링 된 복수의 메인 이미지들 및 다운스케일링 된 복수의 서브 이미지들을 재배치하는 방법을 설명하기 위한 도면이다. 도 4e를 설명함에 있어서, 도 4b의 도면 부호를 함께 사용하여 설명하기로 한다.4E is a diagram for explaining a method of rearranging a plurality of downscaled main images and a plurality of downscaled sub images by the
엣지 데이터 네트워크(2000)는 다운스케일링 된 제1 메인 이미지, 다운스케일링 된 제2 메인 이미지, 다운스케일링 된 제1 메인 이미지, 다운스케일링된 제2 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성할 수 있다. 변환된 ERP 이미지는, 기 설정된 사각형 모양일 수 있다.The
구체적으로, 엣지 데이터 네트워크(2000)는 다운스케일링 된 제1 메인 이미지 및 다운스케일링 된 제2 메인 이미지를 서로 인접하도록 배치할 수 있다. 이 경우, 엣지 데이터 네트워크(2000)는 사다리꼴 모양의 다운스케일링 된 제1 일부 영역(421)과 사다리꼴 모양의 다운스케일링 된 제2 일부 영역(425)의 빗변들이 서로 인접하도록 배치할 수 있다. Specifically, the
또한, 엣지 데이터 네트워크(2000)는 다운스케일링 된 제1 서브 이미지 및 다운스케일링 된 제2 서브 이미지 각각을 다운스케일링 된 제1 메인 이미지 및 다운스케일링 된 제2 메인 이미지 모두에 인접하도록 배치할 수 있다.Also, the
전술한 바와 같이, 엣지 데이터 네트워크(2000)는 다운스케일링 된 복수의 메인 이미지들 및 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성할 수 있다. 이 경우, 변환된 ERP 이미지는 제1 배치(451), 제 2 배치(452), 제3 배치(453), 제4 배치(454)와 같이 형태로 구성될 수 있으나, 이에 한정되는 것은 아니다.As described above, the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 변환된 ERP 이미지를 생성함으로써, 획득된 ERP 이미지 보다 작은 이미지 사이즈 갖는, 변환된 ERP를 전자 장치(1000)로 전송함으로써, 네트워크 지연 시간을 감소시킬 수 있다. 또한, 메인 영역 내에 디스플레이되는 이미지 중앙 부분은 해상도를 감소시키지 않으면서도, 상단 및 하단으로 갈수록 감소되는 해상도는 선형적으로 감소되도록 하여 사용자가 느끼는 해상도 저하를 감소시킬 수 있다.The
도 5는 일 실시예에 따른 엣지 데이터 네트워크(2000)가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하여 해상도가 감소되도록 하는 방법을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining a method for the
도 5를 참조하면, 엣지 데이터 네트워크(2000)는 획득된 ERP 이미지를 복수의 영역들로 구분한 것들 중에서, 제1 메인 이미지(510)의 제1 나머지 영역(530)은 스케일링하지 않고, 제1 일부 영역을 다운스케일링하여 사다리꼴 모양의 다운스케일링된 제1 일부 영역(520)을 생성할 수 있다. Referring to FIG. 5 , the
구체적으로, 엣지 데이터 네트워크(2000)는 제1 일부 영역을 구성하는 픽셀들을 행(row) 단위로 다운스케일링 할 수 있다. 예를 들어, 제1 일부 영역을 구성하는 복수의 픽셀 행들을 각각 서로 다른 비율로 다운스케일링하여 가로 방향 해상도를 감소시킬 수 있다. 엣지 데이터 네트워크(2000)는, 제1 일부 영역을 구성하는 복수의 픽셀 행들 중에서, 제1 나머지 영역(530)과 가장 가까운 거리에 위치하는 픽셀 행은 다운스케일링하는 정도를 가장 작게 다운스케일링하고, 제1 나머지 영역(530)과 가장 먼 거리에 위치하는 픽셀 행은 다운스케일링하는 정도를 가장 크게 다운스케일링하고, 제1 나머지 영역(530)으로부터 먼 거리에 위치하는 픽셀 행일수록 다운스케일링하는 정도가 더 커지도록 다운스케일링을 수행함으로써, 제1 메인 이미지(510)가 상단 영역으로 갈수록 가로 방향 해상도가 감소되도록 할 수 있다.Specifically, the
일 실시예에 따른 엣지 데이터 네트워크(2000)가 제2 메인 이미지를 다운스케일링하여 해상도가 감소되도록 하는 방법은, 제1 메인 이미지를 다운스케일링하는 방법과 동일하므로, 설명을 생략하기로 한다.A method for the
도 6은 일 실시예에 따른 엣지 데이터 네트워크(2000)가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하여 계단 모양으로 해상도가 감소되도록 하는 방법을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining a method in which the
도 5에서 설명한 것과 같이, 일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 메인 이미지(510)의 제1 나머지 영역(530)은 스케일링하지 않고, 제1 일부 영역을 다운스케일링하여 사다리꼴 모양의 다운스케일링된 제1 일부 영역(520)을 생성할 수 있다. 이 경우, 엣지 데이터 네트워크(2000)는 제1 일부 영역을 구성하는 복수의 픽셀 행들을 그룹핑하여 복수의 픽셀 행 그룹을 생성할 수 있다. 예를 들어, 픽셀 행들을 그룹핑하여 복수의 픽셀 그룹을 생성할 수 있다. 엣지 데이터 네트워크(2000)는 생성된 복수의 픽셀 행 그룹들 각각을 서로 다른 비율로 다운스케일링하여 가로 방향 해상도를 감소시킬 수 있다. 따라서, 도 6의 610과 같이, 사다리꼴 모양의 빗변 부분은 계단 모양일 수 있다.As described in FIG. 5 , the
엣지 데이터 네트워크(2000)는 소정 값 K에 기초하여, 제1 일부 영역을 구성하는 복수의 픽셀 행들을 각각의 그룹마다 K개의 픽셀 행을 포함하도록 그룹핑할 수 있다. 이 경우, 소정 값 K는 기 설정된 값일 수 있다.The
엣지 데이터 네트워크(2000)는, 복수의 픽셀 행 그룹들 중에서, 제1 나머지 영역(530)과 가장 가까운 거리에 위치하는 픽셀 행은 다운스케일링하는 정도를 가장 작게 다운스케일링하고, 제1 나머지 영역(530)과 가장 먼 거리에 위치하는 픽셀 행 그룹은 다운스케일링하는 정도를 가장 크게 다운스케일링하고, 제1 나머지 영역(530)으로부터 먼 거리에 위치하는 픽셀 행 그룹일수록 다운스케일링하는 정도가 더 커지도록 다운스케일링을 수행함으로써, 제1 메인 이미지(510)에 포함되는 복수의 픽셀 행 그룹들 각각이, 지1 메인 이미지(510)의 상단 영역으로 갈수록 가로 방향 해상도가 감소되도록 할 수 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)가 제2 메인 이미지를 다운스케일링하여 계단 모양으로 해상도가 감소되도록 하는 방법은, 제1 메인 이미지를 다운스케일링하는 방법과 동일하므로, 설명을 생략하기로 한다. 엣지 데이터 네트워크(2000)는 제1 메인 이미지 및 제2 메인 이미지를 구성하는 복수의 픽셀 행들을 그룹핑하고, 각각의 픽셀 행 그룹별로 다운스케일링을 수행함으로써, 하나의 픽셀 또는 하나의 픽셀 행 단위로 다운스케일링 하는 경우보다 연산량을 감소시켜, 빠른 속도로 다운스케일링을 수행할 수 있다.A method for the
도 7은 일 실시예에 따른 엣지 데이터 네트워크(2000)가 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링 할 때, 소정 값 K가 변경되는 것을 설명하기 위한 도면이다. 7 is a diagram for explaining that a predetermined value K is changed when the
엣지 데이터 네트워크(2000)가 제1 메인 이미지의 제1 일부 영역 및 제2 메인 이미지의 제2 일부 영역을 다운스케일링 하는 방법은 동일하므로, 이하에서는 제1 메인 이미지의 제1 일부 영역을 기준으로 설명하기로 한다.Since the method of downscaling the first partial region of the first main image and the second partial region of the second main image by the
도 7을 참조하면, 엣지 데이터 네트워크(2000)는 제1 메인 이미지의 제1 일부 영역을 다운스케일링 할 때, 제1 일부 영역을 구성하는 복수의 픽셀 행들을 각각의 픽셀 행 그룹마다 K개의 픽셀 행을 포함하도록 그룹핑하고, 각각의 픽셀 행 그룹들이 다운스케일링 되는 정도를 달리하여 제1 일부 영역을 계단화 할 수 있다. 여기서 계단화란, 제1 일부 영역의 상단으로 가면서 가로 방향 해상도를 감소시켜, 해상도가 감소된 제1 일부 영역의 이미지의 적어도 한 변을 계단 모양으로 만드는 것을 의미한다.Referring to FIG. 7 , when the
예를 들어, 도 7의 710과 같이 K의 값이 10인 경우, 일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 일부 영역을 구성하는 복수의 픽셀 행들을 각각의 픽셀 행 그룹마다 10개의 픽셀 행을 포함하도록 그룹핑하고, 각각의 픽셀 행 그룹들이 다운스케일링되는 정도를 달리하여 제1 일부 영역을 계단화 할 수 있다.For example, when the value of K is 10 as shown in 710 of FIG. 7 , the
다른 예에서, 도 7의 720과 같이 K의 값이 20인 경우, 일 실시예에 따른 엣지 데이터 네트워크(2000)는 제1 일부 영역을 구성하는 복수의 픽셀 행들을 각각의 픽셀 행 그룹마다 20의 픽셀 행을 포함하도록 그룹핑하고, 각각의 픽셀 행 그룹들이 다운스케일링되는 정도를 달리하여 제1 일부 영역을 계단화 할 수 있다. In another example, when the value of K is 20 as shown in 720 of FIG. 7 , the
일 실시예에 따른 K의 값은, 기 설정된 값일 수 있다. 이 경우, 엣지 데이터 네트워크(2000)는 제1 일부 영역을 구성하는 복수의 픽셀 행들을 각각의 픽셀 행 그룹에 K개의 픽셀 행이 포함되도록 그룹핑 할 수 있다.The value of K according to an embodiment may be a preset value. In this case, the
일 실시예에 따른 K의 값은, 획득된 ERP 이미지의 특성 정보에 기초하여 결정될 수 있다. ERP 이미지의 특성 정보로는 이미지의 콘텐츠 타입 정보, 이미지에 포함되는 픽셀 값의 분포 정보, 이미지에 포함되는 객체 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 제1 메인 이미지의 상단 영역이 하늘을 나타내는 이미지인 경우와 같이, 제1 메인 이미지의 상단 또는 제2 메인 이미지의 하단 영역에 포함되는 픽셀 값들의 변화가 크지 않은 경우, K의 값을 증가시키더라도 사용자가 느끼는 이미지의 상단/하단 영역으로 갈수록 화질이 저하되는 정도는 크지 않을 수 있다. 이 경우, 엣지 데이터 네트워크(2000)는 K 값을 증가시킬 수 있다. 다른 예에서, 메인 이미지들의 상단/하단 영역에 포함되는 픽셀 값들의 변화가 큰 경우, 엣지 데이터 네트워크(2000)는 K 값을 감소시킬 수 있다.The value of K according to an embodiment may be determined based on characteristic information of the obtained ERP image. The characteristic information of the ERP image may include, but is not limited to, content type information of the image, distribution information of pixel values included in the image, object information included in the image, and the like. For example, when the change in pixel values included in the upper region of the first main image or the lower region of the second main image is not large, such as when the upper region of the first main image is an image representing the sky, the value of K Even if is increased, the extent to which the image quality deteriorates toward the upper/lower regions of the image felt by the user may not be large. In this case, the
일 실시예에 따른 K의 값은, 엣지 데이터 네트워크(2000) 네트워크의 부하 정도에 기초하여 결정될 수 있다. 예를 들어, 엣지 데이터 네트워크(2000)가 현재 처리하는 데이터 양이 평균적인 처리량보다 많은 상태인 경우, 데이터 처리 시간을 감소시키기 위하여 K 값을 증가시킬 수 있다. 다른 예에서, 엣지 네트워크(2000)가 현재 처리하는 데이터 양이 평균적인 처리량보다 적은 상태인 경우, K 값을 감소시켜 메인 이미지들을 다운스케일링 할 때 해상도가 더 감소되도록 할 수 있다. 일 실시예에 따른 K의 값은, 네트워크 상황이 실시간으로 변경됨에 따라, 변경된 네트워크의 부하 정도에 기초하여 값이 변경될 수 있다.The value of K according to an embodiment may be determined based on a load degree of the
도 8은 ERP 이미지 내에서 메인 영역을 설명하기 위한 도면이다.8 is a diagram for explaining a main area within an ERP image.
도 8을 참조하면, 전자 장치(1000)의 사용자가 시선을 이동함에 따라, 사용자에게 제공되는 ERP 이미지의 메인 영역은 서로 다를 수 있다. 예를 들어, 도 8에서 소정의 기준점을 기준으로 360°의 방위각이 설정되고, 전자 장치(1000)의 사용자가 방위각 180°의 지점을 응시할 수 있다. 전자 장치(1000)의 사용자가 방위각 180°의 지점을 응시하는 경우, 사용자에게 제공되는 ERP 이미지의 메인 영역은 도 8의 제1 영역(810) 또는 제2 영역(820)일 수 있다. ERP 이미지의 메인 영역을 나타내는 제1 영역(810) 또는 제2 영역(820)은 전자 장치(1000)의 FOV에 따라 결정될 수 있다.Referring to FIG. 8 , as the user of the
또한, 전자 장치(1000)의 FOV에 따라, 사용자에게 제공되는 ERP 이미지의 크기는 서로 다를 수 있다. 예를 들어, 전자 장치(1000)의 FOV가 90°인 경우, 사용자의 주 시야에 제공되는 ERP 이미지는 전체 ERP 이미지의 4분의 1 영역에 해당하는 크기를 갖는 제1 영역(810)일 수 있다. 다른 예에서, 전자 장치(1000)의 FOV가 120°인 경우, 사용자의 주 시야에 제공되는 ERP 이미지는 전체 ERP 이미지의 3분의 1 영역에 해당하는 크기를 갖는 제2 영역(820)일 수 있다.Also, according to the FOV of the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 변환된 ERP 이미지를 생성하기 위해, ERP 이미지 또는 구체 이미지를 획득할 수 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 사용자의 시선 정보를 획득하고, 획득된 정보에 기초하여, 사용자가 응시하는 FOV 영역이 ERP 이미지의 메인 영역이 되도록 획득된 ERP 이미지를 변환할 수 있다. 또한, 일 실시예에 따른 엣지 데이터 네트워크(2000)는 획득된 정보들에 기초하여, 사용자가 응시하는 FOV 영역이 ERP 이미지의 메인 영역이 되도록 획득된 구체 이미지를 ERP 이미지로 변환할 수 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 ERP 이미지의 메인 영역을 가리키는 이미지를 복수의 메인 이미지들로 구분하고, ERP 이미지의 메인 영역에 인접하는 서브 영역들을 가리키는 이미지들을 복수의 서브 이미지들로 구분할 수 있다.The
도 9는 일 실시예에 따른 엣지 데이터 네트워크(2000) 엣지 데이터 네트워크(2000)와 연결된 전자 장치(1000)로부터 획득한 시선 정보에 기초하여 ERP 이미지 내에서 복수의 메인 이미지들을 구분하는 단계를 설명하기 위한 도면이다.9 illustrates a step of classifying a plurality of main images in an ERP image based on gaze information obtained from the
도 9를 참조하면, 엣지 데이터 네트워크(2000)는 전자 장치(1000)로부터 사용자의 시선 위치와 관련된 시선 정보를 획득할 수 있다. 엣지 데이터 네트워크(2000)가 획득하는 시선 정보는, 사용자의 눈동자 위치 정보, 사용자가 전자 장치(1000)내 디스플레이를 응시하는 지점인 응시점 정보, 전자 장치(1000)의 FOV 정보 등을 포함할 수 있으나 이에 한정되는 것은 아니다.Referring to FIG. 9 , the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 획득된 시선 정보를 기초로, ERP 이미지 내에서 복수의 메인 이미지들 및 복수의 서브 이미지들을 구분할 수 있다.The
예를 들어, 전자 장치(1000)의 FOV가 120°인 경우, 도 9의 910과 같이 엣지 데이터 네트워크(2000)는 전체 ERP 이미지의 3분의 1 영역에 해당하는 크기를 갖고, 전자 장치(1000)의 사용자가 응시하는 영역을 ERP 이미지의 메인 영역으로 결정할 수 있다. For example, when the FOV of the
엣지 데이터 네트워크(2000)는 ERP 이미지 내에서, 결정된 메인 영역을 제1 메인 이미지(912) 및 제2 메인 이미지(914)로 구분할 수 있다. 또한, 엣지 데이터 네트워크(2000)는 제1 메인 이미지(912) 및 제2 메인 이미지(914)의 좌측에 위치하고, 전체 ERP 이미지의 3분의 1 영역에 해당하는 크기를 갖는 영역을 가리키는 이미지를 제1 서브 이미지(916)로 구분할 수 있다. 또한, 제1 메인 이미지(912) 및 제2 메인 이미지(914)의 우측에 위치하고, 전체 ERP 이미지의 3분의 1 영역에 해당하는 크기를 갖는 영역을 가리키는 이미지를 제2 서브 이미지(918)로 구분할 수 있다. 다만, 제1 서브 이미지(916) 및 제2 서브 이미지(918)를 구분하는 기준은 이에 한정되는 것은 아니며, 엣지 데이터 네트워크(2000)는 제1 서브 이미지(916) 및 제2 서브 이미지(918)를 각각 전체 ERP 이미지의 3분의 1 영역에 해당하는 크기보다 작은 크기를 갖도록 구분될 수도 있다.The
다른 예에서, 전자 장치(1000)의 FOV가 90°인 경우에 제1 메인 이미지, 제2 메인 이미지, 제1 서브 이미지 및 제2 서브 이미지를 구분하는 방법을 설명하기로 한다. 전자 장치(1000)의 FOV가 90°인 경우, 도 9의 920과 같이 엣지 데이터 네트워크(2000)는 전체 ERP 이미지의 4분의 1 영역에 해당하는 크기를 갖고, 전자 장치(1000)의 사용자가 응시하는 영역을 ERP 이미지의 메인 영역으로 결정할 수 있다. 또한, 일 실시예에 따른 엣지 데이터 네트워크(2000)는 전자 장치(1000)로부터 사용자의 움직임에 관련된 모션 정보를 더 획득하고, 시선 정보 획득한 모션 정보를 기초로, ERP 이미지 내에서 복수의 메인 이미지들 및 복수의 서브 이미지들을 구분할 수 있다.In another example, a method of distinguishing a first main image, a second main image, a first sub-image, and a second sub-image when the FOV of the
엣지 데이터 네트워크(2000)는 ERP 이미지 내에서, 결정된 메인 영역을 제1 메인 이미지 및 제2 메인 이미지로 구분할 수 있다. 또한, 엣지 데이터 네트워크(2000)는 제1 메인 이미지 및 제2 메인 이미지의 좌측에 위치하고, 전체 ERP 이미지의 4분의 1 영역에 해당하는 크기를 갖는 영역을 가리키는 이미지를 제1 서브 이미지로 구분할 수 있다. 또한, 제1 메인 이미지 및 제2 메인 이미지의 우측에 위치하고, 전체 ERP 이미지의 4분의 1 영역에 해당하는 크기를 갖는 영역을 가리키는 이미지를 제2 서브 이미지로 구분할 수 있다. 다만, 제1 서브 이미지 및 제2 서브 이미지를 구분하는 기준은 이에 한정되는 것은 아니며, 엣지 데이터 네트워크(2000)는 제1 서브 이미지 및 제2 서브 이미지를 각각 전체 ERP 이미지의 4분의 1 영역에 해당하는 크기보다 크거나 작은 크기를 갖도록 구분될 수도 있다.The
일 실시예에 따른 엣지 데이터 네트워크(2000)는 엣지 데이터 네트워크(2000)와 연결된 전자 장치(1000)로부터 시선 정보를 수신하고 이에 기초하여 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하고, 각각의 이미지를 다운스케일링함으로써, 전자 장치(1000)의 FOV에 맞는 변환된 ERP 이미지를 생성할 수 있다. The
엣지 데이터 네트워크(2000)는 엣지 데이터 네트워크(2000)와 연결된 전자 장치(1000)로 변환된 ERP 이미지를 전송할 수 있다.The
도 10은 일 실시예에 따른 엣지 데이터 네트워크(2000)가 제1 메인 이미지 및 제2 메인 이미지의 해상도를 결정하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of determining, by the
도 10을 참조하면, 제1 메인 이미지 및 제2 메인 이미지의 해상도는 엣지 데이터 네트워크(2000)가 전자 장치(1000)와 연결된 네트워크의 부하 정도에 기초하여 결정될 수 있다. 예를 들어, 네트워크가 현재 처리하는 데이터 양이 많거나, 데이터 통신이 원활하지 않은 상태인 경우, 이에 기초하여 제1 메인 이미지 및 제2 메인 이미지의 해상도를 더 작은 해상도로 결정할 수 있다. 그 결과, 엣지 데이터 네트워크(2000)는 ERP 이미지 내에서 복수의 메인 이미지들을 구분할 때, 해상도가 감소된 제1 메인 이미지(1012) 및 해상도가 감소된 제2 메인 이미지(1018)로 구분할 수 있다. 또한, 엣지 데이터 네트워크(2000)는 해상도가 감소된 제1 메인 이미지(1012) 및 해상도가 감소된 제2 메인 이미지(1014)의 해상도에 기초하여, 해상도가 감소된 제1 서브 이미지(1016) 및 해상도가 감소된 제2 서브 이미지(1018)로 구분할 수 있다. 이 경우, 엣지 데이터 네트워크(2000)는 해상도가 감소된 각각의 제1 메인 이미지(1012) 및 제2 메인 이미지(1014)의 일부 영역을 다운스케일링하고, 해상도가 감소된 각각의 제1 서브 이미지(1016) 및 제2 서브 이미지(1018)의 전부 영역을 다운스케일링하고, 변환된 ERP 이미지를 생성할 수 있다.Referring to FIG. 10 , the resolutions of the first main image and the second main image may be determined based on a load degree of a network in which the
또한, 제1 메인 이미지 및 제2 메인 이미지의 해상도는, 엣지 데이터 네트워크(2000)와 전자 장치(1000)가 연결된 네트워크 상황이 실시간으로 변경됨에 따라, 네트워크 상황 좋은 경우의 제1 메인 이미지 및 제2 메인 이미지의 해상도가 네트워크 상황이 좋지 않은 경우의 해상도보다 더 높게 메인 이미지들을 구분하고, 네트워크 상황이 나쁜 경우의 제1 메인 이미지 및 제2 메인 이미지의 해상도가 네트워크 상황이 좋은 경우의 해상도보다 더 낮게 메인 이미지들을 구분할 수 있다.In addition, as the resolution of the first main image and the second main image is changed in real time when the network condition in which the
일 실시예에 따른 엣지 데이터 네트워크(2000)는 해상도가 더 작은 복수의 메인 이미지들 및 복수의 서브 이미지들을 각각 다운스케일링하고, 변환된 ERP 이미지를 생성함으로써, 네트워크 상황에 따라 더 작은 사이즈를 갖는 변환된 ERP 이미지를 전자 장치(1000)로 전송할 수 있다.The
도 11은 엣지 데이터 네트워크(2000) 및 전자 장치(1000)의 구성을 설명하기 위한 도면이다.11 is a diagram for explaining the configuration of the
일 실시예에 따르면, 전자 장치(1000)는 센싱부(1110), 네트워크 인터페이스(1120), 프로세서(1130) 및 메모리(1140)를 포함할 수 있다. 다만, 전자 장치(1000)의 구성은 이에 한정되지 않으며, 전자 장치(1000)는 더 많은 구성을 포함하거나 더 적은 구성을 포함할 수 있다.According to an embodiment, the
전자 장치(1000)는 엣지 데이터 네트워크(2000) 또는 클라우드 서버(3000)로부터 수신된 영상들을 디코딩하고, 디코딩된 영상들을 전자 장치의 디스플레이에 표시할 수 있다. 또한, 전자 장치(1000)는 센싱부(111)를 이용하여, 재생된 영상들에 대한 사용자의 모션 정보 및 시선 정보를 포함하는 센서 정보를 획득할 수 있다.The
전자 장치(1000)는 네트워크 인터페이스(1120)를 이용하여 모션 정보 및 시선 정보를 포함하는 센서 정보를 엣지 데이터 네트워크(2000)로 전송할 수 있다. 이 경우, 전자 장치(1000)는 모션 정보 및 시선 정보가 센싱되었을 때의 이미지의 프레임 인덱스 정보를 엣지 데이터 네트워크(2000)로 전송할 수 있다. 여기서 이미지의 프레임 인덱스 정보는 이미지의 인코딩/디코딩 순서를 나타내는 정보일 수 있으나 이에 한정되는 것은 아니며 프레임의 렌더링 순서를 나타내는 정보일 수 있다.The
프로세서(1130)는 메모리(1140) 내 하나 이상의 인스트럭션을 실행함으로써 전자 장치(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(1130)는 메모리(1140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 센싱부(1110), 네트워크 인터페이스(1120)를 제어할 수 있다. 일 실시예에 의하면, 프로세서(1130)는 엣지 데이터 네트워크(2000)로부터 인코딩 된 변환된 ERP 이미지를 수신하고, 인코딩 된 변환된 ERP 이미지를 디코딩하여 다운스케일링 된 ERP 이미지를 복원할 수 있다. 프로세서(1130)는 다운스케일링 된 ERP 이미지를 렌더링하여 구체 이미지를 생성하고, 생성된 구체 이미지를 전자 장치(1000)의 디스플레이에 표시할 수 있다.The
일 실시예에 따르면, 메모리(1140)는 엣지 데이터 네트워크(2000)로부터 수신된, 인코딩된 변환된 ERP 이미지들을 디코딩하기 위한 인스트럭션들을 저장하는 디코더 모듈(1142)을 포함할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the
일 실시예에 따르면, 엣지 데이터 네트워크(2000)는 네트워크 인터페이스(1160), 프로세서(1170) 및 메모리(1180)를 포함할 수 있다. 다만, 엣지 데이터 네트워크(2000)의 구성은 이에 한정되지 않으며, 엣지 데이터 네트워크(2000)는 더 많은 구성을 포함하거나 더 적은 구성을 포함할 수 있다.According to an embodiment, the
엣지 데이터 네트워크(2000)는 네트워크 인터페이스(1160)를 이용하여 전자 장치(1000)로부터 모션 정보 및 시선 정보를 포함하는 센서 정보를 획득하고, 센서 정보 등을 기초로 엣지 데이터 네트워크에서 인코딩된 변환된 ERP 이미지를 전자 장치(1000)로 전송할 수 있다.The
프로세서(1170)는 메모리(1180)내 하나 이상의 인스트럭션을 실행함으로써 엣지 데이터 네트워크(2000)의 전반적인 동작을 제어할 수 있다.The
예를 들어, 프로세서(1170)는 모션 정보 및 시선 정보 중 적어도 하나에 기초하여 사용자의 FOV 영역을 ERP 이미지의 메인 영역으로 하는 ERP 이미지를 획득할 수 있다. 프로세서(1170)는 획득된 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하고, 복수의 메인 이미지들의 일부 영역을 다운스케일링하고, 복수의 서브 이미지들의 전체 영역을 다운스케일링하고, 다운스케일링 된 복수의 메인 이미지들 및 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 획득할 수 있다. 프로세서(1170)는 변환된 ERP 이미지를 인코딩하고, 전자 장치(1000)로 전송할 수 있다.For example, the
일 실시예에 따르면, 메모리(1180)는 엣지 데이터 네트워크(2000)가 전자 장치(1000)로 전송할 변환된 ERP 이미지들을 인코딩하기 위한 인스트럭션들을 저장하는 인코더 모듈(1182)을 포함할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the
도 12는 도 11에 도시된 엣지 데이터 네트워크 및 전자 장치에 관한 것으로, 엣지 데이터 네트워크(2000)가 전자 장치(1000)로부터 센서 정보를 수신하고, 수신된 센서 정보에 기초하여 변환된 ERP 이미지를 생성하고, 전자 장치(1000)로 전송하는 동작들을 도시한 흐름도이다.FIG. 12 relates to the edge data network and the electronic device shown in FIG. 11 . The
단계 S1210에서, 전자 장치(1000)는 센서 정보를 획득할 수 있다. 전자 장치(1000)가 획득하는 센서 정보는 예를 들어, 전자 장치(1000)의 사용자의 움직임에 관련된 모션 정보 및 사용자의 시선에 관련된 시선 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한 시선 정보는, 사용자의 눈동자 위치 정보, 사용자가 전자 장치(1000)내 디스플레이를 응시하는 지점인 응시점 정보, 전자 장치(1000)의 FOV 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In operation S1210, the
단계 S1215에서, 엣지 데이터 네트워크(2000)는 전자 장치(1000)로부터 센서 정보를 수신할 수 있다.In operation S1215 , the
단계 S1220에서, 엣지 데이터 네트워크(2000)는 전자 장치(1000)로부터 수신된 센서 정보에 기초하여, ERP 이미지를 획득할 수 있다. 예를 들어, 엣지 데이터 네트워크(2000)는 수신된 센서 정보에 포함되는 모션 정보 및 시선 정보 중 적어도 하나에 기초하여, 사용자의 FOV 영역을 ERP 이미지의 메인 영역으로 하는 ERP 이미지를 획득할 수 있다. 또한, 구체 이미지를 획득하고, 엣지 데이터 네트워크(2000)는 수신된 센서 정보에 포함되는 모션 정보 및 시선 정보 중 적어도 하나에 기초하여, 획득된 구체 이미지를 변환함으로써 사용자의 FOV 영역을 ERP 이미지의 메인 영역으로 하는 ERP 이미지를 획득할 수 있다.In operation S1220 , the
단계 S1230 내지 단계 S1260에서, 엣지 데이터 네트워크(2000)는 획득된 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하고, 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하고, 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하고, 다운스케일링 된 복수의 메인 이미지들 및 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성할 수 있다. 다만, 단계 S1230 내지 단계 S1260의 동작에 대한 구체적인 설명은, 도 3의 단계 S320 내지 S350에서 설명한 내용과 동일하므로, 여기에서는 설명을 생략하기로 한다.In steps S1230 to S1260, the
단계 S1270에서, 엣지 데이터 네트워크(2000)는 변환된 ERP 이미지를 인코딩 할 수 있다. 일 실시예에 따른 엣지 데이터 네트워크(2000)는, 다양한 종래 코덱(H. 264, HEVC, VP9 및 AV1 등)을 이용하여, 단계 S1260에서 생성된 변환된 ERP 이미지를 인코딩 할 수 있다.In step S1270, the
단계 S1275에서, 엣지 데이터 네트워크(2000)는 인코딩된 변환된 ERP 이미지를 전자 장치(1000)로 전송할 수 있다.In operation S1275 , the
단계 S1280에서, 전자 장치(1000)는 인코딩된 변환된 ERP 이미지를 디코딩하고, 변환된 ERP 이미지를 재배치하여 다운스케일링 된 ERP 이미지를 복원할 수 있다. 전자 장치(1000)는 다운스케일링 된 ERP 이미지를 렌더링하여 구체 이미지를 생성하고, 전자 장치(1000)의 디스플레이에 생성된 구체 이미지를 표시할 수 있다.In step S1280 , the
일 실시예에 따른 엣지 데이터 네트워크가 ERP(Equirectangular projection) 이미지를 변환하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method for the edge data network to convert an ERP (Equirectangular projection) image according to an embodiment is implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
또한, 개시된 실시예들에 따른 엣지 데이터 네트워크가 ERP(Equirectangular projection) 이미지를 변환하는 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the method for the edge data network according to the disclosed embodiments to convert the ERP (Equirectangular projection) image may be provided included in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.The computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, computer program products may include products (eg, downloadable apps) in the form of S/W programs distributed electronically through manufacturers of electronic devices or electronic markets (eg, Google Play Store, App Store). there is. For electronic distribution, at least a portion of the S/W program may be stored in a storage medium or may be temporarily generated. In this case, the storage medium may be a server of a manufacturer, a server of an electronic market, or a storage medium of a relay server temporarily storing a SW program.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.The computer program product, in a system consisting of a server and a client device, may include a storage medium of the server or a storage medium of the client device. Alternatively, if there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include the S/W program itself transmitted from the server to the client device or the third device, or transmitted from the third device to the client device.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of a server, a client device, and a third device may execute a computer program product to distribute the method according to the disclosed embodiments.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected with the server to perform the method according to the disclosed embodiments.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also included in the scope of the present invention. belongs to
Claims (21)
ERP 이미지를 획득하는 단계;
상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계;
상기 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하는 단계;
상기 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하는 단계;
상기 다운스케일링 된 복수의 메인 이미지들 및 상기 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성하는 단계를 포함하고,
상기 변환된 ERP 이미지는 기 설정된 크기의 사각형 모양을 가지는 것인, 방법. In a method for an edge data network to transform an ERP (Equirectangular projection) image,
acquiring an ERP image;
dividing the ERP image into a plurality of main images and a plurality of sub images;
downscaling a partial region of each of the plurality of main images;
downscaling the entire area of each of the plurality of sub images;
Relocating the downscaled plurality of main images and the downscaled plurality of sub-images to generate a converted ERP image,
The converted ERP image will have a rectangular shape of a preset size, the method.
상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계는,
상기 ERP 이미지를 제1 메인 이미지, 제2 메인 이미지, 제1 서브 이미지 및 제2 서브 이미지로 구분하는 것인, 방법.According to claim 1,
The step of dividing the ERP image into a plurality of main images and a plurality of sub images,
The method of dividing the ERP image into a first main image, a second main image, a first sub-image and a second sub-image.
상기 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하는 단계는,
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 다운스케일링하는 단계를 포함하고,
상기 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하는 단계는,
상기 제1 서브 이미지의 전체 영역 및 상기 제2 서브 이미지의 전체 영역을 다운스케일링하는 단계를 포함하고,
상기 변환된 ERP 이미지를 생성하는 단계는,
상기 다운스케일링 된 제1 메인 이미지, 상기 다운스케일링 된 제2 메인 이미지, 상기 다운스케일링 된 제1 서브 이미지 및 상기 다운스케일링 된 제2 서브 이미지를 재배치하여 변환된 ERP 이미지를 생성하는 단계를 포함하는 방법.3. The method of claim 2,
The step of downscaling a partial region of each of the plurality of main images,
downscaling a partial region of the first main image and a partial region of the second main image;
Downscaling the entire area of each of the plurality of sub images comprises:
downscaling the entire area of the first sub-image and the entire area of the second sub-image;
The step of generating the converted ERP image is,
Relocating the downscaled first main image, the downscaled second main image, the downscaled first subimage and the downscaled second subimage to generate a converted ERP image .
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 다운스케일링하는 단계는,
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 각각 사다리꼴 모양으로 다운스케일링하는 단계를 포함하는 방법. 4. The method of claim 3,
The step of downscaling a partial region of the first main image and a partial region of the second main image includes:
and downscaling the partial region of the first main image and the partial region of the second main image to a trapezoidal shape, respectively.
상기 제1 서브 이미지의 전체 영역 및 상기 제2 서브 이미지의 전체 영역을 다운스케일링하는 단계는,
상기 제1 서브 이미지의 전체 영역 및 상기 제2 서브 이미지의 전체 영역을 사각형 모양으로 다운스케일링하는 단계를 포함하는 방법.5. The method of claim 4,
Downscaling the entire area of the first sub-image and the entire area of the second sub-image comprises:
and downscaling the entire area of the first sub-image and the entire area of the second sub-image to a rectangular shape.
상기 다운스케일링 된 제1 메인 이미지의 모양과 상기 다운스케일링 된 제2 메인 이미지의 모양은 대각 방향으로 대칭되는, 방법.5. The method of claim 4,
A shape of the downscaled first main image and a shape of the downscaled second main image are diagonally symmetrical.
상기 변환된 ERP 이미지를 생성하는 단계는,
상기 다운스케일링 된 제1 메인 이미지의 사다리꼴 빗변 부분과 상기 다운스케일링 된 제2 메인 이미지의 사다리꼴 빗변 부분이 서로 인접하도록 배치하고,
상기 다운스케일링 된 제1 서브 이미지 및 상기 다운스케일링 된 제2 서브 이미지 각각을 상기 다운스케일링 된 제1 메인 이미지 및 상기 다운스케일링 된 제2 메인 이미지 모두에 인접하도록 배치함으로써,
상기 다운스케일링 된 제1 메인 이미지, 상기 다운스케일링 된 제2 메인 이미지, 상기 다운스케일링 된 제1 서브 이미지, 상기 다운스케일링 된 제2 서브 이미지가 기 설정된 사각형 모양을 형성하는, 방법.6. The method of claim 5,
The step of generating the converted ERP image is,
disposing so that the trapezoidal hypotenuse portion of the downscaled first main image and the trapezoidal hypotenuse portion of the downscaled second main image are adjacent to each other;
By disposing each of the downscaled first sub-image and the downscaled second sub-image adjacent to both the downscaled first main image and the downscaled second main image,
The downscaled first main image, the downscaled second main image, the downscaled first subimage, and the downscaled second subimage form a preset rectangular shape.
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 사다리꼴 각각 모양으로 다운스케일링하는 단계는,
상기 제1 메인 이미지의 일부 영역을 구성하는 픽셀 행(row)들 및 상기 제2 메인 이미지의 일부 영역을 구성하는 픽셀 행들을 소정 값 K 단위로 그룹핑하여 복수의 픽셀 행 그룹을 생성하는 단계; 및
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 구성하는 복수의 픽셀 행 그룹들 각각을 서로 다른 비율로 다운스케일링하여 상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 각각 사다리꼴 모양으로 다운스케일링하는 단계를 포함하는 방법.5. The method of claim 4,
The step of downscaling the partial region of the first main image and the partial region of the second main image into trapezoidal shapes, respectively, includes:
generating a plurality of pixel row groups by grouping pixel rows constituting a partial region of the first main image and pixel rows constituting a partial region of the second main image in units of a predetermined value K; and
Each of a plurality of pixel row groups constituting a partial region of the first main image and a partial region of the second main image is downscaled at different ratios to obtain a partial region of the first main image and a partial region of the second main image. A method comprising downscaling some regions each into a trapezoidal shape.
상기 엣지 데이터 네트워크와 연결된 전자 장치로부터 사용자의 시선 위치와 관련된 시선 정보를 획득하는 단계; 및,
상기 생성된 변환된 ERP 이미지를 상기 전자 장치로 전송하는 단계를 더 포함하고,
상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계는,
상기 시선 정보에 기초하여, 상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계를 포함하는 방법.According to claim 1,
acquiring gaze information related to a gaze position of a user from an electronic device connected to the edge data network; and,
Further comprising the step of transmitting the generated converted ERP image to the electronic device,
The step of dividing the ERP image into a plurality of main images and a plurality of sub images,
Based on the gaze information, the method comprising the step of dividing the ERP image into a plurality of main images and a plurality of sub-images.
상기 전자 장치로부터 사용자의 모션에 관련된 모션 정보를 획득하는 단계를 더 포함하고,
상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계는,
상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는 단계를 포함하는 방법.10. The method of claim 9,
Further comprising the step of obtaining motion information related to the user's motion from the electronic device,
The step of dividing the ERP image into a plurality of main images and a plurality of sub images,
and dividing the ERP image into a plurality of main images and a plurality of sub images.
네트워크 인터페이스;
하나 이상의 인스트럭션들을 저장하는 메모리;
상기 하나 이상의 인스트럭션들을 실행하는 프로세서;를 포함하고,
상기 프로세서는,
ERP 이미지를 획득하고,
상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하고,
상기 복수의 메인 이미지들 각각의 일부 영역을 다운스케일링하고,
상기 복수의 서브 이미지들 각각의 전체 영역을 다운스케일링하고,
상기 다운스케일링 된 복수의 메인 이미지들 및 상기 다운스케일링 된 복수의 서브 이미지들을 재배치하여 변환된 ERP 이미지를 생성하되,
상기 변환된 ERP 이미지는 기 설정된 크기의 사각형 모양을 가지는 것인, 엣지 데이터 네트워크.In the edge data network that converts the ERP image,
network interface;
a memory storing one or more instructions;
a processor that executes the one or more instructions;
The processor is
Acquire the ERP image,
Divide the ERP image into a plurality of main images and a plurality of sub images,
downscaling a partial region of each of the plurality of main images,
downscaling the entire area of each of the plurality of sub-images,
A converted ERP image is generated by rearranging the downscaled plurality of main images and the downscaled plurality of sub-images,
The converted ERP image will have a rectangular shape of a preset size, edge data network.
상기 프로세서는 상기 ERP 이미지를 제1 메인 이미지, 제2 메인 이미지, 제1 서브 이미지 및 제2 서브 이미지로 구분하는, 엣지 데이터 네트워크.12. The method of claim 11,
The processor divides the ERP image into a first main image, a second main image, a first sub-image and a second sub-image, an edge data network.
상기 프로세서는,
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 다운스케일링하고,
상기 제1 서브 이미지의 전체 영역 및 상기 제2 서브 이미지의 전체 영역을 다운스케일링하고,
상기 다운스케일링 된 제1 메인 이미지, 상기 다운스케일링 된 제2 메인 이미지, 상기 다운스케일링 된 제1 서브 이미지 및 상기 다운스케일링 된 제2 서브 이미지를 재배치하여 변환된 ERP 이미지를 생성하는, 엣지 데이터 네트워크.13. The method of claim 12,
The processor is
downscaling a partial region of the first main image and a partial region of the second main image;
downscaling the entire area of the first sub-image and the entire area of the second sub-image;
An edge data network that generates a converted ERP image by rearranging the downscaled first main image, the downscaled second main image, the downscaled first subimage and the downscaled second subimage.
상기 프로세서는 상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 각각 사다리꼴 모양으로 다운스케일링하는, 엣지 데이터 네트워크.14. The method of claim 13,
and the processor downscales a partial region of the first main image and a partial region of the second main image to a trapezoidal shape, respectively.
상기 프로세서는 상기 제1 서브 이미지의 전체 영역 및 상기 제2 서브 이미지의 전체 영역을 사각형 모양으로 다운스케일링하는, 엣지 데이터 네트워크.15. The method of claim 14,
and the processor downscales the entire area of the first sub-image and the entire area of the second sub-image to a rectangular shape.
상기 다운스케일링 된 제1 메인 이미지의 모양과 상기 다운스케일링 된 제2 메인 이미지의 모양은 대각 방향으로 대칭되는 것인, 엣지 데이터 네트워크.15. The method of claim 14,
The shape of the downscaled first main image and the shape of the downscaled second main image will be diagonally symmetrical, edge data network.
상기 프로세서는,
상기 다운스케일링 된 제1 메인 이미지의 사다리꼴 빗변 부분과 상기 다운스케일링 된 제2 메인 이미지의 사다리꼴 빗변 부분이 서로 인접하도록 배치하고,
상기 다운스케일링 된 제1 서브 이미지 및 상기 다운스케일링 된 제2 서브 이미지 각각을 상기 다운스케일링 된 제1 메인 이미지 및 상기 다운스케일링 된 제2 메인 이미지 모두에 인접하도록 배치함으로써,
상기 다운스케일링 된 제1 메인 이미지, 상기 다운스케일링 된 제2 메인 이미지, 상기 다운스케일링 된 제1 서브 이미지, 상기 다운스케일링 된 제2 서브 이미지가 기 설정된 사각형 모양을 형성하는, 엣지 데이터 네트워크.16. The method of claim 15,
The processor is
disposing so that the trapezoidal hypotenuse portion of the downscaled first main image and the trapezoidal hypotenuse portion of the downscaled second main image are adjacent to each other;
By disposing each of the downscaled first sub-image and the downscaled second sub-image adjacent to both the downscaled first main image and the downscaled second main image,
The downscaled first main image, the downscaled second main image, the downscaled first subimage, and the downscaled second subimage form a preset rectangular shape.
상기 프로세서는,
상기 제1 메인 이미지의 일부 영역을 구성하는 픽셀 행(row)들 및 상기 제2 메인 이미지의 일부 영역을 구성하는 픽셀 행들을 소정 값 K 단위로 그룹핑하여 복수의 픽셀 행 그룹을 생성하고,
상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 구성하는 복수의 픽셀 행 그룹들 각각을 서로 다른 비율로 다운스케일링하여 상기 제1 메인 이미지의 일부 영역 및 상기 제2 메인 이미지의 일부 영역을 각각 사다리꼴 모양으로 다운스케일링하는, 엣지 데이터 네트워크.15. The method of claim 14,
The processor is
generating a plurality of pixel row groups by grouping pixel rows constituting a partial region of the first main image and pixel rows constituting a partial region of the second main image by a predetermined value K;
Each of a plurality of pixel row groups constituting a partial region of the first main image and a partial region of the second main image is downscaled at different ratios to obtain a partial region of the first main image and a partial region of the second main image. Edge data network, each downscaling some areas into a trapezoidal shape.
상기 프로세서는,
상기 엣지 데이터 네트워크와 연결된 전자 장치로부터 사용자의 시선 위치와 관련된 시선 정보를 획득하도록 상기 네트워크 인터페이스를 제어하고,
상기 시선 정보에 기초하여, 상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하고,
상기 생성된 변환된 ERP 이미지를 상기 전자 장치로 전송하도록 상기 네트워크 인터페이스를 제어하는, 엣지 데이터 네트워크.12. The method of claim 11,
The processor is
controlling the network interface to obtain gaze information related to a gaze position of a user from an electronic device connected to the edge data network;
Based on the gaze information, the ERP image is divided into a plurality of main images and a plurality of sub images,
An edge data network for controlling the network interface to transmit the generated converted ERP image to the electronic device.
상기 프로세서는,
상기 전자 장치로부터 사용자의 모션에 관련된 모션 정보를 획득하도록 상기 네트워크 인터페이스를 제어하고,
상기 획득된 모션 정보를 더 이용하여 상기 ERP 이미지를 복수의 메인 이미지들 및 복수의 서브 이미지들로 구분하는, 엣지 데이터 네트워크.20. The method of claim 19,
The processor is
control the network interface to obtain motion information related to the user's motion from the electronic device,
An edge data network that further uses the obtained motion information to divide the ERP image into a plurality of main images and a plurality of sub images.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200120308A KR20220037617A (en) | 2020-09-18 | 2020-09-18 | Method and apparatus for video processing using edge computing service |
PCT/KR2021/012292 WO2022060007A1 (en) | 2020-09-18 | 2021-09-09 | Moving image processing method and device, using edge computing service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200120308A KR20220037617A (en) | 2020-09-18 | 2020-09-18 | Method and apparatus for video processing using edge computing service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220037617A true KR20220037617A (en) | 2022-03-25 |
Family
ID=80777061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200120308A KR20220037617A (en) | 2020-09-18 | 2020-09-18 | Method and apparatus for video processing using edge computing service |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220037617A (en) |
WO (1) | WO2022060007A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240063309A (en) | 2022-11-02 | 2024-05-10 | 김용범 | Method of managing artificial intelligence model through artificial intelligence platform based on edge computing |
KR20240063308A (en) | 2022-11-02 | 2024-05-10 | 김용범 | Method of managing artificial intelligence model marketplace platform by using edge device with wasted device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10334224B2 (en) * | 2016-02-19 | 2019-06-25 | Alcacruz Inc. | Systems and method for GPU based virtual reality video streaming server |
US10319071B2 (en) * | 2016-03-23 | 2019-06-11 | Qualcomm Incorporated | Truncated square pyramid geometry and frame packing structure for representing virtual reality video content |
KR20190021229A (en) * | 2016-05-26 | 2019-03-05 | 브이아이디 스케일, 인크. | Method and apparatus for viewport adaptive 360 degree video delivery |
KR102305633B1 (en) * | 2017-03-17 | 2021-09-28 | 엘지전자 주식회사 | A method and apparatus for transmitting and receiving quality-based 360-degree video |
-
2020
- 2020-09-18 KR KR1020200120308A patent/KR20220037617A/en unknown
-
2021
- 2021-09-09 WO PCT/KR2021/012292 patent/WO2022060007A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240063309A (en) | 2022-11-02 | 2024-05-10 | 김용범 | Method of managing artificial intelligence model through artificial intelligence platform based on edge computing |
KR20240063308A (en) | 2022-11-02 | 2024-05-10 | 김용범 | Method of managing artificial intelligence model marketplace platform by using edge device with wasted device |
Also Published As
Publication number | Publication date |
---|---|
WO2022060007A1 (en) | 2022-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7029562B2 (en) | Equipment and methods for providing and displaying content | |
Chiariotti | A survey on 360-degree video: Coding, quality of experience and streaming | |
US11290699B2 (en) | View direction based multilevel low bandwidth techniques to support individual user experiences of omnidirectional video | |
US11653065B2 (en) | Content based stream splitting of video data | |
KR102013403B1 (en) | Spherical video streaming | |
US10666863B2 (en) | Adaptive panoramic video streaming using overlapping partitioned sections | |
KR102492565B1 (en) | Method and apparatus for packaging and streaming virtual reality media content | |
KR20210102482A (en) | Method and apparatus for improving image padding of video-based point cloud compression codec | |
US11483475B2 (en) | Adaptive panoramic video streaming using composite pictures | |
US20160277772A1 (en) | Reduced bit rate immersive video | |
US11159823B2 (en) | Multi-viewport transcoding for volumetric video streaming | |
KR20220037617A (en) | Method and apparatus for video processing using edge computing service | |
US20200404241A1 (en) | Processing system for streaming volumetric video to a client device | |
CN111669561B (en) | Multi-angle free view image data processing method and device, medium and equipment | |
CN116912385B (en) | Video frame adaptive rendering processing method, computer device and storage medium | |
WO2018004936A1 (en) | Apparatus and method for providing and displaying content | |
KR20190121280A (en) | Electronic device supporting for Live Streaming Service of Virtual Contents based on Tiled Encoding image | |
CN111669570B (en) | Multi-angle free view video data processing method and device, medium and equipment | |
CN111212267A (en) | Partitioning method of panoramic image and server | |
US10944971B1 (en) | Method and apparatus for frame accurate field of view switching for virtual reality | |
WO2022259632A1 (en) | Information processing device and information processing method |