KR102315899B1 - Electronic device, method, computer-readable storage medium and computer program for processing image - Google Patents

Electronic device, method, computer-readable storage medium and computer program for processing image Download PDF

Info

Publication number
KR102315899B1
KR102315899B1 KR1020190129448A KR20190129448A KR102315899B1 KR 102315899 B1 KR102315899 B1 KR 102315899B1 KR 1020190129448 A KR1020190129448 A KR 1020190129448A KR 20190129448 A KR20190129448 A KR 20190129448A KR 102315899 B1 KR102315899 B1 KR 102315899B1
Authority
KR
South Korea
Prior art keywords
image
area
display area
bandwidth
user
Prior art date
Application number
KR1020190129448A
Other languages
Korean (ko)
Other versions
KR20210045877A (en
Inventor
임국찬
신승민
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190129448A priority Critical patent/KR102315899B1/en
Publication of KR20210045877A publication Critical patent/KR20210045877A/en
Priority to KR1020210123860A priority patent/KR102372323B1/en
Application granted granted Critical
Publication of KR102315899B1 publication Critical patent/KR102315899B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시 예에 따르면, 영상을 처리하기 위한 방법에 있어서, 제1 대역폭을 통해 제1 영상을 수신하는 동작; 제2 대역폭을 통해 제2 영상을 수신하는 동작; 제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부에서의, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하는 동작; 및 상기 표시부의 상기 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, a method for processing an image includes: receiving a first image through a first bandwidth; receiving a second image through a second bandwidth; receiving, in a display unit including a first display area and a second display area corresponding to a part of the first display area, location information of the second display area on the first display area; and providing the first image to the first display area of the display unit and the second image to the second display area so that the second image is overlaid on the first image. have.

Description

영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램{ELECTRONIC DEVICE, METHOD, COMPUTER-READABLE STORAGE MEDIUM AND COMPUTER PROGRAM FOR PROCESSING IMAGE}ELECTRONIC DEVICE, METHOD, COMPUTER-READABLE STORAGE MEDIUM AND COMPUTER PROGRAM FOR PROCESSING IMAGE

본 발명은 영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to an electronic device, a method, a computer-readable recording medium, and a computer program for processing an image.

최근 5세대 이동 통신(5G; 5th generation mobile telecommunication)이 상용화되면서, 몰입감 높은 미디어 응용 서비스로 360도 카메라와 가상 현실(VR; virtual reality) 기술이 접목된 실시간 라이브 중계 서비스 및 고품질의 주문형 비디오 시스템(VOD; video on demand)의 콘텐츠를 제공하기 위한 기술 개발이 이루어지고 있다. With the recent commercialization of 5th generation mobile telecommunication (5G), immersive media application services include real-time live broadcast services and high-quality video-on-demand systems that incorporate 360-degree cameras and virtual reality (VR) technologies. Technology development for providing content of video on demand (VOD) is being made.

종래에는 가상 현실 기술을 적용하여 게임 대회 또는 스포츠 경기 등을 실시간으로 중계하는 서비스가 제공되고 있다. 예를 들어, 상기 서비스는, 사용자가 게임 대회 또는 스포츠 경기가 이루어지는 현장의 분위기를 느끼면서 동시에 중요한 장면을 정확하게 볼 수 있도록, PIP 영상 표시 기술을 적용하여, 360도 카메라를 통해 획득된 현장 전체 영상인 360도 영상에 중요한 장면 영상인 PIP(picture in picture) 영상을 오버레이(overlay)시킨 영상을 제공하고 있다.Conventionally, a service for relaying game competitions or sports events in real time by applying virtual reality technology has been provided. For example, the service applies PIP image display technology so that the user can accurately view important scenes while feeling the atmosphere of the site where a game competition or sports event is held, and the entire site image obtained through a 360-degree camera An image in which a picture in picture (PIP) image, which is an important scene image, is overlaid on a 360-degree image is provided.

본 발명의 실시 예는, PIP 영상 표시 기술을 이용하여 복수의 영상들을 제공할 때, 영상들간의 이질감을 최소화하여 시각적으로 자연스러운 영상이 제공되도록 하는 영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램을 제공할 수 있다. 예를 들어, 본 발명의 실시 예에 따르면, 360도 카메라를 통해 획득된 360도 영상에 PIP 영상을 오버레이시킬 때, 두 영상들 간의 이질감을 최소화하여 자연스러운 영상이 제공되도록 할 수 있다.An embodiment of the present invention provides an electronic device, method, and computer readable electronic device for processing an image to provide a visually natural image by minimizing a sense of heterogeneity between images when providing a plurality of images using a PIP image display technology A recording medium and a computer program may be provided. For example, according to an embodiment of the present invention, when a PIP image is overlaid on a 360-degree image obtained through a 360-degree camera, a natural image can be provided by minimizing the sense of heterogeneity between the two images.

본 발명의 실시 예는, 새로운 PIP 영상 표시 기술을 제공하여, 복수의 영상들 중 중요 영상에 대해서는 고화질의 영상이 제공되도록 하는 영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램을 제공할 수 있다. 예를 들어, 본 발명의 실시 예에 따르면, 스트리밍 방식으로 360도 카메라를 통해 획득된 360도 영상 및 PIP 영상을 제공받을 때, 상기 PIP 영상이 고화질의 영상으로 제공되도록 할 수 있다.An embodiment of the present invention provides a new PIP image display technology, and an electronic device, method, computer readable recording medium, and computer program for processing an image that provides a high-quality image for an important image among a plurality of images can provide For example, according to an embodiment of the present invention, when receiving a 360-degree image and a PIP image acquired through a 360-degree camera in a streaming manner, the PIP image may be provided as a high-quality image.

일 실시 예에 따르면, 영상을 처리하기 위한 전자 장치에 있어서, 통신 모듈; 제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부; 및 상기 통신 모듈을 이용하여, 제1 대역폭을 통해 제1 영상을 수신하고 제2 대역폭을 통해 제2 영상을 수신하며, 상기 통신 모듈을 이용하여, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하며, 상기 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 상기 표시부를 제어하는 제어부를 포함할 수 있다.According to an embodiment, an electronic device for processing an image, comprising: a communication module; a display unit including a first display area and a second display area corresponding to a portion of the first display area; and receiving a first image through a first bandwidth and a second image through a second bandwidth, using the communication module, on the first display area of the second display area using the communication module Receive location information, provide the first image to the first display area, and provide the second image to the second display area to control the display unit so that the second image is overlaid on the first image It may include a control unit that

일 실시 예에 따르면, 영상을 처리하기 위한 방법에 있어서, 제1 대역폭을 통해 제1 영상을 수신하는 동작; 제2 대역폭을 통해 제2 영상을 수신하는 동작; 제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부에서의, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하는 동작; 및 상기 표시부의 상기 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 하는 동작을 포함할 수 있다.According to an embodiment, a method for processing an image includes: receiving a first image through a first bandwidth; receiving a second image through a second bandwidth; receiving, in a display unit including a first display area and a second display area corresponding to a part of the first display area, location information of the second display area on the first display area; and providing the first image to the first display area of the display unit and the second image to the second display area so that the second image is overlaid on the first image. have.

본 발명의 실시 예에 따른 영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램은, PIP 영상 표시 기술을 이용하여 복수의 영상들을 제공할 때, 영상들간의 이질감을 최소화하여 시각적으로 자연스러운 영상이 제공되도록 할 수 있다. 예를 들어, 본 발명의 실시 예에 따르면, 360도 카메라를 통해 획득된 360도 영상에 PIP 영상을 오버레이시킬 때, 두 영상들 간의 이질감을 최소화하여 자연스러운 영상이 제공되도록 할 수 있다.An electronic device, a method, a computer-readable recording medium, and a computer program for processing an image according to an embodiment of the present invention minimize the sense of heterogeneity between images when providing a plurality of images using a PIP image display technology to provide a visual to provide a natural image. For example, according to an embodiment of the present invention, when a PIP image is overlaid on a 360-degree image obtained through a 360-degree camera, a natural image can be provided by minimizing the sense of heterogeneity between the two images.

본 발명의 실시 예에 따른 영상을 처리하기 위한 전자 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램은, 새로운 PIP 영상 표시 기술을 제공하여, 복수의 영상들 중 중요 영상에 대해서는 고화질의 영상이 제공되도록 할 수 있다. 예를 들어, 본 발명의 실시 예에 따르면, 스트리밍 방식으로 360도 카메라를 통해 획득된 360도 영상 및 PIP 영상을 제공받을 때, 상기 PIP 영상이 고화질의 영상으로 제공되도록 할 수 있다.An electronic device, a method, a computer-readable recording medium, and a computer program for processing an image according to an embodiment of the present invention provide a new PIP image display technology to provide a high-quality image for an important image among a plurality of images can make it happen For example, according to an embodiment of the present invention, when receiving a 360-degree image and a PIP image acquired through a 360-degree camera in a streaming manner, the PIP image may be provided as a high-quality image.

도 1a 내지 도 1c는 본 발명의 일 실시 예에 따른 영상을 처리하기 위한 시스템의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.
도 4는 종래 기술을 이용한 PIP 영상의 제공 화면과 본 발명의 실시 예에 따른 PIP 영상의 제공 화면의 예를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따른 영상 처리 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.
1A to 1C are block diagrams of a system for processing an image according to an embodiment of the present invention.
2 is a flowchart of an image processing operation according to an embodiment of the present invention.
3 is a flowchart of an image processing operation according to an embodiment of the present invention.
4 is a diagram illustrating an example of a PIP video providing screen using the prior art and a PIP video providing screen according to an embodiment of the present invention.
5 is a diagram for explaining an image processing operation according to an embodiment of the present invention.
6 is a flowchart of an image processing operation according to an embodiment of the present invention.
7 is a flowchart of an image processing operation according to an embodiment of the present invention.

먼저, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시 예들을 참조하면 명확해질 것이다. 여기에서, 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 발명의 범주를 명확하게 이해할 수 있도록 하기 위해 예시적으로 제공되는 것이므로, 본 발명의 기술적 범위는 청구항들에 의해 정의되어야 할 것이다.First, the advantages and features of the present invention, and a method for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. Here, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. The technical scope of the present invention should be defined by the claims since it is provided by way of example so that those with knowledge can clearly understand the scope of the invention.

아울러, 아래의 본 발명을 설명함에 있어서 공지 기능 또는 구성 등에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들인 것으로, 이는 사용자, 운용자 등의 의도 또는 관례 등에 따라 달라질 수 있음은 물론이다. 그러므로, 그 정의는 본 명세서의 전반에 걸쳐 기술되는 기술사상을 토대로 이루어져야 할 것이다.In addition, in the following description of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary depending on the intentions or customs of users, operators, etc., of course. Therefore, the definition should be made based on the technical idea described throughout this specification.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1a 내지 도 1c는 본 발명의 일 실시 예에 따른 영상을 처리하기 위한 시스템의 블록도이다.1A to 1C are block diagrams of a system for processing an image according to an embodiment of the present invention.

도 1a를 참조하면, 시스템은, 카메라 장치(110), 스티칭(stitching) 장치(120), 제1 장치(130), 컨텐트 서버(150)(OVP(online video platform) 서버), 제2 장치(170) 및/또는 비디오 서버(190)를 포함할 수 있다.Referring to FIG. 1A , the system includes a camera device 110 , a stitching device 120 , a first device 130 , a content server 150 (online video platform (OVP) server), and a second device ( 170 ) and/or video server 190 .

카메라 장치(110)는 정지 영상 및/또는 동영상을 촬영(획득)할 수 있다. 예를 들어, 카메라 장치(110)는 하나 이상의 이미지 센서 및 하나 이상의 렌즈를 포함할 수 있다. 상기 렌즈는 광각 렌즈 또는 망원 렌즈일 수 있다. 예를 들어, 카메라 장치(110)는 360도 카메라일 수 있다. 상기 360도 카메라는, 복수 개의 렌즈를 포함하여, 복수 개의 상이한 방향에 대한 영상을 촬영(영상 데이터를 획득)할 수 있다. The camera device 110 may capture (acquire) a still image and/or a moving image. For example, the camera device 110 may include one or more image sensors and one or more lenses. The lens may be a wide-angle lens or a telephoto lens. For example, the camera device 110 may be a 360 degree camera. The 360-degree camera may include a plurality of lenses to capture images (acquire image data) in a plurality of different directions.

스티칭 장치(120)는, 상기 카메라 장치(110)로부터 획득한 복수 개의 상이한 방향에 대한 영상 각각의 경계면을 확인하고, 상기 인접한 경계면을 상호 연결(스티칭)하여, 360도 영상(360도 영상 데이터)인 제1 영상을 생성할 수 있다.The stitching device 120 confirms the boundary surface of each of the images for a plurality of different directions obtained from the camera apparatus 110, and interconnects (stitches) the adjacent boundary surfaces to obtain a 360-degree image (360-degree image data) A first image may be generated.

도 1a를 참조하면, 제1 장치(130)는, 제어부(131), 통신 모듈(133) 및 메모리(135)를 포함할 수 있다.Referring to FIG. 1A , the first device 130 may include a controller 131 , a communication module 133 , and a memory 135 .

제어부(131)(프로세서, 제어 장치 또는 제어 회로라고도 함)는 연결된 제1 장치(130)의 적어도 하나의 다른 구성 요소(예: 하드웨어 구성 요소(예: 통신 모듈(133) 및 메모리(135)) 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다.The controller 131 (also referred to as a processor, a control device, or a control circuit) includes at least one other component (eg, a hardware component (eg, a communication module 133 and a memory 135 ) of the connected first device 130 ). or software components), and perform various data processing and operations.

통신 모듈(133)은 제1 장치(130)와 외부 장치, 예를 들어, 스티칭 장치(120), 컨텐트 서버(150), 제2 장치(170) 및/또는 비디오 서버(190)와의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. The communication module 133 is a wired or wireless connection between the first device 130 and an external device, for example, the stitching device 120 , the content server 150 , the second device 170 , and/or the video server 190 . It is possible to support establishment of a communication channel and performing communication through the established communication channel.

메모리(135)는 제1 장치(130)의 적어도 하나의 구성요소(제어부(131), 통신 모듈(133) 및 메모리(135))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(135)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 135 includes various data, for example, software (eg, a program) used by at least one component (control unit 131 , communication module 133 , and memory 135 ) of the first device 130 . ) and input data or output data for commands related thereto. The memory 135 may include a volatile memory or a non-volatile memory.

일 실시 예에 따르면, 제어부(131)는, 통신 모듈(133)을 통해 상기 제1 영상을 수신할 수 있다.According to an embodiment, the controller 131 may receive the first image through the communication module 133 .

일 실시 예에 따르면, 제어부(131)는, 통신 모듈(133)을 통해 비디오 서버(190)로부터 영상(영상 데이터)를 수신할 수 있으며, 상기 수신된 영상의 크기를 지정된 크기로 조정하여 제2 영상을 생성할 수 있다. According to an embodiment, the controller 131 may receive an image (image data) from the video server 190 through the communication module 133 , adjust the size of the received image to a specified size, and You can create an image.

일 실시 예에 따르면, 메모리(135)는, 상기 제1 영상과 상기 제2 영상과 관련된 제어 데이터(제어 정보)를 저장할 수 있으며, 제어부(131)는, 상기 제어 데이터에 기초하여, 상기 제1 영상과 상기 제2 영상의 영상 처리를 할 수 있다.According to an embodiment, the memory 135 may store control data (control information) related to the first image and the second image, and the controller 131 may store the first image and the first image based on the control data. Image processing of the image and the second image may be performed.

예를 들어, 상기 제어 데이터는, 상기 제1 영상에 상기 제2 영상이 오버레이될 상기 제1 영상의 영역 정보(예: 영역 위치 정보, 영역 좌표 정보) 및/또는 상기 타임 스탬프 정보를 포함할 수 있다. 예를 들어, 상기 제어 데이터는, 상기 제2 영상의 지정된 왜곡 효과(distortion effect) 관련 정보를 더 포함할 수 있다. 예를 들어, 상기 지정된 왜곡 효과 관련 정보는, 상기 제2 영상의 보정에 이용될 수 있으며, 미리 생성되어 저장된 왜곡 맵(distortion map)을 포함할 수 있다. 예를 들어, 상기 제2 영상을 360도 영상인 제1 영상의 일부 영역에 오버레이할 경우, 상기 제2 영상의 중앙에서 가장자리로 갈수록 왜곡이 발생할 수 있으며, 이를 해결하기 위해 상기 왜곡 맵이 왜곡 보정에 이용될 수 있다.For example, the control data may include region information (eg, region location information, region coordinate information) and/or the time stamp information of the first image on which the second image is to be overlaid on the first image. have. For example, the control data may further include information related to a specified distortion effect of the second image. For example, the specified distortion effect related information may be used to correct the second image, and may include a previously generated and stored distortion map. For example, when the second image is overlaid on a partial area of the first image, which is a 360-degree image, distortion may occur from the center to the edge of the second image. To solve this, the distortion map is corrected for distortion. can be used for

예를 들어, 제어부(131)는, 상기 제어 데이터에 기초하여, 상기 제1 영상의 지정된 영역에 상기 제2 영상이 오버레이되도록 상기 제1 영상과 상기 제2 영상을 결합(상기 제1 영상에 상기 제2 영상을 삽입)할 수 있다.For example, based on the control data, the controller 131 combines the first image and the second image so that the second image is overlaid on a designated area of the first image (the first image is Insert a second image).

도 1b를 참조하면, 제1 장치(130)의 제어부(131)는, 타임 스탬프 생성기(time stamp generator; 1311)를 포함할 수 있고, 제1 장치(130)의 통신 모듈(133)은 제1 인코더(1313) 및 제2 인코더(1315)를 포함할 수 있다.Referring to FIG. 1B , the control unit 131 of the first device 130 may include a time stamp generator 1311 , and the communication module 133 of the first device 130 provides a first It may include an encoder 1313 and a second encoder 1315 .

타임 스탬프 생성기(1311)는, 상기 제1 영상 및 상기 제2 영상의 타임 스탬프 정보(예: PTS; presentation time stamp)를 생성할 수 있다. The time stamp generator 1311 may generate time stamp information (eg, presentation time stamp (PTS)) of the first image and the second image.

예를 들어, 상기 타임 스탬프 정보는, 상기 제1 영상 및 상기 제2 영상이 촬영(획득)될 때마다 생성될 수 있다.For example, the time stamp information may be generated whenever the first image and the second image are photographed (acquired).

예를 들어, 상기 제1 영상과 상기 제2 영상은 스트리밍 방식으로 제공되는 영상(또는 동영상)일 수 있으며, 상기 타임 스탬프 정보는, 상기 제1 영상과 상기 제2 영상의 동기화 시간 정보(재생 시의 동기화를 위한 시간 정보)일 수 있다. 예를 들어, 상기 타임 스탬프 정보는 상기 제1 영상과 상기 제2 영상을 재생할 시간을 지정하는 정보를 포함할 수 있다. 예를 들어, 상기 정보는, 시스템에서 사용하는 기준 시간 정보인 프로그램 클록 기준(PCR; program clock reference)과의 차이값일 수 있다.For example, the first image and the second image may be images (or moving images) provided in a streaming manner, and the time stamp information includes synchronization time information (when playing) between the first image and the second image. time information for synchronization of For example, the time stamp information may include information for designating replay times of the first image and the second image. For example, the information may be a difference value from a program clock reference (PCR), which is reference time information used in the system.

제1 인코더(1313)는, 상기 제1 영상을 인코딩할 수 있다. 예를 들어, 제1 인코더(1313)는, 컨텐트 서버(150) 또는 제2 장치(170)로 상기 제1 영상을 전송하기 위해 인코딩을 실행할 수 있다.The first encoder 1313 may encode the first image. For example, the first encoder 1313 may perform encoding to transmit the first image to the content server 150 or the second device 170 .

제2 인코더(1315)는, 상기 제2 영상을 인코딩할 수 있다. 예를 들어, 제2 인코더(1315)는, 컨텐트 서버(150) 또는 제2 장치(170)로 상기 제2 영상을 전송하기 위해 인코딩을 실행할 수 있다.The second encoder 1315 may encode the second image. For example, the second encoder 1315 may perform encoding to transmit the second image to the content server 150 or the second device 170 .

도 1a를 참조하면, 컨텐트 서버(150)는 제어부(151), 통신 모듈(153) 및/또는 메모리(155)를 포함할 수 있다.Referring to FIG. 1A , the content server 150 may include a controller 151 , a communication module 153 , and/or a memory 155 .

제어부(151)(프로세서, 제어 장치 또는 제어 회로라고도 함)는 연결된 제1 장치(150)의 적어도 하나의 다른 구성 요소(예: 하드웨어 구성 요소(예: 통신 모듈(153) 및 메모리(155)) 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다.The control unit 151 (also referred to as a processor, a control device, or a control circuit) includes at least one other component (eg, a hardware component (eg, a communication module 153 and a memory 155 ) of the connected first device 150 ). or software components), and perform various data processing and operations.

통신 모듈(153)은 컨텐트 서버(150)와 외부 장치, 예를 들어, 제1 장치(130) 및/또는 제2 장치(170)와의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. The communication module 153 establishes a wired or wireless communication channel between the content server 150 and an external device, for example, the first device 130 and/or the second device 170, and establishes a communication channel through the established communication channel. It can support performing communication.

메모리(155)는 컨텐트 서버(150)의 적어도 하나의 구성요소(제어부(151), 통신 모듈(153) 및 메모리(155))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(155)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 155 includes various data, for example, software (eg, a program) used by at least one component of the content server 150 (control unit 151 , communication module 153 , and memory 155 ). And, it is possible to store input data or output data for a command related thereto. The memory 155 may include a volatile memory or a non-volatile memory.

일 실시 예에 따르면, 제어부(151)는, 통신 모듈(153)을 통해 상기 제1 장치(130)로부터, 상기 인코딩된 제1 영상을 수신할 수 있다. 제어부(151)는, 통신 모듈(153)을 통해 상기 제1 장치(130)로부터 상기 인코딩된 제2 영상을 수신할 수 있다. 제어부(151)는 통신 모듈(153)을 통해 상기 제1 장치(130)로부터, 상기 인코딩된 제1 영상 및 상기 인코딩된 제2 영상과 관련된 제어 데이터(제어 정보)를 수신할 수 있다. 예를 들어, 상기 제어 데이터는, 상기 제1 영상에 상기 제2 영상이 오버레이될 상기 제1 영상의 영역 정보(예: 영역 위치 정보, 영역 좌표 정보) 및/또는 상기 타임 스탬프 정보를 포함할 수 있다. 예를 들어, 상기 제어 데이터는, 상기 제2 영상의 지정된 왜곡 효과(distortion effect) 관련 정보를 더 포함할 수 있다. 예를 들어, 상기 지정된 왜곡 효과 관련 정보는, 상기 제2 영상의 보정에 이용될 수 있으며, 미리 생성되어 저장된 왜곡 맵(distortion map)을 포함할 수 있다. 예를 들어, 상기 제2 영상을 360도 영상인 제1 영상의 일부 영역에 오버레이할 경우, 상기 제2 영상의 중앙에서 가장자리로 갈수록 왜곡이 발생할 수 있으며, 이를 해결하기 위해 상기 왜곡 맵이 왜곡 보정에 이용될 수 있다.According to an embodiment, the controller 151 may receive the encoded first image from the first device 130 through the communication module 153 . The controller 151 may receive the encoded second image from the first device 130 through the communication module 153 . The controller 151 may receive control data (control information) related to the encoded first image and the encoded second image from the first device 130 through the communication module 153 . For example, the control data may include region information (eg, region location information, region coordinate information) and/or the time stamp information of the first image on which the second image is to be overlaid on the first image. have. For example, the control data may further include information related to a specified distortion effect of the second image. For example, the specified distortion effect related information may be used to correct the second image, and may include a previously generated and stored distortion map. For example, when the second image is overlaid on a partial area of the first image, which is a 360-degree image, distortion may occur from the center to the edge of the second image. To solve this, the distortion map is corrected for distortion. can be used for

도 1c를 참조하면, 컨텐트 서버(150)의 통신 모듈(153)은 제1 디코더(1511) 및 제2 디코더(1513)를 포함할 수 있으며, 컨텐트 서버(150)의 제어부(151)는 영상 조정기(1515)를 포함할 수 있다.Referring to FIG. 1C , the communication module 153 of the content server 150 may include a first decoder 1511 and a second decoder 1513 , and the controller 151 of the content server 150 is an image adjuster. (1515).

제1 디코더(1511)는 상기 제1 장치(130)로부터 수신된, 상기 인코딩된 제1 영상을 디코딩할 수 있다.The first decoder 1511 may decode the encoded first image received from the first device 130 .

제2 디코더(1513)는 상기 제1 장치(130)로부터 수신된, 상기 인코딩된 제2 영상을 디코딩할 수 있다.The second decoder 1513 may decode the encoded second image received from the first device 130 .

영상 조정기(1515)는 상기 제1 장치(130)로부터 수신된 제어 데이터를 기초로 상기 디코딩된 제1 영상과 상기 디코딩된 제2 영상의 영상 처리를 실행할 수 있다. 예를 들어, 영상 조정기(1515)는, 상기 제어 데이터를 기초로, 상기 디코딩된 제1 영상의 지정된 영역에 상기 디코딩된 제2 영상이 오버레이되도록, 상기 디코딩된 제1 영상과 상기 디코딩된 제2 영상을 결합(삽입) 할 수 있다.The image controller 1515 may perform image processing of the decoded first image and the decoded second image based on the control data received from the first device 130 . For example, the image adjuster 1515 may be configured such that the decoded second image is overlaid on a designated area of the decoded first image based on the control data, so that the decoded first image and the decoded second image are overlaid. Images can be combined (inserted).

도 1a를 참조하면, 제2 장치(170)는, 제어부(171), 통신 모듈(173), 표시부(175) 및/또는 메모리(177)를 포함할 수 있다.Referring to FIG. 1A , the second device 170 may include a control unit 171 , a communication module 173 , a display unit 175 , and/or a memory 177 .

제어부(171)(프로세서, 제어 장치 또는 제어 회로라고도 함)는 연결된 제2 장치(170)의 적어도 하나의 다른 구성 요소(예: 하드웨어 구성 요소(예: 통신 모듈(173), 표시부(175) 및 메모리(177)) 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다.The control unit 171 (also referred to as a processor, a control device, or a control circuit) includes at least one other component (eg, a hardware component (eg, a hardware component (eg, a communication module 173 ), a display unit 175 , and a connected second device 170 ). memory 177) or a software component), and may perform various data processing and operations.

통신 모듈(173)은 제2 장치(170)와 외부 장치, 예를 들어, 제1 장치(130) 및/또는 컨텐트 서버(150)와의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 예를 들어, 통신 모듈(173)은 무선 통신 모듈 (예: 셀룰러 통신 모듈, 와이파이 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 및/또는 유선 통신 모듈 (예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(미도시)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(미도시)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 장치, 예를 들어, 제1 장치(130) 및/또는 컨텐트 서버(150)와 통신할 수 있다. The communication module 173 establishes a wired or wireless communication channel between the second device 170 and an external device, for example, the first device 130 and/or the content server 150, and establishes a communication channel through the established communication channel. It can support performing communication. For example, the communication module 173 may include a wireless communication module (eg, a cellular communication module, a Wi-Fi communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) and/or a wired communication module (eg, a LAN (local area network) including a communication module, or a power line communication module), and using a corresponding communication module among them, a first network (not shown) (eg, Bluetooth, WiFi direct, or short-range communication such as IrDA (infrared data association)) network) or a second network (not shown) (eg, a cellular network, the Internet, or a telecommunication network such as a computer network (eg, LAN or WAN)) via an external device, eg, the first device 130 and / or communicate with the content server 150 .

표시부(175)는 제2 장치(170)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이(또는 터치스크린), 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. The display unit 175 is a device for visually providing information to the user of the second device 170, and includes, for example, a display (or touch screen), a hologram device, or a control circuit for controlling a projector and the device. may include

메모리(177)는 제2 장치(170)의 적어도 하나의 구성요소(제어부(171), 통신 모듈(173), 표시부(175) 및 메모리(177))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(177)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 177 includes various data used by at least one component (control unit 171, communication module 173, display unit 175, and memory 177) of the second device 170, for example, It may store input data or output data for software (eg, a program) and instructions related thereto. The memory 177 may include a volatile memory or a non-volatile memory.

일 실시 예에 따르면, 제어부(171)는, 통신 모듈(173)을 통해 상기 제1 장치(130) 또는 컨텐트 서버(150)로부터, 상기 인코딩된 제1 영상을 수신할 수 있다. 제어부(171)는, 통신 모듈(173)을 통해 상기 제1 장치(130) 또는 컨텐트 서버(150)로부터, 상기 인코딩된 제2 영상을 수신할 수 있다. 제어부(171)는 통신 모듈(173)을 통해 상기 제1 장치(130) 또는 컨텐트 서버(150)로부터 상기 인코딩된 제1 영상 및 상기 인코딩된 제2 영상과 관련된 제어 데이터(제어 정보)를 수신할 수 있다. According to an embodiment, the controller 171 may receive the encoded first image from the first device 130 or the content server 150 through the communication module 173 . The controller 171 may receive the encoded second image from the first device 130 or the content server 150 through the communication module 173 . The control unit 171 may receive control data (control information) related to the encoded first image and the encoded second image from the first device 130 or the content server 150 through the communication module 173 . can

도 1c를 참조하면, 제2 장치(170)의 통신 모듈(173)은 제1 디코더(1711) 및 제2 디코더(1713)를 포함할 수 있으며, 제2 장치(170)의 제어부(171)는 영상 조정기(1715)를 포함할 수 있다.Referring to FIG. 1C , the communication module 173 of the second device 170 may include a first decoder 1711 and a second decoder 1713 , and the controller 171 of the second device 170 is An image adjuster 1715 may be included.

제1 디코더(1711)는 상기 제1 장치(130) 또는 상기 컨텐트 서버(150)로부터 수신된, 상기 인코딩된 제1 영상을 디코딩할 수 있다.The first decoder 1711 may decode the encoded first image received from the first device 130 or the content server 150 .

제2 디코더(1713)는 상기 제1 장치(130) 또는 상기 컨텐트 서버(150)로부터 수신된, 상기 인코딩된 제2 영상을 디코딩할 수 있다.The second decoder 1713 may decode the encoded second image received from the first device 130 or the content server 150 .

영상 조정기(1715)는 상기 제어 데이터를 기초로 상기 디코딩된 제1 영상과 상기 디코딩된 제2 영상의 영상 처리를 실행할 수 있다. 예를 들어, 영상 조정기(1715)는, 상기 제어 데이터를 기초로, 상기 디코딩된 제1 영상의 지정된 영역에 상기 디코딩된 제2 영상이 오버레이되도록, 상기 디코딩된 제1 영상과 상기 디코딩된 제2 영상을 결합(상기 디코딩된 제1 영상에 상기 디코딩된 제2 영상을 삽입) 할 수 있다.The image adjuster 1715 may perform image processing of the decoded first image and the decoded second image based on the control data. For example, the image adjuster 1715 may be configured to overlay the decoded second image on a designated area of the decoded first image based on the control data so that the decoded first image and the decoded second image are overlaid. Images may be combined (inserting the decoded second image into the decoded first image).

일 실시 예에 따르면, 제어부(171)는, 표시부(175)를 제어하여, 상기 디코딩된 제1 영상의 지정된 영역에 상기 디코딩된 제2 영상이 오버레이되도록 상기 제1 영상 및 상기 제2 영상을 상기 표시부(175)상에 디스플레이할 수 있다. 예를 들어, 제어부(171)는, 표시부(175)를 제어하여, 상기 결합된 제1 영상과 제2 영상을 디스플레이할 수 있다.According to an embodiment, the controller 171 controls the display unit 175 to display the first image and the second image so that the decoded second image is overlaid on a designated area of the decoded first image. It may be displayed on the display unit 175 . For example, the controller 171 may control the display unit 175 to display the combined first image and the second image.

일 실시 예에 따르면, 제어부(171)는, 상기 통신 모듈(173)을 이용하여, 제1 대역폭을 통해 제1 영상을 수신하고 제2 대역폭을 통해 제2 영상을 수신하며, 상기 표시부(175)의 제1 영역(제1 표시 영역이라고 함)에 상기 제1 영상을 제공하고, 상기 제1 영역의 적어도 일부 영역에 오버레이(overlay)된 제2 영역(제2 표시 영역이라고도 함)에 상기 제2 영상을 제공하도록 상기 표시부(175)를 제어할 수 있다.According to an embodiment, the controller 171 receives a first image through a first bandwidth and receives a second image through a second bandwidth, using the communication module 173 , and the display unit 175 The first image is provided in a first area (referred to as a first display area) of The display unit 175 may be controlled to provide an image.

예를 들어, 상기 제어부(171)는, 상기 통신 모듈(173)을 이용하여, 상기 제2 영역의 위치 정보를 수신하며, 상기 위치 정보에 기초하여 상기 제2 영역의 위치를 결정할 수 있다.For example, the control unit 171 may receive the location information of the second area using the communication module 173 and determine the location of the second area based on the location information.

예를 들어, 상기 제2 영상은 상기 제1 영상에 비해 고화질의 영상일 수 있다.For example, the second image may be a higher quality image than the first image.

예를 들어, 상기 제어부(171)는, 사용자의 시선에 대응하는 영역을 확인하며, 상기 통신 모듈(173)을 이용하여, 상기 사용자의 시선에 대응하는 영역의 정보를, 상기 제1 영상 및 상기 제2 영상을 전송한 장치, 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)로, 전송할 수 있다.For example, the control unit 171 checks a region corresponding to the user's gaze, and uses the communication module 173 to provide information on the region corresponding to the user's gaze, the first image and the The second image may be transmitted to the device that has transmitted it, for example, the first device 130 or the content server 150 .

예를 들어, 상기 제1 대역폭 및 상기 제2 대역폭은, 상기 사용자의 시선에 대응하는 영역의 정보에 기초하여 결정된 것일 수 있다.For example, the first bandwidth and the second bandwidth may be determined based on information on an area corresponding to the user's gaze.

예를 들어, 상기 사용자의 시선에 대응하는 영역은, 상기 제2 영역을 포함할 수 있다. 상기 제1 대역폭 및 상기 제2 대역폭은, 상기 사용자의 시선에 대응하는 영역이 상기 제2 영역을 포함하는 것에 기초하여, 기 설정된 대역폭들이 각각 변경되어 결정된 것일 수 있다. For example, the area corresponding to the user's gaze may include the second area. The first bandwidth and the second bandwidth may be determined by changing preset bandwidths, respectively, based on the area corresponding to the user's gaze including the second area.

상술한 도 1a의 실시 예에 따르면, 상기 카메라 장치(110), 상기 스티칭 장치(120), 상기 제1 장치(130) 및 상기 비디오 서버(190)가 각각의 장치로 구성(구현)된 것으로 설명하였으나, 다른 실시 예에 따르면, 상기 카메라 장치(110), 상기 스티칭 장치(120), 상기 제1 장치(130) 및 상기 비디오 서버(190) 중 적어도 두 개는 하나의 장치로 통합되어, 구성될 수도 있다. 예를 들어, 상기 제1 장치(130)는, 상기 카메라 장치(110), 상기 스티칭 장치(120) 및 상기 비디오 서버(190)를 포함할 수 있다.According to the embodiment of FIG. 1A described above, the camera device 110, the stitching device 120, the first device 130, and the video server 190 are described as being configured (implemented) as respective devices. However, according to another embodiment, at least two of the camera device 110 , the stitching device 120 , the first device 130 , and the video server 190 may be integrated into one device to be configured. may be For example, the first device 130 may include the camera device 110 , the stitching device 120 , and the video server 190 .

또한, 상술한 도 1a의 실시 예에서는, 제1 영상이 360도 영상인 것으로 설명하였으나, 다른 실시 예에 따르면, 상기 제1 영상은 2차원 영상일 수도 있다. 예를 들어, 상기 제1 영상은, 상기 카메라 장치(110)를 통해 획득된 2차원 영상일 수도 있다.In addition, although it has been described that the first image is a 360-degree image in the embodiment of FIG. 1A described above, according to another embodiment, the first image may be a two-dimensional image. For example, the first image may be a two-dimensional image acquired through the camera device 110 .

또한, 상술한 도 1b의 실시 예에서는 제1 장치(130)의 제어부(131)가 구성부, 즉, 타임 스탬프 생성기(1311)를 포함하고, 통신 모듈(133)이 구성부들, 즉, 제1 인코더(1313) 및 제2 인코더(1315)를 포함하는 것으로 설명하였으나, 다른 실시 예에 따르면, 제어부(131)가 타임 스탬프 생성기(1311)에 의해 수행되는 기능을 동일 또는 유사하게 수행하고, 통신 모듈(133)이 제1 인코더(1313) 및 제2 인코더(1315) 각각에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 또 다른 실시 예에 따르면, 상기 구성부들, 즉, 타임 스탬프 생성기(1311), 제1 인코더(1313) 및 제2 인코더(1315) 각각 또는 상기 구성부들 중 적어도 두 개는 하나의 개체로 통합되어, 상기 제어부(131) 및 상기 통신 모듈(133)과는 별도의 모듈(하드웨어)로 구성될 수도 있다. In addition, in the above-described embodiment of FIG. 1B , the control unit 131 of the first device 130 includes a component, that is, the time stamp generator 1311 , and the communication module 133 includes the components, that is, the first Although it has been described as including the encoder 1313 and the second encoder 1315, according to another embodiment, the control unit 131 performs the same or similar function performed by the time stamp generator 1311, and the communication module 133 may perform the same or similar functions performed by each of the first encoder 1313 and the second encoder 1315 . According to another embodiment, each of the components, that is, the time stamp generator 1311, the first encoder 1313, and the second encoder 1315, or at least two of the components are integrated into one entity, It may be configured as a module (hardware) separate from the control unit 131 and the communication module 133 .

또한, 상술한 도 1c의 실시 예에서는 컨텐트 서버(150)의 통신 모듈(153)이 구성부들, 즉, 제1 디코더(1511) 및 제2 디코더(1513)를 포함하고, 제어부(151)가 구성부, 즉, 영상 조정기(1515)를 포함하는 것으로 설명하였으나, 다른 실시 예에 따르면, 통신 모듈(153)이 제1 디코더(1511) 및 제2 디코더(1513) 각각에 의해 수행되는 기능을 동일 또는 유사하게 수행하고, 제어부(151)가 영상 조정기(1515)에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 또 다른 실시 예에 따르면, 상기 구성부들, 즉, 제1 디코더(1511), 제2 디코더(1513) 및 영상 조정기(1515) 각각 또는 상기 구성부들 중 적어도 두 개는 하나의 개체로 통합되어, 상기 통신 모듈(153) 및 상기 제어부(151)와는 별도의 모듈(하드웨어)로 구성될 수도 있다. In addition, in the above-described embodiment of FIG. 1C , the communication module 153 of the content server 150 includes components, that is, a first decoder 1511 and a second decoder 1513 , and the control unit 151 is configured Although it has been described as including the unit, that is, the image adjuster 1515, according to another embodiment, the communication module 153 performs the functions performed by each of the first decoder 1511 and the second decoder 1513 in the same or Similarly, the control unit 151 may perform the same or similar functions performed by the image adjuster 1515 . According to another embodiment, each of the constituent units, that is, the first decoder 1511 , the second decoder 1513 , and the image adjuster 1515 or at least two of the constituent units are integrated into one entity, and the It may be configured as a module (hardware) separate from the communication module 153 and the control unit 151 .

또한, 상술한 도 1c의 실시 예에서는, 상기 제1 디코더(1511), 상기 제2 디코더(1513), 및 상기 영상 조정기(1515)가 상기 OVP 장치(150)에 포함된 것으로 설명하였으나, 다른 실시 예에 따르면, 상기 제1 디코더(1511), 상기 제2 디코더(1513), 및 상기 영상 조정기(1515)를 포함하는 별도의 장치가 상기 제2 장치(150)와 통신 연결될 수도 있다.In addition, in the above-described embodiment of FIG. 1C , it has been described that the first decoder 1511 , the second decoder 1513 , and the image adjuster 1515 are included in the OVP device 150 . According to an example, a separate device including the first decoder 1511 , the second decoder 1513 , and the image adjuster 1515 may be communicatively connected to the second device 150 .

도 2는 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.2 is a flowchart of an image processing operation according to an embodiment of the present invention.

도 2를 참조하면, 제1 장치(130)는 복수의 영상들, 예를 들어, 제1 영상 및 제2 영상 각각을 개별적으로(분리하여) 컨텐트 서버(150) 또는 제2 장치(170)로 제공할 수 있다. 상기 제1 영상 및 제2 영상을 수신한 상기 컨텐트 서버(150) 또는 상기 제2 장치(170)는, 상기 제1 영상 및 상기 제2 영상을 결합할 수 있다. Referring to FIG. 2 , the first device 130 separately (separates) each of a plurality of images, for example, a first image and a second image, to the content server 150 or the second device 170. can provide The content server 150 or the second device 170 that has received the first image and the second image may combine the first image and the second image.

예를 들어, 상기 제1 영상 및 상기 제2 영상은 스트리밍 방식으로 제공되는 영상(또는 동영상)일 수 있다.For example, the first image and the second image may be images (or moving images) provided by a streaming method.

예를 들어, 상기 제1 영상 및 상기 제2 영상은, 360도 카메라와 가상 현실(VR; virtual reality) 기술이 접목된 실시간 라이브 중계 서비스를 사용자에게 제공하기 위해 이용되는 영상들일 수 있다. 예를 들어, 상기 제1 영상은 배경 영상인 360도 영상일 수 있으며, 상기 제2 영상은 상기 배경 영상의 지정된 영역에 오버레이되어 제공되는 중요 영상인 PIP 영상일 수 있다. 제1 장치(130)는 상기 360도 영상 및 상기 PIP 영상 각각을 스트리밍 방식으로 컨텐트 서버(150) 또는 제2 장치(170)로 제공할 수 있으며, 상기 컨텐트 서버(150) 또는 상기 제2 장치(170)는 상기 360도 영상의 지정된 영역에 상기 PIP 영상이 오버레이되도록 상기 360도 영상을 상기 PIP 영상과 결합할 수 있다.For example, the first image and the second image may be images used to provide a user with a real-time live relay service in which a 360-degree camera and virtual reality (VR) technology are grafted. For example, the first image may be a 360-degree image that is a background image, and the second image may be a PIP image that is an important image that is provided overlaid on a designated area of the background image. The first device 130 may provide each of the 360-degree video and the PIP video to the content server 150 or the second device 170 in a streaming manner, and the content server 150 or the second device ( 170) may combine the 360-degree image with the PIP image so that the PIP image is overlaid on a designated area of the 360-degree image.

201 동작에서 제1 장치(130)(또는 제1 장치(130)의 제어부(131))는, 제1 영상을 전송할 수 있다.In operation 201 , the first device 130 (or the controller 131 of the first device 130 ) may transmit the first image.

일 실시 예에 따르면, 제1 장치(130)는 통신 모듈(예: 통신 모듈(133))을 통해 상기 제1 영상을 전송할 수 있다. 예를 들어, 제1 장치(130)는 지정된 제1 대역폭(제1 전송 대역폭)에 대응하는 제1 채널을 통해 상기 제1 영상을 전송할 수 있다.According to an embodiment, the first device 130 may transmit the first image through a communication module (eg, the communication module 133). For example, the first device 130 may transmit the first image through a first channel corresponding to a designated first bandwidth (first transmission bandwidth).

203 동작에서 컨텐트 서버(150)(또는 컨텐트 서버(150)의 제어부(151)) 또는 제2 장치(170)(또는 제2 장치(170)의 제어부(171))는 상기 제1 영상을 확인할 수 있다.In operation 203, the content server 150 (or the controller 151 of the content server 150) or the second device 170 (or the controller 171 of the second device 170) may check the first image. have.

일 실시 예에 따르면, 컨텐트 서버(150) 또는 제2 장치(170)는 통신 모듈(예: 통신 모듈(153) 또는 통신 모듈(173))을 통해 상기 제1 영상을 수신하여, 상기 제1 영상을 확인할 수 있다. 예를 들어, 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제1 채널을 통해 상기 제1 영상을 수신할 수 있다. According to an embodiment, the content server 150 or the second device 170 receives the first image through a communication module (eg, the communication module 153 or the communication module 173), and the first image can confirm. For example, the content server 150 or the second device 170 may receive the first image through the first channel.

205 동작에서 제1 장치(130)는 제2 영상을 전송할 수 있다.In operation 205 , the first device 130 may transmit the second image.

일 실시 예에 따르면, 제1 장치(130)는 상기 통신 모듈을 통해 상기 제2 영상을 전송할 수 있다. 예를 들어, 제1 장치(130)는 지정된 제2 대역폭(제2 전송 대역폭)에 대응하는 제2 채널을 통해 상기 제2 영상을 전송할 수 있다.According to an embodiment, the first device 130 may transmit the second image through the communication module. For example, the first device 130 may transmit the second image through a second channel corresponding to a designated second bandwidth (second transmission bandwidth).

207 동작에서 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제2 영상을 확인할 수 있다. In operation 207 , the content server 150 or the second device 170 may check the second image.

일 실시 예에 따르면, 컨텐트 서버(150) 또는 제2 장치(170)는 상기 통신 모듈을 통해 상기 제2 영상을 수신하여, 상기 제2 영상을 확인할 수 있다. 예를 들어, 상기 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제2 채널을 통해 상기 제2 영상을 수신할 수 있다. According to an embodiment, the content server 150 or the second device 170 may receive the second image through the communication module and check the second image. For example, the content server 150 or the second device 170 may receive the second image through the second channel.

209 동작에서 제1 장치(130)는 제어 데이터를 전송할 수 있다.In operation 209 , the first device 130 may transmit control data.

일 실시 예에 따르면, 상기 제어 데이터는, 상기 제1 영상 및 상기 제2 영상과 관련된 제어 데이터(제어 정보)로, 상기 제1 영상에 상기 제2 영상이 오버레이될 상기 제1 영상의 영역 정보(예: 영역 위치 정보, 영역 좌표 정보) 및/또는 상기 타임 스탬프 정보를 포함할 수 있다.According to an embodiment, the control data may include control data (control information) related to the first image and the second image, and information on a region of the first image on which the second image is to be overlaid on the first image ( Example: area location information, area coordinate information) and/or the time stamp information.

일 실시 예에 따르면, 제1 장치(130)는 상기 통신 모듈을 통해 상기 제어 데이터를 전송할 수 있다. 예를 들어, 상기 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제1 채널, 상기 제2 채널 또는 제3 채널을 통해 상기 제어 데이터를 전송할 수 있다.According to an embodiment, the first device 130 may transmit the control data through the communication module. For example, the content server 150 or the second device 170 may transmit the control data through the first channel, the second channel, or the third channel.

211 동작에서 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제어 데이터를 확인할 수 있다.In operation 211 , the content server 150 or the second device 170 may check the control data.

일 실시 예에 따르면, 컨텐트 서버(150) 또는 제2 장치(170)는 상기 통신 모듈을 통해 상기 제어 데이터를 수신하여, 상기 제어 데이터를 확인할 수 있다. 예를 들어, 상기 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제1 채널, 상기 제2 채널 또는 제3 채널을 통해 상기 제어 데이터를 수신할 수 있다. According to an embodiment, the content server 150 or the second device 170 may receive the control data through the communication module and check the control data. For example, the content server 150 or the second device 170 may receive the control data through the first channel, the second channel, or the third channel.

213 동작에서 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제어 데이터에 기초하여 상기 제1 영상 및 상기 제2 영상을 결합할 수 있다. In operation 213 , the content server 150 or the second device 170 may combine the first image and the second image based on the control data.

일 실시 예에 따르면, 컨텐트 서버(150) 또는 제2 장치(170)는 상기 제1 영상의 지정된 영역에 상기 제2 영상이 오버레이되도록 상기 제1 영상 및 상기 제2 영상을 결합할 수 있다. 예를 들어, 컨텐트 서버(150) 또는 제2 장치(170)는, 상기 제1 영상에 상기 제2 영상이 오버레이될 영역의 정보에 기초하여, 상기 제1 영상의 지정된 영역에 상기 제2 영상이 삽입되도록 할 수 있다. 예를 들어 상기 제1 영상과 상기 제2 영상의 타임 스탬프 정보는 서로 대응될 수 있다.According to an embodiment, the content server 150 or the second device 170 may combine the first image and the second image so that the second image is overlaid on a designated area of the first image. For example, the content server 150 or the second device 170 may display the second image in a designated area of the first image based on information on an area on which the second image is to be overlaid on the first image. can be inserted. For example, time stamp information of the first image and the second image may correspond to each other.

도 3은 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.3 is a flowchart of an image processing operation according to an embodiment of the present invention.

301 동작에서, 제2 장치(170)(또는 제2 장치(170)의 제어부(171))는, 통신 상태 정보를 확인할 수 있다.In operation 301 , the second device 170 (or the controller 171 of the second device 170 ) may check communication state information.

일 실시 예에 따르면, 상기 통신 상태 정보는, 상기 제2 장치(170)의 신호의 수신 전계 세기(강도)를 포함할 수 있다. 예를 들어, 상기 신호의 수신 전계 세기는 강전계 또는 약전계를 포함할 수 있다.According to an embodiment, the communication state information may include the received electric field strength (strength) of the signal of the second device 170 . For example, the received electric field strength of the signal may include a strong electric field or a weak electric field.

303 동작에서, 제2 장치(170)는, 상기 통신 상태 정보를 전송할 수 있다.In operation 303, the second device 170 may transmit the communication state information.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈(예: 통신 모듈(173))을 이용하여 상기 통신 상태 정보를 전송할 수 있다.According to an embodiment, the second device 170 may transmit the communication state information using a communication module (eg, the communication module 173).

305 동작에서, 제1 장치(130)(또는 제1 장치(130)의 제어부(131)) 또는 컨텐트 서버(150)(또는 컨텐트 서버(150)의 제어부(151))는, 상기 통신 상태 정보에 기초하여, 제1 영상 및 제2 영상을 전송하기 위한 대역폭인 전송 대역폭을 각각 제1 대역폭 및 제2 대역폭으로 결정할 수 있다.In operation 305, the first device 130 (or the control unit 131 of the first device 130) or the content server 150 (or the control unit 151 of the content server 150) transmits the communication state information to the Based on the transmission bandwidth, which is a bandwidth for transmitting the first image and the second image, the first bandwidth and the second bandwidth may be determined, respectively.

일 실시 예에 따르면, 통신 상태 정보 별 대응하는 대역폭 정보가 지정되어 있을 수 있다. 제1 장치(130) 또는 컨텐트 서버(150)는 상기 지정된 통신 상태 정보 별 대응하는 대역폭 정보에 기초하여, 제1 영상의 대역폭을 제1 대역폭으로 결정하고 제2 영상의 대역폭을 제2 대역폭으로 결정할 수 있다.According to an embodiment, bandwidth information corresponding to each communication state information may be designated. The first device 130 or the content server 150 determines the bandwidth of the first image as the first bandwidth and determines the bandwidth of the second image as the second bandwidth, based on the bandwidth information corresponding to the designated communication state information. can

예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 통신 상태 정보 별 대응하는 대역폭 정보를 저장할 수 있다. 제1 장치(130) 또는 컨텐트 서버(150)는 상기 저장된 통신 상태 정보 별 대응하는 대역폭 정보에 기초하여 제1 영상의 대역폭을 제1 대역폭으로 결정하고 제2 영상의 대역폭을 제2 대역폭으로 결정할 수 있다.For example, the first device 130 or the content server 150 may store corresponding bandwidth information for each communication state information. The first device 130 or the content server 150 may determine the bandwidth of the first image as the first bandwidth and determine the bandwidth of the second image as the second bandwidth based on the stored bandwidth information for each communication state information. have.

예를 들어, 상기 통신 상태 정보 별 대응하는 대역폭 정보는, 외부 장치의 신호의 수신 전계 세기(강도) 별 대응하는 대역폭 정보를 포함할 수 있다.For example, the bandwidth information corresponding to each communication state information may include bandwidth information corresponding to each received electric field strength (strength) of a signal of an external device.

307 동작에서, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 제1 대역폭에 기초하여 제1 영상을 전송할 수 있다.In operation 307, the first device 130 or the content server 150 may transmit the first image based on the first bandwidth.

일 실시 예에 따르면, 제1 장치(130) 또는 컨텐트 서버(150)는 통신 모듈(예: 통신 모듈(133) 또는 통신 모듈(153))을 이용하여 상기 제1 대역폭에 기초하여 상기 제1 영상을 전송할 수 있다. 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 제1 대역폭에 대응하는 제1 채널을 통해 상기 제1 영상을 전송할 수 있다.According to an embodiment, the first device 130 or the content server 150 uses a communication module (eg, the communication module 133 or the communication module 153 ) to configure the first image based on the first bandwidth. can be transmitted. For example, the first device 130 or the content server 150 may transmit the first image through a first channel corresponding to the first bandwidth.

일 실시 예에 따르면, 상기 제1 영상은 스트리밍 방식으로 제공되는 영상(또는 동영상)일 수 있다. 예를 들어, 상기 제1 영상을 360도 영상일 수 있다.According to an embodiment, the first image may be an image (or a moving image) provided by a streaming method. For example, the first image may be a 360-degree image.

309 동작에서, 제2 장치(170)는 상기 제1 영상을 확인할 수 있다.In operation 309, the second device 170 may check the first image.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈을 이용하여 상기 제1 영상을 수신할 수 있으며, 상기 수신된 제1 영상을 확인할 수 있다.According to an embodiment, the second device 170 may receive the first image using a communication module, and may check the received first image.

311 동작에서, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 제2 대역폭에 기초하여 제2 영상을 전송할 수 있다.In operation 311 , the first device 130 or the content server 150 may transmit a second image based on the second bandwidth.

일 실시 예에 따르면, 제1 장치(130) 또는 컨텐트 서버(150)는 통신 모듈을 이용하여 상기 제2 대역폭에 기초하여 상기 제2 영상을 전송할 수 있다. 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 제2 대역폭에 대응하는 제2 채널을 통해 상기 제2 영상을 전송할 수 있다.According to an embodiment, the first device 130 or the content server 150 may transmit the second image based on the second bandwidth using a communication module. For example, the first device 130 or the content server 150 may transmit the second image through a second channel corresponding to the second bandwidth.

일 실시 예에 따르면, 상기 제2 영상은 스트리밍 방식으로 제공되는 영상(또는 동영상)일 수 있다. 예를 들어, 상기 제2 영상은 PIP 영상일 수 있다.According to an embodiment, the second image may be an image (or a moving image) provided by a streaming method. For example, the second image may be a PIP image.

313 동작에서, 제2 장치(170)는 상기 제2 영상을 확인할 수 있다.In operation 313 , the second device 170 may check the second image.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈을 이용하여 상기 제2 영상을 수신할 수 있으며, 상기 수신된 제2 영상을 확인할 수 있다.According to an embodiment, the second device 170 may receive the second image using a communication module, and may check the received second image.

315 동작에서, 제1 장치(130) 또는 컨텐트 서버(150)는 제어 데이터를 전송할 수 있다.In operation 315 , the first device 130 or the content server 150 may transmit control data.

일 실시 예에 따르면, 제1 장치(130) 또는 컨텐트 서버(150)는 통신 모듈을 이용하여 상기 제어 데이터를 전송할 수 있다.According to an embodiment, the first device 130 or the content server 150 may transmit the control data using a communication module.

예를 들어, 상기 제어 데이터는, 상기 제1 영상 및 상기 제2 영상과 관련된 제어 데이터(제어 정보)로, 상기 제1 영상에 상기 제2 영상이 오버레이될 상기 제1 영상의 영역 정보(예: 영역 위치 정보, 영역 좌표 정보) 및/또는 상기 타임 스탬프 정보를 포함할 수 있다.For example, the control data may be control data (control information) related to the first image and the second image, and may include area information of the first image on which the second image is to be overlaid on the first image (eg: area location information, area coordinate information) and/or the time stamp information.

317 동작에서, 제2 장치(170)는 상기 제어 데이터를 확인할 수 있다.In operation 317 , the second device 170 may check the control data.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈을 이용하여 상기 제어 데이터를 수신할 수 있으며, 상기 수신된 제어 데이터를 확인할 수 있다.According to an embodiment, the second device 170 may receive the control data using a communication module and may check the received control data.

319 동작에서, 제2 장치(170)는 상기 제어 데이터에 기초하여 상기 제1 영상과 상기 제2 영상을 제공(디스플레이)할 수 있다.In operation 319, the second device 170 may provide (display) the first image and the second image based on the control data.

일 실시 예에 따르면, 제2 장치(170)는 상기 제1 영상의 지정된 영역에 상기 제2 영상이 오버레이되도록 상기 제1 영상 및 상기 제2 영상을 사용자에게 제공 할 수 있다. 예를 들어, 제2 장치(170)는 상기 제1 영상의 지정된 영역에 상기 제2 영상이 오버레이되도록 상기 제1 영상 및 상기 제2 영상을 결합할 수 있으며, 상기 결합된 제1 영상 및 제2 영상을 제공할 수 있다.According to an embodiment, the second device 170 may provide the first image and the second image to the user so that the second image is overlaid on a designated area of the first image. For example, the second device 170 may combine the first image and the second image so that the second image is overlaid on a designated area of the first image, and the combined first image and the second image video can be provided.

상술한 도 3의 실시 예를 360도 카메라와 가상 현실 기술이 접목된 실시간 라이브 중계 서비스를 제공하기 위해, 상기 제1 영상을 배경 영상인 360도 영상으로, 상기 제2 영상은 상기 배경 영상의 지정된 영역에 오버레이되어 제공되는 중요 영상인 PIP 영상으로 이용할 경우, 종래의 사용자에게 제공되는 PIP 영상의 화질 열화 문제를 해결 할 수 있다.In order to provide a real-time live relay service in which a 360-degree camera and virtual reality technology are grafted in the embodiment of FIG. 3, the first image is a 360-degree image that is a background image, and the second image is a designated image of the background image. When used as a PIP image, which is an important image that is overlaid on the area, it is possible to solve the problem of deterioration in image quality of the conventional PIP image provided to users.

도 4는 종래 기술을 이용한 PIP 영상의 제공 화면과 본 발명의 실시 예에 따른 PIP 영상의 제공 화면의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a PIP video providing screen using the prior art and a PIP video providing screen according to an embodiment of the present invention.

종래에는, 컨텐트 서버(150)와 제2 장치(170) 간에는 네트워크 트래픽에 따라 다양한 대역폭(bandwidth)으로 상기 360도 영상 및 상기 PIP 영상을 제공하여 사용자가 360도 가상 현실 콘텐츠를 이용할 수 있었다. 그러나, 종래에는, 컨텐트 서버(150)가 상기 제2 장치(170)로 상기 360도 영상과 상기 PIP 영상을 하나의 채널을 통해 스트리밍 방식으로 전송하였으며, 이 때문에, 제2 장치(170)는 낮은 비트 레이트(bit rate)로 상기 PIP 영상을 수신하고 상기 PIP 영상의 디코딩 시, PIP 영상의 화질 열화가 심화되는 문제가 발생해 왔다.Conventionally, the 360-degree image and the PIP image are provided between the content server 150 and the second device 170 in various bandwidths according to network traffic so that the user can use the 360-degree virtual reality content. However, in the related art, the content server 150 transmits the 360-degree image and the PIP image to the second device 170 in a streaming manner through one channel. When the PIP image is received at a bit rate and the PIP image is decoded, there has been a problem in that the quality of the PIP image deteriorates.

예를 들어, 종래에는, 컨텐트 서버(150)가 8Mbps로 상기 360도 영상 및 상기 PIP 영상을 제2 장치(170)로 전송할 경우, 도 4의 (a)를 참조하면, 제2 장치(170)에서 상기 PIP 영상이 디스플레이될 PIP 영역(403)이 상기 360도 영상이 디스플레이될 전체 디스플레이 영역(401) 면적의 1/8일 때, 상기 PIP 영상의 데이터 전송량은 평균적으로 1Mbps가 된다.For example, in the prior art, when the content server 150 transmits the 360-degree image and the PIP image to the second device 170 at 8 Mbps, referring to FIG. 4A , the second device 170 When the PIP area 403 in which the PIP image is to be displayed is 1/8 of the total display area 401 in which the 360-degree image is displayed, the data transmission amount of the PIP image is 1 Mbps on average.

반면, 상술한 도 3의 실시 예에 따르면, 컨텐트 서버(150)가 8Mbps로 상기 360도 영상 및 상기 PIP 영상을 각각 제2 장치(170)로 전송할 경우, 도 4의 (b)를 참조하면, 제2 장치(170)에서 상기 PIP 영상이 디스플레이될 PIP 영역(403)이 전체 디스플레이 영역(401) 면적의 1/8이라도, 상기 PIP 영상은 3Mbps로, 상기 360도 영상은 5Mbps의 전송량으로 전송되도록 할 수 있다. 예를 들어, 상술한 도 3의 실시 예에 따르면, 상기 PIP 영역(403)과 같이, 사용자의 관심이 집중되는 중요 영역의 경우, 상기 전체 디스플레이 영역(401)과 같은 배경 영역보다 대역폭을 증가시켜 고화질(고해상도)로 구현되도록 할 수 있다.On the other hand, according to the embodiment of FIG. 3 described above, when the content server 150 transmits the 360-degree image and the PIP image to the second device 170 at 8 Mbps, respectively, referring to FIG. 4(b), In the second device 170, even if the PIP area 403 where the PIP image is to be displayed is 1/8 of the total display area 401, the PIP image is transmitted at 3 Mbps and the 360-degree image is transmitted at 5 Mbps. can do. For example, according to the above-described embodiment of FIG. 3 , in the case of an important area where the user's attention is concentrated, such as the PIP area 403 , the bandwidth is increased compared to the background area such as the entire display area 401 . It can be implemented in high quality (high resolution).

도 5는 본 발명의 일 실시 예에 따른 영상 처리 동작을 설명하기 위한 도면이다.5 is a diagram for explaining an image processing operation according to an embodiment of the present invention.

도 5를 참조하면, 제2 장치(170)는 사용자의 시선 및/또는 사용자의 머리의 움직임을 추적하여, 제1 장치(130) 또는 컨텐트 서버(150)로 상기 추적과 관련된 정보를 제공함으로써, 제1 장치(130) 또는 컨텐트 서버(150)가, 제2 장치(170)로 제공할 영상들 각각에 대한 대역폭을 가변적으로 설정하도록 할 수 있다. 이에 따라, 제2 장치(170)는, 제1 장치(130) 또는 컨텐트 서버(150)가 각기 다른 대역폭으로 전송하는 영상들을, 각각 수신할 수 있다. 예를 들어, 제2 장치(170)는 각기 다른 대역폭을 통해 영상들 각각을 수신할 수 있다.Referring to FIG. 5 , the second device 170 tracks the user's gaze and/or the movement of the user's head, and provides the tracking-related information to the first device 130 or the content server 150, The first device 130 or the content server 150 may variably set a bandwidth for each of the images to be provided to the second device 170 . Accordingly, the second device 170 may receive images transmitted by the first device 130 or the content server 150 with different bandwidths, respectively. For example, the second device 170 may receive each of the images through different bandwidths.

일 실시 예에 따르면, 제2 장치(170)는 머리 착용 디스플레이(HMD; head mounted display) 형태의 장치일 수 있으며, 사용자의 머리에 착용될 수 있다. 제2 장치(170)는, 복수의 영상들, 예를 들어, 제1 영상 및 제2 영상을 수신하여 표시부(예: 표시부(175))에 디스플레이할 수 있으며, 상기 제1 영상 및 상기 제2 영상에 기초하여 3차원 좌표 공간(가상 공간)을 생성하여 제공할 수 있다. 예를 들어, 상기 제1 영상은 3차원 좌표 공간상에서의 배경 영역인 제1 영역(501)(제1 표시 영역이라고도 함)에 제공될 수 있으며, 상기 제2 영상은 3차원 좌표 공간상에서의 관심 영역(중요 영역)인 제2 영역(503)(제2 표시 영역이라고도 함)에 제공될 수 있다. 예를 들어, 상기 제2 영역(503)은 상기 제1 영역(501)에 오버레이될 수 있다. 예를 들어, 상기 제1 영상은 360도 영상일 수 있으며, 상기 제2 영상은 2차원 영상일 수 있다. 예를 들어, 상기 제1 영상 및 상기 제2 영상은 스트리밍 방식으로 제공되는 영상들일 수 있다. According to an embodiment, the second device 170 may be a device in the form of a head mounted display (HMD) and may be worn on the user's head. The second device 170 may receive a plurality of images, for example, a first image and a second image, and display it on a display unit (eg, the display unit 175 ), and the first image and the second image A three-dimensional coordinate space (virtual space) may be generated and provided based on the image. For example, the first image may be provided to a first area 501 (also referred to as a first display area) that is a background area in a 3D coordinate space, and the second image is an interest in a 3D coordinate space. It may be provided in a second area 503 (also referred to as a second display area) that is an area (important area). For example, the second area 503 may be overlaid on the first area 501 . For example, the first image may be a 360 degree image, and the second image may be a 2D image. For example, the first image and the second image may be images provided in a streaming method.

일 실시 예에 따르면, 제2 장치(170)는, 시선 추적 기술(eye tracking) 및/또는 머리 추적(head tracking) 기술을 이용하여, 사용자의 시선 및/또는 사용자의 머리의 움직임을 추적할 수 있다. 예를 들어, 제2 장치(170)는 상기 시선 추적 기술을 이용하여 사용자의 시선의 위치 및/또는 움직임을 추적할 수 있다. 예를 들어, 제2 장치(170)는, 상기 머리 추적 기술을 이용하여, 사용자의 머리 중심을 3차원 좌표계의 원점에 두고, 사용자의 머리의 전, 후, 좌, 우, 상, 또는 하의 움직임을 추적할 수 있다.According to an embodiment, the second device 170 may track the user's gaze and/or the movement of the user's head using eye tracking and/or head tracking technology. have. For example, the second device 170 may track the position and/or movement of the user's gaze using the gaze tracking technology. For example, the second device 170 uses the head tracking technology to place the center of the user's head at the origin of the three-dimensional coordinate system, and moves the user's head forward, backward, left, right, up, or down. can be tracked.

일 실시 예에 따르면, 제2 장치(170)는, 상기 사용자의 시선 및/또는 사용자의 머리의 움직임의 추적에 기초하여, 3차원 좌표 공간 상에서 사용자의 시선이 향하는 3차원 좌표 영역을 확인할 수 있다. 예를 들어, 상기 사용자의 시선이 향하는 3차원 좌표 영역은, 사용자가 관심 있게 보는 영역이라고 할 수 있으며, 이에 따라 상기 사용자의 시선이 향하는 3차원 좌표 영역에 제공되는 영상의 경우 고화질의 영상으로 제공되도록 요구 될 수 있다. 상기 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역 이외의 3차원 좌표 영역에 제공되는 영상의 경우에는, 고화질의 영상으로 제공되도록 할 수 있지만, 고화질의 영상으로 제공되지 않아도 무관할 수 있다. According to an embodiment, the second device 170 may identify a 3D coordinate region to which the user's gaze is directed in the 3D coordinate space based on the tracking of the user's gaze and/or the movement of the user's head. . For example, the three-dimensional coordinate region to which the user's gaze is directed may be a region that the user is interested in viewing. Accordingly, an image provided to the three-dimensional coordinate region toward which the user's gaze is directed is provided as a high-quality image. may be required to be In the case of an image provided in a 3D coordinate area other than the 3D coordinate area to which the user's gaze is directed on the 3D coordinate space, it may be provided as a high-quality image, but it may be irrelevant even if it is not provided as a high-quality image have.

일 실시 예에 따르면, 상기 사용자의 시선이 향하는 3차원 좌표 영역에 제공되는 영상이 고화질의 영상으로 제공되도록 하기 위해, 제2 장치(170)는, 상기 확인한 3차원 좌표 영역에 대응하는 영역 정보를, 상기 제1 영상 및 상기 제2 영상을 제공하는 장치, 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)로 전송할 수 있다. 상기 3차원 좌표 영역에 대응하는 영역 정보를 수신한 제1 장치(130) 또는 컨텐트 서버(150)는, 상기 확인한 3차원 좌표 영역에 제공될 영상에 대해서는 고화질의 영상이 제공될 수 있도록 대역폭을 설정(또는 재설정) 및/또는 상기 확인한 3차원 좌표 영역 이외의 영역에 제공될 영상에 대해서는 일반 화질 또는 저화질의 영상이 제공될 수 있도록 대역폭을 설정(또는 재설정)할 수 있다. 예를 들어, 상기 대역폭의 설정(또는 재설정)을 위해, 상기 3차원 좌표 영역에 대응하는 영역 정보를 수신한 제1 장치(130) 또는 컨텐트 서버(150)는, 상기 확인한 3차원 좌표 영역에 제공될 영상의 프레임 레이트 및/또는 상기 확인한 3차원 좌표 영역 이외의 영역에 제공될 영상의 프레임 레이트를 변경함으로써, 상기 확인한 3차원 좌표 영역에 제공될 영상 및 상기 확인한 3차원 좌표 영역 이외의 영역에 제공될 영상의 비트 레이트가 변경되도록 할 수 있다.According to an embodiment, in order to provide a high-quality image in the image provided to the 3D coordinate region toward which the user's gaze is directed, the second device 170 may obtain region information corresponding to the identified 3D coordinate region. , to a device providing the first image and the second image, for example, the first device 130 or the content server 150 . The first device 130 or the content server 150 that has received the region information corresponding to the 3D coordinate region sets a bandwidth so that a high-quality image can be provided for the image to be provided in the checked 3D coordinate region. (or reset) and/or for an image to be provided in a region other than the identified 3D coordinate region, a bandwidth may be set (or reset) so that an image of normal or low quality may be provided. For example, in order to set (or reset) the bandwidth, the first device 130 or the content server 150 that has received region information corresponding to the three-dimensional coordinate region provides the identified three-dimensional coordinate region. By changing the frame rate of the image to be provided and/or the frame rate of the image to be provided in an area other than the identified 3D coordinate area, the image to be provided in the identified 3D coordinate area and provided to an area other than the identified 3D coordinate area It is possible to change the bit rate of the image to be made.

예를 들어, 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 상기 제2 영역(503)을 포함할 경우, 제2 장치(170)는 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함한다는 정보를, 상기 제1 영상 및 상기 제2 영상을 제공하는 장치, 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)로 전송할 수 있다. 상기 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함한다는 정보를 수신한, 제1 장치(130) 또는 컨텐트 서버(150)는, 상기 제2 영역(503)에 제공될 영상의 프레임 레이트를 유지하고, 제1 영역(501)에 제공될 영상의 프레임 레이트를 가변적으로 떨어뜨려서, 제1 영역에 제공될 영상(영상 데이터)의 전송량을 줄여 제한된 통신 네트워크 상황에서 중요 영상인 제2 영상에 대해서는 고화질 영상을 구현할 수 있다. 예를 들어, 상기 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함한다는 정보를 수신한, 제1 장치(130) 또는 컨텐트 서버(150)는, 상기 제1 영역(501)에 제공될 영상의 프레임 레이트를 다음의 수학식 1을 이용하여 설정(결정)할 수 있다.For example, when the 3D coordinate area to which the user's gaze is directed in the 3D coordinate space includes the second area 503 , the second device 170 determines that the user's gaze is directed in the 3D coordinate space. Information indicating that the three-dimensional coordinate region facing the second region 503 is transmitted to a device providing the first image and the second image, for example, the first device 130 or the content server 150 can be transmitted The first device 130 or the content server 150, which has received the information that the 3D coordinate region to which the user's gaze is directed includes the second region 503 on the 3D coordinate space, the second region By maintaining the frame rate of the image to be provided to the 503 and variably dropping the frame rate of the image to be provided to the first area 501, the transmission amount of the image (image data) to be provided to the first area is reduced, resulting in limited communication A high-definition image may be implemented for the second image, which is an important image in a network situation. For example, the first device 130 or the content server 150, which has received the information that the 3D coordinate area to which the user's gaze is directed on the 3D coordinate space includes the second area 503, The frame rate of the image to be provided to the first region 501 may be set (determined) using Equation 1 below.

[수학식 1][Equation 1]

제1 영역에 제공될 영상의 프레임 레이트 = 계수(coefficient) * 제2 영역에 제공될 영상의 프레임 레이트Frame rate of the image to be provided to the first area = coefficient * Frame rate of the image to be provided to the second area

예를 들어, 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함하지 않는 제1 영역(501)의 일부를 포함할 경우, 제2 장치(170)는 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함하지 않는 제1 영역(501)의 일부를 포함한다는 정보를, 상기 제1 영상 및 상기 제2 영상을 제공하는 장치, 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)로 전송할 수 있다. 상기 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함하지 않는 제1 영역(601)의 일부를 포함한다는 정보를 수신한, 제1 장치(130) 또는 컨텐트 서버(150)는, 상기 제1 영역(501)에 제공될 영상의 프레임 레이트를 유지시킬 수 있다. For example, when the 3D coordinate area to which the user's gaze is directed in the 3D coordinate space includes a part of the first area 501 that does not include the second area 503 , the second device 170 . provides information that the 3D coordinate area to which the user's gaze is directed in the 3D coordinate space includes a part of the first area 501 that does not include the second area 503, the first image and the second The image may be transmitted to a device providing an image, for example, the first device 130 or the content server 150 . The first device 130 that receives the information that the 3D coordinate area to which the user's gaze is directed in the 3D coordinate space includes a part of the first area 601 that does not include the second area 503 Alternatively, the content server 150 may maintain the frame rate of the image to be provided to the first area 501 .

예를 들어, 제1 영역(501)에 제공될 제1 영상의 프레임 레이트는 10Hz 내지 60Hz일 수 있으며, 기 지정된 프레임 레이트는 60Hz일 수 있다. 예를 들어, 제2 영역(503)에 제공될 제2 영상의 프레임 레이트는 30Hz 내지 60Hz일 수 있으며, 기 지정된 프레임 레이트는 60Hz일 수 있다. 예를 들어, 상기 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함한다는 정보를 수신한, 제1 장치(130) 또는 컨텐트 서버(150)는, 상기 제2 영역(503)에 디스플레이될 제2 영상의 프레임 레이트를 60Hz로 유지할 수 있으며, 제1 영역(501)에 디스플레이될 제1 영상의 프레임 레이트를 10Hz 내지 30Hz로 가변적으로 떨어뜨릴 수 있다. 예를 들어, 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 3차원 좌표 영역이, 제2 영역(503)을 포함하지 않는 제1 영역(501)의 일부를 포함한다는 정보를 수신한, 제1 장치(130) 또는 컨텐트 서버(150)는, 제1 영역(501)의 프레임 레이트를 60Hz로 유지할 수 있다.For example, the frame rate of the first image to be provided to the first region 501 may be 10 Hz to 60 Hz, and a predetermined frame rate may be 60 Hz. For example, a frame rate of the second image to be provided to the second region 503 may be 30 Hz to 60 Hz, and a predetermined frame rate may be 60 Hz. For example, the first device 130 or the content server 150, which has received the information that the 3D coordinate area to which the user's gaze is directed on the 3D coordinate space includes the second area 503, The frame rate of the second image to be displayed on the second region 503 may be maintained at 60 Hz, and the frame rate of the first image to be displayed on the first region 501 may be variably dropped from 10 Hz to 30 Hz. For example, the first device that receives the information that the 3D coordinate area to which the user's gaze is directed in the 3D coordinate space includes a part of the first area 501 that does not include the second area 503 , 130 or the content server 150 may maintain the frame rate of the first region 501 at 60 Hz.

도 6은 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.6 is a flowchart of an image processing operation according to an embodiment of the present invention.

601 동작에서 제2 장치(170)(또는 제2 장치(170)의 제어부(171))는 3차원 좌표 공간 상에서 사용자의 시선 추적 또는 머리 추적을 할 수 있다.In operation 601 , the second device 170 (or the controller 171 of the second device 170 ) may track the user's gaze or the head in the 3D coordinate space.

일 실시 예에 따르면, 제2 장치(170)는 머리 착용 디스플레이 형태의 장치일 수 있으며, 사용자의 머리에 착용될 수 있다.According to an embodiment, the second device 170 may be a device in the form of a head worn display, and may be worn on the user's head.

일 실시 예에 따르면, 제2 장치(170)는, 복수의 영상들, 예를 들어, 제1 영상 및 제2 영상을 수신하여, 상기 수신된 제1 영상 및 제2 영상을 3차원 좌표 공간 상에 제공되도록 할 수 있다. 예를 들어, 상기 제1 영상의 적어도 일부 및/또는 상기 제2 영상의 적어도 일부가 제2 장치(170)의 표시부에 디스플레이될 수 있다. 예를 들어, 제2 장치(170)는, 종래의 3차원 좌표 공간 생성 기술을 이용하여, 상기 제1 영상 및 제2 영상을 기초로 입체 공간 모델을 생성함으로써, 상기 3차원 좌표 공간을 생성할 수 있다.According to an embodiment, the second device 170 receives a plurality of images, for example, a first image and a second image, and displays the received first image and the second image on a 3D coordinate space. may be provided in For example, at least a portion of the first image and/or at least a portion of the second image may be displayed on the display unit of the second device 170 . For example, the second device 170 may generate the three-dimensional coordinate space by generating a three-dimensional space model based on the first image and the second image using a conventional three-dimensional coordinate space generation technique. can

일 실시 예에 따르면, 제2 장치(170)는, 시선 추적 기술을 이용하여, 상기 3차원 좌표 공간 상에서 사용자의 시선을 추적할 수 있다. According to an embodiment, the second device 170 may track the user's gaze on the 3D coordinate space by using the gaze tracking technology.

일 실시 예에 따르면, 제2 장치(170)는, 머리 추적(head tracking) 기술을 이용하여, 상기 3차원 좌표 공간 상에서 사용자의 머리의 움직임을 추적할 수 있으며, 상기 사용자의 머리의 움직임에 기초하여, 상기 3차원 좌표 공간 상에서 상기 사용자의 시선이 향하는 방향을 결정(추정)할 수 있다.According to an embodiment, the second device 170 may track the movement of the user's head in the three-dimensional coordinate space by using a head tracking technology, and based on the movement of the user's head, Thus, it is possible to determine (estimate) the direction in which the user's gaze is directed in the three-dimensional coordinate space.

603 동작에서 제2 장치(170)는 상기 시선 추적 또는 상기 머리 추적에 기초하여, 상기 3차원 좌표 공간 상에서 상기 사용자의 시선에 대응하는 영역을 확인할 수 있다.In operation 603 , the second device 170 may identify an area corresponding to the user's gaze on the 3D coordinate space based on the gaze tracking or the head tracking.

일 실시 예에 따르면, 제2 장치(170)는, 상기 시선 추적 또는 상기 머리 추적에 기초하여, 상기 3차원 좌표 공간 상에서 사용자의 시선에 대응하는 영역인, 사용자의 시선이 향하는 방향의 영역(사용자가 바라보는 영역)을 확인할 수 있다. According to an embodiment, the second device 170, based on the eye tracking or the head tracking, is an area corresponding to the user's gaze on the 3D coordinate space, the area in the direction of the user's gaze (user area) can be checked.

예를 들어, 상기 3차원 좌표 공간은 복수 개의 3차원 좌표 영역, 예를 들어, 도 5의 제1 영역(501) 및 제2 영역(503)으로 구분될 수 있다. For example, the 3D coordinate space may be divided into a plurality of 3D coordinate regions, for example, the first region 501 and the second region 503 of FIG. 5 .

예를 들어, 제2 장치(170)는, 상기 시선 추적 또는 상기 머리 추적에 기초하여, 상기 3차원 좌표 공간 상의 복수 개의 3차원 좌표 영역 중, 상기 사용자가 바라보는 영역의 적어도 일부가 포함된 3차원 좌표 영역을 확인할 수 있다. 예를 들어, 제2 장치(170)는 상기 사용자가 바라보는 영역이 상기 제1 영역(501)을 포함하는 영역인지, 상기 제1 영역(501)을 포함하지 않는 제2 영역(503)의 일부 영역을 포함하는 영역인지를 확인할 수 있다. For example, the second device 170 may include, based on the eye tracking or the head tracking, at least a part of the area viewed by the user, among a plurality of 3D coordinate areas on the 3D coordinate space. You can check the dimensional coordinate area. For example, the second device 170 determines whether the area viewed by the user includes the first area 501 or a part of the second area 503 that does not include the first area 501 . You can check whether the area includes the area.

605 동작에서, 제2 장치(170)는, 상기 확인된 영역의 영역 정보를 전송할 수 있다.In operation 605, the second device 170 may transmit area information of the identified area.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈(예: 통신 모듈(173))을 이용하여 상기 확인된 영역의 영역 정보를 전송할 수 있다.According to an embodiment, the second device 170 may transmit area information of the identified area using a communication module (eg, the communication module 173).

예를 들어, 상기 확인된 영역의 영역 정보는, 상기 3차원 좌표 공간 상에서의 영역의 위치 정보(좌표 정보) 및 크기 정보를 포함할 수 있다. For example, the area information of the identified area may include location information (coordinate information) and size information of the area in the 3D coordinate space.

예를 들어, 상기 확인된 영역의 영역 정보는, 지정된 관심 영역(중요 영역)이라는 정보 또는 상기 지정된 관심 영역 이외의 영역이라는 정보를 포함할 수 있다. 예를 들어, 상기 지정된 관심 영역은, 도 5의 제1 영역(501)이라는 정보를 포함할 수 있다. 예를 들어, 상기 지정된 관심 영역 이외의 영역이라는 정보는, 도 5의 제2 영역(503)을 포함하지 않는 제1 영역(501)의 일부라는 정보를 포함할 수 있다.For example, the region information of the identified region may include information indicating a designated region of interest (important region) or information indicating a region other than the designated region of interest. For example, the designated ROI may include information called the first region 501 of FIG. 5 . For example, the information that the region is other than the designated region of interest may include information that the region is a part of the first region 501 that does not include the second region 503 of FIG. 5 .

607 동작에서 제1 장치(130) 또는 컨텐트 서버(150)는 상기 영역 정보에 기초하여, 제1 영상의 기 지정된 대역폭 및 제2 영상의 기 지정된 대역폭을 변경 또는 유지할 수 있다.In operation 607, the first device 130 or the content server 150 may change or maintain a predetermined bandwidth of the first image and a predetermined bandwidth of the second image based on the region information.

일 실시 예에 따르면, 상기 영역 정보가 상기 지정된 관심 영역이라는 정보를 포함하는 경우, 상기 지정된 관심 영역에 전송될 영상의 대역폭을 넓히고, 상기 지정된 관심 영역 이외의 영역에 전송될 영상의 대역폭을 축소시킬 수 있다.According to an embodiment, when the region information includes the information about the designated region of interest, the bandwidth of the image to be transmitted to the specified region of interest is widened and the bandwidth of the image to be transmitted to the region other than the specified region of interest is reduced. can

도 5를 참조하면, 예를 들어, 상기 제1 영상은 지정된 관심 영역 이외의 영역인 제1 영역(503)에 제공될 수 있으며, 상기 제2 영상은 상기 지정된 관심 영역인 제2 영역(503)에 제공될 수 있다. Referring to FIG. 5 , for example, the first image may be provided to a first region 503 that is a region other than a designated ROI, and the second image is a second region 503 that is the designated ROI. can be provided on

예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 영역 정보가 지정된 관심 영역인 상기 제2 영역(503)이라는 정보를 포함하는 경우, 상기 제2 영역(503)에 제공될 제2 영상의 비트 레이트를 높이기 위해, 상기 제1 영역(501)에 제공될 제1 영상의 프레임 레이트를 지정된 기준에 따라 낮게 변경할 수 있다.For example, when the first device 130 or the content server 150 includes information that the region information is the second region 503 that is a designated region of interest, the first device to be provided to the second region 503 is In order to increase the bit rate of the second image, the frame rate of the first image to be provided to the first region 501 may be changed to be lower according to a specified criterion.

일 실시 예에 따르면, 상기 영역 정보가 상기 지정된 관심 영역 이외의 영역이라는 정보를 포함하는 경우, 제1 영상의 대역폭 및 제2 영상의 대역폭은 기 지정된 대역폭을 유지시킬 수 있다.According to an embodiment, when the region information includes information that is a region other than the designated region of interest, the bandwidth of the first image and the bandwidth of the second image may maintain the preset bandwidth.

도 5를 참조하면, 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 영역 정보가 상기 제1 영역(501)이라는 정보를 포함하는 경우, 상기 제1 영역(501) 및 상기 제2 영역(503)에 제공될 제1 영상 및 제2 영상의 비트 레이트를 유지시킬 수 있다.Referring to FIG. 5 , for example, when the region information includes the information that the region information is the first region 501, the first region 501 and the content server 150 The bit rates of the first image and the second image to be provided to the second region 503 may be maintained.

609 동작에서 제1 장치(130) 또는 컨텐트 서버(150)는 상기 변경 또는 유지된 제1 영상의 대역폭에 기초하여 상기 제1 영상을 전송할 수 있다.In operation 609, the first device 130 or the content server 150 may transmit the first image based on the changed or maintained bandwidth of the first image.

일 실시 예에 따르면, 제1 장치(130) 또는 컨텐트 서버(150)는 통신 모듈(예: 통신 모듈(133) 또는 통신 모듈(153))을 이용하여, 상기 변경 또는 유지된 제1 영상의 대역폭에 기초하여 상기 제1 영상을 전송할 수 있다.According to an embodiment, the first device 130 or the content server 150 uses a communication module (eg, the communication module 133 or the communication module 153), and the bandwidth of the changed or maintained first image The first image may be transmitted based on

예를 들어, 상기 제1 영상은 스트리밍 방식으로 제공되는 영상(또는 동영상)일 수 있다. 예를 들어, 상기 제1 영상을 360도 영상일 수 있다.For example, the first image may be an image (or a moving image) provided by a streaming method. For example, the first image may be a 360-degree image.

611 동작에서, 제2 장치(170)는 상기 제1 영상을 확인할 수 있다.In operation 611 , the second device 170 may check the first image.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈을 이용하여 상기 제1 영상을 수신할 수 있으며, 상기 수신된 제1 영상을 확인할 수 있다.According to an embodiment, the second device 170 may receive the first image using a communication module, and may check the received first image.

613 동작에서, 제1 장치(130) 또는 컨텐트 서버(150)는 상기 변경 또는 유지된 대역폭에 기초하여 제2 영상을 전송할 수 있다.In operation 613 , the first device 130 or the content server 150 may transmit the second image based on the changed or maintained bandwidth.

일 실시 예에 따르면, 제1 장치(130) 또는 컨텐트 서버(150)는 통신 모듈을 이용하여 상기 변경 또는 유지된 대역폭에 기초하여 상기 제2 영상을 전송할 수 있다.According to an embodiment, the first device 130 or the content server 150 may transmit the second image based on the changed or maintained bandwidth using a communication module.

예를 들어, 상기 제2 영상은 스트리밍 방식으로 제공되는 영상(또는 동영상)일 수 있다. 예를 들어, 상기 제2 영상은 PIP 영상일 수 있다.For example, the second image may be an image (or a moving image) provided by a streaming method. For example, the second image may be a PIP image.

615 동작에서, 제2 장치(170)는 상기 제2 영상을 확인할 수 있다.In operation 615 , the second device 170 may check the second image.

일 실시 예에 따르면, 제2 장치(170)는 통신 모듈을 이용하여 상기 제2 영상을 수신할 수 있으며, 상기 수신된 제2 영상을 확인할 수 있다.According to an embodiment, the second device 170 may receive the second image using a communication module, and may check the received second image.

617 동작에서, 제2 장치(170)는 상기 제1 영상 및 상기 제2 영상을 제공할 수 있다.In operation 617 , the second device 170 may provide the first image and the second image.

일 실시 예에 따르면, 상기 제1 영상의 적어도 일부 및/또는 상기 제2 영상의 적어도 일부가 제2 장치(170)의 표시부에 디스플레이될 수 있다.According to an embodiment, at least a portion of the first image and/or at least a portion of the second image may be displayed on the display unit of the second device 170 .

도 7은 본 발명의 일 실시 예에 따른 영상 처리 동작의 흐름도이다.7 is a flowchart of an image processing operation according to an embodiment of the present invention.

710 동작에서 제2 장치(170)(전자 장치라고도 함)는, 제1 대역폭을 통해 제1 영상을 수신할 수 있다.In operation 710 , the second device 170 (also referred to as an electronic device) may receive the first image through the first bandwidth.

720 동작에서 제2 장치(170)는, 제2 대역폭을 통해 제2 영상을 수신할 수 있다.In operation 720, the second device 170 may receive the second image through the second bandwidth.

730 동작에서 제2 장치(170)는 표시부의 제1 영역(제1 표시 영역이라고도 함)에 상기 제1 영상을 제공하고, 상기 제1 영역의 적어도 일부 영역에 오버레이(overlay)된 제2 영역(제2 표시 영역이라고도 함)에 상기 제2 영상을 제공할 수 있다.In operation 730, the second device 170 provides the first image to a first area (also referred to as a first display area) of the display unit, and a second area (overlayed) on at least a partial area of the first area. The second image may be provided to a second display area).

예를 들어, 상기 제2 장치(170)는, 상기 제2 영역의 위치 정보를 수신하며, 상기 위치 정보에 기초하여 상기 제2 영역의 위치를 결정할 수 있다.For example, the second device 170 may receive location information of the second area and determine the location of the second area based on the location information.

예를 들어, 상기 제2 영상은 상기 제1 영상에 비해 고화질의 영상일 수 있다.For example, the second image may be a higher quality image than the first image.

예를 들어, 상기 제2 장치(170)는, 사용자의 시선에 대응하는 영역을 확인하며, 상기 사용자의 시선에 대응하는 영역의 정보를, 상기 제1 영상 및 상기 제2 영상을 전송한 장치, 예를 들어, 제1 장치(130) 또는 컨텐트 서버(150)로, 전송할 수 있다.For example, the second device 170 identifies a region corresponding to the user's gaze, and transmits information on the region corresponding to the user's gaze, the first image and the second image; For example, it may be transmitted to the first device 130 or the content server 150 .

예를 들어, 상기 제1 대역폭 및 상기 제2 대역폭은, 상기 사용자의 시선에 대응하는 영역의 정보에 기초하여 결정된 것일 수 있다.For example, the first bandwidth and the second bandwidth may be determined based on information on an area corresponding to the user's gaze.

예를 들어, 상기 사용자의 시선에 대응하는 영역은, 상기 제2 영역을 포함할 수 있다. 상기 제1 대역폭 및 상기 제2 대역폭은, 상기 제2 장치(170)의 제어에 의해, 상기 사용자의 시선에 대응하는 영역이 상기 제2 영역을 포함하는 것에 기초하여, 기 설정된 대역폭들을 각각 변경되어 결정된 것일 수 있다. For example, the area corresponding to the user's gaze may include the second area. The first bandwidth and the second bandwidth are respectively changed to preset bandwidths based on the area corresponding to the user's gaze including the second area under the control of the second device 170 . may have been decided.

상술한 도1a 내지 도 7의 실시 예에서의 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.The operations in the above-described embodiments of FIGS. 1A to 7 may be sequentially, parallelly, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added.

본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 메모리(113)(내장 메모리 또는 외장 메모리))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램)로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. 상기 명령이 제어부(예: 제어부(101))(또는 프로세서)에 의해 실행될 경우, 제어부가 직접, 또는 상기 제어부의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document include instructions stored in a machine-readable storage media (eg, memory 113 (internal memory or external memory)) readable by a machine (eg, a computer). It may be implemented in software (eg, a program). The device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include an electronic device (eg, the electronic device 100 ) according to the disclosed embodiments. When the command is executed by a control unit (eg, the control unit 101 ) (or a processor), the control unit may directly or use other components under the control of the control unit to perform a function corresponding to the command. Instructions may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is semi-permanently or temporarily stored in the storage medium.

일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. According to an example, the method according to various embodiments disclosed in the present document may be included and provided in a computer program product.

일 실시 예에 따르면, 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서, 제1 대역폭을 통해 제1 영상을 수신하는 동작, 제2 대역폭을 통해 제2 영상을 수신하는 동작, 제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부에서의, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하는 동작, 및 상기 표시부의 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 하는 동작을 포함하는 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함할 수 있다.According to an embodiment, there is provided a computer-readable recording medium storing a computer program, comprising: an operation of receiving a first image through a first bandwidth, an operation of receiving a second image through a second bandwidth, a first display area; receiving location information on the first display area of the second display area in a display unit including a second display area corresponding to a part of the first display area; and instructions for causing the processor to perform a method including providing a first image and providing the second image in the second display area so that the second image is overlaid on the first image. can

일 실시 예에 따르면, 컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서, 제1 대역폭을 통해 제1 영상을 수신하는 동작, 제2 대역폭을 통해 제2 영상을 수신하는 동작, 제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부에서의, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하는 동작, 및 상기 표시부의 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 하는 동작을 포함하는 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함할 수 있다.According to an embodiment, as a computer program stored in a computer-readable recording medium, an operation of receiving a first image through a first bandwidth, an operation of receiving a second image through a second bandwidth, a first display area; receiving location information on the first display area of the second display area in a display unit including a second display area corresponding to a part of the first display area; and instructions for causing the processor to perform a method including providing a first image and providing the second image in the second display area so that the second image is overlaid on the first image. can

이상의 설명은 본 발명의 기술사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 등이 가능함을 쉽게 알 수 있을 것이다. 즉, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것으로서, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various substitutions, modifications, and changes within the scope not departing from the essential characteristics of the present invention. It will be easy to see that this is possible. That is, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments.

따라서, 본 발명의 보호 범위는 후술되는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the protection scope of the present invention should be interpreted by the claims described below, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

본 발명의 실시 예에 따르면, 가상 현실 기술을 이용하여 콘텐츠를 제공할 때, 가상 공간 상에 영상이 제공되도록 할 수 있으며, 이에 따라, 사용자는 가상 공간 상에서 상기 영상을 시청하는 체험하도록 하는 기술에 이용할 수 있다.According to an embodiment of the present invention, when providing content using virtual reality technology, an image may be provided in a virtual space, and accordingly, a technology that allows a user to experience viewing the image in a virtual space Available.

Claims (8)

영상을 처리하기 위한 방법에 있어서,
제1 대역폭을 통해 제1 영상을 수신하는 동작;
제2 대역폭을 통해 제2 영상을 수신하는 동작;
제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부에서의, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하는 동작;
상기 표시부의 상기 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 하는 동작;
사용자의 시선에 대응하는 영역을 확인하는 동작; 및
상기 사용자의 시선에 대응하는 영역의 정보를 상기 제1 영상 및 상기 제2 영상을 전송한 장치로 전송하는 동작을 더 포함하며,
상기 사용자의 시선에 대응하는 영역이 상기 제2 표시 영역을 포함하는 것에 기초하여, 상기 제1 영상을 수신하는 프레임 레이트를 조절하는
영상을 처리하기 위한 방법.
A method for processing an image, comprising:
receiving a first image through a first bandwidth;
receiving a second image through a second bandwidth;
receiving, in a display unit including a first display area and a second display area corresponding to a part of the first display area, location information of the second display area on the first display area;
providing the first image to the first display area of the display unit and the second image to the second display area so that the second image is overlaid on the first image;
checking an area corresponding to the user's gaze; and
The method further includes transmitting information on an area corresponding to the user's gaze to a device that has transmitted the first image and the second image,
adjusting a frame rate for receiving the first image based on the area corresponding to the user's gaze including the second display area;
A method for processing an image.
제 1항에 있어서, 상기 제2 영상은 상기 제1 영상에 비해 고화질의 영상인, 영상을 처리하기 위한 방법.The method of claim 1 , wherein the second image is an image having a higher quality than that of the first image. 삭제delete 제 1항에 있어서, 상기 제1 대역폭 및 상기 제2 대역폭은,
상기 사용자의 시선에 대응하는 영역의 정보에 기초하여 결정된, 영상을 처리하기 위한 방법.
The method of claim 1, wherein the first bandwidth and the second bandwidth are:
A method for processing an image, which is determined based on information on an area corresponding to the user's gaze.
제 1항에 있어서,
상기 사용자의 시선에 대응하는 영역은, 상기 제2 표시 영역을 포함하며,
상기 제1 대역폭 및 상기 제2 대역폭은,
상기 사용자의 시선에 대응하는 영역이 상기 제2 표시 영역을 포함하는 것에 기초하여, 기 설정된 대역폭들이 각각 변경되어 결정된, 영상을 처리하기 위한 방법.
The method of claim 1,
The area corresponding to the user's gaze includes the second display area,
The first bandwidth and the second bandwidth are
A method for processing an image, wherein preset bandwidths are respectively changed and determined based on the area corresponding to the user's gaze including the second display area.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은,
제 1항, 제2 항, 제 4항, 제 5항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program is
A computer-readable recording medium comprising instructions for causing a processor to perform the method according to any one of claims 1, 2, 4, and 5.
컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은,
제 1항, 제 2항, 제 4항, 제 5항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program is
A computer program comprising instructions for causing a processor to perform the method according to claim 1 , 2 , 4 or 5 .
영상을 처리하기 위한 전자 장치에 있어서,
통신 모듈;
제1 표시 영역과 상기 제1 표시 영역의 일부에 대응되는 제2 표시 영역을 구비한 표시부; 및
상기 통신 모듈을 이용하여, 제1 대역폭을 통해 제1 영상을 수신하고 제2 대역폭을 통해 제2 영상을 수신하며,
상기 통신 모듈을 이용하여, 상기 제2 표시 영역의 상기 제1 표시 영역 상의 위치 정보를 수신하며,
상기 제1 표시 영역에 상기 제1 영상을 제공하고, 상기 제2 표시 영역에 상기 제2 영상을 제공하여, 상기 제2 영상이 상기 제1 영상 위에 오버레이되도록 상기 표시부를 제어하는 제어부를 포함하고,
상기 제어부는
사용자의 시선에 대응하는 영역 정보와 상기 사용자의 시선에 대응하는 영역이 상기 제2 표시 영역을 포함하는 것에 기초하여, 상기 제1 영상의 프레임 레이트가 조절하는
영상을 처리하기 위한 전자 장치.
An electronic device for processing an image, comprising:
communication module;
a display unit including a first display area and a second display area corresponding to a portion of the first display area; and
using the communication module to receive a first image through a first bandwidth and receive a second image through a second bandwidth;
receiving location information on the first display area of the second display area by using the communication module;
a controller configured to control the display unit to provide the first image to the first display area and to provide the second image to the second display area so that the second image is overlaid on the first image,
the control unit
The frame rate of the first image is adjusted based on region information corresponding to the user's gaze and the region corresponding to the user's gaze including the second display region.
An electronic device for processing an image.
KR1020190129448A 2019-10-17 2019-10-17 Electronic device, method, computer-readable storage medium and computer program for processing image KR102315899B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190129448A KR102315899B1 (en) 2019-10-17 2019-10-17 Electronic device, method, computer-readable storage medium and computer program for processing image
KR1020210123860A KR102372323B1 (en) 2019-10-17 2021-09-16 Electronic device, method, computer program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190129448A KR102315899B1 (en) 2019-10-17 2019-10-17 Electronic device, method, computer-readable storage medium and computer program for processing image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210123860A Division KR102372323B1 (en) 2019-10-17 2021-09-16 Electronic device, method, computer program for processing image

Publications (2)

Publication Number Publication Date
KR20210045877A KR20210045877A (en) 2021-04-27
KR102315899B1 true KR102315899B1 (en) 2021-10-21

Family

ID=75725940

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190129448A KR102315899B1 (en) 2019-10-17 2019-10-17 Electronic device, method, computer-readable storage medium and computer program for processing image
KR1020210123860A KR102372323B1 (en) 2019-10-17 2021-09-16 Electronic device, method, computer program for processing image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210123860A KR102372323B1 (en) 2019-10-17 2021-09-16 Electronic device, method, computer program for processing image

Country Status (1)

Country Link
KR (2) KR102315899B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101978922B1 (en) * 2017-11-30 2019-05-15 광운대학교 산학협력단 FoV on the background frame streaming method of high quality 360 degree video data by separately transmitting the region of interest and the background frame

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170130883A (en) * 2016-05-19 2017-11-29 한국전자통신연구원 Method and apparatus for virtual reality broadcasting service based on hybrid network
KR101945082B1 (en) * 2016-07-05 2019-02-01 안규태 Method for transmitting media contents, apparatus for transmitting media contents, method for receiving media contents, apparatus for receiving media contents
KR102499139B1 (en) * 2016-09-21 2023-02-13 삼성전자주식회사 Electronic device for displaying image and method for controlling thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101978922B1 (en) * 2017-11-30 2019-05-15 광운대학교 산학협력단 FoV on the background frame streaming method of high quality 360 degree video data by separately transmitting the region of interest and the background frame

Also Published As

Publication number Publication date
KR102372323B1 (en) 2022-03-08
KR20210045877A (en) 2021-04-27
KR20210118025A (en) 2021-09-29

Similar Documents

Publication Publication Date Title
US11381801B2 (en) Methods and apparatus for receiving and/or using reduced resolution images
US20210409672A1 (en) Methods and apparatus for receiving and/or playing back content
US10645369B2 (en) Stereo viewing
US10277832B2 (en) Image processing method and image processing system
US20180225537A1 (en) Methods and apparatus relating to camera switching and/or making a decision to switch between cameras
US20180249189A1 (en) Methods and apparatus for use in a system or device where switching between cameras may occur
KR102140077B1 (en) Master device, slave device and control method thereof
KR102315899B1 (en) Electronic device, method, computer-readable storage medium and computer program for processing image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent