KR20160135660A - Method and apparatus for providing 3-dimension image to head mount display - Google Patents

Method and apparatus for providing 3-dimension image to head mount display Download PDF

Info

Publication number
KR20160135660A
KR20160135660A KR1020160058227A KR20160058227A KR20160135660A KR 20160135660 A KR20160135660 A KR 20160135660A KR 1020160058227 A KR1020160058227 A KR 1020160058227A KR 20160058227 A KR20160058227 A KR 20160058227A KR 20160135660 A KR20160135660 A KR 20160135660A
Authority
KR
South Korea
Prior art keywords
image
user
position state
electronic device
images
Prior art date
Application number
KR1020160058227A
Other languages
Korean (ko)
Inventor
방건
이광순
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to CN201610637582.3A priority Critical patent/CN109361913A/en
Publication of KR20160135660A publication Critical patent/KR20160135660A/en

Links

Images

Classifications

    • H04N13/044
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • H04N13/0011
    • H04N13/0429
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Abstract

A method and apparatus for providing a stereoscopic image are provided. An electronic device for providing a stereoscopic image selectively generates the image of a virtual viewpoint according to a users position. An image synthesizing part generates the image of a virtual viewpoint corresponding to the position state of the user by using the image provided to the electronic device. A display part outputs an image corresponding to the position state. The image corresponding to the position state may include the image of the virtual point and may include the image provided to the electronic device.

Description

헤드 마운트 디스플레이를 위한 입체 영상을 제공하는 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING 3-DIMENSION IMAGE TO HEAD MOUNT DISPLAY}METHOD AND APPARATUS FOR PROVIDING 3-DIMENSION IMAGE TO HEAD MOUNT DISPLAY FIELD OF THE INVENTION [0001]

아래의 실시예들은 영상 처리를 하기 위한 방법 및 장치에 관한 것으로 보다 상세히는 헤드 마운트 디스플레이를 위한 입체 영상을 제공하는 방법이 개시된다.The following embodiments relate to a method and apparatus for image processing, and more particularly to a method for providing a stereoscopic image for a head mounted display.

최근에 헤드-마운트 디스플레이(Head-Mount Display; HMD)에 관련된 기술이 발전함에 따라, 최신의 기술을 적용한 HMD들이 소개되고 있다.Recently, as the technology related to the head-mount display (HMD) is developed, HMDs using the latest technology are introduced.

특히, 최근의 HMD은, 사용자가 HMD를 착용하면, 사용자의 머리의 움직임을 실시간으로 감지할 수 있고, 머리가 어느 방향으로 움직이든지 그 방향에서의 시각(view)을 제공한다.In particular, a recent HMD can detect the motion of the user's head in real time when the user wears the HMD, and provides a view in that direction regardless of which direction the head is moving.

또한, HMD는 좌측 렌즈 및 우측 렌즈를 갖는다. 죄측 렌즈 및 우측 렌즈의 각각은 오목하게 굽어진 파노라마 디스플레이 영상을 제공한다. 이러한 파노라마 디스플레이 영상은 넓은 시야 각(viewing angle)을 제공하며, 사용자는 자신의 눈동자를 움직여도 가상 현실의 디스플레이를 볼 수 있다.Further, the HMD has a left lens and a right lens. Each of the left lens and the right lens provides a concave curved panoramic display image. Such a panoramic display image provides a wide viewing angle, and the user can see the display of the virtual reality by moving his / her pupil.

예를 들면, 최근의 HMD는 사용자의 머리의 움직임을 인지하는 트래킹 기술을 사용하며, 사용자의 양 눈들에 제공되는 양안식(stereoscopic) 영상을 생성한다. 사용자의 시점(view point)에 대응하는 양안식 영상을 제공함에 따라 HMD는 사용자가 자신이 가상 현실에 들어와 있다는 착각을 하게 할 수 있다.For example, recent HMDs use a tracking technique to recognize the movement of the user's head and produce stereoscopic images provided to both eyes of the user. By providing the binocular image corresponding to the view point of the user, the HMD can allow the user to perceive that he is in the virtual reality.

전술된 것과 같은 HMD가 멀티-뷰(multi-view) 영상을 제공하는 방법으로서, 멀티-뷰 카메라에 의해 촬영된 영상들을 서로 간에 이어 붙임으로써 2개의 양안식 영상을 생성하는 방법이 일반적으로 사용된다.As a method for providing a multi-view image by the HMD as described above, a method of generating two biometric images by attaching images taken by a multi-view camera to each other is generally used .

이러한 방법에 있어서, 아래와 같은 문제가 발생할 수 있다. 1) 우선, 이어 붙여진 영상을 생성하기 위해서는 이웃하는 영상들 간의 상관 관계가 이용되어야 한다. 2) 또한, 영상의 매 프레임마다 영상들을 서로 간에 이어 붙이는 작업이 요구된다. 3) 또한, 고정된 해상도에 기반하여 이어 붙여진 영상을 생성해야 하기 때문에, 원본 영상의 해상도에 비해 제공되는 영상의 해상도가 더 감소되는 화질 저하가 발생한다.In such a method, the following problems may occur. 1) First, the correlation between neighboring images must be used in order to generate a connected image. 2) It is also required to attach images to each other for every frame of the image. 3) In addition, since a connected image must be generated based on a fixed resolution, an image quality deteriorates in which the resolution of the image provided is further reduced compared to the resolution of the original image.

일 실시예는 사용자의 시점에 따라 가상 시점의 영상을 선택적으로 생성하는 장치 및 방법을 제공할 수 있다.One embodiment of the present invention can provide an apparatus and method for selectively generating an image at a virtual viewpoint according to a user's viewpoint.

일 측에 있어서, 전자 장치가 사용자에게 입체 영상을 제공하는 방법에 있어서, 상기 전자 장치에게 제공된 영상을 사용하여 상기 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 단계; 및 상기 위치 상태에 대응하는 영상을 출력하는 단계를 포함하고, 상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 영상 제공 방법이 제공된다.A method for providing stereoscopic images to a user on an electronic device, the method comprising: generating an image of a virtual viewpoint corresponding to a positional state of the user using an image provided to the electronic device; And outputting an image corresponding to the position state, wherein the image corresponding to the position state includes the image at the virtual time point.

상기 위치 상태에 대응하는 영상은 상기 전자 장치에게 제공된 영상을 포함할 수 있다.An image corresponding to the position state may include an image provided to the electronic device.

상기 위치 상태에 대응하는 영상은 상기 사용자의 좌안에 제공되는 좌측 영상 및 상기 사용자의 우안에 제공되는 우측 영상을 포함할 수 있다.The image corresponding to the position state may include a left image provided in the left eye of the user and a right image provided in the right eye of the user.

상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 서로 다를 수 있다.The time of the left image and the time of the right image may be different from each other.

상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 상기 사용자의 양안들 사이의 간격에 기반하여 결정될 수 있다.The time of the left image and the time of the right image may be determined based on the interval between the eyes of the user.

상기 위치 상태는 상기 사용자에게 최초로 제공되는 영상의 시점을 기준으로 상기 사용자의 위치를 트래킹하는 정보일 수 있다.The location status may be information for tracking the location of the user based on the viewpoint of the image initially provided to the user.

상기 영상 제공 방법은, 상기 사용자의 머리의 움직임을 인식함으로써 상기 위치 상태를 생성하는 단계를 더 포함할 수 있다.The image providing method may further include generating the position state by recognizing movement of the head of the user.

상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 이동의 변위을 나타내는 정보를 포함할 수 있다.The positional state may include information indicating a displacement of movement of the user's head to the left or right.

상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 정보를 포함할 수 있다.The location state may include information indicating a rotation of the user's head to the left or right.

상기 가상 시점이 상기 제공된 영상의 하나 이상의 영상들 중 하나의 영상의 시점과 동일한 경우, 상기 하나 이상의 영상들 중 상기 가상 시점과 동일한 시점의 영상이 그대로 상기 가상 시점의 영상으로서 사용될 수 있다.If the virtual viewpoint is the same as the viewpoint of one of the one or more images of the provided image, the same viewpoint as the virtual viewpoint of the one or more images can be used as the virtual viewpoint image.

상기 위치 상태에 대응하는 영상은 하나 이상의 시점들의 하나 이상의 영상들일 수 있다.The image corresponding to the position state may be one or more images of one or more viewpoints.

상기 제공된 영상은 하나 이상의 시점들의 하나 이상의 영상들일 수 있다.The provided image may be one or more images of one or more views.

상기 가상 시점의 영상을 생성하는 단계는 상기 위치 상태에 대응하는 하나 이상의 영상들의 시점들 중 적어도 하나의 영상이 상기 하나 이상의 제공된 영상들의 하나 이상의 시점들 중 어느 시점과도 동일하지 않을 경우에 수행될 수 있다.Wherein the step of generating an image at the virtual time point is performed when at least one of the views of one or more images corresponding to the position state is not the same as any one of the one or more viewpoints of the one or more provided images .

상기 영상 제공 방법은, 상기 위치 상태가 변화하였는지 여부를 판단하는 단계; 및 상기 위치 상태의 변화에 따라 카메라 파라미터를 업데이트하는 단계를 더 포함할 수 있다.The image providing method may include: determining whether the position state has changed; And updating the camera parameters according to the change of the position state.

상기 카메라 파라미터를 업데이트하는 단계는, 상기 사용자의 머리의 좌측 또는 우측으로의 이동에 따라 상기 카메라 파라미터를 업데이트하는 단계를 포함할 수 있다.Updating the camera parameters may include updating the camera parameters in accordance with movement of the user's head to the left or right.

상기 카메라 파라미터를 업데이트하는 단계는, 상기 사용자의 머리의 좌측 또는 우측으로의 회전에 따라 상기 카메라 파라미터를 업데이트하는 단계를 포함할 수 있다.Updating the camera parameters may include updating the camera parameters in accordance with rotation of the user's head to the left or right.

상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 이동에 따른 위치 이동의 변위를 나타낼 수 있다.The change of the positional state may indicate the displacement of the positional movement according to the movement of the user to the left or right with reference to the reference time.

상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 회전에 따른 회전 각을 나타낼 수 있다.The change of the positional state may indicate a rotation angle of the user with respect to the left or right rotation based on the reference time point.

상기 카메라 파라미터는 x 축으로의 초점 거리 및 y 축으로의 초점 거리를 포함하는 행렬일 수 있다.The camera parameters may be a matrix including a focal length in the x-axis and a focal length in the y-axis.

상기 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 멀티-뷰 영상일 수 있다.The provided image may be a multi-view image of High Efficiency Video Coding (HEVC).

상기 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 스티치된 영상일 수 있다.The provided image may be a stitched image of High Efficiency Video Coding (HEVC).

상기 가상 시점의 영상은 상기 제공된 영상에 대응하는 깊이 맵(depth map)을 사용하여 생성될 수 있다.The image of the virtual viewpoint may be generated using a depth map corresponding to the provided image.

상기 가상 시점의 영상은 상기 제공된 영상에 대응하는 변위 맵(disparity map)을 사용하여 생성될 수 있다.The image at the virtual viewpoint may be generated using a disparity map corresponding to the provided image.

다른 일 측에 있어서, 전자 장치에 있어서, 상기 전자 장치에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및 상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부를 포함하고, 상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 전자 장치가 제공된다.In another aspect, in an electronic device, an image synthesizing unit generates an image of a virtual viewpoint corresponding to a position state of a user using an image provided to the electronic device; And a display unit for outputting an image corresponding to the position state, wherein the image corresponding to the position state includes the image at the virtual time point.

다른 일 측에 있어서, 헤드 마운트 디스플레이에 있어서, 상기 헤드 마운트 디스플레이에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및 상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부를 포함하고, 상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 헤드 마운트 디스플레이가 제공된다.The head-mounted display according to claim 1, further comprising: an image synthesizer for generating an image at a virtual viewpoint corresponding to a user's positional state using an image provided to the head-mounted display; And a display unit for outputting an image corresponding to the position state, wherein the image corresponding to the position state includes the image at the virtual time point.

사용자의 시점에 따라 가상 시점의 영상을 선택적으로 생성하는 장치 및 방법이 제공된다.There is provided an apparatus and method for selectively generating an image at a virtual viewpoint according to a user's viewpoint.

도 1은 일 실시예에 따른 입체 영상을 제공하는 전자 장치의 구조도이다.
도 2는 일 예에 따른 HMD를 사용하는 전자 장치를 도시한다.
도 3은 일 예에 따른 HMD로서 구현된 전자 장치를 도시한다.
도 4는 일 예에 따른 전자 장치에 제공되는 영상을 설명한다.
도 5는 일 실시예에 따른 전자 장치 사용자에게 영상을 제공하는 방법의 흐름도이다.
도 6은 일 예에 따른 가상 시점의 영상이 요구되는지 여부를 판단하는 방법의 흐름도이다.
도 7은 일 실시예에 따른 3차원 영상 시스템의 구조를 설명한다.
도 8은 일 예에 따른 중간 뷰 합성을 통한 멀티-뷰 디스플레이를 설명한다.
도 9는 사용자의 머리의 움직임에 따른 스티치된 영상을 도시한다.
도 10은 일 실시예에 따른 전자 장치를 구현하는 컴퓨터 시스템을 도시한다.
1 is a structural diagram of an electronic device for providing a stereoscopic image according to an exemplary embodiment of the present invention.
Figure 2 illustrates an electronic device using an HMD according to an example.
Figure 3 illustrates an electronic device implemented as an HMD according to an example.
FIG. 4 illustrates an image provided to an electronic device according to an example.
5 is a flow diagram of a method of providing an image to an electronic device user in accordance with an embodiment.
6 is a flowchart of a method for determining whether an image at a virtual viewpoint is required according to an example.
FIG. 7 illustrates a structure of a 3D image system according to an embodiment.
Figure 8 illustrates a multi-view display with intermediate view composition according to an example.
9 shows a stitched image according to the movement of the user's head.
10 illustrates a computer system for implementing an electronic device according to an embodiment.

후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.The following detailed description of exemplary embodiments refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that the various embodiments are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the location or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the embodiments. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the exemplary embodiments is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained.

도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In the drawings, like reference numerals refer to the same or similar functions throughout the several views. The shape and size of the elements in the figures may be exaggerated for clarity.

실시예에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 실시예에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않으며, 추가적인 구성이 예시적 실시예들의 실시 또는 예시적 실시예들의 기술적 사상의 범위에 포함될 수 있음을 의미한다. 어떤 구성요소(component)가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들이 서로 간에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.The terms used in the examples are intended to illustrate the embodiments and are not intended to limit the invention. In the examples, the singular includes the plural unless otherwise stated in the specification. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / And that additional configurations may be encompassed within the scope of the embodiments of the exemplary embodiments or the technical ideas of the exemplary embodiments. When it is mentioned that a component is "connected" or "connected" to another component, the two components may be directly connected or connected to each other, It is to be understood that other components may be present in the middle of the components.

제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기의 구성요소들은 상기의 용어들에 의해 한정되어서는 안 된다. 상기의 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하여 지칭하기 위해서 사용된다. 예를 들어, 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first and second, etc. may be used to describe various components, but the components should not be limited by the terms above. The above terms are used to distinguish one component from another. For example, without departing from the scope of the right, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

또한 실시예들에 나타나는 구성요소들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성요소가 분리된 하드웨어나 하나의 소프트웨어 구성 단위로만 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열된 것이다. 예를 들면, 구성요소들 중 적어도 두 개의 구성요소들이 하나의 구성요소로 합쳐질 수 있다. 또한, 하나의 구성요소가 복수의 구성요소들로 나뉠 수 있다. 이러한 각 구성요소의 통합된 실시예 및 분리된 실시예 또한 본질에서 벗어나지 않는 한 권리범위에 포함된다.In addition, the components shown in the embodiments are shown independently to represent different characteristic functions, which does not mean that each component is composed of separate hardware or one software constituent unit. That is, each component is listed as each component for convenience of explanation. For example, at least two of the components may be combined into a single component. Also, one component can be divided into a plurality of components. The integrated embodiments and the separate embodiments of each of these components are also included in the scope of the right without departing from the essence.

또한, 일부의 구성요소는 본질적인 기능을 수행하는 필수적인 구성요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성요소일 수 있다. 실시예들은 실시예의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 예를 들면, 단지 성능 향상을 위해 사용되는 구성요소와 같은, 선택적 구성요소가 제외된 구조 또한 권리 범위에 포함된다.Also, some components are not essential components to perform essential functions, but may be optional components only to improve performance. Embodiments may be implemented only with components that are essential to implementing the essentials of the embodiments, and structures within which the optional components are excluded, such as, for example, components used only for performance enhancement, are also included in the scope of the right.

이하에서는, 기술분야에서 통상의 지식을 가진 자가 실시예들을 용이하게 실시할 수 있도록 하기 위하여, 첨부된 도면을 참조하여 실시예들을 상세히 설명하기로 한다. 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to facilitate embodiments of the present invention by those skilled in the art. In the following description of the embodiments, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.

아래의 실시예에서, 영상은 한 순간(time)의 시각적 정보를 의미할 수 있다. 아래의 실시예에서의 단계들에서 처리되는 영상은 한 순간의 시각적 정보일 수 있다. 예를 들면, 영상은 시각 t에서의 프레임(frame)일 수 있다. 비디오는 하나 이상의 영상들을 포함될 수 있다. 비디오의 하나 이상의 영상들은 시계열적인 순서를 가질 수 있다.In the embodiments below, an image can mean visual information of a moment. The images processed in the steps in the following embodiments may be visual information of a moment. For example, the image may be a frame at time t. A video may include one or more images. One or more images of the video may have a time series order.

아래의 실시예들의 단계들은 시간의 흐름에 따라 반복적으로 수행될 수 있다. 단계들이 반복되어 수행됨에 따라, 일련의 영상들이 순차적으로 처리될 수 있다.The steps of the following embodiments can be repeatedly performed over time. As the steps are repeatedly performed, a series of images can be processed sequentially.

아래의 실시예들에서, "깊이(depth)" 및 "변위(disparity)"는 서로 역의 관계를 가질 수 있다. 말하자면, 픽셀이 특정한 대상을 나타낼 때, 픽셀의 "깊이"는 픽셀의 "변위"의 역수일 수 있다. 실시예들에서, "깊이(depth)" 및 "변위(disparity)"는 서로 대체되어 사용될 수 있다.In the following embodiments, "depth" and "disparity" may have a reciprocal relationship with each other. That is to say, when a pixel represents a particular object, the "depth" of the pixel can be the inverse of the "displacement" of the pixel. In embodiments, "depth" and "disparity" may be used interchangeably.

아래의 실시예들에서, "깊이 맵"은 "깊이 영상"과 동일한 의미로 사용될 수 있다.In the following embodiments, the "depth map" can be used with the same meaning as "depth image ".

"깊이 맵"은 대응하는 영상에 대하여 픽셀의 깊이 값을 나타낼 수 있다. 예를 들면, "깊이 맵" 및 "영상"의 서로 동일한 좌표 값들을 갖는 픽셀들에 있어서, "영상"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 색상을 나타낼 수 있고, "깊이 맵"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 시점으로부터의 거리를 나타낼 수 있다.The "depth map" may represent the depth value of the pixel for the corresponding image. For example, for pixels having the same coordinate values of "depth map" and "image", the pixel value of the pixel of "image" may represent the color of the object that the pixel represents, The pixel value of the pixel may indicate the distance from the viewpoint of the object represented by the pixel.

아래의 실시예들에서, "변위 맵"은 "변위 영상"과 동일한 의미로 사용될 수 있다.In the following embodiments, the "displacement map" can be used in the same sense as the "displacement image ".

"변위 맵"은 대응하는 영상에 대하여 픽셀의 변위 값을 나타낼 수 있다. 예를 들면, "변위 맵" 및 "영상"의 서로 동일한 좌표 값들을 갖는 픽셀들에 있어서, "영상"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 색상을 나타낼 수 있고, "변위 맵"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 변위를 나타낼 수 있다. 대상의 변위는 대상의 시점으로부터의 거리의 역수를 나타낼 수 있다.
The "displacement map" can represent the displacement value of the pixel with respect to the corresponding image. For example, in pixels having the same coordinate values of "displacement map" and "image", the pixel value of the pixel of "image" may represent the color of the object that the pixel represents, The pixel value of the pixel may represent the displacement of the object represented by the pixel. The displacement of the object can represent the reciprocal of the distance from the viewpoint of the object.

도 1은 일 실시예에 따른 입체 영상을 제공하는 전자 장치의 구조도이다.1 is a structural diagram of an electronic device for providing a stereoscopic image according to an exemplary embodiment of the present invention.

전자 장치(100)는 영상 수신부(110), 영상 디코딩부(115), 트래킹부(120), 영상 합성부(130) 및 디스플레이부(140)를 포함할 수 있다.The electronic device 100 may include an image receiving unit 110, an image decoding unit 115, a tracking unit 120, an image synthesizing unit 130, and a display unit 140.

디스플레이부(140)는 좌측 디스플레이부(141) 및 우측 디스플레이부(142)를 포함할 수 있다.The display unit 140 may include a left display unit 141 and a right display unit 142.

영상 수신부(110)는 외부로부터 제공되는 멀티-뷰 영상 및 깊이 맵을 수신할 수 있다. 영상 수신부(110)는 제공된 멀티-뷰 영상 및 깊이 맵을 영상 합성부(130)로 전송할 수 있다.The image receiving unit 110 may receive a multi-view image and a depth map provided from the outside. The image receiving unit 110 may transmit the provided multi-view image and the depth map to the image combining unit 130.

전자 장치(100)에게 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 멀티-뷰 영상일 수 있다. 또한, 전자 장치(100)에게 제공된 영상은 HEVC의 스티치된(stitched) 영상일 수 있다.The image provided to the electronic device 100 may be a multi-view image of High Efficiency Video Coding (HEVC). In addition, the image provided to the electronic device 100 may be a stitched image of the HEVC.

외부로부터 제공된 영상은 인코드된(encoded) 영상일 수 있다. 예를 들면, 영상 수신부(110)는 외부로부터 비트스트림(bitstream)을 수신할 수 있고, 외부로부터 제공된 멀티-뷰 영상 및 깊이 맵은 비트스트림 내에서 인코드된 데이터, 엔트로피(entropy) 인코드된 데이터 및 압축된(compressed) 데이터일 수 있다.An image provided from the outside may be an encoded image. For example, the image receiving unit 110 may receive a bitstream from the outside, and the externally provided multi-view image and depth map may be encoded in the bitstream, entropy encoded Data and compressed data.

영상 디코딩부(115)는 인코딩된 제공된 영상에 대해, 디코딩을 수행함으로써 디코드된 영상을 생성할 수 있다. 이하, 영상 합성부(130)에서 사용되는 제공된 영상은 영상 디코딩부(115)에 의해 생성된 디코드된 영상일 수 있다.The image decoding unit 115 may generate a decoded image by performing decoding on the encoded provided image. Hereinafter, the provided image used in the image combining unit 130 may be a decoded image generated by the image decoding unit 115. [

예를 들면, 영상 디코딩부(115)는 인코드된 멀티-뷰 영상 및 인코드된 깊이 맵에 대한 디코딩을 수행하여 디코드된 멀티-뷰 영상 및 디코드된 깊이 맵을 생성할 수 잇다. 이하, 영상 합성부(130)에 의해 사용되는 멀티-뷰 영상 및 깊이 맵은 영상 디코딩부(115)에 의해 생성된 디코드된 멀티-뷰 영상 및 디코드된 깊이-맵일 수 있다.For example, the image decoding unit 115 may perform decoding on the encoded multi-view image and the encoded depth map to generate a decoded multi-view image and a decoded depth map. Hereinafter, the multi-view image and the depth map used by the image synthesis unit 130 may be a decoded multi-view image generated by the image decoding unit 115 and a decoded depth-map.

예를 들면, 영상 디코딩부(115)는 HEVC의 멀티-뷰 영상 및 깊이 맵에 대해 HEVC에 따른 디코딩을 수행함으로써 디코드된 멀티-뷰 영상 및 디코드된 깊이 맵을 생성할 수 있다. 디코드된 멀티-뷰 영상 및 디코드된 깊이-맵은 아래에서 설명된 가상 시점의 영상의 합성에 적합할 수 있다. 영상 디코딩부(115)는 HEVC의 스티치된 영상에 대해 HEVC에 따른 디코딩을 수행함으로써 디코드된 영상을 생성할 수 있다. 디코드된 영상은 아래에서 설명된 가상 시점의 영상의 합성에 적합할 수 있다.For example, the image decoding unit 115 may generate a decoded multi-view image and a decoded depth map by performing HEVC-based decoding on the multi-view image and the depth map of the HEVC. The decoded multi-view image and the decoded depth-map may be suitable for compositing images of the virtual viewpoint described below. The image decoding unit 115 may generate a decoded image by performing decoding according to the HEVC on the stitched image of the HEVC. The decoded image may be suitable for the synthesis of the image of the virtual point of view described below.

트래킹부(120)는 위치 상태의 신호를 생성할 수 있다. 위치 상태의 신호는 위치 상태를 나타내는 정보를 포함할 수 있다.The tracking unit 120 may generate a signal of a position state. The signal of the position state may include information indicating the position state.

위치 상태에 따라 요구되는 시점이 결정될 수 있다. 예를 들면, 사용자의 위치 및/또는 자세에 따라서 전자 장치(100)가 어떤 시점의 영상을 사용자에게 제공해야 하는 지가 결정될 수 있다.The time point required can be determined according to the position state. For example, depending on the user's position and / or posture, it may be determined at what point the electronic device 100 should provide the user with an image.

위치 상태는 사용자의 머리의 위치를 트래킹하는 정보일 수 있다. 예를 들면, 위치 상태는 좌우 이동 위치 및 회전 위치의 상태를 트래킹할 수 있다. 또는, 예를 들면, 예를 들면, 위치 상태는 전자 장치(100)의 사용자의 머리의 위치(position) 및/또는 자세(pose)를 나타낼 수 있다. 사용자의 머리의 위치 및/또는 자세는 사용자의 머리가 부착된 전자 장치(100) 또는 트래킹부(120)의 위치 및/또는 자세를 의미할 수 있다. 이하에서, 사용자의 머리의 위치 및/또는 자세는 전자 장치(100)의 위치 및/또는 자세 또는 트래킹부(120)의 위치 및/또는 자세로 대체될 수 있다.The location status may be information that tracks the location of the user's head. For example, the position state can track the state of the left and right movement position and the rotation position. Alternatively, for example, such as location status may indicate the user of the position of the head (position) and / or orientation of the electronic device (100) (pose). The position and / or posture of the user's head may refer to the position and / or posture of the electronic device 100 or the tracking portion 120 to which the user's head is attached. In the following, the position and / or posture of the user's head may be replaced by the position and / or posture of the electronic device 100 or the position and / or posture of the tracking portion 120. [

위치 상태는 전자 장치(100)에 의해 최초로 디스플레이되는 영상의 시점을 기준으로 사용자의 위치를 트래킹하는 정보일 수 있다. 또는, 위치 상태는 사용자에게 최초로 제공되는 영상의 시점을 기준으로 사용자의 위치를 트래킹하는 정보일 수 있다. 예를 들면, 위치 상태는 전자 장치(100)에 의해 최초로 디스플레이되는 영상의 시점 또는 사용자에게 최초로 제공되는 영상의 시점을 기준으로 사용자의 좌우 이동 위치 및/또는 회전 위치의 상태를 트래킹할 수 있다.The location status may be information that tracks the location of the user based on the viewpoint of the image initially displayed by the electronic device 100. [ Alternatively, the location status may be information that tracks the location of the user based on the viewpoint of the image initially provided to the user. For example, the positional state may track the state of the user's left and right movement position and / or the rotation position based on the time of the image initially displayed by the electronic device 100 or the time of the image initially provided to the user.

영상 합성부(130)는 요구되는 시점의 영상을 생성할 수 있다. 요구되는 시점은 전자 장치(100)에서 출력되는 입체 영상의 시점일 수 있다. 사용자 또는 사용자의 머리의 위치에 따라, 전자 장치(100)에서 출력되는 입체 영상의 시점이 결정될 수 있다. 말하자면, 요구되는 시점은 사용자 또는 사용자의 머리의 위치 및/또는 자세에 따른 시점일 수 있다. 또는, 요구되는 시점은 전자 장치(100)의 위치 및/또는 자세에 따른 시점일 수 있다.The image combining unit 130 can generate a video image at a desired timing. The required point of time may be the time point of the stereoscopic image output from the electronic device 100. The viewpoint of the stereoscopic image output from the electronic device 100 can be determined according to the position of the head of the user or the user. That is to say, the required time point may be a time point depending on the position and / or posture of the user or the user's head. Alternatively, the time point required may be a time point depending on the position and / or posture of the electronic device 100.

입체 영상은 복수의 시점들의 영상들을 포함할 수 있다. 영상 합성부(120)는 요구되는 복수의 시점들의 각 시점의 영상을 생성할 수 있다.The stereoscopic image may include images of a plurality of viewpoints. The image combining unit 120 may generate an image at each viewpoint of a plurality of desired viewpoints.

요구되는 시점이 외부로부터 전자 장치(100)에게 멀티-뷰 영상의 하나 이상의 영상들 중 하나의 영상의 시점과 동일한 경우, 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중 요구되는 시점과 동일한 시점의 영상을 그대로 요구되는 시점의 영상으로서 사용할 수 있다.If the requested point in time is the same as the point of view of one of the one or more images of the multi-view image from the external to the electronic device 100, the image synthesizer 130 determines that the required one or more images of the multi- It is possible to use the image at the same time point as the time point as the image at the required time point.

요구되는 시점이 외부로부터 제공된 멀티-뷰 영상의 시점과 다른 경우, 영상 합성부(130)는 멀티-뷰 영상 및 깊이 맵을 사용하여 가상 시점의 영상을 생성할 수 있다. 여기에서, 가상 시점은 요구되는 시점 중 멀티-뷰 영상의 시점과 상이한 시점을 의미할 수 있다.If the required point of view is different from the viewpoint of the multi-view image provided from the outside, the image synthesizer 130 may generate an image at a virtual viewpoint using the multi-view image and the depth map. Here, the virtual viewpoint may indicate a time point different from the viewpoint of the multi-view image among the required viewpoints.

영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중 가상 영상과 이웃하는 영상을 사용하여 가상 시점의 영상을 생성할 수 있다. 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중, 가상 시점과 가장 가까운 시점의 영상을 사용하여 가상 시점의 영상을 생성할 수 있다. 또는, 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중, 가상 시점과 좌측 또는 우측으로 가장 가까운 시점의 영상을 사용하여 가상 시점의 영상을 생성할 수 있다. 또는, 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중, 가상 시점과 좌측으로 가장 가까운 시점의 영상 및 가상 시점과 우측으로 가장 가까운 시점의 영상을 사용하여 가상 시점의 영상을 생성할 수 있다.The image synthesizer 130 may generate an image at a virtual viewpoint using an image neighboring the virtual image among one or more images of the multi-view image. The image synthesis unit 130 may generate an image of a virtual viewpoint using an image at a point closest to the virtual viewpoint among the one or more images of the multi-view image. Alternatively, the image synthesis unit 130 may generate an image of a virtual viewpoint using the image at the closest point to the left or right of the virtual viewpoint, among the one or more images of the multi-view image. Alternatively, the image synthesis unit 130 generates an image of a virtual viewpoint by using an image at a closest point to the left of the virtual viewpoint and an image at a closest point to the right of the virtual viewpoint, among the one or more images of the multi- can do.

전자 장치(100)의 사용자는 자신의 양안들을 통해 입체 영상을 인식하 수 있다. 말하자면, 사용자에게 입체 영상을 제공하기 위한, 요구되는 시점은 2개일 수 있다. 요구되는 시점은 사용자의 좌측 눈에 대한 시점인 좌측 시점 및 사용자의 우측 눈에 대한 시점인 우측 시점을 포함할 수 있다.A user of the electronic device 100 may recognize a stereoscopic image through his or her eyes. That is to say, the time required to provide the stereoscopic image to the user may be two. The requested point of time may include a left point of view of the user's left eye and a right point of view of the user's right eye.

영상 합성부(130)는 좌측 시점이 멀티-뷰 영상의 시점과 다른 경우, 좌측 시점의 영상을 생성할 수 있다. 또한, 영상 합성부(130)는 우측 시점이 멀티-뷰 영상의 시점과 다른 경우, 우측 시점의 영상을 생성할 수 있다.When the left viewpoint is different from the viewpoint of the multi-view image, the image composition unit 130 can generate an image at the left viewpoint. In addition, when the right viewpoint is different from the viewpoint of the multi-view image, the image composition unit 130 can generate an image at the right viewpoint.

디스플레이부(140)는 요구되는 시점의 영상을 출력할 수 있다. 좌측 디스플레이부(141)는 좌측 시점의 영상을 출력할 수 있다. 우측 디스플레이부(142)는 우측 시점의 영상을 출력할 수 있다.
The display unit 140 can output a video image at a desired timing. The left display unit 141 can output the left view image. And the right side display unit 142 can output the image at the right side view.

멀티-뷰 영상의 구성Configuration of multi-view image

멀티-뷰 영상은 하나 이상의 영상들을 포함할 수 있다. 전술된 설명에서, 요구되는 시점이 멀티-뷰 영상의 시점과 동일하다는 것은 요구되는 시점이 멀티-뷰 영상의 하나 이상의 시점들 중 하나의 시점과 동일하다는 것을 의미할 수 있다. 또는, 요구되는 시점이 멀티-뷰 영상의 시점과 동일하다는 것은 요구되는 시점이 멀티-뷰 영상이 요구되는 시점의 영상을 포함한다는 것을 의미할 수 있다. 요구되는 시점이 멀티-뷰 영상의 시점과 다르다는 것은 요구되는 시점이 멀티-뷰 영상의 하나 이상의 시점들 중 어떤 시점도 요구되는 시점과 동일하지 않다는 것을 의미할 수 있다. 또는, 요구되는 시점이 멀티-뷰 영상의 시점과 다르다는 것은 요구되는 시점이 멀티-뷰 영상이 요구되는 시점과 동일한 시점의 영상을 포함하지 않는다는 것을 의미할 수 있다.The multi-view image may include one or more images. In the above description, the required time point is the same as the time point of the multi-view image, which means that the required time point is the same as one of the one or more time points of the multi-view image. Alternatively, the requested time point is the same as the time point of the multi-view image, which means that the requested time point includes the image at the time point when the multi-view image is requested. The fact that the requested point of view is different from the point of view of the multi-view image may mean that the requested point-in-time is not the same as the point in time at which one or more points of the multi-view image are required. Alternatively, the requested time point is different from the time point of the multi-view image, which means that the required time does not include the image at the same time point as the multi-view image is requested.

하나 이상의 영상들의 각 영상은 특정한 시점에서의 영상일 수 있다. 하나 이상의 영상들의 시점들은 서로 상이할 수 있다. 말하자면, 멀티-뷰 영상의 하나 이상의 영상들은 하나 이상의 카메라들이 객체(object) 및 배경(background)을 서로 다른 하나 이상의 위치에서 촬영함으로써 생성된 영상들일 수 있다. 촬영된 객체 및 배경은 영상에서 픽셀들로서 표현될 수 있다.Each image of one or more images may be an image at a specific point in time. The views of one or more images may be different from each other. That is to say, one or more images of the multi-view image may be images generated by one or more cameras photographing the object and the background at different locations. The photographed object and background can be represented as pixels in the image.

멀티-뷰 영상과 함께, 멀티-뷰 영상에 대응하는 깊이 맵이 전자 장치(100)로 제공될 수 있다. 멀티-뷰 영상의 픽셀 및 깊이 맵의 픽셀은 서로 대응할 수 있다. 서로 대응하는 멀티-뷰 영상의 픽셀 및 깊이 맵의 픽셀에 있어서, 멀티-뷰 영상의 픽셀의 픽셀 값은 촬영된 지점의 색상을 나타낼 수 있고, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리를 나타내는 깊이 값(depth value)일 수 있다. 또는, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리의 역을 나타내는 변위 값(disparity value)일 수 있다.In conjunction with the multi-view image, a depth map corresponding to the multi-view image may be provided to the electronic device 100. The pixels of the multi-view image and the pixels of the depth map may correspond to each other. In the pixels of the multi-view image and the depth map corresponding to each other, the pixel value of the pixel of the multi-view image can represent the color of the photographed point, and the pixel value of the pixel of the depth map is the camera of the photographed point And a depth value indicating a distance from the reference point. Alternatively, the pixel value of the pixel of the depth map may be a disparity value that indicates the inverse of the distance of the photographed point from the camera.

하나 이상의 영상들의 각 영상은 입체 영상일 수 있다. 각 영상이 입체 영상일 경우, 각 영상은 컬러 영상 및 깊이 맵을 포함할 수 있다.Each image of one or more images may be a stereoscopic image. When each image is a stereoscopic image, each image may include a color image and a depth map.

컬러 영상 및 깊이 맵에 있어서, 컬러 영상의 한 픽셀 및 깊이 맵의 한 픽셀은 서로 대응할 수 있다. 예를 들면, 컬러 영상 및 깊이 맵에서, 동일한 좌표를 갖는 컬러 영상의 픽셀 및 깊이 맵의 픽셀은 서로 대응할 수 있다. 서로 대응하는 컬러 영상의 픽셀 및 깊이 맵의 픽셀에 있어서, 컬러 영상의 픽셀의 픽셀 값은 촬영된 지점의 색상을 나타낼 수 있고, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리를 나타내는 깊이 값(depth value)일 수 있다.In a color image and a depth map, one pixel of the color image and one pixel of the depth map may correspond to each other. For example, in a color image and a depth map, the pixels of the color image having the same coordinates and the pixels of the depth map may correspond to each other. In the pixels of the color image and the depth map corresponding to each other, the pixel value of the pixel of the color image may indicate the color of the photographed point, and the pixel value of the pixel of the depth map may indicate the distance of the photographed point from the camera May be a depth value indicating a depth value.

또는, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리의 역을 나타내는 변위 값(disparity value)일 수 있다.Alternatively, the pixel value of the pixel of the depth map may be a disparity value that indicates the inverse of the distance of the photographed point from the camera.

영상 수신부(110), 영상 디코딩부(115), 트래킹부(120), 영상 합성(130) 및 디스플레이부(140)의 동작 및 기능에 대해서 아래에서 상세하게 설명된다.
Operations and functions of the image receiving unit 110, the image decoding unit 115, the tracking unit 120, the image synthesizing unit 130, and the display unit 140 will be described in detail below.

선택적인 디코딩Selective decoding

영상 디코딩부(115)가 인코드된 멀티-뷰 영상의 하나 이상의 영상들 모두에 대해 디코딩을 수행하는 것은 과도한 연산량을 요구할 수 있다. 영상 디코딩부(115)가 인코드된 영상에 대한 디코딩을 수행함에 있어서, 영상 디코딩부(115)는 소정의 조건에 해당하는 영상에 대해서만 선택적으로 디코딩을 수행할 수 있다. 예를 들면, 영상 디코딩부(115)는 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중, 요구되는 시점의 영상을 사용자에게 제공되기 위해 요구되는 영상에 대해서만 선택적으로 디코딩을 수행할 수 있다.It may require an excessive amount of computation for the image decoding unit 115 to perform decoding on all of one or more images of the encoded multi-view image. In the decoding of the encoded image by the image decoding unit 115, the image decoding unit 115 may selectively decode only the image corresponding to the predetermined condition. For example, the image decoding unit 115 may selectively decode only an image required to provide a user with an image at a desired point in time, from among one or more images of the encoded multi-view image.

예를 들면, 영상 디코딩부(115)는 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중, 1) 가상 시점의 영상을 생성하기 위해 사용되는 영상 및 2) 요구되는 시점과 동일한 시점의 영상에 대해서만 선택적으로 디코딩을 수행할 수 있다.For example, the image decoding unit 115 may include one or more of the following: 1) an image used to generate an image at a virtual viewpoint, and 2) an image used at the same point in time as the requested viewpoint Only decoding can be performed.

영상 디코딩부(115)가 인코드된 멀티-뷰 영상의 하나 이상의 영상들에 대해 선택적으로 디코딩을 수행하기 위해, 영상 합성부(130)는 영상의 선택을 위한 정보를 영상 디코딩부(115)로 전송할 수 있다. 영상의 선택을 위한 정보는, 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중 영상 디코딩부(115)가 디코딩을 수행해야 하는 영상(들)을 나타낼 수 있다. 또는, 영상의 선택을 위한 정보는, 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중 영상 합성부(130)에 의해 선택된 영상(들)을 나타낼 수 있다.In order to selectively decode one or more images of the encoded multi-view image by the image decoding unit 115, the image synthesizing unit 130 outputs information for selecting the image to the image decoding unit 115 Lt; / RTI > The information for selection of the image may represent the image (s) of which one or more images of the encoded multi-view image should be decoded by the image decoding unit 115. Alternatively, the information for selecting the image may represent the image (s) selected by the image synthesizer 130 among the one or more images of the encoded multi-view image.

영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중 어떤 영상이 요구되는 시점의 영상을 제공하기 위해 요구되는지를 도출할 수 있고, 멀티-뷰 영상의 하나 이상의 영상들 중 어떤 영상이 요구되는 시점의 영상을 제공하기 위해 요구되는가에 따라서 영상의 선택을 위한 정보를 생성할 수 있다.
The image synthesis unit 130 may derive which one of the one or more images of the multi-view image is required to provide an image at a desired time point, and may determine which one of the one or more images of the multi- It is possible to generate information for selection of the image according to whether it is required to provide the image at the required time.

도 2는 일 예에 따른 HMD를 사용하는 전자 장치를 도시한다.Figure 2 illustrates an electronic device using an HMD according to an example.

영상 수신부(110), 영상 디코딩부(115), 트래킹부(120), 영상 합성(130) 및 디스플레이부(140)의 적어도 일부는 각각 별개의 장치일 수 있다.At least some of the image receiving unit 110, the image decoding unit 115, the tracking unit 120, the image synthesizing unit 130, and the display unit 140 may be separate devices.

영상을 제공하는 동작 이전에, 영상 합성(130)는 영상 수신부(110), 영상 디코딩부(115), 트래킹부(120) 및 디스플레이부(140)의 각각과 서로 간에 연결될 수 있다.The image synthesis 130 may be connected to the image receiving unit 110, the image decoding unit 115, the tracking unit 120, and the display unit 140, respectively.

사용자에게 입체 영상을 제공하기 위해 HMD가 사용될 수 있다. 예를 들면, 디스플레이부(140)는 HMD일 수 있다. 좌측 디스플레이(141)는 HMD의 좌측 렌즈일 수 있다. 우측 디스플레이(142)는 HMD의 우측 렌즈일 수 있다.
An HMD can be used to provide a stereoscopic image to the user. For example, the display unit 140 may be an HMD. The left display 141 may be the left lens of the HMD. The right display 142 may be the right lens of the HMD.

도 3은 일 예에 따른 HMD로서 구현된 전자 장치를 도시한다.Figure 3 illustrates an electronic device implemented as an HMD according to an example.

전자 장치(100)는 HMD일 수 있다. 예를 들면, 영상 수신부(110), 영싱디코딩부(115), 트래킹부(120), 영상 합성(130) 및 디스플레이부(140)는 HMD내의 부품일 수 있다.
The electronic device 100 may be an HMD. For example, the image receiving unit 110, the encoding decoding unit 115, the tracking unit 120, the image synthesizing unit 130, and the display unit 140 may be components in the HMD.

도 4는 일 예에 따른 전자 장치에 제공되는 영상을 설명한다.FIG. 4 illustrates an image provided to an electronic device according to an example.

외부에서부터 전자 장치(100)로 영상이 제공될 수 있다. 전자 장치(100)에게 제공되는 영상은 멀티-뷰 영상일 수 있다. 또한, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 및 깊이 맵일 수 있다.An image may be provided from the outside to the electronic device 100. [ The image provided to the electronic device 100 may be a multi-view image. In addition, the image provided to the electronic device 100 may be a multi-view and depth map.

전자 장치(100)에게 제공되는 영상은 네트워크(410)를 통해 전자 장치(100)로 전송될 수 있다.The image provided to the electronic device 100 may be transmitted to the electronic device 100 via the network 410. [

예를 들면, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 카메라에 의해 생성된 멀티-뷰 영상일 수 있다. 도 4에서, 멀티-뷰 카메라로서, 제1 카메라(420) 및 제2 카메라(430)가 도시되었다. 멀티-뷰 카메라는 카메라 어레이(array)일 수 있다.For example, the image provided to the electronic device 100 may be a multi-view image generated by a multi-view camera. In FIG. 4, as a multi-view camera, a first camera 420 and a second camera 430 are shown. The multi-view camera may be a camera array.

또는, 예를 들면, 전자 장치(100)에게 제공되는 영상은 컴퓨터 그래픽(Computer Graphic; CG) 및/또는 실사의 멀티-뷰 영상일 수 있다. CG 및/또는 실사의 멀티-뷰 영상은 다른 전자 장치에 의해 생성될 수 있다.Alternatively, for example, the image provided to the electronic device 100 may be a computer graphic (CG) and / or a multi-view image of a real image. The multi-view image of CG and / or real world can be generated by other electronic devices.

전자 장치(100)에게 제공되는 영상은 압축된 영상일 수 있다.The image provided to the electronic device 100 may be a compressed image.

도 5는 일 실시예에 따른 전자 장치 사용자에게 영상을 제공하는 방법의 흐름도이다.5 is a flow diagram of a method of providing an image to an electronic device user in accordance with an embodiment.

단계(510)에서, 영상 수신부(110)는 전자 장치(100)에게 제공되는 영상을 수신할 수 있다.In step 510, the image receiving unit 110 may receive an image provided to the electronic device 100. [

전자 장치(100)에게 제공된 영상은 하나 이상일 수 있다. 전자 장치(100)에게 제공된 하나 이상의 영상들의 하나 이상의 시점들은 서로 상이할 수 있다. 말하자면, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 영상일 수 있다.One or more images may be provided to the electronic device 100. One or more views of one or more images provided to the electronic device 100 may be different from one another. That is, the image provided to the electronic device 100 may be a multi-view image.

전자 장치(100)에게 제공된 영상은 하나 이상의 시점들의 하나 이상의 영상들 수 있다. 예를 들면, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 영상일 수 있다. 또한, 전자 장치(100)에게 제공되는 영상은 깊이 맵을 포함할 수 있다.The image provided to the electronic device 100 may be one or more images of one or more views. For example, the image provided to the electronic device 100 may be a multi-view image. In addition, the image provided to the electronic device 100 may include a depth map.

전자 장치(100)에게 제공된 복수의 영상들 중 적어도 일부는 실제 시점의 영상일 수 있다. 실제 시점의 영상은 특정한 시점에 대응하는 위치에 배치된 카메라에 의해 촬영된 영상일 수 있다.At least some of the plurality of images provided to the electronic device 100 may be images at a real time point. The image at the actual time point may be an image taken by a camera disposed at a position corresponding to a specific point in time.

단계(515)에서, 영상 디코딩부(115)는 인코드된 제공된 영상에 대해 디코딩을 수행함으로써 디코드된 영상을 생성할 수 있다.In step 515, the image decoding unit 115 may generate a decoded image by performing decoding on the encoded image that has been encoded.

이하에서, 전자 장치(100)에게 제공된 영상은 영상 디코딩부(115)에 의해 디코드된 영상을 나타낼 수 있다.Hereinafter, the image provided to the electronic device 100 may represent an image decoded by the image decoding unit 115. [

단계(520)에서, 트래킹부(120)는 사용자의 위치 상태의 정보를 획득할 수 있다. 트래킹부(120)는 사용자의 머리의 움직임을 인식함으로써 위치 상태를 생성할 수 있다.In step 520, the tracking unit 120 may obtain information on the positional state of the user. The tracking unit 120 can generate the position state by recognizing the movement of the user's head.

예를 들면, 위치 상태는 사용자의 위치 및 자세를 나타내는 정보를 포함할 수 있다. 사용자의 위치 및 자세는 사용자의 머리의 위치 및 자세를 나타낼 수 있다. 이하에서는, "사용자의 위치 및 자세" 및 "사용자의 머리의 위치 및 자세"는 서로 간에 대체될 수 있다.For example, the position state may include information indicating the position and posture of the user. The user's position and posture can indicate the position and posture of the user's head. In the following, "user's position and posture" and "position and posture of the user's head"

예를 들면, 위치 상태는 사용자의 위치 상태의 변화를 나타낼 수 있다. 위치 상태는 트래킹부(120)는 위치 상태의 변화를 감지할 수 있고, 위치 상태 또는 위치 상태의 변화를 나타내는 위치 상태의 정보를 생성할 수 있다. 위치 상태는 사용자의 머리의 이동 및 회전을 나타낼 수 있다. 위치 상태는 사용자의 머리의 좌측 또는 우측으로의 이동의 변위를 나타내는 정보를 포함할 수 있다. 위치 상태는 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 정보를 포함할 수 있다.For example, the position state may indicate a change in the position state of the user. The positional state may be such that the tracking unit 120 can detect a change in the positional state and generate positional state information indicating a change in the positional state or the positional state. The positional state may indicate movement and rotation of the user's head. The positional state may include information indicating a displacement of movement of the user's head to the left or right. The positional state may include information indicating a rotation of the user's head to the left or right.

영상 합성부(130)는 트래킹부(120)로부터 위치 상태의 정보를 획득할 수 있다. 영상 합성부(130)는 획득된 위치 상태에 기반하여 요구되는 시점을 계산할 수 있다. 요구되는 시점은 사용자의 위치 상태에 따라서 사용자에게 제공되어야 하는 영상의 시점을 나타낼 수 있다.The image combining unit 130 may obtain the information of the position state from the tracking unit 120. [ The image synthesis unit 130 may calculate a required time based on the obtained position state. The requested point in time may indicate the point of view of the image to be provided to the user according to the position state of the user.

단계(530)에서, 영상 합성부(130)는 사용자의 위치 상태에 대응하는 가상 시점의 영상이 요구되는지 여부를 판단할 수 있다.In operation 530, the image synthesis unit 130 may determine whether an image of a virtual viewpoint corresponding to the user's position state is required.

가상 시점의 영상이 요구될 경우, 단계(540)가 수행될 수 있다. 가상 시점의 영상이 요구되지 않는 경우, 단계(550)가 수행될 수 있다.If an image at a virtual viewpoint is required, step 540 may be performed. If an image at the virtual time point is not required, step 550 may be performed.

예를 들면, 위치 상태에 대응하는 영상이 하나 이상이고, 전자 장치(100)에게 제공된 영상이 하나 이상일 때, 가상 시점의 영상을 생성하는 단계(540)는 위치 상태에 대응하는 하나 이상의 영상들의 시점들 중 적어도 하나의 시점이 하나 이상의 전자 장치(100)에 제공된 영상들의 하나 이상의 시점들 중 어느 시점과도 동일하지 않을 경우에 수행될 수 있다. 말하자면, 가상 시점의 영상을 생성하는 단계(540)는 전자 장치(100)에 제공된 하나 영상들로는, 사용자의 위치 상태에 대응하는 시점의 영상이 제공되지 못할 때, 상기의 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하기 위해 수행될 수 있다.For example, when there are one or more images corresponding to the positional state and one or more images provided to the electronic device 100, a step 540 of generating an image of a virtual viewpoint may include: At least one of the plurality of electronic devices 100 is not identical to any of the one or more views of the images provided to the one or more electronic devices 100. [ In other words, the step 540 of generating an image at the virtual time point may include, for one image provided to the electronic device 100, an image corresponding to the position state of the user when the image corresponding to the user's position state is not provided And may be performed to generate an image at a virtual viewpoint.

단계(530)에서, 아래에서 도 6을 참조하여 더 상세하게 설명된다.In step 530, described in more detail below with reference to FIG.

단계(540)에서, 영상 합성부(130)는 전자 장치(100)에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다.In operation 540, the image synthesizer 130 may generate an image at a virtual viewpoint corresponding to the user's position using the image provided to the electronic device 100. [

영상 합성부(130)는 가상 시점의 영상을 생성함에 있어서 깊이 맵을 사용할 수 있다. 영상 합성부(130)는 전자 장치(100)에게 제공된 영상 및 제공된 영상에 대응하는 깊이 맵을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다. 또는, 영상 합성부(130)는 사용자의 머리의 위치에 대응하는 카메라 파라미터를 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다.The image combining unit 130 may use a depth map in generating an image at a virtual viewpoint. The image synthesizer 130 may generate an image of a virtual viewpoint corresponding to the position state of the user using the image provided to the electronic device 100 and the depth map corresponding to the provided image. Alternatively, the image combining unit 130 may generate an image of a virtual viewpoint corresponding to the user's position state using camera parameters corresponding to the position of the head of the user.

가상 시점의 영상은 전자 장치(100)에게 제공된 영상의 시점과는 다른, 새로운 시점일 수 있다. 말하자면, 영상 합성부(130)는 전자 장치(100)에게 제공된 영상을 사용하여 가상 시점의 영상을 합성할 수 있다. The image at the virtual time point may be a new time point different from the time point of the image provided to the electronic device 100. [ In other words, the image synthesis unit 130 may synthesize an image at a virtual viewpoint using the image provided to the electronic device 100. [

단계(540)가 수행되면, 다음으로 단계(540)에서 생성된 가상 시점의 영상을 제공하기 위해 단계(550)가 수행될 수 있다.If step 540 is performed, then step 550 may be performed to provide an image of the virtual time point generated in step 540.

단계(550)에서, 디스플레이부(140)는 사용자의 위치 상태에 대응하는 영상을 출력할 수 있다.In step 550, the display unit 140 may output an image corresponding to the position state of the user.

영상의 출력에 있어서, 디스플레이부(140)는 전자 장치(100)에게 제공된 영상 및 가상 시점의 영상 중 어떤 영상을 출력할지를 결정할 수 있다. 디스플레이부(140)는 전자 장치(100)에게 제공된 하나 이상의 영상들 중 가상 시점의 영상과 함께 출력될 영상을 결정할 수 있다.In outputting the image, the display unit 140 may determine which of the image provided to the electronic device 100 and the image at the virtual viewpoint is to be output. The display unit 140 may determine an image to be output together with an image of a virtual viewpoint among the one or more images provided to the electronic device 100. [

단계(540)가 수행된 경우, 위치 상태에 대응하는 영상은 가상 시점의 영상을 포함할 수 있다.If step 540 is performed, the image corresponding to the position state may include the image at the virtual time point.

단계(550)가 수행되지 않은 경우, 위치 상태에 대응하는 영상은 단계(510)에서 전자 장치(100)에게 제공된 영상일 수 있다.If step 550 is not performed, the image corresponding to the position state may be the image provided to the electronic device 100 at step 510.

또한, 위치 상태에 대응하는 영상은 하나 이상의 시점들의 하나 이상의 영상들일 수 있다. 예를 들면, 사용자의 위치 상태에 따라, 2개의 영상들이 각각 사용자의 좌안 및 우안에 제공될 수 있다. 위치 상태에 대응하는 영상은 사용자의 좌안에 제공되는 좌측 영상 및 사용자의 우안에 제공되는 우측 영상을 포함할 수 있다.Also, an image corresponding to the position state may be one or more images of one or more viewpoints. For example, two images may be provided in the left and right eyes of the user, respectively, depending on the positional state of the user. The image corresponding to the position state may include a left image provided in the left eye of the user and a right image provided in the right eye of the user.

위치 상태에 대응하는 복수의 영상들의 복수의 시점들은 서로 다를 수 있다. 예를 들면, 좌측 영상의 시점 및 우측 영상의 시점은 서로 다를 수 있다. 영상 합성부(130)는 사용자의 양안들 사이의 간격에 기반하여 좌측 영상의 시점 및 우측 영상의 시점 간의 차이를 결정할 수 있다.The plurality of views of the plurality of images corresponding to the position state may be different from each other. For example, the viewpoints of the left image and the right image may be different from each other. The image synthesis unit 130 may determine a difference between a viewpoint of a left image and a viewpoint of a right image based on an interval between the eyes of the user.

위치 상태에 대응하는 영상이 복수인 경우, 적어도 일부의 영상은 가상 시점의 영상일 수 있다. 또한, 복수의 영상들 중 가상 시점의 영상을 제외한 나머지의 영상은 전자 장치(100)에게 제공된 영상일 수 있다. 말하자면, 위치 상태에 대응하는 영상은 1) 가상 시점의 영상 및 2) 전자 장치(100)에게 제공된 영상을 포함할 수 있다.When there are a plurality of images corresponding to the positional state, at least a part of the images may be images at a virtual time point. In addition, the remaining images of the plurality of images, other than the images at the virtual viewpoint, may be images provided to the electronic device 100. [ That is, the image corresponding to the position state may include 1) an image at a virtual viewpoint, and 2) an image provided to the electronic device 100.

영상의 출력은 영상의 데이터를 외부로 출력하는 것을 의미할 수 있다. 또는, 영상의 출력은 영상을 사용자의 시각을 통해 인지될 수 있는 형태로 출력하는 것을 의미할 수 있다.
The output of the image may mean outputting the data of the image to the outside. Alternatively, the output of the image may mean outputting the image in a form recognizable through the user's view.

도 6은 일 예에 따른 가상 시점의 영상이 요구되는지 여부를 판단하는 방법의 흐름도이다.6 is a flowchart of a method for determining whether an image at a virtual viewpoint is required according to an example.

도 5를 참조하여 전술된 단계(530)는 후술될 단계들(610, 620, 630, 640 650, 660 및 670)을 포함할 수 있다.Step 530 described above with reference to FIG. 5 may include steps 610, 620, 630, 640 650, 660, and 670 described below.

단계(610)에서, 영상 합성부(130)는 사용자의 위치 상태가 변화하였는지 여부를 판단할 수 있다.In step 610, the image synthesis unit 130 may determine whether the user's position state has changed.

위치 상태의 변화는 전자 장치(100)에 의해 출력되는 영상의 시점을 기준으로 결정될 수 있다. 전자 장치(100)에 의해 출력되는 영상의 시점은 기준 시점일 수 있다. 위치 상태의 변화는 기준 시점을 기준으로 사용자의 좌측 또는 우측으로의 이동에 따른 위치 이동의 변위를 나타낼 수 있다. 위치 상태의 변화는 기준 시점을 기준으로 사용자의 좌측 또는 우측으로의 회전에 따른 회전 각을 나타낼 수 있다. 또는, 위치 상태의 변화는 위치 이동의 변위 및/또는 회전 각을 나타낼 수 있다.The change in the position state can be determined based on the viewpoint of the image output by the electronic device 100. [ The viewpoint of the image output by the electronic device 100 may be a reference time point. The change of the positional state may indicate the displacement of the positional movement according to the movement of the user to the left or right side based on the reference point. The change of the positional state may indicate a rotation angle of the user with respect to the left or right rotation based on the reference point. Alternatively, a change in the positional state may indicate a displacement and / or a rotational angle of the positional movement.

위치 상태가 변화한 경우, 변화된 위치에 따른 처리가 요구된다.When the position state is changed, processing according to the changed position is required.

사용자의 위치 상태가 변한 것으로 판단된 경우, 단계(620)가 수행될 수 있다. 사용자의 위치 상태가 변하지 않은 것으로 판단된 경우, 단계(670)가 수행될 수 있다.If it is determined that the user's location status has changed, step 620 may be performed. If it is determined that the user's position status has not changed, step 670 may be performed.

단계(620)에서, 영상 합성부(130)는 위치 상태의 변화에 따라 카메라 파라미터를 업데이트할 수 있다.In step 620, the image synthesis unit 130 may update the camera parameters according to the change of the position state.

단계(620)는 단계들(630, 640, 650 및 660)을 포함할 수 있다. 단계(620)의 적어도 일부로서, 단계(630) 및 단계(650)가 각각 수행될 수 있다.Step 620 may include steps 630, 640, 650, and 660. As at least a portion of step 620, steps 630 and 650 may be performed, respectively.

단계(630)에서, 영상 합성부(130)는 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 이동을 나타내는지 여부를 판단할 수 있다.In step 630, the image synthesis unit 130 may determine whether the position state indicates movement to the left or right of the user's head.

위치 상태가 사용자의 머리의 좌측 또는 우측으로의 이동을 나타내는 경우, 단계(640)가 수행될 수 있다. 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 이동을 나타내지 않는 경우, 단계(670)가 수행될 수 있다.If the position state indicates movement to the left or right of the user's head, step 640 may be performed. If the position state does not indicate movement to the left or right of the user's head, step 670 may be performed.

단계(640)에서, 영상 합성부(130)는 사용자의 머리의 좌측 또는 우측으로의 이동에 따라 카메라 파라미터를 업데이트할 수 있다. 업데이트된 카메라 파라미터는 사용자의 머리의 좌측 또는 우측으로의 이동을 반영할 수 있다.In step 640, the image synthesis unit 130 may update the camera parameters according to the movement of the user's head to the left or right. The updated camera parameters may reflect movement of the user's head to the left or right side.

단계(640)가 수행되면, 다음으로 단계(670)가 수행될 수 있다.If step 640 is performed, then step 670 may be performed.

단계(650)에서, 영상 합성부(130)는 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는지 여부를 판단할 수 있다.In step 650, the image synthesis unit 130 may determine whether the position state indicates rotation to the left or right of the user's head.

위치 상태가 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 경우, 단계(660)가 수행될 수 있다. 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내지 않는 경우, 단계(670)가 수행될 수 있다.If the position state indicates a rotation to the left or right of the user's head, step 660 may be performed. If the position state does not indicate a rotation to the left or right of the user's head, step 670 may be performed.

단계(660)에서, 영상 합성부(130)는 사용자의 머리의 좌측 또는 우측으로의 회전에 따라 카메라 파라미터를 업데이트할 수 있다. 업데이트된 카메라 파라미터는 사용자의 머리의 좌측 또는 우측으로의 회전을 반영할 수 있다.In step 660, the image synthesis unit 130 may update the camera parameters according to the rotation of the user's head to the left or right. The updated camera parameters may reflect a rotation to the left or right of the user's head.

단계(640)가 수행되면, 다음으로 단계(670)가 수행될 수 있다.If step 640 is performed, then step 670 may be performed.

전술된 단계들(630, 640, 650 및 660)은 단지 예시적인 것일 수 있다. 예를 들면, 단계들(630 및 640)은 단계들(650 및 660)의 이전 또는 이후에 수행될 수 있다. 또는, 예를 들면, 단계들(630 및 650)가 수행된 후, 단계(640 및 660)가 한 번에 또는 나뉘어서 수행될 수 있다. 단계(640 및 650)가 한 번에 수행될 경우, 영상 합성부(130)는 사용자의 머리의 좌측 또는 우측으로의 이동 및/또는 회전에 따라 카메라 파라미터를 업데이트할 수 있다.The above-described steps 630, 640, 650 and 660 may be exemplary only. For example, steps 630 and 640 may be performed before or after steps 650 and 660. Alternatively, for example, steps 630 and 650 may be performed, and then steps 640 and 660 may be performed at once or separately. When steps 640 and 650 are performed at one time, the image synthesizer 130 may update the camera parameters according to the movement and / or rotation of the user's head to the left or right.

단계(670)에서, 영상 합성부(130)는 위치 상태가 나타내는 시점이 전자 장치(100)에게 제공된 영상의 시점과 동일한지 여부를 판단할 수 있다. 또는, 영상 합성부(130)는 전자 장치(100)에게 제공된 멀티-뷰 영상의 하나 이상의 시점들 중 위치 상태가 나타내는 시점과 동일한 시점이 존재하는지 여부를 판단할 수 있다.In step 670, the image synthesis unit 130 may determine whether the time indicated by the position state is the same as the time of the image provided to the electronic device 100. [ Alternatively, the image synthesis unit 130 may determine whether there is a time point equal to a time point indicated by the position state among one or more time points of the multi-view image provided to the electronic device 100. [

동일한 시점이 존재하는 경우, 도 5를 참조하여 전술된 단계(540)가 수행될 수 있다. 단계(540)에서, 영상 합성부(130)는 전자 장치(100)에게 제공된 영상 및 카메라 파라미터를 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다.If the same point in time exists, step 540 described above with reference to FIG. 5 may be performed. In operation 540, the image synthesis unit 130 may generate an image of a virtual viewpoint corresponding to the user's position state using the image and camera parameters provided to the electronic device 100. [

동일한 시점이 존재하지 않는 경우, 도 5를 참조하여 전술된 단계(550)가 수행될 수 있다.
If the same time does not exist, step 550 described above with reference to FIG. 5 may be performed.

아래에서는 일 예에 따른 가상 시점의 영상의 합성 방법이 설명된다.Hereinafter, a method of synthesizing an image at a virtual viewpoint according to an example will be described.

사용자가 전자 장치(100) 또는 HMD를 착용하고 자신의 머리를 좌측 또는 우측으로 회전하거나, 세로 방향으로 움직일 수 있다. 트래킹부(120)에 의해 감지되는 위치 상태는 사용자의 좌측 또는 우측으로의 회전을 나타내는 R hmd 및 사용자의 세로 방향으로의 이동을 나타내는 T hmd 를 포함할 수 있다. 또한, 위치 상태는 전자 장치(100) 또는 HMD를 착용하는 사용자가 바라보는 방향을 나타내는 시야각 F를 포함할 수 있다. 말하자면, 전자 장치(100) 또는 HMD가 가상 카메라로서 어떤 사물을 바라보고 있는 것으로 간주될 수 있다.The user can wear his or her electronic device 100 or the HMD and turn his or her head to the left or right or move it in the longitudinal direction. The positional state sensed by the tracking unit 120 may include R hmd indicating the rotation of the user to the left or right and T hmd indicating the movement of the user in the longitudinal direction. Further, the positional state may include a viewing angle F indicating the direction in which the electronic device 100 or the user wearing the HMD is looking. That is to say, the electronic device 100 or the HMD can be regarded as looking at an object as a virtual camera.

특정한 시점 v에서의 카메라 파라미터는 아래의 수학식 1, 2 및 3과 같이 표현될 수 있다.The camera parameters at a particular point in time v can be expressed as Equations 1, 2 and 3 below.

Figure pat00001
Figure pat00001

행렬 K는 내부 카메라 파라미터를 나타낼 수 있다.Matrix K may represent an internal camera parameter.

여기에서, f x x 축으로의 초점 거리를 나타낼 수 있다. f y y 축으로의 초점 거리를 나타낼 수 있다. C x 는 영상 평면(image plane)의 주점(principle point)의 x 좌표를 나타낼 수 있다. C y 는 영상 평면의 주점의 y 좌표를 나타낼 수 있다.Here, f x can indicate the focal length on the x axis. f y can represent the focal length in the y- axis. C x can represent the x coordinate of the principle point of the image plane. C y can represent the y coordinate of the principal point of the image plane.

Figure pat00002
Figure pat00002

수학식 2에서, 행렬 R은 카메라의 회전 행렬을 나타낼 수 있다. In Equation (2), the matrix R may represent the rotation matrix of the camera.

Figure pat00003
Figure pat00003

수학식 3에서, 행렬 T는 카메라의 위치를 나타낼 수 있다. 행렬 T가 나타내는 카메라의 위치는 월드 좌표계(world coordinate) 상의 위치일 수 있다.In Equation (3), the matrix T may represent the position of the camera. The location of the camera represented by matrix T may be a location on the world coordinate.

영상 합성부(130)는 월드 좌표 상의 좌표 값 (x, y, z)을 특정한 시점 v의 임의의 점으로 투영(project) 시킬 수 있다.The image synthesis unit 130 may project the coordinate values ( x , y , z ) on the world coordinate to an arbitrary point at a specific point in time v .

월드 좌표 상의 좌표 값 (x, y, z)의 가상 시점 v의 임의의 점으로의 투영은 아래의 수학식 4와 같이 표현될 수 있다.The projection of the coordinate value ( x , y , z ) on the world coordinate to an arbitrary point of the virtual point of view v can be expressed by the following equation (4).

Figure pat00004
Figure pat00004

좌표 (x v , y v )는 가상 시점 v에서의 점을 나타낼 수 있다.Coordinates (x v, y v) may represent the point in virtual time v.

수학식 4에 따르면, 가상 시점 v에서의 깊이 값이 알려져 있으면, 영상 합성부(130)는 가상 시점 v에서의 깊이 값을 사용하는 재투영(re-projection)을 통해 월드 좌표 상의 좌표 값 (x, y, z)를 획득할 수 있다.According to Equation (4), if the depth value at the virtual viewpoint v is known, the image composing unit 130 obtains the coordinate value ( x ( x )) on the world coordinate through re- projection using the depth value at the virtual viewpoint v , , y , z ).

영상 합성부(130)는 좌표 값 (x, y, z)에 대하여 가상 시점 v의 내부 파라미터 K' 및 외부 파라미터 (R' | T')를 적용함으로써 기상 시점 v'에서의 좌표 값 (x', y')을 획득할 수 있다.Image combining unit 130, the coordinate value (x, y, z) inside the parameters of the virtual viewpoint v K 'and external parameters (R' with respect to | coordinate value in "vapor viewpoint v by applying T) '(x' , y ').

사용자 또는 전자 장치(100)의 움직임에 대한 트래킹에 의해 변경되는 값들 T'은 이동 거리 T hmd 및 이동 방향 부호

Figure pat00005
로 표현될 수 있다. 이동 방향 부호
Figure pat00006
는 좌측 또는 우측으로의 이동에 따른 부호를 나타낼 수 있다.The values T ', which are changed by tracking the movement of the user or electronic device 100, are defined by the movement distance T hmd and the movement direction sign
Figure pat00005
. ≪ / RTI > Direction code
Figure pat00006
May indicate a sign according to movement to the left or right.

이동 거리 T hmd 는 아래의 수학식 5와 같이 표현될 수 있다.The moving distance T hmd can be expressed by the following equation (5).

Figure pat00007
Figure pat00007

Figure pat00008
의 값은 -1 또는 1일 수 있다.
Figure pat00008
May be either -1 or 1.

사용자 또는 전자 장치(100)의 움직임에 대한 트래킹에 의해 변경되는 값들 T'은 아래의 수학식 6과 같이 표현될 수 있다.The values T ', which are changed by tracking the movement of the user or electronic device 100, can be expressed as: < EMI ID = 6.0 >

Figure pat00009
Figure pat00009

R hmd 는 x 축을 중심으로

Figure pat00010
만큼 회전하는 것으로 간주될 수 있다. 상기의 간주에 따라 R hmd
Figure pat00011
로 변경될 수 있다. 또한, R hmd 는 아래의 수학식 7과 같이 표현될 수 있다. R hmd is centered on the x-axis
Figure pat00010
As shown in FIG. According to the above consideration, R hmd is
Figure pat00011
. ≪ / RTI > Also, R hmd can be expressed by the following Equation (7).

Figure pat00012
Figure pat00012

영상 합성부(130)는 아래의 수학식 8에 따라, 트래킹에 의해 생성되는 가상 시점 v'를 생성할 수 있다.The image synthesis unit 130 may generate a virtual viewpoint v 'generated by tracking according to the following equation (8).

Figure pat00013
Figure pat00013

전술된 가상 시점 생성 방법은 일 예이다. 영상 합성부(130)는 입력된 위치 상태 및 다양한 보간(interpolation) 방법을 사용하여 가상 시점을 생성할 수 있다.
The above-described virtual viewpoint generation method is an example. The image synthesis unit 130 may generate a virtual viewpoint using the input position state and various interpolation methods.

도 7은 일 실시예에 따른 3차원 영상 시스템의 구조를 설명한다.FIG. 7 illustrates a structure of a 3D image system according to an embodiment.

3차원(Dimension; D) 영상 시스템은 송신기 및 수신기를 포함할 수 있다.A three dimensional (D) imaging system may include a transmitter and a receiver.

수신기는 3D 비디오 인코더를 포함할 수 있다.The receiver may include a 3D video encoder.

수신기는 3D 수신기, 스테레오 수신기 및 2D 수신기를 포함할 수 있다. 3D 수신기는 3D 비디오 디코더를 포함할 수 있다. 스테레오 수신기는 스테레오 비디오 디코더를 포함할 수 있다. 2D 수신기는 2D 비디오 디코더를 포함할 수 있다.The receiver may include a 3D receiver, a stereo receiver, and a 2D receiver. The 3D receiver may include a 3D video decoder. The stereo receiver may include a stereo video decoder. The 2D receiver may include a 2D video decoder.

송신기는 스테레오 카메라, 깊이 카메라, 멀티-뷰 카메라 및 2D 영상의 3D 영상으로의 변환 등을 이용하여 멀티-뷰 영상의 콘텐츠를 획득할 수 있다. 멀티-뷰 영상의 영상들의 시점들의 개수는 M일 수 있다. M은 2 이상의 정수일 수 있다.The transmitter can acquire the contents of the multi-view image using a stereo camera, a depth camera, a multi-view camera, and a conversion of a 2D image into a 3D image. The number of viewpoints of the images of the multi-view image may be M. M may be an integer of 2 or more.

멀티-뷰 영상은 M개의 시점들의 영상들을 포함할 수 있다. 도 7에서, M개의 시점들의 영상들은 비디오 픽처들로서 도시되었다. 비디오 픽처는 비디오의 특정한 시점에서의 영상을 나타낼 수 있다.The multi-view image may include images of M viewpoints. In Figure 7, the images of the M views are shown as video pictures. A video picture can represent an image at a specific point in the video.

또한, 멀티-뷰 영상은 M개의 시점들의 영상들의 깊이 맵들을 포함할 수 있다. 또한, 멀티-뷰 영상은 카메라와 관련된 부가 정보를 포함할 수 있다.In addition, the multi-view image may include depth maps of images of M views. In addition, the multi-view image may include additional information related to the camera.

멀티-뷰 영상은 멀티-뷰 비디오 인코딩 방법에 의해 압축될 수 있다. 압축된 멀티-뷰 영상의 비트스크림은 네트워크를 통해 송신기로부터 수신기로 전송될 수 있다.The multi-view image can be compressed by a multi-view video encoding method. The bit-stream of the compressed multi-view image may be transmitted from the transmitter to the receiver over the network.

수신기는 멀티-뷰 비디오 디코딩 방법을 사용하여 전송된 비트스크림에 대한 디코딩을 수행할 수 있다. 디코딩에 의해 M개 시점들의 영상들이 복원될 수 있다.The receiver may perform decoding for the transmitted bit-stream using a multi-view video decoding method. The images of M start points can be restored by decoding.

수신기는 수신기에 맞는 디스플레이를 사용하여 M개 시점들의 영상들을 출력할 수 있다.The receiver can output images of M views using a display suitable for the receiver.

3D 수신기는 멀티-뷰 영상을 사용하는 중간 뷰 합성을 사용하여 멀티-뷰 영상이 포함하지 않은 시점의 영상을 생성할 수 있다. 중간 뷰 합성에 대해 아래에서 도 8을 참조하여 상세하게 설명된다.
The 3D receiver can generate an image at a point in time when the multi-view image is not included using the intermediate view synthesis using the multi-view image. Intermediate view synthesis is described in detail below with reference to FIG.

도 8은 일 예에 따른 중간 뷰 합성을 통한 멀티-뷰 디스플레이를 설명한다.Figure 8 illustrates a multi-view display with intermediate view composition according to an example.

도 8에서는, 디코드된 멀티-뷰-깊이(Multi View-Depth; MVD) 데이터가 도시되었다. 전자 장치(100)에게 제공된 영상은 3개의 영상들 및 3개의 깊이 맵들을 포함할 수 있다. 도 8에서, 전자 장치(100)에서 제공된 영상들 및 깊이 맵들은 V1, D1, V5, D5, V9 및 D9를 포함할 수 있다.In FIG. 8, decoded multi-view-depth (MVD) data is shown. The image provided to the electronic device 100 may include three images and three depth maps. In FIG. 8, the images and depth maps provided in the electronic device 100 may include V1, D1, V5, D5, V9, and D9.

영상 합성부(130)는 디코드된 MVD 데이터로부트 복원된 M개의 시점들의 영상들에 깊이 맵 기반 랜더링(Depth-Image Based Rendering; DIBR)을 적용함으로써 가상 시점의 영상들 V2, V3, V4, V6, V7 및 V8을 생성할 수 있다.The image synthesis unit 130 applies depth-based image based rendering (DIBR) to the images of M view points restored by decoding the decoded MVD data, thereby generating images V2, V3, V4, V6 , V7, and V8.

DIBR은 멀티-뷰 영상 및 깊이 맵을 사용하는 3D 와핑(warping)을 사용하여 가상 시점의 영상을 생성하는 방법일 수 있다. DIBR의 하나로서 보편적으로 사용되는 방법은, 특정한 시점에 해당하는 카메라 파라미터 및 깊이 맵을 사용하여 좌표 값을 3차원 좌표계로 이동시킬 수 있고, 3차원 좌표계로 이동된 좌표 값을 다시 가상 시점으로 투영할 수 있다.The DIBR may be a method of generating an image at a virtual viewpoint using 3D warping using a multi-view image and a depth map. One commonly used method of the DIBR is to move the coordinate values to a three-dimensional coordinate system using camera parameters and depth maps corresponding to a specific point in time, to project the coordinate values shifted to the three- can do.

DIBR의 2 단계의 과정들은 다음과 같을 수 있다. 1) 제1 단계에서, 특정한 시점의 영상의 한 점은 월드 좌표계로 투영된다. 상기의 투영에 있어서, 깊아 맵의 대응하는 점의 깊이 값을 사용될 수 있다. 2) 제2 단계에서, 월드 좌표계로 투영된 접은 가상 시점의 가상 카메라의 이미지 평면 상의 가상 지점에 다시 투영될 수 있다.The two stages of the DIBR can be as follows. 1) In the first step, a point of an image at a specific point in time is projected in the world coordinate system. In the above projection, the depth value of the corresponding point of the deep map can be used. 2) In the second step, the fold projected in the world coordinate system can be projected back to the virtual point on the image plane of the virtual camera at the virtual point of view.

영상 합성부(130)는 전자 장치(100)에게 제공된 영상 및 가상 시점의 영상을 포함하여 N개의 시점들의 영상들을 제공할 수 있다. N은 M 이상의 정수일 수 있다.The image synthesizer 130 may provide images of N viewpoints including images provided to the electronic device 100 and images at virtual viewpoints. N may be an integer greater than M.

영상 합성부(130)는 N개의 시점들의 영상들 중 사용자의 위치에 따라 요구되는 시점의 영상을 제공할 수 있다. 도 8에서는, 제1 위치, 제2 위치 및 제3 위치의 각각에 대해서, 사용자의 우안 및 좌안의 각각에 요구되는 영상이 제공되는 것이 도시되었다.The image synthesizer 130 may provide a desired viewpoint image according to the location of the user among the N viewpoint images. In Fig. 8, it is shown that for each of the first position, the second position, and the third position, the image required for each of the user's right eye and left eye is provided.

N개의 시점들의 영상들은 다양한 멀티-뷰 3D 디스플레이 장치에 맞춰 재생될 수 있다. 재생을 통해 사용자에게 입체감이 있는 영상이 제공될 수 있다. Images of the N viewpoints can be played back in accordance with various multi-view 3D display devices. A stereoscopic image can be provided to the user through playback.

멀티-뷰 디스플레이에서 제공하는 시점의 개수가 증가할 수록, 합성을 요구하는 가상 시점의 영상의 개수도 증가할 수 있다. 이러한 증가는, 많은 계산 량을 요구할 수 있다. 전술된 실시예에서, 전자 장치(100)는 가상 시점의 영상의 합성을 선택적으로 수행함으로써 가상 시점의 영상의 제공을 위한 계산 량을 감소시킬 수 있다.As the number of viewpoints provided by the multi-view display increases, the number of images at a virtual viewpoint requiring synthesis may also increase. This increase may require a large amount of computation. In the above-described embodiment, the electronic device 100 can selectively reduce the amount of calculation for providing an image at a virtual viewpoint by selectively performing synthesis of an image at a virtual viewpoint.

영상 합성부(130)는 멀티-뷰 영상에 포함된 N 개의 영상들 및 상기의 영상에 대응하는 N개의 깊이 맵들을 이용하여 M개의 시점들의 영상들을 제공할 수 있다. 영상 합성부(130)는 가능한 모든 가상 시점의 영상을 생성하지 않고, 트래킹부(120)에 의해 획득된 위치 상태를 이용하여 요구되는 시점의 영상만을 생성할 수 있다. 이러한 생성 방식은, 무안경 멀티-뷰 디스플레이가 모든 시점들의 가상 영상들을 합성하기 위해 요구되는 방대한 계산 량을 감소시킬 수 있다. 또한, 영상 합성부(130)는 선택적으로 가상 시점의 영상을 생성함에 따라, 원본 영상에 비한 영상의 해상도 저하 또는 영상의 왜곡을 감소시킬 수 있다.
The image synthesis unit 130 may provide M images of N view points using N images included in the multi-view image and N depth maps corresponding to the images. The image combining unit 130 can generate only the image at the desired time point using the position state acquired by the tracking unit 120 without generating the image at all possible virtual viewpoints. This generation scheme can reduce the amount of computation required for a spectacles multi-view display to synthesize virtual images of all views. In addition, the image combining unit 130 may selectively reduce the resolution of the image compared to the original image or the image distortion by generating the image of the virtual viewpoint.

도 9는 사용자의 머리의 움직임에 따른 스티치된 영상을 도시한다.9 shows a stitched image according to the movement of the user's head.

전술된 것과 같이, 사용자, 사용자의 머리 또는 전자 장치(100)의 움직임에 따라, 사용자에게 제공되어야 할 영상의 시점이 변경될 수 있다. 합성에 의해, 합성된 뷰들이 사용자에게 제공될 수 있다.As described above, according to the movement of the user, the user's head, or the electronic device 100, the viewpoint of the image to be provided to the user can be changed. By compositing, synthesized views can be provided to the user.

예를 들면, 사용자의 머리가 좌측으로 이동하면, 영상 합성부(130)는 좌측 스티치된(stitched) 영상을 생성할 수 있다. 또는, 사용자의 머리가 우측으로 이동하면, 영상 합성부(130)는 우측 스티치된 영상을 생성할 수 있다.
For example, when the head of the user moves to the left, the image synthesizing unit 130 can generate a left stitched image. Alternatively, if the user's head moves to the right, the image combining unit 130 can generate a right-stitched image.

도 10은 일 실시예에 따른 전자 장치를 구현하는 컴퓨터 시스템을 도시한다.10 illustrates a computer system for implementing an electronic device according to an embodiment.

전자 장치(100)는 도 10에서 도시된 컴퓨터 시스템(1000)으로서 구현될 수 있다.The electronic device 100 may be implemented as the computer system 1000 shown in Fig.

도 10에서 도시된 바와 같이, 컴퓨터 시스템(1000)는 처리부(1010), 통신부(1020), 메모리(1030), 저장소(1040) 및 버스(1090) 중 적어도 일부를 포함할 수 있다. 처리부(1010), 통신부(1020), 메모리(1030) 및 저장소(1040) 등과 같은 컴퓨터 시스템(1000)의 구성요소들은 버스(1090)를 통해 서로 간에 통신할 수 있다.10, the computer system 1000 may include at least some of the processing unit 1010, the communication unit 1020, the memory 1030, the storage 1040, and the bus 1090. [ Components of computer system 1000 such as processing unit 1010, communication unit 1020, memory 1030 and storage 1040 may communicate with each other via bus 1090.

처리부(1010)는 메모리(1030) 또는 저장소(1040)에 저장된 프로세싱(processing) 명령어(instruction)들을 실행하는 반도체 장치일 수 있다. 예를 들면, 처리부(1010)는 적어도 하나의 프로세서(processor)일 수 있다.The processing unit 1010 may be a semiconductor device that executes the processing instructions stored in the memory 1030 or the storage 1040. [ For example, the processing unit 1010 may be at least one processor.

처리부(1010)는 컴퓨터 시스템(1000)의 동작을 위해 요구되는 작업을 처리할 수 있다. 처리부(1010)는 실시예들에서 설명된 처리부(1010)의 동작 또는 단계의 코드를 실행(execute)할 수 있다.The processing unit 1010 can process a job required for the operation of the computer system 1000. [ The processing unit 1010 may execute the code of the operation or step of the processing unit 1010 described in the embodiments.

처리부(1010)는 정보의 생성, 저장 및 출력을 수행할 수 있으며, 기타 컴퓨터 시스템(1000)에서 이루어지는 단계의 동작을 수행할 수 있다.The processing unit 1010 may perform generation, storage, and output of information, and may perform operations of steps performed in the other computer system 1000.

통신부(1020)는 네트워크(1099)에 연결될 수 있다. 컴퓨터 시스템(1000)의 동작을 위해 요구되는 데이터 또는 정보를 수신할 수 있으며, 컴퓨터 시스템(1000)의 동작을 위해 요구되는 데이터 또는 정보를 전송할 수 있다. 통신부(1020)는 네트워크(1099)를 통해 다른 장치로 데이터를 전송할 수 있고, 다른 장치로부터 데이터를 수신할 수 있다. 예를 들면, 통신부(1020)는 네트워크 칩(chip) 또는 포트(port)일 수 있다.The communication unit 1020 can be connected to the network 1099. May receive data or information required for operation of computer system 1000 and may transmit data or information required for operation of computer system 1000. [ The communication unit 1020 can transmit data to another device via the network 1099 and can receive data from another device. For example, the communication unit 1020 may be a network chip or a port.

메모리(1030) 및 저장소(1040)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 롬(ROM)(1031) 및 램(RAM)(1032) 중 적어도 하나를 포함할 수 있다. 저장소(1040)는 램, 플레시(flash) 메모리 및 하드 디스크(hard disk) 등과 같은 내장형의 저장 매체를 포함할 수 있고, 메모리 카드 등과 같은 탈착 가능한 저장 매체를 포함할 수 있다.Memory 1030 and storage 1040 can be various types of volatile or non-volatile storage media. For example, the memory 1030 may include at least one of a ROM (ROM) 1031 and a RAM (RAM) The storage 1040 may include internal storage media such as RAM, flash memory and a hard disk, and may include removable storage media such as memory cards and the like.

컴퓨터 시스템(1000)의 기능 또는 동작은 처리부(1010)가 적어도 하나의 프로그램 모듈을 실행함에 따라 수행될 수 있다. 메모리(1030) 및/또는 저장소(1040)는 적어도 하나의 프로그램 모듈을 저장할 수 있다. 적어도 하나의 프로그램 모듈은 처리부(1010)에 의해 실행되도록 구성될 수 있다.The function or operation of the computer system 1000 may be performed as the processing unit 1010 executes at least one program module. Memory 1030 and / or storage 1040 may store at least one program module. The at least one program module may be configured to be executed by the processing unit 1010. [

컴퓨터 시스템(1000)는 사용자 인터페이스(User Interface; UI) 입력 디바이스(1050) 및 UI 출력 디바이스(1060)를 더 포함할 수 있다. UI 입력 디바이스(1050)는 컴퓨터 시스템(1000)의 동작을 위해 요구되는 사용자의 입력을 수신할 수 있다. UI 출력 디바이스(1060)는 컴퓨터 시스템(1000)의 동작에 따른 정보 또는 데이터를 출력할 수 있다.The computer system 1000 may further include a user interface (UI) input device 1050 and a UI output device 1060. UI input device 1050 may receive input of a user required for operation of computer system 1000. The UI output device 1060 can output information or data according to the operation of the computer system 1000.

컴퓨터 시스템(1000)는 센서(1070)를 더 포함할 수 있다.The computer system 1000 may further include a sensor 1070.

영상 수신부(110)는 통신부(1020)에 대응할 수 있다. 트래킹부(120)는 센서(1070)에 대응할 수 있다. 영상 디코딩부(115) 및 영상 합성부(130)는 처리부(1010)에 대응할 수 있다. 디스플레이부(140)는 UI 출력 디바이스(1060)에 대응할 수 있다.
The image receiving unit 110 may correspond to the communication unit 1020. The tracking unit 120 may correspond to the sensor 1070. The image decoding unit 115 and the image synthesizing unit 130 may correspond to the processing unit 1010. The display unit 140 may correspond to the UI output device 1060.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

100: 전자 장치
110: 영상 수신부
120: 트래킹부
130: 영상 합성부
140: 디스플레이부
100: Electronic device
110:
120:
130:
140:

Claims (20)

전자 장치가 사용자에게 입체 영상을 제공하는 방법에 있어서,
상기 전자 장치에게 제공된 영상을 사용하여 상기 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 단계; 및
상기 위치 상태에 대응하는 영상을 출력하는 단계
를 포함하고,
상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 영상 제공 방법.
A method of providing a stereoscopic image to a user of an electronic device,
Generating an image of a virtual viewpoint corresponding to the positional state of the user using the image provided to the electronic device; And
Outputting an image corresponding to the position state
Lt; / RTI >
And the image corresponding to the position state includes the image at the virtual time point.
제1항에 있어서,
상기 위치 상태에 대응하는 영상은 상기 전자 장치에게 제공된 영상을 포함하는 영상 제공 방법.
The method according to claim 1,
And an image corresponding to the position state includes an image provided to the electronic device.
제1항에 있어서,
상기 위치 상태에 대응하는 영상은 상기 사용자의 좌안에 제공되는 좌측 영상 및 상기 사용자의 우안에 제공되는 우측 영상을 포함하고,
상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 서로 다른 영상 제공 방법.
The method according to claim 1,
An image corresponding to the position state includes a left image provided in the left eye of the user and a right image provided in the right eye of the user,
Wherein the viewpoint of the left image and the viewpoint of the right image are different from each other.
제3항에 있어서,
상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 상기 사용자의 양안들 사이의 간격에 기반하여 결정되는 영상 제공 방법.
The method of claim 3,
Wherein the viewpoint of the left image and the viewpoint of the right image are determined based on an interval between the eyes of the user.
제1항에 있어서,
상기 위치 상태는 상기 사용자에게 최초로 제공되는 영상의 시점을 기준으로 상기 사용자의 위치를 트래킹하는 정보인 영상 제공 방법.
The method according to claim 1,
Wherein the location information is information for tracking the location of the user based on a viewpoint of an image initially provided to the user.
제1항에 있어서,
상기 사용자의 머리의 움직임을 인식함으로써 상기 위치 상태를 생성하는 단계
를 더 포함하는 영상 제공 방법.
The method according to claim 1,
Generating the position state by recognizing movement of the head of the user;
Further comprising the steps of:
제1항에 있어서,
상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 이동의 변위을 나타내는 정보를 포함하는 영상 제공 방법.
The method according to claim 1,
Wherein the position state includes information indicating a displacement of movement of the user's head to the left or right side.
제1항에 있어서,
상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 정보를 포함하는 영상 제공 방법.
The method according to claim 1,
Wherein the location state includes information indicating a rotation of the user's head to the left or right.
제1항에 있어서,
상기 가상 시점이 상기 제공된 영상의 하나 이상의 영상들 중 하나의 영상의 시점과 동일한 경우, 상기 하나 이상의 영상들 중 상기 가상 시점과 동일한 시점의 영상이 그대로 상기 가상 시점의 영상으로서 사용되는 영상 제공 방법.
The method according to claim 1,
Wherein the virtual point of time is the same as the point of time of one of the one or more images of the provided image, the image of the same point in time as the virtual point of time is used as the image of the virtual point of time.
제1항에 있어서,
상기 위치 상태에 대응하는 영상은 하나 이상의 시점들의 하나 이상의 영상들이고,
상기 제공된 영상은 하나 이상의 시점들의 하나 이상의 영상들이고,
상기 가상 시점의 영상을 생성하는 단계는 상기 위치 상태에 대응하는 하나 이상의 영상들의 시점들 중 적어도 하나의 영상이 상기 하나 이상의 제공된 영상들의 하나 이상의 시점들 중 어느 시점과도 동일하지 않을 경우에 수행되는 영상 제공 방법.
The method according to claim 1,
Wherein the image corresponding to the position state is one or more images of one or more views,
Wherein the provided image is one or more images of one or more views,
Wherein the step of generating an image at the virtual time point is performed when at least one of the views of one or more images corresponding to the position state is not the same as any one of the one or more viewpoints of the one or more provided images Image providing method.
제1항에 있어서,
상기 위치 상태가 변화하였는지 여부를 판단하는 단계; 및
상기 위치 상태의 변화에 따라 카메라 파라미터를 업데이트하는 단계
를 더 포함하는 영상 제공 방법.
The method according to claim 1,
Determining whether the position state has changed; And
Updating the camera parameters according to the change of the position state
Further comprising the steps of:
제11항에 있어서,
상기 카메라 파라미터를 업데이트하는 단계는,
상기 사용자의 머리의 좌측 또는 우측으로의 이동에 따라 상기 카메라 파라미터를 업데이트하는 단계
를 포함하는 영상 제공 방법.
12. The method of claim 11,
Wherein updating the camera parameters comprises:
Updating the camera parameters in accordance with movement of the user's head to the left or right
The method comprising the steps of:
제11항에 있어서,
상기 카메라 파라미터를 업데이트하는 단계는,
상기 사용자의 머리의 좌측 또는 우측으로의 회전에 따라 상기 카메라 파라미터를 업데이트하는 단계
를 포함하는 영상 제공 방법.
12. The method of claim 11,
Wherein updating the camera parameters comprises:
Updating the camera parameters in accordance with rotation of the user's head to the left or right
The method comprising the steps of:
제11항에 있어서,
상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 이동에 따른 위치 이동의 변위를 나타내는 영상 제공 방법.
12. The method of claim 11,
Wherein the change of the position state indicates a displacement of the position movement according to the movement of the user to the left or right based on the reference time.
제11항에 있어서,
상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 회전에 따른 회전 각을 나타내는 영상 제공 방법.
12. The method of claim 11,
Wherein the change of the position state represents a rotation angle of the user with respect to a left or right rotation based on a reference time point.
제11항에 있어서,
상기 카메라 파라미터는 x 축으로의 초점 거리 및 y 축으로의 초점 거리를 포함하는 행렬인 영상 제공 방법.
12. The method of claim 11,
Wherein the camera parameter is a matrix including a focal length in the x-axis and a focal length in the y-axis.
제1항에 있어서,
상기 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 멀티-뷰 영상인 영상 제공 방법.
The method according to claim 1,
Wherein the provided image is a multi-view image of High Efficiency Video Coding (HEVC).
제1항에 있어서,
상기 가상 시점의 영상은 상기 제공된 영상에 대응하는 깊이 맵을 사용하여 생성되는 영상 제공 방법.
The method according to claim 1,
Wherein the image of the virtual viewpoint is generated using a depth map corresponding to the provided image.
전자 장치에 있어서,
상기 전자 장치에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및
상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부
를 포함하고,
상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 전자 장치.
In an electronic device,
An image synthesizer for generating an image of a virtual viewpoint corresponding to a position state of the user using the image provided to the electronic device; And
A display unit for outputting an image corresponding to the position state,
Lt; / RTI >
And the image corresponding to the position state includes the image at the virtual time point.
헤드 마운트 디스플레이에 있어서,
상기 헤드 마운트 디스플레이에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및
상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부
를 포함하고,
상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 헤드 마운트 디스플레이.
In a head mount display,
An image synthesizer for generating an image of a virtual viewpoint corresponding to a positional state of the user using the image provided to the head mount display; And
A display unit for outputting an image corresponding to the position state,
Lt; / RTI >
Wherein the image corresponding to the position state includes the image at the virtual time point.
KR1020160058227A 2015-05-18 2016-05-12 Method and apparatus for providing 3-dimension image to head mount display KR20160135660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610637582.3A CN109361913A (en) 2015-05-18 2016-05-18 For providing the method and apparatus of 3-D image for head-mounted display

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150069179 2015-05-18
KR20150069179 2015-05-18

Publications (1)

Publication Number Publication Date
KR20160135660A true KR20160135660A (en) 2016-11-28

Family

ID=57706847

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160058227A KR20160135660A (en) 2015-05-18 2016-05-12 Method and apparatus for providing 3-dimension image to head mount display

Country Status (2)

Country Link
KR (1) KR20160135660A (en)
CN (1) CN109361913A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190011492A (en) * 2017-07-25 2019-02-07 삼성전자주식회사 Device for providing content and method of operating the same
CN111937043A (en) * 2018-04-06 2020-11-13 华为技术有限公司 Associating file format objects with dynamic adaptive streaming over hypertext transfer protocol (DASH) objects
KR102613415B1 (en) * 2022-12-22 2023-12-13 주식회사 하스퍼 Visual field synchronization apparatus and method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667438B (en) * 2019-03-07 2023-05-26 阿里巴巴集团控股有限公司 Video reconstruction method, system, device and computer readable storage medium
CN111669568A (en) * 2019-03-07 2020-09-15 阿里巴巴集团控股有限公司 Multi-angle free visual angle interaction method and device, medium, terminal and equipment
US20200288112A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, and device for processing multi-angle free-perspective video data
CN111669561B (en) * 2019-03-07 2023-05-26 阿里巴巴集团控股有限公司 Multi-angle free view image data processing method and device, medium and equipment
CN111669570B (en) * 2019-03-07 2023-12-19 阿里巴巴集团控股有限公司 Multi-angle free view video data processing method and device, medium and equipment
CN111669571B (en) * 2019-03-07 2023-12-19 阿里巴巴集团控股有限公司 Multi-angle free view image data generation method and device, medium and equipment
CN111669564B (en) * 2019-03-07 2022-07-26 阿里巴巴集团控股有限公司 Image reconstruction method, system, device and computer readable storage medium
CN112738495B (en) * 2019-10-28 2023-03-28 阿里巴巴集团控股有限公司 Virtual viewpoint image generation method, system, electronic device and storage medium
CN112738534B (en) * 2019-10-28 2023-06-23 阿里巴巴集团控股有限公司 Data processing method and system, server and storage medium
CN113473244A (en) * 2020-06-23 2021-10-01 青岛海信电子产业控股股份有限公司 Free viewpoint video playing control method and device
CN113891060A (en) * 2020-07-03 2022-01-04 阿里巴巴集团控股有限公司 Free viewpoint video reconstruction method, playing processing method, device and storage medium
CN114071115A (en) * 2020-07-31 2022-02-18 阿里巴巴集团控股有限公司 Free viewpoint video reconstruction and playing processing method, device and storage medium
CN112235562B (en) * 2020-10-12 2023-09-15 聚好看科技股份有限公司 3D display terminal, controller and image processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100496121C (en) * 2007-04-11 2009-06-03 宁波大学 Image signal processing method of the interactive multi-view video system
CA2745392C (en) * 2008-12-18 2016-07-12 Lg Electronics Inc. Method for 3d image signal processing and image display for implementing the same
US8872888B2 (en) * 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
CN102307309A (en) * 2011-07-29 2012-01-04 杭州电子科技大学 Somatosensory interactive broadcasting guide system and method based on free viewpoints
JP5953916B2 (en) * 2012-05-02 2016-07-20 ソニー株式会社 Image processing apparatus and method, and program
US10116911B2 (en) * 2012-12-18 2018-10-30 Qualcomm Incorporated Realistic point of view video method and apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190011492A (en) * 2017-07-25 2019-02-07 삼성전자주식회사 Device for providing content and method of operating the same
US11320898B2 (en) 2017-07-25 2022-05-03 Samsung Electronics Co., Ltd. Device and method for providing content
CN111937043A (en) * 2018-04-06 2020-11-13 华为技术有限公司 Associating file format objects with dynamic adaptive streaming over hypertext transfer protocol (DASH) objects
US11902634B2 (en) 2018-04-06 2024-02-13 Huawei Technologies Co., Ltd. Associating file format objects and dynamic adaptive streaming over hypertext transfer protocol (DASH) objects
KR102613415B1 (en) * 2022-12-22 2023-12-13 주식회사 하스퍼 Visual field synchronization apparatus and method

Also Published As

Publication number Publication date
CN109361913A (en) 2019-02-19

Similar Documents

Publication Publication Date Title
KR20160135660A (en) Method and apparatus for providing 3-dimension image to head mount display
US20200051269A1 (en) Hybrid depth sensing pipeline
US9883174B2 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
JP6021541B2 (en) Image processing apparatus and method
JP4693900B2 (en) Image processing device
Bertel et al. Megaparallax: Casual 360 panoramas with motion parallax
CN110999285B (en) Processing of 3D image information based on texture maps and meshes
KR20110086079A (en) Method and system for processing an input three dimensional video signal
US8610707B2 (en) Three-dimensional imaging system and method
Thatte et al. Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax
KR20120030005A (en) Image processing device and method, and stereoscopic image display device
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
WO2012140397A2 (en) Three-dimensional display system
WO2021081568A2 (en) Advanced stereoscopic rendering
JP6128748B2 (en) Image processing apparatus and method
JP6033625B2 (en) Multi-viewpoint image generation device, image generation method, display device, program, and recording medium
WO2023003803A1 (en) Virtual reality systems and methods
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
KR20170065208A (en) Method and apparatus for processing 3-dimension image, and graphic processing unit
JP6166985B2 (en) Image generating apparatus and image generating program
US20230106679A1 (en) Image Processing Systems and Methods
CN109961395B (en) Method, device and system for generating and displaying depth image and readable medium
JP4815004B2 (en) Multi-view image encoding device
JPWO2018186287A1 (en) Video data generating device, video reproducing device, video data generating method, control program, and recording medium
KR20170077331A (en) Arbitrary View Image Generation Method and System