KR20160135660A - Method and apparatus for providing 3-dimension image to head mount display - Google Patents
Method and apparatus for providing 3-dimension image to head mount display Download PDFInfo
- Publication number
- KR20160135660A KR20160135660A KR1020160058227A KR20160058227A KR20160135660A KR 20160135660 A KR20160135660 A KR 20160135660A KR 1020160058227 A KR1020160058227 A KR 1020160058227A KR 20160058227 A KR20160058227 A KR 20160058227A KR 20160135660 A KR20160135660 A KR 20160135660A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- position state
- electronic device
- images
- Prior art date
Links
Images
Classifications
-
- H04N13/044—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- H04N13/0011—
-
- H04N13/0429—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
Abstract
Description
아래의 실시예들은 영상 처리를 하기 위한 방법 및 장치에 관한 것으로 보다 상세히는 헤드 마운트 디스플레이를 위한 입체 영상을 제공하는 방법이 개시된다.The following embodiments relate to a method and apparatus for image processing, and more particularly to a method for providing a stereoscopic image for a head mounted display.
최근에 헤드-마운트 디스플레이(Head-Mount Display; HMD)에 관련된 기술이 발전함에 따라, 최신의 기술을 적용한 HMD들이 소개되고 있다.Recently, as the technology related to the head-mount display (HMD) is developed, HMDs using the latest technology are introduced.
특히, 최근의 HMD은, 사용자가 HMD를 착용하면, 사용자의 머리의 움직임을 실시간으로 감지할 수 있고, 머리가 어느 방향으로 움직이든지 그 방향에서의 시각(view)을 제공한다.In particular, a recent HMD can detect the motion of the user's head in real time when the user wears the HMD, and provides a view in that direction regardless of which direction the head is moving.
또한, HMD는 좌측 렌즈 및 우측 렌즈를 갖는다. 죄측 렌즈 및 우측 렌즈의 각각은 오목하게 굽어진 파노라마 디스플레이 영상을 제공한다. 이러한 파노라마 디스플레이 영상은 넓은 시야 각(viewing angle)을 제공하며, 사용자는 자신의 눈동자를 움직여도 가상 현실의 디스플레이를 볼 수 있다.Further, the HMD has a left lens and a right lens. Each of the left lens and the right lens provides a concave curved panoramic display image. Such a panoramic display image provides a wide viewing angle, and the user can see the display of the virtual reality by moving his / her pupil.
예를 들면, 최근의 HMD는 사용자의 머리의 움직임을 인지하는 트래킹 기술을 사용하며, 사용자의 양 눈들에 제공되는 양안식(stereoscopic) 영상을 생성한다. 사용자의 시점(view point)에 대응하는 양안식 영상을 제공함에 따라 HMD는 사용자가 자신이 가상 현실에 들어와 있다는 착각을 하게 할 수 있다.For example, recent HMDs use a tracking technique to recognize the movement of the user's head and produce stereoscopic images provided to both eyes of the user. By providing the binocular image corresponding to the view point of the user, the HMD can allow the user to perceive that he is in the virtual reality.
전술된 것과 같은 HMD가 멀티-뷰(multi-view) 영상을 제공하는 방법으로서, 멀티-뷰 카메라에 의해 촬영된 영상들을 서로 간에 이어 붙임으로써 2개의 양안식 영상을 생성하는 방법이 일반적으로 사용된다.As a method for providing a multi-view image by the HMD as described above, a method of generating two biometric images by attaching images taken by a multi-view camera to each other is generally used .
이러한 방법에 있어서, 아래와 같은 문제가 발생할 수 있다. 1) 우선, 이어 붙여진 영상을 생성하기 위해서는 이웃하는 영상들 간의 상관 관계가 이용되어야 한다. 2) 또한, 영상의 매 프레임마다 영상들을 서로 간에 이어 붙이는 작업이 요구된다. 3) 또한, 고정된 해상도에 기반하여 이어 붙여진 영상을 생성해야 하기 때문에, 원본 영상의 해상도에 비해 제공되는 영상의 해상도가 더 감소되는 화질 저하가 발생한다.In such a method, the following problems may occur. 1) First, the correlation between neighboring images must be used in order to generate a connected image. 2) It is also required to attach images to each other for every frame of the image. 3) In addition, since a connected image must be generated based on a fixed resolution, an image quality deteriorates in which the resolution of the image provided is further reduced compared to the resolution of the original image.
일 실시예는 사용자의 시점에 따라 가상 시점의 영상을 선택적으로 생성하는 장치 및 방법을 제공할 수 있다.One embodiment of the present invention can provide an apparatus and method for selectively generating an image at a virtual viewpoint according to a user's viewpoint.
일 측에 있어서, 전자 장치가 사용자에게 입체 영상을 제공하는 방법에 있어서, 상기 전자 장치에게 제공된 영상을 사용하여 상기 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 단계; 및 상기 위치 상태에 대응하는 영상을 출력하는 단계를 포함하고, 상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 영상 제공 방법이 제공된다.A method for providing stereoscopic images to a user on an electronic device, the method comprising: generating an image of a virtual viewpoint corresponding to a positional state of the user using an image provided to the electronic device; And outputting an image corresponding to the position state, wherein the image corresponding to the position state includes the image at the virtual time point.
상기 위치 상태에 대응하는 영상은 상기 전자 장치에게 제공된 영상을 포함할 수 있다.An image corresponding to the position state may include an image provided to the electronic device.
상기 위치 상태에 대응하는 영상은 상기 사용자의 좌안에 제공되는 좌측 영상 및 상기 사용자의 우안에 제공되는 우측 영상을 포함할 수 있다.The image corresponding to the position state may include a left image provided in the left eye of the user and a right image provided in the right eye of the user.
상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 서로 다를 수 있다.The time of the left image and the time of the right image may be different from each other.
상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 상기 사용자의 양안들 사이의 간격에 기반하여 결정될 수 있다.The time of the left image and the time of the right image may be determined based on the interval between the eyes of the user.
상기 위치 상태는 상기 사용자에게 최초로 제공되는 영상의 시점을 기준으로 상기 사용자의 위치를 트래킹하는 정보일 수 있다.The location status may be information for tracking the location of the user based on the viewpoint of the image initially provided to the user.
상기 영상 제공 방법은, 상기 사용자의 머리의 움직임을 인식함으로써 상기 위치 상태를 생성하는 단계를 더 포함할 수 있다.The image providing method may further include generating the position state by recognizing movement of the head of the user.
상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 이동의 변위을 나타내는 정보를 포함할 수 있다.The positional state may include information indicating a displacement of movement of the user's head to the left or right.
상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 정보를 포함할 수 있다.The location state may include information indicating a rotation of the user's head to the left or right.
상기 가상 시점이 상기 제공된 영상의 하나 이상의 영상들 중 하나의 영상의 시점과 동일한 경우, 상기 하나 이상의 영상들 중 상기 가상 시점과 동일한 시점의 영상이 그대로 상기 가상 시점의 영상으로서 사용될 수 있다.If the virtual viewpoint is the same as the viewpoint of one of the one or more images of the provided image, the same viewpoint as the virtual viewpoint of the one or more images can be used as the virtual viewpoint image.
상기 위치 상태에 대응하는 영상은 하나 이상의 시점들의 하나 이상의 영상들일 수 있다.The image corresponding to the position state may be one or more images of one or more viewpoints.
상기 제공된 영상은 하나 이상의 시점들의 하나 이상의 영상들일 수 있다.The provided image may be one or more images of one or more views.
상기 가상 시점의 영상을 생성하는 단계는 상기 위치 상태에 대응하는 하나 이상의 영상들의 시점들 중 적어도 하나의 영상이 상기 하나 이상의 제공된 영상들의 하나 이상의 시점들 중 어느 시점과도 동일하지 않을 경우에 수행될 수 있다.Wherein the step of generating an image at the virtual time point is performed when at least one of the views of one or more images corresponding to the position state is not the same as any one of the one or more viewpoints of the one or more provided images .
상기 영상 제공 방법은, 상기 위치 상태가 변화하였는지 여부를 판단하는 단계; 및 상기 위치 상태의 변화에 따라 카메라 파라미터를 업데이트하는 단계를 더 포함할 수 있다.The image providing method may include: determining whether the position state has changed; And updating the camera parameters according to the change of the position state.
상기 카메라 파라미터를 업데이트하는 단계는, 상기 사용자의 머리의 좌측 또는 우측으로의 이동에 따라 상기 카메라 파라미터를 업데이트하는 단계를 포함할 수 있다.Updating the camera parameters may include updating the camera parameters in accordance with movement of the user's head to the left or right.
상기 카메라 파라미터를 업데이트하는 단계는, 상기 사용자의 머리의 좌측 또는 우측으로의 회전에 따라 상기 카메라 파라미터를 업데이트하는 단계를 포함할 수 있다.Updating the camera parameters may include updating the camera parameters in accordance with rotation of the user's head to the left or right.
상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 이동에 따른 위치 이동의 변위를 나타낼 수 있다.The change of the positional state may indicate the displacement of the positional movement according to the movement of the user to the left or right with reference to the reference time.
상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 회전에 따른 회전 각을 나타낼 수 있다.The change of the positional state may indicate a rotation angle of the user with respect to the left or right rotation based on the reference time point.
상기 카메라 파라미터는 x 축으로의 초점 거리 및 y 축으로의 초점 거리를 포함하는 행렬일 수 있다.The camera parameters may be a matrix including a focal length in the x-axis and a focal length in the y-axis.
상기 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 멀티-뷰 영상일 수 있다.The provided image may be a multi-view image of High Efficiency Video Coding (HEVC).
상기 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 스티치된 영상일 수 있다.The provided image may be a stitched image of High Efficiency Video Coding (HEVC).
상기 가상 시점의 영상은 상기 제공된 영상에 대응하는 깊이 맵(depth map)을 사용하여 생성될 수 있다.The image of the virtual viewpoint may be generated using a depth map corresponding to the provided image.
상기 가상 시점의 영상은 상기 제공된 영상에 대응하는 변위 맵(disparity map)을 사용하여 생성될 수 있다.The image at the virtual viewpoint may be generated using a disparity map corresponding to the provided image.
다른 일 측에 있어서, 전자 장치에 있어서, 상기 전자 장치에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및 상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부를 포함하고, 상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 전자 장치가 제공된다.In another aspect, in an electronic device, an image synthesizing unit generates an image of a virtual viewpoint corresponding to a position state of a user using an image provided to the electronic device; And a display unit for outputting an image corresponding to the position state, wherein the image corresponding to the position state includes the image at the virtual time point.
다른 일 측에 있어서, 헤드 마운트 디스플레이에 있어서, 상기 헤드 마운트 디스플레이에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및 상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부를 포함하고, 상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 헤드 마운트 디스플레이가 제공된다.The head-mounted display according to
사용자의 시점에 따라 가상 시점의 영상을 선택적으로 생성하는 장치 및 방법이 제공된다.There is provided an apparatus and method for selectively generating an image at a virtual viewpoint according to a user's viewpoint.
도 1은 일 실시예에 따른 입체 영상을 제공하는 전자 장치의 구조도이다.
도 2는 일 예에 따른 HMD를 사용하는 전자 장치를 도시한다.
도 3은 일 예에 따른 HMD로서 구현된 전자 장치를 도시한다.
도 4는 일 예에 따른 전자 장치에 제공되는 영상을 설명한다.
도 5는 일 실시예에 따른 전자 장치 사용자에게 영상을 제공하는 방법의 흐름도이다.
도 6은 일 예에 따른 가상 시점의 영상이 요구되는지 여부를 판단하는 방법의 흐름도이다.
도 7은 일 실시예에 따른 3차원 영상 시스템의 구조를 설명한다.
도 8은 일 예에 따른 중간 뷰 합성을 통한 멀티-뷰 디스플레이를 설명한다.
도 9는 사용자의 머리의 움직임에 따른 스티치된 영상을 도시한다.
도 10은 일 실시예에 따른 전자 장치를 구현하는 컴퓨터 시스템을 도시한다.1 is a structural diagram of an electronic device for providing a stereoscopic image according to an exemplary embodiment of the present invention.
Figure 2 illustrates an electronic device using an HMD according to an example.
Figure 3 illustrates an electronic device implemented as an HMD according to an example.
FIG. 4 illustrates an image provided to an electronic device according to an example.
5 is a flow diagram of a method of providing an image to an electronic device user in accordance with an embodiment.
6 is a flowchart of a method for determining whether an image at a virtual viewpoint is required according to an example.
FIG. 7 illustrates a structure of a 3D image system according to an embodiment.
Figure 8 illustrates a multi-view display with intermediate view composition according to an example.
9 shows a stitched image according to the movement of the user's head.
10 illustrates a computer system for implementing an electronic device according to an embodiment.
후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.The following detailed description of exemplary embodiments refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that the various embodiments are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the location or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the embodiments. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the exemplary embodiments is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained.
도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In the drawings, like reference numerals refer to the same or similar functions throughout the several views. The shape and size of the elements in the figures may be exaggerated for clarity.
실시예에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 실시예에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않으며, 추가적인 구성이 예시적 실시예들의 실시 또는 예시적 실시예들의 기술적 사상의 범위에 포함될 수 있음을 의미한다. 어떤 구성요소(component)가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들이 서로 간에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.The terms used in the examples are intended to illustrate the embodiments and are not intended to limit the invention. In the examples, the singular includes the plural unless otherwise stated in the specification. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / And that additional configurations may be encompassed within the scope of the embodiments of the exemplary embodiments or the technical ideas of the exemplary embodiments. When it is mentioned that a component is "connected" or "connected" to another component, the two components may be directly connected or connected to each other, It is to be understood that other components may be present in the middle of the components.
제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기의 구성요소들은 상기의 용어들에 의해 한정되어서는 안 된다. 상기의 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하여 지칭하기 위해서 사용된다. 예를 들어, 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first and second, etc. may be used to describe various components, but the components should not be limited by the terms above. The above terms are used to distinguish one component from another. For example, without departing from the scope of the right, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
또한 실시예들에 나타나는 구성요소들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성요소가 분리된 하드웨어나 하나의 소프트웨어 구성 단위로만 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열된 것이다. 예를 들면, 구성요소들 중 적어도 두 개의 구성요소들이 하나의 구성요소로 합쳐질 수 있다. 또한, 하나의 구성요소가 복수의 구성요소들로 나뉠 수 있다. 이러한 각 구성요소의 통합된 실시예 및 분리된 실시예 또한 본질에서 벗어나지 않는 한 권리범위에 포함된다.In addition, the components shown in the embodiments are shown independently to represent different characteristic functions, which does not mean that each component is composed of separate hardware or one software constituent unit. That is, each component is listed as each component for convenience of explanation. For example, at least two of the components may be combined into a single component. Also, one component can be divided into a plurality of components. The integrated embodiments and the separate embodiments of each of these components are also included in the scope of the right without departing from the essence.
또한, 일부의 구성요소는 본질적인 기능을 수행하는 필수적인 구성요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성요소일 수 있다. 실시예들은 실시예의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 예를 들면, 단지 성능 향상을 위해 사용되는 구성요소와 같은, 선택적 구성요소가 제외된 구조 또한 권리 범위에 포함된다.Also, some components are not essential components to perform essential functions, but may be optional components only to improve performance. Embodiments may be implemented only with components that are essential to implementing the essentials of the embodiments, and structures within which the optional components are excluded, such as, for example, components used only for performance enhancement, are also included in the scope of the right.
이하에서는, 기술분야에서 통상의 지식을 가진 자가 실시예들을 용이하게 실시할 수 있도록 하기 위하여, 첨부된 도면을 참조하여 실시예들을 상세히 설명하기로 한다. 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to facilitate embodiments of the present invention by those skilled in the art. In the following description of the embodiments, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.
아래의 실시예에서, 영상은 한 순간(time)의 시각적 정보를 의미할 수 있다. 아래의 실시예에서의 단계들에서 처리되는 영상은 한 순간의 시각적 정보일 수 있다. 예를 들면, 영상은 시각 t에서의 프레임(frame)일 수 있다. 비디오는 하나 이상의 영상들을 포함될 수 있다. 비디오의 하나 이상의 영상들은 시계열적인 순서를 가질 수 있다.In the embodiments below, an image can mean visual information of a moment. The images processed in the steps in the following embodiments may be visual information of a moment. For example, the image may be a frame at time t. A video may include one or more images. One or more images of the video may have a time series order.
아래의 실시예들의 단계들은 시간의 흐름에 따라 반복적으로 수행될 수 있다. 단계들이 반복되어 수행됨에 따라, 일련의 영상들이 순차적으로 처리될 수 있다.The steps of the following embodiments can be repeatedly performed over time. As the steps are repeatedly performed, a series of images can be processed sequentially.
아래의 실시예들에서, "깊이(depth)" 및 "변위(disparity)"는 서로 역의 관계를 가질 수 있다. 말하자면, 픽셀이 특정한 대상을 나타낼 때, 픽셀의 "깊이"는 픽셀의 "변위"의 역수일 수 있다. 실시예들에서, "깊이(depth)" 및 "변위(disparity)"는 서로 대체되어 사용될 수 있다.In the following embodiments, "depth" and "disparity" may have a reciprocal relationship with each other. That is to say, when a pixel represents a particular object, the "depth" of the pixel can be the inverse of the "displacement" of the pixel. In embodiments, "depth" and "disparity" may be used interchangeably.
아래의 실시예들에서, "깊이 맵"은 "깊이 영상"과 동일한 의미로 사용될 수 있다.In the following embodiments, the "depth map" can be used with the same meaning as "depth image ".
"깊이 맵"은 대응하는 영상에 대하여 픽셀의 깊이 값을 나타낼 수 있다. 예를 들면, "깊이 맵" 및 "영상"의 서로 동일한 좌표 값들을 갖는 픽셀들에 있어서, "영상"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 색상을 나타낼 수 있고, "깊이 맵"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 시점으로부터의 거리를 나타낼 수 있다.The "depth map" may represent the depth value of the pixel for the corresponding image. For example, for pixels having the same coordinate values of "depth map" and "image", the pixel value of the pixel of "image" may represent the color of the object that the pixel represents, The pixel value of the pixel may indicate the distance from the viewpoint of the object represented by the pixel.
아래의 실시예들에서, "변위 맵"은 "변위 영상"과 동일한 의미로 사용될 수 있다.In the following embodiments, the "displacement map" can be used in the same sense as the "displacement image ".
"변위 맵"은 대응하는 영상에 대하여 픽셀의 변위 값을 나타낼 수 있다. 예를 들면, "변위 맵" 및 "영상"의 서로 동일한 좌표 값들을 갖는 픽셀들에 있어서, "영상"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 색상을 나타낼 수 있고, "변위 맵"의 픽셀의 픽셀 값은 픽셀이 나타내는 대상의 변위를 나타낼 수 있다. 대상의 변위는 대상의 시점으로부터의 거리의 역수를 나타낼 수 있다.
The "displacement map" can represent the displacement value of the pixel with respect to the corresponding image. For example, in pixels having the same coordinate values of "displacement map" and "image", the pixel value of the pixel of "image" may represent the color of the object that the pixel represents, The pixel value of the pixel may represent the displacement of the object represented by the pixel. The displacement of the object can represent the reciprocal of the distance from the viewpoint of the object.
도 1은 일 실시예에 따른 입체 영상을 제공하는 전자 장치의 구조도이다.1 is a structural diagram of an electronic device for providing a stereoscopic image according to an exemplary embodiment of the present invention.
전자 장치(100)는 영상 수신부(110), 영상 디코딩부(115), 트래킹부(120), 영상 합성부(130) 및 디스플레이부(140)를 포함할 수 있다.The
디스플레이부(140)는 좌측 디스플레이부(141) 및 우측 디스플레이부(142)를 포함할 수 있다.The
영상 수신부(110)는 외부로부터 제공되는 멀티-뷰 영상 및 깊이 맵을 수신할 수 있다. 영상 수신부(110)는 제공된 멀티-뷰 영상 및 깊이 맵을 영상 합성부(130)로 전송할 수 있다.The
전자 장치(100)에게 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 멀티-뷰 영상일 수 있다. 또한, 전자 장치(100)에게 제공된 영상은 HEVC의 스티치된(stitched) 영상일 수 있다.The image provided to the
외부로부터 제공된 영상은 인코드된(encoded) 영상일 수 있다. 예를 들면, 영상 수신부(110)는 외부로부터 비트스트림(bitstream)을 수신할 수 있고, 외부로부터 제공된 멀티-뷰 영상 및 깊이 맵은 비트스트림 내에서 인코드된 데이터, 엔트로피(entropy) 인코드된 데이터 및 압축된(compressed) 데이터일 수 있다.An image provided from the outside may be an encoded image. For example, the
영상 디코딩부(115)는 인코딩된 제공된 영상에 대해, 디코딩을 수행함으로써 디코드된 영상을 생성할 수 있다. 이하, 영상 합성부(130)에서 사용되는 제공된 영상은 영상 디코딩부(115)에 의해 생성된 디코드된 영상일 수 있다.The
예를 들면, 영상 디코딩부(115)는 인코드된 멀티-뷰 영상 및 인코드된 깊이 맵에 대한 디코딩을 수행하여 디코드된 멀티-뷰 영상 및 디코드된 깊이 맵을 생성할 수 잇다. 이하, 영상 합성부(130)에 의해 사용되는 멀티-뷰 영상 및 깊이 맵은 영상 디코딩부(115)에 의해 생성된 디코드된 멀티-뷰 영상 및 디코드된 깊이-맵일 수 있다.For example, the
예를 들면, 영상 디코딩부(115)는 HEVC의 멀티-뷰 영상 및 깊이 맵에 대해 HEVC에 따른 디코딩을 수행함으로써 디코드된 멀티-뷰 영상 및 디코드된 깊이 맵을 생성할 수 있다. 디코드된 멀티-뷰 영상 및 디코드된 깊이-맵은 아래에서 설명된 가상 시점의 영상의 합성에 적합할 수 있다. 영상 디코딩부(115)는 HEVC의 스티치된 영상에 대해 HEVC에 따른 디코딩을 수행함으로써 디코드된 영상을 생성할 수 있다. 디코드된 영상은 아래에서 설명된 가상 시점의 영상의 합성에 적합할 수 있다.For example, the
트래킹부(120)는 위치 상태의 신호를 생성할 수 있다. 위치 상태의 신호는 위치 상태를 나타내는 정보를 포함할 수 있다.The
위치 상태에 따라 요구되는 시점이 결정될 수 있다. 예를 들면, 사용자의 위치 및/또는 자세에 따라서 전자 장치(100)가 어떤 시점의 영상을 사용자에게 제공해야 하는 지가 결정될 수 있다.The time point required can be determined according to the position state. For example, depending on the user's position and / or posture, it may be determined at what point the
위치 상태는 사용자의 머리의 위치를 트래킹하는 정보일 수 있다. 예를 들면, 위치 상태는 좌우 이동 위치 및 회전 위치의 상태를 트래킹할 수 있다. 또는, 예를 들면, 예를 들면, 위치 상태는 전자 장치(100)의 사용자의 머리의 위치(position) 및/또는 자세(pose)를 나타낼 수 있다. 사용자의 머리의 위치 및/또는 자세는 사용자의 머리가 부착된 전자 장치(100) 또는 트래킹부(120)의 위치 및/또는 자세를 의미할 수 있다. 이하에서, 사용자의 머리의 위치 및/또는 자세는 전자 장치(100)의 위치 및/또는 자세 또는 트래킹부(120)의 위치 및/또는 자세로 대체될 수 있다.The location status may be information that tracks the location of the user's head. For example, the position state can track the state of the left and right movement position and the rotation position. Alternatively, for example, such as location status may indicate the user of the position of the head (position) and / or orientation of the electronic device (100) (pose). The position and / or posture of the user's head may refer to the position and / or posture of the
위치 상태는 전자 장치(100)에 의해 최초로 디스플레이되는 영상의 시점을 기준으로 사용자의 위치를 트래킹하는 정보일 수 있다. 또는, 위치 상태는 사용자에게 최초로 제공되는 영상의 시점을 기준으로 사용자의 위치를 트래킹하는 정보일 수 있다. 예를 들면, 위치 상태는 전자 장치(100)에 의해 최초로 디스플레이되는 영상의 시점 또는 사용자에게 최초로 제공되는 영상의 시점을 기준으로 사용자의 좌우 이동 위치 및/또는 회전 위치의 상태를 트래킹할 수 있다.The location status may be information that tracks the location of the user based on the viewpoint of the image initially displayed by the
영상 합성부(130)는 요구되는 시점의 영상을 생성할 수 있다. 요구되는 시점은 전자 장치(100)에서 출력되는 입체 영상의 시점일 수 있다. 사용자 또는 사용자의 머리의 위치에 따라, 전자 장치(100)에서 출력되는 입체 영상의 시점이 결정될 수 있다. 말하자면, 요구되는 시점은 사용자 또는 사용자의 머리의 위치 및/또는 자세에 따른 시점일 수 있다. 또는, 요구되는 시점은 전자 장치(100)의 위치 및/또는 자세에 따른 시점일 수 있다.The
입체 영상은 복수의 시점들의 영상들을 포함할 수 있다. 영상 합성부(120)는 요구되는 복수의 시점들의 각 시점의 영상을 생성할 수 있다.The stereoscopic image may include images of a plurality of viewpoints. The
요구되는 시점이 외부로부터 전자 장치(100)에게 멀티-뷰 영상의 하나 이상의 영상들 중 하나의 영상의 시점과 동일한 경우, 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중 요구되는 시점과 동일한 시점의 영상을 그대로 요구되는 시점의 영상으로서 사용할 수 있다.If the requested point in time is the same as the point of view of one of the one or more images of the multi-view image from the external to the
요구되는 시점이 외부로부터 제공된 멀티-뷰 영상의 시점과 다른 경우, 영상 합성부(130)는 멀티-뷰 영상 및 깊이 맵을 사용하여 가상 시점의 영상을 생성할 수 있다. 여기에서, 가상 시점은 요구되는 시점 중 멀티-뷰 영상의 시점과 상이한 시점을 의미할 수 있다.If the required point of view is different from the viewpoint of the multi-view image provided from the outside, the
영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중 가상 영상과 이웃하는 영상을 사용하여 가상 시점의 영상을 생성할 수 있다. 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중, 가상 시점과 가장 가까운 시점의 영상을 사용하여 가상 시점의 영상을 생성할 수 있다. 또는, 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중, 가상 시점과 좌측 또는 우측으로 가장 가까운 시점의 영상을 사용하여 가상 시점의 영상을 생성할 수 있다. 또는, 영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중, 가상 시점과 좌측으로 가장 가까운 시점의 영상 및 가상 시점과 우측으로 가장 가까운 시점의 영상을 사용하여 가상 시점의 영상을 생성할 수 있다.The
전자 장치(100)의 사용자는 자신의 양안들을 통해 입체 영상을 인식하 수 있다. 말하자면, 사용자에게 입체 영상을 제공하기 위한, 요구되는 시점은 2개일 수 있다. 요구되는 시점은 사용자의 좌측 눈에 대한 시점인 좌측 시점 및 사용자의 우측 눈에 대한 시점인 우측 시점을 포함할 수 있다.A user of the
영상 합성부(130)는 좌측 시점이 멀티-뷰 영상의 시점과 다른 경우, 좌측 시점의 영상을 생성할 수 있다. 또한, 영상 합성부(130)는 우측 시점이 멀티-뷰 영상의 시점과 다른 경우, 우측 시점의 영상을 생성할 수 있다.When the left viewpoint is different from the viewpoint of the multi-view image, the
디스플레이부(140)는 요구되는 시점의 영상을 출력할 수 있다. 좌측 디스플레이부(141)는 좌측 시점의 영상을 출력할 수 있다. 우측 디스플레이부(142)는 우측 시점의 영상을 출력할 수 있다.
The
멀티-뷰 영상의 구성Configuration of multi-view image
멀티-뷰 영상은 하나 이상의 영상들을 포함할 수 있다. 전술된 설명에서, 요구되는 시점이 멀티-뷰 영상의 시점과 동일하다는 것은 요구되는 시점이 멀티-뷰 영상의 하나 이상의 시점들 중 하나의 시점과 동일하다는 것을 의미할 수 있다. 또는, 요구되는 시점이 멀티-뷰 영상의 시점과 동일하다는 것은 요구되는 시점이 멀티-뷰 영상이 요구되는 시점의 영상을 포함한다는 것을 의미할 수 있다. 요구되는 시점이 멀티-뷰 영상의 시점과 다르다는 것은 요구되는 시점이 멀티-뷰 영상의 하나 이상의 시점들 중 어떤 시점도 요구되는 시점과 동일하지 않다는 것을 의미할 수 있다. 또는, 요구되는 시점이 멀티-뷰 영상의 시점과 다르다는 것은 요구되는 시점이 멀티-뷰 영상이 요구되는 시점과 동일한 시점의 영상을 포함하지 않는다는 것을 의미할 수 있다.The multi-view image may include one or more images. In the above description, the required time point is the same as the time point of the multi-view image, which means that the required time point is the same as one of the one or more time points of the multi-view image. Alternatively, the requested time point is the same as the time point of the multi-view image, which means that the requested time point includes the image at the time point when the multi-view image is requested. The fact that the requested point of view is different from the point of view of the multi-view image may mean that the requested point-in-time is not the same as the point in time at which one or more points of the multi-view image are required. Alternatively, the requested time point is different from the time point of the multi-view image, which means that the required time does not include the image at the same time point as the multi-view image is requested.
하나 이상의 영상들의 각 영상은 특정한 시점에서의 영상일 수 있다. 하나 이상의 영상들의 시점들은 서로 상이할 수 있다. 말하자면, 멀티-뷰 영상의 하나 이상의 영상들은 하나 이상의 카메라들이 객체(object) 및 배경(background)을 서로 다른 하나 이상의 위치에서 촬영함으로써 생성된 영상들일 수 있다. 촬영된 객체 및 배경은 영상에서 픽셀들로서 표현될 수 있다.Each image of one or more images may be an image at a specific point in time. The views of one or more images may be different from each other. That is to say, one or more images of the multi-view image may be images generated by one or more cameras photographing the object and the background at different locations. The photographed object and background can be represented as pixels in the image.
멀티-뷰 영상과 함께, 멀티-뷰 영상에 대응하는 깊이 맵이 전자 장치(100)로 제공될 수 있다. 멀티-뷰 영상의 픽셀 및 깊이 맵의 픽셀은 서로 대응할 수 있다. 서로 대응하는 멀티-뷰 영상의 픽셀 및 깊이 맵의 픽셀에 있어서, 멀티-뷰 영상의 픽셀의 픽셀 값은 촬영된 지점의 색상을 나타낼 수 있고, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리를 나타내는 깊이 값(depth value)일 수 있다. 또는, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리의 역을 나타내는 변위 값(disparity value)일 수 있다.In conjunction with the multi-view image, a depth map corresponding to the multi-view image may be provided to the
하나 이상의 영상들의 각 영상은 입체 영상일 수 있다. 각 영상이 입체 영상일 경우, 각 영상은 컬러 영상 및 깊이 맵을 포함할 수 있다.Each image of one or more images may be a stereoscopic image. When each image is a stereoscopic image, each image may include a color image and a depth map.
컬러 영상 및 깊이 맵에 있어서, 컬러 영상의 한 픽셀 및 깊이 맵의 한 픽셀은 서로 대응할 수 있다. 예를 들면, 컬러 영상 및 깊이 맵에서, 동일한 좌표를 갖는 컬러 영상의 픽셀 및 깊이 맵의 픽셀은 서로 대응할 수 있다. 서로 대응하는 컬러 영상의 픽셀 및 깊이 맵의 픽셀에 있어서, 컬러 영상의 픽셀의 픽셀 값은 촬영된 지점의 색상을 나타낼 수 있고, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리를 나타내는 깊이 값(depth value)일 수 있다.In a color image and a depth map, one pixel of the color image and one pixel of the depth map may correspond to each other. For example, in a color image and a depth map, the pixels of the color image having the same coordinates and the pixels of the depth map may correspond to each other. In the pixels of the color image and the depth map corresponding to each other, the pixel value of the pixel of the color image may indicate the color of the photographed point, and the pixel value of the pixel of the depth map may indicate the distance of the photographed point from the camera May be a depth value indicating a depth value.
또는, 깊이 맵의 픽셀의 픽셀 값은 촬영된 지점의 카메라로부터의 거리의 역을 나타내는 변위 값(disparity value)일 수 있다.Alternatively, the pixel value of the pixel of the depth map may be a disparity value that indicates the inverse of the distance of the photographed point from the camera.
영상 수신부(110), 영상 디코딩부(115), 트래킹부(120), 영상 합성(130) 및 디스플레이부(140)의 동작 및 기능에 대해서 아래에서 상세하게 설명된다.
Operations and functions of the
선택적인 디코딩Selective decoding
영상 디코딩부(115)가 인코드된 멀티-뷰 영상의 하나 이상의 영상들 모두에 대해 디코딩을 수행하는 것은 과도한 연산량을 요구할 수 있다. 영상 디코딩부(115)가 인코드된 영상에 대한 디코딩을 수행함에 있어서, 영상 디코딩부(115)는 소정의 조건에 해당하는 영상에 대해서만 선택적으로 디코딩을 수행할 수 있다. 예를 들면, 영상 디코딩부(115)는 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중, 요구되는 시점의 영상을 사용자에게 제공되기 위해 요구되는 영상에 대해서만 선택적으로 디코딩을 수행할 수 있다.It may require an excessive amount of computation for the
예를 들면, 영상 디코딩부(115)는 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중, 1) 가상 시점의 영상을 생성하기 위해 사용되는 영상 및 2) 요구되는 시점과 동일한 시점의 영상에 대해서만 선택적으로 디코딩을 수행할 수 있다.For example, the
영상 디코딩부(115)가 인코드된 멀티-뷰 영상의 하나 이상의 영상들에 대해 선택적으로 디코딩을 수행하기 위해, 영상 합성부(130)는 영상의 선택을 위한 정보를 영상 디코딩부(115)로 전송할 수 있다. 영상의 선택을 위한 정보는, 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중 영상 디코딩부(115)가 디코딩을 수행해야 하는 영상(들)을 나타낼 수 있다. 또는, 영상의 선택을 위한 정보는, 인코드된 멀티-뷰 영상의 하나 이상의 영상들 중 영상 합성부(130)에 의해 선택된 영상(들)을 나타낼 수 있다.In order to selectively decode one or more images of the encoded multi-view image by the
영상 합성부(130)는 멀티-뷰 영상의 하나 이상의 영상들 중 어떤 영상이 요구되는 시점의 영상을 제공하기 위해 요구되는지를 도출할 수 있고, 멀티-뷰 영상의 하나 이상의 영상들 중 어떤 영상이 요구되는 시점의 영상을 제공하기 위해 요구되는가에 따라서 영상의 선택을 위한 정보를 생성할 수 있다.
The
도 2는 일 예에 따른 HMD를 사용하는 전자 장치를 도시한다.Figure 2 illustrates an electronic device using an HMD according to an example.
영상 수신부(110), 영상 디코딩부(115), 트래킹부(120), 영상 합성(130) 및 디스플레이부(140)의 적어도 일부는 각각 별개의 장치일 수 있다.At least some of the
영상을 제공하는 동작 이전에, 영상 합성(130)는 영상 수신부(110), 영상 디코딩부(115), 트래킹부(120) 및 디스플레이부(140)의 각각과 서로 간에 연결될 수 있다.The
사용자에게 입체 영상을 제공하기 위해 HMD가 사용될 수 있다. 예를 들면, 디스플레이부(140)는 HMD일 수 있다. 좌측 디스플레이(141)는 HMD의 좌측 렌즈일 수 있다. 우측 디스플레이(142)는 HMD의 우측 렌즈일 수 있다.
An HMD can be used to provide a stereoscopic image to the user. For example, the
도 3은 일 예에 따른 HMD로서 구현된 전자 장치를 도시한다.Figure 3 illustrates an electronic device implemented as an HMD according to an example.
전자 장치(100)는 HMD일 수 있다. 예를 들면, 영상 수신부(110), 영싱디코딩부(115), 트래킹부(120), 영상 합성(130) 및 디스플레이부(140)는 HMD내의 부품일 수 있다.
The
도 4는 일 예에 따른 전자 장치에 제공되는 영상을 설명한다.FIG. 4 illustrates an image provided to an electronic device according to an example.
외부에서부터 전자 장치(100)로 영상이 제공될 수 있다. 전자 장치(100)에게 제공되는 영상은 멀티-뷰 영상일 수 있다. 또한, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 및 깊이 맵일 수 있다.An image may be provided from the outside to the
전자 장치(100)에게 제공되는 영상은 네트워크(410)를 통해 전자 장치(100)로 전송될 수 있다.The image provided to the
예를 들면, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 카메라에 의해 생성된 멀티-뷰 영상일 수 있다. 도 4에서, 멀티-뷰 카메라로서, 제1 카메라(420) 및 제2 카메라(430)가 도시되었다. 멀티-뷰 카메라는 카메라 어레이(array)일 수 있다.For example, the image provided to the
또는, 예를 들면, 전자 장치(100)에게 제공되는 영상은 컴퓨터 그래픽(Computer Graphic; CG) 및/또는 실사의 멀티-뷰 영상일 수 있다. CG 및/또는 실사의 멀티-뷰 영상은 다른 전자 장치에 의해 생성될 수 있다.Alternatively, for example, the image provided to the
전자 장치(100)에게 제공되는 영상은 압축된 영상일 수 있다.The image provided to the
도 5는 일 실시예에 따른 전자 장치 사용자에게 영상을 제공하는 방법의 흐름도이다.5 is a flow diagram of a method of providing an image to an electronic device user in accordance with an embodiment.
단계(510)에서, 영상 수신부(110)는 전자 장치(100)에게 제공되는 영상을 수신할 수 있다.In
전자 장치(100)에게 제공된 영상은 하나 이상일 수 있다. 전자 장치(100)에게 제공된 하나 이상의 영상들의 하나 이상의 시점들은 서로 상이할 수 있다. 말하자면, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 영상일 수 있다.One or more images may be provided to the
전자 장치(100)에게 제공된 영상은 하나 이상의 시점들의 하나 이상의 영상들 수 있다. 예를 들면, 전자 장치(100)에게 제공되는 영상은 멀티-뷰 영상일 수 있다. 또한, 전자 장치(100)에게 제공되는 영상은 깊이 맵을 포함할 수 있다.The image provided to the
전자 장치(100)에게 제공된 복수의 영상들 중 적어도 일부는 실제 시점의 영상일 수 있다. 실제 시점의 영상은 특정한 시점에 대응하는 위치에 배치된 카메라에 의해 촬영된 영상일 수 있다.At least some of the plurality of images provided to the
단계(515)에서, 영상 디코딩부(115)는 인코드된 제공된 영상에 대해 디코딩을 수행함으로써 디코드된 영상을 생성할 수 있다.In
이하에서, 전자 장치(100)에게 제공된 영상은 영상 디코딩부(115)에 의해 디코드된 영상을 나타낼 수 있다.Hereinafter, the image provided to the
단계(520)에서, 트래킹부(120)는 사용자의 위치 상태의 정보를 획득할 수 있다. 트래킹부(120)는 사용자의 머리의 움직임을 인식함으로써 위치 상태를 생성할 수 있다.In
예를 들면, 위치 상태는 사용자의 위치 및 자세를 나타내는 정보를 포함할 수 있다. 사용자의 위치 및 자세는 사용자의 머리의 위치 및 자세를 나타낼 수 있다. 이하에서는, "사용자의 위치 및 자세" 및 "사용자의 머리의 위치 및 자세"는 서로 간에 대체될 수 있다.For example, the position state may include information indicating the position and posture of the user. The user's position and posture can indicate the position and posture of the user's head. In the following, "user's position and posture" and "position and posture of the user's head"
예를 들면, 위치 상태는 사용자의 위치 상태의 변화를 나타낼 수 있다. 위치 상태는 트래킹부(120)는 위치 상태의 변화를 감지할 수 있고, 위치 상태 또는 위치 상태의 변화를 나타내는 위치 상태의 정보를 생성할 수 있다. 위치 상태는 사용자의 머리의 이동 및 회전을 나타낼 수 있다. 위치 상태는 사용자의 머리의 좌측 또는 우측으로의 이동의 변위를 나타내는 정보를 포함할 수 있다. 위치 상태는 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 정보를 포함할 수 있다.For example, the position state may indicate a change in the position state of the user. The positional state may be such that the
영상 합성부(130)는 트래킹부(120)로부터 위치 상태의 정보를 획득할 수 있다. 영상 합성부(130)는 획득된 위치 상태에 기반하여 요구되는 시점을 계산할 수 있다. 요구되는 시점은 사용자의 위치 상태에 따라서 사용자에게 제공되어야 하는 영상의 시점을 나타낼 수 있다.The
단계(530)에서, 영상 합성부(130)는 사용자의 위치 상태에 대응하는 가상 시점의 영상이 요구되는지 여부를 판단할 수 있다.In
가상 시점의 영상이 요구될 경우, 단계(540)가 수행될 수 있다. 가상 시점의 영상이 요구되지 않는 경우, 단계(550)가 수행될 수 있다.If an image at a virtual viewpoint is required, step 540 may be performed. If an image at the virtual time point is not required, step 550 may be performed.
예를 들면, 위치 상태에 대응하는 영상이 하나 이상이고, 전자 장치(100)에게 제공된 영상이 하나 이상일 때, 가상 시점의 영상을 생성하는 단계(540)는 위치 상태에 대응하는 하나 이상의 영상들의 시점들 중 적어도 하나의 시점이 하나 이상의 전자 장치(100)에 제공된 영상들의 하나 이상의 시점들 중 어느 시점과도 동일하지 않을 경우에 수행될 수 있다. 말하자면, 가상 시점의 영상을 생성하는 단계(540)는 전자 장치(100)에 제공된 하나 영상들로는, 사용자의 위치 상태에 대응하는 시점의 영상이 제공되지 못할 때, 상기의 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하기 위해 수행될 수 있다.For example, when there are one or more images corresponding to the positional state and one or more images provided to the
단계(530)에서, 아래에서 도 6을 참조하여 더 상세하게 설명된다.In
단계(540)에서, 영상 합성부(130)는 전자 장치(100)에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다.In
영상 합성부(130)는 가상 시점의 영상을 생성함에 있어서 깊이 맵을 사용할 수 있다. 영상 합성부(130)는 전자 장치(100)에게 제공된 영상 및 제공된 영상에 대응하는 깊이 맵을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다. 또는, 영상 합성부(130)는 사용자의 머리의 위치에 대응하는 카메라 파라미터를 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다.The
가상 시점의 영상은 전자 장치(100)에게 제공된 영상의 시점과는 다른, 새로운 시점일 수 있다. 말하자면, 영상 합성부(130)는 전자 장치(100)에게 제공된 영상을 사용하여 가상 시점의 영상을 합성할 수 있다. The image at the virtual time point may be a new time point different from the time point of the image provided to the
단계(540)가 수행되면, 다음으로 단계(540)에서 생성된 가상 시점의 영상을 제공하기 위해 단계(550)가 수행될 수 있다.If
단계(550)에서, 디스플레이부(140)는 사용자의 위치 상태에 대응하는 영상을 출력할 수 있다.In
영상의 출력에 있어서, 디스플레이부(140)는 전자 장치(100)에게 제공된 영상 및 가상 시점의 영상 중 어떤 영상을 출력할지를 결정할 수 있다. 디스플레이부(140)는 전자 장치(100)에게 제공된 하나 이상의 영상들 중 가상 시점의 영상과 함께 출력될 영상을 결정할 수 있다.In outputting the image, the
단계(540)가 수행된 경우, 위치 상태에 대응하는 영상은 가상 시점의 영상을 포함할 수 있다.If
단계(550)가 수행되지 않은 경우, 위치 상태에 대응하는 영상은 단계(510)에서 전자 장치(100)에게 제공된 영상일 수 있다.If
또한, 위치 상태에 대응하는 영상은 하나 이상의 시점들의 하나 이상의 영상들일 수 있다. 예를 들면, 사용자의 위치 상태에 따라, 2개의 영상들이 각각 사용자의 좌안 및 우안에 제공될 수 있다. 위치 상태에 대응하는 영상은 사용자의 좌안에 제공되는 좌측 영상 및 사용자의 우안에 제공되는 우측 영상을 포함할 수 있다.Also, an image corresponding to the position state may be one or more images of one or more viewpoints. For example, two images may be provided in the left and right eyes of the user, respectively, depending on the positional state of the user. The image corresponding to the position state may include a left image provided in the left eye of the user and a right image provided in the right eye of the user.
위치 상태에 대응하는 복수의 영상들의 복수의 시점들은 서로 다를 수 있다. 예를 들면, 좌측 영상의 시점 및 우측 영상의 시점은 서로 다를 수 있다. 영상 합성부(130)는 사용자의 양안들 사이의 간격에 기반하여 좌측 영상의 시점 및 우측 영상의 시점 간의 차이를 결정할 수 있다.The plurality of views of the plurality of images corresponding to the position state may be different from each other. For example, the viewpoints of the left image and the right image may be different from each other. The
위치 상태에 대응하는 영상이 복수인 경우, 적어도 일부의 영상은 가상 시점의 영상일 수 있다. 또한, 복수의 영상들 중 가상 시점의 영상을 제외한 나머지의 영상은 전자 장치(100)에게 제공된 영상일 수 있다. 말하자면, 위치 상태에 대응하는 영상은 1) 가상 시점의 영상 및 2) 전자 장치(100)에게 제공된 영상을 포함할 수 있다.When there are a plurality of images corresponding to the positional state, at least a part of the images may be images at a virtual time point. In addition, the remaining images of the plurality of images, other than the images at the virtual viewpoint, may be images provided to the
영상의 출력은 영상의 데이터를 외부로 출력하는 것을 의미할 수 있다. 또는, 영상의 출력은 영상을 사용자의 시각을 통해 인지될 수 있는 형태로 출력하는 것을 의미할 수 있다.
The output of the image may mean outputting the data of the image to the outside. Alternatively, the output of the image may mean outputting the image in a form recognizable through the user's view.
도 6은 일 예에 따른 가상 시점의 영상이 요구되는지 여부를 판단하는 방법의 흐름도이다.6 is a flowchart of a method for determining whether an image at a virtual viewpoint is required according to an example.
도 5를 참조하여 전술된 단계(530)는 후술될 단계들(610, 620, 630, 640 650, 660 및 670)을 포함할 수 있다.Step 530 described above with reference to FIG. 5 may include
단계(610)에서, 영상 합성부(130)는 사용자의 위치 상태가 변화하였는지 여부를 판단할 수 있다.In
위치 상태의 변화는 전자 장치(100)에 의해 출력되는 영상의 시점을 기준으로 결정될 수 있다. 전자 장치(100)에 의해 출력되는 영상의 시점은 기준 시점일 수 있다. 위치 상태의 변화는 기준 시점을 기준으로 사용자의 좌측 또는 우측으로의 이동에 따른 위치 이동의 변위를 나타낼 수 있다. 위치 상태의 변화는 기준 시점을 기준으로 사용자의 좌측 또는 우측으로의 회전에 따른 회전 각을 나타낼 수 있다. 또는, 위치 상태의 변화는 위치 이동의 변위 및/또는 회전 각을 나타낼 수 있다.The change in the position state can be determined based on the viewpoint of the image output by the
위치 상태가 변화한 경우, 변화된 위치에 따른 처리가 요구된다.When the position state is changed, processing according to the changed position is required.
사용자의 위치 상태가 변한 것으로 판단된 경우, 단계(620)가 수행될 수 있다. 사용자의 위치 상태가 변하지 않은 것으로 판단된 경우, 단계(670)가 수행될 수 있다.If it is determined that the user's location status has changed,
단계(620)에서, 영상 합성부(130)는 위치 상태의 변화에 따라 카메라 파라미터를 업데이트할 수 있다.In
단계(620)는 단계들(630, 640, 650 및 660)을 포함할 수 있다. 단계(620)의 적어도 일부로서, 단계(630) 및 단계(650)가 각각 수행될 수 있다.Step 620 may include
단계(630)에서, 영상 합성부(130)는 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 이동을 나타내는지 여부를 판단할 수 있다.In
위치 상태가 사용자의 머리의 좌측 또는 우측으로의 이동을 나타내는 경우, 단계(640)가 수행될 수 있다. 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 이동을 나타내지 않는 경우, 단계(670)가 수행될 수 있다.If the position state indicates movement to the left or right of the user's head,
단계(640)에서, 영상 합성부(130)는 사용자의 머리의 좌측 또는 우측으로의 이동에 따라 카메라 파라미터를 업데이트할 수 있다. 업데이트된 카메라 파라미터는 사용자의 머리의 좌측 또는 우측으로의 이동을 반영할 수 있다.In
단계(640)가 수행되면, 다음으로 단계(670)가 수행될 수 있다.If
단계(650)에서, 영상 합성부(130)는 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는지 여부를 판단할 수 있다.In step 650, the
위치 상태가 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 경우, 단계(660)가 수행될 수 있다. 위치 상태가 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내지 않는 경우, 단계(670)가 수행될 수 있다.If the position state indicates a rotation to the left or right of the user's head, step 660 may be performed. If the position state does not indicate a rotation to the left or right of the user's head,
단계(660)에서, 영상 합성부(130)는 사용자의 머리의 좌측 또는 우측으로의 회전에 따라 카메라 파라미터를 업데이트할 수 있다. 업데이트된 카메라 파라미터는 사용자의 머리의 좌측 또는 우측으로의 회전을 반영할 수 있다.In step 660, the
단계(640)가 수행되면, 다음으로 단계(670)가 수행될 수 있다.If
전술된 단계들(630, 640, 650 및 660)은 단지 예시적인 것일 수 있다. 예를 들면, 단계들(630 및 640)은 단계들(650 및 660)의 이전 또는 이후에 수행될 수 있다. 또는, 예를 들면, 단계들(630 및 650)가 수행된 후, 단계(640 및 660)가 한 번에 또는 나뉘어서 수행될 수 있다. 단계(640 및 650)가 한 번에 수행될 경우, 영상 합성부(130)는 사용자의 머리의 좌측 또는 우측으로의 이동 및/또는 회전에 따라 카메라 파라미터를 업데이트할 수 있다.The above-described
단계(670)에서, 영상 합성부(130)는 위치 상태가 나타내는 시점이 전자 장치(100)에게 제공된 영상의 시점과 동일한지 여부를 판단할 수 있다. 또는, 영상 합성부(130)는 전자 장치(100)에게 제공된 멀티-뷰 영상의 하나 이상의 시점들 중 위치 상태가 나타내는 시점과 동일한 시점이 존재하는지 여부를 판단할 수 있다.In
동일한 시점이 존재하는 경우, 도 5를 참조하여 전술된 단계(540)가 수행될 수 있다. 단계(540)에서, 영상 합성부(130)는 전자 장치(100)에게 제공된 영상 및 카메라 파라미터를 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성할 수 있다.If the same point in time exists, step 540 described above with reference to FIG. 5 may be performed. In
동일한 시점이 존재하지 않는 경우, 도 5를 참조하여 전술된 단계(550)가 수행될 수 있다.
If the same time does not exist, step 550 described above with reference to FIG. 5 may be performed.
아래에서는 일 예에 따른 가상 시점의 영상의 합성 방법이 설명된다.Hereinafter, a method of synthesizing an image at a virtual viewpoint according to an example will be described.
사용자가 전자 장치(100) 또는 HMD를 착용하고 자신의 머리를 좌측 또는 우측으로 회전하거나, 세로 방향으로 움직일 수 있다. 트래킹부(120)에 의해 감지되는 위치 상태는 사용자의 좌측 또는 우측으로의 회전을 나타내는 R hmd 및 사용자의 세로 방향으로의 이동을 나타내는 T hmd 를 포함할 수 있다. 또한, 위치 상태는 전자 장치(100) 또는 HMD를 착용하는 사용자가 바라보는 방향을 나타내는 시야각 F를 포함할 수 있다. 말하자면, 전자 장치(100) 또는 HMD가 가상 카메라로서 어떤 사물을 바라보고 있는 것으로 간주될 수 있다.The user can wear his or her
특정한 시점 v에서의 카메라 파라미터는 아래의 수학식 1, 2 및 3과 같이 표현될 수 있다.The camera parameters at a particular point in time v can be expressed as
행렬 K는 내부 카메라 파라미터를 나타낼 수 있다.Matrix K may represent an internal camera parameter.
여기에서, f x 는 x 축으로의 초점 거리를 나타낼 수 있다. f y 는 y 축으로의 초점 거리를 나타낼 수 있다. C x 는 영상 평면(image plane)의 주점(principle point)의 x 좌표를 나타낼 수 있다. C y 는 영상 평면의 주점의 y 좌표를 나타낼 수 있다.Here, f x can indicate the focal length on the x axis. f y can represent the focal length in the y- axis. C x can represent the x coordinate of the principle point of the image plane. C y can represent the y coordinate of the principal point of the image plane.
수학식 2에서, 행렬 R은 카메라의 회전 행렬을 나타낼 수 있다. In Equation (2), the matrix R may represent the rotation matrix of the camera.
수학식 3에서, 행렬 T는 카메라의 위치를 나타낼 수 있다. 행렬 T가 나타내는 카메라의 위치는 월드 좌표계(world coordinate) 상의 위치일 수 있다.In Equation (3), the matrix T may represent the position of the camera. The location of the camera represented by matrix T may be a location on the world coordinate.
영상 합성부(130)는 월드 좌표 상의 좌표 값 (x, y, z)을 특정한 시점 v의 임의의 점으로 투영(project) 시킬 수 있다.The
월드 좌표 상의 좌표 값 (x, y, z)의 가상 시점 v의 임의의 점으로의 투영은 아래의 수학식 4와 같이 표현될 수 있다.The projection of the coordinate value ( x , y , z ) on the world coordinate to an arbitrary point of the virtual point of view v can be expressed by the following equation (4).
좌표 (x v , y v )는 가상 시점 v에서의 점을 나타낼 수 있다.Coordinates (x v, y v) may represent the point in virtual time v.
수학식 4에 따르면, 가상 시점 v에서의 깊이 값이 알려져 있으면, 영상 합성부(130)는 가상 시점 v에서의 깊이 값을 사용하는 재투영(re-projection)을 통해 월드 좌표 상의 좌표 값 (x, y, z)를 획득할 수 있다.According to Equation (4), if the depth value at the virtual viewpoint v is known, the
영상 합성부(130)는 좌표 값 (x, y, z)에 대하여 가상 시점 v의 내부 파라미터 K' 및 외부 파라미터 (R' | T')를 적용함으로써 기상 시점 v'에서의 좌표 값 (x', y')을 획득할 수 있다.
사용자 또는 전자 장치(100)의 움직임에 대한 트래킹에 의해 변경되는 값들 T'은 이동 거리 T hmd 및 이동 방향 부호 로 표현될 수 있다. 이동 방향 부호 는 좌측 또는 우측으로의 이동에 따른 부호를 나타낼 수 있다.The values T ', which are changed by tracking the movement of the user or
이동 거리 T hmd 는 아래의 수학식 5와 같이 표현될 수 있다.The moving distance T hmd can be expressed by the following equation (5).
의 값은 -1 또는 1일 수 있다. May be either -1 or 1.
사용자 또는 전자 장치(100)의 움직임에 대한 트래킹에 의해 변경되는 값들 T'은 아래의 수학식 6과 같이 표현될 수 있다.The values T ', which are changed by tracking the movement of the user or
R hmd 는 x 축을 중심으로 만큼 회전하는 것으로 간주될 수 있다. 상기의 간주에 따라 R hmd 는 로 변경될 수 있다. 또한, R hmd 는 아래의 수학식 7과 같이 표현될 수 있다. R hmd is centered on the x-axis As shown in FIG. According to the above consideration, R hmd is . ≪ / RTI > Also, R hmd can be expressed by the following Equation (7).
영상 합성부(130)는 아래의 수학식 8에 따라, 트래킹에 의해 생성되는 가상 시점 v'를 생성할 수 있다.The
전술된 가상 시점 생성 방법은 일 예이다. 영상 합성부(130)는 입력된 위치 상태 및 다양한 보간(interpolation) 방법을 사용하여 가상 시점을 생성할 수 있다.
The above-described virtual viewpoint generation method is an example. The
도 7은 일 실시예에 따른 3차원 영상 시스템의 구조를 설명한다.FIG. 7 illustrates a structure of a 3D image system according to an embodiment.
3차원(Dimension; D) 영상 시스템은 송신기 및 수신기를 포함할 수 있다.A three dimensional (D) imaging system may include a transmitter and a receiver.
수신기는 3D 비디오 인코더를 포함할 수 있다.The receiver may include a 3D video encoder.
수신기는 3D 수신기, 스테레오 수신기 및 2D 수신기를 포함할 수 있다. 3D 수신기는 3D 비디오 디코더를 포함할 수 있다. 스테레오 수신기는 스테레오 비디오 디코더를 포함할 수 있다. 2D 수신기는 2D 비디오 디코더를 포함할 수 있다.The receiver may include a 3D receiver, a stereo receiver, and a 2D receiver. The 3D receiver may include a 3D video decoder. The stereo receiver may include a stereo video decoder. The 2D receiver may include a 2D video decoder.
송신기는 스테레오 카메라, 깊이 카메라, 멀티-뷰 카메라 및 2D 영상의 3D 영상으로의 변환 등을 이용하여 멀티-뷰 영상의 콘텐츠를 획득할 수 있다. 멀티-뷰 영상의 영상들의 시점들의 개수는 M일 수 있다. M은 2 이상의 정수일 수 있다.The transmitter can acquire the contents of the multi-view image using a stereo camera, a depth camera, a multi-view camera, and a conversion of a 2D image into a 3D image. The number of viewpoints of the images of the multi-view image may be M. M may be an integer of 2 or more.
멀티-뷰 영상은 M개의 시점들의 영상들을 포함할 수 있다. 도 7에서, M개의 시점들의 영상들은 비디오 픽처들로서 도시되었다. 비디오 픽처는 비디오의 특정한 시점에서의 영상을 나타낼 수 있다.The multi-view image may include images of M viewpoints. In Figure 7, the images of the M views are shown as video pictures. A video picture can represent an image at a specific point in the video.
또한, 멀티-뷰 영상은 M개의 시점들의 영상들의 깊이 맵들을 포함할 수 있다. 또한, 멀티-뷰 영상은 카메라와 관련된 부가 정보를 포함할 수 있다.In addition, the multi-view image may include depth maps of images of M views. In addition, the multi-view image may include additional information related to the camera.
멀티-뷰 영상은 멀티-뷰 비디오 인코딩 방법에 의해 압축될 수 있다. 압축된 멀티-뷰 영상의 비트스크림은 네트워크를 통해 송신기로부터 수신기로 전송될 수 있다.The multi-view image can be compressed by a multi-view video encoding method. The bit-stream of the compressed multi-view image may be transmitted from the transmitter to the receiver over the network.
수신기는 멀티-뷰 비디오 디코딩 방법을 사용하여 전송된 비트스크림에 대한 디코딩을 수행할 수 있다. 디코딩에 의해 M개 시점들의 영상들이 복원될 수 있다.The receiver may perform decoding for the transmitted bit-stream using a multi-view video decoding method. The images of M start points can be restored by decoding.
수신기는 수신기에 맞는 디스플레이를 사용하여 M개 시점들의 영상들을 출력할 수 있다.The receiver can output images of M views using a display suitable for the receiver.
3D 수신기는 멀티-뷰 영상을 사용하는 중간 뷰 합성을 사용하여 멀티-뷰 영상이 포함하지 않은 시점의 영상을 생성할 수 있다. 중간 뷰 합성에 대해 아래에서 도 8을 참조하여 상세하게 설명된다.
The 3D receiver can generate an image at a point in time when the multi-view image is not included using the intermediate view synthesis using the multi-view image. Intermediate view synthesis is described in detail below with reference to FIG.
도 8은 일 예에 따른 중간 뷰 합성을 통한 멀티-뷰 디스플레이를 설명한다.Figure 8 illustrates a multi-view display with intermediate view composition according to an example.
도 8에서는, 디코드된 멀티-뷰-깊이(Multi View-Depth; MVD) 데이터가 도시되었다. 전자 장치(100)에게 제공된 영상은 3개의 영상들 및 3개의 깊이 맵들을 포함할 수 있다. 도 8에서, 전자 장치(100)에서 제공된 영상들 및 깊이 맵들은 V1, D1, V5, D5, V9 및 D9를 포함할 수 있다.In FIG. 8, decoded multi-view-depth (MVD) data is shown. The image provided to the
영상 합성부(130)는 디코드된 MVD 데이터로부트 복원된 M개의 시점들의 영상들에 깊이 맵 기반 랜더링(Depth-Image Based Rendering; DIBR)을 적용함으로써 가상 시점의 영상들 V2, V3, V4, V6, V7 및 V8을 생성할 수 있다.The
DIBR은 멀티-뷰 영상 및 깊이 맵을 사용하는 3D 와핑(warping)을 사용하여 가상 시점의 영상을 생성하는 방법일 수 있다. DIBR의 하나로서 보편적으로 사용되는 방법은, 특정한 시점에 해당하는 카메라 파라미터 및 깊이 맵을 사용하여 좌표 값을 3차원 좌표계로 이동시킬 수 있고, 3차원 좌표계로 이동된 좌표 값을 다시 가상 시점으로 투영할 수 있다.The DIBR may be a method of generating an image at a virtual viewpoint using 3D warping using a multi-view image and a depth map. One commonly used method of the DIBR is to move the coordinate values to a three-dimensional coordinate system using camera parameters and depth maps corresponding to a specific point in time, to project the coordinate values shifted to the three- can do.
DIBR의 2 단계의 과정들은 다음과 같을 수 있다. 1) 제1 단계에서, 특정한 시점의 영상의 한 점은 월드 좌표계로 투영된다. 상기의 투영에 있어서, 깊아 맵의 대응하는 점의 깊이 값을 사용될 수 있다. 2) 제2 단계에서, 월드 좌표계로 투영된 접은 가상 시점의 가상 카메라의 이미지 평면 상의 가상 지점에 다시 투영될 수 있다.The two stages of the DIBR can be as follows. 1) In the first step, a point of an image at a specific point in time is projected in the world coordinate system. In the above projection, the depth value of the corresponding point of the deep map can be used. 2) In the second step, the fold projected in the world coordinate system can be projected back to the virtual point on the image plane of the virtual camera at the virtual point of view.
영상 합성부(130)는 전자 장치(100)에게 제공된 영상 및 가상 시점의 영상을 포함하여 N개의 시점들의 영상들을 제공할 수 있다. N은 M 이상의 정수일 수 있다.The
영상 합성부(130)는 N개의 시점들의 영상들 중 사용자의 위치에 따라 요구되는 시점의 영상을 제공할 수 있다. 도 8에서는, 제1 위치, 제2 위치 및 제3 위치의 각각에 대해서, 사용자의 우안 및 좌안의 각각에 요구되는 영상이 제공되는 것이 도시되었다.The
N개의 시점들의 영상들은 다양한 멀티-뷰 3D 디스플레이 장치에 맞춰 재생될 수 있다. 재생을 통해 사용자에게 입체감이 있는 영상이 제공될 수 있다. Images of the N viewpoints can be played back in accordance with various multi-view 3D display devices. A stereoscopic image can be provided to the user through playback.
멀티-뷰 디스플레이에서 제공하는 시점의 개수가 증가할 수록, 합성을 요구하는 가상 시점의 영상의 개수도 증가할 수 있다. 이러한 증가는, 많은 계산 량을 요구할 수 있다. 전술된 실시예에서, 전자 장치(100)는 가상 시점의 영상의 합성을 선택적으로 수행함으로써 가상 시점의 영상의 제공을 위한 계산 량을 감소시킬 수 있다.As the number of viewpoints provided by the multi-view display increases, the number of images at a virtual viewpoint requiring synthesis may also increase. This increase may require a large amount of computation. In the above-described embodiment, the
영상 합성부(130)는 멀티-뷰 영상에 포함된 N 개의 영상들 및 상기의 영상에 대응하는 N개의 깊이 맵들을 이용하여 M개의 시점들의 영상들을 제공할 수 있다. 영상 합성부(130)는 가능한 모든 가상 시점의 영상을 생성하지 않고, 트래킹부(120)에 의해 획득된 위치 상태를 이용하여 요구되는 시점의 영상만을 생성할 수 있다. 이러한 생성 방식은, 무안경 멀티-뷰 디스플레이가 모든 시점들의 가상 영상들을 합성하기 위해 요구되는 방대한 계산 량을 감소시킬 수 있다. 또한, 영상 합성부(130)는 선택적으로 가상 시점의 영상을 생성함에 따라, 원본 영상에 비한 영상의 해상도 저하 또는 영상의 왜곡을 감소시킬 수 있다.
The
도 9는 사용자의 머리의 움직임에 따른 스티치된 영상을 도시한다.9 shows a stitched image according to the movement of the user's head.
전술된 것과 같이, 사용자, 사용자의 머리 또는 전자 장치(100)의 움직임에 따라, 사용자에게 제공되어야 할 영상의 시점이 변경될 수 있다. 합성에 의해, 합성된 뷰들이 사용자에게 제공될 수 있다.As described above, according to the movement of the user, the user's head, or the
예를 들면, 사용자의 머리가 좌측으로 이동하면, 영상 합성부(130)는 좌측 스티치된(stitched) 영상을 생성할 수 있다. 또는, 사용자의 머리가 우측으로 이동하면, 영상 합성부(130)는 우측 스티치된 영상을 생성할 수 있다.
For example, when the head of the user moves to the left, the
도 10은 일 실시예에 따른 전자 장치를 구현하는 컴퓨터 시스템을 도시한다.10 illustrates a computer system for implementing an electronic device according to an embodiment.
전자 장치(100)는 도 10에서 도시된 컴퓨터 시스템(1000)으로서 구현될 수 있다.The
도 10에서 도시된 바와 같이, 컴퓨터 시스템(1000)는 처리부(1010), 통신부(1020), 메모리(1030), 저장소(1040) 및 버스(1090) 중 적어도 일부를 포함할 수 있다. 처리부(1010), 통신부(1020), 메모리(1030) 및 저장소(1040) 등과 같은 컴퓨터 시스템(1000)의 구성요소들은 버스(1090)를 통해 서로 간에 통신할 수 있다.10, the
처리부(1010)는 메모리(1030) 또는 저장소(1040)에 저장된 프로세싱(processing) 명령어(instruction)들을 실행하는 반도체 장치일 수 있다. 예를 들면, 처리부(1010)는 적어도 하나의 프로세서(processor)일 수 있다.The
처리부(1010)는 컴퓨터 시스템(1000)의 동작을 위해 요구되는 작업을 처리할 수 있다. 처리부(1010)는 실시예들에서 설명된 처리부(1010)의 동작 또는 단계의 코드를 실행(execute)할 수 있다.The
처리부(1010)는 정보의 생성, 저장 및 출력을 수행할 수 있으며, 기타 컴퓨터 시스템(1000)에서 이루어지는 단계의 동작을 수행할 수 있다.The
통신부(1020)는 네트워크(1099)에 연결될 수 있다. 컴퓨터 시스템(1000)의 동작을 위해 요구되는 데이터 또는 정보를 수신할 수 있으며, 컴퓨터 시스템(1000)의 동작을 위해 요구되는 데이터 또는 정보를 전송할 수 있다. 통신부(1020)는 네트워크(1099)를 통해 다른 장치로 데이터를 전송할 수 있고, 다른 장치로부터 데이터를 수신할 수 있다. 예를 들면, 통신부(1020)는 네트워크 칩(chip) 또는 포트(port)일 수 있다.The
메모리(1030) 및 저장소(1040)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 롬(ROM)(1031) 및 램(RAM)(1032) 중 적어도 하나를 포함할 수 있다. 저장소(1040)는 램, 플레시(flash) 메모리 및 하드 디스크(hard disk) 등과 같은 내장형의 저장 매체를 포함할 수 있고, 메모리 카드 등과 같은 탈착 가능한 저장 매체를 포함할 수 있다.
컴퓨터 시스템(1000)의 기능 또는 동작은 처리부(1010)가 적어도 하나의 프로그램 모듈을 실행함에 따라 수행될 수 있다. 메모리(1030) 및/또는 저장소(1040)는 적어도 하나의 프로그램 모듈을 저장할 수 있다. 적어도 하나의 프로그램 모듈은 처리부(1010)에 의해 실행되도록 구성될 수 있다.The function or operation of the
컴퓨터 시스템(1000)는 사용자 인터페이스(User Interface; UI) 입력 디바이스(1050) 및 UI 출력 디바이스(1060)를 더 포함할 수 있다. UI 입력 디바이스(1050)는 컴퓨터 시스템(1000)의 동작을 위해 요구되는 사용자의 입력을 수신할 수 있다. UI 출력 디바이스(1060)는 컴퓨터 시스템(1000)의 동작에 따른 정보 또는 데이터를 출력할 수 있다.The
컴퓨터 시스템(1000)는 센서(1070)를 더 포함할 수 있다.The
영상 수신부(110)는 통신부(1020)에 대응할 수 있다. 트래킹부(120)는 센서(1070)에 대응할 수 있다. 영상 디코딩부(115) 및 영상 합성부(130)는 처리부(1010)에 대응할 수 있다. 디스플레이부(140)는 UI 출력 디바이스(1060)에 대응할 수 있다.
The
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
100: 전자 장치
110: 영상 수신부
120: 트래킹부
130: 영상 합성부
140: 디스플레이부100: Electronic device
110:
120:
130:
140:
Claims (20)
상기 전자 장치에게 제공된 영상을 사용하여 상기 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 단계; 및
상기 위치 상태에 대응하는 영상을 출력하는 단계
를 포함하고,
상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 영상 제공 방법.A method of providing a stereoscopic image to a user of an electronic device,
Generating an image of a virtual viewpoint corresponding to the positional state of the user using the image provided to the electronic device; And
Outputting an image corresponding to the position state
Lt; / RTI >
And the image corresponding to the position state includes the image at the virtual time point.
상기 위치 상태에 대응하는 영상은 상기 전자 장치에게 제공된 영상을 포함하는 영상 제공 방법.The method according to claim 1,
And an image corresponding to the position state includes an image provided to the electronic device.
상기 위치 상태에 대응하는 영상은 상기 사용자의 좌안에 제공되는 좌측 영상 및 상기 사용자의 우안에 제공되는 우측 영상을 포함하고,
상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 서로 다른 영상 제공 방법.The method according to claim 1,
An image corresponding to the position state includes a left image provided in the left eye of the user and a right image provided in the right eye of the user,
Wherein the viewpoint of the left image and the viewpoint of the right image are different from each other.
상기 좌측 영상의 시점 및 상기 우측 영상의 시점은 상기 사용자의 양안들 사이의 간격에 기반하여 결정되는 영상 제공 방법.The method of claim 3,
Wherein the viewpoint of the left image and the viewpoint of the right image are determined based on an interval between the eyes of the user.
상기 위치 상태는 상기 사용자에게 최초로 제공되는 영상의 시점을 기준으로 상기 사용자의 위치를 트래킹하는 정보인 영상 제공 방법.The method according to claim 1,
Wherein the location information is information for tracking the location of the user based on a viewpoint of an image initially provided to the user.
상기 사용자의 머리의 움직임을 인식함으로써 상기 위치 상태를 생성하는 단계
를 더 포함하는 영상 제공 방법.The method according to claim 1,
Generating the position state by recognizing movement of the head of the user;
Further comprising the steps of:
상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 이동의 변위을 나타내는 정보를 포함하는 영상 제공 방법.The method according to claim 1,
Wherein the position state includes information indicating a displacement of movement of the user's head to the left or right side.
상기 위치 상태는 상기 사용자의 머리의 좌측 또는 우측으로의 회전을 나타내는 정보를 포함하는 영상 제공 방법.The method according to claim 1,
Wherein the location state includes information indicating a rotation of the user's head to the left or right.
상기 가상 시점이 상기 제공된 영상의 하나 이상의 영상들 중 하나의 영상의 시점과 동일한 경우, 상기 하나 이상의 영상들 중 상기 가상 시점과 동일한 시점의 영상이 그대로 상기 가상 시점의 영상으로서 사용되는 영상 제공 방법.The method according to claim 1,
Wherein the virtual point of time is the same as the point of time of one of the one or more images of the provided image, the image of the same point in time as the virtual point of time is used as the image of the virtual point of time.
상기 위치 상태에 대응하는 영상은 하나 이상의 시점들의 하나 이상의 영상들이고,
상기 제공된 영상은 하나 이상의 시점들의 하나 이상의 영상들이고,
상기 가상 시점의 영상을 생성하는 단계는 상기 위치 상태에 대응하는 하나 이상의 영상들의 시점들 중 적어도 하나의 영상이 상기 하나 이상의 제공된 영상들의 하나 이상의 시점들 중 어느 시점과도 동일하지 않을 경우에 수행되는 영상 제공 방법.The method according to claim 1,
Wherein the image corresponding to the position state is one or more images of one or more views,
Wherein the provided image is one or more images of one or more views,
Wherein the step of generating an image at the virtual time point is performed when at least one of the views of one or more images corresponding to the position state is not the same as any one of the one or more viewpoints of the one or more provided images Image providing method.
상기 위치 상태가 변화하였는지 여부를 판단하는 단계; 및
상기 위치 상태의 변화에 따라 카메라 파라미터를 업데이트하는 단계
를 더 포함하는 영상 제공 방법.The method according to claim 1,
Determining whether the position state has changed; And
Updating the camera parameters according to the change of the position state
Further comprising the steps of:
상기 카메라 파라미터를 업데이트하는 단계는,
상기 사용자의 머리의 좌측 또는 우측으로의 이동에 따라 상기 카메라 파라미터를 업데이트하는 단계
를 포함하는 영상 제공 방법.12. The method of claim 11,
Wherein updating the camera parameters comprises:
Updating the camera parameters in accordance with movement of the user's head to the left or right
The method comprising the steps of:
상기 카메라 파라미터를 업데이트하는 단계는,
상기 사용자의 머리의 좌측 또는 우측으로의 회전에 따라 상기 카메라 파라미터를 업데이트하는 단계
를 포함하는 영상 제공 방법.12. The method of claim 11,
Wherein updating the camera parameters comprises:
Updating the camera parameters in accordance with rotation of the user's head to the left or right
The method comprising the steps of:
상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 이동에 따른 위치 이동의 변위를 나타내는 영상 제공 방법.12. The method of claim 11,
Wherein the change of the position state indicates a displacement of the position movement according to the movement of the user to the left or right based on the reference time.
상기 위치 상태의 변화는 기준 시점을 기준으로 상기 사용자의 좌측 또는 우측으로의 회전에 따른 회전 각을 나타내는 영상 제공 방법.12. The method of claim 11,
Wherein the change of the position state represents a rotation angle of the user with respect to a left or right rotation based on a reference time point.
상기 카메라 파라미터는 x 축으로의 초점 거리 및 y 축으로의 초점 거리를 포함하는 행렬인 영상 제공 방법.12. The method of claim 11,
Wherein the camera parameter is a matrix including a focal length in the x-axis and a focal length in the y-axis.
상기 제공된 영상은 고효율 비디오 코딩(High Efficiency Video Coding; HEVC)의 멀티-뷰 영상인 영상 제공 방법.The method according to claim 1,
Wherein the provided image is a multi-view image of High Efficiency Video Coding (HEVC).
상기 가상 시점의 영상은 상기 제공된 영상에 대응하는 깊이 맵을 사용하여 생성되는 영상 제공 방법.The method according to claim 1,
Wherein the image of the virtual viewpoint is generated using a depth map corresponding to the provided image.
상기 전자 장치에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및
상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부
를 포함하고,
상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 전자 장치.In an electronic device,
An image synthesizer for generating an image of a virtual viewpoint corresponding to a position state of the user using the image provided to the electronic device; And
A display unit for outputting an image corresponding to the position state,
Lt; / RTI >
And the image corresponding to the position state includes the image at the virtual time point.
상기 헤드 마운트 디스플레이에게 제공된 영상을 사용하여 사용자의 위치 상태에 대응하는 가상 시점의 영상을 생성하는 영상 합성부; 및
상기 위치 상태에 대응하는 영상을 출력하는 디스플레이부
를 포함하고,
상기 위치 상태에 대응하는 영상은 상기 가상 시점의 영상을 포함하는 헤드 마운트 디스플레이.In a head mount display,
An image synthesizer for generating an image of a virtual viewpoint corresponding to a positional state of the user using the image provided to the head mount display; And
A display unit for outputting an image corresponding to the position state,
Lt; / RTI >
Wherein the image corresponding to the position state includes the image at the virtual time point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610637582.3A CN109361913A (en) | 2015-05-18 | 2016-05-18 | For providing the method and apparatus of 3-D image for head-mounted display |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150069179 | 2015-05-18 | ||
KR20150069179 | 2015-05-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160135660A true KR20160135660A (en) | 2016-11-28 |
Family
ID=57706847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160058227A KR20160135660A (en) | 2015-05-18 | 2016-05-12 | Method and apparatus for providing 3-dimension image to head mount display |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20160135660A (en) |
CN (1) | CN109361913A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190011492A (en) * | 2017-07-25 | 2019-02-07 | 삼성전자주식회사 | Device for providing content and method of operating the same |
CN111937043A (en) * | 2018-04-06 | 2020-11-13 | 华为技术有限公司 | Associating file format objects with dynamic adaptive streaming over hypertext transfer protocol (DASH) objects |
KR102613415B1 (en) * | 2022-12-22 | 2023-12-13 | 주식회사 하스퍼 | Visual field synchronization apparatus and method |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667438B (en) * | 2019-03-07 | 2023-05-26 | 阿里巴巴集团控股有限公司 | Video reconstruction method, system, device and computer readable storage medium |
CN111669568A (en) * | 2019-03-07 | 2020-09-15 | 阿里巴巴集团控股有限公司 | Multi-angle free visual angle interaction method and device, medium, terminal and equipment |
US20200288112A1 (en) | 2019-03-07 | 2020-09-10 | Alibaba Group Holding Limited | Method, apparatus, medium, and device for processing multi-angle free-perspective video data |
CN111669561B (en) * | 2019-03-07 | 2023-05-26 | 阿里巴巴集团控股有限公司 | Multi-angle free view image data processing method and device, medium and equipment |
CN111669570B (en) * | 2019-03-07 | 2023-12-19 | 阿里巴巴集团控股有限公司 | Multi-angle free view video data processing method and device, medium and equipment |
CN111669571B (en) * | 2019-03-07 | 2023-12-19 | 阿里巴巴集团控股有限公司 | Multi-angle free view image data generation method and device, medium and equipment |
CN111669564B (en) * | 2019-03-07 | 2022-07-26 | 阿里巴巴集团控股有限公司 | Image reconstruction method, system, device and computer readable storage medium |
CN112738495B (en) * | 2019-10-28 | 2023-03-28 | 阿里巴巴集团控股有限公司 | Virtual viewpoint image generation method, system, electronic device and storage medium |
CN112738534B (en) * | 2019-10-28 | 2023-06-23 | 阿里巴巴集团控股有限公司 | Data processing method and system, server and storage medium |
CN113473244A (en) * | 2020-06-23 | 2021-10-01 | 青岛海信电子产业控股股份有限公司 | Free viewpoint video playing control method and device |
CN113891060A (en) * | 2020-07-03 | 2022-01-04 | 阿里巴巴集团控股有限公司 | Free viewpoint video reconstruction method, playing processing method, device and storage medium |
CN114071115A (en) * | 2020-07-31 | 2022-02-18 | 阿里巴巴集团控股有限公司 | Free viewpoint video reconstruction and playing processing method, device and storage medium |
CN112235562B (en) * | 2020-10-12 | 2023-09-15 | 聚好看科技股份有限公司 | 3D display terminal, controller and image processing method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100496121C (en) * | 2007-04-11 | 2009-06-03 | 宁波大学 | Image signal processing method of the interactive multi-view video system |
CA2745392C (en) * | 2008-12-18 | 2016-07-12 | Lg Electronics Inc. | Method for 3d image signal processing and image display for implementing the same |
US8872888B2 (en) * | 2010-10-01 | 2014-10-28 | Sony Corporation | Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system |
CN102307309A (en) * | 2011-07-29 | 2012-01-04 | 杭州电子科技大学 | Somatosensory interactive broadcasting guide system and method based on free viewpoints |
JP5953916B2 (en) * | 2012-05-02 | 2016-07-20 | ソニー株式会社 | Image processing apparatus and method, and program |
US10116911B2 (en) * | 2012-12-18 | 2018-10-30 | Qualcomm Incorporated | Realistic point of view video method and apparatus |
-
2016
- 2016-05-12 KR KR1020160058227A patent/KR20160135660A/en unknown
- 2016-05-18 CN CN201610637582.3A patent/CN109361913A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190011492A (en) * | 2017-07-25 | 2019-02-07 | 삼성전자주식회사 | Device for providing content and method of operating the same |
US11320898B2 (en) | 2017-07-25 | 2022-05-03 | Samsung Electronics Co., Ltd. | Device and method for providing content |
CN111937043A (en) * | 2018-04-06 | 2020-11-13 | 华为技术有限公司 | Associating file format objects with dynamic adaptive streaming over hypertext transfer protocol (DASH) objects |
US11902634B2 (en) | 2018-04-06 | 2024-02-13 | Huawei Technologies Co., Ltd. | Associating file format objects and dynamic adaptive streaming over hypertext transfer protocol (DASH) objects |
KR102613415B1 (en) * | 2022-12-22 | 2023-12-13 | 주식회사 하스퍼 | Visual field synchronization apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
CN109361913A (en) | 2019-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20160135660A (en) | Method and apparatus for providing 3-dimension image to head mount display | |
US20200051269A1 (en) | Hybrid depth sensing pipeline | |
US9883174B2 (en) | System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view | |
JP6021541B2 (en) | Image processing apparatus and method | |
JP4693900B2 (en) | Image processing device | |
Bertel et al. | Megaparallax: Casual 360 panoramas with motion parallax | |
CN110999285B (en) | Processing of 3D image information based on texture maps and meshes | |
KR20110086079A (en) | Method and system for processing an input three dimensional video signal | |
US8610707B2 (en) | Three-dimensional imaging system and method | |
Thatte et al. | Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax | |
KR20120030005A (en) | Image processing device and method, and stereoscopic image display device | |
JP5755571B2 (en) | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device | |
WO2012140397A2 (en) | Three-dimensional display system | |
WO2021081568A2 (en) | Advanced stereoscopic rendering | |
JP6128748B2 (en) | Image processing apparatus and method | |
JP6033625B2 (en) | Multi-viewpoint image generation device, image generation method, display device, program, and recording medium | |
WO2023003803A1 (en) | Virtual reality systems and methods | |
KR101208767B1 (en) | Stereoscopic image generation method, device and system using circular projection and recording medium for the same | |
KR20170065208A (en) | Method and apparatus for processing 3-dimension image, and graphic processing unit | |
JP6166985B2 (en) | Image generating apparatus and image generating program | |
US20230106679A1 (en) | Image Processing Systems and Methods | |
CN109961395B (en) | Method, device and system for generating and displaying depth image and readable medium | |
JP4815004B2 (en) | Multi-view image encoding device | |
JPWO2018186287A1 (en) | Video data generating device, video reproducing device, video data generating method, control program, and recording medium | |
KR20170077331A (en) | Arbitrary View Image Generation Method and System |