KR20190001896A - Appartus and method for displaying hierarchical depth image in virtual realilty - Google Patents

Appartus and method for displaying hierarchical depth image in virtual realilty Download PDF

Info

Publication number
KR20190001896A
KR20190001896A KR1020180015051A KR20180015051A KR20190001896A KR 20190001896 A KR20190001896 A KR 20190001896A KR 1020180015051 A KR1020180015051 A KR 1020180015051A KR 20180015051 A KR20180015051 A KR 20180015051A KR 20190001896 A KR20190001896 A KR 20190001896A
Authority
KR
South Korea
Prior art keywords
image
depth
divided
regions
objects
Prior art date
Application number
KR1020180015051A
Other languages
Korean (ko)
Other versions
KR102013917B1 (en
Inventor
이지훈
Original Assignee
주식회사 다이브코어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다이브코어 filed Critical 주식회사 다이브코어
Publication of KR20190001896A publication Critical patent/KR20190001896A/en
Application granted granted Critical
Publication of KR102013917B1 publication Critical patent/KR102013917B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

According to an embodiment of the present invention, an apparatus for displaying a hierarchical depth image in virtual reality (VR) comprises: an input unit for receiving a two-dimensional (2D) image and a space image photographed by fitting in a no-parallax point; a virtual space acquisition unit for generating a three-dimensional (3D) virtual space from the space image; a hierarchical depth image acquisition unit for dividing objects in the 2D image according to a depth range and acquiring a hierarchical depth image hierarchizing the divided objects according to a depth order; and a 3D projection unit for hierarchizing and projecting each of the divided objects of the hierarchical depth image in the 3D virtual space according to the depth order.

Description

VR에서의 깊이 계층 이미지 표시장치 및 방법{APPARTUS AND METHOD FOR DISPLAYING HIERARCHICAL DEPTH IMAGE IN VIRTUAL REALILTY}[0001] APPARATUS AND METHOD FOR DISPLAYING HIERARCHICAL DEPTH IMAGE IN VIRTUAL REALILTY [0002]

본 발명은 VR에서의 2D 이미지를 입체감 및 깊이감 있게 표현할 수 있는 VR에서의 깊이 계층 이미지 표시장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for displaying a depth-layer image in a VR capable of expressing a 2D image in a VR in depth and depth.

입체영상 표시장치는 양안시차방식(Stereoscopic technique) 복합시차지각방식(auto Stereoscopic technique)으로 나뉜다.The stereoscopic image display device is divided into a binocular stereoscopic technique and an auto stereoscopic technique.

입체 영상 표시장치의 시장 활성화를 위한 최대 과제는 절대적으로 부족한 3D 콘텐츠 문제를 해결한다는 데 있다. 3D 콘텐츠를 직접 획득하는 방법으로 스테레오 카메라 두 대 이상의 다수 카메라를 사용하는 방법, 이미지와 함께 깊이정보를 획득하는 깊이(depth) 카메라 등을 사용하는 방법이 알려져 있다.The biggest challenge for the market activation of stereoscopic display devices is solving 3D content problem which is absolutely insufficient. A method of using a plurality of cameras of two or more stereo cameras as a method for directly acquiring 3D contents, and a method of using a depth camera for acquiring depth information with an image are known.

이러한 방법은 큰 획득 비용이 투입되어야 하고, 짧은 시간 내에 충분한 3D 콘텐츠를 확보할 수 없다. 3D 콘텐츠를 직접 획득하는 방법에서 발생하는 획득 비용이 적고 콘텐츠 확보 시간을 해결할 수 있는 방법으로, 기존의 2D 콘텐츠를 3D 콘텐츠로 변환하는 방법이 있다.Such a method requires a large acquisition cost and can not secure sufficient 3D contents in a short time. There is a method of converting existing 2D contents into 3D contents as a method of solving content acquisition time with a small acquisition cost arising from a method of acquiring 3D contents directly.

이 방법은 비용이 저렴하고 짧은 시간 내에 3D 콘텐츠 확보 문제를 해결할 수 있으나, 3D 영상의 입체감이 3D 콘텐츠를 직접 획득하는 방법에 비하여 많은 문제가 있다.This method is inexpensive and can solve the problem of securing 3D contents in a short time, but there are many problems compared to a method in which the stereoscopic effect of 3D image acquires 3D contents directly.

공개특허공보 제10-2004-0022100호(2004.03.11.)Patent Document 10-2004-0022100 (Mar.

본 발명은 2D 이미지 내의 객체들 간에 계층적 깊이를 획득 및 부여하여 2D 이미지를 뎁스맵 이미지로 가공하는 VR에서의 깊이 계층 이미지 표시장치 및 방법을 제공하는 데 그 목적이 있다.It is an object of the present invention to provide an apparatus and method for displaying a depth layer image in a VR that acquires and imparts a hierarchical depth between objects in a 2D image to process a 2D image into a depth map image.

또한, 본 발명은 노패럴랙스-포인트로 2D 객체와 가상공간을 촬영하고, 깊이정보를 다양한 방법으로 획득하고, 2D 객체를 가상공간에 정확히 배치하여 실감나는 VR 깊이영상을 구현할 수 있고, 저비용 고효율로 VR에서 깊이 계층 이미지를 구현할 수 있는 VR에서의 깊이 계층 이미지 표시장치 및 방법을 제공하는 데 그 목적이 있다.In addition, the present invention can realize realistic VR depth images by photographing 2D objects and virtual space with no parallax points, acquiring depth information in various ways, and accurately arranging 2D objects in a virtual space, The present invention provides a depth image display apparatus and method in a VR capable of implementing a depth layer image in a VR.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 VR에서의 깊이 계층 이미지 표시장치는, 노 패럴랙스 포인트에 맞춰 촬영된 2D 이미지 및 공간영상을 입력받는 입력부; 상기 공간영상으로부터 3D 가상공간을 생성하는 가상공간 획득부; 상기 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득하는 깊이 계층 이미지 획득부; 및 상기 3D 가상공간 내에 상기 깊이 계층 이미지의 각 분할된 객체들을 깊이 순서에 따라 계층화하여 투영시키는 3D 투영부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for displaying depth images in a VR, the apparatus comprising: an input unit for inputting a 2D image and a spatial image photographed in accordance with a no parallax point; A virtual space acquiring unit for creating a 3D virtual space from the spatial image; A depth layer image acquisition unit for dividing objects in the 2D image according to a depth range and acquiring a depth layer image obtained by layering the divided objects in a depth order; And a 3D projection unit for layering and projecting each of the divided objects of the depth hierarchy image in a depth order in the 3D virtual space.

바람직하게는, 상기 3D 투영부는, 상기 깊이 계층 이미지의 분할된 각 객체를 상기 3D 가상공간의 시점과 일치시켜 투영하되, 상기 깊이 계층 이미지의 분할된 각 객체를 깊이 범위에 따라 스케일링함으로써 분할된 각 객체의 경계부가 상기 3D 가상공간의 시점에서 보았을 때 서로 일치하도록 투영할 수 있다.Preferably, the 3D projection unit projects each divided object of the depth layer image in accordance with a viewpoint of the 3D virtual space, scales each divided object of the depth layer image according to a depth range, So that the boundaries of the objects coincide with each other when viewed from the viewpoint of the 3D virtual space.

바람직하게는, 상기 3D 투영부는, 상기 깊이 계층 이미지의 분할된 각 객체의 경계부를 안티-알리아싱 처리하여 투영할 수 있다.Preferably, the 3D projection unit may perform anti-aliasing processing on a boundary of each divided object of the depth hierarchy image.

바람직하게는, 상기 깊이 계층 이미지 획득부는, 상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 밝기값들 간의 상관관계를 이용하여 상기 객체 계층 이미지를 획득할 수 있다.Preferably, the depth layer image obtaining unit may divide the 2D image into a plurality of regions based on brightness values of the regions in the 2D image, and then, using the correlation between the brightness values of the divided regions, Can be obtained.

바람직하게는, 상기 깊이 계층 이미지 획득부는, 상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 색상 유사도 및 픽셀 거리 등에 기초하여 각 픽셀간의 결합력을 계산한 후, 결합력이 높은 픽셀끼리 그룹핑하여 상기 객체 계층 이미지를 획득할 수 있다.Preferably, the depth layer image obtaining unit divides the 2D image into a plurality of areas based on the brightness values of the areas in the 2D image, and then determines a binding force between the pixels based on the color similarity and the pixel distance of the divided area After the calculation, the object hierarchy image can be obtained by grouping pixels having high bonding strength.

바람직하게는, 상기 깊이 계층 이미지 획득부는, 상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할된 영역들 간의 주변 밝기값에 따른 순위를 결정한 후, 순위에 따라 분할된 각 영역에 깊이정보를 부여하여 상기 객체 계층 이미지를 획득할 수 있다.Preferably, the depth layer image obtaining unit may divide the 2D image into a plurality of areas based on brightness values of the areas in the 2D image, determine a ranking based on the surrounding brightness values between the divided areas, The object layer image can be acquired by giving depth information to each of the divided regions according to the depth information.

바람직하게는, 상기 깊이 계층 이미지 획득부는, 콘트라스트 감도 함수를 이용하여 분할된 영역들 간의 상대적 주변 밝기값을 판단하고, 상기 상대적 주변 밝기값에 기초하여 분할된 각 영역들 간의 주변 밝기값에 따른 순위를 결정할 수 있다.Preferably, the depth layer image obtaining unit determines a relative surrounding brightness value between the divided regions using the contrast sensitivity function, and calculates a relative brightness value based on the relative brightness value between the divided regions based on the relative surrounding brightness value Can be determined.

바람직하게는, 상기 2D 이미지는 깊이정보를 포함하고, 상기 깊이 계층 이미지 획득부는, 상기 2D 이미지에 포함된 깊이정보로 상기 2D 이미지 내의 객체들을 깊이 범위에 따라 복수 개의 영역으로 분할하여 상기 객체 계층 이미지를 획득할 수 있다.Preferably, the 2D image includes depth information, and the depth layer image obtaining unit divides the objects in the 2D image into a plurality of regions according to a depth range with depth information included in the 2D image, Can be obtained.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 VR에서의 깊이 계층 이미지 표시방법은, (a) 노 패럴랙스 포인트에 맞춰 촬영된 2D 이미지 및 공간영상을 입력받는 단계; (b) 상기 공간영상으로부터 3D 가상공간을 생성하는 단계; (c) 상기 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득하는 단계; 및 (d) 상기 3D 가상공간 내에 상기 깊이 계층 이미지의 각 분할된 객체들을 깊이 순서에 따라 계층화하여 투영시키는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of displaying a depth layer image in a VR, the method including: (a) receiving a 2D image and a spatial image photographed in accordance with a no parallax point; (b) creating a 3D virtual space from the spatial image; (c) dividing the objects in the 2D image according to a depth range, and obtaining a depth layer image obtained by layering the divided objects in a depth order; And (d) layering and segmenting each of the divided objects of the depth hierarchy image in the depth order in the 3D virtual space.

상기 과제의 해결 수단은 본 발명의 특징을 모두 열거한 것은 아니다. 본 발명의 과제 해결을 위한 다양한 수단들은 이하의 상세한 설명의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.The solution of the above-mentioned problems does not list all the features of the present invention. Various means for solving the problems of the present invention can be understood in detail with reference to specific embodiments of the following detailed description.

따라서, 본 발명의 일 실시예에 따른 VR에서의 깊이 계층 이미지 표시장치 및 방법은 3D 가상공간 내에 투영된 2D 이미지를 사용자의 관찰 시점에 맞게 2D 이미지 내의 객체 마다 깊이 및 크기를 조절할 수 있고, 또한, 사용자의 관찰 시점의 변화에 따라 2D 이미지 내의 객체 마다 깊이 및 크기를 조절할 수 있으므로, 2D 이미지의 공간적 입체감 및 원근감을 실감나게 표현할 수 있다는 이점을 제공한다.Accordingly, an apparatus and a method for displaying a depth layer image in a VR according to an embodiment of the present invention can adjust a depth and a size of a 2D image projected in a 3D virtual space according to an observation point of a user, , The depth and size of each object in the 2D image can be adjusted according to the change of the observation point of the user, so that the spatial stereoscopic effect and perspective of the 2D image can be expressed realistically.

따라서, 상술한 이점을 통해 VR 기기 내에 펼쳐지는 가상의 3D 공간 내에서 웹툰 및 사진들에 입체감 및 생동감을 불어넣을 수 있다는 이점이 있다.Accordingly, the advantage of the above-described advantage is that the three-dimensional image and the vividness can be infused to the webtoon and the photographs in the virtual 3D space deployed in the VR device.

도 1은 본 발명의 일 실시예에 따른 VR에서의 깊이 계층 이미지 표시장치의 장치 블록도이다.
도 2는 도 1에 도시된 깊이 계층 이미지 획득부를 보다 상세하게 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시방법을 나타낸 방법 흐름도이다.
도 4는 도 3에 도시된 깊이 계층 이미지 생성과정을 보다 상세하게 나타낸 흐름도이다.
도 5는 가상공간영상부에서 공간영상을 스티치 처리한 예를 나타낸 예시도이다.
도 6의 (a) 및 (b)는 객체 이미지의 경계부를 추출한 예를 나타낸 예시도이다.
도 7는 객체 이미지들의 계층화 과정을 설명하기 위한 예시도이다.
도 8은 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리 변화에 따라 객체 이미지들 깊이 및 크기가 보정되는 예를 설명하기 위한 예시도이다.
도 9 내지 도 10은 도 1에 도시된 장치를 이용하여 획득된 깊이 계층 이미지가 VR 공간에서 실행된 예를 나타낸 예시도이다.
도 11은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도이다.
1 is a block diagram of an apparatus for displaying a depth layer image in a VR according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the depth layer image obtaining unit shown in FIG. 1 in more detail.
3 is a method flow diagram illustrating a depth layer image display method according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating the depth layer image generation process shown in FIG. 3 in more detail.
5 is an exemplary view illustrating an example of stitching a spatial image in a virtual space image portion.
6 (a) and 6 (b) are diagrams illustrating an example of extracting a boundary portion of an object image.
7 is an exemplary diagram illustrating a process of layering object images.
FIG. 8 is an exemplary diagram illustrating an example in which the depth and size of object images are corrected according to a distance change between a viewing point of the user and a depth layer image.
Figs. 9 to 10 are diagrams illustrating an example in which a depth layer image obtained using the apparatus shown in Fig. 1 is executed in VR space.
11 is a diagram illustrating an exemplary computing environment in which one or more embodiments disclosed herein may be implemented.

다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Various embodiments and / or aspects are now described with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art that such aspect (s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of one or more aspects. It is to be understood, however, that such aspects are illustrative and that some of the various ways of practicing various aspects of the principles of various aspects may be utilized, and that the description set forth is intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.In addition, various aspects and features will be presented by a system that may include multiple devices, components and / or modules, and so forth. It should be understood that the various systems may include additional devices, components and / or modules, etc., and / or may not include all of the devices, components, modules, etc. discussed in connection with the drawings Must be understood and understood.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, the terms "an embodiment," "an embodiment," " an embodiment, "" an embodiment ", etc. are intended to indicate that any aspect or design described is better or worse than other aspects or designs. . As used herein, the terms 'component,' 'module,' 'system,' 'interface,' and the like generally refer to a computer-related entity and include, for example, hardware, It can mean software.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term "or" is intended to mean " exclusive or " That is, it is intended to mean one of the natural inclusive substitutions "X uses A or B ", unless otherwise specified or unclear in context. That is, X uses A; X uses B; Or when X uses both A and B, "X uses A or B" can be applied to either of these cases. It should also be understood that the term "and / or" as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다. 더불어, 본 명세서에서 사용되는 용어 "클라이언트", "유저" 및 "사용자"는 종종 상호교환가능하게 사용될 수 있다. 더불어, 본 명세서에서 사용되는 용어 "컴포넌트" 및 "엘리먼트" 또한 종종 상호교환가능하게 사용될 수 있다.It is also to be understood that the term " comprises "and / or" comprising " means that the feature and / or component is present, but does not exclude the presence or addition of one or more other features, components and / It should be understood that it does not. Also, unless the context clearly dictates otherwise or to the contrary, the singular forms in this specification and claims should generally be construed to mean "one or more. &Quot; In addition, the terms "client "," user ", and "user ", as used herein, are often used interchangeably. In addition, the terms "component " and" element ", as used herein, are also often used interchangeably.

이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 VR에서의 계층 깊이 이미지 표시장치 및 방법을 보다 상세하게 설명하도록 한다.Hereinafter, an apparatus and method for displaying a hierarchical depth image in a VR according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 VR에서의 깊이 계층 이미지 표시장치의 장치 블록도이고, 도 2는 도 1에 도시된 깊이 계층 이미지 획득부를 보다 상세하게 나타낸 블록도이다.FIG. 1 is a block diagram of an apparatus for displaying a depth layer image in a VR according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating the depth layer image obtaining unit shown in FIG. 1 in more detail.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시장치(100)는 입력부(200), 깊이 계층 이미지 획득부(300), 3D 가상공간 획득부(400), 3D 투영부(500)를 포함한다.1 and 2, a depth image display apparatus 100 according to an embodiment of the present invention includes an input unit 200, a depth layer image acquiring unit 300, a 3D virtual space acquiring unit 400, a 3D And a projection unit 500.

상기 입력부(200)는 전자 기기 등의 촬영장치에 의해 획득된 2D 이미지 및 공간영상을 입력받는데, 2D 이미지 및 공간영상은 노 패럴랙스 포인트(No Parallax Point)에 맞춰 촬영된 영상이다. 여기서, 공간영상이란 3D 가상공간을 만드는데 기초가 되는 영상으로서, 2D 이미지가 배치되는 배경 영상을 의미한다. 그리고 2D 이미지란 3D 가상공간에 배치되는 대상 이미지로서, 사람이나 동물이나 사물들의 이미지를 의미한다. 예를 들어, 어느 한 사람이 방안에 있는 경우를 가정하면, 사람의 영상이 2D 이미지가 되고 방의 주변 영상이 공간영상이 된다. The input unit 200 receives a 2D image and a spatial image obtained by a photographing device such as an electronic device, and the 2D image and the spatial image are images captured in accordance with a No Parallax Point. Here, the spatial image refers to a background image on which a 2D image is arranged, which is a basis for creating a 3D virtual space. A 2D image is a target image placed in a 3D virtual space, which means an image of a person, an animal, or an object. For example, assuming that one person is in a room, a person's image becomes a 2D image, and the surrounding image of the room becomes a spatial image.

상기 가상공간 획득부(400)는 입력부(200)를 통해 입력된 공간영상으로부터 3D 가상공간을 생성한다. The virtual space acquiring unit 400 generates a 3D virtual space from the spatial image input through the input unit 200.

이때, 3D 가상공간은 i) 360 3D 카메라로 촬영된 1장의 이미지로 생성될 수도 있고, ii) 임의의 공간에 복수 개의 좌/우로 배치된 360 3D 카메라들로 촬영된 공간영상을 펼침 과정(Stiching processing)을 통해 equirectangular 형태의 포맷으로 만든 후 3D 가상공간인 sphere projection가 생성될 수도 있으며, iii) 어안렌즈로 촬영된 이미지를 스티칭하여 생성될 수도 있다. 다만, 3D 가상공간의 기초가 되는 공간영상과 전술한 2D 이미지는 노 패럴랙스 포인트에 맞춰 촬영되어야 한다.At this time, the 3D virtual space may be created by i) one image photographed by 360 3D camera, or ii) a spatial image photographed by 360 3D cameras arranged in a plurality of left / processing, and then creating a 3D virtual space, a sphere projection, or iii) stitching an image taken with a fisheye lens. However, the spatial image that is the basis of the 3D virtual space and the 2D image described above must be photographed in accordance with the no parallax point.

여기서 사용된 equirectangular 형태의 포맷은 스피어 프로젝션(sphere projection)을 생성하기 위한 하나의 방법이며, 스티칭 처리과정(Stiching processing)에서 다양한 프로젝션 방법을 선택적으로 사용하여 스피어 프로젝션(sphere projection)을 생성할 수도 있다. The equirectangular format used here is one way to create a sphere projection, and in stiching processing, various projection methods may be selectively used to create a sphere projection .

여기서, 가상공간 획득부(400)에서 공간영상을 스티칭 처리한 예를 나타낸 예시도인 도 5를 참조하면, 공간영상은 스티칭 처리과정(Stiching processing)을 통해 복수 개의 분할된 이미지로 표시될 수 있다.Here, referring to FIG. 5 illustrating an example of stitching a spatial image in the virtual space obtaining unit 400, the spatial image may be displayed as a plurality of divided images through stiching processing .

참고로, 렌즈에 따라서 스티칭 처리과정에 필요한 이미지의 개수는 달라질 수 있다. For reference, the number of images required for the stitching process may vary depending on the lens.

다시, 도 2를 참조하면, 상기 깊이 계층 이미지 획득부(300)는 입력부(200)에서 입력된 2D 이미지에서 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득(제작)한다.2, the depth layer image obtaining unit 300 divides objects in the 2D image in the 2D image input from the input unit 200 according to the depth range, and divides the divided objects in a depth order Acquisition (production) of depth layer images.

깊이 계층 이미지를 획득하는 방식은 다양할 수 있다. The manner of acquiring the depth layer image may vary.

우선, i) 깊이정보가 포함되어 있는 2D 이미지를 입력받은 후, 입력받은 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득할 수 있다. 사물을 촬영할 때 쵤영한 이미지 내의 객체의 각 영역에서 깊이정보를 획득하여 이를 이미지와 함께 저장할 수 있는데, 깊이정보가 포함되어 있는 2D 이미지를 입력받으면, 그 2D 이미지에 포함되어 있는 깊이정보를 이용하여 손쉽게 깊이 계층 이미지를 획득할 수 있다.First, after inputting a 2D image including depth information, objects in the input 2D image are divided according to a depth range, and a depth layer image obtained by layering the divided objects in a depth order can be obtained. When capturing an object, depth information can be acquired from each region of the object in the captured image and stored together with the image. When a 2D image including the depth information is input, the depth information included in the 2D image is used It is easy to acquire a depth layer image.

ii) 깊이정보가 포함되어 있지 않은 2D 이미지를 입력받은 경우에는, 2D 이미지의 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지 내의 객체들의 경계부를 추출한 후, 추출된 객체 경계부들의 주변 밝기값에 따라 객체들 간 깊이를 계층화함으로써 깊이 계층 이미지를 획득할 수 있다.ii) When a 2D image that does not include depth information is input, the boundary of the objects in the 2D image is extracted based on the brightness value of each area in the 2D image of the 2D image, Thus, depth layer images can be acquired by layering the depths between objects.

iii) 그리고, 2D 이미지를 수동으로 깊이 범위에 따라 복수 개의 영역으로 분할한 후, 각 영역의 깊이를 직접 입력함으로써 깊이 계층 이미지를 획득할 수 있다.iii) Then, the 2D image can be manually divided into a plurality of regions according to the depth range, and then the depth layer image can be obtained by directly inputting the depths of the respective regions.

본 발명에서 깊이 계층 이미지란 깊이를 여러 범위로 나누고, 깊이 범위에 따라 2D 이미지의 영역을 분할한 후, 분할된 영역을 깊이 순서에 따라 계층화한 이미를 의미한다. 위의 세가지 방식외에도 다른 방식으로 깊이 계층 이미지를 획득할 수도 있으므로, 본 발명에서는 어떠한 방식을 이용하던 분할된 영역이 깊이 순서에 따라 계층화된 깊이 계층 이미지를 획득하고, 이렇게 획득된 이미지를 3D 가상공간에 투영할 수 있다. In the present invention, a depth layer image refers to an image obtained by dividing a depth into a plurality of ranges, dividing an area of a 2D image according to a depth range, and then dividing the divided areas in a depth order. In addition to the above three methods, the depth layer image can be acquired in a different manner. Therefore, in the present invention, the divided area using any method acquires a layered depth layer image according to the depth order, As shown in FIG.

보다 구체적으로, 상기 깊이 계층 이미지 획득부(300)는 객체 추출부(310), 계층화부(320), 이미지 렌더링부(330) 및 깊이 계층 이미지 제작부(340)를 포함할 수 있다.The depth layer image obtaining unit 300 may include an object extracting unit 310, a layering unit 320, an image rendering unit 330, and a depth layer image producing unit 340.

상기 객체 추출부(310)는 2D 이미지 내의 객체들을 깊이 범위에 따라 복수 개의 영역으로 분할한다. The object extracting unit 310 divides objects in the 2D image into a plurality of regions according to a depth range.

2D 이미지에 깊이정보가 포함된 경우, 객체 추출부(310)는 2D 이미지 내의 각 영역을 깊이 범위 단계에 따라 분할할 수 있다. 예를 들어, 3개의 깊이 범위 단계로 나눈 경우, 객체 추출부(310)는 1단계 깊이, 2단계 깊이, 3단계 깊이를 가진 지점들을 각각 그룹핑하여 2D 이미지를 복수 개로 분할할 수 있다. 이러한 깊이 범위의 단계는 2개 이상으로 적절하게 결정될 수 있다. 도 7에서는 5 단계로 깊이 범위가 결정되었지만, 이에 한정되는 것은 아니며 적절한 개수의 단계로 결정될 수 있음은 물론이다. When the 2D image includes depth information, the object extracting unit 310 may divide each area in the 2D image according to the depth range step. For example, when divided into three depth range steps, the object extraction unit 310 may divide the 2D image into a plurality of groups by grouping the points having one depth depth, two depth depth, and three depth depths, respectively. Steps in this depth range may be suitably determined to be two or more. In FIG. 7, the depth range is determined in five steps. However, the present invention is not limited thereto and may be determined to be an appropriate number of steps.

한편, 다른 일예로, 2D 이미지에 깊이정보가 포함되지 않은 경우, 객체 추출부(310)는 2D 이미지에서 각 픽셀들의 색 성분 값등을 이용하여 2D 이미지 내의 객체들을 깊이 범위에 따라 분할할 수 있다.On the other hand, if depth information is not included in the 2D image, the object extracting unit 310 may divide the objects in the 2D image according to the depth range using the color component value of each pixel in the 2D image.

예를 들어, 객체 추출부(310)는 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 밝기값들 간의 상관관계를 이용하여 객체 경계부를 추출한 후, 추출한 객체 경계부에 상응하는 객체 이미지를 추출한다(도 6 참조).For example, after the 2D image is divided into a plurality of regions, the object extracting unit 310 extracts object boundaries using the correlation between the brightness values of the divided regions, and then extracts object images corresponding to the extracted object boundaries (See FIG. 6).

참고로, 이미지의 엣지(edge) 성분은 픽셀의 색 성분 값(R, G, B)이 급격하게 바뀌는 부분으로, 로컬 코스트 값(Local Coast)에 의해 계산될 수 있다. 도 6의 (a)는 객체 이미지의 전체 경계부를 추출한 일 예이고, (b)는 객체 이미지 중 관심영역의 경계부를 추출한 일 예이다.For reference, an edge component of an image is a part in which a color component value (R, G, B) of a pixel is abruptly changed, and can be calculated by a local cost value. 6 (a) is an example of extracting the entire boundary of the object image, and FIG. 6 (b) is an example of extracting the boundary of the object region from the object image.

다른 일 예로, 객체 추출부(310)는 분할영역의 색상 유사도 및 픽셀 거리 등에 기초하여 각 픽셀간의 결합력을 계산한 다음, 결합력이 높은 픽셀끼리 그룹핑하여 객체 경계부를 추출한 후, 추출한 객체 경계부를 이용하여 객체 이미지들을 추출할 수 있다.In another example, the object extracting unit 310 may calculate the binding force between pixels based on the color similarity and the pixel distance of the divided region, then extract the object boundaries by grouping the pixels having high binding power and then use the extracted object boundary You can extract object images.

상기 '색상유사도'는 상기 픽셀 쌍 내의 대비되는 두 개 픽셀의 색상 값의 유사도를 나타내고, 상기 '픽셀간거리'는 결합력을 구하는 두 개 픽셀 간의 상대적 거리를 나타낸다.The 'color similarity' represents a degree of similarity of color values of two contrasting pixels in the pixel pair, and the 'distance between pixels' represents a relative distance between two pixels for obtaining a binding force.

다음으로, 계층화부(320)는, 도 7에서처럼, 분할된 복수 개의 영역(객체)을 깊이 순서에 따라 계층화한다. Next, the layering unit 320 layers the plurality of divided regions (objects) according to the depth order, as shown in FIG.

2D 이미지 내에 깊이 정보가 포함된 경우, 계층화부(320)는 깊이 범위에 따라 분할된 복수 개의 객체들을 그 깊이 순서에 따라 계층화할 수 있다. When the depth information is included in the 2D image, the layering unit 320 may layer a plurality of objects divided according to the depth range according to the depth order.

한편, 다른 일예로, 2D 이미지 내에 깊이 정보가 포함되지 않은 경우, 계층화부(320)는 객체 경계부를 이용하여 추출된 객체 이미지들 간의 주변 밝기값에 따른 순위를 결정한 후, 순위에 따라 임의의 깊이정보를 부여할 수 있다.On the other hand, if the depth information is not included in the 2D image, the layering unit 320 determines a ranking according to the surrounding brightness values between the object images extracted using the object boundary, Information can be given.

참고로, 상기 임의의 깊이정보는 자동 또는 수동(작업자의 입력값)으로 부여될 수 있다.For reference, the arbitrary depth information may be given automatically or manually (an operator's input value).

상기 깊이정보는 후술하는 이미지 렌더링부(330)에서 객체 이미지를 Z축 방향으로 이동하는 거리정보로 환산될 수 있다. 보다 상세한 설명은 후술하도록 한다.The depth information may be converted into distance information for moving the object image in the Z-axis direction in the image rendering unit 330 described later. A more detailed description will be given later.

여기서, 상기 계층화부(320)는 콘트라스트 감도 함수를 이용하여 객체 이미지들 간의 상대적 주변 밝기값을 판단할 수 있고, 상대적 주변 밝기값에 기초하여 객체 이미지들 주변 밝기값에 따른 순위(계층화)를 결정할 수 있다.Here, the layering unit 320 may determine a relative ambient brightness value between the object images using the contrast sensitivity function, and determine a ranking (layering) according to the ambient brightness values of the object images based on the relative ambient brightness value .

예컨대, 도 7을 참조하면, 2D 이미지 내에 12개의 객체 이미지들(m1~m12)이 존재할 경우, 12개의 객체 이미지들(m1~m12)의 상대적 주변 밝기값을 판단한다.For example, referring to FIG. 7, when there are twelve object images m1 to m12 in the 2D image, the relative ambient brightness values of the twelve object images m1 to m12 are determined.

판단 결과, 12개의 객체 이미지들의 주변 밝기값이 제1 그룹(m4, m5, m6, m7, m12), 제2 그룹(m2, m3, m8, m10, m11) 및 제3 그룹(나머지 객체 이미지)로 나타낼 수 있다. 예컨대, 제1 그룹이 → 제2 그룹 → 제3 그룹의 순서로 주변 밝기값이 낮다면, 제1 그룹(m2, m3, m8, m10, m11)은 1순위로 선정되고, 제2 그룹(m2, m3, m8, m10, m11)은 2 순위로 선정되고, 제3 그룹은 제3 순위로 선정될 수 있다.As a result of the determination, the surrounding brightness values of the twelve object images are divided into the first group m4, m5, m6, m7, m12, the second group m2, m3, m8, m10, m11, . For example, if the surrounding brightness values are lower in the order of the first group, the second group, and the third group, the first group m2, m3, m8, m10, and m11 are selected in the first order and the second group m2 , m3, m8, m10, m11) may be selected in the second order, and the third group may be selected in the third order.

또한, 상기 계층화부(320)는 상대적 주변 밝기값(△C)의 크기에 따른 깊이정보(Z)를 부여한다.In addition, the layering unit 320 gives the depth information ? Z according to the magnitude of the relative ambient brightness value? C.

예를 들어, 제1 그룹에 속한 객체 이미지들의 상대적 주변 밝기값이 △C1이고, 제2 그룹에 속한 객체 이미지들의 상대적 주변 밝기값이 △C3이고, 제3 그룹에 속한 객체 이미지들의 상대적 주변 밝기값이 △C7이라고 가정하면, 제1 그룹을 기준으로, 제2 그룹의 객체 이미지들은 △C3 - △C1에 상응하는 깊이정보(Z1)가 부여되고, 제3 그룹의 객체 이미지들은 △C7 - △C3에 상응하는 깊이정보(Z2)가 부여되며, 여기서, 깊이정보는 후술하는 쉬프트 거리값일 수 있다.For example, if the relative ambient brightness value of the object images belonging to the first group is DELTA C1, the relative ambient brightness value of the object images belonging to the second group is DELTA C3, the relative ambient brightness value Assuming that the △ C7, relative to the first group, the object image of the second group △ C3 - △ depth information (△ Z1) corresponding to C1 is given, the object images of the third group are the △ C7 - △ It is assigned the depth information (△ Z2) corresponding to C3, wherein the depth information may be a value shifted the distance, which will be described later.

다음으로, 이미지 렌더링부(330)는 분할된 객체들을 깊이 순서에 따라 3차원 맵핑 공간에서 Z축 방향으로 계층화되도록 렌더링(rendering) 작업을 수행한다.Next, the image rendering unit 330 performs a rendering operation so that the divided objects are layered in the Z-axis direction in the 3D mapping space according to the depth order.

또한, 이미지 렌더링부(330)는 객체 이미지의 주변 밝기값에 따른 순위 및 객체 이미지 별로 부여된 임의의 깊이정보(Z)에 따라 객체 이미지들을 3차원 맵핑 공간에서 Z축 방향으로 계층화되도록 렌더링(rendering) 작업을 수행할 수 있다.In addition, the image rendering unit 330 renders the object images to be layered in the Z-axis direction in the three-dimensional mapping space according to the rank according to the surrounding brightness value of the object image and the arbitrary depth information ( ? Z) rendering can be performed.

여기서, 깊이정보(Z)는 Z축 방향으로 쉬프트되는 거리값을 나타내기 위한 정보일 수 있다. Here, the depth information (△ Z) may be the information for representing the distance value to be shifted in the Z-axis direction.

상기 깊이 계층 이미지 제작부(340)는 이미지 렌더링부(330)에서 렌더링된 객체 이미지들을 포함하는 깊이 계층 이미지를 획득한다.The depth layer image production unit 340 acquires a depth layer image including object images rendered in the image rendering unit 330.

다음으로, 3D 투영부(500)는 가상공간 획득부(400)에서 생성된 3D 가상공간 내에 깊이 계층 이미의 각 분할된 객체들을 깊이 순서에 따라 투영시키는 기능을 한다.Next, the 3D projection unit 500 functions to project each divided object of the depth layer image in the 3D virtual space generated by the virtual space acquisition unit 400 according to the depth order.

이때, 3D 투영부(500)는 깊이 계층 이미지의 분할된 각 객체를 3D 가상공간의 시점과 일치시켜 투영하되, 깊이 계층 이미지의 분할된 각 객체를 깊이 범위에 따라 스케일링함으로써 분할된 각 객체의 경계부가 3D 가상공간의 시점에서 보았을 때 서로 일치하도록 투영할 수 있다.At this time, the 3D projection unit 500 projects each divided object of the depth layer image in accordance with the viewpoint of the 3D virtual space, scales each divided object of the depth layer image according to the depth range, Can be projected so as to coincide with each other when viewed from the viewpoint of the 3D virtual space.

이를 위해 3D 투영부(500)는 사용자의 관찰 시점을 검출한 후, 사용자의 관찰 시점과 상기 깊이 계층 이미지 간의 거리변화 또는 거리에 맞게 상기 객체들 간 깊이 및 상기 객체들의 크기를 스케일링할 수 있다.For this, the 3D projection unit 500 may scale the depth between the objects and the size of the objects according to the distance change or distance between the observation point of the user and the depth layer image, after detecting the observation point of the user.

또한, 3D 투영부(500)는 깊이정보에 따라 깊이 계층 이미지의 분할된 각 객체의 경계부를 안티-알리아싱(anti-alasing) 처리하거나 객체 이미지들 각각의 투명도를 조절하여 투영할 수 있다.In addition, the 3D projection unit 500 may anti-alias the boundary of each divided object of the depth layer image according to the depth information, or may adjust the transparency of each of the object images to be projected.

따라서, 3D 가상공간과 2D 이미지인 깊이 계층 이미지가 VR 상에서 실감나게 입체표현될 수 있다.Therefore, a 3D virtual space and a depth layer image, which is a 2D image, can be stereoscopically expressed on the VR.

그 일 예로, 관찰자 시점과 깊이 계층 이미지 간의 거리 변화에 따라 객체 이미지들의 깊이 및 크기가 스케일링되는 예를 나타낸 도 8을 참조하면, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 d1에서 d2로 가까워지면, 3D 투영부(500)는 깊이 계층 이미지 내의 객체 이미지들(m1, m2, m3, m4, m8, m9, m10, m11)의 깊이정보(Z) 및 크기를 계층 순서에 맞게 조정하게 된다.For example, referring to FIG. 8 illustrating an example in which the depth and size of object images are scaled according to a change in distance between an observer's viewpoint and a depth layer image, if the distance between the observation point of the user and the depth layer image approaches d2 to d2 , 3D projection portion 500 is the depth of the object image in the hierarchical image adapted to the depth information (△ Z) and a layer order of magnitude of (m1, m2, m3, m4 , m8, m9, m10, m11).

이때, 객체 이미지의 깊이정보(Z) 및 크기의 보정값은 d1과 d2의 차(d)에 비례할 수 있고, 계층과 계층 간의 깊이정보(Z)는 서로 다른 값을 가질 수 있다.At this time, the depth information ? Z of the object image and the correction value of the size may be proportional to the difference ? D between d1 and d2, and the depth information ? Z between the layer and the layer may have different values .

예를 들어, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 d1일 때, 제1 계층과 제2 계층 간의 깊이정보가 Z1이고, 제2 계층과 제3 계층 간의 깊이정보가 △Z2라고 가정한다.For example, when the distance between the observation point of the user and the depth layer image is d1, it is assumed that the depth information between the first layer and the second layer is DELTA Z1 and the depth information between the second layer and the third layer is DELTA Z2 .

이후, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 △d 만큼 짧아지면, 제1 계층과 제2 계층 간의 깊이정보는 △Z1→△Z3으로 보정되고, 제2 계층과 제3 계층 간의 깊이정보는 △Z2→△Z4로 보정된다. 또한, 깊이정보의 보정율 만큼 해당 계층의 객체의 이미지의 크기는 축소된다.Then, when the distance between the observation point of the user and the depth layer image becomes shorter by? D, the depth information between the first layer and the second layer is corrected to? Z1? Z3 and the depth information between the second layer and the third layer Is corrected to? Z2? Z4. In addition, the size of the image of the object in the layer is reduced by the correction rate of the depth information.

또한, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 △d 만큼 짧아지면, 제1 계층에 위치한 객체 이미지들의 크기는 상대적으로 커질 수 있다.Also, if the distance between the observation point of the user and the depth layer image is shortened by? D, the size of object images located in the first layer may be relatively large.

상술한 보정과정을 통해 사용자는 관찰 시점에 맞는 원근감 및 입체감을 체감할 수 있고, 또한, 사용자의 관찰 시점에 따라 가변되는 원금감 및 입체감을 체감할 수 있다.Through the above-described correction process, the user can experience the perspective and stereoscopic effect corresponding to the observation point, and can sense the principal and the stereoscopic effect which vary according to the observation point of the user.

도 9 내지 도 10은 도 1에 도시된 장치를 이용하여 획득된 깊이 계층 이미지가 VR 공간에서 실행된 예를 나타낸 예시도이다.Figs. 9 to 10 are diagrams illustrating an example in which a depth layer image obtained using the apparatus shown in Fig. 1 is executed in VR space.

도 9 내지 도 10을 참조하면, 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시장치(100)에서 획득된 깊이 계층 이미지는 3차원 입체 이미지가 아닌, 2D 이미지 내에서 분할된 각 객체 이미지마다 깊이를 부여함으로서, 관찰자의 관찰 시점에서 2D 이미지가 공간적 입체감 및 원근감을 갖도록 나타낸 이미지일 수 있다.9 to 10, the depth layer image acquired by the depth image display apparatus 100 according to an embodiment of the present invention is not a three-dimensional image but a depth image for each divided object image in the 2D image, So that the 2D image at the viewpoint of the observer can be an image showing spatial spatial sensation and perspective sensation.

즉, 깊이 계층 이미지는 종래의 2D - 3D 가공장치와 같이, 복수 개의 2D 이미지를 이용하여 3D 이미지로 가공하는 것이 아니라, 1개의 2D 이미지 만을 이용하여 사용자 시점의 변화에 따라 2D 이미지의 분할된 영역을 깊이 범위의 순서에 맞게 배치하여 3D 가상공간에 투영함으로써 입체갑 및 원근감을 표현한 이미지이다.That is, instead of processing a 3D image using a plurality of 2D images, the depth layer image may be divided into a divided region of a 2D image according to a change of a user's view using only one 2D image, Are arranged in the order of the depth range and projected in the 3D virtual space, thereby expressing the three-dimensional object and perspective.

한편, 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시장치(100)에서 생성된 깊이 계층 이미지는 안경방식이나 무안경 방식의 입체 영상 표시장치(VR 기기)에서 구현될 수 있다. Meanwhile, the depth layer image generated by the depth image display apparatus 100 according to an embodiment of the present invention can be implemented in a stereoscopic image display apparatus (VR apparatus) of a spectacle type or a non-spectacle type.

깊이 계층 이미지 표시장치(100)의 표시소자는 액정표시소자(Liquid Crystal Display, LCD), 전계 방출 표시소자(Field Emission Display, FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 및 유기발광다이오드소자(Organic Light Emitting Diode, OLED)와 같은 전계발광소자(Electroluminescence Device, EL), 전기영동 표시소자(Electrophoresis, EPD) 등의 평판 표시소자 기반으로 구현될 수 있다.The display device of the deep hierarchy image display device 100 includes a liquid crystal display (LCD), a field emission display (FED), a plasma display panel (PDP), and an organic light emitting diode A flat panel display device such as an electroluminescence device (EL) such as an organic light emitting diode (OLED) or an electrophoresis (EPD) device.

또한, 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시장치(100)는 VR(Virtual Reality) 기기와 연동되어, 깊이 계층 이미지를 가상의 3차원 공간에서 구현시킬 수 있다.In addition, the depth image display apparatus 100 according to an embodiment of the present invention can be operated in conjunction with a VR (Virtual Reality) apparatus to implement a depth layer image in a virtual three-dimensional space.

또한, 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시장치(100)는 사용자 단말에서 수행될 수 있으며, 상기 사용자 단말은 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 또한, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.In addition, the depth image display apparatus 100 according to an embodiment of the present invention can be performed in a user terminal, and the user terminal can include a notebook, a desktop, a laptop, and the like. In addition, as a wireless communication device in which portability and mobility are ensured, a wireless communication device such as a PCS (Personal Communication System), a GSM (Global System for Mobile communications), a PDC (Personal Digital Cellular), a PHS (Personal Handyphone System) (International Mobile Telecommunication) -2000, Code Division Multiple Access (CDMA) -2000, W-Code Division Multiple Access (W-CDMA), Wibro (Wireless Broadband Internet) terminals, smart phones, smartpads, , A tablet PC (Tablet PC), and the like.

도 3은 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시방법을 나타낸 방법 흐름도이다. 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시방법은 전술한 본 발명의 깊이 계층 이미지 표시 장치에서 수행되는 방법으로서 실질적으로 동일한 발명이므로 중복되는 설명은 생략하도록 한다.3 is a method flow diagram illustrating a depth layer image display method according to an embodiment of the present invention. The depth layer image display method according to an embodiment of the present invention is substantially the same invention as the method performed in the depth layer image display apparatus of the present invention described above, so that a duplicate description will be omitted.

도 3을 참조하면, 본 발명의 일 실시예에 따른 깊이 계층 이미지 표시 방법(S700)은 입력부(200)에서 노 패럴랙스 포인트에 맞춰 촬영된 2D 이미지 및 공간영상을 입력받은 후, 3D 가상공간 획득부(400)에서 공간영상으로부터 3D 가상공간을 생성(S710)한다. 이후, 깊이 계층 이미지 획득부(300)에서 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득(S720)한다.Referring to FIG. 3, a depth layer image display method (S700) according to an embodiment of the present invention receives a 2D image and a spatial image photographed in accordance with a no parallax point in an input unit 200, The unit 400 creates a 3D virtual space from the spatial image (S710). Thereafter, the depth layer image obtaining unit 300 divides the objects in the 2D image according to the depth range, and obtains a depth layer image obtained by layering the divided objects in the depth order (S720).

다음으로, 3D 투영부(500)에서 3D 가상공간 내에 깊이 계층 이미지의 각 분할된 객체들을 깊이 순서에 따라 계층화하여 투영(S730)한다.Next, in the 3D projection unit 500, each divided object of the depth hierarchy image in the 3D virtual space is layered and projected in depth order (S730).

도 4는 2D 이미지에 깊이정보가 포함되지 않은 경우의 깊이 계층 이미지를 획득하는 단계를 설명하는 흐름도이다.4 is a flowchart illustrating a step of acquiring a depth layer image in the case where depth information is not included in a 2D image.

도 4를 참조하면, 깊이 계층 이미지를 획득하는 방법(S720)은 먼저, 깊이 계층 이미지 획득부(300)에 2D 이미지가 입력(S721)되면, 객체 추출부(310)에서 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 밝기값들 간의 상관관계를 이용하여 객체 경계부를 추출하거나 또는 분할영역의 색상 유사도 및 픽셀 거리 등에 기초하여 각 픽셀간의 결합력을 계산한 다음, 결합력이 높은 픽셀끼리 그룹핑하여 객체 경계부를 추출한 후, 추출한 객체 경계부를 이용하여 객체 이미지들을 추출(S722)한다.Referring to FIG. 4, a method 500 for acquiring a depth layer image (S720) first inputs a 2D image to the depth layer image acquiring unit 300 (S721) The boundary between the pixels is calculated based on the color similarity degree and the pixel distance of the divided region or the like, and then groups of pixels having high bonding strength are grouped After extracting the object boundary, object images are extracted using the extracted object boundary (S722).

이후, 깊이 계층 이미지 획득부(300)의 계층화부(320)에서 추출된 객체 이미지들 간의 주변 밝기값에 따른 순위를 결정한 후, 순위에 따라 임의의 깊이정보를 부여(S723)한다.After ranking the object images extracted by the layering unit 320 of the depth layer image obtaining unit 300 according to the surrounding brightness values, arbitrary depth information is given according to the ranking (S723).

여기서, 상기 계층화부(320)는 콘트라스트 감도 함수를 이용하여 객체 이미지들 간의 상대적 주변 밝기값을 판단할 수 있고, 상대적 주변 밝기값에 기초하여 객체 이미지들 주변 밝기값에 따른 순위(계층화)를 결정할 수 있다.Here, the layering unit 320 may determine a relative ambient brightness value between the object images using the contrast sensitivity function, and determine a ranking (layering) according to the ambient brightness values of the object images based on the relative ambient brightness value .

예컨대, 도 7를 참조, 2D 이미지 내에 12개의 객체 이미지들(m1~m12)이 존재할 경우, 12개의 객체 이미지들(m1~m12)의 상대적 주변 밝기값을 판단한다.For example, referring to FIG. 7, when there are twelve object images m1 to m12 in the 2D image, the relative ambient brightness values of the twelve object images m1 to m12 are determined.

판단 결과, 12개의 객체 이미지들의 주변 밝기값이 제1 그룹(m4, m5, m6, m7, m12), 제2 그룹(m2, m3, m8, m10, m11) 및 제3 그룹(나머지 객체 이미지)로 나타낼 수 있다. 예컨대, 제1 그룹이 → 제2 그룹 → 제3 그룹의 순서로 주변 밝기값이 낮다면, 제1 그룹(m2, m3, m8, m10, m11)은 1순위로 선정되고, 제2 그룹(m2, m3, m8, m10, m11)은 2 순위로 선정되고, 제3 그룹은 제3 순위로 선정될 수 있다.As a result of the determination, the surrounding brightness values of the twelve object images are divided into the first group m4, m5, m6, m7, m12, the second group m2, m3, m8, m10, m11, . For example, if the surrounding brightness values are lower in the order of the first group, the second group, and the third group, the first group m2, m3, m8, m10, and m11 are selected in the first order and the second group m2 , m3, m8, m10, m11) may be selected in the second order, and the third group may be selected in the third order.

또한, 상기 계층화부(320)는 상대적 주변 밝기값(△C)의 크기에 따른 깊이정보(Z)를 부여한다.In addition, the layering unit 320 gives the depth information ? Z according to the magnitude of the relative ambient brightness value? C.

예를 들어, 제1 그룹에 속한 객체 이미지들의 상대적 주변 밝기값이 △C1이고, 제2 그룹에 속한 객체 이미지들의 상대적 주변 밝기값이 △C3이고, 제3 그룹에 속한 객체 이미지들의 상대적 주변 밝기값이 △C7이라고 가정하면, 제1 그룹을 기준으로, 제2 그룹의 객체 이미지들은 △C3 - △C1에 상응하는 깊이정보(Z1)가 부여되고, 제3 그룹의 객체 이미지들은 △C7 - △C3에 상응하는 깊이정보(Z2)가 부여되며, 여기서, 깊이정보는 후술하는 쉬프트 거리값일 수 있다.For example, if the relative ambient brightness value of the object images belonging to the first group is DELTA C1, the relative ambient brightness value of the object images belonging to the second group is DELTA C3, the relative ambient brightness value Assuming that the △ C7, relative to the first group, the object image of the second group △ C3 - △ depth information (△ Z1) corresponding to C1 is given, the object images of the third group are the △ C7 - △ It is assigned the depth information (△ Z2) corresponding to C3, wherein the depth information may be a value shifted the distance, which will be described later.

다음으로, 이미지 렌더링부(330)에서 객체 이미지의 주변 밝기값에 따른 순위 및 객체 이미지 별로 부여된 임의의 깊이정보(Z)에 따라 객체 이미지들을 3차원 맵핑 공간에서 Z축 방향으로 계층화되도록 렌더링(rendering) 과정(S724)을 수행한다.Next, the image rendering unit 330 renders the object images to be layered in the Z-axis direction in the three-dimensional mapping space according to the rank according to the surrounding brightness value of the object image and the arbitrary depth information ( ? Z) a rendering process S724 is performed.

상기 깊이 계층 이미지 제작부(340)는 이미지 렌더링부(330)에서 렌더링(rendering)한 객체 이미지들을 포함하는 깊이 계층 이미지를 생성(획득)(S725)한다.The depth layer image production unit 340 generates (acquires) a depth layer image including object images rendered by the image rendering unit 330 (S725).

다음으로 S730 단계는 3D 투영부(500)에서 사용자의 관찰 시점을 검출한 후, 사용자의 관찰 시점과 상기 깊이 계층 이미지 간의 거리변화에 따라 상기 객체들 간 깊이 및 상기 객체들의 크기를 스케일링하는 단계일 수 있다.Next, in step S730, the 3D projection unit 500 detects the user's observation point and scales the depth between the objects and the size of the objects according to the distance change between the observation point of the user and the depth layer image .

또한, 상기 S730 단계는 3D 투영부(500)에서 깊이정보에 따라 각 객체의 경계부를 안티-알리아싱(anti-alasing) 처리하거나 객체 이미지들 각각의 투명도를 조절하는 단계를 포함할 수 있다.In step S730, the 3D projection unit 500 may anti-alias the boundary of each object according to the depth information or adjust the transparency of each of the object images.

그 일 예로, 사용자 시점과 깊이 계층 이미지 간의 거리 변화에 따라 객체 이미지들 깊이 및 크기가 보정되는 예를 나타낸 도 8을 참조하면, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 d1에서 d2로 가까워지면, 3D 투영부(500)는 깊이 계층 이미지 내의 객체 이미지들(m1, m2, m3, m4, m8, m9, m10, m11)의 깊이정보(Z) 및 크기를 계층 순서에 맞게 조정하게 된다.Referring to FIG. 8 illustrating an example in which the depth and size of object images are corrected according to the distance between the user viewpoint and the depth layer image, when the distance between the user's viewpoint and the depth layer image approaches d1 to d2 , 3D projection portion 500 is the depth of the object image in the hierarchical image adapted to the depth information (△ Z) and a layer order of magnitude of (m1, m2, m3, m4 , m8, m9, m10, m11).

이때, 객체 이미지의 깊이정보(Z) 및 크기의 보정값은 d1과 d2의 차(d)에 비례할 수 있고, 계층과 계층 간의 깊이정보(Z)는 서로 다른 값을 가질 수 있다.At this time, the depth information ? Z of the object image and the correction value of the size may be proportional to the difference ? D between d1 and d2, and the depth information ? Z between the layer and the layer may have different values .

예를 들어, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 d1일 때, 제1 계층과 제2 계층 간의 깊이정보가 Z1이고, 제2 계층과 제3 계층 간의 깊이정보가 △Z2라고 가정한다.For example, when the distance between the observation point of the user and the depth layer image is d1, it is assumed that the depth information between the first layer and the second layer is DELTA Z1 and the depth information between the second layer and the third layer is DELTA Z2 .

이후, 사용자의 관찰 시점과 깊이 계층 이미지 간의 거리가 △d 만큼 짧아지면, 제1 계층과 제2 계층 간의 깊이정보는 △Z1→△Z3으로 보정되고, 제2 계층과 제3 계층 간의 깊이정보는 △Z2→△Z4로 보정된다. 또한, 깊이정보의 보정율 만큼 해당 계층의 객체의 이미지의 크기는 축소된다.Then, when the distance between the observation point of the user and the depth layer image becomes shorter by? D, the depth information between the first layer and the second layer is corrected to? Z1? Z3 and the depth information between the second layer and the third layer Is corrected to? Z2? Z4. In addition, the size of the image of the object in the layer is reduced by the correction rate of the depth information.

또한, 사용자 시점과 깊이 계층 이미지 간의 거리가 △d 만큼 짧아지면, 제1 계층에 위치한 객체 이미지들의 크기는 상대적으로 커질 수 있다.Also, if the distance between the user viewpoint and the depth layer image is shortened by? D, the size of object images located in the first layer can be relatively large.

상술한 스케일링 과정을 통해 사용자는 사용자의 관찰 시점 변화 및/또는 사용자의 관찰 시점에 맞게 깊이 계층 이미지의 공간적 입체감 및 원근감을 체감할 수 있다.Through the above-described scaling process, the user can experience spatial spatial sensibility and perspective of the depth layer image according to the change of the viewing point of the user and / or the observation point of the user.

따라서, 본 발명의 일 실시예에 따른 VR에서의 깊이 계층 이미지 표시장치 및 방법은 3D 가상공간 내에 투영된 2D 이미지를 사용자의 관찰 시점에 맞게 2D 이미지 내의 객체 마다 깊이 및 크기를 조절할 수 있고, 또한, 사용자의 관찰 시점의 변화에 따라 2D 이미지 내의 객체 마다 깊이 및 크기를 조절할 수 있으므로, 2D 이미지의 공간적 입체감 및 원근감을 실감나게 표현할 수 있다는 이점을 제공한다.Accordingly, an apparatus and a method for displaying a depth layer image in a VR according to an embodiment of the present invention can adjust a depth and a size of a 2D image projected in a 3D virtual space according to an observation point of a user, , The depth and size of each object in the 2D image can be adjusted according to the change of the observation point of the user, so that the spatial stereoscopic effect and perspective of the 2D image can be expressed realistically.

따라서, 상술한 이점을 통해 VR 기기 내에 펼쳐지는 가상의 3D 공간 내에서 웹툰 및 사진들에 입체감 및 생동감을 불어넣을 수 있다는 이점이 있다.Accordingly, the advantage of the above-described advantage is that the three-dimensional image and the vividness can be infused to the webtoon and the photographs in the virtual 3D space deployed in the VR device.

도 11은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.FIG. 11 is a diagram illustrating an exemplary computing environment in which one or more embodiments disclosed herein may be implemented, and is illustrative of a system 1000 including a computing device 1100 configured to implement one or more of the above- / RTI > For example, the computing device 1100 may be a personal computer, a server computer, a handheld or laptop device, a mobile device (mobile phone, PDA, media player, etc.), a multiprocessor system, a consumer electronics device, A distributed computing environment including any of the above-described systems or devices, and the like.

컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. The computing device 1100 may include at least one processing unit 1110 and memory 1120. [ The processing unit 1110 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application specific integrated circuit (ASIC), a field programmable gate array And may have a plurality of cores.

메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. The memory 1120 can be a volatile memory (e.g., RAM, etc.), a non-volatile memory (e.g., ROM, flash memory, etc.) or a combination thereof. In addition, the computing device 1100 may include additional storage 1130. Storage 1130 includes, but is not limited to, magnetic storage, optical storage, and the like. The storage 1130 may store computer readable instructions for implementing one or more embodiments as disclosed herein, and other computer readable instructions for implementing an operating system, application programs, and the like. The computer readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110. In addition, computing device 1100 may include input device (s) 1140 and output device (s) 1150.

여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다. 또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. Here, input device (s) 1140 may include, for example, a keyboard, a mouse, a pen, a voice input device, a touch input device, an infrared camera, a video input device, or any other input device. Also, output device (s) 1150 can include, for example, one or more displays, speakers, printers, or any other output device. In addition, computing device 1100 may use an input device or output device included in another computing device as input device (s) 1140 or output device (s) 1150. [ The computing device 1100 may also include communication connection (s) 1160 that allow the computing device 1100 to communicate with other devices (e.g., computing device 1300).

여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. (S) 1160 may include a modem, a network interface card (NIC), an integrated network interface, a radio frequency transmitter / receiver, an infrared port, a USB connection or other Interface. Also, the communication connection (s) 1160 may include a wired connection or a wireless connection. Each component of the computing device 1100 described above may be connected by various interconnects (e.g., peripheral component interconnect (PCI), USB, firmware (IEEE 1394), optical bus architecture, etc.) And may be interconnected by the network 1200. As used herein, the terms "component," "system," and the like generally refer to a computer-related entity, which is hardware, a combination of hardware and software, software, or software in execution.

예를 들어, 구성요소는 프로세서 상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, an element may be, but is not limited to being, a processor, an object, an executable, an executable thread, a program and / or a computer running on a processor. For example, both the application running on the controller and the controller may be components. One or more components may reside within a process and / or thread of execution, and the components may be localized on one computer and distributed among two or more computers.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited to the above-described embodiments and the accompanying drawings. It will be apparent to those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100: VR에서의 깊이 계층 이미지 표시장치
200: 입력부
300: 깊이 계층 이미지 획득부
310: 객체 추출부
320: 계층화부
330: 이미지 렌더링부
340: 깊이 계층 이미지 제작부
400: 3D 가상공간 획득부
500: 3D 투영부
100: depth layer image display device in VR
200: Input unit
300: depth layer image acquiring unit
310:
320:
330: image rendering unit
340: Depth layer image production section
400: 3D virtual space acquiring unit
500: 3D projection unit

Claims (16)

노 패럴랙스 포인트에 맞춰 촬영된 2D 이미지 및 공간영상을 입력받는 입력부;
상기 공간영상으로부터 3D 가상공간을 생성하는 가상공간 획득부;
상기 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득하는 깊이 계층 이미지 획득부; 및
상기 3D 가상공간 내에 상기 깊이 계층 이미지의 각 분할된 객체들을 깊이 순서에 따라 계층화하여 투영시키는 3D 투영부를 포함하는 VR에서의 깊이 계층 이미지 표시장치.
An input unit for receiving a 2D image and a spatial image photographed in accordance with a no parallax point;
A virtual space acquiring unit for creating a 3D virtual space from the spatial image;
A depth layer image acquisition unit for dividing objects in the 2D image according to a depth range and acquiring a depth layer image obtained by layering the divided objects in a depth order; And
And a 3D projection unit for layering and projecting each of the divided objects of the depth hierarchy image in a depth order in the 3D virtual space.
제1항에 있어서, 상기 3D 투영부는,
상기 깊이 계층 이미지의 분할된 각 객체를 상기 3D 가상공간의 시점과 일치시켜 투영하되, 상기 깊이 계층 이미지의 분할된 각 객체를 깊이 범위에 따라 스케일링함으로써 분할된 각 객체의 경계부가 상기 3D 가상공간의 시점에서 보았을 때 서로 일치하도록 투영하는 것을 특징으로 하는 VR에서의 깊이 계층 이미지 표시장치.
The 3D projection apparatus according to claim 1,
Wherein each of the divided objects in the depth hierarchy image is projected in conformity with the viewpoint of the 3D virtual space, and each boundary of the divided objects is scaled according to the depth range, And projecting the images so as to coincide with each other when viewed from the viewpoint.
제1항 또는 제2항에 있어서, 상기 3D 투영부는,
상기 깊이 계층 이미지의 분할된 각 객체의 경계부를 안티-알리아싱 처리하여 투영하는 것을 특징으로 하는 VR에서의 깊이 계층 이미지 표시장치.
3. The 3D projection apparatus according to claim 1 or 2,
Wherein the boundary layer of each of the divided objects of the depth hierarchy image is anti-aliased and projected.
제1항에 있어서, 상기 깊이 계층 이미지 획득부는,
상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 밝기값들 간의 상관관계를 이용하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시장치.
The apparatus of claim 1, wherein the depth-
Wherein the 2D image is divided into a plurality of regions based on brightness values of the regions in the 2D image and then the object layer image is obtained using the correlation between brightness values of the divided regions. Depth hierarchy image display.
제1항에 있어서, 상기 깊이 계층 이미지 획득부는,
상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 색상 유사도 및 픽셀 거리 등에 기초하여 각 픽셀간의 결합력을 계산한 후, 결합력이 높은 픽셀끼리 그룹핑하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시장치.
The apparatus of claim 1, wherein the depth-
After dividing the 2D image into a plurality of regions based on the brightness values of the regions in the 2D image, the binding forces between the pixels are calculated based on the color similarity degree and the pixel distance of the divided regions, And acquiring the object hierarchy image in the VR.
제1항에 있어서, 상기 깊이 계층 이미지 획득부는,
상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할된 영역들 간의 주변 밝기값에 따른 순위를 결정한 후, 순위에 따라 분할된 각 영역에 깊이정보를 부여하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시장치.
The apparatus of claim 1, wherein the depth-
After dividing the 2D image into a plurality of regions based on brightness values of the regions in the 2D image, determining a ranking according to the surrounding brightness values between the divided regions, and giving depth information to each divided region To obtain the object hierarchy image. ≪ Desc / Clms Page number 20 >
제6항에 있어서, 상기 깊이 계층 이미지 획득부는,
콘트라스트 감도 함수를 이용하여 분할된 영역들 간의 상대적 주변 밝기값을 판단하고, 상기 상대적 주변 밝기값에 기초하여 분할된 각 영역들 간의 주변 밝기값에 따른 순위를 결정하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시장치.
7. The apparatus of claim 6, wherein the depth-
Determining a relative ambient brightness value between the divided regions using the contrast sensitivity function and determining a ranking based on the surrounding brightness values between the divided regions based on the relative ambient brightness value, Depth hierarchy image display.
제1항에 있어서, 상기 2D 이미지는 깊이정보를 포함하고,
상기 깊이 계층 이미지 획득부는,
상기 2D 이미지에 포함된 깊이정보로 상기 2D 이미지 내의 객체들을 깊이 범위에 따라 복수 개의 영역으로 분할하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시장치.
2. The method of claim 1, wherein the 2D image includes depth information,
Wherein the depth layer image obtaining unit comprises:
And the object layer image is obtained by dividing the objects in the 2D image into a plurality of regions according to a depth range with depth information included in the 2D image.
(a) 노 패럴랙스 포인트에 맞춰 촬영된 2D 이미지 및 공간영상을 입력받는 단계;
(b) 상기 공간영상으로부터 3D 가상공간을 생성하는 단계;
(c) 상기 2D 이미지 내의 객체들을 깊이 범위에 따라 분할하고, 분할된 객체들을 깊이 순서에 따라 계층화한 깊이 계층 이미지를 획득하는 단계; 및
(d) 상기 3D 가상공간 내에 상기 깊이 계층 이미지의 각 분할된 객체들을 깊이 순서에 따라 계층화하여 투영시키는 단계를 포함하는, VR에서의 깊이 계층 이미지 표시방법.
(a) receiving a 2D image and a spatial image photographed in accordance with a no parallax point;
(b) creating a 3D virtual space from the spatial image;
(c) dividing the objects in the 2D image according to a depth range, and obtaining a depth layer image obtained by layering the divided objects in a depth order; And
(d) layering and projecting each of the divided objects of the depth hierarchy image in a depth order in the 3D virtual space.
제9항에 있어서, 상기 (d) 단계는,
상기 깊이 계층 이미지의 분할된 각 객체를 상기 3D 가상공간의 시점과 일치시켜 투영하되, 상기 깊이 계층 이미지의 분할된 각 객체를 깊이 범위에 따라 스케일링함으로써 분할된 각 객체의 경계부가 상기 3D 가상공간의 시점에서 보았을 때 서로 일치하도록 투영하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
10. The method of claim 9, wherein step (d)
Wherein each of the divided objects in the depth hierarchy image is projected in conformity with the viewpoint of the 3D virtual space, and each boundary of the divided objects is scaled according to the depth range, Wherein the projections are projected so as to coincide with each other when viewed from the viewpoint.
제9항 또는 제10항에 있어서, 상기 (d) 단계는,
상기 깊이 계층 이미지의 분할된 각 객체의 경계부를 안티-알리아싱 처리하여 투영하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
11. The method of claim 9 or 10, wherein step (d)
Wherein the boundary layer of each of the divided objects of the depth layer image is anti-aliased and projected.
제9항에 있어서, 상기 (c) 단계는,
상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 밝기값들 간의 상관관계를 이용하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
10. The method of claim 9, wherein step (c)
Wherein the 2D image is divided into a plurality of regions based on brightness values of the regions in the 2D image and then the object layer image is obtained using the correlation between brightness values of the divided regions. How to display depth hierarchy images.
제9항에 있어서, 상기 (c) 단계는,
상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할 영역의 색상 유사도 및 픽셀 거리 등에 기초하여 각 픽셀간의 결합력을 계산한 후, 결합력이 높은 픽셀끼리 그룹핑하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
10. The method of claim 9, wherein step (c)
After dividing the 2D image into a plurality of regions based on the brightness values of the regions in the 2D image, the binding forces between the pixels are calculated based on the color similarity degree and the pixel distance of the divided regions, And obtaining the object hierarchy image in the VR.
제9항에 있어서, 상기 (c) 단계는,
상기 2D 이미지 내의 영역별 밝기값에 기초하여 상기 2D 이미지를 복수 개의 영역으로 분할한 후, 분할된 영역들 간의 주변 밝기값에 따른 순위를 결정한 후, 순위에 따라 분할된 각 영역에 깊이정보를 부여하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
10. The method of claim 9, wherein step (c)
After dividing the 2D image into a plurality of regions based on brightness values of the regions in the 2D image, determining a ranking according to the surrounding brightness values between the divided regions, and giving depth information to each divided region To obtain the object hierarchy image. ≪ Desc / Clms Page number 20 >
제14항에 있어서, 상기 (c) 단계는,
콘트라스트 감도 함수를 이용하여 분할된 영역들 간의 상대적 주변 밝기값을 판단하고, 상기 상대적 주변 밝기값에 기초하여 분할된 각 영역들 간의 주변 밝기값에 따른 순위를 결정하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
15. The method of claim 14, wherein step (c)
Determining a relative ambient brightness value between the divided regions using the contrast sensitivity function and determining a ranking based on the surrounding brightness values between the divided regions based on the relative ambient brightness value, How to display depth hierarchy images.
제9항에 있어서, 상기 2D 이미지는 깊이정보를 포함하고,
상기 (c) 단계는,
상기 2D 이미지에 포함된 깊이정보로 상기 2D 이미지 내의 객체들을 깊이 범위에 따라 복수 개의 영역으로 분할하여 상기 객체 계층 이미지를 획득하는 것을 특징으로 하는, VR에서의 깊이 계층 이미지 표시방법.
10. The method of claim 9, wherein the 2D image comprises depth information,
The step (c)
And dividing the objects in the 2D image into a plurality of regions according to a depth range by using the depth information included in the 2D image to obtain the object layer image.
KR1020180015051A 2017-06-28 2018-02-07 Appartus and method for displaying hierarchical depth image in virtual realilty KR102013917B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170081802 2017-06-28
KR20170081802 2017-06-28

Publications (2)

Publication Number Publication Date
KR20190001896A true KR20190001896A (en) 2019-01-07
KR102013917B1 KR102013917B1 (en) 2019-08-23

Family

ID=65017019

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180015051A KR102013917B1 (en) 2017-06-28 2018-02-07 Appartus and method for displaying hierarchical depth image in virtual realilty

Country Status (1)

Country Link
KR (1) KR102013917B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037362B2 (en) 2019-06-27 2021-06-15 Electronics And Telecommunications Research Institute Method and apparatus for generating 3D virtual viewpoint image
WO2022014836A1 (en) * 2020-07-13 2022-01-20 삼성전자 주식회사 Method and apparatus for displaying virtual objects in different brightnesses
WO2024031999A1 (en) * 2022-08-12 2024-02-15 北京字跳网络技术有限公司 Image layering method and apparatus, electronic device, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010042880A (en) * 1998-04-20 2001-05-25 로버트 디. 섬머 Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
KR20040022100A (en) 2002-09-06 2004-03-11 임인성 Method for generating stereoscopic image from 2D images
US20110074784A1 (en) * 2009-09-30 2011-03-31 Disney Enterprises, Inc Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-d images into stereoscopic 3-d images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010042880A (en) * 1998-04-20 2001-05-25 로버트 디. 섬머 Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
KR20040022100A (en) 2002-09-06 2004-03-11 임인성 Method for generating stereoscopic image from 2D images
US20110074784A1 (en) * 2009-09-30 2011-03-31 Disney Enterprises, Inc Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-d images into stereoscopic 3-d images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
네이버 블로그, "강좌 파노라마 촬영에 있어서 노 패럴랙스 포인트의 효과", 2016.02.05.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037362B2 (en) 2019-06-27 2021-06-15 Electronics And Telecommunications Research Institute Method and apparatus for generating 3D virtual viewpoint image
WO2022014836A1 (en) * 2020-07-13 2022-01-20 삼성전자 주식회사 Method and apparatus for displaying virtual objects in different brightnesses
WO2024031999A1 (en) * 2022-08-12 2024-02-15 北京字跳网络技术有限公司 Image layering method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
KR102013917B1 (en) 2019-08-23

Similar Documents

Publication Publication Date Title
KR102595150B1 (en) Method for controlling multiple virtual characters, device, apparatus, and storage medium
TWI505709B (en) System and method for determining individualized depth information in augmented reality scene
US9576183B2 (en) Fast initialization for monocular visual SLAM
CN105531998B (en) For object detection and the method for segmentation, device and computer program product
US11880956B2 (en) Image processing method and apparatus, and computer storage medium
US11763481B2 (en) Mirror-based augmented reality experience
KR20170122725A (en) Modifying scenes of augmented reality using markers with parameters
AU2014235427A1 (en) Content creation tool
EP3960261A1 (en) Object construction method and apparatus based on virtual environment, computer device, and readable storage medium
US20180219975A1 (en) Sharing Mediated Reality Content
CN113228688B (en) System and method for creating wallpaper images on a computing device
CN107609946B (en) Display control method and computing device
JP2023551727A (en) physical keyboard tracking
KR102013917B1 (en) Appartus and method for displaying hierarchical depth image in virtual realilty
Hoberman et al. Immersive training games for smartphone-based head mounted displays
US20210407125A1 (en) Object recognition neural network for amodal center prediction
CN108028904B (en) Method and system for light field augmented reality/virtual reality on mobile devices
GB2598452A (en) 3D object model reconstruction from 2D images
Selvam et al. Augmented reality for information retrieval aimed at museum exhibitions using smartphones
WO2014102440A1 (en) Method, apparatus and computer program product for image rendering
US11823346B2 (en) AR body part tracking system
JP6168597B2 (en) Information terminal equipment
US20130107008A1 (en) Method, apparatus and computer program product for capturing images
US9218104B2 (en) Image processing device, image processing method, and computer program product
EP2962290B1 (en) Relaying 3d information by depth simulation using 2d pixel displacement

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant