KR101919879B1 - Apparatus and method for correcting depth information image based on user's interaction information - Google Patents

Apparatus and method for correcting depth information image based on user's interaction information Download PDF

Info

Publication number
KR101919879B1
KR101919879B1 KR1020170091489A KR20170091489A KR101919879B1 KR 101919879 B1 KR101919879 B1 KR 101919879B1 KR 1020170091489 A KR1020170091489 A KR 1020170091489A KR 20170091489 A KR20170091489 A KR 20170091489A KR 101919879 B1 KR101919879 B1 KR 101919879B1
Authority
KR
South Korea
Prior art keywords
image
information
depth
interaction information
information image
Prior art date
Application number
KR1020170091489A
Other languages
Korean (ko)
Inventor
민동보
김선민
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020170091489A priority Critical patent/KR101919879B1/en
Application granted granted Critical
Publication of KR101919879B1 publication Critical patent/KR101919879B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

The present invention relates to an apparatus and method for correcting a depth information image based on user interaction information, and more particularly, to an apparatus and method for correcting a depth information image based on user interaction information, correcting the depth information image by receiving interaction information about an error part of the depth information image by the simple drawing of a user. The apparatus for correcting a depth information image based on user interaction information according to the present invention includes: a receiving unit for receiving a depth information image estimated by at least one depth estimation apparatus and a color information image photographed by at least one color photographing apparatus; an input unit for inputting the interaction information into the received color information image; a divided image generating unit for generating a divided image for distinguishing an object from a background using the inputted interaction information and the received color information image; an interpolation unit for interpolating the inputted interaction information using an interpolation method; and a correcting unit for correcting the estimated depth information image using the interpolated interaction information, the color information image, the divided image, and a global objective function.

Description

사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치 및 방법 {Apparatus and method for correcting depth information image based on user's interaction information}Technical Field [0001] The present invention relates to an apparatus and method for correcting a depth information image based on user interaction information,

본 발명은 깊이 정보 영상에 에러가 존재하는 부분에 대한 인터랙션 정보를 사용자의 간단한 드로잉으로 입력 받아서 깊이 정보 영상을 보정하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치 및 방법에 관한 것이다.The present invention relates to a user interaction information based depth information image correction apparatus and method for correcting a depth information image by receiving interaction information on a portion where an error exists in a depth information image as a simple drawing of a user.

깊이 정보 영상은 영상 획득 시에 사용되는 카메라로부터 물체까지의 거리 정보를 포함하고 있다. 깊이 정보 영상은 보행자 검출, 물체 인식, 3D 영화 등의 많은 분야에서 핵심적으로 사용되고 있다. 기존의 깊이 정보 영상을 추출하는 방식은 크게 두 분야로 나누어진다. 여러 대의 카메라에서 획득된 영상들에서 대응점을 추정하여 깊이 정보 영상을 추정하는 수동형 방식과 능동형 센서를 이용하여 반사되는 신호의 위상 또는 시간차를 이용하는 능동형 방식이 있다. 수동형 방식은 여러 대의 카메라를 사용하여 대응점을 추정하는데 많은 비용이 요구되고 추정 성능에 제한이 존재한다. 능동형 방식의 대표적인 예로는 라이더(Lidar), Time-of-Flight 방식 카메라 등이 있지만, 실내 환경에서만 동작하거나, 매우 높은 비용 등의 문제가 존재한다. 최근에는 딥러닝 기술의 획기적인 발전으로 인해 단일 카메라에서 획득된 영상에서 깊이 정보를 추정하는 학습 기반 방식이 여러 연구자들을 통해 연구되고 있다.The depth information image contains the distance information from the camera to the object used in acquiring the image. Depth information images are used in many fields such as pedestrian detection, object recognition, and 3D movie. The method of extracting the existing depth information image is divided into two major areas. There is a passive method of estimating a depth information image by estimating corresponding points in images obtained from a plurality of cameras and an active method using phase or time difference of reflected signals using an active sensor. The passive method requires a lot of cost in estimating the correspondence point using several cameras and there is a limitation on the estimation performance. Typical examples of the active type include a lidar and a time-of-flight type camera, but they operate only in an indoor environment or have a very high cost. In recent years, due to the breakthrough of deep-running technology, a learning-based method of estimating depth information from images obtained from a single camera has been studied by various researchers.

위의 방식들에서 획득되는 깊이 정보 영상은 깊이 정보의 정확도 측면에서 여전히 많은 문제점을 가지고 있다. 특히, 여러 대의 카메라를 사용하는 수동형 방식과 최근의 딥 러닝 기반 단일 영상 깊이 추정 방식은 추정 오차로 인해 부정확한 깊이 정보가 추정되는 경우가 매우 빈번히 발생하기에 고품질의 깊이 영상이 필요한 응용 분야에서 실제 사용하기에는 여전히 제한이 존재한다. The depth information images obtained in the above methods still have many problems in terms of the accuracy of the depth information. In particular, passive methods using multiple cameras and recent deep-run-based single-image-depth-estimation methods often cause inaccurate depth information to be estimated due to estimation errors. Therefore, in applications requiring high- There are still limitations to use.

한국 등록 특허 제 10-1626072호 (등록일: 2016.05.25.)Korean Registered Patent No. 10-1626072 (Registered on May 25, 2015)

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 사용자가 제공하는 최소한의 입력만을 이용하여 깊이 정보 영상에 존재하는 추정 오차를 수정하는 새로운 방식을 제안하기 위해서 안출되었다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is conceived to propose a new method of correcting an estimation error existing in a depth information image using only a minimum input provided by a user.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 본 발명의 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치는 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하는 수신부; 상기 수신된 컬러 정보 영상에 인터랙션 정보를 입력 하는 입력부; 상기 입력된 인터랙션 정보 및 상기 수신된 컬러 정보 영상을 이용하여 객체와 배경을 구분하는 분할 영상을 생성하는 분할 영상 생성부; 보간법을 이용하여 상기 입력된 인터랙션 정보를 보간하는 보간부; 및 상기 보간된 인터랙션 정보, 상기 컬러 정보 영상, 상기 분할 영상 및 전역적 목적 함수를 이용하여 상기 추정된 깊이 정보 영상을 보정하는 보정부; 를 포함한다.According to an aspect of the present invention, there is provided an apparatus for correcting user interaction information based depth information, comprising: a depth information image estimated by at least one depth estimating apparatus; A receiving unit for receiving the color information image; An input unit for inputting interaction information into the received color information image; A divided image generating unit for generating a divided image for distinguishing an object and a background using the inputted interaction information and the received color information image; An interpolation unit interpolating the input interaction information using an interpolation method; And a correcting unit correcting the estimated depth information image using the interpolated interaction information, the color information image, the divided image, and the global objective function. .

본 발명에서 상기 보정부는 상기 보간된 인터랙션 정보와 상기 추정된 깊이 정보 영상을 이용하여 보정을 위한 전역적 목적 함수를 정의하고, 상기 전역적 목적 함수의 최적 해를 찾음으로써 상기 추정된 깊이 정보 영상을 보정할 수 있다.In the present invention, the correction unit may define a global objective function for correction using the interpolated interaction information and the estimated depth information image, find the optimal solution of the global objective function, Can be corrected.

본 발명에서 상기 전역적 목적 함수는 상기 보간된 인터랙션 정보 및 상기 추정된 깊이 정보 영상 중 적어도 하나를 이용하는 데이터 항; 및 상기 분할 영상 및 상기 컬러 정보 영상 중 적어도 하나를 이용하는 사전 지식 항을 포함할 수 있다.In the present invention, the global objective function may include at least one of the interpolated interaction information and the estimated depth information image. And a prior knowledge term using at least one of the segmented image and the color information image.

본 발명에서 상기 보간부는 상기 깊이 정보 영상, 상기 깊이 정보 영상에 해당하는 좌표 맵, 색인 함수, 연관성 함수 및 상기 분할 영상 중 적어도 하나를 이용할 수 있다.In the present invention, the interpolator may use at least one of the depth information image, the coordinate map corresponding to the depth information image, the index function, the relevance function, and the segmented image.

바람직하게는, 상기 전역적 목적 함수가 이용되었으면, 상기 전역적 목적 함수를 1차원 선형 시스템으로 변환하기 위해 근사화 과정을 이용하는 최적화 방법을 이용할 수 있다.Preferably, if the global objective function is used, an optimization method that uses an approximation process to convert the global objective function into a one-dimensional linear system may be used.

또한 상기한 목적을 달성하기 위하여 본 발명의 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법은 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하는 단계; 상기 수신된 컬러 정보 영상에 인터랙션 정보를 입력 하는 단계; 상기 입력된 인터랙션 정보 및 상기 수신된 컬러 정보 영상을 이용하여 객체 영상과 배경 영상을 포함하는 분할 영상을 생성하는 단계; 보간법을 이용하여 상기 입력된 인터랙션 정보를 보간하는 단계; 상기 보간된 인터랙션 정보, 상기 컬러 정보 영상, 상기 분할 영상 및 전역적 목적 함수를 이용하여 상기 추정된 깊이 정보 영상을 보정하는 단계; 를 포함한다.According to another aspect of the present invention, there is provided a method for correcting user interaction information based depth information, the method comprising the steps of: receiving a depth information image estimated by at least one depth estimating apparatus and a color information image picked up by at least one color photographing apparatus; ; Inputting interaction information to the received color information image; Generating a divided image including an object image and a background image using the input interaction information and the received color information image; Interpolating the input interaction information using an interpolation method; Correcting the estimated depth information image using the interpolated interaction information, the color information image, the divided image, and the global objective function; .

본 발명에서 상기 보정하는 단계는 상기 보간된 인터랙션 정보와 상기 추정된 깊이 정보 영상을 비교하여 그 비교한 결과로 상기 추정된 깊이 정보 영상을 보정할 수 있다.In the present invention, the correcting step may compare the interpolated interaction information and the estimated depth information image, and may correct the estimated depth information image as a result of the comparison.

상기 보간된 인터랙션 정보는 보간된 깊이 인터랙션 정보, 상기 분할 영상 중 적어도 하나를 포함할 수 있다. The interpolated interaction information may include at least one of interpolated depth interaction information and the segmented image.

상기 전역적 목적 함수는 상기 보간된 인터랙션 정보 및 상기 추정된 깊이 정보 영상 중 적어도 하나를 이용하는 데이터 항; 및 상기 분할 영상 및 상기 컬러 정보 영상 중 적어도 하나를 이용하는 사전 지식 항; 을 포함할 수 있다. Wherein the global objective function comprises at least one of the interpolated interaction information and the estimated depth information image; And prior knowledge using at least one of the segmented image and the color information image; . ≪ / RTI >

상기 보정하는 단계는 상기 보간된 인터랙션 정보와 상기 추정된 깊이 정보 영상으로 전역적 목적 함수를 정의하고, 정의된 전역적 목적 함수의 최적의 해를 구함으로써 상기 깊이 추정된 깊이 영상을 보정할 수 있다. The correcting step may correct the depth-estimated depth image by defining a global objective function as the interpolated interaction information and the estimated depth information image and obtaining an optimal solution of the defined global objective function .

본 발명에서 상기 보간부는 상기 깊이 정보 영상, 상기 깊이 정보 영상에 해당하는 좌표 맵, 색인 함수, 연관성 함수 및 상기 분할 영상 중 적어도 하나를 이용할 수 있다.In the present invention, the interpolator may use at least one of the depth information image, the coordinate map corresponding to the depth information image, the index function, the relevance function, and the segmented image.

또한 본 발명은 컴퓨터에서 상기한 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법을 실행시키기 위한 컴퓨터에서 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 개시한다.In addition, the present invention discloses a computer program stored in a computer-readable recording medium for causing a computer to execute the user interaction information-based depth information image correction method.

본 발명은 깊이 정보 영상에 에러가 존재하는 부분에 대한 인터랙션 정보를 사용자의 간단한 드로잉으로 입력 받아서 깊이 정보 영상을 보정할 수 있는 효과가 있다. The present invention has the effect of correcting the depth information image by receiving the interaction information for the portion where the error exists in the depth information image as a simple drawing of the user.

도 1은 본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 입력부가 컬러 정보 영상에 인터랙션 정보를 입력한 영상을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 분할 영상 생성부가 분할 영상을 생성한 영상을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 상기 수신부가 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상을 수신한 영상을 도시한 도면이다.
도 5는 도 4의 깊이 정보 영상을 수학식 10의 최적화를 통해 보정하는 과정에서 유도된 대규모 선형 시스템을 매트랩에서 제공하는 의사 역 행렬(pseudo inverse matrix)연산자로 푸는 방법을 이용하여 보정한 깊이 정보 영상을 도시한 도면이다.
도 6은 도 4의 깊이 정보 영상을 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 장치를 이용하여 보정한 깊이 정보 영상을 도시한 도면이다.
도 7은 최종 추정 오차가 적은 Time-of-Flight 방식 카메라로 추정한 깊이 정보 영상을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 입력부가 컬러 정보 영상에 인터랙션 정보를 입력한 영상을 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 상기 수신부가 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상을 수신한 영상을 도시한 도면이다.
도 10은 도 9의 깊이 정보 영상을 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 장치를 이용하여 보정한 깊이 정보 영상을 도시한 도면이다.
도 11은최종 추정 오차가 적은 Time-of-Flight 방식 카메라로 추정한 깊이 정보 영상을 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용했을 때와 수학식 10의 최적화를 통해 보정하는 과정에서 유도된 대규모 선형시스템을 매트랩에서 제공하는 의사 역 행렬 연산자로 푸는 방법으로 이용했을 때의 보정 수행 시간을 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법의 흐름도이다.
1 is a block diagram of a user interaction information-based depth information image correction apparatus according to an exemplary embodiment of the present invention.
2 is a diagram illustrating an image in which interaction information is input to an input color information image according to an exemplary embodiment of the present invention.
FIG. 3 is a diagram illustrating an image in which a divided image generator generates a divided image according to an embodiment of the present invention. Referring to FIG.
4 is a diagram illustrating an image in which the receiver receives a depth information image estimated by at least one depth estimation apparatus according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method of decoding a depth information image of FIG. 4 by using a pseudo inverse matrix operator provided by MATLAB, Fig.
FIG. 6 is a view showing a depth information image obtained by correcting the depth information image of FIG. 4 using a correction device of a user information-based depth information image.
7 is a view showing a depth information image estimated by a time-of-flight camera having a small final estimation error.
8 is a diagram illustrating an image in which interaction information is input to an input color information image according to an exemplary embodiment of the present invention.
9 is a diagram illustrating an image in which the receiver receives a depth information image estimated by at least one depth estimation apparatus according to an embodiment of the present invention.
10 is a view showing a depth information image obtained by correcting the depth information image of FIG. 9 using a correction device of a user information-based depth information image.
11 is a view showing a depth information image estimated by a time-of-flight camera having a small final estimation error.
12 is a flowchart illustrating a method for correcting a user interaction information based depth information image according to an embodiment of the present invention and a pseudo inverse matrix And the correction execution time when it is used as a method of loosening by the operator.
13 is a flowchart of a method of correcting a depth information image based on user interaction information according to an embodiment of the present invention.

이하, 본 발명의 일 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하에서는 본 발명의 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치의 구성을 관련된 도면을 참조하여 상세히 설명한다.Hereinafter, a configuration of a user interaction information-based depth information image correction apparatus according to an embodiment of the present invention will be described in detail with reference to related drawings.

도 1은 본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치의 블록도이다.1 is a block diagram of a user interaction information-based depth information image correction apparatus according to an exemplary embodiment of the present invention.

사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치는 수신부(110), 입력부(120), 분할 영상 생성부(130), 보간부(140) 및 보정부(150)를 포함한다.The user interaction information based depth information image correction apparatus includes a receiving unit 110, an input unit 120, a divided image generating unit 130, an interpolation unit 140, and a correction unit 150.

상기 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치는 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하고, 상기 촬영된 컬러 정보 영상에 인터랙션 정보를 입력 하고, 물체-배경 인터랙션 정보로 객체 영상과 배경 영상을 포함하는 분할 영상을 생성하고, 보간법을 이용하여 상기 입력된 인터랙션 정보를 보간하여 보간된 인터랙션 정보를 생성하고, 상기 보간된 인터랙션 정보를 이용하여 상기 깊이 정보 영상을 보정한다.Wherein the user interaction-information-based depth information image correction device receives the depth information image estimated by at least one depth estimation device and the color information image photographed by at least one color photographing device, Generates a divided image including an object image and a background image as object-background interaction information, generates interpolated interaction information by interpolating the inputted interaction information using an interpolation method, and outputs the interpolated interaction information Is used to correct the depth information image.

상기 수신부(110)는 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신한다. The receiving unit 110 receives a depth information image estimated by at least one depth estimation apparatus and a color information image photographed by at least one color photographing apparatus.

상기 깊이 추정 장치는 Time-of-Flight 방식의 카메라와 같은 장치일 수 있다. 상기 컬러 촬영 장치는 디지털 카메라와 같은 카메라일 수 있다.The depth estimating apparatus may be a device such as a time-of-flight camera. The color photographing apparatus may be a camera such as a digital camera.

상기 입력부(120)는 촬영된 상기 컬러 정보 영상에 인터랙션 정보를 입력한다.The input unit 120 inputs the interaction information to the captured color information image.

상기 인터랙션 정보는 깊이 인터랙션 정보, 물체 인터랙션 정보 및 배경 인터랙션 정보를 포함할 수 있다. 예를 들어, 상기 깊이 인터랙션 정보는 사용자가 초록색으로 입력한 정보일 수 있고, 상기 물체 인터랙션 정보는 사용자가 빨강색으로 입력한 정보일 수 있고, 상기 배경 인터랙션 정보는 사용자가 파랑색으로 입력한 정보일 수 있다. 상기 물체 인터랙션 정보와 상기 배경 인터랙션 정보는 영상 보정을 수행하기 전에 물체 분할 영상을 생성할 때 사용되는 것일 수 있다. The interaction information may include depth interaction information, object interaction information, and background interaction information. For example, the depth interaction information may be information input by the user in green, the object interaction information may be information input by the user in red, and the background interaction information may include information input by the user in blue Lt; / RTI > The object interaction information and the background interaction information may be used to generate an object segment image before performing image correction.

상기 깊이 인터랙션 정보는 사용자가 보정하고자 하는 깊이 정보 영상에 해당하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 물체 인터랙션 정보는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치가 물체로 인식하기를 원하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 배경 인터랙션 정보는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치가 배경으로 인식하기를 원하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다.The depth interaction information may be an interaction information indicating an area corresponding to a depth information image to be corrected by a user, in a color information image. The object interaction information may be an interaction information indicating an area in which the user interaction information based depth information image correction apparatus desires to recognize the object as a color information image. The background interaction information may be an interaction information indicating an area that the user interaction information-based depth information image correction device desires to recognize as a background, on the color information image.

상기 물체 인터랙션 정보와 상기 배경 인터랙션 정보는 보정하고자 하는 물체를 뚜렷히 구분하기 위함이므로 각각 물체와 배경에 대한 대략적인 좌표 정보를 포함할 수 있다. 상기 깊이 인터랙션 정보는 기존의 깊이 정보를 사용자가 원하는 깊이 정보로 보정하기 위함이므로 보정을 원하는 부분의 대략적인 좌표 정보와 해당 좌표에 대응되는 사용자 깊이 정보로 구성할 수 있다.Since the object interaction information and the background interaction information are used to clearly distinguish the object to be corrected, the object interaction information and the background interaction information may include approximate coordinate information about the object and the background, respectively. Since the depth interaction information is used to correct the existing depth information to the depth information desired by the user, the depth interaction information can be composed of the approximate coordinate information of the part to be corrected and the user depth information corresponding to the corresponding coordinate.

상기 분할 영상 생성부(130)는 객체와 배경을 구분하는 분할 영상을 생성한다. 상기 분할 영상 생성부(130)는 물체 인터랙션 정보와 배경 인터랙션 정보, 수신부(110)에서 수신 받은 컬러 정보 영상을 이용하여 객체와 배경을 구분하는 분할 영상을 생성한다. 상기 물체 인터랙션 정보는 사용자가 빨강색으로 입력한 정보일 수 있고, 보정을 목표로하는 물체에 대한 좌표 정보를 포함할 수 있다. 상기 배경 인터랙션 정보는 사용자가 파랑색으로 입력한 정보일 수 있고, 보정을 목표로하는 물체 주위의 배경에 대한 좌표 정보를 포함할 수 있다. 상기 분할 영상은 물체 인터랙션과 배경 인터랙션에 의해 보정 목표 물체와 배경을 구분할 수 있다.The divided image generator 130 generates a divided image for distinguishing the object and the background. The divided image generating unit 130 generates a divided image that distinguishes an object and a background using object interaction information, background interaction information, and color information image received from the receiving unit 110. The object interaction information may be information input by a user in red, and may include coordinate information on an object targeted for correction. The background interaction information may be information input by the user in a blue color, and may include coordinate information about a background around an object aiming at correction. The segmented image can distinguish the corrected target object from the background by the object interaction and the background interaction.

상기 분할 영상을 생성하는 과정은 수학식 22, 수학식 23, 수학식 24에 자세하게 설명 되어있다. The process of generating the divided image is described in detail in Equation (22), Equation (23), and Equation (24).

상기 보간부(140)는 보간법을 이용하여 상기 입력된 깊이 인터랙션 정보를 보간하여 보간된 인터랙션 정보를 생성한다. 상기 깊이 인터랙션 정보는 사용자가 초록색으로 입력한 정보일 수 있고, 보정을 원하는 부분의 좌표와 그에 대응되는 보정 후 깊이 정보를 포함할 수 있다.The interpolator 140 interpolates the input depth interaction information using an interpolation method to generate interpolated interaction information. The depth interaction information may be information input by a user in green, and may include coordinates of a part to be corrected and corresponding post-correction depth information.

상기 보간부(140)가 보간법을 이용하여 상기 보간된 인터랙션 정보를 생성하는 과정은 후술하는 수학식 4, 수학식 5, 수학식 6, 수학식7, 수학식 8 및 수학식 9에 자세하게 설명 되어있다. 상기 보간법은 깊이 인터랙션 정보, 수신 받은 컬러 정보 영상과 상기 분할 영상 생성부(130)에서 생성된 객체-배경 분할 영상를 이용하여 상기 보간된 인터랙션 정보를 생성한다. The interpolation unit 140 generates the interpolated interaction information using the interpolation method according to Equations (4), (5), (6), (7), (8) and (9) have. The interpolation method generates the interpolated interaction information using the depth interaction information, the received color information image, and the object-background divided image generated by the divided image generating unit 130.

상기 보간된 인터랙션 정보는 제1 보간 인터랙션 정보와 제2 보간 인터랙션 정보를 포함할 수 있다. 상기 제1 보간 인터랙션 정보와 상기 제2 보간 인터랙션 정보는 수신 받은 깊이 정보 영상의 크기만큼의 정보로 구성될 수 있다. 상기 제1 보간 인터랙션 정보와 제2 보간 인터랙션 정보는 각각 보간된 깊이 인터랙션 정보와 보간된 인덱싱 인터랙션 정보에 해당하는 정보일 수 있다. The interpolated interaction information may include first interpolation interaction information and second interpolation interaction information. The first interpolation interaction information and the second interpolation interaction information may include information corresponding to the size of the received depth information image. The first interpolation interaction information and the second interpolation interaction information may be information corresponding to interpolated depth interaction information and interpolated indexing interaction information, respectively.

상기 보정부(150)는 상기 수신부(110)의 컬러 정보 영상과 상기 분할 영상 생성부(130)의 분할 영상, 상기 보간부(140)의 보간된 인터랙션 정보를 이용하여 상기 깊이 추정 정보 영상을 보정한다. 상기 보정부(150)가 전역적 목적 함수를 정의하여 상기 깊이 추정 영상을 보정하는 과정은 후술하는 수학식 10, 수학식 11, 수학식 12, 수학식 13, 수학식 14, 수학식 15, 수학식 16, 수학식 17, 수학식 18, 수학식 19, 수학식 20 및 수학식 21에 자세하게 설명 되어있다. The correction unit 150 corrects the depth estimation information image using the color information image of the reception unit 110, the divided image of the divided image generation unit 130, and the interpolated interaction information of the interpolation unit 140, do. The process of correcting the depth estimation image by defining the global objective function by the correction unit 150 may be performed using Equation 10, Equation 11, Equation 12, Equation 13, Equation 14, Equation 15, (16), (17), (18), (19), (20) and (21).

상기 전역적 목적 함수는 상기 보간된 인터랙션 정보 및 상기 수신된 깊이 추정 영상을 이용하는 데이터 항과 그에 대한 사전 지식 항으로 구성된다. 상기 데이터 항은 보간된 인터랙션 정보를 이용하여 수신된 깊이 추정 영상을 보정하는 항일 수 있고, 상기 사전 지식 항은 보정된 깊이 정보 영상을 평활화 해주기 위해 존재하는 항일 수 있다.The global objective function consists of a data term using the interpolated interaction information and the received depth estimation image and a dictionary term for the term. The data term may be a term that corrects the received depth estimation image using the interpolated interaction information, and the prior knowledge term may be a term that exists to smooth out the corrected depth information image.

도 2는 본 발명의 일 실시예에 따른 입력부(120)가 컬러 정보 영상에 인터랙션 정보를 입력한 영상을 도시한 도면이다.2 is a diagram illustrating an image in which an input unit 120 according to an embodiment of the present invention inputs interaction information to a color information image.

상기 입력부(120)는 촬영된 상기 컬러 정보 영상에 인터랙션 정보를 입력한다.The input unit 120 inputs the interaction information to the captured color information image.

상기 인터랙션 정보는 깊이 인터랙션 정보(210), 물체 인터랙션 정보(230) 및 배경 인터랙션 정보(220)를 포함할 수 있다. 예를 들어, 상기 깊이 인터랙션 정보(210)는 사용자가 초록색으로 입력한 정보일 수 있고, 보정을 원하는 부분의 좌표와 그에 대응되는 보정 후 깊이 정보를 포함할 수 있다. 상기 물체 인터랙션 정보(230)는 사용자가 빨강색으로 입력한 정보일 수 있고, 보정을 목표로하는 물체에 대한 좌표 정보를 포함할 수 있다. 상기 배경 인터랙션 정보(220)는 사용자가 파랑색으로 입력한 정보일 수 있고, 보정을 목표로하는 물체 주위 배경에 대한 좌표 정보를 포함할 수 있다. 상기 물체 인터랙션 정보(230)와 상기 배경 인터랙션 정보(220)는 영상 보정을 수행하기 전에 물체 분할 영상을 생성할 때 사용되는 것일 수 있다. The interaction information may include depth interaction information 210, object interaction information 230, and background interaction information 220. For example, the depth interaction information 210 may be information input by a user in green, and may include coordinates of a part to be corrected and corresponding post-correction depth information. The object interaction information 230 may be information input by a user in red, and may include coordinate information on an object targeted for correction. The background interaction information 220 may be information input by a user in a blue color, and may include coordinate information about a background around the object aiming at correction. The object interaction information 230 and the background interaction information 220 may be used to generate an object segmented image before performing image correction.

상기 깊이 인터랙션 정보(210)는 사용자가 보정하고자 하는 깊이 정보 영상에 해당하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 물체 인터랙션 정보(230)는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치가 물체로 인식하기를 원하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 배경 인터랙션 정보(220)는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치가 배경으로 인식하기를 원하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 분할 영상 생성부(130)는 상기 물체 인터랙션 정보(230)와 상기 배경 인터랙션 정보(220)를 이용하여 상기 수학식 18, 수학식 19, 수학식 20에서 객체 영상과 배경 영상을 포함하는 분할 영상을 생성하는 장치일 수 있다.The depth interaction information 210 may be an interaction information indicating an area corresponding to a depth information image to be corrected by a user in a color information image. The object interaction information 230 may be an interaction information indicating an area that the user interaction information-based depth information image correction device desires to recognize as an object, on the color information image. The background interaction information 220 may be an interaction information indicating an area that the user interaction information-based depth information image correction device desires to recognize as a background, on the color information image. The segmented image generating unit 130 generates a segmented image including the object image and the background image in Equations 18, 19, and 20 using the object interaction information 230 and the background interaction information 220, As shown in FIG.

도 3은 본 발명의 일 실시예에 따른 분할 영상 생성부(130)가 분할 영상을 생성한 영상을 도시한 도면이다.3 is a diagram illustrating an image in which a divided image is generated by the divided image generating unit 130 according to an embodiment of the present invention.

상기 도 3은 상기 물체-객체 인터랙션 정보를 이용하여 객체와(310) 배경 (320)을 구분하는 분할 영상을 생성하는 분할 영상 생성부(130)가 생성한 영상을 도시한 도면일 수도 있다. FIG. 3 is a diagram illustrating an image generated by the divided image generating unit 130 that generates a divided image that distinguishes an object 310 from a background 320 using the object-object interaction information.

상기 분할 영상 생성부(130)는 객체(310)와 배경(320)을 구분하는 분할 영상을 생성한다. 상기 분할 영상 생성부(130)가 객체 영상(310)과 배경 영상(320)을 포함하는 분할 영상을 생성하는 과정은 수학식 18, 수학식 19, 수학식 20에 자세하게 설명 되어있다. The divided image generating unit 130 generates a divided image that distinguishes the object 310 and the background 320 from each other. The process of generating the divided image including the object image 310 and the background image 320 by the divided image generating unit 130 is described in detail in Equations (18), (19), and (20).

도 4는 본 발명의 일 실시예에 따른 상기 수신부(110)가 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상을 수신한 영상을 도시한 도면이다.4 is a diagram illustrating an image in which the receiver 110 receives a depth information image estimated by at least one depth estimation apparatus according to an embodiment of the present invention.

상기 수신부(110)는 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하는 장치일 수 있다.The receiving unit 110 may be a device for receiving a depth information image estimated by at least one depth estimation apparatus and a color information image photographed by at least one color photographing apparatus.

상기 적어도 하나의 깊이 추정 장치가 깊이 정보 영상을 추정한 영상은 도 6의 깊이 정보 영상을 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용하여 보정한 깊이 정보 영상이나 도 7의 MS(Microsoft) Kinect v2를 이용하여 깊이 정보 영상을 추정한 영상과 비교했을 때, 깊이 정보가 분명하지 않은 것을 확인할 수 있다. The depth information image of the at least one depth estimating apparatus is obtained by a depth information image obtained by correcting the depth information image of FIG. 6 using a correction method of the user interaction information based depth information image, When the depth information is estimated using v2, the depth information is not clear.

사용자가 깊이 정보 영상을 보정하기를 원해서 컬러 정보 영상에 입력한 인터랙션 정보인 깊이 인터랙션 정보(410)에 해당하는 영역을 보면, 도 5의 깊이 인터랙션 정보(510)에 해당하는 영역 또는 도 6의 깊이 인터랙션 정보(610)에 해당하는 영역 또는 도 7의 깊이 인터랙션 정보(710)에 해당하는 영역과 비교했을 때, 깊이 정보가 분명하지 않은 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 5의 배경 인터랙션 정보에 해당하는 영역 또는 도 6의 배경 인터랙션 정보에 해당하는 영역 또는 도 7의 배경 인터랙션 정보에 해당하는 영역과 비교했을 때, 깊이 정보가 분명하지 않은 것을 알 수 있다.When the user wants to correct the depth information image, the area corresponding to the depth interaction information 410, which is the interaction information input to the color information image, is the area corresponding to the depth interaction information 510 of FIG. 5 or the depth It can be seen that the depth information is not clear when compared with an area corresponding to the interaction information 610 or an area corresponding to the depth interaction information 710 of FIG. When the area corresponding to the background interaction information is compared with the area corresponding to the background interaction information in Fig. 5 or the area corresponding to the background interaction information in Fig. 6 or the area corresponding to the background interaction information in Fig. 7, It can be seen that the depth information is not clear.

상기 적어도 하나의 깊이 추정 장치가 깊이 정보 영상을 추정한 영상을 보정하기 위해, 도 2의 인터랙션 정보를 입력 받은 컬러 정보 영상이 사용될 수 있다. In order to correct the image estimated by the at least one depth estimating device, the color information image may be used.

도 5는 도 4의 깊이 정보 영상을 수학식 10의 최적화를 통해 보정하는 과정에서 유도된 대규모 선형시스템을 매트랩에서 제공하는 의사 역 행렬 연산자로 푸는 방법을 이용하여 보정한 깊이 정보 영상을 도시한 도면이다. 5 is a view showing a depth information image corrected using a method of extracting a large-scale linear system derived from the process of correcting the depth information image of FIG. 4 through optimization of Equation (10) by a pseudoinverse matrix operator provided by MATLAB to be.

상기 깊이 인터랙션 정보(510)에 해당하는 영역을 보면, 도 6의 깊이 인터랙션 정보(610)에 해당하는 영역 또는 도 7의 깊이 인터랙션 정보(710)에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 6의 배경 인터랙션 정보에 해당하는 영역 또는 도 7의 배경 인터랙션 정보에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다.The area corresponding to the depth interaction information 510 may be one that does not differ greatly from the depth information of the area corresponding to the depth interaction information 610 of Fig. 6 or the depth information of the depth interactions information 710 of Fig. 7 Able to know. In addition, it can be seen that the area corresponding to the background interaction information does not greatly differ from the depth information of the area corresponding to the background interaction information of Fig. 6 or the area corresponding to the background interaction information of Fig.

도 6은 도 4의 깊이 정보 영상을 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 장치를 이용하여 보정한 깊이 정보 영상을 도시한 도면이다. FIG. 6 is a view showing a depth information image obtained by correcting the depth information image of FIG. 4 using a correction device of a user information-based depth information image.

상기 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치는 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하고, 상기 촬영된 컬러 정보 영상에 인터랙션 정보를 입력 하고, 보간법을 이용하여 상기 입력된 인터랙션 정보를 보간하여 보간된 인터랙션 정보를 생성하고, 상기 보간된 인터랙션 정보와 상기 수신된 깊이 정보 영상, 수신된 컬러 정보 영상 및 물체-배경 영상으로 전역적 목적 함수를 정의하여 상기 깊이 정보 영상을 보정한다. Wherein the user interaction-information-based depth information image correction device receives the depth information image estimated by at least one depth estimation device and the color information image photographed by at least one color photographing device, Information of the depth information, the received color information image, and the object-background image, interpolating the input interaction information by interpolation to generate interpolated interaction information, And corrects the depth information image.

상기 깊이 인터랙션 정보(610)에 해당하는 영역을 보면, 도 5의 깊이 인터랙션 정보(510)에 해당하는 영역 또는 도 7의 깊이 인터랙션 정보(710)에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 5의 배경 인터랙션 정보에 해당하는 영역 또는 도 7의 배경 인터랙션 정보에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다.The region corresponding to the depth interaction information 610 may be one that does not differ greatly from the depth information of the region corresponding to the depth interaction information 510 of FIG. 5 or the depth information of the depth interaction information 710 of FIG. 7 Able to know. In addition, the area corresponding to the background interaction information is not significantly different from the depth information of the area corresponding to the background interaction information in Fig. 5 or the area corresponding to the background interaction information in Fig.

보정 과정에서 유도된 대규모 선형시스템을 풀 때,본 발명에서 이용하는 서브시스템으로 분리하여 푸는 방법을 사용하면 상기 매트랩의 의사역행렬 연산자를 이용한 방법 보다 훨씬 빠른 보정 속도를 보장할 수 있다. 상기 본 발명을 이용하여 깊이 정보 영상을 보정하는 속도를 개선하는 것은 도 12에 도시되어 있다. When the large linear system derived in the correction process is solved, the method of solving the problem by using the subsystem used in the present invention can guarantee a correction rate much faster than the method using the pseudoinverse operator of the MATLAB. The improvement of the speed of correcting the depth information image using the present invention is shown in FIG.

도 12는 상기 3.3GHz, 4core의 CPU와 16GB의 RAM인 환경에서 깊이 정보 영상이 보정된 것일 수 있다.FIG. 12 shows the depth information image corrected in the environment of 3.3 GHz, 4 cores CPU and 16 GB RAM.

상기 보정 과정에서 매트랩의 의사역행렬 연산자를 이용하여 보정한 깊이 정보 영상과 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용하여 보정한 깊이 정보 영상은 거의 비슷한 보정 결과를 제공하는 것을 확인할 수 있다. 그러나 도 12를 참조하면, 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용하여 보정한 깊이 정보 영상의 보정 수행 시간이 월등히 빠르다는 것을 확인할 수 있다. In the correction process, it is confirmed that the corrected depth information image using the correction method of the depth information image and the user interaction information based depth information image provided by the MATLAB pseudoinverse operator provides almost similar correction results. However, referring to FIG. 12, it can be seen that the correction execution time of the corrected depth information image is significantly faster by using the correction method of the depth information image based on the user interaction information.

도 7은 최종 추정 오차가 적은 Time-of-Flight 방식 카메라(Microsoft Kinect v2)로 추정한 깊이 정보 영상을 도시한 도면이다. FIG. 7 is a view showing a depth information image estimated by a time-of-flight camera (Microsoft Kinect v2) with a small final estimation error.

상기 Time-of-Flight 방식 카메라는 빛을 쏘아서 반사되어 오는 시간을 측정하여 거리를 추정하는 카메라이다. 상기 Time-of-Flight 방식 카메라를 이용하면 최종 추정 오차적은 깊이 정보 영상을 추정 할 수 있지만, 실내 환경에서만 동작하거나 매우 높은 비용이 요구되어지는 제한이 있을 수 있다.The time-of-flight camera is a camera that measures the time taken to reflect light by shooting light. Using the Time-of-Flight camera, it is possible to estimate a depth information image with a small final estimation error, but it may be limited to operate only in an indoor environment or require a very high cost.

상기 깊이 인터랙션 정보(710)에 해당하는 영역을 보면, 도 5의 깊이 인터랙션 정보(510)에 해당하는 영역 또는 도 6의 깊이 인터랙션 정보(610)에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 5의 배경 인터랙션 정보에 해당하는 영역 또는 도 6의 배경 인터랙션 정보에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다.When the area corresponding to the depth interaction information 710 is viewed, the depth information of the area corresponding to the depth interaction information 510 of FIG. 5 or the depth information of the area corresponding to the depth interaction information 610 of FIG. 6 Able to know. In addition, the area corresponding to the background interaction information is not significantly different from the depth information of the area corresponding to the background interaction information of Fig. 5 or the area corresponding to the background interaction information of Fig.

도 8은 본 발명의 일 실시예에 따른 입력부(120)가 컬러 정보 영상에 인터랙션 정보를 입력한 영상을 도시한 도면이다.FIG. 8 is a diagram illustrating an image in which an input unit 120 according to an embodiment of the present invention inputs interaction information to a color information image.

상기 입력부(120)는 촬영된 상기 컬러 정보 영상에 인터랙션 정보를 입력한다.The input unit 120 inputs the interaction information to the captured color information image.

상기 인터랙션 정보는 깊이 인터랙션 정보(830), 물체 인터랙션 정보(820) 및 배경 인터랙션 정보(810)를 포함할 수 있다. 예를 들어, 상기 깊이 인터랙션 정보(830)는 사용자가 초록색으로 입력한 정보일 수 있고, 보정을 원하는 부분의 좌표와 그에 대응되는 보정 후 깊이 정보를 포함할 수 있다. 상기 물체 인터랙션 정보(820)는 사용자가 빨강색으로 입력한 정보일 수 있고, 보정을 목표로하는 물체에 대한 좌표 정보를 포함할 수 있다. 상기 배경 인터랙션 정보(810)는 사용자가 파랑색으로 입력한 정보일 수 있고, 보정을 목표로하는 물체 주위의 배경에 대한 좌표 정보를 포함할 수 있다. 상기 물체 인터랙션 정보(820)와 상기 배경 인터랙션 정보(810)는 영상 보정을 수행하기 전에 물체 분할 영상을 생성할 때 사용되는 것일 수 있다. The interaction information may include depth interaction information 830, object interaction information 820, and background interaction information 810. For example, the depth interaction information 830 may be information input by a user in green, and may include coordinates of a desired portion to be corrected and corresponding post-correction depth information. The object interaction information 820 may be information input by the user in red, and may include coordinate information on an object targeted for correction. The background interaction information 810 may be information input by a user in a blue color and may include coordinate information on a background around an object aiming at correction. The object interaction information 820 and the background interaction information 810 may be used to generate an object segmented image before performing image correction.

상기 깊이 인터랙션 정보(830)는 사용자가 보정하고자 하는 깊이 정보 영상에 해당하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 물체 인터랙션 정보(820)는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치가 물체로 인식하기를 원하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 배경 인터랙션 정보(810)는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치가 배경으로 인식하기를 원하는 영역을 컬러 정보 영상에 나타낸 인터랙션 정보일 수 있다. 상기 분할 영상 생성부(130)는 상기 물체 인터랙션 정보(820)와 상기 배경 인터랙션 정보(810)를 이용하여 상기 수학식 18, 수학식 19, 수학식 20에서 객체 영상과 배경 영상을 포함하는 분할 영상을 생성하는 장치일 수 있다. The depth interaction information 830 may be an interaction information indicating an area corresponding to a depth information image to be corrected by a user in a color information image. The object interaction information 820 may be an interaction information indicating an area that the user interaction information-based depth information image correction device desires to recognize as an object, on the color information image. The background interaction information 810 may be an interaction information indicating an area that the user interaction information-based depth information image correction device desires to recognize as a background, on the color information image. The segmented image generating unit 130 generates the segmented image including the object image and the background image in Equations 18, 19, and 20 using the object interaction information 820 and the background interaction information 810, As shown in FIG.

도 9는 본 발명의 일 실시예에 따른 상기 수신부(110)가 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상을 수신한 영상을 도시한 도면이다. 9 is a diagram illustrating an image in which the receiver 110 receives a depth information image estimated by at least one depth estimation apparatus according to an embodiment of the present invention.

상기 수신부(110)는 적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하는 장치일 수 있다.The receiving unit 110 may be a device for receiving a depth information image estimated by at least one depth estimation apparatus and a color information image photographed by at least one color photographing apparatus.

상기 적어도 하나의 깊이 추정 장치가 깊이 정보 영상을 추정한 영상은 도 10의 깊이 정보 영상을 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용하여 보정한 깊이 정보 영상이나 도 11의 MS Kinect v2를 이용하여 깊이 정보 영상을 추정한 영상과 비교했을 때, 깊이 정보가 분명하지 않은 것을 확인할 수 있다. 특히, 도 9 또는 도 11에 도시된 바와 같이, 투명한 유리나 거울을 대상으로 깊이를 추정하는 경우에는 MS Kinect v2를 이용하여도 매우 큰 추정 오차가 산출될 수 있다.The depth information image of the at least one depth estimating device is obtained by using the depth information image corrected using the user interaction information depth information image correction method or the MS Kinect v2 shown in FIG. The depth information is not clear when compared with the image obtained by estimating the depth information image. In particular, as shown in FIG. 9 or 11, when estimating the depth of a transparent glass or mirror, a very large estimation error can be calculated using MS Kinect v2.

사용자가 깊이 정보 영상을 보정하기를 원해서 컬러 정보 영상에 입력한 인터랙션 정보인 깊이 인터랙션 정보(910)에 해당하는 영역을 보면, 도 10의 깊이 인터랙션 정보(1010)에 해당하는 영역 또는 도 11의 깊이 인터랙션 정보(1110)에 해당하는 영역과 비교했을 때, 깊이 정보가 분명하지 않은 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 10의 배경 인터랙션 정보에 해당하는 영역 또는 도 11의 배경 인터랙션 정보에 해당하는 영역과 비교했을 때, 깊이 정보가 분명하지 않은 것을 알 수 있다.When a region corresponding to the depth interaction information 910, which is the interaction information inputted to the color information image, is viewed by the user in order to correct the depth information image, the region corresponding to the depth interaction information 1010 of FIG. 10 or the depth It can be seen that the depth information is not clear when compared with the area corresponding to the interaction information 1110. In addition, when viewing the area corresponding to the background interaction information, it is understood that the depth information is not clear when compared with the area corresponding to the background interaction information in Fig. 10 or the area corresponding to the background interaction information in Fig.

도 10은 도 9의 깊이 정보 영상을 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 장치를 이용하여 보정한 깊이 정보 영상을 도시한 도면이다.10 is a view showing a depth information image obtained by correcting the depth information image of FIG. 9 using a correction device of a user information-based depth information image.

상기 깊이 인터랙션 정보(1010)에 해당하는 영역을 보면, 도 11의 깊이 인터랙션 정보(1110)에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 11의 배경 인터랙션 정보에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다. 상기 도 10은 상기 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치를 사용하면 보정하면, MS Kinect v2를 이용하여 추정한 깊이 정보 영상과 유사한 결과를 얻을 수 있다는 것을 나타내는 것일 수 있다.It can be seen that there is no significant difference from the depth information of the area corresponding to the depth interaction information 1110 of FIG. 11 when viewing the area corresponding to the depth interaction information 1010. In addition, it can be seen that the area corresponding to the background interaction information does not greatly differ from the depth information of the area corresponding to the background interaction information of Fig. FIG. 10 shows that a similar result to the depth information image estimated using the MS Kinect v2 can be obtained by using the user interaction information-based depth information image correcting device.

본 발명의 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치는 추정 오차가 크게 산출되는 투명한 유리나 거울을 대상으로 보정을 수행하는 경우에도 정확한 깊이 보정을 수행할 수 있다. 상기 깊이 인터랙션 정보(1110)에 해당하는 영역을 보면, 도 10의 깊이 인터랙션 정보(1010)에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다. 또한, 상기 배경 인터랙션 정보에 해당하는 영역을 보면, 도 10의 배경 인터랙션 정보에 해당하는 영역의 깊이 정보와 큰 차이가 없는 것을 알 수 있다.The user interaction information based depth information image correcting apparatus of the present invention can perform accurate depth correction even when correction is performed on transparent glasses or mirrors in which the estimation error is largely calculated. It can be seen that there is no significant difference from the depth information of the area corresponding to the depth interaction information 1010 of FIG. 10 when viewing the area corresponding to the depth interaction information 1110. In addition, the region corresponding to the background interaction information is not significantly different from the depth information of the region corresponding to the background interaction information of Fig.

도 12는 본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용했을 때와 수학식 10의 최적화를 통해 보정하는 과정에서 유도된 대규모 선형시스템을 매트랩에서 제공하는 의사 역 행렬 연산자로 푸는 보정 방법으로 이용했을 때의 보정 수행 시간을 도시한 도면이다.12 is a flowchart illustrating a method for correcting a user interaction information based depth information image according to an embodiment of the present invention and a pseudo inverse matrix Which is used as a correction method to be eliminated by an operator.

영상 크기가 625 X 468 일 때는, 매트랩의 의사역행렬 연산자로 최적화를 수행하여 보정했을 때(1210)의 보정 수행 시간은 2.11초인 반면, 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용했을 때(1220)의 보정 수행 시간은 0.1초이다.When the image size is 625 x 468, the correction execution time of 1210 is 2.11 seconds when the correction is performed by using the pseudoinverse operator of MATLAB 1210. On the other hand, when the correction method of the depth information image based on the user interaction information is used 1220 ) Is 0.1 second.

영상 크기가 900 X 680 일 때는, 매트랩의 의사역행렬 연산자로 최적화를 수행하여 보정했을 때(1210)의 보정 수행 시간은 2.62초인 반면, 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용했을 때(1220)의 보정 수행 시간은 0.29초이다.When the image size is 900 X 680, the correction execution time of 1210 is 2.62 seconds when the correction is performed by using the pseudoinverse operator of MATLAB 1210. On the other hand, when the correction method of the depth information image based on the user interaction information is used 1220 ) Is 0.29 seconds.

영상 크기가 1200 X 900 일 때는, 매트랩의 의사역행렬 연산자로 최적화를 수행하여 보정했을 때(1210)의 보정 수행 시간은 24.6초인 반면, 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법을 이용했을 때(1220)의 보정 수행 시간은 0.59초이다.When the image size is 1200 X 900, the correction execution time of 1210 is 24.6 seconds when the correction is performed by using the pseudoinverse operator of MATLAB 1210. On the other hand, when the correction method of the depth information image based on the user interaction information is used 1220 ) Is 0.59 seconds.

영상 크기가 900 X 680 일 때와 영상 크기가 1200 X 900 일 때 매트랩의 의사역행렬 연산자로 최적화를 수행하여 보정하면 보정 수행시간은 각각 2.62초와 24.6초이다. 따라서, 영상 해상도가 HD급(1280 X 720) 이상일 때, 매트랩의 의사역행렬로 최적화를 수행한 보정 방법을 이용하면 속도가 현저히 느려질 수 있다. 도 13은 본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법의 흐름도이다.When the image size is 900 X 680 and the image size is 1200 X 900, the correction execution time is 2.62 seconds and 24.6 seconds respectively by optimizing with the pseudoinverse operator of MATLAB. Therefore, when the image resolution is higher than HD (1280 X 720), the speed can be significantly slowed by using the correction method that is optimized with the pseudoinverse of MATLAB. 13 is a flowchart of a method of correcting a depth information image based on user interaction information according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법은 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치에서 시계열적으로 처리되는 다음과 같은 단계들로 구성된다.The user interaction information-based depth information image correction method according to an embodiment of the present invention includes the following steps that are processed in a time-series manner in the user interaction information-based depth information image correction apparatus.

S110에서, 수신부(110)가 깊이 정보 영상 및 컬러 정보 영상을 수신한다.In S110, the receiving unit 110 receives the depth information image and the color information image.

S120에서, 입력부(120)가 촬영된 상기 컬러 정보 영상에 인터랙션 정보를 입력한다.In S120, the input unit 120 inputs the interaction information to the captured color information image.

S130에서, 분할 영상 생성부(130)는 객체 영상과 배경 영상을 포함하는 분할 영상을 생성한다.In step S130, the divided image generating unit 130 generates a divided image including an object image and a background image.

S140에서, 보간부(140)가 상기 입력된 깊이 인터랙션 정보를 보간법을 사용하여 보간된 인터랙선 정보를 생성한다.In step S140, the interpolating unit 140 generates interlace information interpolated using the interpolated depth interworking information.

S150에서, 상기 보정부(150)는 수신 받은 깊이 추정 영상 및 컬러 정보 영상, 보간된 인터랙션 정보 및 생성된 분할 영상을 이용하여 전역적 목적 함수를 정의하고 상기 깊이 정보 영상을 보정한다.In step S150, the correcting unit 150 defines a global objective function and corrects the depth information image using the received depth-estimated image, the color information image, the interpolated interaction information, and the generated divided image.

Figure 112017069262119-pat00001
Figure 112017069262119-pat00001

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00002
: 픽셀 p를 중심으로 상하좌우 픽셀, q: 픽셀 p를 중심으로 상하좌우 픽셀 중 하나의 픽셀,
Figure 112017069262119-pat00003
: 수학식 2와 같은 픽셀 p와 q간의 연관성,
Figure 112017069262119-pat00004
: 입력 영상에서의 픽셀 p의 값,
Figure 112017069262119-pat00005
: 결과 영상에서의 픽셀 p의 값,
Figure 112017069262119-pat00006
: 결과 영상에서의 픽셀 q의 값,
Figure 112017069262119-pat00007
: 영향 파라미터이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00002
: Upper and lower left and right pixels around pixel p, q: One pixel among pixels vertically and horizontally around pixel p,
Figure 112017069262119-pat00003
: The relationship between pixels p and q as in equation (2)
Figure 112017069262119-pat00004
: The value of the pixel p in the input image,
Figure 112017069262119-pat00005
: The value of the pixel p in the resultant image,
Figure 112017069262119-pat00006
: The value of the pixel q in the resultant image,
Figure 112017069262119-pat00007
: Influence parameter.

수학식 1은 영상처리 분야에서 많이 사용되는 WLS(Weighted Least Squres) 문제이고, 본 발명에서는 영상 보정, 영상 분리 과정들을 WLS 문제로 정의하여 영상처리 연산을 수행하였다. 주어진 입력 영상에 대하여 수학식 1를 최소화하는

Figure 112017069262119-pat00008
를 구함으로써 최적의 결과 영상을 얻을 수 있다. 수학식 1의
Figure 112017069262119-pat00009
에 대한 미분값이 0이 될 때 최적의
Figure 112017069262119-pat00010
를 연산함으로 최소화 과정을 수행할 수 있다. 수학식 1, 수학식 2, 수학식 3 및 수학식 4는 통상적인 WLS 문제에 관련된 수학식이고, 수학식 5, 수학식 6 및 수학식 7은 본 발명에서 WLS 문제를 효율적으로 푸는 방법에 관련된 수학식이다.Equation (1) is a Weighted Least Squares (WLS) problem that is widely used in the image processing field. In the present invention, image correction and image separation processes are defined as WLS problems and image processing operations are performed. Minimizing Equation 1 for a given input image
Figure 112017069262119-pat00008
The optimum result image can be obtained. In Equation (1)
Figure 112017069262119-pat00009
Lt; RTI ID = 0.0 > 0 < / RTI >
Figure 112017069262119-pat00010
The minimization process can be performed. Equations (1), (2), (3) and (4) are mathematical formulas related to the conventional WLS problem, and Equations (5), (6) and (7) are related to a method of efficiently solving the WLS problem in the present invention Is a mathematical expression.

상기 수학식 1의 첫 번째 항은 데이터 항이고, 두 번째 항은 사전 지식 항이다. 데이터 항으로 인하여 최소화 과정을 수행한 후, 결과 영상 중 임의의 픽셀 p의 값(

Figure 112017069262119-pat00011
)은 입력 영상 중 임의의 픽셀 p의 값(
Figure 112017069262119-pat00012
)과 유사해지도록 영향을 받는다. 사전 지식 항으로 인하여 최소화 과정을 수행한 후, 결과 영상 중 임의의 픽셀 p의 값(
Figure 112017069262119-pat00013
)은 결과 영상 중 픽셀 p의 상하좌우 픽셀(
Figure 112017069262119-pat00014
)의 영향을 받는다. 이 때, 픽셀 p와 q간의 연관성(
Figure 112017069262119-pat00015
)이 크면 클수록 최소화 과정 후 결과 영상 중 임의의 픽셀 p의 값(
Figure 112017069262119-pat00016
)은 데이터 항에 비해 사전 지식 항에 더욱 많은 영향을 받고 상하좌우에 위치한 픽셀의 값(
Figure 112017069262119-pat00017
)과 유사한 결과를 얻는다. 예를 들어, 깊이 보정의 과정 중 영상 내 임의의 물체는 매우 유사한 컬러 속성 때문에 물체 내 픽셀 p와 q간의 연관성(
Figure 112017069262119-pat00018
) 커지고, 최소화 과정을 수행한 후 사전 지식 항의 영향력에 따라 유사한 깊이 정보를 가지도록 보정된다.The first term of Equation (1) is a data term, and the second term is a prior knowledge term. After performing the minimization process due to the data term, the value of arbitrary pixel p (
Figure 112017069262119-pat00011
) Is the value of an arbitrary pixel p in the input image
Figure 112017069262119-pat00012
). ≪ / RTI > After performing the minimization process due to the pre-knowledge term, the value of arbitrary pixel p (
Figure 112017069262119-pat00013
) Are the pixels in the top, bottom, left, and right of the pixel p
Figure 112017069262119-pat00014
). At this time, the correlation between the pixels p and q
Figure 112017069262119-pat00015
) Is larger, the value of arbitrary pixel p (
Figure 112017069262119-pat00016
) Is more influenced by the prior knowledge term than the data term, and the value of pixels located in the upper,
Figure 112017069262119-pat00017
). For example, during the process of depth correction, any object in an image may be associated with a pixel p and q in the object
Figure 112017069262119-pat00018
), And after performing the minimization process, it is corrected to have similar depth information according to the influence of the prior knowledge term.

영향 파라미터는 상기 데이터 항의 영향력과 사전 지식 항의 영향력의 비율을 조절해주는 상수값으로, 영향 파라미터가 클수록 최소화 과정 중 사전 지식 항의 영향력이 커진다.The influence parameter is a constant value that adjusts the ratio of the influence of the data term to the influence of the prior knowledge term. The larger the influence parameter, the greater the influence of the prior knowledge term during the minimization process.

Figure 112017069262119-pat00019
Figure 112017069262119-pat00019

여기에서,

Figure 112017069262119-pat00020
: 두 픽셀 p와 q간의 연관성,
Figure 112017069262119-pat00021
: 수신된 컬러 정보 영상에서의 픽셀 p의 빨강색 값,
Figure 112017069262119-pat00022
: 수신된 컬러 정보 영상에서의 픽셀 q의 빨강색 값,
Figure 112017069262119-pat00023
: 수신된 컬러 정보 영상에서의 픽셀 p의 초록색 값,
Figure 112017069262119-pat00024
: 수신된 컬러 정보 영상에서의 픽셀 q의 초록색 값,
Figure 112017069262119-pat00025
: 수신된 컬러 정보 영상에서의 픽셀 p의 파랑색 값,
Figure 112017069262119-pat00026
: 수신된 컬러 정보 영상에서의 픽셀 q의 파랑색 값,
Figure 112017069262119-pat00027
: 컬러 특징값에 대한 정규화 파라미터이다.From here,
Figure 112017069262119-pat00020
: The relationship between two pixels p and q,
Figure 112017069262119-pat00021
: The red value of the pixel p in the received color information image,
Figure 112017069262119-pat00022
: The red value of the pixel q in the received color information image,
Figure 112017069262119-pat00023
: The green value of pixel p in the received color information image,
Figure 112017069262119-pat00024
: The green color value of the pixel q in the received color information image,
Figure 112017069262119-pat00025
: The blue color value of the pixel p in the received color information image,
Figure 112017069262119-pat00026
: The blue color value of the pixel q in the received color information image,
Figure 112017069262119-pat00027
: Normalization parameter for color feature values.

상기 두 픽셀 p와 q간의 연관성은 컬러 정보 영상에서의 픽셀 p의 값과 컬러 정보 영상에서의 픽셀 q의 값이 유사한 값일수록 더 커진다. 상기 수학식 2는 상기 수학식 1에서 사용되는 것일 수 있다. 상기 수학식 2는 수학식 4, 수학식 5, 수학식 7과 관련된 내용일 수 있다. The correlation between the two pixels p and q becomes larger as the value of the pixel p in the color information image is similar to the value of the pixel q in the color information image. Equation (2) may be used in Equation (1). Equation (2) may be related to Equations (4), (5) and (7).

Figure 112017069262119-pat00028
Figure 112017069262119-pat00028

여기에서, D: 수학식 4와 같은

Figure 112017069262119-pat00029
대각행렬(N = 입력영상의 높이 x 입력영상의 너비), W: 수학식 4와 같은
Figure 112017069262119-pat00030
연관성 행렬, f: 입력 영상에 대응되는
Figure 112017069262119-pat00031
벡터, u: 결과 영상에 대응되는
Figure 112017069262119-pat00032
벡터,
Figure 112017069262119-pat00033
: 영향 파라미터이다.In this case, D:
Figure 112017069262119-pat00029
Diagonal matrix (N = height of input image x width of input image), W:
Figure 112017069262119-pat00030
Correlation matrix, f: corresponding to the input image
Figure 112017069262119-pat00031
Vector, u: corresponding to the result image
Figure 112017069262119-pat00032
vector,
Figure 112017069262119-pat00033
: Influence parameter.

상기 수학식 3은 상기 수학식 1의 최소화 과정 중 유도되는 선형 시스템이다. 수학식 3의 선형시스템에서 결과 영상에 대응되는 벡터 u를 얻기 위해서는

Figure 112017069262119-pat00034
의 역행렬을 계산해야 하고, 이 과정은 N의 크기가 커질수록 기하급수적으로 시간 소비가 증가된다. 또한, 수학식 4의 연관성 행렬의 특징 때문에 행렬
Figure 112017069262119-pat00035
는 각 행마다 5개의 원소를 가진다.Equation (3) is a linear system derived from the minimization process of Equation (1). To obtain the vector u corresponding to the resultant image in the linear system of Equation (3)
Figure 112017069262119-pat00034
, And this process increases exponentially with time as N becomes larger. Also, because of the feature of the relation matrix of equation (4)
Figure 112017069262119-pat00035
Has five elements in each row.

Figure 112017069262119-pat00036
Figure 112017069262119-pat00036

여기에서, D(p,q):

Figure 112017069262119-pat00037
대각 행렬 D의 p번째 행, q번째 열에 있는 값, W(p,q):
Figure 112017069262119-pat00038
연관성 행렬 W의 p번째 행, q번째 열에 있는 값, p: 임의의 픽셀, q: 임의의 픽셀,
Figure 112017069262119-pat00039
: 픽셀 p를 중심으로 상하좌우 픽셀, j: 픽셀 p의 상하좌우 픽셀 중 하나,
Figure 112017069262119-pat00040
: 수학식 2와 같은 연관성,
Figure 112017069262119-pat00041
: 영향 파라미터이다Here, D (p, q):
Figure 112017069262119-pat00037
The value in the pth row and qth column of the diagonal matrix D, W (p, q):
Figure 112017069262119-pat00038
The value in the pth row, qth column of the relevance matrix W, p: arbitrary pixel, q: arbitrary pixel,
Figure 112017069262119-pat00039
: Upper, lower, left and right pixels around pixel p, j: one of upper, lower, left, and right pixels of pixel p,
Figure 112017069262119-pat00040
: ≪ / RTI > such as Equation (2)
Figure 112017069262119-pat00041
: It is an influence parameter

수학식 4와 같이 연관성 행렬을 정의했을 때, 연관성 행렬 W는 각 행마다 4개의 원소를 가지는 행렬이 된다. When the association matrix is defined as shown in Equation (4), the association matrix W is a matrix having four elements for each row.

Figure 112017069262119-pat00042
Figure 112017069262119-pat00042

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00043
: 픽셀 p를 중심으로 좌우 픽셀,
Figure 112017069262119-pat00044
: 픽셀 p를 중심으로 상하 픽셀, q: 픽셀 p를 중심으로 좌우 픽셀 또는 상하 픽셀 중 하나,
Figure 112017069262119-pat00045
: 행으로 분리된 입력 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00046
: 열로 분리된 입력 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00047
: 행으로 분리된 결과 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00048
: 행으로 분리된 결과 영상 중 픽셀 q의 값,
Figure 112017069262119-pat00049
: 열로 분리된 결과 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00050
: 열로 분리된 결과 영상 중 픽셀 q의 값,
Figure 112017069262119-pat00051
: 수학식 2와 같은 픽셀 p와 q간의 연관성,
Figure 112017069262119-pat00052
: 영향 파라미터이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00043
: Left and right pixels around pixel p,
Figure 112017069262119-pat00044
: Upper and lower pixel around pixel p, q: one of left and right pixel or upper and lower pixel around pixel p,
Figure 112017069262119-pat00045
: The value of the pixel p in the input image separated by the row,
Figure 112017069262119-pat00046
: The value of the pixel p in the input image separated by the column,
Figure 112017069262119-pat00047
: The value of the pixel p in the result image separated by the row,
Figure 112017069262119-pat00048
: The value of the pixel q in the result image separated by the row,
Figure 112017069262119-pat00049
: The value of the pixel p in the result image divided into columns,
Figure 112017069262119-pat00050
: The value of the pixel q in the result image divided into columns,
Figure 112017069262119-pat00051
: The relationship between pixels p and q as in equation (2)
Figure 112017069262119-pat00052
: Influence parameter.

수학식 1의 WLS 문제를 최소화하기 위해서는

Figure 112017069262119-pat00053
크기의 희소행렬이 포함된 수학식 3의 대규모 선형 시스템을 풀어야 하는데, 본 발명에서 사용되는 분리된 서브 시스템의 근사화 방법을 사용하면 대규모 선형시스템을 분리하여 효율적인 시간 내에 전역해를 구할 수 있다.To minimize the WLS problem of Equation 1
Figure 112017069262119-pat00053
It is necessary to solve the large-scale linear system of Equation (3) including the sparse matrix of the size. By using the method of approximating the separated subsystems used in the present invention, it is possible to separate the large-scale linear system and obtain the global solution in an efficient time.

수학식 5는 수학식 1를 X축 서브 시스템(첫 번째 수학식)과 Y축 서브 시스템(두 번째 수학식)으로 나눈 수학식이다. Equation (5) is a mathematical expression that divides Equation (1) into an X-axis subsystem (first equation) and a Y-axis subsystem (second equation).

수학식 5의

Figure 112017069262119-pat00054
는 각각 2차원 입력 영상 f를 행(X축)마다 분리시켰다는 의미를 내포하고 있고, 그 결과 f는 입력 영상의 높이 개수만큼의 분리된 행으로 분리된다. 마찬가지로, 수학식 5의
Figure 112017069262119-pat00055
는 각각 2차원 입력 영상 f를 열(Y축)마다 분리시켰다는 의미를 내포하고 있고, 그 결과 f는 입력 영상의 너비 개수만큼의 분리된 열으로 분리된다. 따라서, 높이 개수만큼의 분리된 행마다 또는 너비 개수만큼의 분리된 열마다 최소화 과정을 수행하면,
Figure 112017069262119-pat00056
Figure 112017069262119-pat00057
에 대응되는 분리된 결과 영상의 높이 개수만큼의
Figure 112017069262119-pat00058
와 너비 개수만큼의
Figure 112017069262119-pat00059
를 구할 수 있다.Equation 5
Figure 112017069262119-pat00054
Implies that the two-dimensional input image f has been separated for each row (X axis), and the result f is divided into a plurality of rows separated by the height of the input image. Similarly, in Equation 5
Figure 112017069262119-pat00055
Dimensional input image f is divided into columns (Y-axis), and as a result, f is divided into a number of columns separated by the width of the input image. Therefore, if the minimization process is performed for each of the rows separated by the number of the height or for the columns separated by the number of the width,
Figure 112017069262119-pat00056
Wow
Figure 112017069262119-pat00057
Corresponding to the number of heights of the separated result image corresponding to
Figure 112017069262119-pat00058
And the number of widths
Figure 112017069262119-pat00059
Can be obtained.

수학식 5의 최소화 과정에서 유도되는 선형 시스템을 수학식 6으로 표현 할 수 있다. The linear system derived from the minimization process of Equation (5) can be expressed by Equation (6).

수학식 5와 수학식 6의 분리된 서브 시스템의 근사화 방법은 수학식 8, 수학식 9의 희소 보간법 과정과 수학식 14, 수학식 16, 수학식 17의 깊이 추정 영상 보정 과정과 수학식 22의 물체 배경 분리 과정에서 WLS 문제를 효율적인 시간 내에 풀기 위해 사용된다. 상기 방법을 사용함으로써 O(높이X너비)의 시간 복잡도에 수학식 1의 WLS 문제를 풀 수 있다. The method of approximating the discrete subsystems of Equations (5) and (6) can be performed by the sparse interpolation method of Equations (8) and (9), the depth estimation image correction process of Equations (14), It is used to solve the WLS problem in an efficient time in the object background separation process. Using the above method, the WLS problem of Equation (1) can be solved for the time complexity of O (height X width).

Figure 112017069262119-pat00060
Figure 112017069262119-pat00060

여기에서,

Figure 112017069262119-pat00061
: 수학식 7과 같은 너비x너비 대각행렬,
Figure 112017069262119-pat00062
: 수학식 7와 같은 너비x너비 연관성 행렬,
Figure 112017069262119-pat00063
: 행으로 분리된 입력 영상에 대응되는 너비x1 벡터,
Figure 112017069262119-pat00064
: 행으로 분리된 결과 영상에 대응되는 너비x1 벡터,
Figure 112017069262119-pat00065
: 수학식 7과 같은 높이x높이 대각행렬,
Figure 112017069262119-pat00066
: 수학식 7와 같은 높이x높이 연관성 행렬,
Figure 112017069262119-pat00067
: 열로 분리된 입력 영상에 대응되는 높이x1 벡터,
Figure 112017069262119-pat00068
: 열로 분리된 결과 영상에 대응되는 높이x1 벡터,
Figure 112017069262119-pat00069
: 영향 파라미터이다.From here,
Figure 112017069262119-pat00061
: Width x width diagonal matrix as in Equation 7,
Figure 112017069262119-pat00062
: Width x width relevance matrix as in Equation 7,
Figure 112017069262119-pat00063
: A width x1 vector corresponding to an input image separated by a row,
Figure 112017069262119-pat00064
: A width x1 vector corresponding to a result image separated by a row,
Figure 112017069262119-pat00065
: Height x height diagonal matrix as in Equation 7,
Figure 112017069262119-pat00066
: Height-x-height relation matrix as shown in equation (7)
Figure 112017069262119-pat00067
: Height x1 vector corresponding to the input image separated by the column,
Figure 112017069262119-pat00068
: Height x1 vector corresponding to the result image separated into columns,
Figure 112017069262119-pat00069
: Influence parameter.

수학식 6은 수학식 5의 최소화 과정 중 유도되는 선형 시스템이다. 수학식 6의 선형 시스템에서 결과 영상의 분리된 행과 열에 대응되는 벡터

Figure 112017069262119-pat00070
Figure 112017069262119-pat00071
를 얻기 위해서
Figure 112017069262119-pat00072
Figure 112017069262119-pat00073
의 역행렬을 계산할 수 있다.Equation (6) is a linear system derived from the minimization process of Equation (5). In the linear system of Equation (6), the vectors corresponding to the separated rows and columns of the resulting image
Figure 112017069262119-pat00070
Wow
Figure 112017069262119-pat00071
To get
Figure 112017069262119-pat00072
Wow
Figure 112017069262119-pat00073
Can be calculated.

수학식 6의 행렬

Figure 112017069262119-pat00074
Figure 112017069262119-pat00075
는 수학식 7의 연관성 행렬 특징 때문에 각 행마다 3개의 원소를 가지는 특성을 가진 Tridiagonal matrix가 된다. Tridiagonal matrix가 포함된 선형 시스템은 Gaussian Elimination 방법을 사용하여 간단하고 빠르게 풀 수 있다.The matrix of equation (6)
Figure 112017069262119-pat00074
Wow
Figure 112017069262119-pat00075
Is a Tridiagonal matrix having three elements for each row due to the relevance matrix characteristic of Equation (7). A linear system containing a tridiagonal matrix can be solved simply and quickly using the Gaussian Elimination method.

수학식 3과 같은 기존의 WLS 문제에서 유도되는 선형 시스템에서는

Figure 112017069262119-pat00076
크기의 행렬에 대한 역행렬을 구해야 하지만, 수학식 6과 같은 본 발명에서 사용하는 분리된 서브 시스템에서는 너비x너비 또는 높이x높이 크기의 행렬에 대한 역행렬을 구하면 되므로 효율적인 시간 내에 연산 처리 과정을 마칠 수 있다. 또한, 기존
Figure 112017069262119-pat00077
크기의 행렬은 행마다 5개의 원소를 가졌고 본 발명에서의 높이x높이 행렬과 너비x너비 행렬은 행마다 3개의 원소를 가지는 특성을 고려했기 때문에 수행 시간은 더욱 단축된다. 여기에서 N=높이x너비를 의미한다.In a linear system derived from the existing WLS problem such as Equation 3
Figure 112017069262119-pat00076
However, in the separate subsystem used in the present invention as shown in Equation (6), since the inverse matrix of the matrix having the width x width or the height x height can be obtained, the computation process can be completed in an efficient time have. In addition,
Figure 112017069262119-pat00077
The matrix of size has five elements per row, and the execution time is further shortened because the height x height matrix and the width x width matrix in the present invention take into account the characteristic of having three elements per row. Where N = height x width.

수학식 5와 수학식 6의 분리된 서브 시스템의 근사화 방법은 수학식 8, 수학식 9의 희소 보간법 과정과 수학식 14, 수학식 16, 수학식 17의 깊이 추정 영상 보정 과정과 수학식 22의 물체 배경 분리 과정에서 WLS 문제를 효율적인 시간 내에 풀기 위해 사용된다.The method of approximating the discrete subsystems of Equations (5) and (6) can be performed by the sparse interpolation method of Equations (8) and (9), the depth estimation image correction process of Equations (14), It is used to solve the WLS problem in an efficient time in the object background separation process.

상기 방법을 사용함으로써 O(높이X너비)의 시간 복잡도에 수학식 3의 대규모 선형 시스템을 풀 수 있다.Using this method, a large linear system of equation (3) can be solved for the time complexity of O (height X width).

Figure 112017069262119-pat00078
Figure 112017069262119-pat00078

여기에서,

Figure 112017069262119-pat00079
: 너비x너비 대각 행렬
Figure 112017069262119-pat00080
의 p번째 행, q번째 열에 있는 값,
Figure 112017069262119-pat00081
(p,q): 너비x너비 연관성 행렬
Figure 112017069262119-pat00082
의 p번째 행, q번째 열에 있는 값,
Figure 112017069262119-pat00083
: 높이x높이 대각 행렬
Figure 112017069262119-pat00084
의 p번째 행, q번째 열에 있는 값,
Figure 112017069262119-pat00085
(p,q): 높이x높이 연관성 행렬
Figure 112017069262119-pat00086
의 p번째 행, q번째 열에 있는 값, p: 임의의 픽셀, q: 임의의 픽셀,
Figure 112017069262119-pat00087
: 픽셀 p를 중심으로 좌우 픽셀,
Figure 112017069262119-pat00088
: 픽셀 p를 중심으로 상하 픽셀, j: 상하 또는 좌우 픽셀 중 하나,
Figure 112017069262119-pat00089
: 수학식 2와 같은 연관성,
Figure 112017069262119-pat00090
: 영향 파라미터이다.From here,
Figure 112017069262119-pat00079
: Width x width diagonal matrix
Figure 112017069262119-pat00080
The value in the pth row, the qth column of < RTI ID = 0.0 >
Figure 112017069262119-pat00081
(p, q): width x width association matrix
Figure 112017069262119-pat00082
The value in the pth row, the qth column of < RTI ID = 0.0 >
Figure 112017069262119-pat00083
: Height x height diagonal matrix
Figure 112017069262119-pat00084
The value in the pth row, the qth column of < RTI ID = 0.0 >
Figure 112017069262119-pat00085
(p, q): height x height association matrix
Figure 112017069262119-pat00086
The value in the pth row, the qth column of the pixel, p: an arbitrary pixel, q: an arbitrary pixel,
Figure 112017069262119-pat00087
: Left and right pixels around pixel p,
Figure 112017069262119-pat00088
: Upper and lower pixel around pixel p, j: one of upper and lower or left and right pixels,
Figure 112017069262119-pat00089
: ≪ / RTI > such as Equation (2)
Figure 112017069262119-pat00090
: Influence parameter.

수학식 7와 같이 연관성 행렬을 정의했을 때, 연관성 행렬

Figure 112017069262119-pat00091
,
Figure 112017069262119-pat00092
는 각 행마다 2개의 원소를 가지는 행렬이 된다.When a relevance matrix is defined as in Equation (7), a relevance matrix
Figure 112017069262119-pat00091
,
Figure 112017069262119-pat00092
Is a matrix having two elements for each row.

Figure 112017069262119-pat00093
Figure 112017069262119-pat00093

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00094
: 픽셀 p를 중심으로 상하좌우 픽셀, q: 픽셀 p를 중심으로 상하좌우 픽셀 중 하나의 픽셀,
Figure 112017069262119-pat00095
: 깊이 인터랙션 정보(830)에서 픽셀 p의 값, hp: 깊이 인터랙션 정보(830)의 색인 함수,
Figure 112017069262119-pat00096
: 수학식 10과 같은 픽셀 p와 픽셀 q의 연관성을 나타내는 연관성 함수,
Figure 112017069262119-pat00097
: 영향 파라미터, u1,p: 제1 보간 인터랙션 정보에서 픽셀 p의 값, u1,q: 제1 보간 인터랙션 정보에서 픽셀 q의 값이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00094
: Upper and lower left and right pixels around pixel p, q: One pixel among pixels vertically and horizontally around pixel p,
Figure 112017069262119-pat00095
: The value of the pixel p in the depth interaction information 830, hp: the index function of the depth interaction information 830,
Figure 112017069262119-pat00096
: A correlation function representing the association between pixel p and pixel q as in Equation 10,
Figure 112017069262119-pat00097
: Influence parameter, u1, p: value of pixel p in the first interpolation interaction information, and u1, q: value of pixel q in the first interpolation interaction information.

수학식 8, 수학식 9, 수학식 13는 희소 보간법을 사용하여 보간 인터랙션 정보를 생성하는 과정과 관련된 수학식이고, 생성된 보간 인터랙션 정보는 깊이 추정 영상의 보정 과정(수학식 14) 에서 사용 된다. 희소 보간법에 의해 생성된 보간 인터랙션 정보는 상기 깊이 인터랙션 정보(830)가 가공된 정보이며, 깊이 인터랙션 정보(830)를 보정을 목적으로 두는 물체 전역으로 보간함으로써 깊이 인터랙션 정보(830)를 퍼트린다는 의미를 내포하고 있다. 깊이 인터랙션 정보(830)은 입력 영상의 크기에 비해 다소 희박한(sparse)하고 때문에 보정 과정 중 깊이 인터랙션 정보(830)을 사용하기는 적합하지 않다. 따라서 깊이 인터랙션 정보(830)는 희소 보간법 과정을 통해 적합한 보간 인터랙션 정보로 가공된다. Equations (8), (9), and (13) are mathematical expressions related to the process of generating interpolation interaction information by using the sparse interpolation method, and the generated interpolation interaction information is used in the correction process of the depth estimation image . The interpolation interaction information generated by the sparse interpolation method is information on the depth interaction information 830, and the deep interaction information 830 is interpolated by interpolating the depth interaction information 830 to the entire object for the purpose of correction It implies meaning. Since the depth interaction information 830 is sparse compared to the size of the input image, it is not suitable to use the depth interaction information 830 during the correction process. Accordingly, the depth interaction information 830 is processed into the appropriate interpolation interaction information through the sparse interpolation process.

상기 수학식 8, 수학식 9는 희소 보간법을 수학식 1의 WLS 문제로 정의한 수학식이고, 그 중 수학식 8는 깊이 인터랙션 정보(830)의 깊이 정보(

Figure 112017069262119-pat00098
)를 보간시킨다.Equation (8) and Equation (9) are mathematical expressions that define the sparse interpolation method as the WLS problem of Equation (1), where Equation (8)
Figure 112017069262119-pat00098
).

깊이 인터랙션 정보(

Figure 112017069262119-pat00099
)는 깊이 인터랙션 정보(830)에서 픽셀 p의 사용자 입력 깊이값를 의미하며, 상기 픽셀이 깊이 인터랙션 정보에 해당하는 좌표 맵에 포함된다면 상기 픽셀의 색인 함수(
Figure 112017069262119-pat00100
)는 1의 값을 지니고 포함되지 않는다면 상기 픽셀의 색인 함수(
Figure 112017069262119-pat00101
)는 0의 값을 지닌다. Depth Interaction Information (
Figure 112017069262119-pat00099
Denotes a user input depth value of the pixel p in the depth interaction information 830. If the pixel is included in the coordinate map corresponding to the depth interaction information,
Figure 112017069262119-pat00100
) Has a value of 1, and if not included, the index function of the pixel
Figure 112017069262119-pat00101
) Has a value of zero.

상기 수학식 4에서의 첫 번째 항은 데이터 항으로, 제1 보간 인터랙션 정보에서 픽셀 p의 값을 구할 때 색인 함수와 인터랙션 정보에서 픽셀 p의 값을 참조하는 것일 수 있다. 상기 제1 보간 인터랙션 정보에서 픽셀 p의 값은 상기 색인 함수와 상기 인터랙션 정보에서 픽셀 p의 값을 곱한 값에 비례하는 것일 수 있다. The first term in Equation (4) is a data term. When the value of the pixel p in the first interpolation interaction information is obtained, the value of the pixel p may be referred to in the index function and the interaction information. The value of the pixel p in the first interpolation interaction information may be proportional to a value obtained by multiplying the index function and the value of the pixel p in the interaction information.

상기 수학식 4에서의 두 번째 항은 사전 지식 항으로, 제1 보간 인터랙션 정보에서 픽셀 p의 값과 픽셀 p를 중심으로 상하좌우 픽셀 중 하나의 픽셀인 제1 보간 인터랙션 정보에서 픽셀 q의 값은 픽셀 p와 픽셀 q의 연관성을 나타내는 연관성 함수가 클수록 유사해진다. The second term in Equation (4) is a prior knowledge item. The value of the pixel p in the first interpolation interaction information and the value of the pixel q in the first interpolation interaction information, which is one of the upper, The larger the association function, which indicates the association between the pixel p and the pixel q, becomes more similar.

상기 제1 보간 인터랙션 정보에서 픽셀 p의 값과 상기 제1 보간 인터랙션 정보에서 픽셀 q의 값은 수학식 7과 같은 선형 시스템을 풀면 얻을 수 있는 정보일 수 있다. 상기 제1 보간 인터랙션 정보에서 픽셀 p의 값은 수학식 7을 풀어 구해진 제1 보간 인터랙션 정보에서 픽셀 p의 값일 수 있고, 상기 제1 보간 인터랙션 정보에서 픽셀 q의 값은 수학식 7을 풀어 구해진 제1 보간 인터랙션 정보에서 픽셀 q의 값일 수 있다.The value of the pixel p in the first interpolation interaction information and the value of the pixel q in the first interpolation interaction information may be information obtained by solving the linear system as shown in Equation (7). The value of the pixel p in the first interpolation interaction information may be the value of the pixel p in the first interpolation interaction information obtained by solving Expression (7), and the value of the pixel q in the first interpolation interaction information may be obtained by solving Expression (7) 1 < / RTI > in the interpolation interaction information.

영향 파라미터는 수학식 4의 최적화로 픽셀 p에서의 보정된 영상을 구할 때, 첫 번째 항에 의해 영향을 더 받느냐, 두 번째 항에 의해 영향을 더 받느냐를 의미하는 파라미터이다. 수학식 4의 최적화는 수학식 4를 제1 보간 인터랙션 정보에서 픽셀 P의 값(u1,p)에 대하여 미분함으로써 표현되는 선형시스템으로부터 구현될 수 있다.The influence parameter is a parameter which means that when the corrected image at pixel p is obtained by the optimization of Equation (4), it is influenced by the first term or is influenced by the second term. The optimization of Equation (4) can be implemented from a linear system expressed by differentiating Equation (4) with respect to the value (u1, p) of the pixel P in the first interpolation interaction information.

데이터 항을 구성하는 제1 보간 인터랙션 정보를 생성하기 위해 보간법을 이용한다. 우선, 사용자가 상기 수신된 깊이 정보 영상에서 입력한 인터랙션 정보를 이용하여 상기 인터랙션 정보에 대응하는 영상 내의 좌표 맵을 생성한다. 상기 인터랙션 정보는 깊이 인터랙션 정보일 수 있다. 입력된 인터랙션 정보와 상기 인터랙션 정보에 대응하는 영상 내의 좌표 맵을 이용하여 수학식 7의 제1 보간 인터랙션 정보와 수학식 8의 제2 보간 인터랙션 정보를 구할 수 있고, 상기 제1 보간 인터랙션 정보를 이용하여 제1 보간 인터랙션 정보에서 픽셀 p의 값과 제1 보간 인터랙션 정보에서 픽셀 q의 값을 구할 수 있으며, 상기 제2 보간 인터랙션 정보를 이용하여 제2 보간 인터랙션 정보에서 픽셀 p의 값과 제2 보간 인터랙션 정보에서 픽셀 q의 값을 구할 수 있다. Interpolation is used to generate the first interpolation interaction information that constitutes the data term. First, a user generates a coordinate map in an image corresponding to the interaction information using the interaction information input from the received depth information image. The interaction information may be depth interaction information. The first interpolation interaction information of Equation (7) and the second interpolation interaction information of Equation (8) can be obtained using the input interaction information and the coordinate map in the video corresponding to the interaction information, and using the first interpolation interaction information The value of the pixel p and the value of the pixel q in the first interpolation interaction information can be obtained in the first interpolation interaction information and the value of the pixel p in the second interpolation interaction information can be obtained using the second interpolation interaction information, The value of the pixel q can be obtained from the interaction information.

상기 픽셀 p와 픽셀 q의 연관성을 나타내는 연관성 함수는 수학식 10와 같이 컬러 정보 영상에서의 픽셀 p의 값과 픽셀 q의 값의 유사성과 분할 영상 생성부(130)에서 생성된 객체-배경 분할 영상에서의 픽셀 p의 값과 픽셀 q의 값의 곱으로 구성된다.The association function indicating the association between the pixel p and the pixel q may be calculated by using the similarity between the value of the pixel p and the value of the pixel q in the color information image and the similarity between the value of the pixel q and the object- And the value of the pixel q.

상기 수학식 4에서의 첫 번째 항은 데이터 항이고, 상기 수학식 4에서의 두 번째 항은 사전 지식 항인데, 상기 수학식 4는 상기 데이터 항과 상기 사전 지식 항을 포함하는 전역적 목적 함수를 이용하는 것일 수 있다.The first term in Equation (4) is a data term, and the second term in Equation (4) is a prior knowledge term. Equation (4) represents a global objective function including the data term and the prior knowledge term It can be used.

본 발명에서는 상기 수학식 1의 WLS 문제를 상기 수학식 5의 분리된 서브 시스템의 근사화 방법을 사용하여 효율적인 시간 내에 전역해를 구한것처럼, 수학식 8의 WLS 문제를 분리된 서브 시스템의 근사화 방법을 사용하여 해결하였다. 상기 방법을 사용함으로서 O(높이X너비)의 시간 복잡도에 수학식 8의 제1 보간 인터랙션 정보를 구할 수 있다.In the present invention, as shown in Equation (1), the WLS problem of Equation (8) can be approximated to a separate subsystem, as in the case where the global solution is obtained in an efficient time using the method of approximating the separated subsystem of Equation Respectively. By using the above method, the first interpolation interaction information of Equation (8) can be obtained for the time complexity of O (height X width).

Figure 112017069262119-pat00102
Figure 112017069262119-pat00102

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00103
: 픽셀 p를 중심으로 상하좌우 픽셀, q: 픽셀 p를 중심으로 상하좌우 픽셀 중 하나의 픽셀,
Figure 112017069262119-pat00104
: 색인 함수,
Figure 112017069262119-pat00105
: 수학식 10과 같은 픽셀 p와 픽셀 q의 연관성을 나타내는 연관성 함수,
Figure 112017069262119-pat00106
: 영향 파라미터, u2,p: 제2 보간 인터랙션 정보에서 픽셀 p의 값, u2,q: 제2 보간 인터랙션 정보에서 픽셀 q의 값이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00103
: Upper and lower left and right pixels around pixel p, q: One pixel among pixels vertically and horizontally around pixel p,
Figure 112017069262119-pat00104
: Index function,
Figure 112017069262119-pat00105
: A correlation function representing the association between pixel p and pixel q as in Equation 10,
Figure 112017069262119-pat00106
: U2, p: value of pixel p in the second interpolation interaction information, u2, q: value of pixel q in the second interpolation interaction information.

수학식 8, 수학식 9, 수학식 13는 희소 보간법을 사용하여 보간 인터랙션 정보를 생성하는 과정과 관련된 수학식이고, 생성된 보간 인터랙션 정보는 깊이 추정 영상의 보정 과정(수학식 14) 에서 사용 된다. 희소 보간법에 의해 생성된 보간 인터랙션 정보는 상기 깊이 인터랙션 정보(830)가 가공된 정보이며, 깊이 인터랙션 정보(830)를 보정을 목적으로 두는 물체 전역으로 보간함으로써 깊이 인터랙션 정보(830)를 퍼트린다는 의미를 내포하고 있다. 깊이 인터랙션 정보(830)은 입력 영상의 크기에 비해 다소 희박한(sparse)하고 때문에 보정 과정 중 깊이 인터랙션 정보(830)을 사용하기는 적합하지 않다. 따라서 깊이 인터랙션 정보(830)는 희소 보간법 과정을 통해 적합한 보간 인터랙션 정보로 가공된다. Equations (8), (9), and (13) are mathematical expressions related to the process of generating interpolation interaction information by using the sparse interpolation method, and the generated interpolation interaction information is used in the correction process of the depth estimation image . The interpolation interaction information generated by the sparse interpolation method is information on the depth interaction information 830, and the deep interaction information 830 is interpolated by interpolating the depth interaction information 830 to the entire object for the purpose of correction It implies meaning. Since the depth interaction information 830 is sparse compared to the size of the input image, it is not suitable to use the depth interaction information 830 during the correction process. Accordingly, the depth interaction information 830 is processed into the appropriate interpolation interaction information through the sparse interpolation process.

상기 수학식 8, 수학식 9는 희소 보간법을 수학식 1의 WLS 문제로 정의한 수학식이고, 그 중 수학식 9는 깊이 인터랙션 정보(830)의 좌표 정보(

Figure 112017069262119-pat00107
)를 보간시킨다.Equation (8) and Equation (9) are mathematical expressions in which the sparse interpolation is defined as the WLS problem of Equation (1), and Equation (9)
Figure 112017069262119-pat00107
).

임의의 픽셀이 깊이 인터랙션 정보(830)에 해당하는 좌표 맵에 포함된다면 임의의 픽셀 p의 색인 함수(

Figure 112017069262119-pat00108
)는 1의 값을 지니고, 포함되지 않는다면 임의의 픽셀 p의 색인 함수(
Figure 112017069262119-pat00109
)는 0의 값을 지닌다.If an arbitrary pixel is included in the coordinate map corresponding to the depth interaction information 830, the index function of arbitrary pixel p (
Figure 112017069262119-pat00108
) Has a value of 1, and if it does not contain the index function of any pixel p (
Figure 112017069262119-pat00109
) Has a value of zero.

상기 제2 보간 인터랙션 정보에서 픽셀 p의 값과 상기 제2 보간 인터랙션 정보에서 픽셀 q의 값은 수학식 8과 같은 선형 시스템을 풀면 얻을 수 있는 정보일 수 있다. 상기 제2 보간 인터랙션 정보에서 픽셀 p의 값은 수학식 8을 풀어 구해진 제2 보간 인터랙션 정보에서 픽셀 p의 값일 수 있고, 상기 제2 보간 인터랙션 정보에서 픽셀 q의 값은 수학식 8을 풀어 구해진 제2 보간 인터랙션 정보에서 픽셀 q의 값일 수 있다. The value of the pixel p in the second interpolation interaction information and the value of the pixel q in the second interpolation interaction information may be information that can be obtained by solving the linear system such as Equation (8). The value of the pixel p in the second interpolation interaction information may be the value of the pixel p in the second interpolation interaction information obtained by solving Expression (8), and the value of the pixel q in the second interpolation interaction information may be obtained by solving Expression 2 < / RTI > interpolation interaction information.

영향 파라미터는 수학식 5의 최적화로 픽셀 p에서의 보정된 영상을 구할 때, 첫 번째 항에 의해 영향을 더 받느냐, 두 번째 항에 의해 영향을 더 받느냐를 의미하는 파라미터이다.The influence parameter is a parameter that indicates whether the image is affected by the first term or influenced by the second term when the corrected image in the pixel p is obtained by the optimization of Equation (5).

데이터 항을 구성하는 제2 보간 인터랙션 정보를 생성하기 위해 보간법을 이용한다. 우선, 사용자가 상기 수신된 깊이 정보 영상에서 입력한 인터랙션 정보를 이용하여 상기 인터랙션 정보에 대응하는 영상 내의 좌표맵을 생성한다. 상기 인터랙션 정보는 깊이 인터랙션 정보일 수 있다. 입력된 인터랙션 정보와 상기 인터랙션 정보에 대응하는 영상내의 좌표맵을 이용하여 수학식 11의 제1 보간 인터랙션 정보와 수학식 12의 제2 보간 인터랙션 정보를 구할 수 있고, 상기 제1 보간 인터랙션 정보를 이용하여 제1 보간 인터랙션 정보에서 픽셀p의값과 제1 보간 인터랙션 정보에서 픽셀q의 값을 구할 수 있으며, 상기 제2 보간 인터랙션 정보를 이용하여 제2 보간 인터랙션 정보에서 픽셀p의 값과 제2 보간 인터랙션 정보에서 픽셀q의값을구할수있다. 깊이 인터랙션 정보는 사용자가 인터랙션 정보를 입력할 때, 상기 입력된 인터랙션 정보에 해당하는 좌표를 의미하며, 상기 픽셀이 깊이 인터랙션 정보에 해당하는 좌표맵에 포함된다면 상기 색인 함수는 1이고 상기 픽셀이 깊이 인터랙션 정보에 해당하는 좌표맵에 포함되지 않는다면 상기 색인 함수는 0이다. Interpolation is used to generate the second interpolation interaction information that constitutes the data term. First, a user generates a coordinate map in an image corresponding to the interaction information using the interaction information input from the received depth information image. The interaction information may be depth interaction information. The first interpolation interaction information of Equation (11) and the second interpolation interaction information of Equation (12) can be obtained using the input interaction information and the coordinate map in the video corresponding to the interaction information, and using the first interpolation interaction information The value of the pixel p and the value of the pixel q in the first interpolation interaction information can be obtained in the first interpolation interaction information and the value of the pixel p in the second interpolation interaction information can be obtained from the value of the pixel p using the second interpolation interaction information, The value of the pixel q in the information can be obtained. The depth interaction information is coordinates corresponding to the input interaction information when the user inputs the interaction information. If the pixel is included in the coordinate map corresponding to the depth interaction information, the index function is 1, The index function is 0 if it is not included in the coordinate map corresponding to the interaction information.

상기 픽셀p와 픽셀q의 연관성을 나타내는 연관성 함수는 수학식 10와 같이 컬러 정보 영상에서의 픽셀p의값과 픽셀q의값의 유사성과 분할 영상 생성부(130)에서 생성된 객체-배경 분할 영상에서의 픽셀 p의 값과 픽셀 q의 값의 곱으로 구성된다.The association function indicating the association between the pixel p and the pixel q may be calculated by the similarity between the value of the pixel p and the value of the pixel q in the color information image and the similarity of the value of the pixel q in the object- And the product of the value of the pixel p and the value of the pixel q.

상기 수학식 9에서의 첫 번째 항은 데이터 항이고, 상기 수학식 5에서의 두 번째 항은 사전 지식 항인데, 상기 수학식 9는 상기 데이터 항과 상기 사전 지식 항을 포함하는 전역적 목적 함수를 이용하는 것일 수 있다.The first term in Equation (9) is a data term, and the second term in Equation (5) is a prior knowledge term. Equation (9) represents a global objective function including the data term and the prior knowledge term It can be used.

본 발명에서는 상기 수학식 1의 WLS 문제를 상기 수학식 5의 분리된 서브 시스템의 근사화 방법을 사용하여 효율적인 시간 내에 전역해를 구한 것처럼, 수학식 9의 WLS 문제를 분리된 서브 시스템의 근사화 방법을 사용하여 해결하였다. 상기 방법을 사용함으로써 O(높이X너비)의 시간 복잡도에 수학식 9의 제2 보간 인터랙션 정보를 구할 수 있다.In the present invention, as shown in Equation (1), the WLS problem of Equation (9) can be approximated to a disjoint subsystem as a global solution is obtained in an efficient time by using the method of approximating the separated subsystem of Equation Respectively. By using the above method, the second interpolation interaction information of Equation (9) can be obtained for the time complexity of O (height X width).

Figure 112017069262119-pat00110
Figure 112017069262119-pat00110

여기에서,

Figure 112017069262119-pat00111
: 두 픽셀 p와 q간의 연관성,
Figure 112017069262119-pat00112
: 픽셀 p의 빨강색 값,
Figure 112017069262119-pat00113
: 픽셀 q의 빨강색 값,
Figure 112017069262119-pat00114
: 픽셀 p의 초록색 값,
Figure 112017069262119-pat00115
: 픽셀 q의 초록색 값,
Figure 112017069262119-pat00116
: 픽셀 p의 파랑색 값,
Figure 112017069262119-pat00117
: 픽셀 q의 파랑색 값,
Figure 112017069262119-pat00118
: 컬러 특징값에 대한 정규화 파라미터,
Figure 112017069262119-pat00119
: 분할 영상 생성부(130)에서 생성된 객체-배경 분할 영상의 픽셀 p의 값,
Figure 112017069262119-pat00120
: 객체-배경 분할 영상의 픽셀 q의 값,
Figure 112017069262119-pat00121
: 분할 특징값에 대한 정규화 파라미터 이다.From here,
Figure 112017069262119-pat00111
: The relationship between two pixels p and q,
Figure 112017069262119-pat00112
: The red value of the pixel p,
Figure 112017069262119-pat00113
: Red value of pixel q,
Figure 112017069262119-pat00114
: The green value of pixel p,
Figure 112017069262119-pat00115
: Green value of pixel q,
Figure 112017069262119-pat00116
: The blue color value of the pixel p,
Figure 112017069262119-pat00117
: Blue color value of pixel q,
Figure 112017069262119-pat00118
: A normalization parameter for a color feature value,
Figure 112017069262119-pat00119
: The value of the pixel p of the object-background divided image generated by the divided image generating unit 130,
Figure 112017069262119-pat00120
: The value of the pixel q of the object-background divided image,
Figure 112017069262119-pat00121
Is a normalization parameter for the partition feature value.

상기 두 픽셀 p와 q간의 연관성은 컬러 정보 영상에서의 픽셀 p의 값과 컬러 정보 영상에서의 픽셀 q의 값이 유사한 값일수록 더 커진다. 상기 두 픽셀 p와 q간의 연관성은 객체-배경 분할 영상에서의 픽셀 p의 값과 픽셀 q의 값이 유사한 값일수록 더 커진다. 상기 수학식 10은 상기 수학식 8, 수학식 9에서 사용되는 것일 수 있다. 상기 수학식 10은 수학식 12, 수학식 14, 수학식 16과 관련된 내용일 수 있다. The correlation between the two pixels p and q becomes larger as the value of the pixel p in the color information image is similar to the value of the pixel q in the color information image. The correlation between the two pixels p and q becomes larger as the value of the pixel p and the value of the pixel q in the object-background divided image are similar. Equation (10) may be used in Equations (8) and (9). Equation (10) may be related to Equations (12), (14) and (16).

Figure 112017069262119-pat00122
Figure 112017069262119-pat00122

여기에서, D: 수학식 12과 같은

Figure 112017069262119-pat00123
대각행렬(N = 입력영상의 높이 x 입력영상의 너비), W: 수학식 12과 같은
Figure 112017069262119-pat00124
연관성 행렬, g: 깊이 인터랙션 정보값에 대응되는
Figure 112017069262119-pat00125
벡터, 1: 모든 원소가 1의 값을 가지는
Figure 112017069262119-pat00126
벡터, H: 수학식 12과 같은 색인 함수에 대응되는
Figure 112017069262119-pat00127
대각행렬, u1: 제1 보간 인터랙션 정보에 대응되는
Figure 112017069262119-pat00128
벡터, u1: 제2 보간 인터랙션 정보에 대응되는
Figure 112017069262119-pat00129
벡터,
Figure 112017069262119-pat00130
: 영향 파라미터이다.Here, D: as in Equation 12
Figure 112017069262119-pat00123
Diagonal matrix (N = height of input image x width of input image), W:
Figure 112017069262119-pat00124
Association matrix, g: depth corresponding to the depth interaction information value
Figure 112017069262119-pat00125
Vector, 1: all elements have a value of 1
Figure 112017069262119-pat00126
Vector, H: corresponding to the index function as shown in equation (12)
Figure 112017069262119-pat00127
Diagonal matrix u1: corresponding to the first interpolation interaction information
Figure 112017069262119-pat00128
Vector, u1: corresponding to the second interpolation interaction information
Figure 112017069262119-pat00129
vector,
Figure 112017069262119-pat00130
: Influence parameter.

수학식 4와 수학식 5의 최적화 만족하는 제1,2 보간 인터랙션 정보는 수학식 7의 선형 시스템을 풀면 얻을 수 있다. 상기 제1,2 보간 인터랙션 정보는 상기 수신된 깊이 인터랙션 정보(830)가 가공된 정보일 수 있다. 본 발명에서는 상기 수학식 3의 대규모 선형 시스템을 상기 수학식 6의 분리된 서브 선형 시스템의 근사화 방법을 사용하여 효율적인 시간 내에 전역해를 구한 것처럼, 수학식 11의 대규모 선형 시스템을 분리된 서브 선형 시스템의 근사화 방법을 사용하여 해결하였다. 상기 방법을 사용함으로써 O(높이X너비)의 시간 복잡도에 수학식 11의 대규모 선형 시스템을 풀 수 있다.The first and second interpolation interaction information satisfying the equations (4) and (5) can be obtained by solving the linear system of Equation (7). The first and second interpolation interaction information may be information on which the received depth interaction information 830 is processed. In the present invention, the large-scale linear system of Equation (3) can be obtained by using the approximate method of the separated sub-linear system of Equation (6) The approximate method of solving the problem is solved. Using this method, a large linear system of equation (11) can be solved for the time complexity of O (height X width).

Figure 112017069262119-pat00131
Figure 112017069262119-pat00131

여기에서, p: 임의의 픽셀, q: 임의의 픽셀, D(p,q):

Figure 112017069262119-pat00132
대각 행렬 D의 p번째 행, q번째 열에 있는 값, W(p,q):
Figure 112017069262119-pat00133
연관성 행렬 W의 p번째 행, q번째 열에 있는 값,
Figure 112017069262119-pat00134
: 수학식 10과 같은 연관성,
Figure 112017069262119-pat00135
: 픽셀 p를 중심으로 상하좌우 픽셀, j: 픽셀 p의 상하좌우 픽셀 중 하나, H(p,q): 색인 대각 행렬 H의 p번째 행, q번째 열에 있는 값,
Figure 112017069262119-pat00136
: 픽셀 p에서의 색인 함수,
Figure 112017069262119-pat00137
:영향 파라미터이다. 수학식 12와 같이 연관성 행렬을 정의했을 때, 연관성 행렬 W는 각 행마다 4개의 원소를 가지는 행렬이 된다. Here, p: arbitrary pixel, q: arbitrary pixel, D (p, q):
Figure 112017069262119-pat00132
The value in the pth row and qth column of the diagonal matrix D, W (p, q):
Figure 112017069262119-pat00133
The values in the pth row, qth column of the relevance matrix W,
Figure 112017069262119-pat00134
: ≪ / RTI > such as Equation 10,
Figure 112017069262119-pat00135
(P, q): the value in the pth row, qth column of the index diagonal matrix H, H (p, q)
Figure 112017069262119-pat00136
: The index function at pixel p,
Figure 112017069262119-pat00137
: Influence parameter. When the association matrix is defined as in Equation (12), the association matrix W is a matrix having four elements for each row.

Figure 112017069262119-pat00138
Figure 112017069262119-pat00138

여기에서, u: 보간 인터랙션 정보에 대응되는

Figure 112017069262119-pat00139
벡터, u1: 제 1보간 인터랙션 정보에 대응되는
Figure 112017069262119-pat00140
벡터, u2: 제 2보간 인터랙션 정보에 대응되는
Figure 112017069262119-pat00141
벡터, D: 수학식 12과 같은
Figure 112017069262119-pat00142
대각 행렬, W: 수학식 12과 같은
Figure 112017069262119-pat00143
연관성 행렬, H: 수학식 12과 같은
Figure 112017069262119-pat00144
색인 대각 함수, g: 깊이 인터랙션 정보값에 대응되는
Figure 112017069262119-pat00145
벡터, 1 모든 원소가 1의 값을 가지는
Figure 112017069262119-pat00146
벡터,
Figure 112017069262119-pat00147
: 영향 파라미터, 연산자./는 같은 크기의 벡터의 원소간에 나눗셈을 의미하는 연산자이다.Here, u: corresponding to the interpolation interaction information
Figure 112017069262119-pat00139
Vector, u1: corresponding to the first interpolation interaction information
Figure 112017069262119-pat00140
Vector, u2: corresponding to the second interpolation interaction information
Figure 112017069262119-pat00141
Vector, D: < RTI ID = 0.0 >
Figure 112017069262119-pat00142
Diagonal matrix, W:
Figure 112017069262119-pat00143
H, < / RTI >< RTI ID = 0.0 >
Figure 112017069262119-pat00144
Index diagonal function, g: depth corresponding to the depth interaction information value
Figure 112017069262119-pat00145
Vector, 1 All elements have a value of 1
Figure 112017069262119-pat00146
vector,
Figure 112017069262119-pat00147
: Influence parameter, operator ./ is an operator that means division between elements of the same size vector.

상기 보간 인터랙션 정보의 픽셀 값은 상기 제1 보간 인터랙션 정보를 상기 제2 보간 인터랙션 정보로 제산함으로써 얻을 수 있다.The pixel value of the interpolation interaction information may be obtained by dividing the first interpolation interaction information by the second interpolation interaction information.

본 발명에서는 상기 수학식 3의 대규모 선형 시스템을 상기 수학식 6의 분리된 서브 선형 시스템의 근사화 방법을 사용하여 효율적인 시간 내에 전역해를 구한 것처럼, 수학식 13 내부의 대규모 선형 시스템을 분리된 서브 선형 시스템의 근사화 방법을 사용하여 해결하였다. 상기 방법을 사용함으로서 O(높이X너비)의 시간 복잡도에 보간 인터랙션 정보를 제공할 수 있다.In the present invention, the large-scale linear system of Equation (3) can be approximated by using the method of approximating the separated sub-linear system of Equation (6) System approximation method. By using the above method, interpolation interaction information can be provided in time complexity of O (height X width).

Figure 112017069262119-pat00148
Figure 112017069262119-pat00148

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00149
: 픽셀 p를 중심으로 상하좌우 픽셀, q: 픽셀 p를 중심으로 상하좌우 픽셀 중 하나의 픽셀,
Figure 112017069262119-pat00150
: 보정된 깊이 정보 영상에서 픽셀 p의 값,
Figure 112017069262119-pat00151
: 보정된 깊이 정보 영상에서 픽셀 q의 값, up: 보간 인터랙션 정보,
Figure 112017069262119-pat00152
: 깊이 정보 영상에서 픽셀 p의 값,
Figure 112017069262119-pat00153
: 픽셀p와 픽셀 q의 연관성을 나타내는 연관성 함수,
Figure 112017069262119-pat00154
: 수학식 15과 같은 제1 영향 파라미터,
Figure 112017069262119-pat00155
: 제2 영향 파라미터,
Figure 112017069262119-pat00156
: 제3 영향 파라미터이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00149
: Upper and lower left and right pixels around pixel p, q: One pixel among pixels vertically and horizontally around pixel p,
Figure 112017069262119-pat00150
: The value of the pixel p in the corrected depth information image,
Figure 112017069262119-pat00151
: The value of the pixel q in the corrected depth information image, up: the interpolation interaction information,
Figure 112017069262119-pat00152
: The value of the pixel p in the depth information image,
Figure 112017069262119-pat00153
: A correlation function indicating the association of pixel p with pixel q,
Figure 112017069262119-pat00154
: A first influence parameter as shown in equation (15)
Figure 112017069262119-pat00155
: Second influence parameter,
Figure 112017069262119-pat00156
: This is the third influence parameter.

상기 깊이 추정 정보 영상과 상기 보간 인터랙션 정보를 이용하여, 보정된 깊이 정보 영상을 얻는 과정은 수학식 10과 같은 WLS 문제로 정의된다. 상기 보간 인터랙션 정보를 구하는 과정에 있어서, 상기 인터랙션 정보와 상기 인터랙션 정보에 대응하는 영상 내의 좌표 맵을 이용하므로, 상기 인터랙션 정보와 상기 인터랙션 정보에 대응하는 영상 내의 좌표 맵을 이용해서 보정된 깊이 정보 영상을 얻는 것일 수 있다.The process of obtaining the corrected depth information image using the depth estimation information image and the interpolation interaction information is defined as a WLS problem as shown in Equation (10). The interpolation information is obtained by using the coordinate map in the video corresponding to the interaction information and the interaction information in the process of obtaining the interpolation interaction information, ≪ / RTI >

상기 제1 영향 파라미터와 제2 영향 파라미터 및 제3 영향 파라미터는 각각 수학식 10에서의 첫 번째 항, 두 번째 항, 세 번째 항이 얼마나 영향력을 가지는지를 나타내는 파라미터이다.The first influence parameter, the second influence parameter, and the third influence parameter are parameters indicating how the first, second, and third terms in Equation (10) have an influence.

상기 수학식 10에서 첫 번째 항은 데이터 항이며, 보간 인터랙션 정보에서 픽셀 p의 값을 포함한다. 상기 수학식 10에서 두 번째 항은 데이터 항이며, 깊이 정보 영상에서 픽셀 p의 값을 포함한다. 상기 수학식 10에서 세 번째 항은 사전 지식 항이며, 보정된 깊이 정보 영상에서 픽셀 p의 값을 포함한다. 상기 수학식 10에서 세 번째 항에 의하여, 상기 보정된 깊이 정보 영상은 전반적으로 평활화된 영상으로 생성되는 것일 수 있다. The first term in Equation (10) is a data term and includes the value of the pixel p in the interpolation interaction information. In Equation (10), the second term is a data term and includes the value of the pixel p in the depth information image. In Equation (10), the third term is a prior knowledge term and includes the value of the pixel p in the corrected depth information image. According to the third term in Equation (10), the corrected depth information image may be generated as an overall smoothed image.

만약 임의의 픽셀이 깊이 인터랙션 정보와 이웃하는 픽셀이라면, 제1 영향 파라미터의 값이 제2 영향 파라미터의 값 보다 클 것이고, 상기 깊이 인터랙션 정보와 이웃하는 임의의 픽셀은 보간 인터랙션 정보에 영향을 많이 받을 수 있다. If the arbitrary pixel is a pixel neighboring the depth interaction information, the value of the first influence parameter will be larger than the value of the second influence parameter, and any pixel adjacent to the depth interaction information will be highly affected by the interpolation interaction information .

만약 임의의 픽셀이 깊이 인터랙션 정보와 이웃하는 픽셀이 아니라면, 제1 영향 파라미터의 값이 제2 영향 파라미터의 값 보다 작을 것이고, 상기 깊이 인터랙션 정보와 이웃하지 않는 임의의 픽셀은 깊이 정보 영상에 영향을 많이 받지 않을 수 있다. If the arbitrary pixel is not a pixel neighboring the depth interaction information, the value of the first influence parameter will be smaller than the value of the second influence parameter, and any pixel not neighboring the depth interaction information will affect the depth information image You may not receive much.

본 발명에서는 상기 수학식 1의 WLS 문제를 상기 수학식 5의 분리된 서브 시스템의 근사화 방법을 사용하여 효율적인 시간 내에 전역해를 구한 것처럼, 수학식 14의 WLS 문제를 수학식 16와 수학식 17의 분리된 서브 시스템의 근사화 방법을 사용하여 해결하였다. 상기 방법을 사용함으로써(높이X너비)의 시간 복잡도에 보정된 깊이 정보 영상을 제공할 수 있다.In the present invention, the WLS problem of Equation (1) can be expressed as Equation (16) and Equation (17) as if the WLS problem of Equation 1 is obtained in an efficient time by using the method of approximating the separated subsystem of Equation And solved using a method of approximating a separate subsystem. By using the above method, it is possible to provide a depth information image corrected for time complexity (height X width).

Figure 112017069262119-pat00157
Figure 112017069262119-pat00157

여기에서,

Figure 112017069262119-pat00158
: 제1 영향 파라미터, u2,p: 제2 보간 인터랙션 정보에서 픽셀 p의 값이다. From here,
Figure 112017069262119-pat00158
: First influence parameter, u2, p: value of pixel p in the second interpolation interaction information.

상기 제1 영향 파라미터는 1000을 e의 (-64 x 제2 보간 인터랙션 정보에서 픽셀 p의 값 x 상수)를 취한 값에 1을 더한 값으로 제산한 값일 수 있다. The first influence parameter may be a value obtained by dividing 1000 by 1 (-64 x value of the pixel p in the second interpolation interaction information x constant) multiplied by e.

제2 보간 인터랙션 정보의 값이 일정한 값 이상이면 제1 영향 파라미터가 1000에 가까운 값을 가지고, 수학식 14의 데이터 항 중 첫째항의 영향력이 커진다.If the value of the second interpolation interaction information is equal to or greater than a predetermined value, the first influence parameter has a value close to 1000, and the influence of the first term in the data item of the expression (14) becomes larger.

Figure 112017069262119-pat00159
Figure 112017069262119-pat00159

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00160
: x축에서 픽셀 p의 두 이웃 픽셀, q: 픽셀 p를 중심으로 좌우 픽셀 중 하나의 픽셀,
Figure 112017069262119-pat00161
: 행으로 분리된 보정된 깊이 정보 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00162
: 행으로 분리된 보정된 깊이 정보 영상 중 픽셀 q의 값,
Figure 112017069262119-pat00163
: 행으로 분리된 보간 인터랙션 정보 중 픽셀 p의 값,
Figure 112017069262119-pat00164
: 행으로 분리된 깊이 정보 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00165
: 수학식 10과 같은 픽셀p와 픽셀 q의 연관성,
Figure 112017069262119-pat00166
: 제1 영향 파라미터,
Figure 112017069262119-pat00167
: 제2 영향 파라미터,
Figure 112017069262119-pat00168
: 제3 영향 파라미터이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00160
: two neighboring pixels of pixel p in the x-axis, q: one of the left and right pixels around pixel p,
Figure 112017069262119-pat00161
: The value of the pixel p in the corrected depth information image separated by the row,
Figure 112017069262119-pat00162
: The value of the pixel q in the corrected depth information image separated by the row,
Figure 112017069262119-pat00163
: The value of the pixel p among the row-separated interpolation interaction information,
Figure 112017069262119-pat00164
: The value of the pixel p in the depth information image separated by the row,
Figure 112017069262119-pat00165
: The relationship between the pixel p and the pixel q as shown in Equation 10,
Figure 112017069262119-pat00166
: First influence parameter,
Figure 112017069262119-pat00167
: Second influence parameter,
Figure 112017069262119-pat00168
: This is the third influence parameter.

수학식 14의 WLS 문제를 최적화하기 위해서는

Figure 112017069262119-pat00169
크기의 희소행렬을 포함하는 2차원 대규모 선형 시스템을 풀어야 하는데, 본 발명에서는 수학식 1의 WLS 문제를 수학식 5와 같은 분리된 서브 시스템의 근사화 방법을 사용하였다. 수학식 16와 수학식 17은 각각 수학식 14에 대한 분리된 X축 서브 시스템, 분리된 Y축 서브 시스템이다.To optimize the WLS problem of Equation 14
Figure 112017069262119-pat00169
Dimensional linear system including a sparse matrix having a size of 1 to 5 is solved. In the present invention, the WLS problem of Equation (1) is used to approximate a separate subsystem such as Equation (5). Equations (16) and (17) are separate X-axis subsystems, separate Y-axis subsystems for (14), respectively.

수학식 16의

Figure 112017069262119-pat00170
는 높이x너비 크기의 보간 인터랙션 정보를 높이 개수만큼의 분리된 임의의 행 중 픽셀 p의 값을 의미한다.In Equation (16)
Figure 112017069262119-pat00170
Means the value of the pixel p among the arbitrary rows separated by the height number of the interpolation interaction information of the height x width size.

수학식 16의

Figure 112017069262119-pat00171
는 높이x너비 크기의 깊이 정보 영상을 높이 개수만큼의 분리된 임의의 행 중 픽셀 p의 값을 의미한다.In Equation (16)
Figure 112017069262119-pat00171
Denotes a value of a pixel p among arbitrary rows separated by a height number of the depth information image of the height x width size.

수학식 16의

Figure 112017069262119-pat00172
는 높이x너비 크기의 보정된 깊이 정보 영상 중 높이 개수만큼의 분리된 임의의 행 중 픽셀 p의 값을 의미한다.In Equation (16)
Figure 112017069262119-pat00172
Means a value of a pixel p among arbitrary rows separated by the height of the corrected depth information image of the height x width size.

Figure 112017069262119-pat00173
Figure 112017069262119-pat00173

여기에서, p: 임의의 픽셀,

Figure 112017069262119-pat00174
: y축에서 픽셀 p의 두 이웃 픽셀, q: 픽셀 p를 중심으로 상하 픽셀 중 하나의 픽셀,
Figure 112017069262119-pat00175
: 열로 분리된 보정된 깊이 정보 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00176
: 열로 분리된 보정된 깊이 정보 영상 중 픽셀 q의 값,
Figure 112017069262119-pat00177
: 열로 분리된 보간 인터랙션 정보 중 픽셀 p의 값,
Figure 112017069262119-pat00178
: 열로 분리된 깊이 정보 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00179
: 수학식 10과 같은 픽셀p와 픽셀 q의 연관성,
Figure 112017069262119-pat00180
: 제1 영향 파라미터,
Figure 112017069262119-pat00181
: 제2 영향 파라미터,
Figure 112017069262119-pat00182
: 제3 영향 파라미터이다.Here, p: arbitrary pixel,
Figure 112017069262119-pat00174
: Two neighboring pixels of the pixel p in the y-axis, q: One pixel of the upper and lower pixels around the pixel p,
Figure 112017069262119-pat00175
: The value of the pixel p in the corrected depth information image separated by the column,
Figure 112017069262119-pat00176
: The value of the pixel q in the corrected depth information image separated by the column,
Figure 112017069262119-pat00177
: The value of the pixel p among the interpolation information of the columns,
Figure 112017069262119-pat00178
: The value of the pixel p in the depth information image separated by the column,
Figure 112017069262119-pat00179
: The relationship between the pixel p and the pixel q as shown in Equation 10,
Figure 112017069262119-pat00180
: First influence parameter,
Figure 112017069262119-pat00181
: Second influence parameter,
Figure 112017069262119-pat00182
: This is the third influence parameter.

수학식 14의 WLS 문제를 최적화하기 위해서는

Figure 112017069262119-pat00183
크기의 희소행렬을 포함하는 2차원 대규모 선형 시스템을 풀어야 하는데, 본 발명에서는 수학식 1의 WLS 문제를 수학식 5와 같은 분리된 서브 시스템의 근사화 방법을 사용하였다. 수학식 16와 수학식 17은 각각 수학식 14에 대한 분리된 X축 서브 시스템, 분리된 Y축 서브 시스템이다.To optimize the WLS problem of Equation 14
Figure 112017069262119-pat00183
Dimensional linear system including a sparse matrix having a size of 1 to 5 is solved. In the present invention, the WLS problem of Equation (1) is used to approximate a separate subsystem such as Equation (5). Equations (16) and (17) are separate X-axis subsystems, separate Y-axis subsystems for (14), respectively.

수학식 17의

Figure 112017069262119-pat00184
는 높이x너비 크기의 보간 인터랙션 정보를 너비 개수만큼의 분리된 임의의 열 중 픽셀 p의 값을 의미한다.In Equation 17
Figure 112017069262119-pat00184
Means the value of the pixel p among arbitrary columns separated by the number of widths of the interpolation interaction information of the height x width size.

수학식 17의

Figure 112017069262119-pat00185
는 높이x너비 크기의 깊이 정보 영상을 너비 개수만큼의 분리된 임의의 열 중 픽셀 p의 값을 의미한다.In Equation 17
Figure 112017069262119-pat00185
Means the value of the pixel p among the arbitrary columns separated by the number of widths in the depth information image of the height x width size.

수학식 17의

Figure 112017069262119-pat00186
는 높이x너비 크기의 보정된 깊이 정보 영상 중 너비 개수만큼의 분리된 임의의 열 중 픽셀 p의 값을 의미한다.In Equation 17
Figure 112017069262119-pat00186
Denotes a value of a pixel p among arbitrary columns separated by the number of widths from the corrected depth information image of height x width size.

Figure 112017069262119-pat00187
Figure 112017069262119-pat00187

여기에서,

Figure 112017069262119-pat00188
: 수학식 20와 같은 너비x너비 대각 행렬,
Figure 112017069262119-pat00189
: 행으로 분리된 보정된 깊이 정보 영상에 대응되는 너비x1 벡터,
Figure 112017069262119-pat00190
: 행으로 분리된 보간 인터랙션 정보에 대응되는 너비x1 벡터,
Figure 112017069262119-pat00191
: 수학식 21과 같은 너비x너비 연관성 행렬,
Figure 112017069262119-pat00192
: 행으로 분리된 깊이 영상 정보에 대응되는 너비x1 벡터,
Figure 112017069262119-pat00193
: 제1 영향 파라미터,
Figure 112017069262119-pat00194
: 제2 영향 파라미터,
Figure 112017069262119-pat00195
: 제3 영향 파라미터이다.From here,
Figure 112017069262119-pat00188
: Width x width diagonal matrix as in Equation 20,
Figure 112017069262119-pat00189
: A width x1 vector corresponding to the corrected depth information image separated by a row,
Figure 112017069262119-pat00190
: A width x1 vector corresponding to the interpolation interaction information separated by a row,
Figure 112017069262119-pat00191
: Width x width relevance matrix as shown in equation 21,
Figure 112017069262119-pat00192
: A width x1 vector corresponding to depth image information separated by a row,
Figure 112017069262119-pat00193
: First influence parameter,
Figure 112017069262119-pat00194
: Second influence parameter,
Figure 112017069262119-pat00195
: This is the third influence parameter.

상기 수학식 18는 상기 수학식 16의 최적화 과정에서 유도된 선형 시스템이고, 본 발명에서 사용되는 분리된 서브 시스템의 근사화 방법 덕분에 행렬

Figure 112017069262119-pat00196
Figure 112017069262119-pat00197
에서 너비x너비 크기로 줄어들었다. 또한, 행렬
Figure 112017069262119-pat00198
의 각 행마다 3개의 원소를 가지는 특성 덕분에 역행렬 연산 과정 중 수행 속도를 더욱 효율적으로 단축시킨다. 그 결과 위 선형 시스템을 이용한 깊이 추정 영상의 보정은 O(높이x너비)의 시간 복잡도로 단축된다.Equation (18) is a linear system derived from the optimization process of Equation (16), and thanks to the method of approximating a separate subsystem used in the present invention,
Figure 112017069262119-pat00196
The
Figure 112017069262119-pat00197
To width x width. Also,
Figure 112017069262119-pat00198
The performance of the inverse matrix computation process is more efficiently shortened owing to the characteristics having three elements in each row. As a result, the correction of the depth estimation image using the linear system is shortened to the time complexity of O (height x width).

상기 대각 행렬은 보간 인터랙션 정보와 깊이 영상 정보로 구성될 수 있다. 상기 유사성 행렬은 연관성 함수로 구성될 수 있다. The diagonal matrix may include interpolation interaction information and depth image information. The similarity matrix may be composed of an association function.

Figure 112017069262119-pat00199
Figure 112017069262119-pat00199

여기에서, : 수학식 20과 같은 높이x높이 대각 행렬,

Figure 112017069262119-pat00200
: 열로 분리된 보정된 깊이 정보 영상에 대응되는 높이x1 벡터,
Figure 112017069262119-pat00201
: 열로 분리된 보간 인터랙션 정보에 대응되는 높이x1 벡터,
Figure 112017069262119-pat00202
: 수학식 21과 같은 높이x높이 연관성 행렬,
Figure 112017069262119-pat00203
: 열로 분리된 깊이 영상 정보에 대응되는 높이x1 벡터,
Figure 112017069262119-pat00204
: 제1 영향 파라미터,
Figure 112017069262119-pat00205
: 제2 영향 파라미터,
Figure 112017069262119-pat00206
: 제3 영향 파라미터이다.Where: height x height diagonal matrix as in equation 20,
Figure 112017069262119-pat00200
: A height x1 vector corresponding to the corrected depth information image separated into columns,
Figure 112017069262119-pat00201
: Height x1 vector corresponding to the interpolation interaction information separated by the column,
Figure 112017069262119-pat00202
: Height-x-height correlation matrix as shown in equation (21)
Figure 112017069262119-pat00203
: Height x1 vector corresponding to the depth image information separated by the row,
Figure 112017069262119-pat00204
: First influence parameter,
Figure 112017069262119-pat00205
: Second influence parameter,
Figure 112017069262119-pat00206
: This is the third influence parameter.

상기 수학식 19는 상기 수학식 17의 최적화 과정에서 유도된 선형 시스템이고, 본 발명에서 사용되는 분리된 서브 시스템의 근사화 방법 덕분에 행렬

Figure 112017069262119-pat00207
Figure 112017069262119-pat00208
에서 높이x높이 크기로 줄어들었다.Equation (19) is a linear system derived from the optimization process of Equation (17), and thanks to the method of approximating a separate subsystem used in the present invention,
Figure 112017069262119-pat00207
The
Figure 112017069262119-pat00208
To the height x height.

또한, 행렬

Figure 112017069262119-pat00209
의 각 행마다 3개의 원소를 가지는 특성 덕분에 역행렬 연산 과정 중 수행 속도를 더욱 효율적으로 단축시킨다. 그 결과 위 선형 시스템를 이용한 깊이 추정 영상의 보정은 O(높이x너비)의 시간복잡도로 단축된다.Also,
Figure 112017069262119-pat00209
The performance of the inverse matrix computation process is more efficiently shortened owing to the characteristics having three elements in each row. As a result, the correction of the depth estimation image using the linear system is shortened to the time complexity of O (height x width).

상기 대각 행렬은 보간 인터랙션 정보와 깊이 영상 정보로 구성될 수 있다. 상기 유사성 행렬은 연관성 함수로 구성될 수 있다.The diagonal matrix may include interpolation interaction information and depth image information. The similarity matrix may be composed of an association function.

Figure 112017069262119-pat00210
Figure 112017069262119-pat00210

여기에서,

Figure 112017069262119-pat00211
: 높이x높이 대각 행렬
Figure 112017069262119-pat00212
의 p번째 행, q번째 열에 있는 값,
Figure 112017069262119-pat00213
: 너비x너비 대각 행렬
Figure 112017069262119-pat00214
의 p번째 행, q번째 열에 있는 값, p: 임의의 픽셀, q: 임의의 픽셀,
Figure 112017069262119-pat00215
: 행으로 분리된 보간 인터랙션 정보 중 픽셀 p의 값,
Figure 112017069262119-pat00216
: 열로 분리된 보간 인터랙션 정보 중 픽셀 p의 값,
Figure 112017069262119-pat00217
: 행으로 분리된 깊이 정보 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00218
: 열로 분리된 깊이 정보 영상 중 픽셀 p의 값,
Figure 112017069262119-pat00219
: 수학식 10과 같은 픽셀 p와 픽셀 j 간의 연관성,
Figure 112017069262119-pat00220
: 픽셀 p의 좌우 픽셀,
Figure 112017069262119-pat00221
: 픽셀 p의 상하 픽셀,
Figure 112017069262119-pat00222
: 행으로 분리된 제1 영향 파라미터,
Figure 112017069262119-pat00223
: 열로 분리된 제1 영향 파라미터,
Figure 112017069262119-pat00224
: 제2 영향 파라미터,
Figure 112017069262119-pat00225
: 제3 영향 파라미터이다.From here,
Figure 112017069262119-pat00211
: Height x height diagonal matrix
Figure 112017069262119-pat00212
The value in the pth row, the qth column of < RTI ID = 0.0 >
Figure 112017069262119-pat00213
: Width x width diagonal matrix
Figure 112017069262119-pat00214
The value in the pth row, the qth column of the pixel, p: an arbitrary pixel, q: an arbitrary pixel,
Figure 112017069262119-pat00215
: The value of the pixel p among the row-separated interpolation interaction information,
Figure 112017069262119-pat00216
: The value of the pixel p among the interpolation information of the columns,
Figure 112017069262119-pat00217
: The value of the pixel p in the depth information image separated by the row,
Figure 112017069262119-pat00218
: The value of the pixel p in the depth information image separated by the column,
Figure 112017069262119-pat00219
: The relationship between the pixel p and the pixel j as shown in Equation 10,
Figure 112017069262119-pat00220
: The left and right pixels of pixel p,
Figure 112017069262119-pat00221
: Upper and lower pixel of pixel p,
Figure 112017069262119-pat00222
: A first influence parameter separated by a row,
Figure 112017069262119-pat00223
: A first effect parameter separated by heat,
Figure 112017069262119-pat00224
: Second influence parameter,
Figure 112017069262119-pat00225
: This is the third influence parameter.

Figure 112017069262119-pat00226
Figure 112017069262119-pat00226

여기에서,

Figure 112017069262119-pat00227
: 분리된 X축 서브시스템에 대한 유사성 행렬
Figure 112017069262119-pat00228
에서 좌표 (p,q)에 해당하는 값,
Figure 112017069262119-pat00229
: 분리된 Y축 서브시스템에 대한 유사성 행렬
Figure 112017069262119-pat00230
에서 좌표 (p,q)에 해당하는 값, p: 임의의 p번째 행, q: 임의의 q번째 열,
Figure 112017069262119-pat00231
(p): x축에서 픽셀 p의 두 이웃 픽셀,
Figure 112017069262119-pat00232
(p): y축에서 픽셀 p의 두 이웃 픽셀,
Figure 112017069262119-pat00233
: 픽셀 p와 픽셀 q의 연관성을 나타내는 연관성 함수이다. From here,
Figure 112017069262119-pat00227
: Similarity matrix for discrete X-axis subsystems
Figure 112017069262119-pat00228
A value corresponding to the coordinates (p, q)
Figure 112017069262119-pat00229
: Similarity matrix for discrete Y-axis subsystems
Figure 112017069262119-pat00230
(P, q), p: arbitrary p-th row, q: arbitrary q-th column,
Figure 112017069262119-pat00231
(p): two neighboring pixels of pixel p in the x-axis,
Figure 112017069262119-pat00232
(p): two neighboring pixels of pixel p in the y-axis,
Figure 112017069262119-pat00233
Is an associative function that indicates the association of pixel p with pixel q.

상기 x축에서 픽셀 p의 두 이웃 픽셀은 상기 픽셀 p를 기준으로 좌우의 픽셀을 의미할 수 있다. 상기 y축에서 픽셀 p의 두 이웃 픽셀은 상기 픽셀 p를 기준으로 상하의 픽셀을 의미할 수 있다. 상기 픽셀 p와 픽셀 q의 연관성을 나타내는 연관성 함수는 상기 수학식 12을 이용하여 정의되는 것일 수 있다.Two neighboring pixels of the pixel p in the x-axis may refer to the left and right pixels with respect to the pixel p. Two neighboring pixels of the pixel p in the y-axis may refer to the upper and lower pixels based on the pixel p. The association function indicating the association between the pixel p and the pixel q may be defined using Equation (12).

Figure 112017069262119-pat00234
Figure 112017069262119-pat00234

여기에서, A: 수학식 20과 같은

Figure 112017069262119-pat00235
라플라시안 행렬, I:
Figure 112017069262119-pat00236
단위 행렬,
Figure 112017069262119-pat00237
:영향 파라미터, m: 임의의 픽셀, h1: 수학식 19와 같은 색인 함수, h2: 수학식 19와 같은 색인 함수이다. Here, A: as in Equation 20
Figure 112017069262119-pat00235
Laplacian matrix, I:
Figure 112017069262119-pat00236
Unit matrix,
Figure 112017069262119-pat00237
: An influence parameter, m: arbitrary pixel, h1: an index function as shown in equation (19), and h2: an index function as shown in equation (19).

상기 색인 함수

Figure 112017069262119-pat00238
Figure 112017069262119-pat00239
는 분할 영상 생성시에 국한되어 사용되며, 상기 색인 함수
Figure 112017069262119-pat00240
와는 다르다.The index function
Figure 112017069262119-pat00238
and
Figure 112017069262119-pat00239
Is used only when a divided image is generated, and the index function
Figure 112017069262119-pat00240
.

상기 수학식 22은 분할 영상 생성부(130)에서 객체-배경 분할 영상을 생성하기 위한 수학식이다. 수학식 22은 객체-배경 분할 과정을 수학식 1과 같은 WLS문제로 정의한 후 최적화 과정 중 유도되는 수학식 3과 같은 선형 시스템이다. 본 발명에서는 수학식 3의 대규모 선형 시스템을 수학식 6의 분리된 서브 시스템으로의 근사화 방법을 통해 수학식 22과 같은 대규모 선형 시스템을 효율적으로 풀었다.Equation (22) is a mathematical expression for generating an object-background divided image in the divided image generating unit 130. Equation (22) is a linear system such as Equation (3) that is derived during the optimization process after defining the object-background division process as a WLS problem such as Equation (1). In the present invention, a large-scale linear system of Equation (3) is solved efficiently by a method of approximating the large-scale linear system of Equation (6) into a separate subsystem of Equation (6).

Figure 112017069262119-pat00241
Figure 112017069262119-pat00241

여기에서, m: 임의의 픽셀,

Figure 112017069262119-pat00242
(m): 임의의 픽셀 m에 대한 색인 함수의 요소,
Figure 112017069262119-pat00243
(m): 임의의 픽셀 m에 대한 색인 함수의 요소이다.Here, m: arbitrary pixel,
Figure 112017069262119-pat00242
(m): an element of the index function for any pixel m,
Figure 112017069262119-pat00243
(m) is an element of the index function for any pixel m.

상기 색인 함수

Figure 112017069262119-pat00244
Figure 112017069262119-pat00245
는 분할 영상 생성시에 국한되어 사용되며,상기 색인 함수
Figure 112017069262119-pat00246
와는 다르다.The index function
Figure 112017069262119-pat00244
and
Figure 112017069262119-pat00245
Is used only when a divided image is generated, and the index function
Figure 112017069262119-pat00246
.

Figure 112017069262119-pat00247
Figure 112017069262119-pat00247

여기에서, m: 임의의 m번째 행, n: 임의의 n번째 열, A(m,n):

Figure 112017069262119-pat00248
라플라시안 행렬A에서 좌표 (m,n)에 해당하는 값,
Figure 112017069262119-pat00249
: 컬러 영상에서 픽셀 m에 해당하는 값,
Figure 112017069262119-pat00250
: 컬러 영상에서 픽셀 l에 해당하는 값,
Figure 112017069262119-pat00251
: 컬러 영상에서 픽셀 n에 해당하는 값,
Figure 112017069262119-pat00252
: 컬러 특징 값에 대한 정규화 파라미터, N(m): 픽셀 m을 중심으로 상하좌우 픽셀, l: 픽셀 m을 중심으로 상하좌우 픽셀 중 하나의 픽셀, n: 픽셀 m을 중심으로 상하좌우 픽셀 중 하나의 픽셀이다.Here, m: arbitrary mth row, n: arbitrary nth column, A (m, n):
Figure 112017069262119-pat00248
A value corresponding to the coordinate (m, n) in the Laplacian matrix A,
Figure 112017069262119-pat00249
: A value corresponding to a pixel m in a color image,
Figure 112017069262119-pat00250
: A value corresponding to a pixel l in a color image,
Figure 112017069262119-pat00251
: A value corresponding to pixel n in a color image,
Figure 112017069262119-pat00252
: Normalized parameter for color feature value, N (m): Upper and lower left and right pixel around pixel m, l: One pixel of upper and lower left and right pixel around pixel m, n: One of upper, / RTI >

여기에서, 본 발명의 또 다른 실시예에 따른 사용자 인터랙션 정보 기반 깊이 정보 영상의 보정 방법 실행 컴퓨터 프로그램은 상술한 본 발명에 따른 수중 유도 무기 방어 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램이 될 수 있다.Here, the computer program for executing the correction method of the depth information image based on the user interaction information according to another embodiment of the present invention may be a computer program stored in the medium for executing the underwater guided weapon defense method according to the present invention .

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them.

또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들이 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록 매체, 광 기록매체 등이 포함될 수 있다.In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (15)

적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하는 수신부;
상기 수신된 컬러 정보 영상에 인터랙션 정보를 입력 하는 입력부;
상기 입력된 인터랙션 정보 및 상기 수신된 컬러 정보 영상을 이용하여 객체와 배경을 구분하는 분할 영상을 생성하는 분할 영상 생성부;
보간법을 이용하여 상기 입력된 인터랙션 정보를 보간하는 보간부; 및
상기 보간된 인터랙션 정보, 상기 컬러 정보 영상, 상기 분할 영상 및 전역적 목적 함수를 이용하여 상기 추정된 깊이 정보 영상을 보정하는 보정부; 를 포함하고,
상기 전역적 목적 함수는,
상기 보간된 인터랙션 정보 및 상기 추정된 깊이 정보 영상 중 적어도 하나를 이용하는 데이터 항; 및
상기 분할 영상 및 상기 컬러 정보 영상 중 적어도 하나를 이용하는 사전 지식 항;을 포함하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치.
A receiving unit for receiving a depth information image estimated by at least one depth estimating apparatus and a color information image picked up by at least one color photographing apparatus;
An input unit for inputting interaction information into the received color information image;
A divided image generating unit for generating a divided image for distinguishing an object and a background using the inputted interaction information and the received color information image;
An interpolation unit interpolating the input interaction information using an interpolation method; And
A correcting unit correcting the estimated depth information image using the interpolated interaction information, the color information image, the divided image, and the global objective function; Lt; / RTI >
The global objective function may be expressed as:
A data item using at least one of the interpolated interaction information and the estimated depth information image; And
Wherein the depth information comprises at least one of the segmented image and the color information image.
제1항에 있어서, 상기 보정부는
상기 보간된 인터랙션 정보와 상기 추정된 깊이 정보 영상을 이용하여 보정을 위한 상기 전역적 목적 함수를 정의하고, 상기 전역적 목적 함수의 해를 찾음으로써 상기 추정된 깊이 정보 영상을 보정하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치.
The apparatus of claim 1, wherein the correcting unit
Defining the global objective function for correction using the interpolated interaction information and the estimated depth information image and correcting the estimated depth information image by finding a solution of the global objective function, User Interaction Information Based Depth Information Image Correction Device.
제2항에 있어서, 상기 보간된 인터랙션 정보는
보간된 깊이 인터랙션 정보, 상기 분할 영상 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치.
3. The method of claim 2, wherein the interpolated interaction information comprises:
The interpolated depth interaction information, and the segmented image. ≪ RTI ID = 0.0 > [100] < / RTI >
삭제delete 제1항에 있어서, 상기 보정부는
상기 분할 영상 중, 상기 깊이 정보 영상에 매핑되는 분할 영상을 확인하고, 상기 깊이 정보 영상을 상기 확인된 분할 영상으로 대체하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치.
The apparatus of claim 1, wherein the correcting unit
Wherein the depth information image is replaced with the identified divided image, wherein the divided image is mapped to the depth information image, and the depth information image is replaced with the identified divided image.
제1항에 있어서, 상기 보간부는
상기 깊이 정보 영상, 상기 깊이 정보 영상에 해당하는 좌표 맵, 색인 함수, 연관성 함수 및 상기 분할 영상 중 적어도 하나를 이용하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치.
The apparatus of claim 1, wherein the interpolator
Wherein at least one of the depth information image, the coordinate map corresponding to the depth information image, the index function, the association function, and the segmented image is used.
제1항에 있어서, 상기 전역적 목적 함수가 이용되었으면,
상기 전역적 목적 함수를 1차원 선형 시스템으로 변환하기 위해 근사화 과정을 이용하는 최적화 방법을 이용하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 장치.
2. The method of claim 1, wherein if the global objective function is used,
And an optimization method using an approximation process is used to convert the global objective function into a one-dimensional linear system.
적어도 하나의 깊이 추정 장치에 의해 추정된 깊이 정보 영상 및 적어도 하나의 컬러 촬영 장치에 의해 촬영된 컬러 정보 영상을 수신하는 단계;
상기 수신된 컬러 정보 영상에 인터랙션 정보를 입력 하는 단계;
상기 입력된 인터랙션 정보 및 상기 수신된 컬러 정보 영상을 이용하여 객체와 배경을 구분하는 분할 영상을 생성하는 단계;
보간법을 이용하여 상기 입력된 인터랙션 정보를 보간하는 단계;
상기 보간된 인터랙션 정보, 상기 컬러 정보 영상, 상기 분할 영상 및 전역적 목적 함수를 이용하여 상기 추정된 깊이 정보 영상을 보정하는 단계; 를 포함고,
상기 전역적 목적 함수는,
상기 보간된 인터랙션 정보 및 상기 추정된 깊이 정보 영상 중 적어도 하나를 이용하는 데이터 항; 및
상기 분할 영상 및 상기 컬러 정보 영상 중 적어도 하나를 이용하는 사전 지식 항; 을 포함하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법.
Receiving a depth information image estimated by at least one depth estimation device and a color information image photographed by at least one color photographing device;
Inputting interaction information to the received color information image;
Generating a divided image for distinguishing an object and a background using the input interaction information and the received color information image;
Interpolating the input interaction information using an interpolation method;
Correcting the estimated depth information image using the interpolated interaction information, the color information image, the divided image, and the global objective function; Lt; / RTI >
The global objective function may be expressed as:
A data item using at least one of the interpolated interaction information and the estimated depth information image; And
A prior knowledge item using at least one of the divided image and the color information image; And generating a depth information image based on the user interaction information.
제8항에 있어서, 상기 보정하는 단계는
상기 보간된 인터랙션 정보와 상기 추정된 깊이 정보 영상을 이용하여 보정을 위한 상기 전역적 목적 함수를 정의하고, 상기 전역적 목적 함수의 해를 찾음으로써 상기 추정된 깊이 정보 영상을 보정하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법.
9. The method of claim 8, wherein the correcting comprises:
Defining the global objective function for correction using the interpolated interaction information and the estimated depth information image and correcting the estimated depth information image by finding a solution of the global objective function, User Interaction Information Based Depth Information Image Correction Method.
제9항에 있어서, 상기 보간된 인터랙션 정보는
보간된 깊이 인터랙션 정보, 상기 분할 영상 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법.
10. The method of claim 9, wherein the interpolated interaction information
The interpolated depth interaction information, and the segmented image. ≪ Desc / Clms Page number 26 >
삭제delete 제8항에 있어서, 상기 보정하는 단계는
상기 분할 영상 중, 상기 깊이 정보 영상에 매핑되는 분할 영상을 확인하고, 상기 깊이 정보 영상을 상기 분할 영상으로 대체하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법.
9. The method of claim 8, wherein the correcting comprises:
Wherein the depth information image is replaced with the segmented image, wherein the segmented image is mapped to the depth information image, and the depth information image is replaced with the segmented image.
제8항에 있어서, 상기 입력된 인터랙션 정보를 보간하는 단계는
상기 깊이 정보 영상, 상기 깊이 정보 영상에 해당하는 좌표 맵, 색인 함수, 연관성 함수 및 상기 분할 영상 중 적어도 하나를 이용하여 상기 입력된 인터랙션 정보를 보간하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법.
9. The method of claim 8, wherein interpolating the input interaction information comprises:
Wherein the interpolation information interpolation unit interpolates the input interaction information using at least one of the depth information image, the coordinate map corresponding to the depth information image, the index function, the association function, Way.
제8항에 있어서, 상기 전역적 목적 함수가 이용되었으면,
상기 전역적 목적 함수를 1차원 선형 시스템으로 변환하기 위해 근사화 과정을 이용하는 최적화 방법을 이용하는 것을 특징으로 하는 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법.
9. The method of claim 8, wherein if the global objective function is used,
And an optimization method using an approximation process is used to convert the global objective function into a one-dimensional linear system.
컴퓨터에서 제8항 내지 제10항, 제12항, 제13항 및 제14항 중 어느 한 항에 따른 상기 사용자 인터랙션 정보 기반 깊이 정보 영상 보정 방법을 실행시키기 위한 상기 컴퓨터에서 판독 가능한 매체에 저장된 컴퓨터 프로그램.A computer-readable medium having stored thereon a computer-readable medium for executing the user interaction-based depth information image correction method according to any one of claims 8 to 10, 12, 13 and 14, program.
KR1020170091489A 2017-07-19 2017-07-19 Apparatus and method for correcting depth information image based on user's interaction information KR101919879B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170091489A KR101919879B1 (en) 2017-07-19 2017-07-19 Apparatus and method for correcting depth information image based on user's interaction information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170091489A KR101919879B1 (en) 2017-07-19 2017-07-19 Apparatus and method for correcting depth information image based on user's interaction information

Publications (1)

Publication Number Publication Date
KR101919879B1 true KR101919879B1 (en) 2018-11-19

Family

ID=64561933

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170091489A KR101919879B1 (en) 2017-07-19 2017-07-19 Apparatus and method for correcting depth information image based on user's interaction information

Country Status (1)

Country Link
KR (1) KR101919879B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102053940B1 (en) * 2019-05-07 2019-12-11 주식회사 두잉랩 System and method for estimating object using association analysis between multiple object
CN113256650A (en) * 2021-05-13 2021-08-13 广州繁星互娱信息科技有限公司 Image segmentation method, apparatus, device and medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013641A (en) * 2002-06-07 2004-01-15 Sony Corp Object outline extraction device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013641A (en) * 2002-06-07 2004-01-15 Sony Corp Object outline extraction device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102053940B1 (en) * 2019-05-07 2019-12-11 주식회사 두잉랩 System and method for estimating object using association analysis between multiple object
CN113256650A (en) * 2021-05-13 2021-08-13 广州繁星互娱信息科技有限公司 Image segmentation method, apparatus, device and medium

Similar Documents

Publication Publication Date Title
US10832432B2 (en) Method for training convolutional neural network to reconstruct an image and system for depth map generation from an image
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
US10672131B2 (en) Control method, non-transitory computer-readable storage medium, and control apparatus
US9412151B2 (en) Image processing apparatus and image processing method
KR20230013243A (en) Maintain a fixed size for the target object in the frame
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
CN110796686B (en) Target tracking method and device and storage device
JP6902122B2 (en) Double viewing angle Image calibration and image processing methods, equipment, storage media and electronics
US20160286138A1 (en) Apparatus and method for stitching panoramaic video
JP6044134B2 (en) Image area dividing apparatus, method, and program according to optimum image size
CN107566688B (en) Convolutional neural network-based video anti-shake method and device and image alignment device
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
EP2785047B1 (en) Image pickup apparatus, image processing system, image pickup system, image processing method, image processing program, and storage medium
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US10043242B2 (en) Method and apparatus for synthesis of higher resolution images
KR102201297B1 (en) Apparatus and method for interpolating frames based on multiple flows
WO2018227216A1 (en) Learning-based matching for active stereo systems
WO2017168462A1 (en) An image processing device, an image processing method, and computer-readable recording medium
JP2018085140A (en) Modification of homography
US20220277580A1 (en) Hand posture estimation method and apparatus, and computer storage medium
CN114820739B (en) Multispectral camera-oriented image rapid registration method and device
EP3864622A1 (en) Object tracking based on a user-specified initialization point
KR101919879B1 (en) Apparatus and method for correcting depth information image based on user's interaction information
US8472756B2 (en) Method for producing high resolution image
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant