KR101027004B1 - Apparatus and method for 3d estimating fusing optical flow and stereo matching - Google Patents
Apparatus and method for 3d estimating fusing optical flow and stereo matching Download PDFInfo
- Publication number
- KR101027004B1 KR101027004B1 KR1020090085439A KR20090085439A KR101027004B1 KR 101027004 B1 KR101027004 B1 KR 101027004B1 KR 1020090085439 A KR1020090085439 A KR 1020090085439A KR 20090085439 A KR20090085439 A KR 20090085439A KR 101027004 B1 KR101027004 B1 KR 101027004B1
- Authority
- KR
- South Korea
- Prior art keywords
- binocular
- time
- difference
- optical flow
- value
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 장치는, 시간 t에서 입력되는 좌우측 입력 영상의 부모 노드(t-1)에 대한 양안차와 광 흐름이 저장되어 있는 레지스터와, 부모 노드에서 시간 t의 좌우측 입력 영상에서 각각 추정되는 대응점, 좌측 영상을 기준으로 부모 노드에서 추정된 시간 t의 양안차 예측 값 및 부모 노드의 좌우측 각 영상의 광 흐름 값을 계산하는 시간 업데이트부와, 시간 업데이트부에서 계산된 부모 노드에서의 광 흐름 값, 양안차 예측 값 및 대응점들을 이용하여 좌우측 입력 영상에 대한 양안차와 광 흐름을 계산하여 레지스터를 업데이트시키는 측정 값 업데이트부를 포함한다.A three-dimensional structure estimating apparatus that combines an optical flow and stereo matching according to an embodiment of the present invention includes a register storing a binocular difference and an optical flow for a parent node (t-1) of left and right input images input at time t And a time update for calculating a binomial difference prediction value of the time t estimated by the parent node based on the left image and optical flow values of the left and right images of the parent node, And a measurement value updater for updating the register by calculating binocular disparity and optical flow for the left and right input images using the optical flow value, the binocular disparity value, and the corresponding points in the parent node calculated by the time update unit.
이와 같이, 본 발명은 부모 노드인 이전 시간의 모션과 프레임을 이용하여 현재 프레임의 양안차 예측 값과 대응점들 추정하고, 현재 프레임과 추정된 대응점 및 양안차 예측 값을 이용하여 실제 정확한 대응점들을 계산함으로써, 광 흐름 및 양안차의 검색 범위를 줄일 수 있을 뿐만 아니라 연산 속도 및 정확도를 향상시킬 수 있다.As described above, the present invention estimates the binocular difference value and the corresponding points of the current frame using the motion and frame of the previous time, which is the parent node, and calculates the actual correct corresponding points using the current frame and the estimated corresponding point and binocular difference prediction value Thereby making it possible to reduce the search range of the optical flow and the binocular, as well as improve the computation speed and accuracy.
양안차, 광흐름, 스테레오 매칭 Binocular, optical flow, stereo matching
Description
본 발명은 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정에 관한 것으로, 더욱 상세하게는 광 흐름 및 양안차의 검색 범위를 줄일 수 있을 뿐만 아니라 연산 속도 및 정확도를 향상시킬 수 있는 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 장치 및 방법에 관한 것이다.The present invention relates to a three-dimensional structure estimation that combines optical flow and stereo matching, and more particularly, to a method and apparatus for estimating a three-dimensional structure by combining optical flow and stereo matching, Dimensional structure estimating apparatus and method.
일반적으로 인간의 시각 시스템은 두 개의 눈을 포함하는데, 이 두 개의 눈을 통해 사물의 멀고 가까움, 즉 거리 정보를 알 수 있다. 이를 카메라 영상에 적용하면 어떤 공간에 대한 두 장의 영상을 이용하면 거리 정보를 알 수 있게 된다.In general, the human visual system includes two eyes, which allow us to know the distance and distance information of things through the two eyes. When applied to a camera image, two images of a certain space can be used to obtain distance information.
영상을 통해 거리 정보를 획득하는 것이 시각 시스템 내의 스테레오 매칭의 궁극적인 목적이다. 한 장의 영상은 3차원 공간을 2차원 공간으로 사영(projection)시킨 것 인데, 이 과정에서 거리 정보를 잃어버리게 되고 이 때문에 단일 영상에서 3차원 공간을 복원시키는 것은 어렵다.Obtaining distance information through the image is the ultimate goal of stereo matching in the visual system. One image is a projection of a three-dimensional space into a two-dimensional space. In this process, the distance information is lost. Therefore, it is difficult to reconstruct a three-dimensional space from a single image.
하지만, 사물에 대해 서로 다른 위치에서 얻어진 두 영상이 있을 때 3차원 공간의 복원은 가능해진다. 만약 실제 공간 상의 어떤 점이 두 장의 영상에 맺히게 되면, 그 두 장의 영상의 정보와 간단한 기하구조를 이용하여 그 점의 실제 3차원 공간상의 위치를 찾을 수가 있다. 여기서, 3차원 공간에서 2차원 영상에 맺히는 점을 좌, 우 영상 각각의 대응점이라고 하며, 좌측 또는 우측 영상을 기준으로 서로 다은 대응점을 찾는 과정을 스테레오 매칭이라 한다.However, when there are two images obtained from different positions on the object, it becomes possible to reconstruct the 3D space. If a point on the actual space is formed on two images, the position of the point on the real three-dimensional space can be found by using the information of the two images and the simple geometry. Here, a point formed in the two-dimensional image in the three-dimensional space is referred to as a corresponding point of each of the left and right images, and the process of finding corresponding points on the basis of the left or right image is referred to as stereo matching.
스테레오 매칭을 통해 두 영상의 양안차(disparity)를 구할 수 있는데, 즉 두 대의 카메라가 같은 평면상에 존재하고 광축이 서로 평행하면 두 영상의 양안차(disparity)는 두 카메라로부터 얻어지는 좌우 영상의 각각 대응되는 점의 차에 의해 계산될 수 있다. The disparity of two images can be obtained through stereo matching. That is, when two cameras are on the same plane and the optical axes are parallel to each other, the disparity of the two images is obtained by dividing the left and right images Can be calculated by the difference of the corresponding points.
한편, 두 개의 카메라에서 제공받은 좌우측 영상을 토대로 3차원 공간을 복원시키는데 필요한 것으로 광 흐름(optical flow)을 들 수 있는데, 여기서 광 흐름은 명도 유형을 서서히 변화시킴으로써 발생하는 영상에서의 움직임의 속도 분포, 즉 시간의 흐름에 따른 영상의 변화 값을 의미한다.On the other hand, an optical flow is required to restore a three-dimensional space based on left and right images provided by two cameras. Here, a light flow is a velocity distribution of a motion in an image generated by gradually changing a lightness type , That is, a change value of an image with time.
광 흐름과 스테레오 매칭 기술을 융합하여 3차원 공간을 복원하는 종래 기술은 상호간의 부정확한 관계를 사용하여 광 흐름 및 양안차를 계산한다. 그 중 하나의 종래 기술은 시간에 순차적인 영상들의 특징 점을 이용해 광 흐름을 계산하고, 그 계산된 광 흐름 값을 스테레오 매칭의 이동 성분에 대한 정보로 이용한다.Conventional techniques for reconstructing a three-dimensional space by combining optical flow and stereo matching techniques calculate the light flow and the binocular by using an inaccurate relationship between each other. One prior art technique calculates light flow using feature points of images sequentially in time, and uses the calculated light flow value as information on a moving component of stereo matching.
다른 종래 기술은 양안차의 불연속적 특성과 광 흐름 사이에 나타나는 상호 관계를 이용하고, 스테레오 매칭 기술에서의 불연속과 차단(occlusion) 사이의 관 계를 양안차 계산을 위한 제한항으로 이용한다.Other prior art techniques take advantage of the interrelationships between discontinuous characteristics of the binocular and light flow, and use the relationship between discontinuity and occlusion in stereo matching techniques as the limiting term for binocular disparity calculations.
종래의 광 흐름과 양안차를 계산하는 기술은 상호간의 강력한 제한항을 이용하는 대신에 상대 큐(cue)의 정보를 추측하기 위해 단지 하나의 큐만을 사용하며, 기하학적 성질에 대한 제한을 이용하지 않을 뿐만 아니라 시간 특징적인 영역에서 계산되지 않는 문제점이 있다.Conventional optical flow and binocular difference calculation techniques use only one cue to guess the information of the opponent cue instead of using mutually strong constraint terms and do not take advantage of restrictions on geometric properties However, there is a problem that is not calculated in the time characteristic region.
본 발명은 부모 노드인 이전 시간의 모션과 프레임을 이용하여 현재 프레임의 양안차 예측 값과 대응점들 추정하고, 현재 프레임과 추정된 대응점 및 양안차 예측 값로 실제 정확한 대응점들을 계산하여 광 흐름 및 양안차의 검색 범위를 줄일 수 있을 뿐만 아니라 연산 속도 및 정확도를 향상시킬 수 있는 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 장치 및 방법을 제공하는데 있다.The present invention estimates the binocular difference value and the corresponding points of the current frame using the motion and frame of the previous time which is the parent node and calculates the correct corresponding points using the current frame and the corresponding corresponding point and the binocular prediction value, Dimensional structure estimating apparatus and method that can combine optical flow and stereo matching, which can reduce the search range of an image, and improve computation speed and accuracy.
본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to those mentioned above, and other objects not mentioned may be clearly understood by those skilled in the art from the following description.
본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 장치는, 시간 t에서 입력되는 좌우측 입력 영상의 부모 노드(t-1)에 대한 양안 차와 광 흐름이 저장되어 있는 레지스터와, 상기 부모 노드에서 상기 시간 t의 좌우측 입력 영상에서 각각 추정되는 대응점, 좌측 영상을 기준으로 상기 부모 노드에서 추정된 상기 시간 t의 양안차 예측 값 및 상기 부모 노드의 좌우측 각 영상의 광 흐름 값을 계산하는 시간 업데이트부와, 상기 시간 업데이트부에서 계산된 상기 부모 노드에서의 광 흐름 값, 양안차 예측 값 및 대응점들을 이용하여 상기 좌우측 입력 영상에 대한 양안차와 광 흐름을 계산하여 상기 레지스터를 업데이트시키는 측정 값 업데이트부를 포함한다.A three-dimensional structure estimating apparatus that combines an optical flow and stereo matching according to an embodiment of the present invention includes a register storing a binocular difference and an optical flow for a parent node (t-1) of left and right input images input at time t A pairwise predicted value of the time t estimated by the parent node on the basis of the left image and a corresponding optical flow value of the left and right images of the parent node, A binomial difference and an optical flow for the left and right input images are calculated using the optical flow value, the binocular difference predicted value, and the corresponding points in the parent node calculated by the time update unit, And updates the measured value.
본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 장치의 상기 측정 값 업데이트부는, 상기 입력 좌측 영상을 기준으로 동일 라인 상에 존재하는 상기 좌우측 입력 영상의 픽셀들의 차를 최소화하는 양안차, 상기 양안차 예측 값과 상기 시간 t에서 선택할 수 있는 양안차간의 차를 최소화하는 양안차 및 임의의 픽셀에서 이전 픽셀로의 불연속 패널티를 토대로 상기 시간 t의 양안차를 계산하는 양안차 업데이트 모듈과, 상기 시간 t의 좌우측 입력 영상에서 특정 픽셀의 이웃 픽셀에 대한 좌우측 영상의 밝기 차이 값, 상기 시간 t에서 상기 특정 픽셀의 양안차와 상기 시간 업데이트부에서 추정된 상기 양안차 예측 값의 차가 최소가 되는 픽셀 위치를 이용하여 상기 시간 t의 광 흐름을 계산하는 광 흐름 업데이트 모듈을 포함한다.The measurement value updating unit of the three-dimensional structure estimating apparatus that combines the optical flow and the stereo matching according to the embodiment of the present invention minimizes the difference between the pixels of the left and right input images existing on the same line on the basis of the input left image A binocular difference which minimizes a difference between the binocular difference predictive value and a binocular bin which can be selected at the time t and a binocular binocular binarization which calculates a binocular difference of the time t based on a discontinuity penalty to a previous pixel in any pixel A difference between a binocular difference of the specific pixel at the time t and a binocular difference value of the binocular difference predicted by the time update unit at the time t; And a light flow update module for calculating the light flow at the time t using the pixel position at which the difference becomes minimum The.
다른 견지에서의 본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 방법은 기 저장된 시간 t-1의 광 흐름으로부터 시간 t의 좌우측 입력 영상의 대응점들을 추정하는 단계와, 상기 추정된 대응점들로부터 상기 시 간 t의 추정된 양안차 예측 값과 상기 시간 t-1에서의 광 흐름을 추정하는 단계와, 상기 추정된 시간 t-1에서의 광 흐름, 상기 양안차 예측 값 및 상기 추정된 대응점을 이용하여 상기 시간 t의 양안차와 광 흐름 값을 산출하는 단계를 포함한다.The three-dimensional structure estimation method of combining the optical flow and the stereo matching according to the embodiment of the present invention in another aspect estimates corresponding points of the left and right input images of time t from the optical flow of the pre-stored time t-1, Estimating the estimated binaural difference value of the time t from the estimated corresponding points and the optical flow at the time t-1; and estimating the optical flow at the estimated time t-1, And calculating a binocular difference and an optical flow value at the time t using the estimated corresponding point.
본 발명의 실시 예에서 상기 시간 t의 양안차 예측 값은, 상기 좌우측 입력 프레임에서 상기 좌측 입력 영상을 기준으로 상기 시간 t-1에서 추정된 상기 시간 t의 양안차 예측 값인 것을 특징으로 한다.In the embodiment of the present invention, the binocular difference prediction value of the time t is a binocular difference predicted value of the time t estimated at the time t-1 based on the left input image in the left and right input frames.
본 발명의 실시 예에서 상기 시간 t의 양안차와 광 흐름 값을 산출하는 단계는, 상기 좌측 입력 영상을 기준으로 동일 라인 상에 존재하는 상기 좌우 입력 영상의 픽셀들간 차를 최소화하는 제 1 양안차를 찾는 단계와, 상기 양안차 예측 값과 상기 시간 t에서 선택할 수 있는 양안차의 차를 최소화할 수 있는 제 2 양안차를 찾는 단계와, 상기 좌측 또는 우측 입력 영상 프레임의 특정 픽셀에서 이웃하는 픽셀으로의 불연속 패널티 값을 산출하는 단계와, 상기 제 1 양안차, 제 2 양안차 및 상기 패널티 값으로 구성된 에너지 함수를 최소화하는 값을 상기 시간 t의 양안차로 산출하는 단계를 포함한다.The calculating of the binocular disparity and the optical flow value at the time t in the embodiment of the present invention may include calculating the binocular disparity and the optical flow value of the first binocular Searching for a second binocular difference that minimizes a difference between the binocular difference predictive value and a binocular difference that can be selected at the time t; And calculating a discontinuous penalty value to the binocular at the time t by minimizing the energy function composed of the first binocular, the second binocular, and the penalty value.
본 발명의 실시 예에서 상기 시간 t의 광 흐름 값을 산출하는 단계는, 상기 좌측 또는 우측 입력 영상에서 특정 픽셀의 이웃 픽셀에 대한 좌우 영상의 밝기 차이 값을 산출하는 단계와, 상기 시간 t에서 상기 특정 픽셀의 양안차와 상기 양안차 예측 값의 차가 최소가 되는 픽셀의 위치를 찾는 단계와, 상기 밝기 차이 값과 상기 픽셀의 위치를 에너지 함수로 하여 상기 에너지 함수를 최소화하는 값을 상기 시간 t의 광 흐름 값으로 산출하는 단계를 포함한다.In the embodiment of the present invention, the step of calculating the optical flow value at the time t may include the steps of: calculating a brightness difference value between left and right images for a neighboring pixel of a specific pixel in the left or right input image; Finding a position of a pixel at which a difference between a binocular difference and a binocular prediction value of a specific pixel is minimized; and calculating a value for minimizing the energy function by using the brightness difference value and the position of the pixel as an energy function, And calculating the optical flow value.
본 발명에서는 부모 노드인 이전 시간의 모션과 프레임을 이용하여 현재 프레임의 양안차 예측 값과 대응점들 추정하고, 현재 프레임과 추정된 대응점 및 양안차 예측 값을 이용하여 실제 정확한 대응점들을 계산함으로써, 광 흐름 및 양안차의 검색 범위를 줄일 수 있을 뿐만 아니라 연산 속도 및 정확도를 향상시킬 수 있는 효과가 있다.In the present invention, binocular difference predictions and corresponding points of a current frame are estimated using motion and frames of a previous time, which is a parent node, and by calculating actual correct correspondences using the current frame and an estimated corresponding point and a binocular difference prediction value, The search range of the flow and the binocular can be reduced, and the operation speed and accuracy can be improved.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and these may be changed according to the intention of the user, the operator, or the like.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져 야 할 것이다.The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. These embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art to which the present invention pertains. Only. Therefore, the definition should be based on the contents throughout this specification.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시 예에서는 부모 노드인 이전 시간의 모션과 프레임을 이용하여 현재 프레임의 양안차 예측 값과 대응점들 추정하고, 현재 프레임과 추정된 대응점 및 양안차 예측 값을 이용하여 실제 정확한 대응점들을 계산하는 광 흐름과 스테레오 매칭을 융합한 3차원 구조 추정 장치 및 방법에 대해 설명한다.In the embodiment of the present invention, the binocular difference value and the corresponding points of the current frame are estimated using the motion and frame of the previous time, which is the parent node, and the actual corresponding points are calculated using the current frame and the estimated corresponding point and binocular difference prediction value A three-dimensional structure estimating apparatus and method combining optical flow and stereo matching will be described.
본 발명의 실시 예에 대한 설명에 앞서, 본 발명에서의 광 흐름이란 시간의 흐름에 따른 영상의 변화 값을 의미하는데, 즉 시간에 연속적인 비디오 영상에 대해서 시간 t, t-1, t-2,....................의 각 영상 프레임에 대한 픽셀의 변화 값을 의미한다.Prior to the description of the embodiments of the present invention, the optical flow in the present invention means a change value of an image according to time, that is, time t, t-1, t-2 , ..., ... ,,,,,,.
일반적인 좌우 영상, 즉 좌우측 카메라에 의해 촬영된 영상에 대한 광 흐름은 아래의 수학식1에 의해 정의된다.The light flow for a normal left / right image, i.e., an image photographed by left and right cameras, is defined by the following equation (1).
여기서 는 좌,우 영상에 대한 각각의 대응점들의 광 흐름을 나타내며, u,v는 각각 수평, 수직 성분을 표현한다. 또한 은 양안차 d 의 시간의 흐름에 따라 유도된 값을 의미한다.here Represents the light flow of the corresponding points to the left and right images, and u and v represent the horizontal and vertical components, respectively. Also Means a value derived in accordance with the flow of time of the binocular difference d .
본 발명에 의해 유도된 광 흐름-양안차의 관계식은 식 에 의해 아래의 수학식2와 같이 표현되며, 이를 광 흐름-양안차 식으로 불린다. 즉, 시간에 따 라 발생된 광 흐름에 대해 미분을 했을 경우 양안차와 동일한 값을 갖는다.The relationship of the optical flow-binocular disparity derived by the present invention is expressed by Equation Is expressed by the following equation (2), which is called optical flow-binocular equation. That is, if the light flow generated according to the time is differentiated, it has the same value as the binocular difference.
상기의 수학식 2에서 F는 fundamental matrix이며, xl,xr 는 각각 좌, 우 영상의 대응점들을 의미한다.In Equation (2), F is a fundamental matrix, and x l and x r denote corresponding points of the left and right images, respectively.
시간 t-1에서 대응점쌍들은 모든 좌,우 영상의 픽셀들에 의해 계산되며, 전체 픽셀에 대한 시간 t-2에서의 부모 노드(parent node)들은 시간 t-1에서 추정값들의 계산을 위한 유효값이 된다. 여기서 부모노드는 시간에 순차적인 영상들에 대해 어떤 시간 t에 대응되는 이전 시간(t-1)에서의 대응점을 의미한다.At time t-1, pairs of corresponding points are calculated by the pixels of all the left and right images, and the parent nodes at time t-2 for all the pixels are calculated as valid values for the calculation of the estimates at time t-1 . Here, the parent node refers to a corresponding point at a previous time (t-1) corresponding to a time t for images sequential in time.
도 1은 본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭 기술을 이용한 3차원 구조 추정 장치를 도시한 블록도이다.1 is a block diagram illustrating an apparatus for estimating a 3D structure using an optical flow and a stereo matching technique according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭 기술을 이용한 3차원 구조 추정 장치는 좌우 카메라(100, 110), 측정값 업데이트부(120), 시간 업데이트부(130) 및 레지스터(140)를 포함한다.1, an apparatus for estimating a three-dimensional structure using an optical flow and a stereo matching technique according to an embodiment of the present invention includes left and
양안차 및 광 흐름에 대한 대응점들은 각각의 스테이트(states)로 정의되며, 계산된 양안차와 광 흐름 값들은 3차원 구조 추정 장치의 결과 값(output)으로 정의되면, 이는 레지스터(140)에 저장된다.The corresponding points for the binocular and optical flows are defined as respective states, and if the calculated binocular and optical flow values are defined as the output of the three-dimensional structure estimator, it is stored in the
본 발명에서 각 스테이트과 결과 값은 아래의 수학식 3에 의해 정의된다.In the present invention, each state and result value are defined by the following Equation (3).
output : output:
상기의 수학식 3에서 는 이전 시간(t-2)에 위치한 xl, xr의 부모 노드를 나타내는데, 즉 이전 시간에 위치한 프레임 값을 의미한다. 아래 첨자 t-1은 시간 t-1에서 얻은 값들을 의미한다.In Equation (3) Represents the parent node of x l , x r located at the previous time (t-2), that is, the frame value located at the previous time. The subscript t-1 means the values obtained at time t-1.
시간 t의 새로운 프레임(좌우측 영상)(fl, fr)으로부터 출력 값을 추정하기 전에, 시간 업데이트부(130)는 시간 t-1의 모션()으로부터 시간 t의 대응점들()의 값을 추정한다. 이를 시간-업데이트 스테이지(time-update stage)라고 정의한다. Before estimating the output value from the new frame (left and right images) f 1 , f r at time t, the
측정 값 업데이트부(120)는 시간 업데이트부(130)의 출력과 시간 t의 새로운 프레임(fl, fr)을 이용하여 시간 t의 추정된 양안차 및 광 흐름을 얻은 후에 이를 메모리인 레지스터(140)에 저장한다. The measured
이와 같이, 시간 업데이트부(130)가 시간 t-1의 모션()으로부터 추정된 시간 t의 대응점들()의 값과 시간 t의 추정된 양안차 및 광 흐름은 아래의 수학식 4에 의해 계산된다.In this way, the
상기의 수학식 4에서 는 시간 t-1의 모션()으로부터 추정된 시간 t의 좌우 영상에서 대응점을 의미하며, 는 좌측 영상을 기준으로 시간 t-1에서 추정된 시간 t의 양안차 값(예측 값)이다. 또한 는 시간 t-1에서 좌우측 영상 각각에서 계산된 시간 t-1 프레임의 모션(광 흐름) 값을 의미한다.In Equation (4) Lt; RTI ID = 0.0 > t-1 < / RTI & ) Corresponding to the time t, (Predicted value) of the time t estimated at time t-1 on the basis of the left image. Also (Light flow) value of the time t-1 frame calculated at each of the left and right images at time t-1.
측정 값 업데이트부(120)에서는 시간 업데이트부(130)의 출력과 시간 t에서 좌우 카메라(100, 110)로부터 입력받은 좌우측 입력 영상을 이용하여 시간 t에서의 양안차 및 모션(광 흐름) 값들을 계산한다. 여기서, 시간 업데이트부(130)에서 계산된 시간 t-1에서 추정된 모션, 양안차 예측 값 및 은 새로운 정확한 모션과 영안차 값을 찾는 큐(cue)로 사용된다. The measurement
시간 업데이트부(130)에서 추정된 시간 t-1에서의 양안차 예측 값( )은 일반적인 스테레오 매칭기술에 더하여 시간 t에서 더 정확한 양안차를 얻을 수 있으며, 모션의 대응점들()은 상기의 수학식 4에 의해 결정된다. 최적의 대응점은 반드시 앞선 프레임(앞선 시간의 영상)에서 얻은 추정된 위치로부터 가까운 곳에 존재하기 때문에 최적의 결과를 얻기 위해 수학식 1을 만족하는 점들의 주위를 검색한다. 즉, 도 2에 도시된 바와 같이, 최적의 대응점을 찾기 위해서 양안차 검색 범위와 광 흐름 검색 범위를 설정한 후 설정된 범위를 검색한다.The binaural difference predicted value at the time t-1 estimated by the time update unit 130 ), In addition to the usual stereo matching technique, And the corresponding points of motion ( ) Is determined by Equation (4) above. Since the optimal correspondence point is located close to the estimated position obtained in the preceding frame (image of the preceding time), it searches around the points satisfying the equation (1) to obtain the optimum result. That is, as shown in FIG. 2, a binocular search range and an optical flow search range are set in order to search for an optimal correspondence point, and then a set range is searched.
측정 값 업데이트부(120)는 두 개의 모듈로서 이루어지는데, 즉 양안차 업데이트 모듈(121) 및 광 흐름 업데이트 모듈(122)로 구성된다.The measurement
양안차 업데이트 모듈(121)은 아래의 수학식 5의 에너지 함수를 최소화하는 양안차를 찾아 결과 값으로 출력한다.The binocular eye updating module 121 finds a binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular binocular.
상기의 수학식 5에서 아래 첨자 t는 시간 t를 의미하며, 윗 첨자 l, r은 좌측과 우측을 의미, f(xl)는 좌측 영상을 기준으로 하는 영상의 픽셀 값을 의미한다. 이에 따라 첫째항인 은 좌측 영상을 기준으로 동일 라인(y축)상에 존재하는 좌, 우 영상의 픽셀들의 차를 최소화 하는 양안차 d를 찾는 것을 의미하며, 두 번째 항인 은 시간 t-1의 영상에서 예측, 추정한 시간 t에서의 양안차 예측 값()과 시간 t에서 선택할 수 있는 양안차의 차를 최소화 하는 양안차 d를 찾고자 하는 것을 의미한다. 그리고 마지막 항인 은 픽셀 x에서 x-1로의 불연속 패널티 값을 의미하는데, 이때 이웃하는 픽셀의 양안차 값이 연속적이지 못할 경우 그 값은 더 커진다.In Equation (5), subscript t denotes time t, superscripts l and r mean left and right, and f (x l ) denotes a pixel value of an image based on the left image. Accordingly, Means to find the binocular difference d that minimizes the difference between the pixels of the left and right images existing on the same line (y-axis) on the basis of the left image, Is predicted from the image at time t-1, and the binocular difference predicted value at time t ) And the binocular difference d that can be selected from the time t is minimized. And the last mortal Means a discontinuous penalty value from pixel x to x-1, where the value is greater if the binocular value of neighboring pixels is not continuous.
광 흐름 업데이트 모듈(122)은 아래의 수학식 6의 에너지 함수를 최소화하는 픽셀의 위치를 찾고, 이전 프레임(시간 t-1의 영상)과 현재 프레임(시간 t의 영상)의 픽셀 위치 차, 즉 모션을 결과 값으로 출력한다.The optical
상기의 수학식 6에서 여기서 첫 번째 항인 은 어떤 픽셀(x)의 이웃 픽셀(x')에 대한 좌, 우 영상의 밝기(intensity) 차이 값을 의미하며, 두 번째 항인 은 시간 t에서 어떤 픽셀(x)의 양안차 와 시간 업데이트부(130)에서 갱신된 시간 t-1에서 추정된 양안차 예측값()의 차가 최소가 되는 픽셀위치(x')를 의미한다.In Equation (6) above, Represents the intensity difference value of the left and right images for a neighboring pixel x 'of a certain pixel x, (X) < / RTI > at time < RTI ID = 0.0 & And a binocular difference predicted value (a) estimated at time t-1 updated by the time update unit 130 ) Is the minimum pixel position (x ').
상기로부터 계산되는 모션(광 흐름)은 아래의 수학식 7과 같다.The motion (light flow) calculated from the above is expressed by Equation (7) below.
상기와 같은 과정을 통해 모든 대응점들이 발견되면, 아래의 수학식 8과 같이 이전 프레임(시간 t-1의 프레임)의 대응점들은 부모 노드처럼 레지스터(140)에 저장된다.If all corresponding points are found through the above process, the corresponding points of the previous frame (frame at time t-1) are stored in the
위의 과정을 통해 시간에 순차적인 모든 영상의 프레임에 대해 계산될 수 있으며, 상기 수학식 7, 8의 결과를 상기 수학식 3에 적용하여 최종 출력 값, 즉 양안차와 광 흐름을 산출하여 레지스터(140)에 저장한다.The result of Equations (7) and (8) can be applied to Equation (3) to calculate the final output value, that is, the binocular and optical flow, (140).
상기와 같은 구성을 갖는 광 흐름과 스테레오 매칭 기술을 이용한 3차원 구조 추정 장치가 동작하는 과정에 대해 도 2 내지 도 3을 참조하여 설명한다.The operation of the three-dimensional structure estimating apparatus using the optical flow and the stereo matching technique as described above will be described with reference to FIGS. 2 to 3. FIG.
도 3은 본 발명의 실시 예에 따른 좌우 입력 영상에 대한 양안차와 광 흐름을 계산하는 과정을 도시한 흐름도로서, 양안차(disparity map)와 광흐름(optical flow)을 순차적으로 계산한다. FIG. 3 is a flowchart illustrating a process of calculating a binocular disparity and an optical flow with respect to left and right input images according to an embodiment of the present invention, and sequentially calculates a disparity map and an optical flow.
도 3에 도시된 바와 같이, 시간 t와 t-1에서 주어진 좌우 입력 영상(fl, fr)에 대해, 아래의 수학식 9와 같이 전체 x0|0에 대해 초기화를 수행(S300)한다.As shown in FIG. 3, for the left and right input images f 1 and f r given at times t and t-1, the initialization is performed for the entire x 0 | 0 as shown in the following Equation 9 (S300) .
그런 다음, 재귀 연산을 시작하는데, 즉 시간 업데이트부(130)는 상기의 수학식4를 이용하여 시간 t-1의 모션()으로부터 시간 t의 대응점들 을 추정함과 더불어 좌측 영상을 기준으로 시간 t-1에서 시간 t의 양안차 예측 값()을 추정(S302)한다. 추정된 양안차 예측 값()과 시간 t의 대응점들()은 측정 값 업데이트부(120)에 제공된다.Then, the recursive operation is started, that is, the
그리고 나서, 측정 값 업데이트부(120)는 시간 업데이트부(130)로부터 제공 받은 양안차 예측 값()과 시간 t의 대응점들() 및 좌우 카메라(100, 110)로부터 제공받은 좌우측 입력 영상(fl, fr)을 이용하여 시간 t의 양안차와 광 흐름을 순차적으로 계산한다. 즉, 측정 값 업데이트부(120)의 양안차 업데이트 모듈(122)은 시간 t의 좌우측 입력 영상의 전체 픽셀x에 대해, 양안차 예측 값(() 및 좌우측 입력 영상(fl, fr)을 이용해 시간 t의 좌우측 입력 영상에 대한 양안차()를 결정(S304)한다. 즉, 상기의 수학식 5에 기재된 에너지 함수를 최소화하는 양안차를 찾아 레지스터(130)에 저장한다.Then, the measurement
상기의 수학식 5에 기재된 에너지 함수를 이용하여 최소화 하는 양안차 ()를 찾는 방법은 기존의 스테레오 매칭 기법 belief propagation(BP) 또는 dynamic programing(DP)을 이용해 찾는다.The binocular function minimizing by using the energy function described in Equation (5) ) Can be found using conventional stereo matching techniques such as belief propagation (BP) or dynamic programming (DP).
그런 다음, 광 흐름 업데이트 모듈(124)은 상기의 수학식 6과 7을 이용하여 시간 t에서의 광 흐름을 계산(S306)한 후 이를 레지스터(130)에 저장한다.Then, the optical
따라서, 레지스터(130)에는 계산된 부모노드 및 광흐름, 양안차 값들이 저장되며, 이러한 값들은 시간 t 프레임에서 결과값이 된다. Therefore, the calculated parent node, optical flow, and binocular difference values are stored in the
본 발명의 실시 예에서는 양안차와 광 흐름을 순차적으로 계산하는 것으로 예를 들어 설명하였지만, 동시에 계산하는 것도 가능하며, 이에 대한 설명은 아래와 같다.In the embodiment of the present invention, the binocular difference and the optical flow are sequentially calculated. However, it is also possible to calculate them at the same time.
먼저, 시간 t와 t-1에서 주어진 좌우 입력 영상(fl, fr)에 대해, 아래의 수 학식 10과 같이 전체 x0|0에 대해 초기화를 수행한다.First, for the left and right input images (f l , f r ) given at times t and t-1, the initialization is performed for the entire x 0 | 0 as in the following equation (10).
상기의 S202와 같이 시간 업데이트 과정을 통해 시간 t-1의 모션()으로부터 시간 t의 대응점들 을 추정함과 더불어 좌측 영상을 기준으로 시간 t-1에서 시간 t의 양안차 예측 값()을 추정한다. As a result of the time update process as in S202, ) To the corresponding points of time t And estimates binocular disparity at time t from time t-1 based on the left image ).
그런 다음, 측정 값 업데이트부(130)는 아래의 수학식 11의 에너지 함수를 최소화하는 값들로부터 동시에 양안차 및 광 흐름 값을 얻은 후에 이를 레지스터(140)에 저장한다.Then, the
상기의 수학식 11에서 은 어떤 픽셀(x)의 이웃 픽셀(x')에 대한 좌, 우 영상의 밝기(intensity) 차이 값을 의미하고, 은 좌측 영상을 기준으로 동일 라인(y축)상에 존재하는 좌, 우 영상의 픽셀들의 차를 최소화하는 양안차 d를 찾는 것을 의미하며, 은 시간 t-1프레임에서 예측, 추정한 시간 t에서의 양안차 예측 값과 시간 t에서 선택할 수 있는 양안차의 차를 최소화 하는 양안차 d를 찾고자 하는 것을 의미한다. 이를 통해 시간 t에서의 양안차(d)와 좌우측 입력 영상에 대한 광 흐름()을 산출할 수 있다.In Equation (11) Means an intensity difference value of the left and right images for a neighboring pixel x 'of a certain pixel x, Means to find a binocular difference d that minimizes a difference between pixels of left and right images existing on the same line (y-axis) on the basis of the left image, Is a predicted value at time t-1 frame, a binocular difference predicted value at time t And a binocular difference d that minimizes the difference between the binocular disparities that can be selected at time t. Thus, the binocular disparity (d) at time t and the optical flow for left and right input images ) Can be calculated.
본 발명의 실시 예에 따르면, 스테레오 매칭, 광 흐름의 대응점들의 후보 값들을 추정하고, 실제 영상 프레임과 후보 값을 이용하여 실제 정확한 대응점들을 계산함으로써, 광 흐름 및 양안차의 검색 범위를 효과적으로 줄일 수 있을 뿐만 아니라 연산 속도 및 정확도를 향상시킬 수 있다.According to embodiments of the present invention, stereo matching can estimate the candidate values of the corresponding points of the light flow and calculate the actual correct corresponding points using the actual image frame and the candidate values, thereby effectively reducing the search range of the light flow and the binocular Not only the operation speed and accuracy can be improved.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 예를 들어 당업자는 각 구성요소의 재질, 크기 등을 적용 분야에 따라 변경하거나, 개시된 실시형태들을 조합 또는 치환하여 본 발명의 실시예에 명확하게 개시되지 않은 형태로 실시할 수 있으나, 이 역시 본 발명의 범위를 벗어나지 않는 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것으로 한정적인 것으로 이해해서는 안 되며, 이러한 변형된 실시예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. For example, a person skilled in the art can change the material, size and the like of each component according to the application field, or can combine or replace the disclosed embodiments in a form not explicitly disclosed in the embodiment of the present invention. It is to be understood that the invention is not limited to the disclosed embodiments. Therefore, it should be understood that the above-described embodiments are to be considered in all respects as illustrative and not restrictive, and that these modified embodiments are included in the technical idea described in the claims of the present invention.
도 1은 본 발명의 실시 예에 따른 광 흐름과 스테레오 매칭 기술을 이용한 3차원 구조 추정 장치를 도시한 블록도이며,FIG. 1 is a block diagram illustrating an apparatus for estimating a three-dimensional structure using an optical flow and a stereo matching technique according to an embodiment of the present invention,
도 2는 본 발명에 따른 광 흐름과 양안차 사이의 관계도를 도시한 도면이며,2 is a view showing a relationship between an optical flow and a binocular according to the present invention,
도 3은 본 발명의 실시 예에 따른 좌우 입력 영상에 대한 양안차와 광 흐름을 계산하는 과정을 도시한 흐름도이다.3 is a flowchart illustrating a process of calculating a binocular disparity and an optical flow with respect to left and right input images according to an exemplary embodiment of the present invention.
<도면의 주요 부분에 대한 부호의 설명>Description of the Related Art
100 : 좌측 카메라 110 : 우측 카메라100: Left camera 110: Right camera
120 : 측정 값 업데이트부 130 : 시간 업데이트부120: measured value update unit 130: time update unit
140 : 레지스터140: Register
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090085439A KR101027004B1 (en) | 2009-09-10 | 2009-09-10 | Apparatus and method for 3d estimating fusing optical flow and stereo matching |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090085439A KR101027004B1 (en) | 2009-09-10 | 2009-09-10 | Apparatus and method for 3d estimating fusing optical flow and stereo matching |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110027373A KR20110027373A (en) | 2011-03-16 |
KR101027004B1 true KR101027004B1 (en) | 2011-04-11 |
Family
ID=43934195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090085439A KR101027004B1 (en) | 2009-09-10 | 2009-09-10 | Apparatus and method for 3d estimating fusing optical flow and stereo matching |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101027004B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130084850A (en) | 2012-01-18 | 2013-07-26 | 삼성전자주식회사 | Method and apparatus for image processing generating disparity value |
CN112991419B (en) * | 2021-03-09 | 2023-11-14 | Oppo广东移动通信有限公司 | Parallax data generation method, parallax data generation device, computer equipment and storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980030988A (en) * | 1996-10-30 | 1998-07-25 | 김광호 | Synthesis of 3D images |
-
2009
- 2009-09-10 KR KR1020090085439A patent/KR101027004B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980030988A (en) * | 1996-10-30 | 1998-07-25 | 김광호 | Synthesis of 3D images |
Also Published As
Publication number | Publication date |
---|---|
KR20110027373A (en) | 2011-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Han et al. | Deepvio: Self-supervised deep learning of monocular visual inertial odometry using 3d geometric constraints | |
KR102487270B1 (en) | Depth Prediction from Image Data Using Statistical Models | |
CN108596965B (en) | Light field image depth estimation method | |
CN108615246B (en) | Method for improving robustness of visual odometer system and reducing calculation consumption of algorithm | |
CN108932725B (en) | Scene flow estimation method based on convolutional neural network | |
CN106303546B (en) | Conversion method and system in a kind of frame rate | |
KR20080092353A (en) | Segmenting image elements | |
WO2015025897A1 (en) | Object estimation device and object estimation method | |
CN114511609B (en) | Unsupervised light field parallax estimation system and method based on occlusion perception | |
CN105335934B (en) | Disparity map computational methods and device | |
KR101027004B1 (en) | Apparatus and method for 3d estimating fusing optical flow and stereo matching | |
CN104980726A (en) | Binocular video stereo matching method based on motion vector | |
JP4102386B2 (en) | 3D information restoration device | |
CN107845108B (en) | Optical flow value calculation method and device and electronic equipment | |
CN115937810A (en) | Sensor fusion method based on binocular camera guidance | |
CN115797431A (en) | Binocular depth estimation method and system | |
Hardt-Stremayr et al. | Monocular visual-inertial odometry in low-textured environments with smooth gradients: A fully dense direct filtering approach | |
KR102262832B1 (en) | Device and Method for Estimating Depth of Monocular Video Image | |
CN114935316A (en) | Standard depth image generation method based on optical tracking and monocular vision | |
JP2013076621A (en) | Distance index information estimation device and program thereof | |
Schuster et al. | MonoComb: A sparse-to-dense combination approach for monocular scene flow | |
CN109923585B (en) | Method and apparatus for depth detection using stereoscopic image | |
JP2011199382A (en) | Image evaluation apparatus, method, and program | |
CN114902646B (en) | Electronic device, method of controlling electronic device, and computer-readable storage medium | |
CN115170745B (en) | Unmanned aerial vehicle distance measurement method based on stereoscopic vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20131231 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |