KR101429607B1 - An Adaptive Switching Method for Three-Dimensional Hybrid Cameras - Google Patents

An Adaptive Switching Method for Three-Dimensional Hybrid Cameras Download PDF

Info

Publication number
KR101429607B1
KR101429607B1 KR1020130067807A KR20130067807A KR101429607B1 KR 101429607 B1 KR101429607 B1 KR 101429607B1 KR 1020130067807 A KR1020130067807 A KR 1020130067807A KR 20130067807 A KR20130067807 A KR 20130067807A KR 101429607 B1 KR101429607 B1 KR 101429607B1
Authority
KR
South Korea
Prior art keywords
camera
brightness
hybrid
texture
active
Prior art date
Application number
KR1020130067807A
Other languages
Korean (ko)
Inventor
장석우
최현준
Original Assignee
안양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안양대학교 산학협력단 filed Critical 안양대학교 산학협력단
Priority to KR1020130067807A priority Critical patent/KR101429607B1/en
Application granted granted Critical
Publication of KR101429607B1 publication Critical patent/KR101429607B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

The present invention relates to a method to adaptively switch a hybrid stereoscopic camera, whereby a hybrid camera is configured by combining a manual camera and an active camera, which adaptively switches between the manual and active cameras of the hybrid camera in accordance to the complexity of the surroundings. The method comprises the steps of: (a) configuring a hybrid camera by including an active camera and a manual camera; (b) receiving an initial image; (c) converting the initial image into an HIS color space and extracting brightness characteristics from a brightness image; (d) extracting texture characteristics using Gabor wavelet transform for the initial image; (e) creating an integrated criterion using a weighted sum of the brightness characteristics and the texture characteristics; and (f) comparing the integrated criterion with a predetermined threshold value and switching the mode of a hybrid camera in accordance to the comparison results. The method to adaptively switch a hybrid stereoscopic camera described above can adaptively switch between the manual and active cameras of the hybrid camera in accordance to the levels of the brightness characteristics and the texture characteristics indicating the complexity of the surroundings, thereby extracting three-dimensional image information more robustly.

Description

하이브리드 입체 카메라의 적응적 스위칭 방법 { An Adaptive Switching Method for Three-Dimensional Hybrid Cameras }An Adaptive Switching Method for Three-Dimensional Hybrid Cameras

본 발명은 주위 환경의 복잡도에 따라서 하이브리드 카메라의 수동형과 능동형 카메라를 적응적으로 스위칭함으로써 3차원의 영상정보를 보다 정확하게 추출할 수 있는 하이브리드 입체 카메라의 적응적 스위칭 방법에 관한 것이다.
The present invention relates to an adaptive switching method of a hybrid stereoscopic camera capable of more accurately extracting three-dimensional image information by adaptively switching a passive type and an active type camera of a hybrid camera according to the complexity of the surrounding environment.

일반적으로, 3차원 입체 디스플레이는 다시점 스테레오스코픽 비전 기술을 적용하여 2차원의 영상에 깊이 정보를 부가하고, 이 깊이 정보로 인하여 시청자가 마치 영상이 제작되고 있는 현장에 있는 것 같은 생동감 및 현실감을 느낄 수 있게 하는 차세대 신기술이다.Generally, the 3D stereoscopic display uses depth-of-view stereoscopic vision technology to add depth information to a 2D image. By using this depth information, viewers can feel the feeling of being in a scene where a video is being produced It is the next generation new technology that makes you feel.

이 기술은 정보통신, 방송, 의료, 교육훈련, 군사, 게임, 애니메이션, 홀로그램, 가상현실, CAD, 산업기술 등 그 응용분야가 매우 다양하다[비특허문헌 1,2]. 현재 3D 산업에 대한 시장의 관심은 가히 폭발적이라 할 수 있으며, 표준화 및 기술의 안정성 확보 등 차후 해결해야 할 부분도 많이 있으나 이런 문제에도 불구하고 3D가 차세대 주력 산업이라는 데에 이견은 없다.This technology is very diverse in applications such as information and communication, broadcasting, medical, education and training, military, game, animation, hologram, virtual reality, CAD, and industrial technology [Non-Patent Documents 1 and 2]. Currently, the market interest in the 3D industry is explosive. There are lots of issues that need to be solved such as standardization and securing the stability of technology. However, there is no question that 3D is the mainstream industry in spite of these problems.

이런 3차원적인 입체를 효과적으로 구현하기 위한 핵심 요소기술 중의 하나는 3차원 카메라 처리 기술이다. 일반적으로, 3차원의 입체 카메라는 크게 TOF(Time-of-flight) 방식[비특허문헌 3], 수동형 삼각법(passive triangulation) 방식[비특허문헌 4], 그리고 능동형 삼각법(active triangulation) 방식[비특허문헌 5]으로 분류될 수 있다.One of the key element technologies for effectively implementing such a three-dimensional solid object is a three-dimensional camera processing technology. Generally, a three-dimensional stereoscopic camera is largely classified into a time-of-flight (non-patent document 3), a passive triangulation (non-patent document 4), and an active triangulation Patent Document 5].

TOF 방식은 초음파나 레이저와 같은 광파(light wave) 등의 에너지를 물체에 방사하고 되돌아오는 시간의 차이로 거리를 측정하는 방식으로 환경이 조금만 변경되어도 음파를 해석하는 것이 어렵고, 고가라는 단점을 가지고 있다.The TOF method is a method of measuring the distance by the difference of time of returning the energy such as the ultrasonic wave or the light wave such as the laser to the object and it is difficult to interpret the sound wave even if the environment is changed a little, have.

수동형 삼각법 방식은 가장 널리 실용화되어 있는 방법 중의 하나이지만 텍스처가 존재하지 않은 벽면과 같은 물체에서는 대응점을 결정할 수가 없어서 거리 정보를 얻지 못한다는 단점이 존재한다.The passive trigonometric method is one of the most widely used methods, but there is a disadvantage that distance information can not be obtained because a corresponding point can not be determined in an object such as a wall surface where no texture exists.

그리고 능동형 삼각법 방식은 기하학적으로는 스테레오 카메라에서 한 쪽 렌즈를 프로젝터(projector)로 대처하는 것과 동일하게 해석될 수 있는데, 텍스처가 빈약한 부분에서도 대응점을 결정할 수 있다는 장점이 있는 반면 속도가 다소 느리다는 단점을 가지고 있다.And the active trigonometry can be interpreted geometrically as coping with a projector with a lens on a stereo camera, which has the advantage of being able to determine the point of correspondence even in the less textured areas, while the slower It has disadvantages.

이와 같이 기존의 대부분의 3차원 카메라는 한 종류의 카메라를 고정적으로 사용하여 장면을 촬영하므로 영상의 품질에는 한계가 있을 수 밖에 없다. 따라서 이들 카메라를 결합하여 주변 환경의 복잡도에 따라 그에 맞는 카메라를 사용함으로써 3차원의 영상정보를 보다 정확하게 추출할 수 있는 기술이 필요하다.
In this way, most existing 3D cameras shoot scenes using one type of camera fixedly, so there is a limit to the image quality. Therefore, there is a need for a technique that can extract three-dimensional image information more accurately by using a camera according to the complexity of the surrounding environment by combining these cameras.

[비특허문헌 1] A. Smolic, "3D Video and Free Viewpoint Video- From Capture to Display," Pattern Recognition, Vol. 44, No. 9, pp. 1958-1968, Sep. 2011.[Non-Patent Document 1] A. Smolic, "3D Video and Free Viewpoint Video- From Capture to Display," Pattern Recognition, Vol. 44, No. 9, pp. 1958-1968, Sep. 2011. [비특허문헌 2] H.-J. Choi, Y.-H. Seo, S.-W. Jang, and D.-W. Kim, "Analysis of Digital Hologram Rendering Using a Computational Method," Journal of Information and Communication Convergence Engineering, Vol. 10, No. 2, pp. 205-209, Jun. 2012.[Non-Patent Document 2] H.-J. Choi, Y.-H. Seo, S.-W. Jang, and D.-W. Kim, "Analysis of Digital Hologram Rendering Using a Computational Method," Journal of Information and Communication Convergence Engineering, Vol. 10, No. 2, pp. 205-209, Jun. 2012. [비특허문헌 3] Y. Cui, S. Schuon, D. Chan, S. Thrun, and C. Theobalt, "3D Shape Scanning with a Time- Of-Flight Camera," IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1173-1180, 2010.[Non-Patent Document 3] Y. Cui, S. Schuon, D. Chan, S. Thrun, and C. Theobalt, "3D Shape Scanning with a Time-Of-Flight Camera," IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1173-1180, 2010. [비특허문헌 4] F. Dornaika, A. D. Sappa, "A Featureless and Stochastic Approach to On-Board Stereo Vision System Pose," Image and Vision Computing, Vol. 27, No. 9, pp. 1382-1393, Aug. 2009.[Non-Patent Document 4] F. Dornaika, A. D. Sappa, "Featureless and Stochastic Approach to On-Board Stereo Vision System Pose," Image and Vision Computing, Vol. 27, No. 9, pp. 1382-1393, Aug. 2009. [비특허문헌 5] S.-Y. Lee and S.-W. Jang, "A Study on Image Processing for the Accuracy Improvement of 3D Recovery," In Proc. of the Conference of the Korea Society of Computer and Information, Vol. 20, No. 1, pp. 193-195, Jan. 2012.[Non-Patent Document 5] S.-Y. Lee and S.-W. Jang, "A Study on Image Processing for Accuracy Improvement of 3D Recovery," In Proc. of the Society of Computer and Information, Vol. 20, No. 1, pp. 193-195, Jan. 2012. [비특허문헌 6] T. Ringbeck and B. Hagebeuker, "A 3D Time-of -flight Camera for Object Detection," In Proc. of the Optical 3D Measurement Techniques, Plenary Session, July 2007.[Non-Patent Document 6] T. Ringbeck and B. Hagebeuker, "A 3D Time-of-light Camera for Object Detection," In Proc. of Optical 3D Measurement Techniques, Plenary Session, July 2007. [비특허문헌 7] Mesa Imaging, http://www.mesa-imaging.ch[Non-Patent Document 7] Mesa Imaging, http://www.mesa-imaging.ch [비특허문헌 8] Breuckmann, http://www.breuckmann.com[Non-Patent Document 8] Breuckmann, http://www.breuckmann.com [비특허문헌 9] K. Bunte, M. Biehl, M. F. Jonkman, and N. Petkov, "Learning Effective Color Features for Content Based Image Retrieval in Dermatology," Pattern Recognition, Vol. 44, No. 9, pp. 1892- 1902, 2011.[Non-Patent Document 9] K. Bunte, M. Biehl, M. F. Jonkman, and N. Petkov, "Learning Effective Color Features for Retrieval in Dermatology," Pattern Recognition, Vol. 44, No. 9, pp. 1892- 1902, 2011. [비특허문헌 10] S.-W. Jang, M.-A. Chung, G.-Y. Kim, "Face Model-based Image Registration for Generating Facial Textures," In Proc. of the ACM Research in Applied Computation Symposium, pp. 121- 125, October 2012.[Non-Patent Document 10] S.-W. Jang, M.-A. Chung, G.-Y. Kim, "Face Model-based Image Registration for Generating Facial Textures," In Proc. of the ACM Research in Applied Computation Symposium, pp. 121- 125, October 2012.

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 수동형 카메라와 능동형 카메라를 결합하여 하이브리드(hybrid) 카메라를 구성하고, 주위 환경의 복잡도에 따라 하이브리드 카메라의 수동형과 능동형 카메라를 적응적으로 스위칭함으로써 3차원의 영상정보를 보다 정확하게 추출할 수 있는 하이브리드 입체 카메라의 적응적 스위칭 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The object of the present invention is to solve the above problems and to provide a hybrid camera in which a passive camera and an active camera are combined to constitute a hybrid camera and adaptively adapt passive and active cameras of a hybrid camera And a switching device for switching the three-dimensional image information from the three-dimensional image information.

또한, 본 발명의 목적은 먼저 초기 영상을 받아들여, 이 입력영상으로부터 주변의 환경을 대표할 수 있는 주요 특징인 밝기 특징과 텍스처 특징을 추출하고, 추출된 밝기와 텍스처 특징값을 가장 잘 수용할 수 있는 카메라를 선택하는 규칙을 생성함으로써 하이브리드 카메라를 적응적으로 스위칭하는 하이브리드 입체 카메라의 적응적 스위칭 방법을 제공하는 것이다.
It is also an object of the present invention to first acquire an initial image, to extract a brightness feature and a texture feature, which are main features representative of the surrounding environment, from the input image, The present invention provides an adaptive switching method of a hybrid stereoscopic camera that adaptively switches a hybrid camera by generating a rule for selecting a camera capable of selecting a camera.

상기 목적을 달성하기 위해 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 관한 것으로서, 특징으로 한다.In order to achieve the above object, the present invention is directed to an adaptive switching method of a hybrid stereoscopic camera.

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, (a) 능동형 카메라 및 수동형 카메라를 포함하여 하이브리드 카메라를 구성하는 단계; (b) 초기 영상을 입력받는 단계; (c) 상기 초기 영상을 HIS 칼라공간으로 변환한 후, 명도 영상을 대상으로 밝기 특징을 추출하는 단계; (d) 상기 초기 영상을 대상으로 가보 웨이블릿 변환을 이용하여 텍스처 특징을 추출하는 단계; (e) 상기 밝기 특징과 상기 텍스처 특징을 가중화된 합을 이용하여 통합척도를 생성하는 단계; 및, (f) 상기 통합척도를 소정의 임계치와 대비하여, 대비 결과에 따라 하이브리드 카메라를 스위칭하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an adaptive switching method of a hybrid stereoscopic camera, including: (a) configuring a hybrid camera including an active camera and a passive camera; (b) receiving an initial image; (c) converting the initial image into an HIS color space, and then extracting brightness characteristics of the brightness image; (d) extracting a texture feature using the wavelet transform on the initial image; (e) generating an integrated measure using the weighted sum of the brightness feature and the texture feature; And (f) switching the hybrid camera according to the contrast result, comparing the integrated measure with a predetermined threshold value.

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (c)단계 또는 상기 (d)단계에서, 상기 초기 영상을 N×N 화소 크기의 블록으로 분할한 후, 블록 단위로 해당 특징들을 추출하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an adaptive switching method for a hybrid stereoscopic camera, comprising the steps of: dividing the initial image into blocks each having a size of N by N pixels in step (c) or step (d) .

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (c)단계에서, 상기 밝기 특징을 0에서 1사이의 값을 가지도록 정규화(normalization)하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an adaptive switching method for a hybrid stereoscopic camera, wherein the brightness characteristic is normalized to have a value between 0 and 1 in step (c).

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (d)단계에서, 가보 웨이블릿 계수는 하나의 블록 내의 밝기값들에 가보 웨이블릿 함수를 곱함으로써 계산하는 것을 특징으로 한다.According to another aspect of the present invention, in the adaptive switching method of a hybrid stereoscopic camera, in the step (d), the Gabor wavelet coefficient is calculated by multiplying brightness values in one block by a wavelet function.

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (d)단계에서, 각 블록이 대표하는 영역의 모든 좌표들에 대해 해당 좌표를 중심으로 하는 윈도우를 사용해 계산되는 가보 웨이블릿 계수들의 평균을 각 블록의 텍스처 특징으로 추출하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an adaptive switching method of a hybrid stereoscopic camera, wherein in the step (d), all coordinates of an area represented by each block are calculated by using a window centered on the coordinate, And the average is extracted as the texture characteristic of each block.

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (e)단계에서, t시점의 초기 영상에 대한 통합척도 Φ(t;α,β)는 다음 수식 1에 의해 정의되는 것을 특징으로 한다.In the adaptive switching method of a hybrid stereoscopic camera according to the present invention, in the step (e), the integrated measure Φ (t; α, β) for the initial image at time t is defined by the following equation .

[수식 1][Equation 1]

Figure 112013052615838-pat00001
Figure 112013052615838-pat00001

단, Fbright(t)와 Fgabor(t)는 각각 밝기 특징 및 텍스처 특징임.Where F bright (t) and F gabor (t) are the brightness and texture characteristics, respectively.

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (f)단계에서, 상기 통합척도가 소정의 임계치 이상일 경우 수동형 카메라를 활성화하고, 소정의 임계치 보다 작은 경우 능동형 카메라를 활성화 것을 특징으로 한다.According to another aspect of the present invention, there is provided an adaptive switching method of a hybrid stereoscopic camera, wherein, in the step (f), the passive camera is activated when the integrated scale is greater than or equal to a predetermined threshold value, .

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (e)단계에서, t시점의 초기 영상에 대한 통합척도 Φ(t;α,β)는 다음 수식 2에 의해 정의되는 것을 특징으로 한다.In the adaptive switching method of a hybrid stereoscopic camera according to the present invention, in the step (e), the integrated measure Φ (t; α, β) for the initial image at time t is defined by the following equation .

[수식 2][Equation 2]

Figure 112013052615838-pat00002
Figure 112013052615838-pat00002

단, Fbright(t)와 Fgabor(t)는 각각 밝기 특징 및 텍스처 특징임.Where F bright (t) and F gabor (t) are the brightness and texture characteristics, respectively.

또, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서, 상기 (f)단계에서, 상기 통합척도가 소정의 임계치 이상일 경우 능동형 카메라를 활성화하고, 소정의 임계치 보다 작은 경우 수동형 카메라를 활성화 것을 특징으로 한다.
According to another aspect of the present invention, there is provided an adaptive switching method of a hybrid stereoscopic camera, wherein, in the step (f), the active camera is activated when the integrated scale is equal to or greater than a predetermined threshold, .

또한, 본 발명은 하이브리드 입체 카메라의 적응적 스위칭 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
In addition, the present invention relates to a computer-readable recording medium on which a program for performing an adaptive switching method of a hybrid stereoscopic camera is recorded.

상술한 바와 같이, 본 발명에 따른 하이브리드 입체 카메라의 적응적 스위칭 방법에 의하면, 주변 환경의 복잡도를 나타내는 밝기 특징과 텍스처 특징의 정도에 따라 하이브리드 카메라의 수동형과 능동형 카메라를 적응적으로 스위칭함으로써 3차원의 영상정보를 보다 강건하게 추출할 수 있는 효과가 얻어진다.As described above, according to the adaptive switching method of the hybrid stereoscopic camera according to the present invention, the adaptive switching of the passive type and the active type camera of the hybrid camera according to the brightness characteristic and the degree of the texture characteristic, It is possible to obtain a more robust image information.

본 발명에 따른 방법을 구현하여 실험을 수행한 결과, 본 발명은 여러 가지 조건에서 신뢰성이 있게 동작하였으며, 능동형 또는 수동형 카메라만을 단독적으로 사용하는 기존의 3차원 카메라를 대체할 수 있는 하이브리드 카메라에 실제적으로 적용 가능함을 확인할 수 있다.
As a result of carrying out the experiment by implementing the method according to the present invention, it was found that the present invention operates reliably under various conditions and can be practically applied to a hybrid camera capable of replacing a conventional three-dimensional camera using only an active or passive camera As shown in FIG.

도 1은 본 발명을 실시하기 위한 전체 시스템의 구성을 도시한 도면.
도 2는 본 발명의 제1 실시예에 따른 하이브리드 입체 카메라의 적응적 스위칭 방법을 설명하는 흐름도.
도 3은 TOF 카메라의 예시도로서, (a) PMD CamCube (b) SwissRanger 4000의 카메라에 대한 예시도.
도 4는 본 발명에 사용되는 수동형 카메라로서, (a) 범블비(Bumblebee) 카메라 (b) 비더레(Videre) 카메라에 대한 예시도.
도 5는 본 발명에 사용되는 능동형 카메라로서, smartSCAN3D-HE 에 대한 예시도.
도 6은 본 발명에 따른 HIS 칼라공간을 도시한 도면.
도 7은 본 발명의 제1 실시예에 따른 밝기 특징 및 텍스처 특징의 항목을 나타내는 그래프.
도 8은 본 발명의 제1 실시예에 따라 수동형 카메라 및 능동형 카메라의 스위칭 단계를 나타내는 의사 코드.
도 9는 본 발명의 제2 실시예에 따라 밝기 특징 및 텍스처 특징의 항목을 나타내는 그래프.
도 10은 본 발명의 제2 실시예에 따라 수동형 카메라 및 능동형 카메라의 스위칭 단계를 나타내는 의사 코드.
도 11은 본 발명에 따라 주변 환경에 따라 선택되는 카메라를 나타내는 표.
도 12는 본 발명의 실험에 따른 서로 다른 조명의 조건에 따른 예시 영상의 이미지.
도 13은 본 발명의 실험에 따른 서로 다른 텍스쳐의 조건에 따른 예시 영상의 이미지.
도 14는 본 발명의 실험에 따른 수동형 카메라(스테레오 카메라)의 예시도.
도 15는 본 발명의 실험에 따른 능동형 카메라의 예시도.
도 16은 본 발명의 실험에 따른 능동형 카메라의 변위맵으로서, (a) 입력 영상의 이미지, (b) 변위맵.
도 17은 본 발명의 실험에 따른 수동형 카메라의 변위맵으로서, (a) 입력 영상(좌측)의 이미지 및, (b) 변위맵, (c) 입력 영상(우측)의 이미지 및, (d) 변위맵.
도 18은 본 발명의 실험에 따라 하이브리드 카메라의 적응적 선택을 나타낸 표.
도 19는 본 발명의 실험에 따라 기존의 방법과 본 발명에 따른 방법의 평균적인 수행시간 비율을 비교한 그래프.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a diagram showing a configuration of an overall system for carrying out the present invention; Fig.
2 is a flowchart illustrating an adaptive switching method of a hybrid stereoscopic camera according to the first embodiment of the present invention.
Fig. 3 is an exemplary view of a TOF camera, (a) an example of a camera of PMD CamCube (b) SwissRanger 4000;
Fig. 4 is a perspective view of a passive camera used in the present invention. Fig. 4 (a) is a Bumblebee camera, and Fig. 4 (b) is an example of a Videre camera.
Fig. 5 is an exemplary view of a smartSCAN3D-HE, which is an active camera used in the present invention. Fig.
6 is a diagram illustrating an HIS color space according to the present invention.
7 is a graph showing the items of the brightness feature and the texture feature according to the first embodiment of the present invention.
8 is a pseudo code illustrating the steps of switching the passive camera and the active camera according to the first embodiment of the present invention.
9 is a graph showing items of brightness and texture features according to a second embodiment of the present invention.
10 is a pseudo code illustrating the steps of switching a passive camera and an active camera according to a second embodiment of the present invention;
11 is a table illustrating a camera selected according to the environment in accordance with the present invention;
12 is an image of an exemplary image according to different lighting conditions according to an experiment of the present invention;
13 is an image of an example image according to different texture conditions according to the experiment of the present invention.
14 is an illustration of an example of a passive camera (stereo camera) according to the experiment of the present invention.
15 is an exemplary view of an active camera according to an experiment of the present invention.
16 is a displacement map of an active camera according to an experiment of the present invention, wherein (a) is an image of an input image, and (b) a displacement map.
17 is a displacement map of a passive camera according to the experiment of the present invention, which is a displacement map of (a) an input image (left), (b) a displacement map, (c) Maps.
18 is a table showing the adaptive selection of a hybrid camera according to an experiment of the present invention.
FIG. 19 is a graph comparing average execution time ratios of the conventional method and the method according to the present invention, according to the experiment of the present invention. FIG.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.
In the description of the present invention, the same parts are denoted by the same reference numerals, and repetitive description thereof will be omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템의 구성의 예들에 대하여 도 1을 참조하여 설명한다.First, examples of the configuration of the entire system for carrying out the present invention will be described with reference to Fig.

도 1에서 보는 바와 같이, 본 발명에 따른 하이브리드 입체 카메라의 적응적 스위칭 방법은 수동형 카메라(21)와 능동형 카메라(22) 중 하나를 선택하여 선택된 해당 카메라로부터 물체(10)의 입체 영상을 입력받는 컴퓨터 단말(30) 상의 프로그램 시스템으로 실시될 수 있다. 즉, 적응적 스위칭 방법은 프로그램으로 구성되어 컴퓨터 단말(30)에 설치되어 실행될 수 있다. 컴퓨터 단말(30)에 설치된 프로그램은 하나의 프로그램 시스템(40)과 같이 동작할 수 있다.1, an adaptive switching method of a hybrid stereoscopic camera according to the present invention is a method of selecting a passive camera 21 and an active camera 22 to receive a stereoscopic image of an object 10 from a selected camera May be implemented as a program system on the computer terminal 30. That is, the adaptive switching method can be implemented by a program and installed in the computer terminal 30 and executed. The program installed in the computer terminal 30 can operate as one program system 40. [

한편, 다른 실시예로서, 하이브리드 입체 카메라의 적응적 스위칭 방법은 프로그램으로 구성되어 범용 컴퓨터에서 동작하는 것 외에 ASIC(주문형 반도체) 등 하나의 전자회로로 구성되어 실시될 수 있다. 또는 수동형 카메라(21)와 능동형 카메라(22) 중 하나를 선택하는 것만을 전용으로 처리하는 전용 컴퓨터 단말(20)로 개발될 수도 있다. 이를 적응적 스위칭 장치(40)라 부르기로 한다. 그 외 가능한 다른 형태도 실시될 수 있다.Meanwhile, as another embodiment, the adaptive switching method of the hybrid stereoscopic camera may be implemented by a single electronic circuit such as an ASIC (application-specific semiconductor) in addition to being operated by a general-purpose computer. Or a dedicated computer terminal 20 dedicated to only selecting one of the passive camera 21 and the active camera 22. [ This is referred to as an adaptive switching device 40. Other possible forms may also be practiced.

수동형 카메라(21)는 컴퓨터 비전에서 스테레오 카메라, 즉, 인간의 눈과 같이 2대의 카메라의 시차를 이용하여 거리 정보를 획득하는 카메라이다. 촬영된 영상(61)은 상기 수동형 카메라(21)로 촬영된 영상으로서, 수동형 영상(61)이라 부르기로 한다.The passive camera 21 is a camera that acquires distance information from a computer vision using a stereo camera, that is, the parallax of two cameras, such as a human eye. The photographed image 61 is an image photographed by the passive type camera 21 and is referred to as a passive type image 61.

능동형 카메라(21)는 한쪽에서는 프로젝터와 광원을 사용하여 코드화된 패턴 영상을 연속적으로 투영하고, 다른 한 쪽에서는 카메라를 통해 패턴이 투영된 장면의 영상을 획득하는 장치를 말한다. 능동형 카메라(21)로부터 획득된 영상을 능동형 영상(62)이라 부르기로 한다.The active camera 21 refers to a device for projecting a coded pattern image successively using a projector and a light source on one side and acquiring an image of a scene on which the pattern is projected on the other side. The image obtained from the active type camera 21 will be referred to as an active type image 62.

수동형 영상 또는 능동형 영상(61,62)은 시간상으로 연속된 프레임으로 구성된다. 하나의 프레임은 하나의 이미지를 갖는다. 즉, 어느 특정 시점 t에서의 영상이 곧 하나의 프레임이다.
The passive type image or the active type image 61,62 is composed of consecutive frames in time. One frame has one image. That is, the image at a specific time t is one frame immediately.

다음으로, 본 발명의 제1 실시예에 따른 하이브리드 입체 카메라의 적응적 스위칭 방법을 도 2를 참조하여 설명한다. 도 2는 본 발명에 따른 하이브리드 입체 카메라의 적응적 스위칭 방법에 대한 전체적인 흐름도를 보여준다.Next, an adaptive switching method of the hybrid stereoscopic camera according to the first embodiment of the present invention will be described with reference to FIG. FIG. 2 shows a general flowchart of an adaptive switching method of a hybrid stereoscopic camera according to the present invention.

도 2에서 보는 바와 같이, 본 발명에 따른 방법에서는 먼저 하이브리드 카메라를 구성한 후(S10), 초기 영상을 받아들이고(S20), 이 입력영상으로부터 주변의 환경을 대표할 수 있는 주요 특징인 밝기 특징과 텍스처 특징을 추출한다(S30,S40). 그런 다음, 추출된 밝기와 텍스처 특징값을 가장 잘 수용할 수 있는 카메라를 선택을 위한 척도(이하 스위칭 통합척도)를 생성하고(S50), 생성된 통합척도에 의하여, 하이브리드 입체 카메라를 적응적으로 스위칭한다(S60). 이를 통해 품질이 보다 우수한 영상을 획득한다.As shown in FIG. 2, in the method according to the present invention, a hybrid camera is first constructed (S10), an initial image is received (S20), and a brightness characteristic and a texture The feature is extracted (S30, S40). Then, a scale for selecting a camera that best accommodates the extracted brightness and texture feature values (hereinafter, a switching integration scale) is created (S50), and the hybrid stereoscopic camera is adaptively (S60). Through this, images with better quality are obtained.

이하에서, 각 단계를 보다 구체적으로 설명한다.
Hereinafter, each step will be described in more detail.

먼저, 하이브리드 카메라의 구성 단계(S10)에 대하여 보다 구체적으로 설명한다.First, the configuration step S10 of the hybrid camera will be described in more detail.

하이브리드 카메라는 수동형 카메라와 능동형 카메라로 구성된다. 이하에서, 본 발명에서 사용하는 3차원의 입체 카메라에 대하여 설명한다.Hybrid cameras consist of a passive camera and an active camera. Hereinafter, a three-dimensional stereoscopic camera used in the present invention will be described.

최근 들어, 우수한 품질의 영상을 필요로 하는 응용 분야에서 여러 종류의 3차원 입체 카메라가 많이 사용되고 있다. TOF 방식의 3차원 카메라[비특허문헌 3]는 광파 또는 음파 등의 에너지를 물체에 방사하고 되돌아오는 시간의 차이로 물체와의 거리를 인지하는 카메라인데, 도 3은 TOF 카메라[비특허문헌 6][비특허문헌 7]의 예를 보여준다.In recent years, various kinds of three-dimensional stereoscopic cameras have been widely used in applications requiring high-quality images. The TOF-based three-dimensional camera [Non-Patent Document 3] is a camera that recognizes the distance to an object by radiating energy such as light wave or sound wave to an object and returning time. Fig. 3 shows a TOF camera ] [Non-Patent Document 7].

TOF 카메라의 투사하는 에너지는 음파로서는 초음파를 이용하며, 광파로서는 레이저광을 이용한다. 초음파를 이용한 센서의 경우에는 초음파의 전파 특성상 실세계의 정확한 한 지점에서의 측정이 어렵고, 실세계의 일정한 각 범위에서의 대표적인 거리 값만을 산출한다. 따라서 로봇의 손동작과 같은 미세한 동작을 수행하는 데에는 한계가 있다. 레이저를 이용한 시간지연 방식의 경우에는 한 번의 측정으로 실세계의 한 점에서의 거리정보만을 획득하는 1차원 센서의 형태이므로 2차원 또는 3차원으로의 확장을 하기 위해서는 수많은 측정을 필요로 하므로 측정 시간이 길다는 단점이 있다.The projected energy of the TOF camera uses ultrasonic waves as sound waves and laser light as light waves. In the case of a sensor using an ultrasonic wave, it is difficult to measure at a precise point of a real world because of the propagation characteristics of an ultrasonic wave, and only a typical distance value in a certain angular range of the real world is calculated. Therefore, there is a limit in performing a minute operation such as a hand motion of the robot. In the case of the time delay method using a laser, since it is a one-dimensional sensor type that acquires only distance information at a point of the real world by one measurement, it requires a lot of measurement in order to expand to two or three dimensions. There is a drawback to long.

이와 같이 시간지연 기반의 거리센서는 로봇의 이동과 같이 큰 동작에 대해서는 어느 정도 무리 없이 사용될 수 있으나 앞서 기술한 제약으로 인해 로봇이 물건을 조작하는 등의 미세한 동작을 수행하기는 어렵다.In this way, the time-delay-based distance sensor can be used to some extent for a large operation such as the movement of the robot, but it is difficult to perform a minute operation such as a robot manipulating the object due to the above-described constraints.

그러므로 실세계의 정확한 한 지점에 대한 거리 정보를 획득할 수 있고, 짧은 시간 안에 많은 지점에 대한 거리 정보를 동시에 획득할 수 있는 영상센서를 이용한 삼각법 기반의 거리 측정 방식이 널리 이용되고 있다. 이런 삼각법 기반의 거리 정보 획득 방법에는 에너지의 투사여부에 따라 수동형과 능동형 카메라 방식으로 구분할 수 있다.Therefore, a triangulation-based distance measurement method using an image sensor capable of acquiring distance information at a precise point in the real world and simultaneously acquiring distance information at many points within a short time is widely used. This method of acquiring distance information based on trigonometry can be divided into passive type and active type camera depending on whether energy is projected or not.

수동형 카메라[비특허문헌 4]는 컴퓨터 비전에서 스테레오 카메라에 해당하며, 스테레오 비전에서는 인간의 눈과 같이 두 대의 카메라의 시차를 이용하여 거리 정보를 획득한다. 스테레오 비전에서는 텍스처가 존재하지 않는 벽면과 같은 물체에서는 대응점을 결정할 수 없어 거리 정보를 획득하지 못한다는 심각한 단점이 존재한다. 삼각법 기반 거리 정보 획득 방식에서는 두 시점에서의 실세계의 동일 지점의 관계를 이용해서 거리 정보를 획득하므로 실세계의 동일 지점에 대한 대응점 문제를 해결하는 것이 최우선적으로 선행되어야 한다. 스테레오 비전에서는 대응점 문제를 해결하기 위해 두 영상의 상관관계를 비교 분석하는데 많은 연산이 필요하다는 단점 또한 존재한다. 도 4는 수동형 카메라로 많이 사용되는 범블비(Bumblebee) 카메라와 비더레(Videre) 카메라를 보여준다.A passive camera [Non-Patent Document 4] corresponds to a stereo camera in a computer vision, and in stereovision, distance information is acquired using the parallax of two cameras as in a human eye. In Stereo Vision, there is a serious disadvantage that it can not determine the correspondence point in an object such as a wall surface on which no texture exists and thus can not obtain distance information. In the method of acquiring distance information based on trigonometry, distance information is acquired by using the same point relationship of the real world at two points of view. Therefore, it is necessary to solve the point of correspondence to the same points in the real world. In Stereo Vision, there is also a disadvantage that many operations are required to compare and analyze the correlation between two images in order to solve the problem of corresponding points. FIG. 4 shows a Bumblebee camera and a Videre camera which are widely used as a passive camera.

능동형 카메라, 즉, 능동형 삼각법 기반의 카메라[비특허문헌 5]는 시스템 구성상으로는 스테레오 비전 시스템의 두 대의 카메라 중에서 하나의 카메라가 광을 투사할 수 있는 장치(레이저, 프로젝터)로 대체된 방식이다. 즉,능동형 카메라는 구조광(Structured light)이라고 하는 이미 알고 있는 기학학적인 패턴의 광을 투사함으로써 스테레오 비전에서의 대응점을 제공하여 대응점 문제를 쉽게 해결하는 방식이다. 이와 같은 구조광 기반의 거리 측정 방식은 스테레오 비전에 비해서 대응점 문제를 해결하기 위한 연산량이 적고 다수의 대응점을 제공하여 많은 양의 거리 데이터를 산출할 수 있다는 장점이 있으며 정밀도 또한 우수하지만 수동형 방식에 비해 시간이 보다 소요된다는 단점이 존재한다. 도 5는 능동형 카메라의 하나인 독일 Breuckmann사의 smartSCAN3D-HE 카메라를 보여준다[비특허문헌 8].
An active camera, that is, a camera based on an active trigonometry [Non-Patent Document 5], is a system in which one of two cameras of a stereo vision system is replaced with a device (laser, projector) capable of projecting light. In other words, the active camera is a method of easily solving the problem of the correspondence point by providing a correspondence point in stereovision by projecting light of known geometric pattern called structured light. The distance measurement method based on structured light is advantageous in that it can calculate a large amount of distance data by providing a small amount of computation and a large number of correspondence points in order to solve the problem of the correspondence point as compared with the stereoscopic vision. There is a disadvantage that it takes more time. Figure 5 shows a smartSCAN3D-HE camera from Breuckmann, Germany, one of the active cameras [Non-Patent Document 8].

다음으로, 초기 영상 입력 단계(S20)를 설명한다.Next, the initial image input step S20 will be described.

카메라를 통해 초기 영상을 입력받는다(S20). 초기 영상으로서, 일반적인 색상 영상(또는 RGB 영상)을 입력받는다. 따라서 수동형 카메라의 스테레오 카메라 중 어느 하나의 영상을 초기 영상으로 사용할 수 있다. 또는, 다른 실시예로서, 초기 영상을 획득하기 위하여 별도의 RGB 카메라를 사용할 수 있다.
The initial image is input through the camera (S20). As an initial image, a general color image (or RGB image) is input. Therefore, any one of the stereo cameras of the passive camera can be used as the initial image. Alternatively, as another example, a separate RGB camera may be used to obtain an initial image.

다음으로, 밝기 및 텍스처 특징을 추출하는 단계(S30,S40)를 설명한다. 즉, 본 발명에서 사용하는 주변 환경의 복잡도를 대표하는 두 가지 특징을 추출하는 방법에 대해 설명한다.Next, steps S30 and S40 for extracting brightness and texture features will be described. That is, a method for extracting two features representing the complexity of the surrounding environment used in the present invention will be described.

본 발명에서는 주변 환경의 상태를 대표하는 특징으로 밝기와 텍스처 특징을 정의하여 사용한다. 그리고 바람직하게는, 잡음에 의한 영향을 줄이기 위해서 입력영상을 N×N 화소 크기의 블록으로 분할한 후, 블록 단위로 이런 특징들을 추출한다.In the present invention, the brightness and the texture characteristic are defined and used as a characteristic representing the state of the surrounding environment. In order to reduce the influence of the noise, the input image is divided into N × N pixel size blocks, and then these features are extracted on a block-by-block basis.

먼저, 밝기 특징 추출 단계(S30)를 설명한다.First, the brightness feature extraction step (S30) will be described.

밝기 특징으로는 입력영상의 RGB 칼라공간을 색상(Hue), 명도(Intensity), 채도(Saturation)로 용이하게 변환할 수 있는 HIS 칼라공간[비특허문헌 9]으로 변환한 후 명도(I) 값을 활용한다. 다음 식 1은 RGB 칼라공간을 HIS 칼라공간으로 변환하는 식을 나타낸다.In the brightness feature, the RGB color space of the input image is converted into a HIS color space (Non-Patent Document 9) that can be easily converted into hue, intensity, and saturation, . Equation 1 below expresses an equation for converting an RGB color space into an HIS color space.

[수학식 1][Equation 1]

Figure 112013052615838-pat00003
Figure 112013052615838-pat00003

여기서, R, G, B는 각각 색상 영상의 RGB 값을 나타내고, H, I, S는 각각 색상(Hue), 명도(Intensity), 채도(Saturation)를 나타낸다.Here, R, G, and B represent RGB values of the color image, and H, I, and S represent hues, intensities, and saturations, respectively.

그리고 도 6은 HIS 칼라공간을 기하학적으로 보여준다. And Figure 6 shows the HIS color space geometrically.

한편, 명도(I) 값만으로 색상 영상을 표현한 것을 명도 영상이라고 부르기로 한다.
On the other hand, a representation of a color image with only the brightness (I) value is called a brightness image.

다음으로, 명도 영상(또는 I 영상)을 N×N 화소 크기의 블록으로 분할한 후, 블록 단위로 밝기 특징을 추출한다.Next, the brightness image (or I image) is divided into N × N pixel size blocks, and brightness characteristics are extracted in block units.

본 발명에서 t시점의 영상에 대한 밝기 특징 Fbright(t)은 식 2와 같이 정의된다. In the present invention, the brightness characteristic F bright (t) for an image at time t is defined as Equation 2.

[수학식 2]&Quot; (2) "

Figure 112013052615838-pat00004
Figure 112013052615838-pat00004

여기서, N는 블록의 가로 또는 세로의 길이를 나타내고, P는 영상에서 샘플링된 블록의 전체 개수를 의미하며, Ri는 i번째 블록 내의 위치 좌표들의 집합을 나타낸다. 그리고 It(x,y)는 영상 (x,y) 위치에서의 밝기 값을 의미한다.Here, N denotes the length of the block in the horizontal or vertical direction, P denotes the total number of blocks sampled in the image, and R i denotes a set of positional coordinates in the ith block. And I t (x, y) represents the brightness value at the position of the image (x, y).

식 2에서 t시점 영상의 밝기 특징 Fbright(t)는 0에서 1사이의 값을 가지도록 정규화(normalization)된다.
In equation 2, the brightness characteristic F bright (t) of the t-view image is normalized to have a value between 0 and 1.

다음으로, 텍스처 특징을 추출하는 단계(S40)를 설명한다.Next, the step (S40) of extracting the texture feature will be described.

일반적으로, 텍스처 특징은 영상에서 화소값들의 분포를 특징짓는 주요한 요소로 활용되고 있다. 텍스처 특징을 추출하기 위해 사용되는 텍스쳐 분석 알고리즘은 랜덤 필드 모델(random field model)에서부터 웨이블릿 변환 기술들에 이르기까지 다양하게 연구되어 왔는데, 가보 웨이블릿 변환(Gabor wavelet transform)을 이용하는 특징이 다른 텍스처 특징보다 우수한 텍스처 구분력을 가진 것으로 알려져 많이 사용되고 있다[비특허문헌 10]. 따라서 본 발명에서도 가보 웨이블릿 변환을 텍스처 특징으로 사용한다.In general, texture features are being used as a key element that characterizes the distribution of pixel values in an image. The texture analysis algorithms used to extract texture features have been studied from random field models to wavelet transform techniques. The feature using Gabor wavelet transform is different from other texture features Has been known to have excellent texture discrimination power and is widely used [Non-Patent Document 10]. Therefore, the present invention also uses a Gabor wavelet transform as a texture feature.

가보 웨이블릿 변환은 가보 함수를 모함수(mother function)로 사용하는 웨이블릿 변환이다. 가보 함수는 복잡한 시누소이드(sinusoid) 함수에 의해 변조된 가우시안 함수로 2차원 가보 함수 g(x,y)는 식 3과 같이 정의된다.The Gabor wavelet transform is a wavelet transform used as a mother function of a Gabor function. The Gabor function is a Gaussian function modulated by a complex sinusoid function. The two-dimensional Gabor function g (x, y) is defined as Equation 3.

[수학식 3]&Quot; (3) "

Figure 112013052615838-pat00005
Figure 112013052615838-pat00005

식 3에서 σx와 σy는 각각 x와 y축으로의 표준편차이고, W는 관심의 대상이 되는 기본 주파수이다.In Equation 3, σ x and σ y are the standard deviations along the x and y axes, respectively, and W is the fundamental frequency of interest.

가보 웨이블릿 변환은 가보 함수 g(x,y)의 확대와 회전을 통해서 식 4와 같이 표현될 수 있다.The Gabor wavelet transform can be expressed as Equation 4 through magnification and rotation of the Gabor function g (x, y).

[수학식 4]&Quot; (4) "

Figure 112013052615838-pat00006
Figure 112013052615838-pat00006

식 4에서 θ=nπ/K이고, K는 가능한 회전 각도의 수를 나타낸다. 즉, θ는 180도를 K등분한 값을 가진다. 따라서 n은 0에서 K-1까지의 정수값을 가진다. S를 가능한 축소 횟수라 할 때, m은 축소 인수로서 0에서 S-1까지의 정수 값을 갖는다.In Equation 4, &thetas; = n [pi] / K and K represents the number of possible rotation angles. That is, θ has a value obtained by dividing K by 180 degrees. Therefore, n has an integer value from 0 to K-1. When S is a possible reduction number, m is an integer from 0 to S-1 as a reduction factor.

가보 웨이블릿 계수는 하나의 블록 내의 밝기값들에 가보 웨이블릿 함수를 곱함으로써 계산된다.The Gabor wavelet coefficients are calculated by multiplying the brightness values in one block by a wavelet function.

[수학식 5]&Quot; (5) "

Figure 112013052615838-pat00007
Figure 112013052615838-pat00007

식 5의 w는 (x,y)를 중심으로 하는 윈도우의 반경을 나타낸다.W in Equation 5 represents the radius of the window centered at (x, y).

본 발명에서는 i번째 블록이 대표하는 영역의 모든 좌표들 (x,y)에 대해 이를 중심으로 하는 윈도우를 사용해 계산되는 가보 웨이블릿 계수들의 평균을 각 블록의 텍스처 특징으로 사용한다.
In the present invention, an average of the wavelet coefficients calculated using a window centering on all the coordinates (x, y) of an area represented by the i-th block is used as a texture characteristic of each block.

다음으로, 스위칭 통합척도를 생성하는 단계(S50)를 설명한다.Next, a description will be given of a step (S50) of generating a switching integrated measure.

앞서 단계(S30,S40)에서 주변 환경의 복잡도를 대표하는 밝기와 텍스처 특징을 정의한 후에는, 이들 특징을 효과적으로 결합하는 통합척도(integrated measure)를 정의하고, 정의된 통합척도를 기반으로 적응적 스위칭 규칙을 생성한다.After defining the brightness and texture features representing the complexity of the surrounding environment in the previous steps S30 and S40, an integrated measure that effectively combines these features is defined, and adaptive switching based on the defined integrated measure Create a rule.

스위칭 통합척도를 생성하는 2가지 실시예를 설명하기로 한다. 먼저, 제1 실시예에 따른 스위칭 통합척도를 설명한다. Two embodiments for generating a switching integration measure will now be described. First, the switching integration measure according to the first embodiment will be described.

본 발명에서는 t 시점의 입력영상에 대해 주변 환경의 복잡도를 효과적으로 측정하는 통합척도 Φ(t;α,β)를 밝기 특징과 텍스처 특징의 가중화된 합을 이용하여 식 6과 같이 정의한다.In the present invention, the integrated scale Φ (t; α, β) for effectively measuring the complexity of the surrounding environment is defined as Equation (6) using the weighted sum of the brightness feature and the texture feature.

[수학식 6]&Quot; (6) "

Figure 112013052615838-pat00008
Figure 112013052615838-pat00008

식 6에서 통합척도 Φ(t;α,β)는 밝기와 텍스처 특징의 가중화된 합(weighted sum)을 이용해 정의된다.
In Equation 6, the integrated measure Φ (t; α, β) is defined using a weighted sum of brightness and texture features.

밝기 특징에 대한 항의 경우 도 7a와 같이 Fbright(t)가 0과 1의 값을 가질 경우에는 Φ(t;α,β)의 밝기 특징에 대한 항이 최소값이 되고, Fbright(t)가 0.5의 값을 가질 경우에는 Φ(t;α,β)의 밝기 특징에 대한 항이 최대값이 되도록 정의하였다.As shown in Figure 7a, if term of the brightness characteristic F bright (t) is the case have a value between 0 and 1, Φ; and this term is the minimum value of the brightness characteristics of the (t α, β), F bright (t) 0.5 Is defined as the maximum value of the brightness characteristic of? (T;?,?).

그리고 텍스처 특징에 대한 항의 경우 도 7b와 같이 Fgabor(t)가 0의 값을 가질 경우에는 Φ(t;α,β)의 텍스처 특징에 대한 항이 최소값이 되고, Fgabor(t)가 1의 값을 가질 경우에는 Φ(t;α,β)의 텍스처 특징에 대한 항이 최대값이 되도록 정의하였다.And if term of the texture characteristic F gabor (t) as shown in Figure 7b has a value of 0, Φ; and this term is the minimum value of the texture features of the (t α, β), of the F gabor (t) 1 (T, α, β) is defined as the maximum value for the texture feature.

또한, 식 6에서 α와 β는 가중치(weight)로서 밝기 특징과 텍스처 특징의 기여도를 나타내는데, 본 발명에서는 α와 β를 각각 0.4와 0.6으로 설정하여 밝기 특징 보다는 텍스처 특징에 보다 높은 가중치를 부여한다.
In Equation (6), α and β denote the contribution of the brightness feature and the texture feature as a weight. In the present invention, by setting α and β to 0.4 and 0.6, respectively, a higher weight is given to the texture feature than to the brightness feature .

다음으로, 생성된 스위칭 통합척도에 의해 하이브리드 카메라를 스위칭하는 단계(S60)를 설명한다.Next, the step S60 of switching the hybrid camera by the generated switching integration measure will be described.

주변 환경의 복잡도를 측정하기 위한 통합척도를 정의한 후에는 생성된 스위칭 규칙을 이용하여, 도 8과 같은 스위칭 규칙(또는 스위칭 알고리즘)에 의하여 하이브리드 입체 카메라를 동적으로 스위칭한다(S60).After the integrated metric for measuring the complexity of the surrounding environment is defined, the hybrid stereoscopic camera is dynamically switched by the switching rule (or switching algorithm) shown in FIG. 8 using the generated switching rule (S60).

즉, 통합 척도 Φ(t;α,β)가 임계치 TH 이상일 경우에는 하이브리드 카메라의 수동형 카메라를 활성화 하고, 그렇지 않을 경우에는 능동형 카메라를 활성화 한다. 도 8과 같은 스위칭 규칙에서 임계치 TH는 카메라의 스위칭을 위한 임계치로서 반복적인 실험에 의해 경험적으로 결정된다.That is, if the integrated measure? (T;?,?) Is equal to or greater than the threshold value TH, the passive camera of the hybrid camera is activated. Otherwise, the active camera is activated. In the switching rule as shown in Fig. 8, the threshold TH is determined empirically by a repeated experiment as a threshold for switching the camera.

요약하면, 도 11과 같이, 주변 환경의 밝기가 어둡거나 밝을 경우, 그리고 텍스처가 빈약할 경우에는 능동형 카메라를 활성화하고, 주변 환경의 밝기와 텍스처가 빈약하지 않을 경우에는 수동형 카메라인 스테레오 카메라를 활성화한다.
In summary, as shown in FIG. 11, the active camera is activated when the brightness of the surrounding environment is dark or bright, and the texture is weak, and when the brightness and texture of the surrounding environment are not satisfactory, do.

다음으로, 본 발명의 제2 실시예에 따른 하이브리드 입체 카메라의 적응적 스위칭 방법을 도 9와 도 10을 참조하여 설명한다.Next, an adaptive switching method of the hybrid stereoscopic camera according to the second embodiment of the present invention will be described with reference to FIGS. 9 and 10. FIG.

본 발명의 제2 실시예는 기본적으로 앞서 설명한 제1 실시예와 동일하다. 다만, 스위칭 통합척도를 구하는 방식과 스위칭 규칙에서 일부 차이가 있다. 이하에서, 제1 실시예와 차별되는 부분만 설명한다.The second embodiment of the present invention is basically the same as the first embodiment described above. However, there are some differences in the way to obtain the switching integration measure and the switching rule. Hereinafter, only a part different from the first embodiment will be described.

먼저, 스위칭 통합척도를 생성하는 단계(S50)을 설명한다.First, a step S50 of generating a switching integrated measure will be described.

다음으로, 제2 실시예에 따른 스위칭 통합척도를 설명한다.Next, a switching integration measure according to the second embodiment will be described.

제2 실시예에 따른 t 시점의 통합척도 Φ(t;α,β)는 식 7과 같이 정의한다.The integrated measure? (T;?,?) At the time point t according to the second embodiment is defined as Equation (7).

[수학식 7]&Quot; (7) "

Figure 112013052615838-pat00009
Figure 112013052615838-pat00009

식 7은 제1 실시예의 식 6에 비하여, 각 밝기 척도를 나타내는 항과, 텍스처 특징을 나타내는 항들을 각각 역수로 하여, 역수에 대한 가중화된 합을 이용하여 정의된다.Equation 7 is defined by using the weighted sum for the reciprocals, with the inverse of the terms indicating the brightness scale and the terms representing the texture characteristic, as compared with Equation 6 in the first embodiment.

밝기 특징에 대한 항의 경우 도 9a와 같이 Fbright(t)가 0.5의 값을 가질 경우에는 Φ(t;α,β)의 밝기 특징에 대한 항이 최소값이 되고, Fbright(t)가 0과 1의 값에 가까이 갈수록 Φ(t;α,β)의 밝기 특징에 대한 항은 무한대로 커지도록 정의한다.As shown in Figure 9a, if term of the brightness characteristic F bright (t) is the case have a value of 0.5, Φ; and this term is the minimum value of the brightness characteristics of the (t α, β), F bright (t) are 0 and 1, , The term for the brightness characteristic of? (T;?,?) Is defined to be infinitely larger as the value approaches?

그리고 텍스처 특징에 대한 항의 경우 도 9b와 같이 Fgabor(t)가 1의 값을 가질 경우에는 Φ(t;α,β)의 텍스처 특징에 대한 항이 최소값이 되고, Fgabor(t)가 0에 가까워질수록 Φ(t;α,β)의 텍스처 특징에 대한 항이 무한대로 커지도록 정의한다.And texture case have a value of the F gabor (t) 1 as shown in Figure 9b, if term of the characteristics, Φ; to be a term minimum values for the texture features of the (t α, β), F gabor (t) is 0, The closer to the texture property of Φ (t; α, β) is defined to be infinitely large.

다음으로, 제2 실시예에 따른 스위칭 단계(S60)를 설명한다.Next, the switching step S60 according to the second embodiment will be described.

제2 실시예에 따른 스위칭 규칙(또는 스위칭 알고리즘)은 도 10에 도시된 바와 같다. 즉, 도 10과 같은 스위칭 규칙에 의하여 하이브리드 입체 카메라를 동적으로 스위칭한다(S60). 즉, 통합 척도 Φ(t;α,β)가 임계치 TH2 이상일 경우에는 하이브리드 카메라의 능동형 카메라를 활성화 하고, 그렇지 않을 경우에는 수동형 카메라를 활성화 한다.The switching rule (or switching algorithm) according to the second embodiment is as shown in FIG. That is, the hybrid stereoscopic camera is dynamically switched by the switching rule shown in FIG. 10 (S60). That is, if the integrated measure? (T;?,?) Is equal to or greater than the threshold value TH2, the active camera of the hybrid camera is activated. Otherwise, the passive camera is activated.

제2 실시예에 따른 스위칭 규칙은 앞서의 제1 실시예에 비하여, 임계치 보다 큰 경우와 작은 경우에 활성화하는 카메라가 서로 반대이다.
The switching rule according to the second embodiment is opposite to that of the first embodiment in that the activated camera is larger than the threshold value and smaller than the threshold value.

상기와 같이 제2 실시예에 따른 통합척도를 정의하면, 텍스처 특징이 너무 빈약하거나, 밝기가 너무 어둡거나 밝은 경우 등의 극단적인 경우, 통합척도의 값이 커지도록 하여, 능동형 카메라를 활성화할 수 있다.By defining the integration scale according to the second embodiment as described above, it is possible to increase the value of the integration scale in the extreme case such as when the texture characteristic is too weak, the brightness is too dark or bright, have.

구체적으로, 도 9a에서, Fbright(t)가 a 보다 작거나 b 보다 크면, 밝기에 대한 척도 항이 소정의 임계치 TH2보다 항상 커진다. 따라서 Fgabor(t)가 커져도 전체 통합척도는 당연히 임계치 TH2 보다 커진다. 즉, 밝기가 너무 어둡거나 밝은 경우, 텍스처가 아무리 선명하더라도, 전체 통합척도는 항상 소정의 임계치보다 커지고, 능동형 카메라가 활성화된다.Specifically, in Fig. 9A, if F bright (t) is smaller than a or larger than b, the measure term for brightness always becomes larger than the predetermined threshold TH2. Therefore, even if F gabor (t) increases, the total integrated measure naturally becomes larger than the threshold value TH2. That is, if the brightness is too dark or bright, no matter how sharp the texture is, the total integrated measure always becomes larger than the predetermined threshold, and the active camera is activated.

반대로, Fgabor(t)가 c보다 작으면, 텍스처에 대한 척도 항이 소정의 임계치 TH2 보다 항상 커지므로, Fbright(t)가 아무리 작아도(또는 매우 큰 값을 가져도) 통합척도는 당연히 임계치 TH2 보다 커진다. 즉, 텍스처가 빈약한 경우, 밝기가 아무리 중간 정도가 되더라도, 전체 통합척도는 항상 소정의 임계치보다 커지고, 능동형 카메라가 활성화된다.Conversely, if F gabor (t) is less than c, then the aggregate measure of F bright (t), no matter how small (or has a very large value), will naturally fall below the threshold TH2 . That is, in the case of a weak texture, even if the brightness is moderate, the total integrated scale always becomes larger than the predetermined threshold, and the active camera is activated.

이에 반해, 제1 실시예는 밝기가 중간이면, 텍스처가 빈약한 경우에도 수동형 카메라가 활성화될 수 있거나, 반대로, 텍스처가 뚜렷하면, 밝기가 너무 어둡거나 너무 밝은 경우에도 수동형 카메라가 활성화될 수 있다. 제2 실시예는 이러한 경우를 개선할 수 있다.
On the other hand, in the first embodiment, if the brightness is medium, the passive camera can be activated even when the texture is poor, or conversely, if the texture is clear, the passive camera can be activated even when the brightness is too dark or too bright . The second embodiment can improve such a case.

다음으로, 실험을 통한 본 발명의 효과를 도 12 내지 도 20을 참조하여 보다 구체적으로 설명한다.Next, the effect of the present invention through experiments will be described in more detail with reference to Figs. 12 to 20. Fig.

본 발명의 실험을 위한 컴퓨터는 인텔 Pentium Core 2 Duo의 2.66GHz CPU와 8GB의 메모리를 사용하였고, 운영체제로는 마이크로소프트사의 Windows 7을 사용하였다. 그리고 본 발명에서 제안한 하이브리드 입체 카메라의 적응적 스위칭 방법의 구현을 위해서는 Visual C++ 2008 통합 개발 환경을 이용하였다.The computer for the experiment of the present invention uses 2.66GHz CPU and 8GB memory of Intel Pentium Core 2 Duo, and Microsoft Windows 7 was used as the operating system. In order to implement the adaptive switching method of the hybrid stereoscopic camera proposed in the present invention, the integrated development environment of Visual C ++ 2008 was used.

본 발명의 실험에서는 조명과 텍스처의 영향이 서로 다른 환경에서 제안된 카메라의 적응적 스위칭 알고리즘을 적용하였다. 도 12의 (a), (b), (c), (d), (e), (f)는 조명의 조건을 '매우 밝음', '밝음', '보통', '어두움', '매우 어두움', '완전 어두움'으로 구분하여 촬영한 영상의 예를 보여준다. 그리고 도 12와 유사하게 도 13의 (a), (b), (c), (d), (e), (f)는 텍스처의 조건을 '매우 풍부함', '풍부함', '보통', '빈약함', '매우 빈약함', '완전 빈약함'으로 구분하여 촬영한 영상의 예를 보여준다.In the experiment of the present invention, the adaptive switching algorithm of the proposed camera is applied in an environment where illumination and texture influence are different. 12 (a), (b), (c), (d), (e), and (f) show the conditions of the illumination as' very bright ',' bright ',' Dark ', and' completely dark '. Similar to FIG. 12, FIGS. 13A, 13B, 13C, 13D, 13E and 13F show texture conditions as' very rich ',' rich ',' 'Poor', 'very poor', and 'poorly'.

본 발명에서는 수동형 카메라인 3차원 스테레오 카메라로는 Pointgrey사의 Bumblebee2 카메라, 그리고 도 14와 같은 싱글 카메라 2대를 획득 영상의 크기와 전송속도의 향상을 위해 IEEE 1394 단자에 평행 방식으로 배열하여 스테레오 영상을 획득하였다.In the present invention, a three-dimensional stereo camera, which is a passive type camera, a Bumblebee 2 camera manufactured by Pointgrey, and two single cameras, such as the one shown in FIG. 14, are arranged in parallel to the IEEE 1394 terminal in order to improve the acquired image size and transmission speed. .

본 발명에서 사용한 능동형 카메라는 도 15와 같이 마이크로소프트사의 Kinect를 사용하였다.As the active camera used in the present invention, Kinect of Microsoft was used as shown in FIG.

도 16과 도 17은 조명과 텍스처가 다양하게 존재하는 입력영상을 받아들인 후 본 발명에 따른 적응적 스위칭 방법을 적용하여 추출한 변위 맵(disparity map)의 예를 보여준다. FIGS. 16 and 17 show an example of a disparity map extracted by applying an adaptive switching method according to the present invention after receiving an input image in which lighting and texture exist in various ways.

도 16은 조명이 '어두움'이고 텍스처가 '빈약함'인 환경에서 촬영한 영상에 대한 실험인데, 본 발명에 따른 적응적 스위칭 방법으로 인하여 수동형 카메라 대신 능동형 카메라가 선택되어 변위 맵이 보다 정확성 있게 추출되었다. 그리고 도 17은 조명이 '어두움'이고 텍스처가 '매우 빈약함'인 환경에서 촬영한 영상에 대한 실험인데, 부 정확하게 추출된 변위 맵의 예를 보여준다. 도 17에서는 조명이나 텍스처 특징이 부족한 환경에서 능동형 카메라 대신 수동형 카메라가 선택되었을 경우에 3차원의 깊이 정보를 올바르게 측정할 수가 없으므로 정확도가 낮은 변위 맵이 획득되는 것을 시각적으로 확인할 수 있다.FIG. 16 is an experiment on an image taken in an environment in which the illumination is 'dark' and the texture is 'poor'. The adaptive switching method according to the present invention selects an active camera instead of a passive camera, . And FIG. 17 shows an example of an incorrectly extracted displacement map, which is an experiment on an image taken in an environment where the illumination is 'dark' and the texture is 'very poor'. In FIG. 17, when the passive camera is selected instead of the active camera in an environment in which illumination and texture characteristics are lacking, it is impossible to visually confirm that the displacement map having low accuracy can be acquired because the depth information of three dimensions can not be correctly measured.

도 18은 주변 환경에 존재하는 조명과 텍스처의 정도에 따라서 본 발명에 따른 적응적 스위칭 방법이 동적으로 선택하는 3차원 카메라의 종류를 전체적으로 보여준다. 도 18에서 A는 능동형 카메라를 의미하고, P는 수동형 카메라를 나타낸다.
FIG. 18 shows the entirety of the three-dimensional camera dynamically selected by the adaptive switching method according to the present invention according to the degree of illumination and texture existing in the surrounding environment. 18, A denotes an active camera, and P denotes a passive camera.

본 발명의 실험에서는 3차원 변위 맵의 시각적인 검증 이외에도 본 발명에 따른 적응적 스위칭 방법의 성능을 비교 평가하기 위해서 기존의 수동형 방식 및 능동형 방식과 본 발명에 따른 적응적 스위칭 방법의 평균적인 3차원 정보 추출 수행시간을 측정하였다. 수행시간은 영상의 해상도를 640×480 기준으로 하고, 식 8과 같이 속도가 가장 빠른 수동형 방식 대비 각 방법의 평균 소요시간 비율을 측정하였다.In the experiment of the present invention, in order to compare and evaluate the performance of the adaptive switching method according to the present invention in addition to the visual verification of the 3D displacement map, The information extraction execution time was measured. The execution time is based on 640 × 480 resolution of the image, and the average time ratio of each method is measured as compared with the passive method with the fastest speed as shown in Equation 8.

[수학식 8]&Quot; (8) "

Figure 112013052615838-pat00010

Figure 112013052615838-pat00010

도 19는 기존의 방법과 본 발명에 따른 방법의 평균적인 수행시간 비율을 그래프로 비교하여 보여준다.FIG. 19 shows a graphical comparison of the average execution time ratio of the conventional method and the method according to the present invention.

본 발명에 따른 적응적 스위칭 방법을 사용한 방법을 전체적으로 판단해 볼 때, 시간적인 측면에서는 도 19에서 확인할 수 있듯이, 본 발명에 따른 방법이 능동형 카메라 보다는 성능이 높았으며, 수동형 방식에 비해서는 약간 낮은 성능을 보였다. 그리고 정확도 측면에서는 본 발명에 따른 방법이 수동형 카메라를 사용한 방식보다는 우수하였고, 능동형 카메라를 이용한 방식에 비해서는 다소 낮은 정확도를 가짐을 시각적으로 확인하였다. 결과적으로, 본 발명에 따른 적응적 스위칭 방법은 정확도와 시간적인 측면에서 기존의 수동형 또는 능동형 방식을 대체할 수 있는 좋은 성능을 가진 것으로 판단되었다.
As can be seen from FIG. 19, the method according to the present invention has a higher performance than the active type camera, and the method according to the present invention is slightly lower than the passive type Performance. In terms of accuracy, the method according to the present invention is superior to the method using a passive camera and visually confirmed to have a somewhat lower accuracy than the method using an active camera. As a result, it has been determined that the adaptive switching method according to the present invention has good performance to replace the conventional passive or active method in terms of accuracy and time.

본 발명에서는 수동형 카메라와 능동형 카메라를 결합하여 하이브리드(hybrid) 입체 카메라를 구성한다. 그리고 주변 환경의 복잡도를 나타내는 밝기 특징과 텍스처 특징의 정도에 따라서 하이브리드 카메라의 수동형과 능동형 카메라를 적응적으로 스위칭함으로써 3차원의 영상정보를 보다 강건하게 추출할 수 있는 메커니즘을 제시한다. 또한, 실험에서는 본 발명에서 제안한 적응적 스위칭 방법이 여러 가지 조건에서 신뢰성이 있게 동작하였으며, 능동형 또는 수동형 카메라만을 단독적으로 사용하는 기존의 3차원 카메라를 대체할 수 있는 하이브리드 카메라에 실제적으로 적용 가능함을 확인하였다.In the present invention, a passive camera and an active camera are combined to constitute a hybrid stereoscopic camera. We present a mechanism for robust extraction of 3D image information by adaptively switching the passive and active cameras of hybrid cameras according to the brightness characteristics and the degree of texture features that indicate the complexity of the surrounding environment. In addition, in the experiment, the adaptive switching method proposed in the present invention operates reliably under various conditions and can be practically applied to a hybrid camera that can replace an existing three-dimensional camera using only an active or passive camera alone Respectively.

본 발명에 따른 방법에서는 밝기와 텍스처의 통합척도에서 가중치를 고정적으로 사용하였는데, 모든 환경에 대해 항상 좋은 결과를 산출한 것은 아니다. 따라서 가중치를 보다 적응적으로 설정하여 사용하는 것이 필요할 것이다.
In the method according to the present invention, the weights are fixedly used in the integrated scale of brightness and texture, but it is not always good for all environments. Therefore, it will be necessary to set the weights more adaptively.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
Although the present invention has been described in detail with reference to the above embodiments, it is needless to say that the present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the spirit of the present invention.

10 : 물체
21 : 수동형 카메라 22 : 능동형 카메라
30 : 컴퓨터 단말 40 : 프로그램 시스템
61 : 수동형 영상 62 : 능동형 영상
10: object
21: Passive camera 22: Active camera
30: computer terminal 40: program system
61: passive image 62: active image

Claims (10)

하이브리드 입체 카메라의 적응적 스위칭 방법에 있어서,
(a) 능동형 카메라 및 수동형 카메라를 포함하여 하이브리드 카메라를 구성하는 단계;
(b) 초기 영상을 입력받는 단계;
(c) 상기 초기 영상을 HIS 칼라공간으로 변환한 후, 명도 영상을 대상으로 밝기 특징을 추출하는 단계;
(d) 상기 초기 영상을 대상으로 가보 웨이블릿 변환을 이용하여 텍스처 특징을 추출하는 단계;
(e) 상기 밝기 특징과 상기 텍스처 특징을 가중화된 합을 이용하여 통합척도를 생성하는 단계; 및,
(f) 상기 통합척도를 소정의 임계치와 대비하여, 대비 결과에 따라 상기 능동형 카메라 및 수동형 카메라 중 어느 하나를 선택하여 활성화하는 단계를 포함하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
In an adaptive switching method of a hybrid stereoscopic camera,
(a) constructing a hybrid camera including an active camera and a passive camera;
(b) receiving an initial image;
(c) converting the initial image into an HIS color space, and then extracting brightness characteristics of the brightness image;
(d) extracting a texture feature using the wavelet transform on the initial image;
(e) generating an integrated measure using the weighted sum of the brightness feature and the texture feature; And
(f) activating any one of the active camera and the passive camera according to a contrast result, comparing the integrated scale with a predetermined threshold value, and activating the selected one of the active camera and the passive camera.
제1항에 있어서,
상기 (c)단계 또는 상기 (d)단계에서, 상기 초기 영상을 N×N 화소 크기의 블록으로 분할한 후, 블록 단위로 해당 특징들을 추출하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
The method according to claim 1,
Wherein the step (c) or the step (d) comprises: dividing the initial image into NxN pixel size blocks, and extracting corresponding features in block units.
제1항에 있어서,
상기 (c)단계에서, 상기 밝기 특징을 0에서 1사이의 값을 가지도록 정규화(normalization)하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
The method according to claim 1,
Wherein the step (c) normalizes the brightness characteristic to have a value between 0 and 1.
제2항에 있어서,
상기 (d)단계에서, 가보 웨이블릿 계수는 하나의 블록 내의 밝기값들에 가보 웨이블릿 함수를 곱함으로써 계산하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
3. The method of claim 2,
Wherein in the step (d), the Gabor wavelet coefficient is calculated by multiplying brightness values in one block by a wavelet wavelet function.
제4항에 있어서,
상기 (d)단계에서, 각 블록이 대표하는 영역의 모든 좌표들에 대해 해당 좌표를 중심으로 하는 윈도우를 사용해 계산되는 가보 웨이블릿 계수들의 평균을 각 블록의 텍스처 특징으로 추출하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
5. The method of claim 4,
Wherein in the step (d), an average of the wavelet wavelet coefficients calculated using a window centering on the coordinates of all the coordinates of the area represented by each block is extracted as a texture characteristic of each block. An adaptive switching method of a camera.
제1항에 있어서,
상기 (e)단계에서, t시점의 초기 영상에 대한 통합척도 Φ(t;α,β)는 다음 수식 1에 의해 정의되는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
[수식 1]
Figure 112013052615838-pat00011

단, Fbright(t)와 Fgabor(t)는 각각 밝기 특징 및 텍스처 특징임.
The method according to claim 1,
Wherein the integrated measure Φ (t; α, β) for the initial image at time t is defined by the following equation (1) in the step (e).
[Equation 1]
Figure 112013052615838-pat00011

Where F bright (t) and F gabor (t) are the brightness and texture characteristics, respectively.
제6항에 있어서,
상기 (f)단계에서, 상기 통합척도가 소정의 임계치 이상일 경우 수동형 카메라를 활성화하고, 소정의 임계치 보다 작은 경우 능동형 카메라를 활성화하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
The method according to claim 6,
Wherein the step (f) activates the passive camera when the integrated measure is greater than or equal to a predetermined threshold, and activates the active camera if the integrated measure is less than a predetermined threshold.
제1항에 있어서,
상기 (e)단계에서, t시점의 초기 영상에 대한 통합척도 Φ(t;α,β)는 다음 수식 1에 의해 정의되는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
[수식 1]
Figure 112013052615838-pat00012

단, Fbright(t)와 Fgabor(t)는 각각 밝기 특징 및 텍스처 특징임.
The method according to claim 1,
Wherein the integrated measure Φ (t; α, β) for the initial image at time t is defined by the following equation (1) in the step (e).
[Equation 1]
Figure 112013052615838-pat00012

Where F bright (t) and F gabor (t) are the brightness and texture characteristics, respectively.
제8항에 있어서,
상기 (f)단계에서, 상기 통합척도가 소정의 임계치 이상일 경우 능동형 카메라를 활성화하고, 소정의 임계치 보다 작은 경우 수동형 카메라를 활성화하는 것을 특징으로 하는 하이브리드 입체 카메라의 적응적 스위칭 방법.
9. The method of claim 8,
Wherein in the step (f), the active camera is activated when the integrated scale is greater than or equal to the predetermined threshold value, and the passive camera is activated when the integrated scale is smaller than the predetermined threshold.
제1항 내지 제9항 중 어느 한 항의 하이브리드 입체 카메라의 적응적 스위칭 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium on which a program for performing the adaptive switching method of the hybrid stereoscopic camera according to any one of claims 1 to 9 is recorded.
KR1020130067807A 2013-06-13 2013-06-13 An Adaptive Switching Method for Three-Dimensional Hybrid Cameras KR101429607B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130067807A KR101429607B1 (en) 2013-06-13 2013-06-13 An Adaptive Switching Method for Three-Dimensional Hybrid Cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130067807A KR101429607B1 (en) 2013-06-13 2013-06-13 An Adaptive Switching Method for Three-Dimensional Hybrid Cameras

Publications (1)

Publication Number Publication Date
KR101429607B1 true KR101429607B1 (en) 2014-08-14

Family

ID=51750300

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130067807A KR101429607B1 (en) 2013-06-13 2013-06-13 An Adaptive Switching Method for Three-Dimensional Hybrid Cameras

Country Status (1)

Country Link
KR (1) KR101429607B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632156A (en) * 2013-12-23 2014-03-12 中南大学 Multi-scale neighboring dependence matrix-based method for extracting froth image texture characteristics

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080079969A (en) * 2007-02-28 2008-09-02 성균관대학교산학협력단 Method and system of structural light based depth imaging using signal separation coding and error correction thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080079969A (en) * 2007-02-28 2008-09-02 성균관대학교산학협력단 Method and system of structural light based depth imaging using signal separation coding and error correction thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632156A (en) * 2013-12-23 2014-03-12 中南大学 Multi-scale neighboring dependence matrix-based method for extracting froth image texture characteristics

Similar Documents

Publication Publication Date Title
Kadambi et al. 3d depth cameras in vision: Benefits and limitations of the hardware: With an emphasis on the first-and second-generation kinect models
KR100721536B1 (en) Method for restoring 3-dimension image using silhouette information in 2-dimension image
KR101791590B1 (en) Object pose recognition apparatus and method using the same
Landau et al. Simulating kinect infrared and depth images
Hernandez et al. Laser scan quality 3-d face modeling using a low-cost depth camera
Shen et al. Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background
CN105869167A (en) High-resolution depth map acquisition method based on active and passive fusion
KR101364133B1 (en) Apparatus for 3D using virtual touch and apparatus for 3D game of the same
KR20100119559A (en) Method and system for converting 2d image data to stereoscopic image data
KR100560464B1 (en) Multi-view display system with viewpoint adaptation
KR20170134513A (en) How to Display an Object
JP2009139995A (en) Unit and program for real time pixel matching in stereo image pair
Wei Converting 2d to 3d: A survey
WO2015179216A1 (en) Orthogonal and collaborative disparity decomposition
US20230245373A1 (en) System and method for generating a three-dimensional photographic image
RU2419880C2 (en) Method and apparatus for calculating and filtering disparity map based on stereo images
KR20140074201A (en) Tracking device
Angot et al. A 2D to 3D video and image conversion technique based on a bilateral filter
KR20110112143A (en) A method for transforming 2d video to 3d video by using ldi method
KR101429607B1 (en) An Adaptive Switching Method for Three-Dimensional Hybrid Cameras
KR101690256B1 (en) Method and apparatus for processing image
Yang et al. Depth map generation using local depth hypothesis for 2D-to-3D conversion
TWI393070B (en) Human face model construction method
Rasool et al. Image-driven haptic rendering
CN107451560B (en) User expression recognition method and device and terminal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170603

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190528

Year of fee payment: 6