KR20030076905A - Method and apparatus for a tracking stereo target - Google Patents

Method and apparatus for a tracking stereo target Download PDF

Info

Publication number
KR20030076905A
KR20030076905A KR1020020015914A KR20020015914A KR20030076905A KR 20030076905 A KR20030076905 A KR 20030076905A KR 1020020015914 A KR1020020015914 A KR 1020020015914A KR 20020015914 A KR20020015914 A KR 20020015914A KR 20030076905 A KR20030076905 A KR 20030076905A
Authority
KR
South Korea
Prior art keywords
image
target
stereo
image input
target object
Prior art date
Application number
KR1020020015914A
Other languages
Korean (ko)
Other versions
KR100434876B1 (en
Inventor
김은수
고정환
Original Assignee
(주)맥스소프트
김은수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)맥스소프트, 김은수 filed Critical (주)맥스소프트
Priority to KR10-2002-0015914A priority Critical patent/KR100434876B1/en
Priority to PCT/KR2002/000521 priority patent/WO2003096697A1/en
Priority to AU2002243051A priority patent/AU2002243051A1/en
Priority to CNB031366570A priority patent/CN1284919C/en
Publication of KR20030076905A publication Critical patent/KR20030076905A/en
Priority to HK04102424A priority patent/HK1059459A1/en
Application granted granted Critical
Publication of KR100434876B1 publication Critical patent/KR100434876B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Earth Drilling (AREA)

Abstract

PURPOSE: A stereo object tracking system and a method thereof are provided to control the convergence angle and the field of view of a stereo camera by using the hierarchical digital image processing and the optic BPEJTC complementarily, thereby realizing the adaptive stereo object tracking in real time. CONSTITUTION: A stereo object tracking method includes the steps of matching backgrounds of a target object between two images by searching a relative motion with respect to the movement speed and direction of a stereo camera via correlation among the input images of continuous three frames by an optic BPEJTC(Binary Phase Extraction Joint Transform Correlator)(201), separating the background and zoning a moving object by extracting target motion components between the two images and making a mask to project to a reference image by a morphology filter(203), and extracting position information of the object to control the convergence angle and the field of view of the camera(205).

Description

스테레오 물체 추적 방법 및 시스템{Method and apparatus for a tracking stereo target}Method and system for tracking stereo objects {Method and apparatus for a tracking stereo target}

본 발명은 주시각을 제어함으로써 이동 표적을 적응적으로 추적할 수 있는 스테레오 물체 추적 방법 및 시스템에 관한 것이다.The present invention relates to a stereo object tracking method and system capable of adaptively tracking a moving target by controlling the viewing angle.

이동 표적을 실시간으로 추적하는 기술은 지난 수십 년 동안 여러 응용 분야에서 많은 연구가 이루어져 왔다. 최근에는 산업 및 군사 기술의 발달과 더불어 무인 자동화 시스템의 요구가 높아짐에 따라 이동 표적을 추적하는 기술에 대한 관심이 매우 고조되고 있다.The technique of tracking moving targets in real time has been studied in several applications over the last few decades. Recently, with the development of industrial and military technology, as the demand for unmanned automation system increases, there is a great interest in the technology of tracking moving targets.

특히, 스테레오 로봇 비젼(stereo robot vision) 기술을 이용한 물체 추적 및 원격 작업은 로봇에게 사람과 같은 입체 시각을 부여함으로써 마치 현장에 있는 것과 같이 자연스러운 작업 처리가 가능하게 함으로써, 기존의 2차원 시각에 비해 30% 이상의 원격 작업 효율을 높여주는 것으로 알려지고 있다. 이와 같은 스테레오 로봇 비전 시스템에는 입체 시각을 부여하는 스테레오 카메라 기술, 스테레오 입력 영상을 처리하여 표적 물체를 인지하는 물체 인식 기술 그리고 표적 물체를 연속적으로 추적하여 관측자가 표적 물체를 계속적으로 추적 및 감시할 수 있는 스테레오 물체 추적 기술 등이 포함된다.In particular, object tracking and remote operation using stereo robot vision technology gives a robot three-dimensional vision like humans, enabling natural work processing as if it is in the field, and compared to conventional two-dimensional vision. It is known to increase the efficiency of remote work by more than 30%. These stereo robot vision systems include stereo camera technology that provides stereoscopic vision, object recognition technology that processes stereo input images to recognize the target object, and continuously tracks and monitors the target object. Stereo object tracking technology.

일반적으로, 양안 시차에 기반한 스테레오 물체 추적 시스템(stereo object tracking system)에서 좌, 우 두 눈의 초점 면에 표적 물체의 시점이 일치하지 않게 되면, 표적 물체가 두 개로 겹쳐 보이게 됨으로써 눈의 피로감 가중과 작업 효율의 저하를 초래하게 된다. 따라서, 추적 물체에 스테레오 시차(stereo disparity)가 존재할 경우에는 이 시차를 제거하게 되는데, 이것을 주시각제어(convergence angle control)라고 한다. 즉, 일반적인 스테레오 물체 추적 시스템에서는 양안 시차가 존재하면서 추적 물체에 대한 스테레오 시차를 없애주기 위한 주시각 제어 기술과 추적 물체가 항상 카메라 시야(FOV: field of view) 중앙에 위치하도록 하는 카메라 팬/틸트 제어(이하, FOV 제어라 칭함) 기술 등 두 가지 기능이 요구된다.In general, in a stereo object tracking system based on binocular disparity, when the viewpoints of the target objects do not coincide with the focal planes of the left and right eyes, the target objects appear to overlap in two, thereby increasing the eye fatigue and This results in a decrease in work efficiency. Therefore, when there is stereo disparity in the tracking object, this disparity is eliminated, which is called convergence angle control. That is, in a conventional stereo object tracking system, there is a binocular parallax and a perspective control technique for eliminating stereo parallax with respect to a tracking object, and a camera pan / tilt which always keeps the tracking object centered in the field of view (FOV). Two functions are required: control (hereinafter referred to as FOV control) technology.

기존의 스테레오 물체 추적 시스템에서 주시각 제어 및 추적 물체의 FOV 제어를 위해서는 스테레오 입력 영상의 위치 좌표를 찾아내기 위한 기준 영상의 추출이 필수적이다. 이러한 기준 영상의 영역 추출 알고리즘은 대부분 2차원 순차 입력영상을 이용하여 이전 영상과 현재 영상 사이의 관계 등으로부터 배경 및 잡음을 제거함으로써 추적 물체를 식별하는 방법 등이 사용되고 있다. 즉, 이러한 2차원적 영상 처리에서 기준 영상을 추출하기 위한 방법으로는 전, 후 프레임의 비교에 의한 차영상(image difference)방법, 사전에 정의된 특정 모델의 특징을 이용하는 모델기반(model-based) 방법, 광류(optical flow)에 의한 방법 및 블록 매칭(block matching) 방법 등이 연구되고 있다.In the conventional stereo object tracking system, extraction of a reference image to find the position coordinate of the stereo input image is essential for the control of the gaze angle and the FOV of the tracking object. Most of the region extraction algorithm of the reference image is used to identify the tracking object by removing the background and noise from the relationship between the previous image and the current image using a two-dimensional sequential input image. In other words, a method for extracting a reference image in such a two-dimensional image processing is the image difference method by comparing the front and rear frames, model-based using the characteristics of a predefined model ), Optical flow, and block matching methods have been studied.

하지만 차영상에 의한 방법은 영상 검출기가 움직이고 있는 경우에는 이동 표적을 검출하는데 문제가 있다. 모델 기반에 의한 방법은 입력되는 영상이 미리 저장된 모델의 물체와 달리 상대적 명암이나 약간 변형되는 경우에는 매칭에 대한 어려움의 제약이 있다. 또한 광류에 의한 방법은 화소 단위의 정합에 의한 방법이기 때문에 영상의 이동 변위가 클 경우 계산상의 오류가 발생하여 응용할 수 없고 일반적인 원근감을 갖는 정합은 어려운 것으로 보고되고 있다. 또한, 블록에 기반한 방법은 각 블록간을 비교하여 움직임을 추정하는 방법으로 가장 부합되는 블록을 찾기 위한 계산량과 전, 후 프레임의 배경에 변화가 있는 경우에는 이동 물체를 추출하기가 어려운 단점이 있다.However, the differential image method has a problem in detecting a moving target when the image detector is moving. In the model-based method, there is a limitation of difficulty in matching when the input image is relatively deformed or slightly deformed unlike an object of a previously stored model. In addition, since the optical flow method is a pixel-based matching method, it is reported that a large amount of displacement of an image causes a calculation error, which cannot be applied, and matching with a general perspective is difficult. In addition, the block-based method is a method of estimating motion by comparing blocks, and it is difficult to extract moving objects when there is a change in the amount of computation for finding the most suitable block and the background of the before and after frames. .

본 발명의 목적은 영상 검출기가 움직이고 있는 경우에도 이동 표적을 실시간으로 검출할 수 있는 스테레오 물체 추적 방법 및 시스템을 제공하는 데 있다.An object of the present invention is to provide a stereo object tracking method and system that can detect a moving target in real time even when the image detector is moving.

본 발명의 다른 목적은 이동 표적의 상대적 명암의 변화 또는 형상의 변화 등의 변화 요인에도 실질적으로 검출할 수 있는 스테레오 물체 추적 방법 및 시스템을 제공하는 데 있다.Another object of the present invention is to provide a stereo object tracking method and system that can substantially detect change factors such as changes in relative contrast or shape of a moving target.

본 발명의 또 다른 목적은 실시간으로 용이하게 이동 표적에 대한 위치 정보를 추출한 후, 추출된 위치 정보를 이용하여 주시각 제어 및 FOV 제어를 할 수 있는 스테레오 물체 추적 방법 및 시스템을 제공하는 데 있다.Still another object of the present invention is to provide a stereo object tracking method and system that can extract the position information of a moving target easily in real time and then perform gaze control and FOV control using the extracted position information.

도 1a는 추적 물체에 대해 좌우 카메라의 스테레오 입력 영상이 주시점에 정확히 일치된 경우를 예시적으로 나타낸 도면.1A is a diagram exemplarily illustrating a case where stereo input images of left and right cameras are exactly matched to a gaze point with respect to a tracking object;

도 1b는 추적 물체에 대한 좌우 카메라의 스테레오 입력 영상에 대한 주시점이 다르기 때문에 스테레오 시차가 생겨 화면에 2개의 영상이 겹쳐 나타난 경우를 예시적으로 나타낸 도면.FIG. 1B is a diagram exemplarily illustrating a case where two images overlap on a screen due to stereo parallax because a gaze point of a stereo input image of a left and right camera with respect to a tracking object is different.

도 2는 본 발명에 따른 광-디지털 스테레오 물체 추적 시스템의 처리 흐름을 개략적으로 나타낸 도면.2 is a schematic representation of the processing flow of an optical-digital stereo object tracking system according to the present invention.

도 3a 및 도 3b는 본 발명의 바람직한 일 실시예에 따른 카메라가 움직일 경우t+1프레임에서의 좌우 입력 영상인l(t+1), r(t+1)을 예시적으로 나타낸 도면.3A and 3B are views exemplarily illustrating l (t + 1) and r (t + 1), which are left and right input images in a t + 1 frame when a camera moves according to an exemplary embodiment of the present invention.

도 4는 본 발명의 바람직한 일 실시예에 따른 좌측 영상에 대한 광 BPEJTC 시스템의 내부 구성도를 나타낸 도면.4 is a diagram showing the internal configuration of the optical BPEJTC system for the left image according to an embodiment of the present invention.

도 5는 본 발명의 바람직한 일 실시예에 따른 광 BPEJTC의 입력 평면의 예를 나타낸 도면.5 shows an example of an input plane of an optical BPEJTC according to a preferred embodiment of the present invention.

도 6a는 4개의 기본 구성요소로 이루어져 있는 기존의 Convex hull 필터를나타낸 도면.FIG. 6A shows an existing Convex hull filter consisting of four basic components. FIG.

도 6b는 본 발명의 바람직한 일 실시예에 따른 8개의 구성요소로 이루어진 변형된 Convex hull 필터를 나타낸 도면.6B illustrates a modified Convex hull filter consisting of eight components in accordance with one preferred embodiment of the present invention.

도 7은 본 발명의 바람직한 일 실시예에 따른 표적의 영역화를 위한 투영 과정을 나타낸 도면.7 is a view showing a projection process for the region of the target according to an embodiment of the present invention.

도 8은 본 발명의 바람직한 일 실시예에 따른 2단으로 분리하여 나타낸 광 BPEJTC 입력 평면의 예시도.8 is an exemplary view of an optical BPEJTC input plane shown in two stages in accordance with a preferred embodiment of the present invention.

도 9a 및 도 9b는 본 발명의 바람직한 일 실시예에 따른 카메라가 움직일 경우의 입력영상을 나타낸 도면들.9A and 9B are views illustrating input images when a camera moves according to an exemplary embodiment of the present invention.

도 10a 및 도 10b는 본 발명의 바람직한 일 실시예에 따른 표적 물체의 영역화된 결과를 나타낸 도면들.10A and 10B illustrate localized results of a target object in accordance with one preferred embodiment of the present invention.

도 11a 및 도 11b는 본 발명의 바람직한 일 실시예에 따른 상관 평면에서 나타나는 좌, 우측 영상의 상관 첨두치를 결과를 각각 나타낸 도면들.11A and 11B are diagrams showing results of correlation peak values of left and right images shown in a correlation plane according to an exemplary embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

201…제1 단계 203…제2 단계201... First step 203. 2nd step

205…제3 단계205... 3rd step

상술한 목적들을 달성하기 위하여, 본 발명의 일 측면에 따르면, 제1 영상 입력 장치 및 제2 영상 입력 장치를 구성하는 스테레오 물체 추적 시스템을 적응적으로 제어하는 방법에 있어서, 상기 제1 영상 입력 장치를 통하여 순차적으로 촬상된 적어도 두 개의 입력 영상으로부터 배경 정합을 통하여 상기 적어도 두 개의 입력 영상에 포함된 표적 물체를 탐지하는 단계, 표적 투영 마스크를 이용하여 상기표적 물체를 분리하는 단계, 상기 표적 물체를 포함하는 기준 영상을 생성하는 단계, 상기 제2 영상 입력 장치를 통하여 촬상된 적어도 하나의 대상 영상과 상기 기준 영상을 비교하여 제1 위치 정보를 추출하는 단계 및 상기 제1 위치 정보를 이용하여 상기 제2 영상 입력 장치를 제어하는 단계를 포함하는 스테레오 물체 추적 시스템의 적응 제어 방법을 제공할 수 있다.In order to achieve the above objects, according to an aspect of the present invention, in the method for adaptively controlling a stereo object tracking system constituting a first image input device and a second image input device, the first image input device Detecting a target object included in the at least two input images through background matching from at least two input images sequentially photographed through the above; separating the target object using a target projection mask; Generating a reference image comprising: extracting first location information by comparing the reference image with at least one target image captured by the second image input apparatus, and using the first location information; Adaptive control method of a stereo object tracking system comprising the step of controlling the image input device Can provide.

상기 방법은 상기 분리된 표적 물체의 제2 위치 정보를 추출하는 단계 및 상기 제2 위치 정보를 이용하여 상기 제1 영상 입력 장치를 제어하는 단계를 더 포함하되, 상기 기준 영상은 상기 분리된 표적 물체를 상기 제2 위치 정보에 상응하도록 보정함으로써 생성되는 것이 바람직하다. 여기서, 상기 제1 영상 입력 장치는 상기 제2 위치 정보를 이용하여 팬/틸트 제어되는 것이 바람직하다. 상기 표적 투영 마스크는 영상 차분 필터링, 논리곱 연산 과정 및 모폴로지 필터링을 통하여 구성되는 것을 특징으로 한다. 상기 표적 물체의 제1 위치 정보는 광 BPEJTC(Binary Phase Extraction Joint Transform Correlator)를 이용하여 추출되는 것이 바람직하다. 상기 제2 영상 입력 장치는 상기 제1 위치 정보를 이용하여 주시각 및 팬/틸트 중 적어도 하나가 제어될 수 있다.The method may further include extracting second location information of the separated target object and controlling the first image input device by using the second location information, wherein the reference image is the separated target object. It is preferable to generate by correcting to correspond to the second position information. The first image input device is preferably pan / tilt controlled using the second position information. The target projection mask may be configured through image differential filtering, AND operation, and morphology filtering. The first location information of the target object may be extracted using an optical Binary Phase Extraction Joint Transform Correlator (BPEJTC). The second image input apparatus may control at least one of the viewing angle and the pan / tilt using the first location information.

본 발명의 또 다른 측면에 따르면, 제1 영상 입력 장치 및 제2 영상 입력 장치를 구성하는 스테레오 물체 추적 시스템에 있어서, 상기 제1 영상 입력 장치를 통하여 순차적으로 촬상된 적어도 두 개의 입력 영상으로부터 배경 정합을 통하여 상기 적어도 두 개의 입력 영상에 포함된 표적 물체를 탐지하는 수단, 표적 투영 마스크를 이용하여 상기 표적 물체를 분리하는 수단, 상기 표적 물체를 포함하는기준 영상을 생성하는 수단, 상기 제2 영상 입력 장치를 통하여 촬상된 적어도 하나의 대상 영상과 상기 기준 영상을 비교하여 제1 위치 정보를 추출하는 수단 및 상기 제1 위치 정보를 이용하여 상기 제2 영상 입력 장치를 제어하는 수단을 구비하는 스테레오 물체 추적 시스템을 제공할 수 있다.According to another aspect of the present invention, in the stereo object tracking system constituting the first image input device and the second image input device, the background matching from at least two input images sequentially captured through the first image input device Means for detecting a target object included in the at least two input images, means for separating the target object using a target projection mask, means for generating a reference image including the target object, and inputting the second image. Means for extracting first position information by comparing the at least one target image captured by the apparatus with the reference image, and means for controlling the second image input apparatus using the first position information; A system can be provided.

본 발명의 또 다른 측면에 따르면, 제1 영상 입력 장치 및 제2 영상 입력 장치를 구성하는 스테레오 물체 추적 시스템에 있어서, 프로그램이 저장되어 있는 메모리, 상기 메모리에 결합되어 상기 프로그램을 실행하는 프로세서를 포함하되, 상기 프로세서는 상기 프로그램에 의해, 상기 제1 영상 입력 장치를 통하여 순차적으로 촬상된 적어도 두 개의 입력 영상으로부터 배경 정합을 통하여 상기 적어도 두 개의 입력 영상에 포함된 표적 물체를 탐지하는 단계, 표적 투영 마스크를 이용하여 상기 표적 물체를 분리하는 단계, 상기 표적 물체를 포함하는 기준 영상을 생성하는 단계, 상기 제2 영상 입력 장치를 통하여 촬상된 적어도 하나의 대상 영상과 상기 기준 영상을 비교하여 제1 위치 정보를 추출하는 단계 및 상기 제1 위치 정보를 이용하여 상기 제2 영상 입력 장치를 제어하는 단계를 실행하는 스테레오 물체 추적 시스템의 적응 제어 시스템을 제공할 수 있다.According to another aspect of the present invention, a stereo object tracking system constituting a first image input device and a second image input device, the stereo object tracking system includes a memory in which a program is stored and a processor coupled to the memory to execute the program. Wherein the processor detects a target object included in the at least two input images through the background registration from at least two input images sequentially captured by the first image input device by the program, target projection Separating the target object by using a mask, generating a reference image including the target object, comparing the reference image with at least one target image captured by the second image input device, and a first position; Extracting the information and using the first location information; It may provide an adaptive control system of a stereo object tracking system to execute the step of controlling the input device.

이어서, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Next, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 스테레오 물체 추적 방법 및 시스템에 대하여 개략적으로 살펴보면, 순차적인 입력 영상으로부터 배경 정합을 통해 이동 표적을 탐지하고, 영상 차분 필터, 논리곱 연산 및 모폴로지 필터를 이용하여 구성된 표적 투영마스크를 이용하여 이동 표적을 영역화한 다음 최종적으로, 광 BPEJTC(binary phase extraction joint transform correlator, 이진 위상 추출 JTC)를 이용하여 이동 표적의 위치 정보를 추출해 냄으로써 이를 이용하여 실시간적 카메라의 주시각 제어 및 이동 물체일 할 수 있다. 또한, 본 발명에 따른 스테레오 물체 추적 방법 및 시스템은 이동 표적 물체의 추출 및 카메라 주시각 제어 알고리듬의 광학적 구현을 통해 적응적 스테레오 물체 추적 시스템의 실시간적 구현 가능성을 제시한다.Referring to the stereoscopic object tracking method and system according to the present invention, a moving target is detected through background matching from a sequential input image, and a target projection mask configured using an image difference filter, an AND operation, and a morphology filter is used. Finally, the moving target is localized, and finally, the position information of the moving target is extracted by using optical binary phase extraction joint transform correlator (BPEJTC). Can work In addition, the stereo object tracking method and system according to the present invention presents the possibility of real-time implementation of the adaptive stereo object tracking system through the optical implementation of the moving target object extraction and the camera view control algorithm.

즉, 본 발명에 따른 스테레오 물체 추적 방법 및 시스템은 광 BPEJTC를 이용하여 순차적으로 두 입력 프레임간의 상관을 통하여 배경(background)을 정합한 다음, 전후 프레임 영상에 변형된 영상 차분 필터를 이용하여 이동 표적 영역을 탐지하고, 변형된 Convex hull 필터를 적용함으로써 이동 표적을 영역화할 수 있다. 그리고, 본 발명에 따른 스테레오 물체 추적 방법 및 시스템은 영역화된 기준 영상과 스테레오 입력 영상 사이에 광 BPEJTC를 수행함으로써 이동 물체의 위치 정보를 산출할 수 있으며, 최종적으로 위치 정보를 이용하여 스테레오 카메라의 주시각 및 팬/틸트(FOV) 제어를 한다. 스테레오 카메라의 주시각 및 팬/틸트(FOV) 제어를 통하여 이동 표적이 실시간으로 추적될 수 있다. 본 발명에서, Convex hull 처리를 도입함으로써 기존의 차분 필터와 BMA 등에서 발생하는 영역화 오류를 감소시킬 수 있으며, 광학적 구성이 가능한 BPEJTC를 통하여 실시간으로 위상 상관이 가능한 상관 첨두치를 이용하여 정확히 이동 표적을 추출하고 이를 이용하여 스테레오 물체 추적 방법 및 시스템의 주시각 제어 및 팬/틸트(FOV) 제어가 가능하다.That is, the stereo object tracking method and system according to the present invention sequentially match the background through correlation between two input frames using optical BPEJTC, and then use a moving image target using a modified image differential filter on the front and rear frame images. By detecting the area and applying a modified Convex hull filter, the moving target can be localized. In addition, the stereo object tracking method and system according to the present invention can calculate the position information of the moving object by performing optical BPEJTC between the localized reference image and the stereo input image, finally using the position information of the stereo camera View angle and pan / tilt (FOV) control. Moving angles and pan / tilt (FOV) control of the stereo camera allows moving targets to be tracked in real time. In the present invention, by introducing the Convex hull treatment can reduce the localization error occurring in the existing differential filter, BMA, etc., precisely moving target using the correlation peak that can be phase-correlated in real time through the optical configuration BPEJTC Extraction and use of this method enable the control of perspective and pan / tilt (FOV) of stereo object tracking methods and systems.

일반적으로, 사람이 이동 물체를 추적할 때 이동 물체에 좌우 두 눈의 시점을 일치시키는 것과 마찬가지로, 스테레오 카메라를 이용한 물체 추적 시스템에서 이동 물체에 대하여 좌, 우 시점을 일치시키기 위해서는 카메라의 스테레오 시차가 "0" 이 되어야 한다. 이렇게 함으로써, 눈의 피로감이 없는 자연스러운 관측과 작업 효율의 개선이 이루어질 수 있다. 반면에 좌우 두 눈의 초점 면에 추적될 이동 물체의 시점이 일치하지 않아 스테레오 시차가 존재하는 경우는 이동 물체가 이중으로 보이게 되어 눈에 피로감이 가중되게 되어 작업 효율이 크게 떨어지게 된다.In general, in order to match left and right viewpoints with respect to a moving object in an object tracking system using a stereo camera, a stereo parallax of a camera is required when a person tracks a moving object. It should be "0". By doing so, natural observation and improvement of work efficiency without eye fatigue can be achieved. On the other hand, when stereoscopic parallax exists because the viewpoint of the moving object to be tracked does not coincide with the focal planes of the left and right eyes, the moving object is shown as a double, and the eyes are fatigued, thereby greatly reducing work efficiency.

도 1a는 추적 물체에 대해 좌우 카메라의 스테레오 입력 영상이 주시점에 정확히 일치된 경우를 예시적으로 나타낸 도면이며, 도 1b는 추적 물체에 대한 좌우 카메라의 스테레오 입력 영상에 대한 주시점이 다르기 때문에 스테레오 시차가 생겨 화면에 2개의 영상이 겹쳐 나타난 경우를 예시적으로 나타낸 도면이다.FIG. 1A illustrates an example in which stereo input images of left and right cameras are exactly matched to gaze points for a tracking object, and FIG. 1B illustrates stereo parallax because the gaze points for stereo input images of left and right cameras for tracking objects are different. Is a diagram illustrating an example where two images overlap each other on a screen.

본 발명에 따른 스테레오 물체 추적 방법 및 시스템은 추적할 이동 표적을 인식, 추출하여 추적하고 이동 표적을 화면의 중앙에 위치시키는 면에서는 기존 2차원 물체 추적 시스템의 기능과 같지만 좌우 두 카메라의 스테레오 영상에서 추적물체에 대하여 주시점을 일치시키고 동시에 추적해야 하는 점에서 차이가 있다. 즉, 주시각 제어 및 스테레오 카메라의 팬/틸트(FOV) 제어 기능이 추가된다. 여기서, 주시각 제어는 스테레오 카메라의 시점을 3차원 공간의 동일점(표적 물체)상에 일치시키는 것으로 이 점은 스테레오 시차가 "0" 이 되어 관측자의 좌우 두 눈의 초점이 일치하는 점이라고 할 수 있다. 또한, 스테레오 카메라의 팬/틸트(FOV) 제어는 표적 물체가 이동함에 따라 스테레오 카메라의 팬과 틸트(FOV)를 제어하여 사람의 눈동자 움직임과 같이 추적 물체가 항상 좌우 카메라 시야(FOV)의 중앙에 놓이도록 하는 기능을 말한다.Stereo object tracking method and system according to the present invention is the same as the function of the existing two-dimensional object tracking system in terms of recognizing, extracting and tracking the moving target to be tracked and positioning the moving target in the center of the screen, The difference is that the watch points must be matched and tracked at the same time. In other words, vergence control and pan / tilt (FOV) control of the stereo camera are added. Here, the perspective control is to match the point of view of the stereo camera on the same point (target object) in the three-dimensional space. This point is the point where the stereo parallax becomes "0" so that the observer's left and right eyes are in focus. Can be. In addition, the pan / tilt (FOV) control of the stereo camera controls the pan and tilt (FOV) of the stereo camera as the target object moves so that the tracking object is always in the center of the left and right camera field of view (FOV), such as human eye movement. Refers to the ability to be placed.

본 발명에 따라서, 스테레오 물체 추적 시스템에서 두 카메라의 입력 영상으로부터 추적 물체의 현재 위치 정보의 추출이 가능하면, 카메라의 주시각 제어 및 팬/틸트(FOV) 제어가 동시에 이루어 질 수 있다. 그러나, 스테레오 영상 처리에서 주시각 제어를 위한 스테레오 시차만 추출하는 경우에는 추적을 위한 물체의 현재위치 정보를 따로 구해야만 한다. 또한, 본 발명에 따르면, 상관 기법을 이용한 스테레오 영상 처리의 경우는 추적 물체의 현재 위치 정보의 추출이 가능함으로 이를 이용한 주시각 및 팬/틸트(FOV)의 동시 제어가 가능하다.According to the present invention, if it is possible to extract the current position information of the tracking object from the input image of the two cameras in the stereo object tracking system, the gaze angle control and the pan / tilt (FOV) control of the camera can be performed at the same time. However, when only stereo parallax for stereoscopic control is extracted in stereo image processing, current position information of an object for tracking must be separately obtained. In addition, according to the present invention, in the case of stereo image processing using the correlation technique, since the current position information of the tracking object can be extracted, it is possible to simultaneously control the viewing angle and pan / tilt (FOV) using the same.

도 2는 본 발명에 따른 광-디지털 스테레오 물체 추적 시스템의 처리 흐름을 개략적으로 나타낸 도면이다.2 is a schematic diagram of a processing flow of an optical-digital stereo object tracking system according to the present invention.

도 2를 참조하면, 광-디지털 스테레오 물체 추적 시스템의 처리 흐름은 표적 물체의 배경을 정합하는 제1 단계(201), 배경 분리 및 표적 물체를 영역화하는 제2 단계(203) 및 표적 물체의 위치 정보를 추출하는 제3 단계(205)로 이루어진다. 즉, 1 단계에서, 광-디지털 스테레오 물체 추적 시스템은 광 BPEJTC를 이용하여 연속적인 세 개의 프레임 입력 영상 사이의 상관을 통해 카메라의 이동 속도와 방향에 대한 상대적 움직임을 찾아내고 이를 이용하여 두 영상 사이의 배경을 정합한다. 두 영상 사이의 배경을 정합한 결과는 제2 단계의 배경 분리 처리에 사용되게 된다. 제2 단계에, 광-디지털 스테레오 물체 추적 시스템은 영상 차분 필터와 논리곱 연산 등을 적용하여 두 영상 사이의 순수한 표적 운동 성분만을 추출하고, 모폴로지필터를 이용하여 마스크를 구성하여 기준영상에 투영시킴으로써 이동하는 표적 물체만을 영역화한다. 마지막 제3 단계에서, 광-디지털 스테레오 물체 추적 시스템은 영역화된 기준 영상과 스테레오 입력 영상 사이에 광 BPEJTC를 실행하여 이동하는 추적 물체의 위치 정보를 추출하고, 여기서 구한 이동 표적 물체의 위치 정보를 이용하여 최종적으로 스테레오 카메라의 주시각 제어뿐만 아니라 스테레오 카메라의 팬/틸트(FOV)를 제어한다. 각각의 단계에 대하여 도면을 참조하여 보다 상세하게 설명하기로 한다.Referring to FIG. 2, the processing flow of the optical-digital stereo object tracking system includes the first step 201 of matching the background of the target object, the background separation and the second step 203 of zoned the target object, and the target object. A third step 205 of extracting the location information is carried out. That is, in the first stage, the optical-digital stereo object tracking system uses the optical BPEJTC to find the relative movement with respect to the moving speed and direction of the camera through the correlation between three consecutive frame input images, and uses the two images. Match the background. The result of matching the background between the two images is used for the background separation process of the second step. In the second step, the optical-digital stereo object tracking system extracts only pure target motion components between two images by applying image difference filter and logical product operation, and constructs a mask using a morphology filter to project the reference image. Area only the moving target object. In the final third step, the optical-digital stereo object tracking system extracts the position information of the moving tracking object by executing the optical BPEJTC between the localized reference image and the stereo input image, and extracts the position information of the moving target object obtained here. Finally, the stereo camera's pan / tilt (FOV) is controlled as well as the stereo camera's perspective control. Each step will be described in more detail with reference to the drawings.

이동하는 표적 물체의 배경을 정합하는 제1 단계를 구체적으로 설명하면 다음과 같다.The first step of matching the background of the moving target object will be described in detail as follows.

일반적으로 순차적인 입력 영상 사이의 배경이 일치되는 경우에는 영상 차분필터만으로 이동하는 표적 물체의 움직임을 쉽게 검출할 수 있지만, 배경과 표적이 모두 움직이는 실제로 자주 발생하는 모델의 경우에는 배경 제거에 의한 표적 물체의 검출이 어렵다. 따라서, 본 발명에서 제안하는 알고리즘의 효율성을 분석하기 위하여 카메라 변위가 표적 변위보다 큰 경우와 카메라의 변위가 표적 변위보다 작은 경우로 구분하여 추적 시나리오를 구성하였다.In general, when the background is identical between sequential input images, the motion of the target object moving with only the image difference filter can be easily detected. However, in the case of a frequently occurring model in which both the background and the target move, the target by background removal Object detection is difficult Therefore, in order to analyze the efficiency of the algorithm proposed in the present invention, a tracking scenario is constructed by dividing the case where the camera displacement is larger than the target displacement and the case where the camera displacement is smaller than the target displacement.

도 3a 및 도 3b는 본 발명의 바람직한 일 실시예에 따른 카메라가 움직일 경우t+1프레임에서의 좌우 입력 영상인l(t+1), r(t+1)을 예시적으로 나타낸 도면이다.3A and 3B are diagrams exemplarily illustrating l (t + 1) and r (t + 1), which are left and right input images in a t + 1 frame when a camera moves according to an exemplary embodiment of the present invention.

도 3a에서의 예시 화면에서 카메라 변위가 표적 변위보다 큰 경우를 나타내며, 도 3b에서의 예시 화면에서 오른쪽은 표적의 변위가 카메라 변위보다 큰 경우를 낸다.In the example screen in FIG. 3A, the camera displacement is greater than the target displacement, and in the example screen in FIG. 3B, the right side represents the case where the target displacement is larger than the camera displacement.

도 4는 본 발명의 바람직한 일 실시예에 따른 좌측 영상에 대한 광 BPEJTC 시스템의 내부 구성도를 나타낸 도면이다.4 is a diagram showing the internal configuration of the optical BPEJTC system for the left image according to an embodiment of the present invention.

도 4를 참조하면,t프레임의 좌측 입력 영상인l(t)이며 이를 이용하여 순차적인 입력 영상인l(t-1), l(t)혹은l(t), l(t+1)사이의 상관을 통해 배경과 표적 물체의 상관도를 구하게 된다. 광 BPEJTC 시스템은 기존의 광 JTC 시스템에서 발생하는 과도한 DC나 상관 오류 등을 제거하고 분리 조건에 보다 탄력적으로 대처할 수 있도록 제안된 위상형 광 상관기 시스템이다. 즉, 광세기 분포로 나타나는 JTPS(joint transform power spectrum)에서 자기 상관 성분과 동일 영상 평면에서 나타나는 상호 상관 성분을 효과적으로 제거하여 위상 함수만 추출함으로써 상관 판별력을 보다 개선하고 광효율을 극대화한 시스템이다. 광 BPEJTC 시스템에서 이진 위상 JTPS를 구성하기 위해서는 광 JTC의 JTPS 이외에 기준 영상 및 대상 영상에 대한 각각의 광세기 분포가 필요함으로 SLM3(413) 및 SLM4(415)와 제3 렌즈(421) 및 제4 렌즈(415)를 통하여 퓨리에 변환이 되어 제CCD3(405)과 CCD4(407)를 통해 기준 영상 및 대상 영상에 대한 광세기를 얻을 수 있도록 구성하였다.Referring to FIG. 4, between l (t) , which is the left input image of the t frame, and using this, between l (t-1), l (t), or l (t), l (t + 1), which are sequential input images. The correlation between the background and the target object is obtained. The optical BPEJTC system is a phased optical correlator system proposed to eliminate excessive DC or correlation error occurring in the conventional optical JTC system and to cope with the separation condition more flexibly. In other words, in the JTPS (joint transform power spectrum) represented by the light intensity distribution, the autocorrelation component and the cross-correlation component appearing in the same image plane are effectively removed to extract only the phase function, thereby improving the correlation discrimination power and maximizing the light efficiency. In order to configure the binary phase JTPS in the optical BPEJTC system, in addition to the JTPS of the optical JTC, the respective light intensity distributions for the reference image and the target image are required. Fourier transform is performed through the lens 415 to obtain the light intensity of the reference image and the target image through the CCD3 405 and the CCD4 407.

광 BPEJTC 입력 평면의 SLM1(409) 영상은 제1 렌즈(417)에 의해 퓨리에 변환되어 JTPS 형태로 CCD1(401)에 검출되게 된다. 입력 평면은 도 5를 참조하여 설명하기로 한다.The SLM1 409 image of the optical BPEJTC input plane is Fourier transformed by the first lens 417 to be detected by the CCD1 401 in the form of JTPS. The input plane will be described with reference to FIG. 5.

도 5는 본 발명의 바람직한 일 실시예에 따른 광 BPEJTC의 입력 평면의 예를 나타낸 도면이다.5 illustrates an example of an input plane of an optical BPEJTC according to an exemplary embodiment of the present invention.

도 5를 참조하면, 입력 평면은 기준 영상인 l(t-1) 프레임과 현재 영상 즉, 입력 영상인 l(t) 프레임이 2단으로 표시되어 있다.Referring to FIG. 5, the input plane displays l (t-1) frames as reference images and current (ie, l (t) frames as input images) in two stages.

다시 도 4를 참조하면, 임의의 시간에서 두 영상(기준 영상, 대상 영상)을 동시에 관찰하면 영상간의 거리는 영상 간격 L에 실제 이동 거리가 더해진 상태로 나타나게 된다. 수학식 1은 기준 영상인를 표현한 것이고, 수학식 2는 대상 영상인을 표현한 것이다.Referring back to FIG. 4, when two images (a reference image and a target image) are simultaneously observed at an arbitrary time, the distance between the images is displayed as the actual moving distance is added to the image interval L. FIG. Equation 1 is a reference image Equation 2 is a target image It is expressed.

여기서, 는 영상 내에 포함된 표적을, 는 두 영상(프레임)간에 동일하게 나타나는 배경을, 그리고 는 입력 장치인 카메라의 요동으로 대상 프레임에는 존재하나 기준 프레임에서는 사라진 배경 영상을 각각 나타낸다. here, Is a target included in the image, Is the background that appears identical between two images (frames), and Are background images that are present in the target frame but disappeared in the reference frame due to the shaking of the input device camera.

여기서,는 대상 영상(현재 영상 또는 입력 영상)에 있는 표적이 x와 y축으로만큼 이동한 것을,는 팬/틸트의 흔들림에 따라 배경인만큼 이동한 것을 각각 나타낸 것이다. 또한,는 표적의 이동과 검출기인 카메라의 요동으로 기준 프레임에서 새로이 입력된 배경 영상을 나타낸다. 여기서,는 상하 프레임 간격인 W/2가 포함된 값이다.here, Is the target in the target image (current or input image) Moved by, Is the background of the pan / tilt As shown by each move. Also, Represents a newly input background image in the reference frame due to the movement of the target and the shaking of the camera which is a detector. here, Is a value including W / 2, which is an upper and lower frame interval.

이와 같이 구성된 두 프레임을 동시에 제1 렌즈(417)를 통하여 퓨리에 변환하여 에너지 검출기인 제1 CCD 카메라(401)로 검출할 수 있는 광세기 분포인 JTPS는 수학식 3과 같이 나타낼 수 있다.JTPS, which is a light intensity distribution that can be detected by the first CCD camera 401 which is an energy detector by Fourier transforming the two frames configured as described above through the first lens 417, can be represented by Equation 3 below.

여기에서, L(u,v) 는 l(x,y) 의 퓨리에 변환식을, *는 복소 공액을 각각 나타낸다. 수학식 3에서 세 번째 항과 네 번째 항이 두 프레임 간의 상관 스펙트럼으로 이 항을 추출하여 이치화 시키고 이진값으로 변환된 JTPS를 제2 렌즈(419)를 통하여 역퓨리에 변환함으로써 최종적으로 BPEJTC 상관 출력을 제2 CCD 카메라(403)를 통하여 얻을 수 있다.Here, L (u, v) represents a Fourier transform formula of l (x, y), and * represents a complex conjugate. Third term in equation (3) And fourth term The BPEJTC correlation output can be finally obtained through the second CCD camera 403 by extracting and binarizing this term from the correlation spectrum between the two frames and inverse Fourier transforming the converted JTPS through the second lens 419. have.

수학식 4는 수학식 1 및 수학식 2를 이용하여 재구성된 JTPS이다. 여기서, 표적과 표적, 배경과 배경간의 자기상관은 높은 상관 첨두치로 나타나며 나머지 항들은 서로 다른 영상간에 발생한 상호상관 성분으로 비교적 작은 값으로 나타나게 된다.Equation 4 is JTPS reconstructed using Equation 1 and Equation 2. Here, the autocorrelation between the target and the target, the background, and the background is represented by a high correlation peak, and the remaining terms are represented by relatively small values as cross-correlation components generated between different images.

여기서,의 퓨리에 변환값을,의 퓨리에 변환값을,의 퓨리에 변환값을,의 퓨리에 변환값을,의 퓨리에 변환값을,의 퓨리에 변환값을, *는 복소 공액을,의 위상을,의 위상을 각각 나타낸다. 표적과 표적, 배경과 배경간의 자기 상관은 높은 상관 첨두치로 나타나며 나머지 항들은 서로 다른 영상간에 발생한 상호 상관 성분으로 비교적 작은 값으로 나타나게 된다.here, Is The Fourier transform of Is The Fourier transform of Is The Fourier transform of Is The Fourier transform of Is The Fourier transform of Is Is the Fourier transform, * is the complex conjugate, Is Phase of Is The phase of each is shown. The autocorrelation between the target and the target, the background and the background is represented by a high correlation peak, and the remaining terms are represented by relatively small values as cross-correlation components between different images.

따라서, 최종 출력 상관값인 c(x,y)는 수학식 5와 같이 나타낼 수 있다.Accordingly, the final output correlation value c (x, y) may be expressed as in Equation 5.

여기서, Edge[·]는 영상의 위상 신호를 발생시킨 이상적인 경계를 나타낸 것이다. 또한 δ[·]는 임펄스 함수를 나타낸다. 결과적으로, 복잡한 환경을 가진 경우는 표적 물체의 크기를 고려해 볼 때 배경 성분이 표적 물체의 성분보다 많이 존재한다고 가정할 수 있으므로, 최대 상관값의 위치는 배경 즉, 카메라의 이동성분으로 정의할 수 있다. 여기서,는 상관을 그리고 *는 컨볼루션을 각각 나타내며 실제 검출된 배경의 움직임 정도는로 구할 수 있다.Here, Edge [·] represents the ideal boundary which generated the phase signal of an image. Δ [·] represents an impulse function. As a result, in the case of a complicated environment, considering the size of the target object, it can be assumed that there are more background components than those of the target object, so the position of the maximum correlation value can be defined as the background, that is, the moving component of the camera. have. here, Denotes correlation and * denotes convolution, respectively. Can be obtained as

배경 분리 및 표적 물체를 영역화하는 제2 단계를 구체적으로 설명하면 다음과 같다.The second stage of separating the background and region of the target object will be described in detail as follows.

순차적인 3개 프레임의 입력 영상이로 주어지고, 광 BPEJTC를 통해 구한간의 배경 이동 정도가,로 주어지는 경우, 영상간의 배경을 없애는 용이한 방법으로 영상 차분 필터를 사용할 수 있다. 그 결과는 수학식 6 및 수학식 7로 표현되는데, 영상 사이에 움직임 성분으로 표현된다.The input video of three frames in sequence Given by, and obtained via optical BPEJTC The degree of background movement between , In this case, the image difference filter may be used as an easy way to remove the background between the images. The result is represented by equations (6) and (7), which are represented by motion components between the images.

다음으로, 영상 차분 필터의 결과로부터 공통된 움직임을 구별해 내기 위하여의 값을 서로 논리곱 연산(AND operation)을 취함으로써 표적을 검출할 수 있다. 이런 과정을 통하여 연속으로 입력된 세 영상으로부터 운동 성분을 찾아내게 된다. 즉, 표적 물체의 운동 성분값을라고 하면 수학식 8과 같이 나타낼 수 있으며 식에서는 이진화 과정을 의미한다.Next, to distinguish common motion from the result of the image difference filter and Targets can be detected by performing AND operations on the values of. Through this process, the motion component is found from three consecutive images. That is, the value of the motion component of the target object Can be expressed as in Equation 8, Means the binarization process.

본 발명에서, 효율적인 이진화를 위하여 확률적인 방법으로 영역 전체의 분산을 최소화하는 방법을 사용하였다. 즉, 본 발명의 바람직한 일 실시예에서, 영상 차분 결과를 이진화시키기 위하여, 각 그룹내 분산(within-group variance)을 최소화하거나, 그룹간 분산(between-group variance)을 최대로 하는 임계값 τ 를 전 범위에 걸쳐 확률적으로 선택함으로써 전체 영상의 분산은 수학식 9와 같이 얻어지게 된다. 여기서,서는 임계값 τ 보다 작은 부분에서의 확률 분포값을,는 임계값 t보다 큰 경우의 확률 분포값을 각각 나타낸다. 그리고,는 첫 번째 영역의 평균값을 그리고,는 두 번째 영역의 평균값을 의미한다. 따라서, 각 영역내 분산을 최소화하며 각 영역들간의 분산차가 최대가 되는 t를 찾음으로써 임계값을 결정하게 되며 그 결과는 수학식 10과 같이 주어진다.In the present invention, for efficient binarization, a method of minimizing variance of the entire region is used in a probabilistic manner. That is, in one preferred embodiment of the present invention, in order to binarize the result of image difference, the threshold value τ that minimizes the in-group variance or maximizes the variance between the groups is maximized. By probabilistic selection over the entire range, the variance of the entire image is obtained as in Equation (9). here, Is the probability distribution at a portion less than the threshold τ, Represents a probability distribution value when the threshold value is greater than t. And, Is the average of the first area, Means the average value of the second area. Therefore, the dispersion difference between each region is minimized while the dispersion in each region is minimized. The threshold value is determined by finding t, which is the maximum, and the result is given by Equation 10.

일반적으로, 모폴로지 필터는 영상 처리 과정에서 없어지지 않고 남아있는 배경 등에 대한 잡음을 없애거나 윤곽선 검출, 필터링, 세선화 등의 처리에 광범위하게 사용되고 있다. 본 발명의 바람직한 실시예에서, 움직임 검출 결과로부터 기준영상에서의 표적 영역화를 위하여 Convex hull 필터와 클로징(closing) 기법의 순차적인 반복 과정을 적용하였다. Convex hull 필터와 클로징 기법을 영상 전반에 적용함으로써 경계선을 평활시킬 뿐만 아니라 각 경계면 안에 존재하는 빈 공간을 채움으로써 표적 마스크를 만들 수 있다.In general, the morphology filter is widely used to remove noise on a background that is not lost in image processing, or to process contour detection, filtering, and thinning. In a preferred embodiment of the present invention, the sequential iteration process of the Convex hull filter and the closing technique is applied to target region in the reference image from the motion detection result. By applying the Convex hull filter and the closing technique throughout the image, the target mask can be created by not only smoothing the boundary but also filling the empty space within each boundary.

한편, 기존의 Convex hull 필터는 도 6a와 같이 4개의 기본 구성요소로 이루어져 있다. 그러나, 이러한 기존의 구성 요소들을 각 영상에 적용하는 경우 실제 표적보다 큰 잉여적인 외곽 패턴이 발생하여 정확한 영역화를 기대할 수 없다. 이와 같은 문제점을 해결하기 위하여 즉, 가능한 원래 표적 물체에 가까운 영상을 추출하기 위하여 본 발명의 바람직한 일 실시예에서 변형된 마스크를 설정하는데, 도 6b와 같이 8개의 변형된 Convex hull 필터인 마스크를 표시할 수 있다.On the other hand, the conventional Convex hull filter is composed of four basic components as shown in Figure 6a. However, when such existing components are applied to each image, a surplus outline pattern larger than the actual target is generated, and thus, accurate localization cannot be expected. In order to solve this problem, that is, in order to extract an image as close to the original target object as possible, a modified mask is set in an exemplary embodiment of the present invention. As shown in FIG. 6B, eight modified Convex hull filters are displayed. can do.

입력 영상을A,구성 요소를라고 하고 Convex hull 필터를 적용하기 전의 초기 조건으로서라고 정의하면, 전체 수행 과정은 수학식 11 및 수학식 12와 같이 나타낼 수 있다.Input video A, the component As the initial condition before applying the Convex hull filter In this case, the entire process can be represented by Equations 11 and 12.

여기서, ø 는 hit-or-miss 변환을 나타낸다. 구성 요소를 하나씩 적용시킨 결과를라고 할 때, 하나의 구성 요소에 대해서 완전하게 수렴되는 결과를 찾기 위한 일시적 과정을라고 표현하게 된다. 따라서, 이는 새로 구해진 결과X가 이전값에 수렴되는 조건인이 만족될 때까지 계속해서 반복적으로 계산을 한다는 의미로써CONV란 첨자를 삽입하게 된다. 결국, 최종적인 Convex hull 필터 결과인 C(A)는 구성 요소를 전부 적용시킨 영상 결과 { D}^{ i} 를 전부 합함으로써 얻을 수 있다. 따라서, 표적 물체의 검출 결과로부터 이동 영역 마스크를 설정하기 위하여 Convex hull 필터링과 클로징 과정이 결합된 새로운 모폴로지 필터를 수학식 8에 추가적으로 적용함으로써 수학식 13과 같은 표적 마스크를 설정하게 된다.Where ø represents a hit-or-miss conversion. Applying the components one by one Is a temporary process for finding a completely convergent result for a component. Will be expressed. Therefore, this is the condition that the newly obtained result X converges to the previous value. CONV inserts a subscript, meaning that the calculation is repeated repeatedly until this is satisfied. As a result, C (A), the final Convex hull filter result, can be obtained by summing all the image results {D} ^ {i} to which all the components are applied. Therefore, in order to set the moving area mask from the detection result of the target object, a new morphology filter combining Convex hull filtering and closing process is additionally applied to Equation 8, thereby applying a target mask as shown in Equation 13. Will be set.

후단의 인식 과정을 고려하여 표적 물체의 위치를 좌표값으로 영역화하기 위하여 수학식 13에 의해 구해진 표적 마스크를 기준 영상로 투영시키면 표적만을 부각시킬 수 있다. 여기서, 검출된 마스크를 x, y 방향으로 각각 투영하는 방법이 새로이 도입되었다.Target image obtained by Equation 13 to localize the position of the target object to the coordinate value in consideration of the recognition process of the rear stage Projecting to will only highlight the target. Here, a method of projecting the detected masks in the x and y directions, respectively, is newly introduced.

도 7은 본 발명의 바람직한 일 실시예에 따른 표적의 영역화를 위한 투영 과정을 나타낸 도면이다.7 is a view showing a projection process for the region of the target according to an embodiment of the present invention.

도 7을 참조하면, 투영 과정은 움직임 검출값으로부터 먼저 x축으로 투영시켜 x축상에 존재하는 표적의 위치를 알아낸다. 이 후, 다시 y축으로 투영시킴으로써 y축상에 존재하는 표적의 정확한 위치를 찾아내어 배경으로부터 표적만을 분리해 낼 수 있게 된다.Referring to FIG. 7, the projection process first projects the x-axis from the motion detection value to find the position of the target on the x-axis. After that, by projecting on the y-axis again, the exact position of the target on the y-axis can be found to separate only the target from the background.

또한, 배경이 분리된 좌측 영상의 마스크에서 추적 물체의 위치 좌표를 추출하여 카메라 화면의 중앙으로 위치하도록만큼 이동시킨 후에, 광 BPEJTC 입력 평면의 기준 영상으로 사용하게 된다. 그리고 이동값인은 좌측 카메라의 팬/틸트 제어값이 된다.Also, the position coordinates of the tracking object in the mask of the left image with the background separated To locate and center the camera screen After moving by, the reference image of the optical BPEJTC input plane is used. And the shift value Becomes the pan / tilt control value of the left camera.

마지막으로 표적 물체의 위치 정보를 추출하는 제3 단계를 구체적으로 설명하면 다음과 같다.Finally, a third step of extracting the location information of the target object will be described in detail.

표적 물체의 위치 정보를 구하기 위하여 표적 마스크의 기준영상과 우측 영상인r(t)간에 광 BPEJTC를 통해 두 물체간에 떨어진 상대 거리값을 구하여 우측 카메라의 주시각 제어값으로 사용하게 된다. 여기서, 표적의 위치 정보를 추출하기 위해 사용되는 광 BPEJTC의 수행 절차는 제1 단계에서 설명한 배경 정합 과정과 같으므로 생략하고, 그 결과값에 대해서 설명하기로 한다.Reference image of the target mask to obtain the location information of the target object The relative distance value between two objects is obtained through optical BPEJTC between the image and r (t) on the right side of the image. Here, the procedure of performing the optical BPEJTC used to extract the location information of the target is the same as the background matching process described in the first step, and thus the description thereof will be omitted.

즉, 광 BPEJTC 입력 평면에서 SLM1의 영상은 제1 렌즈에 의해 퓨리에 변환되어 JTPS 형태로 CCD1에 검출되게 된다. 도 4로 표현한 입력 평면은 도 8과 같이 2단으로 분리하여 광 BPEJTC 입력 평면으로 나타낼 수 있다. 도 4에서 광 BPEJTC 입력으로 사용되는 기준 영상과 입력 영상[r(t)]의 추적 물체의 위치 좌표는로 각각 주어진다. 그리고, 이진 위상 형태로 변형된 JTPS를 SLM2의 입력으로 사용하고 역퓨리에 변환하여 상관 평면에서 얻은 결과는 수학식 14와 같이 얻을 수 있다.That is, optical BPEJTC input plane The SLM1 image is Fourier transformed by the first lens to be detected by the CCD1 in the form of JTPS. The input plane represented by FIG. 4 may be divided into two stages as shown in FIG. 8 and represented as an optical BPEJTC input plane. Reference image used as optical BPEJTC input in Figure 4 And the position coordinates of the tracking object of the input image [r (t)] Given by In addition, the result obtained in the correlation plane by using an inverse Fourier transform using JTPS modified in binary phase form as an input of SLM2 can be obtained as shown in Equation (14).

수학식 14는 도 4에서 나타낸 상관 평면인 CCD2 에서 상관 첨두치로 검출된다. 상기 첨두치는 중심 좌표에 있는 기준 영상과 우측 영상 사이에 떨어진 상대 거리로 첨두치의 위치 좌표를 얻을 수 있다. 또한, 이러한 위치 좌표로부터 우측 영상의 추적 물체의 위치 좌표값과 우측 카메라의 팬/틸트(FOV) 제어값을 각각 구할 수 있다.Equation (14) is detected as the correlation peak in CCD2, the correlation plane shown in FIG. The peak value can obtain the position coordinates of the peak value by the relative distance between the reference image and the right image in the center coordinates. In addition, the position coordinate value of the tracking object of the right image from the position coordinates And pan / tilt (FOV) control of the right and left cameras Can be obtained respectively.

수학식 14에서, Edge[·]는 영상의 이상적인 경계선 추출 함수를 나타낸 것이다. 그리고, 수학식 15에서, 퓨리에 변환하여 진폭 성분을 제거하고 다시 역퓨리에 변환하여 영상의 경계 추출 결과를 얻을 수 있음을 알 수 있다. 결과적으로 광 BPEJTC는 DC와 배경으로 인하여 발생하는 상관 오류를 제거할 수 있을 뿐만 아니라, 공간 정합 필터에서 우수한 peak-to-sidelobe를 나타내는 특성을 가지고 있다.In Equation 14, Edge [·] represents an ideal boundary extraction function of an image. In Equation 15, it can be seen that Fourier transform removes an amplitude component and inverse Fourier transform to obtain an image boundary extraction result. As a result, optical BPEJTC not only eliminates the correlation error caused by DC and background, but also exhibits excellent peak-to-sidelobe in spatial matched filters.

따라서,l(t)영상의 전처리에서 구한 좌측 카메라의 제어값과 광 BPEJTC를 통해 구한 우측 영상의 제어값으로부터 스테레오 카메라의 팬/틸트(FOV)를 제어함으로써 스테레오 물체의 실시간적인 추적이 가능하게 된다.Therefore, the control value of the left camera obtained from the preprocessing of the l (t) image Control Values of Right Images Obtained by Optical BPEJTC By controlling the pan / tilt (FOV) of the stereo camera, the real-time tracking of the stereo object is enabled.

다음은 본 발명에 따른 스테레오 물체 추적 방법 및 시스템을 적용한 실험 과정 및 결과에 대해서 상세히 설명하도록 한다.Next will be described in detail with respect to the experimental process and the result of applying the stereo object tracking method and system according to the present invention.

본 실험에서 좌, 우측의 영상 입력용 카메라는 동경 전자(주)의 CS-8239B 카메라를 사용하였으며, 이동 표적 물체(자동차 모형)를 포함하는 입력 영상 데이터의 크기는 256x256 픽셀로 하였다. 영상 저장용 프레임 그래버는 Matrox사의 Metero II/4와 Metero II MC/2의 2개를 사용하여 저장하였으며 디지털 시스템은 펜티엄 III-800(256MB)을 사용하였다.In this experiment, left and right image input cameras were used by Tokyo Electronics Co., Ltd. CS-8239B camera, and the size of input image data including moving target object (car model) was 256x256 pixels. The frame grabber for image recording was stored using two of Matrox's Metero II / 4 and Metero II MC / 2, and the digital system used Pentium III-800 (256MB).

1. 제1 단계인 표적 물체의 배경 정합에 대한 실험1. Experiment on the background matching of the target object as the first step

본 발명에 따른 알고리즘의 효율성을 보이기 위한 시나리오는 카메라 변위가 표적 변위보다 클 경우와 카메라 변위가 표적 변위보다 작은 경우로 구분하여 실험이 이루어 졌다.In the scenario for demonstrating the efficiency of the algorithm according to the present invention, the experiment was performed by dividing the case where the camera displacement is larger than the target displacement and the case where the camera displacement is smaller than the target displacement.

도 9a 및 도 9b는 본 발명의 바람직한 일 실시예에 따른 카메라가 움직일 경우의 입력영상을 나타낸 도면이다.9A and 9B are views illustrating input images when a camera moves according to an exemplary embodiment of the present invention.

도 9a 및 도 9b를 참조하면, 입력 영상의 왼쪽(도 9a)은 카메라의 변위가 표적 물체의 변위보다 큰 경우이며 오른쪽(도 9b)은 표적 물체의 변위가 카메라의 변위보다 큰 경우를 나타낸 것이다.9A and 9B, the left side of the input image (FIG. 9A) shows the case where the displacement of the camera is greater than the displacement of the target object and the right side (FIG. 9B) shows the case where the displacement of the target object is greater than the displacement of the camera. .

배경 정합을 위한 기준 영상은 2번째 프레임인l(t)로 하였으며 기준 영상과 비교하여 순차적으로 입력되는 영상들을 연속적으로 상관시켜서 얻은 최대 상관값 위치와 카메라의 이동 변위 성분을 표1에 나타내었다.The reference image for background matching is set as l (t) , which is the second frame. Table 1 shows the maximum correlation value position and the camera's moving displacement component obtained by successively correlating the input images sequentially compared to the reference image.

<표 1>TABLE 1

표 1에서 각 영상간 상관 첨두치 위치를 살펴보면 카메라 변위가 표적 물체의 변위보다 클 경우에 영상간 변위 성분이 크므로 광 BPEJTC를 이용하여 상관시켜 얻은 최대 상관값의 위치가 배경에 의한 것임을 알 수 있다. 그리고, 변위 성분의 부호는 대상 영상과 기준 영상 사이에 배경 정합을 위하여 상대적으로 움직여야 하는 방향으로 주어지게 된다. 즉, 표 1에서 카메라 변위가 표적 물체의 변위보다 클 때 1, 2 번째 영상을 상관시킨 결과를 보면 x방향으로 음의 값을, y 방향으로는 양의 값의 결과가 나왔다. 이는 기준 영상을 중심으로 할 때 x 방향으로는 기준 영상보다 오른쪽에 위치하고, y 방향으로는 왼쪽에 위치한다는 것을 의미한다. 따라서, 첫 번째 영상l(t-1) 을 두 번째 영상l(t) 의 배경과 정합시키기 위하여 왼쪽으로 16 화소, 아래쪽으로 5화소를 이동시켜 주면 영상간 배경이 일치하게 된다. 그리고, 이치화 과정, 논리곱 연산 등을 이용하여 두 결과값을 결합시켜 공통된 움직임 부분만을 계산해 낼 수 있다.In Table 1, the correlation peak-to-image position of each image shows that when the camera displacement is larger than the displacement of the target object, the displacement component between images is large, so that the position of the maximum correlation value obtained by correlation using optical BPEJTC is due to the background. have. In addition, the sign of the displacement component is given in a direction that should be moved relatively for background matching between the target image and the reference image. That is, in Table 1, when the camera displacement is larger than the displacement of the target object, the results of correlating the first and second images show negative values in the x direction and positive values in the y direction. This means that when the reference image is the center, it is located on the right side of the reference image in the x direction and on the left side in the y direction. Therefore, in order to match the first image l (t-1) with the background of the second image l (t), if the pixel is moved 16 pixels to the left and five pixels to the bottom, the background between the images becomes identical. Then, by combining the two result values using a binarization process, a logical product operation, etc., only a common moving part can be calculated.

2. 제2 단계인 표적 물체의 이동 성분인 위치 정보를 추출하는 실험2. An experiment for extracting position information, which is a moving component of a target object, as a second step

입력 영상 사이의 상관을 통해 배경을 정합시킨 후, 영상 차분 필터를 이용함으로써 배경을 효과적으로 제거하게 되는데 도 10a 및 도 10b는 검출된 표적의 움직임 값을 이용하여 Convex hull 필터링과 클로징 기법을 영상 전반에 적용함으로써 경계선을 평활시킬 뿐만 아니라 각 경계면 안에 존재하는 빈 공간을 채움으로써 표적 마스크와 이 결과값을 기준 영상에 투영시켜 매핑함으로써 영역화된 결과를 나타낸 도면들이다.After the background is matched through the correlation between the input images, the image is effectively removed by using an image difference filter. FIGS. 10A and 10B illustrate the convex hull filtering and closing technique using the detected motion values of the target. By applying to smooth the boundary line as well as fill in the empty space existing in each boundary surface showing the result of the localized result by mapping the target mask and the result value to the reference image.

도 10a 및 도 10b를 참조하면, 배경 잡음에 관계없이 추적하고자 하는 표적물체의 효과적인 검출과 그에 따른 표적 마스크가 적응적으로 이루어지고 있음을 알 수 있다. 또한, Convex hull 처리 후에 일정 크기의 영역화 마스크만을 선택하기 때문에 전경과 배경에 존재하는 다른 물체와 관계없이 적응적인 표적 탐지가 가능함을 알 수 있다.10A and 10B, it can be seen that an effective detection of a target object to be tracked and a target mask accordingly are adaptively performed regardless of background noise. In addition, since only a certain size of the localization mask is selected after the Convex hull processing, it can be seen that adaptive target detection is possible regardless of other objects present in the foreground and background.

3. 제3 단계인 표적 물체의 위치 정보를 추출하는 실험3. Experiment of extracting the location information of the target object, which is the third step

도 11a 및 도 11b는 카메라 변위가 표적 변위보다 클 때의 표적 물체의 검출 및 영역화된 좌측 영상과 현재 입력되는 우측 영상 r(t)간에 광 BPEJTC를 실행하기 위한 입력 평면과 광 BPEJTC를 실행한 후 상관 평면에서 나타나는 좌, 우측 영상의 상관 첨두치를 결과를 각각 나타낸 도면이다. 이러한 상관 첨두치의 위치 좌표값을 이용함으로써 좌우 영상의 표적 물체가 화면의 중심으로부터 떨어진거리인를 구할 수 있다.11A and 11B illustrate the detected and localized left image of the target object when the camera displacement is greater than the target displacement. And a correlation peak value between the input plane for executing the optical BPEJTC and the left and right images appearing in the correlation plane after executing the optical BPEJTC between the current image and the right input image r (t). By using the position coordinate value of the correlation peak, the target object of the left and right images is a distance away from the center of the screen. Can be obtained.

표 2는 순차적인 4개 프레임의 좌우 입력 영상에 대해서 본 발명의 바람직한 실시예에 따른 추적 알고리즘을 사용하여 최종적으로 구한 표적 물체의 이동된 위치좌표(x,``y) 를 나타낸 것이다. 여기서, 위치 좌표는 입력 영상(256x256)의 중심 좌표(128,128)를 기준으로 하여 x, y축 방향으로 이동된 표적 물체의 위치를 각각 나타낸 것이다.Table 2 shows the moved position coordinates (x, `` y) of the target object finally obtained using the tracking algorithm according to the preferred embodiment of the present invention for the left and right input images of the four frames sequentially. Here, the position coordinates represent positions of the target object moved in the x and y-axis directions based on the center coordinates 128 and 128 of the input image 256x256, respectively.

<표 2>TABLE 2

또한, 도 11의 우측 하단에 있는 각각의 영상은 도 9의 입력 영상에서 제안된 방법을 사용하여 구한 표적 물체의 이동 성분인 표 2를 통해 추적한 후에 합성된 스테레오 영상을 나타낸 것이다.In addition, each image at the lower right of FIG. 11 represents a stereo image synthesized after tracking through Table 2, which is a moving component of a target object obtained using the method proposed in the input image of FIG. 9.

도 11을 참조하면, 표적 물체(자동차 모형)는 본 발명의 바람직한 실시예에 따른 추적 알고리즘을 통해 스테레오 카메라의 주시각 및 팬/틸트(FOV)가 정확히 제어되어 좌우 시점이 표적 물체에 일치되는 하나의 합성 영상으로 나타나지만 그 이외의 전경 및 배경 물체들은 스테레오 시차로 인해 2개로 겹쳐 보임을 알 수 있다.Referring to FIG. 11, the target object (car model) is one in which the left and right viewpoints match the target object by precisely controlling the viewing angle and pan / tilt (FOV) of the stereo camera through a tracking algorithm according to the preferred embodiment of the present invention. Although it appears as a composite image of, other foreground and background objects can be seen to overlap two due to stereo parallax.

본 발명은 상기 실시예에 한정되지 않으며, 많은 변형이 본 발명의 사상 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 가능함은 물론이다.The present invention is not limited to the above embodiments, and many variations are possible by those skilled in the art within the spirit of the present invention.

본 발명에 의하여, 계층적인 디지털 영상 처리 알고리즘과 광 BPEJTC 시스템을 상호 보완적으로 사용함으로써 스테레오 카메라의 주시각 및 팬/틸트를 제어할 수 있는 새로운 광-디지털 스테레오 물체 추적 방법 및 장치를 제공할 수 있다.According to the present invention, it is possible to provide a novel optical-digital stereo object tracking method and apparatus capable of controlling the viewing angle and pan / tilt of a stereo camera by using a hierarchical digital image processing algorithm and an optical BPEJTC system. have.

또한, 본 발명에 의하여, 표적 물체 추출 및 스테레오 카메라 주시각 제어 알고리듬의 광학적 구현을 통해 적응적 스테레오 물체 추적시스템의 실시간적 구현 가능성도 제시될 수 있다.In addition, according to the present invention, the possibility of real-time implementation of the adaptive stereo object tracking system can be presented through the optical implementation of the target object extraction and stereo camera perspective control algorithm.

또한, 본 발명에 의하여, 스테레오 물체 추적의 새로운 접근 방법으로 계층적 디지털 알고리즘과 광 BPEJTC를 상호 보완적으로 이용한 새로운 하이브리드 광-디지털 스테레오 물체 추적 방법 및 장치를 제공할 수 있다. 즉, 제안된 물체 추적 시스템(장치)에서는 순차적으로 입력되는 표적 물체의 영상에 대한 배경 정합을 수행하고 이어서, 영상 차분 필터, 논리곱 연산 및 모폴로지 필터를 이용하여 구성된 표적 투영 마스크를 통해 표적 물체를 영역화한 다음 최종적으로, 광 BPEJTC를 이용하여 표적 물체의 위치 정보를 추출할 수 있다. 그리고, 추출된 표적 물체의 위치 정보를 이용하여 카메라의 주시각 및 팬/틸트를 제어함으로써 이동하는 표적 물체의 실시간적 추적이 가능한 새로운 광-디지털 스테레오 물체 추적 방법 및 장치(시스템)를 제공할 수 있다.In addition, the present invention can provide a novel hybrid optical-digital stereo object tracking method and apparatus using a hierarchical digital algorithm and optical BPEJTC as a novel approach to stereo object tracking. That is, the proposed object tracking system (device) performs background matching on the images of the target objects which are sequentially input, and then targets the target objects through a target projection mask constructed using an image difference filter, an AND operation, and a morphology filter. After localization, finally, the location information of the target object can be extracted using the optical BPEJTC. In addition, a new optical-digital stereo object tracking method and apparatus (system) capable of real-time tracking of a moving target object by controlling the angle of view and pan / tilt of the camera using the extracted target object position information can be provided. have.

Claims (8)

제1 영상 입력 장치 및 제2 영상 입력 장치를 구성하는 스테레오 물체 추적 시스템을 적응적으로 제어하는 방법에 있어서,A method of adaptively controlling a stereo object tracking system constituting a first image input device and a second image input device, 상기 제1 영상 입력 장치를 통하여 순차적으로 촬상된 적어도 두 개의 입력 영상으로부터 배경 정합을 통하여 상기 적어도 두 개의 입력 영상에 포함된 표적 물체를 탐지하는 단계;Detecting a target object included in the at least two input images through background matching from at least two input images sequentially captured by the first image input apparatus; 표적 투영 마스크를 이용하여 상기 표적 물체를 분리하는 단계;Separating the target object using a target projection mask; 상기 표적 물체를 포함하는 기준 영상을 생성하는 단계;Generating a reference image including the target object; 상기 제2 영상 입력 장치를 통하여 촬상된 적어도 하나의 대상 영상과 상기 기준 영상을 비교하여 제1 위치 정보를 추출하는 단계; 및Extracting first location information by comparing the at least one target image photographed by the second image input apparatus with the reference image; And 상기 제1 위치 정보를 이용하여 상기 제2 영상 입력 장치를 제어하는 단계Controlling the second image input apparatus by using the first location information. 를 포함하는 스테레오 물체 추적 시스템의 적응 제어 방법.Adaptive control method of a stereo object tracking system comprising a. 제1항에 있어서,The method of claim 1, 상기 분리된 표적 물체의 제2 위치 정보를 추출하는 단계; 및Extracting second position information of the separated target object; And 상기 제2 위치 정보를 이용하여 상기 제1 영상 입력 장치를 제어하는 단계Controlling the first image input device by using the second location information. 를 더 포함하되,Include more, 상기 기준 영상은 상기 분리된 표적 물체를 상기 제2 위치 정보에 상응하도록 보정함으로써 생성되는 것The reference image is generated by correcting the separated target object to correspond to the second position information. 을 특징으로 하는 스테레오 물체 추적 시스템의 적응 제어 방법.Adaptive control method of a stereo object tracking system, characterized in that. 제2항에 있어서,The method of claim 2, 상기 제1 영상 입력 장치는 상기 제2 위치 정보를 이용하여 팬/틸트 제어되는 것The first image input apparatus is pan / tilt controlled using the second position information. 을 특징으로 하는 스테레오 물체 추적 시스템의 적응 제어 방법.Adaptive control method of a stereo object tracking system, characterized in that. 제1항에 있어서,The method of claim 1, 상기 표적 투영 마스크는The target projection mask is 영상 차분 필터링, 논리곱 연산 과정 및 모폴로지 필터링을 통하여 구성되는 것Configured through image differential filtering, AND operation, and morphological filtering 을 특징으로 하는 스테레오 물체 추적 시스템의 적응 제어 방법.Adaptive control method of a stereo object tracking system, characterized in that. 제1항에 있어서,The method of claim 1, 상기 표적 물체의 제1 위치 정보는The first location information of the target object is 광 BPEJTC(Binary Phase Extraction Joint Transform Correlator)를 이용하여 추출되는 것Extracted using optical BPEJTC (Binary Phase Extraction Joint Transform Correlator) 을 특징으로 하는 스테레오 물체 추적 시스템의 적응 제어 방법.Adaptive control method of a stereo object tracking system, characterized in that. 제1항에 있어서,The method of claim 1, 상기 제2 영상 입력 장치는 상기 제1 위치 정보를 이용하여 주시각 및 팬/틸트 중 적어도 하나가 제어되는 것The second image input apparatus is configured to control at least one of gaze angle and pan / tilt using the first position information 을 특징으로 하는 스테레오 물체 추적 시스템의 적응 제어 방법.Adaptive control method of a stereo object tracking system, characterized in that. 제1 영상 입력 장치 및 제2 영상 입력 장치를 구성하는 스테레오 물체 추적 시스템에 있어서,In the stereo object tracking system constituting the first image input device and the second image input device, 상기 제1 영상 입력 장치를 통하여 순차적으로 촬상된 적어도 두 개의 입력 영상으로부터 배경 정합을 통하여 상기 적어도 두 개의 입력 영상에 포함된 표적 물체를 탐지하는 수단;Means for detecting a target object included in the at least two input images through background matching from at least two input images sequentially captured by the first image input apparatus; 표적 투영 마스크를 이용하여 상기 표적 물체를 분리하는 수단;Means for separating the target object using a target projection mask; 상기 표적 물체를 포함하는 기준 영상을 생성하는 수단;Means for generating a reference image comprising the target object; 상기 제2 영상 입력 장치를 통하여 촬상된 적어도 하나의 대상 영상과 상기 기준 영상을 비교하여 제1 위치 정보를 추출하는 수단; 및Means for extracting first location information by comparing the at least one target image captured by the second image input apparatus with the reference image; And 상기 제1 위치 정보를 이용하여 상기 제2 영상 입력 장치를 제어하는 수단Means for controlling the second image input apparatus using the first location information. 을 구비하는 스테레오 물체 추적 시스템.Stereo object tracking system having a. 제1 영상 입력 장치 및 제2 영상 입력 장치를 구성하는 스테레오 물체 추적 시스템에 있어서,In the stereo object tracking system constituting the first image input device and the second image input device, 프로그램이 저장되어 있는 메모리;A memory in which a program is stored; 상기 메모리에 결합되어 상기 프로그램을 실행하는 프로세서A processor coupled to the memory to execute the program 를 포함하되,Including, 상기 프로세서는 상기 프로그램에 의해,The processor by the program, 상기 제1 영상 입력 장치를 통하여 순차적으로 촬상된 적어도 두 개의 입력 영상으로부터 배경 정합을 통하여 상기 적어도 두 개의 입력 영상에 포함된 표적 물체를 탐지하는 단계;Detecting a target object included in the at least two input images through background matching from at least two input images sequentially captured by the first image input apparatus; 표적 투영 마스크를 이용하여 상기 표적 물체를 분리하는 단계;Separating the target object using a target projection mask; 상기 표적 물체를 포함하는 기준 영상을 생성하는 단계;Generating a reference image including the target object; 상기 제2 영상 입력 장치를 통하여 촬상된 적어도 하나의 대상 영상과 상기 기준 영상을 비교하여 제1 위치 정보를 추출하는 단계; 및Extracting first location information by comparing the at least one target image photographed by the second image input apparatus with the reference image; And 상기 제1 위치 정보를 이용하여 상기 제2 영상 입력 장치를 제어하는 단계Controlling the second image input apparatus by using the first location information. 를 실행하는 스테레오 물체 추적 시스템의 적응 제어 시스템.Adaptive control system of stereo object tracking system to run.
KR10-2002-0015914A 2002-03-23 2002-03-23 Method and apparatus for a tracking stereo target KR100434876B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR10-2002-0015914A KR100434876B1 (en) 2002-03-23 2002-03-23 Method and apparatus for a tracking stereo target
PCT/KR2002/000521 WO2003096697A1 (en) 2002-03-23 2002-03-26 Method and apparatus for a tracking stereo target
AU2002243051A AU2002243051A1 (en) 2002-03-23 2002-03-26 Method and apparatus for a tracking stereo target
CNB031366570A CN1284919C (en) 2002-03-23 2003-05-22 Drilling bit structure for enlarging hole
HK04102424A HK1059459A1 (en) 2002-03-23 2004-04-02 Bit using excavator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0015914A KR100434876B1 (en) 2002-03-23 2002-03-23 Method and apparatus for a tracking stereo target

Publications (2)

Publication Number Publication Date
KR20030076905A true KR20030076905A (en) 2003-09-29
KR100434876B1 KR100434876B1 (en) 2004-06-07

Family

ID=29417327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0015914A KR100434876B1 (en) 2002-03-23 2002-03-23 Method and apparatus for a tracking stereo target

Country Status (5)

Country Link
KR (1) KR100434876B1 (en)
CN (1) CN1284919C (en)
AU (1) AU2002243051A1 (en)
HK (1) HK1059459A1 (en)
WO (1) WO2003096697A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100775005B1 (en) * 2004-12-07 2007-11-08 한국전자통신연구원 User authentificatno system and method thereof
US7634113B2 (en) 2004-12-07 2009-12-15 Electronics And Telecommunications Research Institute User authentication system and method thereof
KR101355976B1 (en) * 2012-11-13 2014-02-03 재단법인대구경북과학기술원 Method and apparatus for object tracking using stereo feature matching
KR101582454B1 (en) * 2014-08-25 2016-01-06 경북대학교 산학협력단 Method for cognition of movement object in photographing image and system for prevention of vehicle boarding accident

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2685530Y (en) * 2004-03-09 2005-03-16 伍利钱 Drill bits for enlarging the borehole
US8073243B2 (en) 2008-05-30 2011-12-06 General Instrument Corporation Replacing image information in a captured image
KR101082329B1 (en) * 2009-04-28 2011-11-10 칩스브레인글로벌주식회사 Apparatus for object position estimation and estimation method using the same
JP5932363B2 (en) * 2012-01-26 2016-06-08 キヤノン株式会社 Imaging apparatus and control method thereof
JP6184271B2 (en) 2013-09-19 2017-08-23 キヤノン株式会社 Imaging management apparatus, imaging management system control method, and program
CN109681123B (en) * 2018-11-28 2023-09-29 山东唐口煤业有限公司 Diameter-adjustable drill bit and sectional reaming method
CN110439467A (en) * 2019-07-30 2019-11-12 长沙天和钻具机械有限公司 A kind of reaming block formula concentric simultaneous casing drilling tool

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2580516B2 (en) * 1992-12-01 1997-02-12 工業技術院長 Real-time three-dimensional motion measuring apparatus and method
JPH10210506A (en) * 1997-01-22 1998-08-07 Sony Corp Three-dimensional image information input device and three-dimensional image information input output device
JPH11248421A (en) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for tracking moving bodies
JP3429194B2 (en) * 1998-05-12 2003-07-22 シャープ株式会社 Automatic tracking device
JP3134845B2 (en) * 1998-07-03 2001-02-13 日本電気株式会社 Apparatus and method for extracting object in moving image
JP2002024807A (en) * 2000-07-07 2002-01-25 National Institute Of Advanced Industrial & Technology Object movement tracking technique and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100775005B1 (en) * 2004-12-07 2007-11-08 한국전자통신연구원 User authentificatno system and method thereof
US7634113B2 (en) 2004-12-07 2009-12-15 Electronics And Telecommunications Research Institute User authentication system and method thereof
KR101355976B1 (en) * 2012-11-13 2014-02-03 재단법인대구경북과학기술원 Method and apparatus for object tracking using stereo feature matching
KR101582454B1 (en) * 2014-08-25 2016-01-06 경북대학교 산학협력단 Method for cognition of movement object in photographing image and system for prevention of vehicle boarding accident

Also Published As

Publication number Publication date
CN1284919C (en) 2006-11-15
HK1059459A1 (en) 2004-07-02
KR100434876B1 (en) 2004-06-07
AU2002243051A1 (en) 2003-11-11
WO2003096697A1 (en) 2003-11-20
CN1460768A (en) 2003-12-10

Similar Documents

Publication Publication Date Title
CA2326816C (en) Face recognition from video images
US6118475A (en) Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
KR100691348B1 (en) Method for tracking moving target with using stereo camera based on pan/tilt contol and system implementing thereof
KR100799990B1 (en) Device and Method for transforming 2-D Image into 3-D Image
KR100434876B1 (en) Method and apparatus for a tracking stereo target
KR20090020251A (en) Method for object pose recognition of robot with stereo camera
KR20140074201A (en) Tracking device
Oshiro et al. Binocular tracking using log polar mapping
Tan et al. Fast Vehicle Localisation and Recognition Without Line Extraction and Matching.
EP1580684B1 (en) Face recognition from video images
CN110599407B (en) Human body noise reduction method and system based on multiple TOF cameras in downward inclination angle direction
Bae et al. A new stereo object tracking system using disparity motion vector
Ramirez et al. Go with the flow: Improving Multi-View vehicle detection with motion cues
KR100434877B1 (en) Method and apparatus for tracking stereo object using diparity motion vector
CN109903334A (en) A kind of binocular video Mobile object detection method based on time consistency
Subramanian et al. Segmentation and range sensing using a moving-aperture lens
Oshiro et al. Foveated vision for scene exploration
Wan et al. Stereo vision tracking system
Ding et al. An efficient method of human motion analysis on dual-camera stereo vision system
Lee et al. Autonomous stereo object tracking using motion estimation and JTC
Bae et al. Adaptive disparity estimation and intermediate view reconstruction for multiview 3D imaging system
EL KADMIRI et al. A spherical electrostatic model edge detector for omnidirectional images
AU2004212509B2 (en) Face recognition from video images
van Riel et al. Improved 3D Scene Modeling for Image Registration in Change Detection
Ko et al. Robust three-dimensional vision system by adaptive stereo matching and optical BPEJTC

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee