KR100457302B1 - Auto tracking and auto zooming method of multi channel by digital image processing - Google Patents

Auto tracking and auto zooming method of multi channel by digital image processing Download PDF

Info

Publication number
KR100457302B1
KR100457302B1 KR10-2002-0066725A KR20020066725A KR100457302B1 KR 100457302 B1 KR100457302 B1 KR 100457302B1 KR 20020066725 A KR20020066725 A KR 20020066725A KR 100457302 B1 KR100457302 B1 KR 100457302B1
Authority
KR
South Korea
Prior art keywords
tracking
image
zoom
auto
roi
Prior art date
Application number
KR10-2002-0066725A
Other languages
Korean (ko)
Other versions
KR20040039080A (en
Inventor
김영욱
성하경
이종배
이성호
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR10-2002-0066725A priority Critical patent/KR100457302B1/en
Publication of KR20040039080A publication Critical patent/KR20040039080A/en
Application granted granted Critical
Publication of KR100457302B1 publication Critical patent/KR100457302B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Abstract

본 발명은 영상 처리를 이용한 다채널 자동 트랙킹(Auto Tracking ) 및 자동 줌(Auto zoom) 방법에 관한 것으로, 보다 자세하게는 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능이 내장된 카메라에서 추적하고자 하는 사람의 얼굴을 실시간으로 추적할 수 있는 방법에 관한 것이다.The present invention relates to a multi-channel auto tracking and auto zoom method using image processing, and more particularly, to a camera having a pan / tilt / zoom function. The present invention relates to a method of tracking a face of a person to be tracked in real time.

본 발명은 영상 처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법에 관한 것으로, 팬/틸트/줌 기능을 갖는 4대의 카메라로부터 입력된 영상신호를 4대로 분할된 단일영상으로 합성하는 제 1단계; 상기 제 1단계의 합성된 단일영상으로부터 프레임 데이터를 취득하는 제 2단계; 상기 제 2단계의 프레임 데이터로부터 RGB 영상을 HSV 영상으로 컬러변환하는 제 3단계; 상기 제 3단계의 HSV 영상으로부터 자동 ROI 셋팅하는 제 4단계; 상기 제 4단계의 자동 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하는 제 5단계; 상기 제 5단계의 임계치 데이터로부터 중심점 및 면적을 구하는 제 6단계; 상기 제 6단계의 중심점 및 면적으로부터 트랙킹과 줌 성공 여부를 결정하고 제어하는 제 7단계; 및 상기 제 7단계의 트랙킹과 줌 성공시 카메라를 제어하는 제 8단계를 포함하는 알고리즘을 갖는 것을 특징으로 한다.The present invention relates to a multi-channel auto tracking and auto zoom method using image processing, comprising: a first step of synthesizing an image signal input from four cameras having a pan / tilt / zoom function into a single image divided into four; A second step of acquiring frame data from the synthesized single image of the first step; A third step of color converting the RGB image from the frame data of the second step into an HSV image; A fourth step of automatically setting ROI from the HSV image of the third step; A fifth step of determining Low / Hi threshold data from the motion ROI and the candidate center point obtained by the automatic ROI setting of the fourth step; A sixth step of obtaining a center point and an area from the threshold data of the fifth step; A seventh step of determining and controlling tracking and zoom success from the center point and area of the sixth step; And an eighth step of controlling the camera upon successful tracking and zooming of the seventh step.

일반적인 정적 카메라(Static Camera)와 달리 카메라의 F.O.V((Fields Of View)를 자동으로 가변시키면서 물체를 추적할 수 있기 때문에 효율적인 감시 및 저장 공간의 절약을 기대할 수 있으며, 다채널에 대한 트랙킹 및 줌 기능이 한 대의 PC상에서 가능하기 때문에 제어가 용이하고 부가 비용이 적게 들며, 트랙킹 및 줌 실패시 자동 보정 기능으로 인하여 지능적인 추적 및 줌 기능이 가능할 뿐만 아니라, 트랙킹 및 줌 모듈이 소프트웨어 형태로 되어 있어 타 응용 시스템에 적용하기 용이하고, 하드웨어로 전환이 가능하며, 체감게임에서 사용자 얼굴의 움직임으로 마우스나 키보드의 입력을 대신할 수 있는 모듈로써 사용 가능하다.Unlike regular static cameras, you can track objects while automatically changing the field of view (FOV) of the camera, so you can expect efficient surveillance and storage space savings, and tracking and zooming on multiple channels. It's easy to control and low additional cost because it can be used on one PC, and intelligent tracking and zooming function is possible by auto-correction function in case of tracking and zoom failure, and tracking and zoom module is software type. It is easy to apply to an application system, can be converted to hardware, and can be used as a module that can replace the input of a mouse or keyboard by the movement of a user's face in a haptic game.

Description

영상 처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법{Auto tracking and auto zooming method of multi channel by digital image processing}Auto tracking and auto zooming method of multi channel by digital image processing}

본 발명은 영상처리를 이용한 다채널 자동 트랙킹(Auto Tracking) 및 자동 줌(Auto Zoom) 방법에 관한 것으로, 보다 자세하게는 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능이 내장된 카메라에서 추적하고자 하는 사람의 얼굴을 실시간으로 추적할 수 있는 방법에 관한 것이다.The present invention relates to a multi-channel auto tracking and auto zoom method using image processing, and more particularly, to a camera having a pan / tilt / zoom function. The present invention relates to a method of tracking a face of a person to be tracked in real time.

최근 9.11테러로 인하여 각국마다 보안에 대한 관심이 높아 지고 있으며 대표적인 보안 제품으로 CCTV 및 DVR(Digital Video Recorder)를 디지털 영상으로 보관할 수 있는 DVR로 전환하는 추세에 있고, DVR의 경우 보통 4~16대의 고정된 카메라를 연결하여 녹화 및 감시를 하고 있는데, 고정된 카메라(Staic Camera)의 F.O.V(Fields Of View)가 제한되어 있어 한 영역만을 감시할 수 있었다.With the recent 9.11 terrorism, security interests are increasing in each country. As a representative security product, CCTVs and DVRs (Digital Video Recorders) are being converted into DVRs that can store digital images. The fixed camera is connected and recorded and monitored, but only one area can be monitored because the FOV (Fields Of View) of the fixed camera is limited.

종래에는 트랙킹 및 줌 기능을 영상 처리를 통하여 구현하고자 할 때 자동 트랙킹 기능만 수행하고, 줌 기능은 사용자가 수동으로 조작해야 하는 단점과 고정된 카메라를 사용함으로 인해 한정된 영역만이 감시 가능하고, 실시간으로 물체를 추적할 수 없는 문제점이 있었다.Conventionally, when the tracking and zooming functions are implemented through image processing, only the automatic tracking function is performed, and the zooming function can monitor only a limited area due to the disadvantage that the user needs to operate manually and the fixed camera. There was a problem that can not track the object.

종전의 트랙킹하는 일반적인 방법은 도 1에서 도시된 바와 같이, 팬/틸트/줌 카메라에서 영상을 취득하여 아날로그 영상 데이터를 제어용 PC로 전송하면, PC내에 내장된 프레임 그레버(Frame Grabber)에서 아날로그 영상 데이터를 디지털 영상 데이터로 변환시킨 후 영상 처리를 수행하여 수행이 성공적으로 이루어졌을때, 그 결과인 카메라 제어 데이터를 다시 원래의 카메라로 전달하여 자동으로 트랙킹을 수행할 수 있었으나, 줌의 경우는 사용자가 수동으로 PC에서 제어를 해 주어야 동작이 가능했다.The conventional method of tracking conventionally, as shown in FIG. 1, when an image is acquired from a pan / tilt / zoom camera and the analog image data is transferred to a control PC, the analog image is obtained from a frame grabber embedded in the PC. After converting the data into digital image data and performing the image processing, the tracking was performed automatically by transferring the resulting camera control data back to the original camera. Had to be controlled manually by the PC to enable the operation.

도 1에서 도시된 바와 같이 제어용 PC에서 수행하는 디지털 영상 처리 방법에 따라 시스템의 성능이 좌우되는데, 기존의 트랙킹 알고리즘 방법은 단순 탐색 알고리즘을 사용하는 경우, BMA(Block Matching Algorithm) 알고리즘을 사용하는 경우, Opical Flow 알고리즘을 사용하는 경우, SNAKE 알고리즘을 사용하는 경우가 있었다.As shown in FIG. 1, the performance of the system depends on the digital image processing method performed by the control PC. The conventional tracking algorithm method uses a simple search algorithm and a block matching algorithm (BMA) algorithm. In some cases, the SNAKE algorithm may be used when using the optical flow algorithm.

상기 네 가지 기존의 트랙킹 알고리즘 수행 방법을 보다 상세히 설명하면 다음과 같다.The four conventional tracking algorithms are described in detail as follows.

첫째, 단순 탐색 알고리즘의 경우 도 2처럼 하나의 프레임 영상을 4대의 블록으로 분할하고, 다음 프레임을 취득했을 때 각 블록 별로 이전 프레임과 현재 프레임의 블록 내의 픽셀 값을 차분하여 특정 값(Threshold) 이상의 차이가 났을 때, 움직임이 발생한 것으로 간주하여 정보를 알려주는 방식으로 움직임의 탐색은 가능하지만, 트랙킹에는 사용할 수 없는 문제점이 있었다.First, in the simple search algorithm, one frame image is divided into four blocks, as shown in FIG. When there is a difference, it is possible to search for the motion in a manner of informing the information by considering the motion as occurring, but there is a problem that cannot be used for tracking.

둘째, BMA(Block Matching Algorithm) 알고리즘은 이미지 시퀀스(Image Sequence)의 프레임을 각각 임의의 블록 단위로 나누고 움직임이 예상되는 블록을 기준점으로 다음 프레임에 가장 유사한 블록을 찾아 기준점의 이동을 모션 벡터(Motion vetor)로 인식하여 추정하는 방법으로 블록 내의 모든 픽셀은 평행이동 해야하며, 이미지 프레임 간의 강도(Intensity)가 일정해야 한다는 문제점이 있었다.Second, the Block Matching Algorithm (BMA) algorithm divides the frame of the image sequence into random block units, finds the block most similar to the next frame based on the block that is expected to move, and moves the reference point to the motion vector. As a method of recognizing and estimating a vetor, all pixels in a block must be moved in parallel, and an intensity between image frames must be constant.

상기 BMA 알고리즘의 장점은 연산 시간이 비교적 빨라서 실시간 처리에 적합하며, 이미지 시퀀스가 충분히 빠른 경우에 잘 동작 된다. 그러나 영상의 밝기 정보가 급격히 변화는 경우나 블록 내의 픽셀 값이 변할 때 오차가 생기는 문제점이 있었다.The advantage of the BMA algorithm is that the computation time is relatively fast, which is suitable for real-time processing and works well when the image sequence is fast enough. However, there is a problem in that an error occurs when the brightness information of the image changes abruptly or when the pixel value in the block changes.

상기 BMA 알고리즘 계산은 다음 수식에 의한다.The BMA algorithm is calculated by the following equation.

셋째, Optical Flow 알고리즘을 사용하는 경우, 도 3에서 보는 바와 같이 영상 시퀀스의 시간차 dt에 의하여 발생하는 영상 광량의 변화량을 계산하여 움직이는 물체의 가속도 및 모션 벡터(Motion vector)를 추정하는 방법으로 결국 모든 픽셀에 대하여 연산을 하기 때문에 BMA보다 정확한 모션 벡터를 구할 수 있으나, 이 방법에도 모든 물체의 밝기는 시간에 관계없이 일정해야 하며, 영상의 주변 픽셀은 유사한 방향으로만 움직여야 한다는 문제점이 있었다.Third, in the case of using the optical flow algorithm, as shown in FIG. 3, a method of estimating the acceleration and the motion vector of a moving object by calculating the amount of change in the amount of image light generated by the time difference dt of the image sequence, as shown in FIG. Because the operation is performed on the pixel, a more accurate motion vector can be obtained than the BMA. However, this method also has a problem in that the brightness of all objects must be constant regardless of time, and the surrounding pixels of the image should move only in a similar direction.

상기 Optical Flow 알고리즘 계산은 다음 수식에 의한다.The optical flow algorithm is calculated by the following equation.

C(i,j) = 0 for all (i,j)C (i, j) = 0 for all (i, j)

넷째, SNAKE 알고리즘은 에너지 최소화 방법에 의하여 영상의 변형된 모델을정합하는 방법(Kass,1987)으로, 이의 구현을 위해 기본적인 스네이크에 Kalman filter를 적용하기도 하고 부가적인 수축, 팽창의 힘을 적용한 풍선모델(cohen)등 많은 응용 기법이 사용되고 있다. 이 방법은 영상 내의 모든 윤곽을 찾지 못한다는 문제와 다른 고차원적인 영상처리, 시 공간적으로 근접한 다른 영상데이터와의 상호 작용을 필요로 하며 또한 사용자가 스네이크의 초기 노드를 지정해 주어야 하는 문제점이 있었다.Fourth, the SNAKE algorithm is a method of matching the deformed model of the image by energy minimization method (Kass, 1987). For this, the balloon model is applied to the basic snake by applying the Kalman filter and applying the force of additional contraction and expansion. Many application techniques, including cohen, are used. This method has the problem of not finding all the contours in the image, other high-dimensional image processing, interaction with other image data in time and space, and the user to designate an initial node of the snake.

상기 SNAKE 알고리즘은 다음 수식에 의한다.The SNAKE algorithm is based on the following equation.

도 4는 스네이크 알고리즘을 이용해 정확한 이동물체의 중심점을 찾는 과정을 도해한 것이다.Figure 4 illustrates the process of finding the exact center of the moving object using the snake algorithm.

상기 설명한 바와 같이 상기 네 가지의 알고리즘 방법은 다음과 같은 기술적인 문제점을 갖고 있었다.As described above, the four algorithm methods have the following technical problems.

첫째, 단순 탐색 알고리즘을 사용하는 경우, 움직이는 물체의 유무만을 판단할 수 있기 때문에 단지 움직임 만을 감지할 수 있을 뿐, 팬/틸트/줌 어느 기능도자동으로 사용할 수 없었다.First, when the simple search algorithm is used, only the movement can be detected, and the pan / tilt / zoom functions cannot be used automatically because only the moving object can be determined.

둘째, BMA(Block Matching Algorithm)를 사용하는 경우, 실제 블록 간의 이동시에 평행이동 뿐만 아니라 여러 방향으로 불규칙하게 움직일 가능성이 많고, 밝기정보가 조금만 변하더라도 추적하고자 하는 물체를 쉽게 놓치는 경향이 있었고, 또한 이러한 정보만으로는 자동 줌 기능을 수행 할 수 없었다.Second, in case of using BMA (Block Matching Algorithm), there is a possibility of irregular movement in various directions as well as parallel movement when moving between actual blocks, and tends to easily miss an object to be tracked even if the brightness information changes only a little. Only this information could not perform the auto zoom function.

셋째, Optical Flow 알고리즘을 사용하는 경우, 역시 주변 광량 변화에 민감하기 때문에 이동 물체의 정확한 방향 및 중심점을 잡을 수 없었다.Third, in the case of using the optical flow algorithm, it was also sensitive to the change in the amount of ambient light, so that it was impossible to establish the exact direction and the center point of the moving object.

넷째, SNAKE 알고리즘을 사용하는 경우, 가장 정확하게 이동 물체의 중심점을 구할 수 있지만, 연산량이 상당하여 실시간 처리에 적합하지 못하며 사용자가 초기 스네이크 노드를 초기화 해 주어야 했었다.Fourth, in the case of using the SNAKE algorithm, the center point of the moving object can be determined most accurately, but the computational amount is not suitable for real-time processing, and the user had to initialize the initial snake node.

따라서, 본 발명은 상기와 같은 종래 기술의 제반 문제점을 해결하기 위한 것으로, 팬/틸트/줌 기능을 내장한 카메라가 영상을 취득하고, 디지털 영상처리를 하여 추적하고자 하는 얼굴의 위치 및 영역을 계산하여 그 정보를 이용하여 자동으로 팬/틸트/줌을 수행 함으로써, 한정된 F.O.V의 단점을 극복하고 트랙킹 및 줌 기능을 영상 처리를 통하여 구현할 수 있는 강인성 및 실시간 처리성에 적합한 알고리즘을 제공하는데 본 발명의 목적이 있다.Accordingly, the present invention is to solve the above-mentioned problems of the prior art, the camera with a built-in pan / tilt / zoom function to acquire the image, the digital image processing to calculate the position and area of the face to be tracked The present invention provides an algorithm suitable for robustness and real-time processing that can overcome the shortcomings of limited FOV and implement tracking and zooming functions through image processing by automatically performing pan / tilt / zoom using the information. There is this.

도 1은 종래 기술에 의해 트랙킹 기능을 수행할 때 기술적 구성과 흐름을 나타낸 것이다.Figure 1 shows the technical configuration and flow when performing the tracking function by the prior art.

도 2는 종래 기술인 단순 탐색 알고리즘에 의해 트랙킹하는 방법을 나타낸 것이다.2 shows a method for tracking by a simple search algorithm in the prior art.

도 3은 종래 기술인 Opital Flow 알고리즘에 의해 트랙킹하는 방법을 나타낸 것이다.Figure 3 shows a tracking method by the conventional Opital Flow algorithm.

도 4는 종래 기술인 SNAKE 알고리즘에 의해 트랙킹하는 방법을 나타낸 것이다.4 shows a method for tracking by the conventional SNAKE algorithm.

도 5는 본 발명에 의해 자동 트랙킹 및 자동 줌을 구현하기 위한 알고리즘을 나타낸 것이다.5 illustrates an algorithm for implementing auto tracking and auto zoom according to the present invention.

도 6은 본 발명에 의해 수행되는 3×3마스크를 이용한 저주파 통과 영역 필터과정을 수행하는 하나의 예를 나타낸 것이다.6 shows an example of performing a low pass region filtering process using a 3 × 3 mask performed by the present invention.

도 7은 본 발명에 의해 수행되는 이미지 차감 방법에 의해 후보 중심점을 얻기 위해 차분한 영상을 나타낸 것이다.FIG. 7 illustrates an image that is subtracted to obtain a candidate center point by the image subtraction method performed by the present invention.

도 8은 본 발명에 의해 수행되는 Low/High 임계치를 구하기 위해 Hue Histogram을 설정한 것을 나타낸 것이다.Figure 8 shows the Hue Histogram is set to obtain the Low / High threshold value performed by the present invention.

도 9는 본 발명에 의해 수행되는 Low/High 임계치에 해당되는 픽셀 값을 푸른색으로 설정하여 얻은 영상을 나타낸 것이다.9 illustrates an image obtained by setting a pixel value corresponding to a low / high threshold value performed by the present invention to a blue color.

도 10a 내지 10d는 본 발명에 의해 수행되는 트랙킹 성공을 확인하기 위해 임계치 내의 픽셀 개수를 모니터링하는 과정을 나타낸 것이다.10A-10D illustrate the process of monitoring the number of pixels within a threshold to confirm tracking success performed by the present invention.

도 11은 본 발명을 구현하기 위한 장치로써 팬/틸트/줌 기능의 돔 카메라를 나타낸 것이다.11 shows a dome camera having a pan / tilt / zoom function as an apparatus for implementing the present invention.

도 12는 본 발명을 구현하기 위한 장치로써 저가의 프레임 그래버를 나타낸 것이다.12 shows a low cost frame grabber as an apparatus for implementing the present invention.

도 13은 본 발명을 구현하기 위한 장치로써 4채널 멀티플렉서를 나타낸 것이다.13 illustrates a four channel multiplexer as an apparatus for implementing the present invention.

도 14a 내지 14c는 본 발명에 의해 구현되는 1채널에 대한 자동 트랙킹 과정을 나타낸 것이다.14A to 14C illustrate an automatic tracking process for one channel implemented by the present invention.

도 15a 내지 15b는 1채널에 대한 자동 줌 과정을 나타낸 것이다.15A to 15B illustrate an auto zoom process for one channel.

도 16은 4채널에 대한 성공적인 자동 트랙킹 및 자동 줌 과정을 나타낸 것이다.16 shows a successful auto tracking and auto zoom process for four channels.

본 발명의 상기 목적은 도 5에서 도시된 바와 같이 4대의 카메라로부터 입력된 영상 신호를 4채널로 합성하는 단계, 프레임 데이터를 취득하는 단계, 컬러 변환하는 단계, 자동 ROI 셋팅하는 단계, Low/Hi 임계치를 구하는 단계, 중심점 및 면적을 구하는 단계, 트랙킹 성공과 줌 성공 여부를 결정하는 단계, 카메라를 제어하는 단계를 포함하는 Hue color 확률 분포 기반의 알고리즘을 갖는 것을 특징으로 하는 영상 처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법을 실현하는 데 있다.The object of the present invention is to synthesize the video signal input from four cameras as shown in Figure 5 into four channels, to obtain the frame data, color conversion, automatic ROI setting, Low / Hi Multi-channel using image processing, characterized in that it has a Hue color probability distribution based algorithm comprising the steps of obtaining a threshold value, obtaining a center point and an area, determining tracking success and zoom success, and controlling a camera It is to realize the auto tracking and auto zoom method.

본 발명의 상기 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 바람직한 실시예를 도시하고 있는 도면을 참조한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.Details of the above object and technical configuration of the present invention and the effects thereof according to the present invention will be more clearly understood by the following detailed description with reference to the drawings showing preferred embodiments of the present invention.

도 5는 Hue color 확률 분포 기반의 자동 트랙킹, 자동 줌을 수행하기 위해 다음 단계를 포함한 알고리즘을 나타낸 것이다.5 illustrates an algorithm including the following steps to perform auto tracking and auto zoom based on Hue color probability distribution.

상기 알고리즘은 팬/틸트/줌 기능을 갖는 4대의 카메라로부터 입력된 영상 신호를 4개로 분할된 단일 영상으로 합성하는 제 1단계, 상기 제 1단계의 합성된 단일 영상으로부터 프레임 데이터를 취득하는 제 2단계, 상기 제 2단계의 프레임 데이터로부터 RGB 영상을 HSV 영상으로 컬러 변환하는 제 3단계, 상기 제 3단계의 HSV 영상으로부터 자동 ROI(Region Of Interest) 셋팅하는 제 4단계, 상기 제 4단계의 자동 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하는 제 5단계, 상기 제 5단계의 임계치 데이터로부터 중심점 및 면적을 구하는 제 6단계, 상기 제 6단계의 중심점 및 면적으로부터 트랙킹과 줌 실패 여부를 결정하고 제어하는 제 7단계, 및 상기 제 7단계의 트랙킹과 줌 성공시 카메라를 제어하는 제 8단계를 포함한다.The algorithm comprises a first step of synthesizing an image signal input from four cameras having a pan / tilt / zoom function into four divided single images, and a second step of acquiring frame data from the synthesized single image of the first stage. A third step of color conversion of the RGB image from the frame data of the second step to the HSV image, the fourth step of automatically setting a region of interest (ROI) from the HSV image of the third step, the automatic of the fourth step A fifth step of determining Low / Hi threshold data from the motion ROI obtained by the ROI setting and the candidate center point, a sixth step of obtaining a center point and an area from the threshold data of the fifth step, and tracking from the center point and the area of the sixth step And a seventh step of determining and controlling whether or not the zoom fails, and an eighth step of controlling the camera when the tracking and zooming of the seventh step are successful.

이하 각 단계의 알고리즘을 상세히 설명한다.The algorithm of each step is described in detail below.

상기 알고리즘에서 팬/틸트/줌 기능을 갖는 4대의 카메라로부터 입력된 영상신호를 4개의 분할된 단일 영상으로 합성하는 제 1단계는 팬/틸트/줌 기능의 NTSC 카메라가 내장된 아날로그 카메라 4대에서 취득한 데이터를 Quad Chipset을 이용하여 각기 4개의 영상을 하나의 영상으로 합성할 수 있도록 해준다. 이는 종전의 정적 카메라와는 달리 팬/틸트/줌 기능의 NTSC 카메라가 내장된 아날로그 카메라 4대가 움직이는 물체를 영상으로 담음으로써 카메라의 F.O.V(Fields Of View)의 영역을 넓힐 수 있는 기술적 장점이 있다.In the above algorithm, the first step of synthesizing the video signals input from four cameras having pan / tilt / zoom functions into four divided single images is performed by four analog cameras incorporating NTSC cameras having pan / tilt / zoom functions. Using the Quad Chipset, the acquired data can be synthesized into four images. Unlike conventional static cameras, it has a technical advantage that four analog cameras equipped with NTSC cameras with pan / tilt / zoom functions can move the F.O.V (Fields Of View) of the camera by capturing moving objects as images.

상기 제 1단계의 합성된 단일 영상으로부터 프레임 데이터를 취득하는 제 2단계는 PC 프로그램에서 디렉트 쇼(Direct Show)를 이용하여 카메라에서 1개의 합성된 영상을 메세지(Message)나 쓰레드(Thread)에 의하여 취득한다. 이때 취득한 영상은 도 12에서 도시된 저가의 프레임 그래버(Frame Grabber)를 이용하여 아날로그 영상 데이터를 디지털 영상 데이터로 변환한다.The second step of acquiring frame data from the synthesized single image of the first stage is to use a direct show in a PC program to display one synthesized image by a message or a thread. Acquire. At this time, the acquired image is converted into analog image data into digital image data using a low-cost frame grabber shown in FIG.

상기 제 2단계의 프레임 데이터로부터 RGB 영상을 HSV 영상으로 컬러 변환하는 제 3단계는 컬러 영상 처리에서 처리 시간을 단축시키기 위하여 원본(24bits)보다 적은 bits로 변환하여 프로세싱을 한다. 보통은 컬러 영상의 색을 나타내는 기본색인 RGB(적·녹·청)의 색 신호를 따로따로 개별적인 신호선으로 음극선관(CRT) 표시 장치나 컴퓨터 모니터에 입력하는 방식으로 3원색을 하나의 복합 색 신호로합성하여 단일 신호 선으로 입력하는 방식에 비해 튜너나 영상 회로는 복잡하지만 선명하고 깨끗한 화상이 표시되는 Normalized RGB 방식이나, YUV 형태를 이용하나, 본 알고리즘에서는 조명 변화에 강인한 HSV(Hue Saturation Value) 컬러 모델로 변환하여 사용한다.The third step of color conversion of the RGB image from the frame data of the second step into the HSV image is performed by converting the bits into fewer bits than the originals (24 bits) in order to shorten the processing time in the color image processing. Normally, the three primary colors are combined into one complex color signal by inputting the RGB (red, green, blue) color signals, which are the basic colors representing the color of the color image, to the cathode ray tube (CRT) display or computer monitor separately. Compared to the method of inputting with a single signal line, the tuner or the image circuit uses a normalized RGB method or YUV type which displays a complex but clear and clear image, but in this algorithm, the HSV (Hue Saturation Value), which is robust to changes in lighting Convert the color model to use.

상기 제 3단계의 HSV 영상으로부터 자동 ROI 셋팅하는 제 4단계는 저주파 통과영역 필터(Low pass spatial filter)와 이미지 차감 방법(Image Subtract Method)을 사용하여 움직이는 물체의 초기 위치를 자동으로 알 수 있는데, 종전의 기술로는 보통 트랙킹 알고리즘을 적용할 때 초기 위치를 사용자가 지정해 주어야 하는 문제점이 있었으나, 본 알고리즘은 이런 문제점을 해결했다.In the fourth step of automatically setting the ROI from the HSV image of the third step, a low pass spatial filter and an image subtract method can be used to automatically determine the initial position of the moving object. Conventional techniques usually require the user to specify the initial position when applying the tracking algorithm, but this algorithm solves this problem.

저주파 통과 영역 필터는 영상의 노이즈를 제거해 주는 역할을 하며 보통 컨벌루션(Convolution) 연산을 수행하며 보통 3×3, 5×5 마스크를 사용한다.The low pass filter removes the noise of the image, usually performs a convolution operation, and usually uses a 3x3 or 5x5 mask.

도 6은 3×3 마스크를 이용해 컨벌루션 연산을 수행하는 방법의 일례를 나타낸것이다.6 illustrates an example of a method of performing a convolution operation using a 3 × 3 mask.

이미지 차감 방법(Image Subtract Method)은 저주파 통과 영역 필터를 통과한 영상과 그 다음의 영상을 차분하면 움직이는 영상의 후보 중심점을 구할 수 있다.In the image subtract method, a candidate center point of a moving image may be obtained by differentiating an image passing through a low pass region filter and a subsequent image.

도 7은 이미지 차감 방법에 의해 저주파 통과 영역 필터를 통과한 영상과 다음 영상을 차분하여 움직이는 영상의 후보 중심점을 찾은 결과를 나타낸 것으로 그림에서 흰 색으로 표시 되었다.FIG. 7 shows a result of finding a candidate center point of a moving image by dividing an image passing through a low pass region filter and a next image by an image subtraction method, which is shown in white in the figure.

상기 제 4단계의 자동 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하는 제 5단계는 상기 제 4단계의 움직임 후보 ROI 및 후보 중심점이 결정되면 그 중심점을 기준으로 15×15의 가상의 직사각형(Rectangle)을 설정하고, 그 직사각형 내의 모든 픽셀에 대하여 Hue Histogram을 설정한 후 Low/Hi 임계치를 얻는다.The fifth step of determining the low / hi threshold data from the motion ROI and the candidate center point obtained by the automatic ROI setting of the fourth step is based on the center point when the motion candidate ROI and the candidate center point of the fourth step are determined. Set a hypothetical rectangle of 15, set a Hue Histogram for all the pixels in that rectangle, and then get a Low / Hi threshold.

도 8은 중심점을 기준으로 15×15의 가상 직사각형을 설정하고, 그 직사각형 내의 모든 픽셀에 대하여 Hue Histogram을 설정한 후 Low/Hi 임계치를 구하는 과정을 도해한 것으로 MAX는 Hi 임계치 값을 R1, R2는 각기 Low 임계치 값을 나타내며, 세로 축은 value 값(I)을 가로축은 Hue 값(H)을 나타낸다.FIG. 8 illustrates a process of determining a low / hi threshold after setting a virtual rectangle of 15 × 15 with respect to a center point, setting a Hue histogram for all pixels within the rectangle, and using MAX as a hi threshold value for R1 and R2. Each represents a low threshold value, the vertical axis represents a value value (I), and the horizontal axis represents a Hue value (H).

상기 Hue Histogram을 설정하고, 그 후 Low/Hi 임계치를 구하는 구체적인 방법으로 모든 픽셀에 대하여 다음 수식에 의해 계산하여 Hue 값(H) 및 Value 값(I)을 구한다.The Hue Histogram is set, and then a Hue value (H) and a Value value (I) are calculated by the following equation for all pixels in a specific method of obtaining a Low / Hi threshold.

Saturation 값은 다음 수식에 의해 계산되며 H 값으로부터 A,B 를 구한다.The saturation value is calculated by the following equation, and A and B are obtained from the H value.

상기 제 5단계의 임계치 데이터로부터 중심점 및 면적을 구하는 제 6단계는The sixth step of obtaining the center point and the area from the threshold data of the fifth step is

상기 제 5단계에서 구한 ROI의 Low/Hi 임계치에 해당되는 픽셀 값을 컴퓨터 프로그램 상에서 푸른색(Blue)으로 설정하면 도 9와 같은 영상을 취득할 수 있고, 푸른색으로 표시된 값의 위치를 이용하면 추적하고자 하는 물체의 중심점 및 면적을 구할 수 있다.If the pixel value corresponding to the Low / Hi threshold value of the ROI obtained in the fifth step is set to blue in a computer program, an image as shown in FIG. 9 can be obtained, and the position of the value indicated in blue is used. The center point and the area of the object to be tracked can be obtained.

도 9는 추적 하고자 하는 물체가 사람의 얼굴인 경우, ROI의 Low/Hi 임계치에 해당되는 픽셀 값을 컴퓨터 프로그램 상에서 푸른색(Blue)으로 설정하여 나타난 영상을 나타낸 것이다.FIG. 9 illustrates an image displayed by setting a pixel value corresponding to a low / hi threshold of ROI to blue in a computer program when the object to be tracked is a human face.

상기 제 6단계의 중심점 및 면적으로부터 트랙킹과 줌 성공 여부를 결정하고, 제어하는 제 7단계는 최종적인 트랙킹과 줌 성공 여부를 결정하고 제어하기 위해 다음의 과정을 수행한다.The seventh step of determining and controlling the tracking and zooming success from the center point and the area of the sixth step is performed to determine and control the final tracking and zooming success.

트랙킹의 최종적인 성공 여부를 결정하고 제어하는 과정은 임계치 내의 픽셀 개수를 모니터링하여 일정 개수 미만이 되면 트랙킹이 실패한 것으로 보는데, 하나의 실시예로써 본 알고리즘은 ROI의 크기가 10×10픽셀보다 작을때 트랙킹이 실패한 것으로 본다. 트랙킹이 실패한 경우 초기 ROI를 화면 전체 크기만큼 설정하고, 상기 제 6단계의 과정으로 돌아가 다시 계산해 정확한 위치를 계산할 때까지 반복 수행하여 트랙킹의 실패를 막을 수 있으며, 트랙킹 성공시 그 다음 단계인 카메라 제어 단계를 수행하도록 한다. 도 10a 내지 10d는 4채널에 의한 최종적인 트랙킹의 성공 여부를 결정하고 제어하는 일련의 과정을 나타낸 것이다.The process of determining and controlling the final success of the tracking monitors the number of pixels within the threshold and indicates that the tracking fails when the number is less than a certain number. In one embodiment, the algorithm determines that the ROI is smaller than 10 × 10 pixels. Tracking is considered to have failed. If the tracking fails, the initial ROI can be set to the full size of the screen, and the process can be repeated until the correct position is calculated by returning to the process of step 6 again to prevent the tracking failure. Follow the steps. 10A to 10D show a series of processes for determining and controlling the success of final tracking by four channels.

도 14a 내지 14c는 하나의 실시예로써 1채널에 의한 일련의 자동 트랙킹 과정을 나타낸 것이다.14A to 14C illustrate a series of automatic tracking processes by one channel as an embodiment.

자동 줌의 최종적인 성공여부를 결정하고 제어하는 과정은 최종 ROI의 크기와 화면 크기를 계산하여 ROI의 크기가 화면의 10×10픽셀 보다 작거나 150×110픽셀 보다 큰 지 검사하여 ROI의 크기가 커지면 카메라의 줌 아웃(zoom out)을 실행하고, 반대로 작아지면 줌 인(zoom in)을 실행하여 추적하고자 하는 물체의 일정한 크기를 얻을 수 있다. 이때 ROI의 크기가 작아지면 주변의 추적하고자 하는 Hue 값과 비슷한 값이 나타나게 되고, 결국 줌 기능이 실패하게 되는데, 이때는 강제로 ROI의 크기를 작아지게 하면 일정한 크기로 수렴하게 되어 성공적인 자동 줌을 실행하게 된다.The process of determining and controlling the final success of auto zoom calculates the size of the final ROI and the screen size, and checks whether the size of the ROI is smaller than 10 × 10 pixels or more than 150 × 110 pixels on the screen. If it becomes larger, the camera zooms out, and if it decreases, the camera zooms in to obtain a constant size of the object to be tracked. At this time, if the ROI decreases, a value similar to the Hue value to be tracked will appear, and eventually the zooming function will fail. In this case, if the ROI is forcibly reduced, the ROI will converge to a certain size and execute a successful auto zoom. Done.

도 15a 내지 도 15b는 1채널에 대한 자동 줌을 실행하는 하나의 실시예를 도시한 것으로 도 15a는 ROI의 크기가 10×10픽셀 보다 작을때 줌 인을 실행한 것이고, 도 15b는 ROI의 크기가 150 ×110픽셀 보다 클 때 줌 아웃을 실행한 것이다.15A to 15B illustrate an embodiment of performing auto zoom on one channel. FIG. 15A illustrates zoom in when the size of the ROI is smaller than 10 × 10 pixels. FIG. 15B illustrates the size of the ROI. Is zoom out when is larger than 150 × 110 pixels.

상기 제 7단계의 트랙킹과 줌 성공시 카메라를 제어하는 제 8단계는 최종 결정된 물체의 중심점 및 줌 펙터(Factor)를 이용하여 4채널의 카메라를 제어하는 단계이다. 이는 RS 485 또는 RS 422 인터페이스 제어 모듈을 통해 구현된다.The eighth step of controlling the camera when the tracking and zooming of the seventh step is successful is controlling the four-channel camera by using the center point and the zoom factor of the finally determined object. This is implemented via an RS 485 or RS 422 interface control module.

도 16은 상기 알고리즘의 구현으로 4채널에 대한 자동 트랙킹 및 자동 줌 기능이 성공적으로 수행된 것을 도시한 것이다FIG. 16 illustrates successful implementation of the auto tracking and auto zoom functions for four channels with the implementation of the above algorithm.

상기 알고리즘을 구현하는 바람직한 일실시예로는 PC에서 여러대의 카메라 영상을 취득받아 다채널 트랙킹 및 줌을 하여 4대의 카메라를 제어하는 PC 기반의 장치로써, 본 발명의 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 기능을 실현하기 위한 구체적인 Spec은 Windows를 사용하는 Pentium III 1.2GHz CPU를 기준으로 할 때 도 13에서 도시된 트랙킹 가능한 4채널 멀티플렉서와 4대의 아날로그 카메라로부터 취득한 영상을 하나의 영상으로 합성하기 위한 Quad Chipset, 320×240(QVGA급)의 영상 해상도, 약 26프레임/sec(MS Direct-Show 사용)의 트랙킹 Speed, 1∼8배 줌(카메라 spec에 따라 상이함), 카메라와 통신을 하기 위한 RS-485 방식 또는 RS-422 방식의 인터페이스 제어모듈로 구성된다.One preferred embodiment for implementing the algorithm is a PC-based device that controls multiple cameras by multi-channel tracking and zooming by acquiring multiple camera images from a PC, and multi-channel automatic tracking using the image processing of the present invention. And the specific spec for realizing the auto zoom function is based on the Pentium III 1.2GHz CPU using Windows to synthesize the images acquired from the trackable four-channel multiplexer and four analog cameras shown in Figure 13 into a single image Quad Chipset, 320 × 240 (QVGA) image resolution, tracking speed of about 26 frames / sec (using MS Direct-Show), 1 ~ 8x zoom (depending on camera spec), communicating with camera It consists of interface control module of RS-485 type or RS-422 type.

보다 상세히 상기 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 기능을 실현할 PC 기반의 장치를 설명한다.In more detail, a PC-based device for realizing a multi-channel auto tracking and auto zoom function using the image processing will be described.

상기 PC 기반의 장치는 움직이는 물체의 영상을 촬영할 수 있도록 4대의 팬/틸트/줌 기능의 카메라로 구성된 영상 수신부와 상기 N대의 팬/틸트/줌 기능의 카메라로부터 입력된 영상 신호를 4개의 분할된 단일영상으로 합성할 수 있도록 다채널 멀티플렉서로 구성된 영상 합성부와 상기 4개의 합성된 단일영상으로부터 프레임 데이터를 취득하고, 상기 프레임 데이터로부터 영상변환하고, 상기 영상변환으로부터 ROI 셋팅하고, 상기 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하고, 상기 임계치 데이터로부터 중심점 및 면적을 구하고, 상기 중심점 및 면적으로부터 트랙킹과 줌 실패 여부를 결정하고 제어할 수 있는 제어용 PC로 구성된 영상 제어부 및 상기 트랙킹과 줌 성공시 카메라를 제어할 수 있는 인터페이스 제어모듈로 RS 485 또는 RS 422등으로 구성된 영상 송신부로 구성된다.The PC-based device divides the video signal input from the four pan / tilt / zoom cameras and the N pan / tilt / zoom cameras into four divided image signals to capture an image of a moving object. An image synthesizer composed of a multi-channel multiplexer for compositing a single image and frame data from the four synthesized single images, image conversion from the frame data, ROI setting from the image conversion, and the ROI setting. An image control unit comprising a control PC capable of determining Low / Hi threshold data from the motion ROI and candidate center points obtained by the controller, obtaining a center point and an area from the threshold data, and determining and controlling tracking and zoom failure from the center point and area. And an interface capable of controlling the camera upon successful tracking and zooming. Consists of a video transmitter such as RS 485 or RS 422 is configured with a control module.

상기 알고리즘을 구현하는 바람직한 다른 실시예로써 본 발명의 트랙킹 및줌 알고리즘을 카메라에서 동작 가능하도록 독립 프로세서(Stand alone processor)를 만드는 경우이다. 이를 구현하기 위한 구체적인 장치로써 팬/틸트/줌 기능의 카메라,영상처리용 DSP(Digital Signal Processor) 및 OSD(Open Software Description)용 칩(chip), ROM, RAM이 요구된다.Another preferred embodiment for implementing the above algorithm is a case of making a stand alone processor to operate the tracking and zooming algorithm of the present invention in a camera. As a specific device for realizing this, a camera having a pan / tilt / zoom function, a digital signal processor (DSP) for image processing, and a chip (ROM), a ROM, and a RAM for an open software description (OSD) are required.

보다 상세히 상기 독립 프로세서 기반의 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 카메라에 대해 설명한다.In more detail, a multi-channel auto tracking and auto zoom camera using the independent processor-based image processing will be described.

상기 독립 프로세서 기반의 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 카메라는 움직이는 물체의 영상을 촬영할 수 있도록 4대의 팬/틸트/줌 기능의 카메라로 구성된 영상 수신부 및 상기 4대의 카메라로부터 입력된 영상 신호를 4개의 분할된 단일영상으로 합성하고, 상기 단일 영상으로부터 프레임 데이터를 취득하여 영상변환하며, 상기 변환된 영상으로부터 ROI 셋팅하고, 상기 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하며, 상기 임계치 데이터로부터 중심점 및 면적을 구하고, 상기 중심점 및 면적으로부터 트랙킹과 줌 실패 여부를 결정하고 제어하며, 상기 트랙킹과 줌 성공시 카메라를 제어하는 영상 처리부로 구성된다.The multi-channel auto tracking and auto zoom camera using the independent processor-based image processing includes an image receiving unit consisting of four pan / tilt / zoom cameras and an image signal input from the four cameras to capture an image of a moving object. Is synthesized into four divided single images, image data is obtained by converting the frame data from the single image, ROI is set from the converted image, and Low / Hi threshold data is obtained from the motion ROI and the candidate center point obtained by the ROI setting. And an image processor for determining a center point and an area from the threshold data, determining and controlling tracking and zoom failure from the center point and area, and controlling a camera when the tracking and zooming are successful.

상기 영상처리부는 영상처리용 DSP 및 OSD용 칩, ROM, RAM을 상기 카메라에 내장시켜 영상처리를 이용해 다채널 자동 트랙킹 및 자동 줌 기능을 구현한다.The image processor implements a multi-channel auto tracking and auto zoom function using image processing by embedding an image processing DSP, an OSD chip, a ROM, and a RAM in the camera.

상기 영상처리용 DSP는 디지털 연산에 의해 신호 처리를 하는 하나의 IC 칩으로 된 마이크로프로세서로써 범용 마이크로프로세서의 아키텍처를 대폭 개량하여 고속 연속성과 콤팩트화를 추구한 전용 마이크로프로세서다. 기본 조작은필터링(filtering),프리어 변환, 상관 함수의 산출, 부호화, 변복조, 미분, 적분, 적응 신호 처리등이다. 음성 합성, 음성인식, 음성 부호화, 압축, 중고속 모뎀,반향 소거장치(echocanceller) 등의 음성 및 통신 시스템에서 채용되고 있으며, 화상 처리나 서보 모터(servo motor) 제어 등의 고속 디지털 제어 분야에 대한 적용도 실용화되고 있다.The DSP for image processing is a microprocessor made of a single IC chip for signal processing by digital operation. The DSP is a dedicated microprocessor that greatly improves the architecture of a general-purpose microprocessor to pursue high speed continuity and compactness. The basic operations are filtering, freer transform, calculation of correlation function, encoding, modulation and demodulation, derivative, integration, adaptive signal processing, and so on. It is used in speech and communication systems such as speech synthesis, speech recognition, speech encoding, compression, high speed modem and echocanceller, and is used for high speed digital control such as image processing or servo motor control. Application is also practical.

상기 영상처리용 OSD는 소프트웨어의 특징을 기술(記述)하기 위한 서식으로 하이퍼텍스트 생성 언어(HTML)의 차세대 판으로서 W3C에서 표준화 작업 중인 확장성 생성 언어(XML)를 기초로 하고 있다. 정의할 수 있는 소프트웨어 특징은 대응 운영 체계(OS), 버전 정보, 대응 중앙 처리 장치(CPU), 필요한 공 디스크의 용량 등이다. 소프트웨어 배포 시에 OSD로 기재한 파일을 한 번에 보낸다면 수취한 클라이언트 측에서 적절한 설치 및 처리를 실행할 수 있다.The OSD for image processing is a next-generation version of the hypertext generation language (HTML) as a format for describing the features of the software, and is based on the extensible generation language (XML) being standardized by the W3C. Software features that can be defined are the corresponding operating system (OS), version information, the corresponding central processing unit (CPU), and the amount of blank disk required. If you send the files listed in the OSD at the time of software distribution, you can execute the proper installation and processing on the receiving client side.

기타 본 발명의 산업상 이용 가능한 분야는 PC 카메라에서 화상 채팅이나 원격 진료시 사용자 추적 및 자동 줌 기능을 응용하는 경우, DVR 카메라로서 PC용 및 독립 프로세서 가능한 사용자 감시 및 추적 기능이 가능하도록 응용하는 경우, VR 및 게임용 사용자 추적 모듈로 사용하는 경우, DVR 사용시 트랙킹 및 줌 기능으로 인한 저장 공간 절약으로 이를테면, 은행의 금고가 있는 장소에서 추적하고자 하는 침입자의 얼굴에 대해 선명한 해상도 취득을 요하는 경우 등이다.Other industrially available fields of the present invention are applicable to the user monitoring and tracking function for a PC and an independent processor as a DVR camera when a user camera and an auto zoom function are applied in a video chat or telemedicine in a PC camera. When used as a user tracking module for VR and games, it saves storage space due to the tracking and zooming function when using the DVR, for example, when a clear resolution is required for the face of an intruder who wants to track in a bank vault. .

따라서, 본 발명은 일반적인 정적 카메라와는 달리 카메라의 F.O.V를 자동으로 가변시키면서 물체를 추적할 수 있기 때문에 효율적인 감시 및 저장 공간의절약을 기대할 수 있고, 다채널에 대한 자동 트랙킹 및 자동 줌 기능이 한 대의 PC 상에서 가능하기 때문에 제어가 용이하여 부가 비용이 적게 들며, 트랙킹 및 줌 실패시 자동 보정 기능으로 인하여 지능적인 추적 및 줌 기능이 가능할 뿐 만 아니라, 트랙킹 및 줌 모듈이 소프트웨어 형태로 되어 있어 타 응용 시스템에 적용하기 용이하고, 하드웨어 모듈로 전환이 가능하며, 체감게임에서 사용자 얼굴의 움직임으로 마우스나 키보드의 입력을 대신할 수 있는 모듈로써 응용 가능하다.Therefore, unlike the conventional static camera, since the object can be tracked while automatically changing the FOV of the camera, an efficient monitoring and storage space can be expected, and the automatic tracking and auto zooming function for multiple channels is limited. It is easy to control because it can be used on multiple PCs, and the intelligent tracking and zooming function is not only possible due to the automatic correction function of tracking and zoom failure, but also the tracking and zoom module is software type. It is easy to apply to the system, can be converted to a hardware module, and can be applied as a module that can replace the input of a mouse or keyboard by the movement of the user's face in the haptic game.

Claims (15)

영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법에 관한 것으로,The present invention relates to a multi-channel auto tracking and auto zoom method using image processing. 팬/틸트/줌 기능을 갖는 N대의 카메라로부터 입력된 영상신호를 N개로 분할된 단일 영상으로 합성하는 제 1단계;A first step of synthesizing the video signals input from the N cameras having the pan / tilt / zoom function into a single N divided image; 상기 제 1단계의 합성된 단일 영상으로부터 프레임 데이터를 취득하는 제 2단계;A second step of acquiring frame data from the synthesized single image of the first step; 상기 제 2단계의 프레임 데이터로부터 영상 변환하는 제 3단계;A third step of converting an image from the frame data of the second step; 상기 제 3단계의 영상 변환으로부터 ROI(Region Of Interest) 셋팅하는 제 4단계;A fourth step of setting a region of interest (ROI) from the image conversion of the third step; 상기 제 4단계의 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하는 제 5단계;A fifth step of determining Low / Hi threshold data from the motion ROI and the candidate center point obtained by the fourth ROI setting; 상기 제 5단계의 임계치 데이터로부터 중심점 및 면적을 구하는 제 6단계;A sixth step of obtaining a center point and an area from the threshold data of the fifth step; 상기 제 6단계의 중심점 및 면적으로부터 트랙킹과 줌 실패 여부를 결정하고 제어하는 제 7단계; 및A seventh step of determining and controlling tracking and zoom failure from the center point and the area of the sixth step; And 상기 제 7단계의 트랙킹과 줌 성공시 카메라를 제어하는 제 8단계를 포함하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.And an eighth step of controlling the camera upon successful tracking and zooming of the seventh step. 제 1항에 있어서,The method of claim 1, 상기 제 3단계를 구현하는데 있어 컬러 영상변환은 RGB 24비트 형태의 영상을 HSV 24비트 형태의 영상으로 변환하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.In the third step, color image conversion is a multi-channel auto tracking and auto zoom method using image processing, characterized in that for converting the image of the RGB 24-bit format to the HSV 24-bit image. 제 1항에 있어서,The method of claim 1, 상기 제 4단계를 구현하는데 있어 ROI의 셋팅은 자동으로 하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.The multi-channel automatic tracking and auto zooming method using image processing, characterized in that the setting of the ROI is automatic in implementing the fourth step. 제 3항에 있어서,The method of claim 3, wherein 상기 ROI를 자동으로 셋팅하기 위해 저주파 통과 영역 필터를 사용하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.A multi-channel auto tracking and auto zoom method using image processing, characterized by using a low pass region filter to automatically set the ROI. 제 3항에 있어서,The method of claim 3, wherein 상기 ROI를 자동으로 셋팅하기 위해 이미지 차감 방법을 사용하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.A multi-channel auto tracking and auto zoom method using image processing, characterized in that for using the image subtraction method to automatically set the ROI. 제 1항에 있어서,The method of claim 1, 상기 제 5단계를 구현하는데 있어 Low/Hi 임계치를 구하기 위해 Hue Histogram을 사용하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌Multi-channel auto tracking and auto zoom using image processing, characterized in that using the Hue Histogram to obtain the Low / Hi threshold in implementing the fifth step 방법.Way. 제 1항에 있어서,The method of claim 1, 상기 제 7단계를 구현하는데 있어 트랙킹의 실패 여부를 ROI의 크기에 의해 결정하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.The multi-channel automatic tracking and automatic zoom method using the image processing, characterized in that determining the failure of the tracking in the implementation of the seventh step by the size of the ROI. 제 7항에 있어서,The method of claim 7, wherein 상기 트랙킹의 실패 여부를 ROI의 가변적 크기에 의해 결정하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.The multi-channel automatic tracking and automatic zoom method using image processing, characterized in that determining whether the tracking fails by the variable size of the ROI. 제 1항에 있어서,The method of claim 1, 상기 제 7단계를 구현하는데 있어 줌 실패 여부를 ROI의 크기에 의해 결정하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.The multi-channel auto tracking and auto zoom method using the image processing, characterized in that determining the zoom failure in the implementation of the seventh step by the size of the ROI. 제 9항에 있어서,The method of claim 9, 상기 줌 실패 여부를 ROI의 가변적 크기에 의해 결정하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.The multi-channel auto tracking and auto zoom method using image processing, characterized in that determining whether the zoom failure by a variable size of the ROI. 제 10항에 있어서,The method of claim 10, 상기 ROI의 가변적 크기가 10×10픽셀 보다 작거나, 150×110픽셀 보다 큰지를 비교하여 이에 해당할 때 줌이 실패한 것으로 결정하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법.And comparing the variable size of the ROI with a size smaller than 10 × 10 pixels or larger than 150 × 110 pixels, and determining that the zoom has failed when the ROI is corresponding to the variable size. 움직이는 물체의 영상을 촬영할 수 있도록 N대의 팬/틸트/줌 기능의 카메라로 구성된 영상 수신부;An image receiving unit including N pan / tilt / zoom cameras for capturing an image of a moving object; 상기 N대의 팬/틸트/줌 기능의 카메라로부터 입력된 영상 신호를 N개의 분할된 단일영상으로 합성할 수 있도록 다채널 멀티플렉서로 구성된 영상 합성부;An image synthesizing unit comprising a multi-channel multiplexer for synthesizing image signals input from the N pan / tilt / zoom cameras into N divided single images; 상기 N개의 합성된 단일영상으로부터 프레임 데이터를 취득하고, 상기 프레임 데이터로부터 영상변환하고, 상기 영상변환으로부터 ROI 셋팅하고, 상기 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하고, 상기 임계치 데이터로부터 중심점 및 면적을 구하고, 상기 중심점 및 면적으로부터 트랙킹과 줌 실패 여부를 결정하고 제어할 수 있도록 제어용 PC로 구성된 영상 제어부; 및Obtain frame data from the N synthesized single images, image transform from the frame data, set ROI from the image transform, determine Low / Hi threshold data from the motion ROI and candidate center point obtained by the ROI setting, and And an image controller configured to obtain a center point and an area from the threshold data, and to determine and control tracking and zoom failure from the center point and area; And 상기 트랙킹과 줌 성공시 카메라를 제어할 수 있는 인터페이스 제어모듈로 구성된 영상 송신부Image transmission unit consisting of an interface control module for controlling the camera when the tracking and zooming success 로 이루어진 것을 특징으로 하는 PC 기반의 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 장치.Multi-channel auto tracking and auto zoom device using a PC-based image processing, characterized in that consisting of. 제 12항에 있어서,The method of claim 12, 상기 송신부의 인터페이스 제어모듈은 RS 485 또는 RS 422를 사용하는 것을특징으로 하는 PC기반의 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 장치.The interface control module of the transmitting unit is a multi-channel automatic tracking and automatic zoom device using a PC-based image processing, characterized in that using the RS 485 or RS 422. 움직이는 물체의 영상을 촬영할 수 있도록 N대의 팬/틸트/줌 기능의 카메라로 구성된 영상 수신부 및Image receiver consisting of N pan / tilt / zoom cameras to capture the image of the moving object and 상기 N대의 카메라로부터 입력된 영상 신호를 N개의 분할된 단일영상으로 합성하고, 상기 단일 영상으로부터 프레임 데이터를 취득하여 영상변환하며, 상기 변환된 영상으로부터 ROI 셋팅하고, 상기 ROI 셋팅에 의해 구한 움직임 ROI 및 후보 중심점으로부터 Low/Hi 임계치 데이터를 결정하며, 상기 임계치 데이터로부터 중심점 및 면적을 구하고, 상기 중심점 및 면적으로부터 트랙킹과 줌 실패 여부를 결정하고 제어하며, 상기 트랙킹과 줌 성공시 카메라를 제어하는 영상 처리부A video signal input from the N cameras is synthesized into N divided single images, image data is obtained by obtaining frame data from the single image, a ROI is set from the converted image, and a motion ROI obtained by the ROI setting. And determining a low / hi threshold data from a candidate center point, obtaining a center point and an area from the threshold data, determining and controlling tracking and zoom failure from the center point and area, and controlling a camera upon successful tracking and zooming. Processing 를 포함하는 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 카메라.Multi-channel auto tracking and auto zoom camera using an image processing comprising a. 제 14항에 있어서,The method of claim 14, 상기 영상 처리부는 영상처리용 DSP 및 OSD용 칩, ROM, RAM을 상기 카메라에 내장 시킨 것을 특징으로 하는 영상처리를 이용한 다채널 자동 트랙킹 및 자동 줌 카메라.And the image processor includes an image processing DSP, an OSD chip, a ROM, and a RAM in the camera.
KR10-2002-0066725A 2002-10-31 2002-10-31 Auto tracking and auto zooming method of multi channel by digital image processing KR100457302B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0066725A KR100457302B1 (en) 2002-10-31 2002-10-31 Auto tracking and auto zooming method of multi channel by digital image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0066725A KR100457302B1 (en) 2002-10-31 2002-10-31 Auto tracking and auto zooming method of multi channel by digital image processing

Publications (2)

Publication Number Publication Date
KR20040039080A KR20040039080A (en) 2004-05-10
KR100457302B1 true KR100457302B1 (en) 2004-11-16

Family

ID=37336931

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0066725A KR100457302B1 (en) 2002-10-31 2002-10-31 Auto tracking and auto zooming method of multi channel by digital image processing

Country Status (1)

Country Link
KR (1) KR100457302B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101257455B1 (en) 2008-04-21 2013-04-23 재단법인서울대학교산학협력재단 Mothed for tracking Surveillance object and Surveillance system thereof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5456022B2 (en) 2008-04-14 2014-03-26 ジーブイビービー ホールディングス エス.エイ.アール.エル. Technology that automatically tracks objects
WO2017094978A1 (en) * 2015-12-04 2017-06-08 심플렉스 인터넷 주식회사 Multiple camera-based image transmission method, device and system
KR101782582B1 (en) * 2015-12-04 2017-09-28 카페24 주식회사 Method, Apparatus and System for Transmitting Video Based on Eye Tracking
WO2017094979A1 (en) * 2015-12-04 2017-06-08 심플렉스 인터넷 주식회사 Eye-tracking-based image transmission method, device and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288732A (en) * 1994-12-27 1995-10-31 Canon Inc Camera with automatic tracking device
KR960039974A (en) * 1995-04-21 1996-11-25 이헌일 Subject tracking method using multiple surveillance cameras
JPH0918767A (en) * 1995-06-29 1997-01-17 Nec Corp Zooming device tracing object
JPH11331828A (en) * 1998-05-12 1999-11-30 Sharp Corp Automatic tracking device
JP2000101902A (en) * 1998-09-18 2000-04-07 Toshiba Corp Monitor camera controller
JP2000244800A (en) * 1999-02-22 2000-09-08 Victor Co Of Japan Ltd Image pickup device
JP2002247440A (en) * 2001-02-13 2002-08-30 Fuji Photo Optical Co Ltd Automatic tracking device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288732A (en) * 1994-12-27 1995-10-31 Canon Inc Camera with automatic tracking device
KR960039974A (en) * 1995-04-21 1996-11-25 이헌일 Subject tracking method using multiple surveillance cameras
JPH0918767A (en) * 1995-06-29 1997-01-17 Nec Corp Zooming device tracing object
JPH11331828A (en) * 1998-05-12 1999-11-30 Sharp Corp Automatic tracking device
JP2000101902A (en) * 1998-09-18 2000-04-07 Toshiba Corp Monitor camera controller
JP2000244800A (en) * 1999-02-22 2000-09-08 Victor Co Of Japan Ltd Image pickup device
JP2002247440A (en) * 2001-02-13 2002-08-30 Fuji Photo Optical Co Ltd Automatic tracking device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101257455B1 (en) 2008-04-21 2013-04-23 재단법인서울대학교산학협력재단 Mothed for tracking Surveillance object and Surveillance system thereof

Also Published As

Publication number Publication date
KR20040039080A (en) 2004-05-10

Similar Documents

Publication Publication Date Title
US7990422B2 (en) Automatically expanding the zoom capability of a wide-angle video camera
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
EP0932114B1 (en) A method of and apparatus for detecting a face-like region
JP2023526207A (en) Maintaining a constant size of the target object in the frame
US7304681B2 (en) Method and apparatus for continuous focus and exposure in a digital imaging device
US8139896B1 (en) Tracking moving objects accurately on a wide-angle video
US20050084179A1 (en) Method and apparatus for performing iris recognition from an image
US20130004023A1 (en) Image procesing system, image processing method, and computer program
JPH07168932A (en) Method for search of human being in video image
US20100202663A1 (en) System and method for adaptively defining a region of interest for motion analysis in digital video
US8922674B2 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras
US20070222858A1 (en) Monitoring system, monitoring method and program therefor
KR100676232B1 (en) Object tracking method, object tracking apparatus and computer-readable record medium with recorded object tracking program
US20040141633A1 (en) Intruding object detection device using background difference method
US20070024710A1 (en) Monitoring system, monitoring apparatus, monitoring method and program therefor
WO2010073619A1 (en) Image capture device
US8798369B2 (en) Apparatus and method for estimating the number of objects included in an image
KR100623835B1 (en) Object detecting method and apparatus
KR100457302B1 (en) Auto tracking and auto zooming method of multi channel by digital image processing
US6393056B1 (en) Compression of information from one detector as a function of information from another detector
JP4572190B2 (en) Object detection device
KR100536747B1 (en) The video storing system using a ptz camera and the method there of
KR20180017329A (en) Image Pickup Apparatus
KR100391266B1 (en) Method for background setup in object-based compression moving-image
US20020085738A1 (en) Controlling a processor-based system by detecting flesh colors

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070928

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee