KR101071352B1 - Apparatus and method for tracking object based on PTZ camera using coordinate map - Google Patents
Apparatus and method for tracking object based on PTZ camera using coordinate map Download PDFInfo
- Publication number
- KR101071352B1 KR101071352B1 KR1020090081382A KR20090081382A KR101071352B1 KR 101071352 B1 KR101071352 B1 KR 101071352B1 KR 1020090081382 A KR1020090081382 A KR 1020090081382A KR 20090081382 A KR20090081382 A KR 20090081382A KR 101071352 B1 KR101071352 B1 KR 101071352B1
- Authority
- KR
- South Korea
- Prior art keywords
- image frame
- area
- pan tilt
- zoom camera
- tilt zoom
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법이 개시된다. 영역 설정부는 회전 가능한 팬틸트줌 카메라의 회전각도 및 주밍비율로 표현되는 좌표공간을 생성하고, 사용자에 의해 좌표공간에 설정되는 복수의 촬영지점을 서로 연결한 다각형 형상의 촬영영역 및 촬영영역 내부에서 사용자에 의해 설정된 감시영역을 나타내는 좌표정보를 저장한다. 객체 추출부는 팬틸트줌 카메라에 의해 생성된 일련의 영상 프레임 중에서 현재 영상 프레임과 현재 영상 프레임에 시간적으로 앞서는 이전 영상 프레임 사이의 차분을 기초로 현재 영상 프레임 상에서 감시영역에 위치하는 객체에 대응하는 영역인 객체영역을 추출한다. 카메라 제어부는 현재 영상 프레임의 중심으로부터 객체영역으로 향하는 움직임 벡터의 방향에 따라 팬틸트줌 카메라를 회전시킨다. 본 발명에 따르면, 팬틸트줌 카메라의 회전각도 및 주밍비율을 나타내는 좌표공간을 생성하고 촬영영역 및 감시영역을 사전에 설정함으로써, 좌표공간에서의 좌표정보만을 기초로 팬틸트줌 카메라를 회전시키게 되므로 팬틸트줌 카메라의 이동량 및 이동속도를 모두 설정하는 기존의 방법에 비해 오차를 줄일 수 있다.Disclosed are an apparatus and method for tracking an object based on a pan tilt zoom camera using a coordinate map. The area setting unit generates a coordinate space represented by the rotation angle and zooming ratio of the rotatable pan tilt zoom camera, and is configured to capture a plurality of shooting points set in the coordinate space by the user. Coordinate information indicating a surveillance area set by a user is stored. The object extracting unit is an area corresponding to an object located in the surveillance region on the current image frame based on the difference between the current image frame and the previous image frame temporally preceding the current image frame among a series of image frames generated by the pan tilt zoom camera. Extract the object area. The camera controller rotates the pan tilt zoom camera according to the direction of the motion vector toward the object region from the center of the current image frame. According to the present invention, by generating a coordinate space indicating the rotation angle and zooming ratio of the pan tilt zoom camera and setting the photographing area and the surveillance area in advance, the pan tilt zoom camera is rotated based only on the coordinate information in the coordinate space. Compared with the conventional method of setting both the pan tilt zoom camera movement amount and the moving speed, the error can be reduced.
팬틸트줌 카메라, 좌표맵, 객체 추적 Pan tilt zoom camera, coordinate map, object tracking
Description
본 발명은 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법에 관한 것으로, 보다 상세하게는, 회전 가능한 카메라의 촬영영역 내에서 이동하는 객체를 검출하고 추적하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for tracking an object based on a pan tilt zoom camera using a coordinate map, and more particularly, to an apparatus and method for detecting and tracking an object moving within a photographing area of a rotatable camera.
최근 감시 시스템 분야에서 비디오 해석 및 추적 기술로 감시 대상을 자동으로 인식하고 추적할 수 있는 제품 또는 시스템의 개발에 대한 중요성이 증대되고 있다. 비디오 해석 및 추적 기술은 연산 처리 기술(영상 개선, 영상 모델, 컬러 영상 처리, 움직임 해석, 비디오 영상 합성), 센서 제어 기술(CCD, PTZ, IR, 스테레오, 광각카메라 등의 조합과 출력 변환) 및 인터페이스 기술(센서와 컴퓨터 간의 통신 및 제어, 그래픽스)을 기반으로 한다.Recently, in the field of surveillance systems, the importance of developing products or systems capable of automatically recognizing and tracking surveillance targets through video analysis and tracking technology is increasing. Video interpretation and tracking techniques include computational processing techniques (image enhancement, image model, color image processing, motion analysis, video image synthesis), sensor control techniques (combination and output conversion of CCD, PTZ, IR, stereo, wide angle camera, etc.) and It is based on interface technology (communication and control between sensor and computer, graphics).
연산 처리 기술은 일반적으로 감시 대상을 목적으로 하여 수행된다. 즉, 연속된 영상 프레임에서 감시 대상의 객체 형태, 모양, 움직임 및 색상 정보 등을 기초로 객체를 정의, 추출, 모델화 및 추적한다. 감시 대상 구성요소 중에서 능동 형태 모델이나 능동 윤곽 모델은 객체의 형태, 모양 및 행동 분석으로 감시 대상을 추적하고 감시 대상의 움직임을 예측하여 추적하는 광류 기반 추적 및 영상 프레임을 복수의 블록으로 나누고 연속된 영상 프레임 내에서 블록간의 작은 오차를 찾는 블록 매칭 기반 추적에서 사용된다.Operational processing techniques are generally performed for the purpose of monitoring. That is, objects are defined, extracted, modeled, and tracked based on object type, shape, motion, and color information of the object to be monitored in successive video frames. Among the components to be monitored, the active shape model or the active contour model divides the optical flow based tracking and image frames into a plurality of blocks and tracks the monitored object by analyzing the shape, shape, and behavior of the object. It is used in block matching based tracking to find small error between blocks in an image frame.
센서 제어 기술에는 한 대의 카메라를 이용하는 방법 및 카메라의 시각적 범위의 한계를 극복하기 위해 다수의 카메라를 이용하는 방법이 있다. 이때 단일 카메라의 시각적 범위 한계를 해결하기 위해 팬틸트줌(pan-tilt-zoom : PTZ) 카메라를 사용하는 방법이 있다. PTZ 카메라를 사용하면 360도 전 방향에 대해 효과적이고 넓은 시각을 확보할 수 있으나 카메라의 움직임 특성으로 인해 영상 내의 배경과 객체를 구별하기 어렵다. 또한 인접한 영상을 이용하면 배경과 객체의 분리가 가능하지만 정지한 객체에 대해서는 검출 및 추적이 불가능하다. 이를 해결하기 위해 미리 배경을 정의하고 배경 차분 방법을 사용하거나 인접한 영상 사이에 배경을 안정화하여 객체를 분리하는 방법을 사용하기도 한다.Sensor control techniques include using one camera and using multiple cameras to overcome the limitations of the camera's visual range. In this case, there is a method using a pan-tilt-zoom (PTZ) camera to solve the visual range limitation of a single camera. When using a PTZ camera, it is possible to secure an effective and wide angle of view in all directions of 360 degrees, but due to the movement characteristics of the camera, it is difficult to distinguish an object from a background in an image. In addition, it is possible to separate objects from the background by using adjacent images, but it is impossible to detect and track still objects. To solve this problem, the background is defined in advance, and the background difference method is used, or the object is separated by stabilizing the background between adjacent images.
대부분의 PTZ 카메라 기반 객체 추적 시스템에서는 감시 대상이 영상 내에 존재하거나 영상의 관심 영역 내로 객체가 진입하는 경우에 따라 추적 방법이 달라진다. 즉, 카메라가 이동하고 있다는 가정 하에 영상에서 카메라의 움직임을 추정하여 배경을 안정화한 후 감시 대상을 추적하는 방법과 카메라가 정지하고 있을 때 진입한 객체를 추적하고 카메라를 이동시키는 방법으로 구분된다. 이때 첫 번째 방법에서는 카메라의 이동 속도에 따라 영상에 열화(blur) 현상이 발생하는 경우가 있으므로 열화 현상이 발생하지 않도록 하는 속도로 객체를 추적하게 된다. 또한 두 번째 방법에서는 카메라가 정지하고 있을 때 진입한 객체가 검출되면 카메라를 이동시켜 영상의 중심에 객체가 위치하도록 하며, 카메라가 이동하는 동안에는 객체를 추적하지 않는다.In most PTZ camera-based object tracking systems, the tracking method differs depending on whether the monitored object exists in the image or the object enters the region of interest of the image. That is, assuming that the camera is moving, it is divided into a method of estimating the movement of the camera in the image to stabilize the background and tracking a monitoring target, and a method of tracking an object and moving the camera when the camera is stopped. In the first method, since a blur may occur in an image according to the moving speed of the camera, the object is tracked at a speed that prevents the degradation. In the second method, when an object is detected while the camera is stopped, the camera is moved to position the object in the center of the image, and the object is not tracked while the camera is moving.
이러한 PTZ 카메라를 이용한 객체 추적 시스템에서 열화 현상이 발생하지 않도록 배경을 생성하고, 객체의 이동에 따라 정확하게 카메라를 이동시켜 객체가 관심영역 내에 위치하는 동안에만 안정적으로 객체를 추적할 수 있는 방법이 필요하다.In this object tracking system using PTZ camera, there is a need to create a background to prevent degradation, and to accurately track the object only while the object is located in the region of interest by moving the camera accurately according to the movement of the object. Do.
본 발명이 이루고자 하는 기술적 과제는, 팬틸트줌 카메라의 구동 제어에서 나타나는 오차를 최소화시키고 객체를 정확하게 추출하여 추적할 수 있는 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention has been made in an effort to provide an apparatus and method for tracking an object based on a pan tilt zoom camera using a coordinate map capable of minimizing errors in driving control of a pan tilt zoom camera and accurately extracting and tracking an object. have.
본 발명이 이루고자 하는 다른 기술적 과제는, 팬틸트줌 카메라의 구동 제어에서 나타나는 오차를 최소화시키고 객체를 정확하게 추출하여 추적할 수 있는 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be solved by the present invention is to minimize the error in the driving control of the pan tilt zoom camera and to execute the object tracking method based on the pan tilt zoom camera using a coordinate map that can accurately extract and track the object on the computer. The present invention provides a computer-readable recording medium having recorded thereon a program.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치는, 회전 가능한 팬틸트줌 카메라의 회전각도 및 주밍비율로 표현되는 좌표공간을 생성하고, 사용자에 의해 상기 좌표공간에 설정되는 복수의 촬영지점을 서로 연결한 다각형 형상의 촬영영역 및 상기 촬영영역 내부에서 상기 사용자에 의해 설정된 감시영역을 나타내는 좌표정보를 저장하는 영역 설정부; 상기 팬틸트줌 카메라에 의해 생성된 일련의 영상 프레임 중에서 현재 영상 프레임과 상기 현재 영상 프레임에 시간적으로 앞서는 이전 영상 프레임 사이의 차분을 기초로 상기 현재 영상 프레임 상에서 상기 감시영역에 위치하는 객체에 대응하는 영역인 객체영역을 추출하는 객체 추출부; 및 상기 현재 영상 프레임의 중심으로부터 상기 객체영역으로 향하는 움직임 벡터의 방향에 따라 상기 팬틸트줌 카메라를 회전시키는 카메라 제어부;를 구비한다.An object tracking apparatus based on a pan tilt zoom camera using a coordinate map according to the present invention for achieving the above technical problem, generates a coordinate space represented by the rotation angle and zooming ratio of the rotatable pan tilt zoom camera, A region setting unit for storing a polygonal photographing region in which a plurality of photographing points set in the coordinate space are connected to each other and coordinate information indicating a surveillance region set by the user in the photographing region; Based on the difference between the current image frame and the previous image frame temporally preceding the current image frame among the series of image frames generated by the pan tilt zoom camera, the object corresponding to the object located in the surveillance area on the current image frame. An object extracting unit which extracts an object area which is an area; And a camera controller configured to rotate the pan tilt zoom camera according to a direction of a motion vector from the center of the current image frame to the object region.
상기의 다른 기술적 과제를 달성하기 위한 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 방법은, 회전 가능한 팬틸트줌 카메라의 회전각도 및 주밍비율로 표현되는 좌표공간을 생성하고, 사용자에 의해 상기 좌표공간에 설정되는 복수의 촬영지점을 서로 연결한 다각형 형상의 촬영영역 및 상기 촬영영역 내부에서 상기 사용자에 의해 설정된 감시영역을 나타내는 좌표정보를 저장하는 영역 설정단계; 상기 팬틸트줌 카메라에 의해 생성된 일련의 영상 프레임 중에서 현재 영상 프레임과 상기 현재 영상 프레임에 시간적으로 앞서는 이전 영상 프레임 사이의 차분을 기초로 상기 현재 영상 프레임 상에서 상기 감시영역에 위치하는 객체에 대응하는 영역인 객체영역을 추출하는 객체 추출단계; 및 상기 현재 영상 프레임의 중심으로부터 상기 객체영역으로 향하는 움직임 벡터의 방향에 따라 상기 팬틸트줌 카메라를 회전시키는 카메라 제어단계;를 가진다.Object tracking method based on a pan tilt zoom camera using a coordinate map according to the present invention for achieving the above another technical problem, generates a coordinate space represented by the rotation angle and zooming ratio of the rotatable pan tilt zoom camera, An area setting step of storing a polygonal photographing area connecting the plurality of photographing points set in the coordinate space by each other and coordinate information indicating a surveillance area set by the user in the photographing area; Based on the difference between the current image frame and the previous image frame temporally preceding the current image frame among the series of image frames generated by the pan tilt zoom camera, the object corresponding to the object located in the surveillance area on the current image frame. An object extraction step of extracting an object area which is an area; And a camera control step of rotating the pan tilt zoom camera according to the direction of the motion vector from the center of the current image frame to the object region.
본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법에 의하면, 팬틸트줌 카메라의 회전각도 및 주밍비율을 나타내는 좌표공간을 생성하고 촬영영역 및 감시영역을 사전에 설정함으로써, 좌표공간에서의 좌표정보만을 기초로 팬틸트줌 카메라를 회전시키게 되므로 팬틸트줌 카메라의 이동량 및 이동속도를 모두 설정하는 기존의 방법에 비해 오차를 줄일 수 있다. 또한 객체영역을 추출할 때 복수의 이전 영상 프레임을 사용하여 복수의 후보영역으로부터 객체영역을 결정함으로써 객체영역을 명확하게 추출할 수 있다. 나아가 팬틸트줌 카 메라에 의해 생성된 영상 프레임에 대해 움직임 보정을 수행함으로써 팬틸트줌 카메라의 흔들림에 의해 발생하는 움직임을 제거하고 감시 대상인 객체영역만을 추출할 수 있다.According to an apparatus and method for tracking an object based on a pan tilt zoom camera using a coordinate map according to the present invention, by generating a coordinate space representing a rotation angle and zooming ratio of a pan tilt zoom camera, and setting a photographing area and a surveillance area in advance, Since the pan tilt zoom camera is rotated based only on the coordinate information in the coordinate space, the error can be reduced compared to the conventional method of setting both the movement amount and the speed of the pan tilt zoom camera. In addition, when the object region is extracted, the object region may be clearly extracted by determining the object region from the plurality of candidate regions using a plurality of previous image frames. Furthermore, by performing motion compensation on the image frame generated by the pan tilt zoom camera, the motion generated by the shake of the pan tilt zoom camera can be removed, and only the object region to be monitored can be extracted.
이하에서 첨부된 도면들을 참조하여 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, exemplary embodiments of an object tracking apparatus and method based on a pan tilt zoom camera using a coordinate map according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of an object tracking device based on a pan tilt zoom camera using a coordinate map according to the present invention.
도 1을 참조하면, 본 발명에 따른 객체 추적 장치(100)는 영역 설정부(110), 객체 추출부(120), 카메라 제어부(130), 지역 움직임 벡터 추정부(140), 프레임 움직임 벡터 결정부(150) 및 영상 안정화부(160)를 구비한다.Referring to FIG. 1, the
영역 설정부(110)는 회전 가능한 팬틸트줌 카메라(200)의 회전각도 및 주밍비율로 표현되는 좌표공간을 생성하고, 사용자에 의해 좌표공간 상에 설정되는 복수의 촬영지점을 서로 연결한 다각형 형상의 촬영영역 및 촬영영역 내부에서 사용자에 의해 설정된 감시영역을 나타내는 좌표정보를 저장한다.The
팬틸트줌 카메라(200)는 방향과 속도가 설정된 모터에 의해 구동되며 360°의 전 방향을 촬영할 수 있으므로 고정된 CCD 카메라에 비해 넓은 영역에서 객체를 추적할 수 있다. 종래에는 팬틸트줌 카메라(200)의 이동방향 및 이동량을 계산하여 모터를 제어함으로써 팬틸트줌 카메라(200)가 정해진 위치에 도달하도록 회전시키 는 방법을 사용하였다. 이와 같이 정해진 지점으로 팬틸트줌 카메라(200)를 이동시키는 방법은 모터 구동의 정확성에 영향을 받게 되며 정확하게 원하는 지점으로 이동시키기 어렵다.The pan
따라서 본 발명에서는 움직임 벡터의 산출을 통해 방향성의 설정만으로 팬틸트줌 카메라(200)를 회전시키는 방법을 사용한다. 이를 위해서는 팬틸트줌 카메라(200)가 촬영 가능한 영역 전체에 대하여 적용될 수 있는 절대좌표를 생성할 필요성이 있다.Therefore, the present invention uses a method of rotating the pan
도 2는 영역 설정부(110)에 의해 생성된 좌표공간의 일 예를 도시한 도면이다. 도 2를 참조하면, 영역 설정부(110)는 좌표공간을 생성하여 이를 사용자가 확인할 수 있도록 별도로 구비된 사용자 인터페이스를 통해 화면에 표시할 수 있다. 우측에 도시된 2차원 좌표맵(210)이 영역 설정부(110)에 의해 생성된 좌표공간으로, 팬틸트줌 카메라(200)가 좌우 방향으로 각각 180°, 상하 방향으로 각각 90°의 회전각도를 가짐을 나타낸다. 팬틸트줌 카메라(200)의 주밍비율까지 나타내기 위해서는 좌표공간을 3차원 좌표맵으로 표현하면 된다. 또한 좌측에는 팬틸트줌 카메라(200)의 각종 특성을 나타내는 수치들이 표시되어 있다. 이 중에서 'coordination'으로 표시된 부분(220)이 팬틸트줌 카메라(200)의 회전각도 및 주밍비율을 나타낸 것이며, 팬, 틸트, 줌이 모두 0이므로 팬틸트줌 카메라(200)는 현재 우측의 좌표맵(210)에서 원점(230)에 위치하고 있다는 것을 알 수 있다.2 is a diagram illustrating an example of a coordinate space generated by the
한편, 좌표맵(210) 내부에 표시된 다각형 형상(240)은 사용자에 의해 결정되는 팬틸트줌 카메라(200)의 촬영영역을 나타낸다. 도 2의 좌표맵(210)에 따른 팬틸 트줌 카메라(200)는 좌우 방향으로는 360°, 상하 방향으로는 180°의 회전각도를 가지지만 실질적으로 객체가 존재할 것이라고 생각되지 않는 영역까지 촬영할 필요는 없다. 따라서 촬영영역(240)은 팬틸트줌 카메라(200)가 실질적으로 촬영하는 영역을 지정하기 위해 결정되는 것이다. 이하에서는 팬틸트줌 카메라(200)의 촬영영역(240)이 결정되는 과정에 관하여 설명한다.Meanwhile, the
도 3은 팬틸트줌 카메라(200)의 촬영영역을 결정하는 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of determining a photographing area of the pan
도 3을 참조하면, 팬틸트줌 카메라(200)에 의해 촬영된 영상 프레임(310)이 팬틸트줌 카메라(200)의 움직임에 따라 실시간으로 화면에 표시된다. 사용자는 촬영된 영상 프레임(310)을 참고하여 촬영영역(240)을 결정할 수 있다. 사용자에게 제공되는 화면에는 모터제어버튼(320)도 함께 표시된다. 따라서 사용자는 모터제어버튼(320)을 클릭하여 팬틸트줌 카메라(200)를 상,하,좌,우로 회전시키거나 주밍 정도를 조절할 수 있다. Referring to FIG. 3, the
사용자의 제어에 의해 팬틸트줌 카메라(200)가 이동하면 현재 팬틸트줌 카메라(200)의 위치에서 촬영된 영상 프레임(310)이 실시간으로 화면에 표시되며, 현재 팬틸트줌 카메라(200)의 위치도 함께 표시된다(220). 사용자가 현재 팬틸트줌 카메라(200)의 위치를 촬영지점으로 결정하고자 하는 경우에는 이를 지시하는 버튼(330)을 클릭하면 해당 촬영지점의 좌표가 영역 설정부(110)에 저장됨과 동시에 화면에 표시되어(340) 사용자가 확인할 수 있도록 한다. 사용자가 모터제어버튼(320)에 의해 팬틸트줌 카메라(200)를 이동시켜 복수의 촬영지점을 지정하면, 영 역 설정부(110)는 복수의 촬영지점을 서로 연결하여 좌표공간(210) 상에 다각형 형상의 촬영영역(240)을 생성한다. 도 4는 사용자에 의해 설정된 다섯 개의 촬영지점으로부터 생성된 촬영영역(240)을 도시한 도면이다. 영역설정부(110)는 이와 같이 생성된 촬영영역(240)의 좌표정보, 즉 복수의 촬영지점의 좌표정보를 저장하여 팬틸트줌 카메라(200)가 설정된 촬영영역(240)만을 촬영하도록 한다.When the pan
또한 사용자는 팬틸트줌 카메라(200)의 촬영영역(240) 내에서 일정한 영역을 설정하여 객체 추적의 기준이 되는 감시영역을 설정할 수 있다. 팬틸트줌 카메라(200)는 일반적으로 사람이나 자동차 등의 움직이는 객체를 추적하기 위해 사용되는 것이다. 따라서 이러한 객체가 나타날 가능성이 적은 영역까지 객체 추적 대상으로 할 필요는 없다. 감시영역은 이와 같이 사용자가 객체가 존재할 가능성이 높은 영역만을 지정함으로써 설정된다.In addition, the user may set a certain area within the
도 5는 사용자에 의해 감시영역이 설정되는 일 예를 나타낸 도면이다. 도 5를 참조하면, 팬틸트줌 카메라(200)에 의해 촬영된 영상 프레임과 해당 시점에서 팬틸트줌 카메라(200)의 좌표정보(410)가 표시된다. 사용자는 마우스 컨트롤에 의해 영상 프레임 상에 직사각형 형태의 감시영역(400)을 설정할 수 있다. 도 5에서는 자동차가 주로 이동하는 영역이 감시영역(400)으로 설정되었음을 확인할 수 있다.5 is a diagram illustrating an example in which a surveillance region is set by a user. Referring to FIG. 5, an image frame photographed by the pan
한편, 감시영역(400)은 사용자에 의해 설정된 복수의 감시지점을 꼭지점으로 하는 복수의 삼각형으로 구성된 폴리곤 형태의 영역으로 설정될 수도 있다. 도 5를 참조하면, 직사각형의 감시영역(400)을 설정함으로써 자동차가 나타날 가능성이 없 는 화단 부분까지 불필요하게 감시영역(400)에 포함되어 객체 추적의 정확성이 저하될 수 있다. 따라서 이러한 문제점을 보완하기 위해 감시영역(400)을 폴리곤 형태로 설정하면 사용자가 원하는 영역만 감시영역(400)에 포함되도록 할 수 있다.Meanwhile, the
도 6a 내지 도 6c는 폴리곤 형태의 감시영역(400)을 도시한 도면이다. 도 6a를 참조하면, 8개의 꼭지점을 가지는 폴리곤 형태의 영역이 감시영역(400)이 된다. 이러한 폴리곤 형태는 도 6b에 도시된 바와 같이 복수의 삼각형을 포함하고 있다. 폴리곤의 내부에 포함된 삼각형들은 폴리곤과 꼭지점을 공유하도록 배치된다. 이러한 각각의 삼각형은 감시영역(400) 내에 존재하는 객체를 검출하기 위한 최소 단위가 된다.6A to 6C are diagrams illustrating a
세 꼭지점 {p1,p2,p3}에 의해 정의되는 삼각형에 대한 평면 법선 N0는 다음 수학식 1과 같이 표현된다.The plane normal N 0 for a triangle defined by three vertices {p 1 , p 2 , p 3 } is expressed by Equation 1 below.
다음으로 삼각형 내부의 한 점 P0에 대한 평면 법선 Ni는 다음의 수학식 2와 같이 표현된다.Next, the plane normal N i for a point P 0 inside the triangle is expressed by
수학식 2에서 ε은 한 점 p0가 폴리곤 내부에 존재하는지 여부를 나타내는 판별 기준이 된다. 폴리곤의 경계선을 중심으로 내부에서 ε은 양의 값을 가지며, 외부에서는 음의 값을 가진다. 본 발명에서는 ε의 값을 0.001로 설정하였다.In
도 6c는 위와 같은 수학식을 적용하여 얻어진 벡터를 도시한 도면이다. 이를 기준으로 하여 사용자가 감시지점을 설정할 때마다 삼각형을 연결하여 감시영역(400)을 설정할 수 있다.6C is a diagram illustrating a vector obtained by applying the above equation. Based on this, whenever a user sets a monitoring point, the
도 7a 내지 도 7c는 사용자에 의해 실제로 폴리곤 형태의 감시영역(400)이 생성되는 일 예를 나타낸 도면이다.7A to 7C are diagrams illustrating an example in which the
도 7a를 참조하면, 폴리곤의 최소 단위인 하나의 삼각형을 형성하기 위해서 사용자로부터 세 개의 감시지점을 입력받아야 한다. 사용자가 팬틸트줌 카메라(200)가 촬영한 영상 프레임 상에 세 개의 감시지점을 지정하면 영역 설정부(110)는 이들을 연결하여 삼각형의 감시영역(400)을 생성한다. 이후 사용자가 감시지점을 설정할 때마다 삼각형의 개수가 증가하면서 폴리곤 형태의 감시영역(400)이 생성된다.Referring to FIG. 7A, three monitoring points should be input from a user in order to form one triangle, which is a minimum unit of a polygon. When a user designates three monitoring points on an image frame captured by the pan
도 7b를 참조하면, 사용자가 도 7a에서 설정하였던 세 개의 감시지점 외에 하나의 감시지점을 추가로 설정하였다. 영역 설정부(110)는 도 7a에서 생성한 삼각형의 두 꼭지점과 추가적으로 설정된 하나의 감시지점을 서로 연결하면 삼각형이 되므로 두 개의 삼각형을 포함하는 폴리곤 형태의 감시영역(400)을 생성할 수 있다. 이러한 과정을 반복하면 도 7c와 같이 내부에 복수의 삼각형을 포함하는 폴리 곤 형태의 감시영역(400)이 완성된다. 영역 설정부(110)는 설정된 감시영역(400)에 관한 좌표정보를 저장하고, 이후 팬틸트줌 카메라(400)에 의해 감시영역(400) 내 존재하는 객체 추적 과정이 수행되도록 한다.Referring to FIG. 7B, a user additionally sets one monitoring point in addition to the three monitoring points set in FIG. 7A. Since the
도 8은 촬영영역(240) 내에서 복수의 감시영역(400)이 설정된 일 예를 도시한 도면이다. 도 8을 참조하면, 음영으로 표시된 다각형의 영역이 촬영영역(240)을 나타내며, 십자 형태로 표시된 두 개의 지점(810, 820)은 각각 감시영역1과 감시영역2를 설정할 때 팬틸트줌 카메라(200)의 좌표정보를 나타낸다. 팬틸트줌 카메라(200)가 810으로 표시된 지점에 위치할 때 촬영된 영상 프레임(830)으로부터 감시영역1이 설정되며, 팬틸트줌 카메라(200)가 820으로 표시된 지점에 위치할 때 촬영된 영상 프레임(840)으로부터 감시영역2가 설정된다. 이와 같이 복수의 감시영역(400)이 설정되면 넓은 촬영 범위를 가지는 팬틸트줌 카메라(200)의 특성을 충분히 활용하여 객체가 존재할 가능성이 높은 모든 영역에 대해 객체 추적을 수행할 수 있다.8 is a diagram illustrating an example in which a plurality of
객체 추출부(120)는 팬틸트줌 카메라(200)에 의해 생성된 일련의 영상 프레임 중에서 현재 영상 프레임과 현재 영상 프레임에 시간적으로 앞서는 복수의 이전 영상 프레임 사이의 차분을 기초로 현재 영상 프레임 상에서 감시영역(400)에 위치하는 객체에 대응하는 영역인 객체영역을 추출한다.The
팬틸트줌 카메라(200)는 설정된 촬영영역(240) 내에서 지속적으로 촬영을 수행하며, 그 결과 시간적으로 연속하는 복수의 영상 프레임이 생성된다. 이때 시간적으로 서로 인접한 두 개의 영상 프레임을 비교하면 움직이는 객체를 검출할 수 있다. 다만 회전 가능한 팬틸트줌 카메라(200)의 특성상 진동이 발생할 수 있고, 서로 인접한 영상 프레임의 동일한 위치의 화소값이 달라져 객체 검출에 있어서 오차가 발생할 수 있다. 따라서 팬틸트줌 카메라(200)에 의해 복수의 영상 프레임이 생성되면 영상 프레임에 포함된 팬틸트줌 카메라(200)의 흔들림을 보정하는 과정이 필요하다.The pan
지역 움직임 벡터 추정부(140)는 현재 영상 프레임에 설정된 제1하위영역에 속하는 화소 중에서 현재 영상 프레임에 시간적으로 앞서는 이전 영상 프레임의 제1하위영역과 동일한 위치에 설정된 제2하위영역에서 선택된 제2화소와의 화소값의 차가 최소인 제1화소를 검출하고, 제1화소로부터 제2화소로 향하는 움직임 벡터인 지역 움직임 벡터를 추정한다.The local
영상에 존재하는 흔들림을 보정하기 위해 일반적으로 사용되는 2차원 평면의 어파인 변환(affine transformation)에서는 연속하는 두 개의 영상 프레임에서 서로 다른 세 개 이상의 대응점을 필요로 한다. 그러나 이러한 대응점들은 영상 프레임에서 균일성을 유지하기 어렵고, 대응점이 잘못 지정될 경우에는 오히려 오차가 증폭될 수 있다. 따라서 본 발명에서는 영상 프레임 상에 복수의 부분 영역을 지정하고, 각각의 영역에 대해 추정된 움직임 벡터들을 기초로 프레임 전체의 움직임 벡터를 결정함으로써 흔들림을 보정하는 방법을 사용한다.Affine transformation of a two-dimensional plane, which is generally used to compensate for shaking in an image, requires three or more different corresponding points in two consecutive image frames. However, these correspondence points are difficult to maintain uniformity in the image frame, and the error may be amplified when the correspondence points are incorrectly specified. Accordingly, the present invention uses a method of correcting shake by designating a plurality of partial regions on an image frame and determining a motion vector of the entire frame based on motion vectors estimated for each region.
도 9는 현재 영상 프레임 상에서 지역 움직임 벡터의 추정을 위해 설정된 복수의 제1하위영역의 예를 나타낸 도면이다. 도 9를 참조하면, 현재 영상 프레임 상에 모두 5개의 제1하위영역이 설정되며, 각각의 제1하위영역은 이전 영상 프레임 상에서 제1하위영역과 동일한 위치에 설정된 복수의 제2하위영역과의 지역 움직임 벡터를 추정하기 위해 사용된다. 즉, 지역 움직임 벡터 추정부(140)는 제1하위영역을 구성하는 복수의 화소 중에서 선택된 제1화소와의 화소값의 차가 최소인 제2화소를 제2하위영역으로부터 검출하고, 제1화소로부터 제2화소로 향하는 지역 움직임 벡터를 추정한다. 도 9에 나타난 각각의 제1하위영역에는 지역 움직임 벡터가 표시되어 있다.9 is a diagram illustrating an example of a plurality of first subregions set for estimation of a local motion vector on a current image frame. Referring to FIG. 9, five first subregions are all set on the current image frame, and each first subregion corresponds to a plurality of second subregions set at the same position as the first subregion on the previous image frame. Used to estimate local motion vectors. That is, the local
다음으로 프레임 움직임 벡터 결정부(150)는 현재 영상 프레임에 설정된 복수의 제1하위영역에 대하여 각각 추정된 복수의 지역 움직임 벡터를 기초로 현재 영상 프레임에 대한 프레임 움직임 벡터를 결정한다. 프레임 움직임 벡터를 결정하는 방법으로는 여러 가지가 존재할 수 있다. 예를 들면, 복수의 지역 움직임 벡터의 평균을 프레임 움직임 벡터로 결정할 수도 있고, 사전에 설정되어 있는 복수의 견본 움직임 벡터 중에서 지역 움직임 벡터와의 유클리드 거리가 최소인 견본 움직임 벡터를 프레임 움직임 벡터로 결정할 수도 있다.Next, the frame
영상 안정화부(160)는 현재 영상 프레임을 구성하는 복수의 화소 각각에 대해 프레임 움직임 벡터를 적용하여 현재 영상 프레임에 포함된 팬틸트줌 카메라(200)의 흔들림을 보정한다. 현재 영상 프레임을 구성하는 모든 화소는 프레임 움직임 벡터에 의해 동일한 방향으로 동일한 거리만큼 이동하며, 이러한 과정에 의해 현재 영상 프레임과 이전 영상 프레임 사이에서 팬틸트줌 카메라(200)의 흔들림에 의해 발생한 움직임이 보정되어 객체를 정확히 추출할 수 있게 된다.The
객체 추출부(120)는 위와 같은 과정에 의해 움직임이 보정된 현재 영상 프레 임으로부터 관심영역(400)에 위치하는 객체에 대응하는 영역인 객체영역을 추출한다.The
감시영역(400) 내의 객체가 느린 속도로 움직이는 경우에는 인접한 두 개의 영상 프레임 사이에서 객체의 움직임이 거의 나타나지 않을 가능성이 있다. 따라서 객체 추출의 정확성을 향상시키기 위해 객체 추출부(120)는 현재 영상 프레임에 시간적으로 앞서는 복수의 이전 영상 프레임을 이용하여 현재 영상 프레임으로부터 객체영역을 추출한다. 즉 복수의 이전 영상 프레임 각각에 대하여 현재 영상 프레임을 구성하는 복수의 화소의 화소값과 이전 영상 프레임을 구성하는 복수의 화소의 화소값의 차분값으로 이루어진 복수의 후보영역 및 각각의 후보영역에 대한 차분값의 평균을 결정하고, 차분값의 평균이 최대인 후보영역을 객체영역으로 결정한다.When the object in the
예를 들면, 현재 영상 프레임으로부터 객체영역을 추출하기 위해 현재 영상 프레임에 시간적으로 앞서는 n개의 이전 영상 프레임을 이용한다고 가정한다. 객체 추출부(120)는 현재 영상 프레임과 n개의 이전 영상 프레임 각각에 대해 화소값의 차분값으로 이루어지는 n개의 차분 영상 프레임을 생성하며, 각각의 차분 영상 프레임으로부터 추출되는 n개의 후보영역이 얻어진다. 이 중에서 후보영역을 구성하는 차분값의 평균이 최대인 후보영역이 객체 추출부(120)에 의해 객체영역으로 결정된다. 이와 같이 복수의 이전 영상 프레임을 사용하면 객체의 움직임이 느린 경우에도 객체영역을 명확하게 추출할 수 있다. 감시영역(400)에 위치하는 객체가 복수 개인 경우에는 하나의 객체에 대한 영역만 객체영역으로 결정되며, 나머지 객체 에 대한 영역은 후보영역이 된다.For example, it is assumed that n previous image frames temporally preceding the current image frame are used to extract the object region from the current image frame. The
도 10은 현재 영상 프레임으로부터 추출된 객체영역을 나타낸 도면이다. 도 10에서 우측의 영상 프레임은 현재 영상 프레임과 이전 영상 프레임 사이의 차분을 나타내는 영상 프레임으로, 직사각형 형태의 감시영역(400)이 표시되어 있다. 좌측의 영상 프레임에 나타난 두 개의 객체 중에서 하나의 객체만 감시영역(400) 내에 위치하므로 감시영역(400)에 위치하는 객체에 대응하는 객체영역(500)이 추출된다.10 is a diagram illustrating an object region extracted from a current image frame. In FIG. 10, an image frame on the right is an image frame indicating a difference between a current image frame and a previous image frame, and a
카메라 제어부(130)는 현재 영상 프레임의 중심으로부터 객체영역(500)으로 향하는 움직임 벡터의 방향에 따라 팬틸트줌 카메라(200)를 회전시킨다.The
팬틸트줌 카메라(200)가 움직이는 객체를 놓치지 않고 계속 추적하기 위해서는 객체가 팬틸트줌 카메라(200)에 의해 촬영된 영상 프레임의 중심에 위치하도록 할 필요성이 있다. 따라서 카메라 제어부(130)는 현재 영상 프레임에서 객체영역이 추출되면 객체영역이 영상 프레임의 중심에 위치하도록 팬틸트줌 카메라(200)를 회전시키기 위한 움직임 벡터를 산출한다.In order for the pan
도 11은 팬틸트줌 카메라(200)의 이동 방향을 도시한 도면이다. 도 11을 참조하면, 팬틸트줌 카메라(200)는 상,하,좌,우 및 대각선 방향을 포함하는 8개의 방향으로 회전할 수 있다. 따라서 카메라 제어부(130)는 현재 영상 프레임의 중심으로부터 객체영역(500)으로 향하는 움직임 벡터를 산출하여 도 11에 도시된 8개의 방향 중에서 움직임 벡터의 방향과 가장 근접한 방향으로 팬틸트줌 카메라(200)를 회전시킬 수 있다. 도 11의 좌측 도면은 객체영역이 팬틸트줌 카메라(200)의 중심에 위치하는 예를 도시한 것으로서, 객체영역의 좌측 변의 중점과 현재 영상 프레 임의 중심이 일치하도록 한 것이다. 그러나 현재 영상 프레임의 중심으로부터 객체영역의 중심으로 향하는 움직임 벡터를 산출하여 팬틸트줌 카메라(200)를 회전시킬 수도 있다.11 is a diagram illustrating a moving direction of the pan
도 12는 카메라 제어부(130)에 의해 팬틸트줌 카메라(200)를 회전시켜 감시영역(400) 내의 객체를 추적하는 예를 도시한 도면이다.12 is a diagram illustrating an example of tracking an object in the
도 12에 도시된 한 쌍의 영상 중에서 위쪽의 영상은 팬틸트줌 카메라(200)의 촬영영역(240) 및 현재 팬틸트줌 카메라(200)의 위치를 나타낸 것이고, 아래쪽의 영상은 위쪽의 영상에 표시된 팬틸트줌 카메라(200)의 위치에서 촬영된 영상 프레임을 나타낸 것이다. 도 12의 좌측으로부터 순차적으로 살펴보면, 감시대상이 감시영역(400) 내부에 위치하지 않으므로 객체영역이 검출되지 않고, 감시대상이 이동하여 감시영역(400) 내부로 진입하면 객체 추출부(120)에 의해 객체영역이 추출되어 객체 추적 과정이 수행된다. 이때 카메라 제어부(130)는 객체영역이 현재 영상 프레임의 중심에 위치하도록 팬틸트줌 카메라(200)를 회전시키고, 객체 추출부(120)는 팬틸트줌 카메라(200)가 회전한 후 생성되는 영상 프레임으로부터 다시 객체영역을 추출한다.The upper image of the pair of images shown in FIG. 12 shows the positions of the capturing
도 12에서 A로 표시된 경로는 감시영역(400) 내부에 위치하던 객체가 현재 영상 프레임으로부터 사라진 경우를 나타낸 것이다. 이러한 경우에는 더 이상 객체영역을 추출할 수 없게 된다. 또한 B로 표시된 경로는 객체가 이동하여 팬틸트줌 카메라(200)의 촬영영역(240) 밖으로 벗어난 경우를 나타낸 것이다. 이때 현재 영상 프레임 상에서 객체영역은 추출되지만 팬틸트줌 카메라(200)를 회전시키면 촬영 영역(240)을 벗어나게 되므로 더 이상 객체 추적을 할 수 없다.A path indicated by A in FIG. 12 represents a case where an object located inside the
앞에서 설명한 A와 B의 경우 모두 객체 추적 과정이 종료되는 경우를 나타낸다. 이러한 경우에 카메라 제어부(130)는 팬틸트줌 카메라(200)를 좌표공간에서 사전에 설정된 초기지점의 좌표정보에 따라 회전시킨다. 초기지점은 사용자가 촬영영역(240)을 설정할 때 입력받은 최초 영상 프레임을 촬영하였을 때의 팬틸트줌 카메라(200)의 위치로 할 수 있다.In the case of A and B described above, the object tracking process is terminated. In this case, the
도 13은 본 발명을 팬틸트줌 카메라(200)에 적용하여 얻어진 객체 추적 결과를 나타낸 도면이다. 도 13의 (a)를 참조하면, 팬틸트줌 카메라(200)의 초기 위치로부터 영역 설정부(110)에 의해 좌표공간이 생성되고, 촬영영역 및 감시영역이 설정된다. 다음으로 도 13의 (b) 및 (c)는 감시영역 내에 객체가 존재하는 경우를 나타낸다. 도 13의 (b)에서는 감시영역 내에 두 개의 객체가 존재하며, 이 중에서 차분값의 평균이 큰 영역이 객체영역으로, 차분값의 평균이 작은 영역이 후보영역이다. 따라서 본 발명을 이용하면 감시영역 내의 복수의 객체가 서로 다른 방향으로 이동하는 경우에도 카메라 제어부(130)가 후보영역을 배제하고 객체영역을 기준으로 팬틸트줌 카메라(200)를 회전시키므로 객체 추적의 성능을 향상시킬 수 있다. 도 13의 (c)는 두 개의 객체 중에서 하나만 감시영역 내에 남아있는 경우를 나타낸 것으로, 이 경우에는 하나의 객체영역만 추출된다. 마지막으로 도 13의 (d)는 객체가 감시영역으로부터 벗어난 경우를 나타낸 것이다. 더 이상 객체영역이 추출되지 않으므로 카메라 제어부(130)는 팬틸트줌 카메라(200)를 초기지점으로 회전시킨다.13 is a diagram illustrating an object tracking result obtained by applying the present invention to the pan
도 14는 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.14 is a flowchart illustrating a preferred embodiment of a method for tracking an object based on a pan tilt zoom camera using a coordinate map according to the present invention.
도 14를 참조하면, 영역 설정부(110)는 회전 가능한 팬틸트줌 카메라(200)의 회전각도 및 주밍비율로 표현되는 좌표공간을 생성하고, 사용자에 의해 좌표공간에 설정되는 복수의 촬영지점을 서로 연결한 다각형 형상의 촬영영역(240) 및 촬영영역 내부에서 사용자에 의해 설정된 감시영역(400)을 나타내는 좌표정보를 저장한다(S1410). 다음으로 객체 추출부(120)는 팬틸트줌 카메라(200)에 의해 생성된 일련의 영상 프레임 중에서 현재 영상 프레임과 현재 영상 프레임에 시간적으로 앞서는 이전 영상 프레임 사이의 차분을 기초로 현재 영상 프레임 상에서 감시영역에 위치하는 객체에 대응하는 영역인 객체영역을 추출한다(S1420).Referring to FIG. 14, the
앞에서 설명한 바와 같이 팬틸트줌 카메라(200)에 의해 생성된 영상 프레임이 객체 추출부(120)로 입력되기 전에 지역 움직임 벡터 추정부(140), 프레임 움직임 벡터 결정부(150) 및 영상 안정화부(160)에 의해 현재 영상 프레임에 포함된 팬틸트줌 카메라(200)의 흔들림을 보정할 수 있다. 또한 객체 추출부(120)가 객체영역을 추출할 때 복수의 이전 영상 프레임을 사용하여 객체영역을 더 명확하게 추출할 수 있다.As described above, before the image frame generated by the pan
카메라 제어부(130)는 현재 영상 프레임의 중심으로부터 객체영역으로 향하는 움직임 벡터의 방향에 따라 팬틸트줌 카메라(200)를 회전시킨다(S1430). 따라서 팬틸트줌 카메라(200)가 방향성만을 가지고 움직이게 되어 객체 추적 시스템의 구성이 간단해지고 객체 추적이 용이하게 된다. 카메라 제어부(130)에 의해 팬틸트줌 카메라(200)가 회전된 후 생성된 영상 프레임으로부터 객체영역이 추출되 면(S1440), 카메라 제어부(130)는 해당 영상 프레임으로부터 추출된 객체영역을 기초로 다시 팬틸트줌 카메라(200)를 회전시키는 과정을 반복한다.The
이후의 영상 프레임에서 객체영역이 추출되지 않으면(S1440) 카메라 제어부(130)는 팬틸트줌 카메라(200)를 좌표공간에서 사전에 설정된 초기지점의 좌표정보에 따라 회전시킨다(S1450).If the object region is not extracted from the subsequent image frame (S1440), the
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific preferred embodiments described above, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.
도 1은 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 장치에 대한 바람직한 실시예의 구성을 도시한 블록도,1 is a block diagram showing the configuration of a preferred embodiment for a pan tilt zoom camera-based object tracking apparatus using a coordinate map according to the present invention;
도 2는 영역 설정부에 의해 생성된 좌표공간의 일 예를 도시한 도면,2 is a diagram illustrating an example of a coordinate space generated by an area setting unit;
도 3은 팬틸트줌 카메라의 촬영영역을 결정하는 방법을 설명하기 위한 도면,3 is a view for explaining a method of determining a photographing area of a pan tilt zoom camera;
도 4는 사용자에 의해 설정된 다섯 개의 촬영지점으로부터 생성된 촬영영역을 도시한 도면,4 is a view showing a photographing area generated from five photographing points set by a user;
도 5는 사용자에 의해 감시영역이 설정되는 일 예를 나타낸 도면,5 is a diagram illustrating an example in which a surveillance region is set by a user;
도 6a 내지 도 6c는 폴리곤 형태의 감시영역을 도시한 도면,6A to 6C illustrate a polygonal surveillance region;
도 7a 내지 도 7c는 사용자에 의해 실제로 폴리곤 형태의 감시영역이 생성되는 일 예를 나타낸 도면,7A to 7C are diagrams illustrating an example in which a surveillance area having a polygon shape is actually generated by a user;
도 8은 촬영영역 내에서 복수의 감시영역이 설정된 일 예를 도시한 도면,8 is a diagram illustrating an example in which a plurality of surveillance regions are set in a photographing region;
도 9는 현재 영상 프레임 상에서 지역 움직임 벡터의 추정을 위해 설정된 복수의 제1하위영역의 예를 나타낸 도면,9 illustrates an example of a plurality of first subregions configured for estimation of a local motion vector on a current image frame;
도 10은 현재 영상 프레임으로부터 추출된 객체영역을 나타낸 도면,10 is a view showing an object region extracted from a current image frame;
도 11은 팬틸트줌 카메라의 이동 방향을 도시한 도면,11 is a diagram illustrating a moving direction of a pan tilt zoom camera;
도 12는 카메라 제어부에 의해 팬틸트줌 카메라를 회전시켜 감시영역 내의 객체를 추적하는 예를 도시한 도면,12 illustrates an example of tracking an object in a surveillance area by rotating a pan tilt zoom camera by a camera controller;
도 13은 본 발명을 팬틸트줌 카메라에 적용하여 얻어진 객체 추적 결과를 나타낸 도면, 그리고,13 is a view showing an object tracking result obtained by applying the present invention to a pan tilt zoom camera, and
도 14는 본 발명에 따른 좌표맵을 이용한 팬틸트줌 카메라 기반의 객체 추적 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.14 is a flowchart illustrating a preferred embodiment of a method for tracking an object based on a pan tilt zoom camera using a coordinate map according to the present invention.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090081382A KR101071352B1 (en) | 2009-08-31 | 2009-08-31 | Apparatus and method for tracking object based on PTZ camera using coordinate map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090081382A KR101071352B1 (en) | 2009-08-31 | 2009-08-31 | Apparatus and method for tracking object based on PTZ camera using coordinate map |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110023472A KR20110023472A (en) | 2011-03-08 |
KR101071352B1 true KR101071352B1 (en) | 2011-10-07 |
Family
ID=43931586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090081382A KR101071352B1 (en) | 2009-08-31 | 2009-08-31 | Apparatus and method for tracking object based on PTZ camera using coordinate map |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101071352B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101438459B1 (en) * | 2014-06-10 | 2014-09-17 | 주식회사 이글루시큐리티 | A Method for Synchronizing Opticla Axis of 3D Map and Camera Image and Monitoring System Using the Same |
KR101553460B1 (en) | 2014-01-02 | 2015-09-30 | 공주대학교 산학협력단 | System and method for monitoring image based map |
KR101616785B1 (en) * | 2014-10-22 | 2016-04-29 | 한국과학기술연구원 | Apparatus for the detection of pedestrians waiting and method thereof |
US10248222B2 (en) | 2016-08-01 | 2019-04-02 | Samsung Electronics Co., Ltd. | Method for processing event signal and event-based sensor performing the same |
US10931863B2 (en) | 2018-09-13 | 2021-02-23 | Genetec Inc. | Camera control system and method of controlling a set of cameras |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101299237B1 (en) * | 2011-11-23 | 2013-08-22 | 서울대학교산학협력단 | Apparatus and method for detecting object using PTZ camera |
KR101400604B1 (en) * | 2012-05-30 | 2014-05-27 | 현대제철 주식회사 | Mover tracking system and a method using the same |
KR102029741B1 (en) * | 2012-06-12 | 2019-10-10 | 한국전자통신연구원 | Method and system of tracking object |
KR102046043B1 (en) * | 2013-08-21 | 2019-11-18 | 한화테크윈 주식회사 | Monitoring apparatus and system using 3 dimensional information of images, and method thereof |
KR101455237B1 (en) * | 2013-04-29 | 2014-11-07 | 주식회사 제이엠랩 | Apparatus for providing augmented reality comprising auto tracking ability and method thereof |
KR101586026B1 (en) * | 2014-07-11 | 2016-01-18 | 인하대학교 산학협력단 | device and method of calculating coverage of camera in video surveillance system |
KR101530255B1 (en) * | 2014-09-04 | 2015-06-24 | 주식회사 다이나맥스 | Cctv system having auto tracking function of moving target |
EP3276374A4 (en) | 2015-06-29 | 2018-03-28 | Yuneec Technology Co., Limited | Aircraft and obstacle avoidance method and system thereof |
CN106325305B (en) * | 2015-06-29 | 2020-03-20 | 优利科技有限公司 | Camera for ground positioning or navigation, aircraft and navigation method and system thereof |
KR102612988B1 (en) * | 2016-10-20 | 2023-12-12 | 삼성전자주식회사 | Display apparatus and image processing method thereof |
CN113489945A (en) * | 2020-12-18 | 2021-10-08 | 深圳市卫飞科技有限公司 | Target positioning method, device and system and computer readable storage medium |
CN114938429B (en) * | 2022-05-20 | 2023-10-24 | 重庆紫光华山智安科技有限公司 | Target tracking method, system, equipment and computer readable medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100719120B1 (en) * | 2005-02-26 | 2007-05-17 | 삼성전자주식회사 | Observation System to display mask area capable of masking privacy zone and method to display mask area |
KR100877747B1 (en) | 2006-10-18 | 2009-01-12 | 포스데이타 주식회사 | Digital Video Recorder and, apparatus and method for protectiong input image of the same |
KR100907423B1 (en) * | 2008-11-25 | 2009-07-10 | 주식회사 엘지씨엔에스 | A camera controlling system using coordinate map, a monitoring system using coordinate map and a controlling method thereof |
-
2009
- 2009-08-31 KR KR1020090081382A patent/KR101071352B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100719120B1 (en) * | 2005-02-26 | 2007-05-17 | 삼성전자주식회사 | Observation System to display mask area capable of masking privacy zone and method to display mask area |
KR100877747B1 (en) | 2006-10-18 | 2009-01-12 | 포스데이타 주식회사 | Digital Video Recorder and, apparatus and method for protectiong input image of the same |
KR100907423B1 (en) * | 2008-11-25 | 2009-07-10 | 주식회사 엘지씨엔에스 | A camera controlling system using coordinate map, a monitoring system using coordinate map and a controlling method thereof |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101553460B1 (en) | 2014-01-02 | 2015-09-30 | 공주대학교 산학협력단 | System and method for monitoring image based map |
KR101438459B1 (en) * | 2014-06-10 | 2014-09-17 | 주식회사 이글루시큐리티 | A Method for Synchronizing Opticla Axis of 3D Map and Camera Image and Monitoring System Using the Same |
KR101616785B1 (en) * | 2014-10-22 | 2016-04-29 | 한국과학기술연구원 | Apparatus for the detection of pedestrians waiting and method thereof |
US10248222B2 (en) | 2016-08-01 | 2019-04-02 | Samsung Electronics Co., Ltd. | Method for processing event signal and event-based sensor performing the same |
US10931863B2 (en) | 2018-09-13 | 2021-02-23 | Genetec Inc. | Camera control system and method of controlling a set of cameras |
Also Published As
Publication number | Publication date |
---|---|
KR20110023472A (en) | 2011-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101071352B1 (en) | Apparatus and method for tracking object based on PTZ camera using coordinate map | |
US8798387B2 (en) | Image processing device, image processing method, and program for image processing | |
CN110796010B (en) | Video image stabilizing method combining optical flow method and Kalman filtering | |
US10769798B2 (en) | Moving object detection apparatus, moving object detection method and program | |
KR102068719B1 (en) | Motion detection in images | |
JP5484184B2 (en) | Image processing apparatus, image processing method, and program | |
US20030090593A1 (en) | Video stabilizer | |
CN110008795B (en) | Image target tracking method and system and computer readable recording medium | |
US9838604B2 (en) | Method and system for stabilizing video frames | |
US20040141633A1 (en) | Intruding object detection device using background difference method | |
JP2008520117A (en) | Digital image acquisition system having means for determining camera motion blur function | |
US20130027775A1 (en) | Image stabilization | |
EP3629570A2 (en) | Image capturing apparatus and image recording method | |
KR101202642B1 (en) | Method and apparatus for estimating global motion using the background feature points | |
JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
JP7354767B2 (en) | Object tracking device and object tracking method | |
CN109978908B (en) | Single-target rapid tracking and positioning method suitable for large-scale deformation | |
JP2006259847A (en) | Automatic tracking device and automatic tracking method | |
JP5118590B2 (en) | Subject tracking method and imaging apparatus | |
Sincan et al. | Moving object detection by a mounted moving camera | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
Son et al. | Tiny drone tracking framework using multiple trackers and Kalman-based predictor | |
JP5247419B2 (en) | Imaging apparatus and subject tracking method | |
KR102629213B1 (en) | Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery | |
KR101070448B1 (en) | The method for tracking object and the apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150923 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160907 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170901 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20180918 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190926 Year of fee payment: 9 |