KR20100103109A - Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera - Google Patents

Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera Download PDF

Info

Publication number
KR20100103109A
KR20100103109A KR1020090021545A KR20090021545A KR20100103109A KR 20100103109 A KR20100103109 A KR 20100103109A KR 1020090021545 A KR1020090021545 A KR 1020090021545A KR 20090021545 A KR20090021545 A KR 20090021545A KR 20100103109 A KR20100103109 A KR 20100103109A
Authority
KR
South Korea
Prior art keywords
image
tilt
pan
image frame
zoom camera
Prior art date
Application number
KR1020090021545A
Other languages
Korean (ko)
Other versions
KR101019384B1 (en
Inventor
고성제
김창수
김효각
김대환
Original Assignee
고려대학교 산학협력단
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단, 중앙대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020090021545A priority Critical patent/KR101019384B1/en
Publication of KR20100103109A publication Critical patent/KR20100103109A/en
Application granted granted Critical
Publication of KR101019384B1 publication Critical patent/KR101019384B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: An unmanned surveillance apparatus using an omni-directional camera and a pan/tilt/zoom camera and a method thereof are provided to assign each intrinsic identification code to object images to continuously photograph the same surveillance target object, thereby increasing performance of finding detailed information of an object. CONSTITUTION: The first image obtaining unit(110) obtains all image frames photographed by an omni-directional camera for the entire surveillance target area at a fixed time interval. An object extracting unit(120) extracts an object image from a current image frame based on differences among values of pixels configuring a previous image frame. The second image obtaining unit(130) obtains an object image frame photographed by a pan/tilt/zoom camera for a surveillance target object corresponding to the object image from the surveillance target area. A controller(140) controls rotation and zooming operations of a pan/tilt/zoom camera by tracking movement of the surveillance target object based on a location of the object image in the entire image frame.

Description

전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 장치 및 방법{Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera}Apparatus and method for unmanned surveillance using omni-directional camera and pan / tilt / zoom camera}

본 발명은 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 장치 및 방법에 관한 것으로, 보다 상세하게는, 무인 감시 영역에 진입하는 객체를 감지하고, 객체의 상세정보를 파악할 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an unmanned surveillance apparatus and method using an omnidirectional camera and a pan / tilt / zoom camera, and more particularly, to an apparatus and method capable of detecting an object entering an unmanned surveillance region and grasping detailed information of the object. It is about.

최근 비디오 분야에서 사용되는 자동 물체 인식 및 추적기술은 많은 분야에서 응용되고 있으며, 국내외에서 관련 기술의 개발이 크게 증가하고 있다. 가장 많이 사용되는 응용 분야는 비디오를 이용한 무인감시(unmanned surveillance) 시스템으로, 지하 주차장이나 은행의 자동화 창구, 넓은 공장 등에서 보안이나 범죄 예방의 필요성에 따라 사용된다. 무인감시 시스템은 감시 카메라의 영상을 입력받아 경비인력 없이 외부 침입자를 식별하고 이동 방향을 연속으로 계산하여 무단 침입자를 지속적으로 추적하는 시스템이다. 무인감시 시스템에서는 무단 침입자가 금지된 영역에 접근하는 경우, 자동으로 경보를 발행하는 등의 조치를 취하여 범죄를 예방할 수 있다.Recently, the automatic object recognition and tracking technology used in the video field is applied in many fields, the development of related technologies is increasing significantly at home and abroad. The most common application is an unmanned surveillance system using video, which is used for security or crime prevention in underground parking lots, bank automation counters, and large factories. The unmanned surveillance system receives an image of a surveillance camera to identify an external intruder without security personnel and continuously calculates the direction of movement to continuously track an intruder. In the unmanned surveillance system, when an unauthorized intruder approaches a forbidden area, a crime can be prevented by automatically taking an action such as issuing an alarm.

자동 비디오 녹화장치(video recorder)는 경비가 필요한 영역을 촬영한 영상을 기록하는 데 사용된다. 24시간동안 감시가 필요한 영역의 영상을 무조건 녹화하는 대신 무인감시 시스템이 무단 침입자를 자동으로 감시하고 추적할 수 있게 되면 경보가 발행되는 순간의 영상만을 기록함으로써 영상 저장을 위해 사용되는 메모리의 크기가 효과적으로 줄어들 수 있다.An automatic video recorder is used to record video footage of areas requiring security. Instead of unconditionally recording video in areas that need to be monitored for 24 hours, the unattended surveillance system can automatically monitor and track unauthorized intruders, recording only the video when the alarm is issued, thereby increasing the amount of memory used for video storage. Can be effectively reduced.

기존의 무인감시 시스템에서 사용되었던 전방위(omni-directional) 카메라는 넓은 영역을 하나의 카메라로 감시할 수 있다는 장점이 있으나, 무단침입이 발생한 경우에 객체의 상세한 정보를 알기 어렵다. 한편, 감지한 객체의 경로를 따라 회전이나 주밍(zooming) 등을 통해 객체의 자세한 모습을 촬영하는 팬/틸트/줌(pan/tilt/zoom : PTZ) 카메라는 실제 무단 침입자가 아닌 미끼 객체를 구별할 수 없다는 단점이 있다. 따라서 전방위 카메라와 PTZ 카메라의 장점만을 이용한 무인감시 시스템의 개발 필요성이 증대되고 있다.The omni-directional camera used in the existing unmanned surveillance system has the advantage of monitoring a large area with one camera, but it is difficult to know the detailed information of the object in case of unauthorized intrusion. Meanwhile, a pan / tilt / zoom (PTZ) camera that captures the detailed view of an object through rotation or zooming along the detected object path distinguishes the bait object, which is not an actual intruder. The disadvantage is that you can't. Therefore, the necessity of developing an unmanned surveillance system using only the advantages of omnidirectional camera and PTZ camera is increasing.

본 발명이 이루고자 하는 기술적 과제는, 감시대상 영역 전체를 촬영하여 감시대상 영역에 진입한 객체를 모두 감지함과 동시에 진입한 객체 각각의 상세정보를 얻을 수 있는 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 장치 및 방법을 제공하는 데 있다.The technical problem to be achieved by the present invention is to capture the entire area to be monitored to detect all the objects entered into the area to be monitored and at the same time to obtain a detailed information of each of the entered objects and the pan / tilt / zoom camera It is to provide an unmanned monitoring apparatus and method used.

본 발명이 이루고자 하는 다른 기술적 과제는, 감시대상 영역 전체를 촬영하여 감시대상 영역에 진입한 객체를 모두 감지함과 동시에 진입한 객체 각각의 상세정보를 얻을 수 있는 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be achieved by the present invention is to capture the entire area to be monitored to detect all the objects entering the monitoring area and at the same time to obtain the detailed information of each of the entered object and the pan / tilt / zoom camera The present invention provides a computer-readable recording medium that records a program for executing an unmanned surveillance method using a computer.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 장치는, 감시대상 영역 전체에 대해 전방위 카메라에 의하여 촬영된 복수의 전체영상프레임을 일정한 시간 간격으로 획득하는 제1영상획득부; 상기 복수의 전체영상프레임 중 현재 영상프레임을 구성하는 화소들과 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 상기 현재 영상프레임으로부터 객체영상을 추출하는 객체추출부; 상기 감시대상 영역 중에서 상기 객체영상에 대응하는 감시대상 객체에 대해 팬/틸트/줌 카메라에 의하여 촬영된 객체영상프레임을 획득하는 제2영상획득부; 및 상기 전체영상프레임 내에서 상기 객체영상의 위치를 기초로 상기 감시대상 객체의 움직임을 추적하여 상기 팬/틸트/줌 카메라의 회전 및 주밍(zooming) 동작을 제어하는 제어부;를 구비한다.In order to achieve the above technical problem, an unmanned surveillance apparatus using an omnidirectional camera and a pan / tilt / zoom camera according to the present invention includes a plurality of entire image frames photographed by an omnidirectional camera over an entire surveillance region. A first image acquisition unit obtained by obtaining; An object that extracts an object image from the current image frame based on a difference between pixel values of pixels of the entire image frame and pixels of the previous image frame temporally preceding the current image frame. Extraction unit; A second image acquisition unit for acquiring an object image frame photographed by a pan / tilt / zoom camera with respect to the object to be monitored corresponding to the object image in the area to be monitored; And a controller configured to control the rotation and zooming operation of the pan / tilt / zoom camera by tracking the movement of the object to be monitored based on the position of the object image within the entire image frame.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 방법은, 감시대상 영역 전체에 대해 전방위 카메라에 의하여 촬영된 복수의 전체영상프레임을 일정한 시간 간격으로 획득하는 제1영상획득단계; 상기 복수의 전체영상프레임 중 현재 영상프레임을 구성하는 화소들과 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 상기 현재 영상프레임으로부터 객체영상을 추출하는 객체추출단계; 상기 감시대상 영역 중에서 상기 객체영상에 대응하는 감시대상 객체에 대해 팬/틸트/줌 카메라에 의하여 촬영된 객체영상프레임을 획득하는 제2영상획득단계; 및 상기 전체영상프레임 내에서 상기 객체영상의 위치를 기초로 상기 감시대상 객체의 움직임을 추적하여 상기 팬/틸트/줌 카메라의 회전 및 주밍(zooming) 동작을 제어하는 제어단계;를 갖는다.In order to achieve the above technical problem, the unattended monitoring method using the omnidirectional camera and the pan / tilt / zoom camera according to the present invention, the entire image frame photographed by the omnidirectional camera over the entire area to be monitored for a predetermined time Obtaining a first image at intervals; An object that extracts an object image from the current image frame based on a difference between pixel values of pixels of the entire image frame and pixels of the previous image frame temporally preceding the current image frame. Extraction step; A second image acquisition step of acquiring an object image frame photographed by a pan / tilt / zoom camera with respect to the object to be monitored corresponding to the object image in the area to be monitored; And controlling a rotation and zooming operation of the pan / tilt / zoom camera by tracking the movement of the object to be monitored based on the position of the object image within the entire image frame.

본 발명에 따른 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 장치 및 방법에 의하면, 감시대상 영역 전체에 대해 전방위 카메라에 의하여 촬영된 전체영상프레임 및 감시대상 영역에 진입한 감시대상 객체에 대해 팬/틸트/줌 카메라에 의하여 촬영된 객체영상프레임을 모두 사용함으로써, 복수의 감시대상 객체가 존재하는 경우에도 이를 모두 감지할 수 있으며, 감시대상 객체의 상세정보도 얻을 수 있다. 또한 복수의 객체영상에 대해 각각 고유의 식별코드를 부여함으로써, 동일한 감시대상 객체를 지속적으로 촬영하여 객체의 상세정보 파악의 성능을 개선할 수 있다. 나아가 하나의 팬/틸트/줌 카메라에 의해 촬영될 복수의 감시대상 객체가 존재하는 경우에는 각각의 객체영상에 부여된 식별코드를 기초로 우선순위를 설정함으로써 모든 감시대상 객체를 촬영할 수 있다.According to the unattended monitoring apparatus and method using the omni-directional camera and the pan / tilt / zoom camera according to the present invention, for the entire image frame photographed by the omnidirectional camera and the monitored object entering the surveillance area. By using all of the object image frames photographed by the pan / tilt / zoom camera, even when a plurality of monitored objects exist, all of them can be detected, and detailed information of the monitored objects can be obtained. In addition, by assigning unique identification codes to the plurality of object images, it is possible to improve the performance of grasping the detailed information of the object by continuously photographing the same monitored object. Furthermore, when there are a plurality of monitored objects to be photographed by one pan / tilt / zoom camera, all the monitored objects can be photographed by setting priorities based on identification codes assigned to the respective object images.

이하에서 첨부된 도면을 참조하여 본 발명에 따른 전방위 카메라 및 팬/틸트/줌 카메라를 이용한 무인 감시 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the unattended monitoring device and method using an omnidirectional camera and a pan / tilt / zoom camera according to the present invention.

도 1은 본 발명에 따른 무인 감시 장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of the unmanned monitoring apparatus according to the present invention.

도 1을 참조하면, 본 발명에 따른 무인 감시 장치는, 제1영상획득부(110), 객체추출부(120), 제2영상획득부(130) 및 제어부(140)를 구비한다.Referring to FIG. 1, the unmanned monitoring apparatus according to the present invention includes a first image acquisition unit 110, an object extractor 120, a second image acquisition unit 130, and a controller 140.

제1영상획득부(110)는 감시대상 영역 전체에 대해 전방위 카메라에 의해 촬영된 복수의 전체영상프레임을 일정한 시간 간격으로 획득한다.The first image acquisition unit 110 acquires a plurality of all image frames photographed by the omnidirectional camera over the entire surveillance region at regular time intervals.

전방위 카메라는 사각지대 없이 주변의 객체를 360°에 걸쳐 하나의 영상프레임으로 촬영할 수 있는 카메라로서, 넓은 감시대상 영역을 동시에 관찰하기 위해 사용된다. 도 2는 전방위 카메라에 의해 촬영된 영상프레임의 일 예를 도시한 도면이다. 도 2를 참조하면, 전방위 카메라를 중심으로 한 주변 360°의 형상이 모두 영상프레임에 나타난 것을 볼 수 있다.The omni-directional camera is a camera that can take a picture of surrounding objects in a single video frame over 360 ° without a blind spot, and is used to simultaneously observe a large surveillance area. 2 is a diagram illustrating an example of an image frame photographed by the omnidirectional camera. Referring to FIG. 2, it can be seen that all the shapes of 360 ° around the omnidirectional camera appear in the image frame.

제1영상획득부(110)는 이러한 전방위 카메라에 의해 감시대상 영역에 대해 일정한 시간 간격으로 촬영된, 시간적으로 연속하는 복수의 전체영상프레임을 입력받는다. 전방위 카메라에 의해 촬영된 복수의 전체영상프레임으로부터 감시대상 영역에 진입한 객체를 감시하기 위한 기준영상으로서 감시대상 영역에 객체가 존재하지 않는 배경영상을 모델링(modeling)할 수 있다.The first image acquisition unit 110 receives a plurality of temporally continuous whole image frames photographed by the omnidirectional camera at regular time intervals with respect to the surveillance target area. As a reference image for monitoring an object entering the surveillance region from a plurality of whole image frames photographed by the omnidirectional camera, a background image without an object in the surveillance region may be modeled.

객체추출부(120)는 복수의 전체영상프레임 중 현재 영상프레임을 구성하는 화소들과 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 현재 영상프레임으로부터 객체영상을 추출한다.The object extractor 120 may generate an object image from the current image frame based on a difference between the pixels constituting the current image frame and the pixels constituting the previous image frame temporally preceding the current image frame. Extract

객체추출부(120)에 의해 객체영상을 추출하는 방법으로, 연속하는 이전 영상프레임 및 현재 영상프레임 간의 화소값의 변화만을 이용하는 방법이 있다. 객체가 존재하지 않았던 감시대상 영역에 객체의 진입이 발생하면 전방위 카메라에 의해 촬영되는 전체영상프레임에 변화가 발생하게 되며, 이는 전체영상프레임 상에서 감시대상 영역에 진입한 객체가 위치하는 영역에서의 화소값의 변화로 나타난다. 따라서 객체추출부(120)는 이전 영상프레임과 현재영상프레임을 구성하는 화소들의 화소값을 각각 비교하여 화소값에 변화가 발생한 영역을 객체영상으로 결정할 수 있다.As a method of extracting an object image by the object extractor 120, there is a method of using only a change of a pixel value between a continuous previous image frame and a current image frame. When an object enters a surveillance region where an object does not exist, a change occurs in the entire image frame photographed by the omnidirectional camera, which is a pixel in the region where the object entering the surveillance region on the entire image frame is located. It appears as a change in value. Therefore, the object extractor 120 may compare the pixel values of the pixels constituting the previous image frame and the current image frame, respectively, and determine the region where the change in the pixel value occurs as the object image.

객체영상을 추출하는 다른 방법으로, 복수의 이전 영상프레임을 이용하여 현재 영상프레임으로부터 객체영상을 추출하기 위한 기준을 설정할 수도 있다. 즉, 객체추출부(120)는 현재 영상프레임에 시간적으로 앞서는 복수의 이전 영상프레임을 기초로 객체영상을 추출하기 위한 배경영상을 생성하고, 배경영상을 구성하는 화소들과 현재 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 객체영상을 추출할 수 있다. 복수의 이전 영상프레임에 걸쳐 화소값이 변화하지 않는 영역은 객체가 존재하지 않는 배경으로 간주되므로, 객체추출부(120)는 이를 이용하여 배경영상을 생성한다. 배경영상과 현재 영상프레임 사이에서 화소값이 변화한 영역을 객체영상으로 결정하게 되면 이전 영상프레임과 현재 영상프레임을 비교하는 경우에 비하여 보다 정확하게 객체영상을 추출할 수 있다.As another method of extracting the object image, a criterion for extracting the object image from the current image frame may be set using a plurality of previous image frames. That is, the object extractor 120 generates a background image for extracting the object image based on a plurality of previous image frames that temporally precede the current image frame, and configures the current image frame and the pixels constituting the background image. An object image may be extracted based on a difference between pixel values of the pixels. The region where the pixel value does not change over a plurality of previous image frames is regarded as a background where no object exists, and the object extractor 120 generates a background image using the same. When the area of the pixel value changed between the background image and the current image frame is determined as the object image, the object image can be extracted more accurately than when comparing the previous image frame with the current image frame.

감시대상 영역에 나타난 객체가 하나가 아닌 복수 개인 경우에는 객체추출부(120)에 의해 복수의 객체영상이 추출된다. 도 3은 전체영상프레임으로부터 객체추출부(120)에 의해 추출된 복수의 객체영상의 일 예를 도시한 도면이다. 도 3에서 직사각형으로 표시된 영역은 복수의 객체영상을 나타낸다. 이러한 경우에 객체추출부(120)는 복수의 객체영상 각각에 대하여 고유의 식별코드를 부여하고, 현재 영상프레임에 시간적으로 연속되는 영상프레임에서도 해당 객체영상이 동일한 식별코드를 유지하도록 한다. 동일한 객체인지 여부는 연속하는 복수의 전체영상프레임으로부터 추출된 객체영상들이 거의 동일한 화소값을 유지하고 있는지를 확인함으로써 알 수 있다.When the object displayed in the surveillance region is not one but a plurality of objects, the plurality of object images are extracted by the object extractor 120. 3 is a diagram illustrating an example of a plurality of object images extracted by the object extractor 120 from an entire image frame. In FIG. 3, a rectangular area represents a plurality of object images. In this case, the object extractor 120 assigns a unique identification code to each of the plurality of object images, and allows the corresponding object image to maintain the same identification code even in a video frame that is temporally continuous to the current video frame. Whether the object is the same can be determined by checking whether the object images extracted from a plurality of consecutive whole image frames maintain substantially the same pixel value.

제2영상획득부(130)는 감시대상 영역 중에서 객체영상에 대응하는 감시대상 객체에 대해 팬/틸트/줌 카메라에 의해 촬영된 객체영상프레임을 획득한다.The second image acquisition unit 130 acquires the object image frame photographed by the pan / tilt / zoom camera for the object to be monitored corresponding to the object image in the area to be monitored.

전방위 카메라에 의해 얻어진 전체영상프레임으로부터 객체추출부(120)에 의해 객체영상이 추출되면 감시대상 영역에 진입한 객체가 존재함을 의미한다. 따라서 해당 객체의 상세한 정보를 파악할 필요가 있으며, 이를 위해 팬/틸트/ 줌(pan/tilt/zoom) 카메라가 사용된다. 팬/틸트/줌 카메라는 상하 및 좌우 방향으로의 회전 및 주밍(zooming)이 가능한 카메라로, 특정 객체의 움직임을 추적하여 연속적으로 촬영할 때 사용된다. 팬/틸트/줌 카메라는 전방위 카메라와 연동되며, 전방위 카메라에 의해 촬영된 전체영상프레임으로부터 객체추출부(120)가 객체영상을 추출하면 객체영상에 대응되는 감시대상 객체를 촬영한다.When the object image is extracted by the object extractor 120 from the entire image frame obtained by the omnidirectional camera, it means that there is an object entering the surveillance region. Therefore, it is necessary to grasp detailed information of the object, and a pan / tilt / zoom camera is used for this. The pan / tilt / zoom camera is a camera that can rotate and zoom in up, down, left and right directions, and is used to continuously track a specific object. The pan / tilt / zoom camera is interlocked with the omnidirectional camera. When the object extractor 120 extracts the object image from the entire image frame photographed by the omnidirectional camera, the pan / tilt / zoom camera captures a monitoring object corresponding to the object image.

도 4는 팬/틸트/줌 카메라에 의해 촬영된 객체영상프레임의 일 예를 도시한 도면이다. 도 4를 참조하면, 팬/틸트/줌 카메라는 도 3에 도시된 전체영상프레임으로부터 추출된 객체영상 중에서 하나의 객체영상에 나타난 감시대상 객체를 촬영한다. 이와 같이 팬/틸트/줌 카메라에 의해 촬영된 영상은 감시대상 객체의 상세한 정보를 포함하고 있으며, 제2영상획득부(130)는 팬/틸트/줌 카메라가 감시대상 객체를 촬영하여 얻어진 객체영상프레임을 입력받는다. 획득된 객체영상프레임은 일정시간 동안 저장되며, 촬영된 감시대상 객체를 식별하거나 감시대상 영역 내에서 객체의 움직임을 파악할 때 사용된다. 이때 팬/틸트/줌 카메라는 감시대상 객체가 존재하는 고정된 지점을 촬영하는 것이 아니고 감시대상 객체가 이동할 경우 그 이동경로를 따라 연속하여 감시대상 객체를 촬영하여야 한다. 이를 위해 본 발명에 따른 무인 감시 장치는 제어부(140)를 구비한다.4 is a diagram illustrating an example of an object image frame photographed by a pan / tilt / zoom camera. Referring to FIG. 4, the pan / tilt / zoom camera captures a monitoring object shown in one object image among the object images extracted from the entire image frame shown in FIG. 3. As such, the image captured by the pan / tilt / zoom camera includes detailed information of the object to be monitored, and the second image acquisition unit 130 is an object image obtained by photographing the object to be monitored by the pan / tilt / zoom camera. Take a frame. The acquired object image frame is stored for a certain time and is used to identify the photographed object to be monitored or to detect the movement of the object within the area to be monitored. At this time, the pan / tilt / zoom camera should not photograph the fixed point where the monitored object exists, but when the monitored object moves, it must continuously photograph the monitored object along the moving path. To this end, the unmanned monitoring device according to the present invention includes a control unit 140.

제어부(140)는 전체영상프레임 내에서 객체영상의 위치를 기초로 감시대상 객체의 움직임을 추적하여 팬/틸트/줌 카메라의 회전 및 주밍(zooming) 동작을 제어한다.The controller 140 controls the rotation and zooming operation of the pan / tilt / zoom camera by tracking the movement of the monitored object based on the position of the object image in the entire image frame.

앞에서 설명한 바와 같이 팬/틸트/줌 카메라는 객체추출부(120)에 의해 현재 영상프레임으로부터 추출된 객체영상에 대응하는 감시대상 객체를 촬영하며, 감시대상 객체가 이동하면 그 이동경로를 따라 감시대상 객체를 계속 추적하여 촬영하여야 한다. 이때 제어부(140)는 감시대상 객체의 움직임을 추적하여 팬/틸트/줌 카메라가 하나의 감시대상 객체를 지속적으로 촬영할 수 있도록 하는 기능을 수행한다. 감시대상 객체의 움직임 추적은 전체영상프레임 내에서 객체영상의 위치를 기초로 하여 수행된다. 즉, 제어부(140)는 감시대상 객체의 이동에 따라 팬/틸트/줌 카메라를 회전시키기 위해 객체추출부(120)에 의해 전체영상프레임으로부터 추출된 객체영상의 위치 및 감시대상 영역 내에서 팬/틸트/줌 카메라의 위치를 기초로 팬/틸트/줌 카메라의 회전 각도를 산출한다. 또한 감시대상 객체와 팬/틸트/줌 카메라 사이의 거리가 변화하면 그에 따라 팬/틸트/줌 카메라의 주밍 비율을 산출한다. 이때 감시대상 객체와 팬/틸트/줌 카메라 사이의 거리가 아닌 전체영상프레임 내에서 객체영상의 크기 변화에 따라 주밍 비율을 산출할 수도 있다.As described above, the pan / tilt / zoom camera captures a monitored object corresponding to the object image extracted from the current image frame by the object extractor 120, and when the monitored object moves, the monitored object is moved along the moving path. The object must be tracked and photographed continuously. At this time, the controller 140 tracks the movement of the monitored object and performs a function of allowing the pan / tilt / zoom camera to continuously photograph one monitored object. The motion tracking of the monitored object is performed based on the position of the object image within the entire image frame. That is, the controller 140 controls the pan / tilt / zoom camera according to the movement of the object to be monitored by the object extractor 120 to detect the position of the object image extracted from the entire image frame and the pan / tilt within the surveillance region. The rotation angle of the pan / tilt / zoom camera is calculated based on the position of the tilt / zoom camera. Also, when the distance between the monitored object and the pan / tilt / zoom camera changes, the zooming ratio of the pan / tilt / zoom camera is calculated accordingly. In this case, the zooming ratio may be calculated according to the size change of the object image within the entire image frame, not the distance between the monitored object and the pan / tilt / zoom camera.

팬/틸트/줌 카메라의 회전 동작은 상하 방향 및 좌우 방향으로 나누어진다. 따라서 제어부(140)는 상하 방향으로의 회전 각도 및 좌우 방향으로의 회전 각도를 모두 산출하여야 한다. 상하 방향 및 좌우 방향으로의 회전 각도는 감시대상 영역에 설치된 팬/틸트/줌 카메라의 설치 위치에 따라 달라진다. 예를 들면, 팬/틸트/줌 카메라가 감시대상 영역의 벽면에 설치되어 있는 경우에는 상하 방향으로의 회전은 주로 감시대상 객체의 높이에 따라 조절되고, 좌우 방향으로의 회전은 감시대상 객체의 이동에 따라 조절된다. 또한 팬/틸트/줌 카메라가 전방위 카메라와 마찬가지로 감시대상 영역의 천정 부분에 설치되는 경우에는 감시대상 객체의 이동 방 향에 따라 상하 방향 및 좌우 방향으로의 회전 각도가 결정된다. 팬/틸트/줌 카메라의 상하 및 좌우 방향으로의 회전과 주밍 동작은 하나 이상이 동시에 일어날 수 있다.The rotation operation of the pan / tilt / zoom camera is divided into up and down directions and left and right directions. Therefore, the controller 140 must calculate both the rotation angle in the vertical direction and the rotation angle in the left and right directions. The angle of rotation in the vertical direction and the left and right directions depends on the installation position of the pan / tilt / zoom camera installed in the area to be monitored. For example, when the pan / tilt / zoom camera is installed on the wall of the area to be monitored, the rotation in the vertical direction is mainly adjusted according to the height of the object to be monitored, and the rotation in the left and right directions is the movement of the object to be monitored. Is adjusted accordingly. In addition, when the pan / tilt / zoom camera is installed on the ceiling of the area to be monitored like the omnidirectional camera, the angle of rotation in the vertical direction and the horizontal direction is determined according to the moving direction of the monitored object. One or more rotation and zooming operations of the pan / tilt / zoom camera in the up, down, left and right directions may occur simultaneously.

감시대상 영역을 하나의 좌표공간으로 표현하여 감시대상 영역에 위치하는 전방위 카메라, 팬/틸트/줌 카메라 및 감시대상 객체를 좌표공간에서의 좌표정보로 표현할 수도 있다. 이러한 경우에 제어부(140)는 팬/틸트/줌 카메라 및 감시대상 객체의 좌표정보로부터 팬/틸트/줌 카메라의 회전 각도 및 주밍 비율을 산출할 수 있다.The surveillance object area may be represented by one coordinate space, and the omnidirectional camera, pan / tilt / zoom camera and the monitoring object positioned in the surveillance area may be represented by coordinate information in the coordinate space. In this case, the controller 140 may calculate the rotation angle and the zooming ratio of the pan / tilt / zoom camera from the coordinate information of the pan / tilt / zoom camera and the monitoring object.

객체추출부(120)에 의해 하나의 전체영상프레임으로부터 추출된 객체영상이 복수 개인 경우에는 팬/틸트/줌 카메라가 각각의 감시대상 객체를 촬영하여야 한다. 따라서 제2영상획득부(130)는 각각의 객체영상의 식별코드에 대응하여 객체영상의 수와 동일한 개수의 객체영상프레임을 획득하게 된다. 팬/틸트/줌 카메라가 복수인 경우에는 각각의 팬/틸트/줌 카메라가 하나의 감시대상 객체를 지속적으로 촬영하여 동시에 복수의 객체영상프레임을 획득하는 것이 가능하지만, 하나의 팬/틸트/줌 카메라에 의해 복수의 감시대상 객체를 촬영하기 위해서는 하나의 감시대상 객체만을 지속적으로 촬영하는 것이 불가능하다.When there are a plurality of object images extracted from one whole image frame by the object extractor 120, the pan / tilt / zoom camera should photograph each object to be monitored. Accordingly, the second image acquisition unit 130 acquires the same number of object image frames as the number of object images corresponding to the identification codes of the respective object images. If there are multiple pan / tilt / zoom cameras, it is possible for each pan / tilt / zoom camera to continuously capture one monitored object to acquire multiple object image frames at the same time. In order to photograph a plurality of monitored objects by the camera, it is impossible to continuously photograph only one monitored object.

따라서 제어부(140)는 각각의 객체영상에 부여된 식별코드를 기초로 우선순위를 설정하여 팬/틸트/줌 카메라가 객체영상에 대응하는 감시대상 객체를 순차적으로 촬영하도록 한다. 이때 감시대상 영역에 새롭게 나타난 감시대상 객체를 우선적으로 촬영하여 상세정보를 파악하는 것이 바람직하므로, 객체추출부(120)에 의해 추출된 객체영상에 부여된 식별코드가 이미 제2영상획득부에 의해 획득된 객체영상프레임에 해당하는 식별코드인 경우에는 팬/틸트/줌 카메라의 촬영대상에서 후순위로 설정될 수 있다. 동일한 감시대상 객체에 대한 객체영상에는 동일한 식별코드가 부여되기 때문이다.Therefore, the controller 140 sets the priority based on the identification code assigned to each object image so that the pan / tilt / zoom camera sequentially photographs the monitored object corresponding to the object image. In this case, since it is preferable to first capture the new object to be monitored in the area to be monitored to obtain detailed information, the identification code assigned to the object image extracted by the object extraction unit 120 is already received by the second image acquisition unit. In the case of the identification code corresponding to the acquired object image frame, the pan / tilt / zoom camera may be set to a lower priority in the shooting target. This is because the same identification code is assigned to the object image of the same monitored object.

또한 제1영상획득부 및 제2영상획득부에 의해 획득된 전체영상프레임 및 객체영상프레임들은 일정시간 동안 저장된 후 저장장치(미도시) 또는 메모리로부터 삭제되도록 할 수 있다. 객체영상을 추출하거나 감시대상 객체의 움직임 및 상세정보 등을 파악한 후 더 이상 사용되지 않는 전체영상프레임 및 객체영상프레임을 삭제하는 것이 메모리 공간 활용의 효율성 측면에서 바람직하기 때문이다.In addition, the entire image frame and the object image frame acquired by the first image acquisition unit and the second image acquisition unit may be stored for a predetermined time and then deleted from a storage device (not shown) or a memory. This is because it is preferable to delete the entire image frame and the object image frame that are no longer used after extracting the object image or grasping the motion and detailed information of the object to be monitored.

이와 같이 감시대상 영역에 대한 무인 감시에 있어서 전방위 카메라에 의해 촬영된 전체영상프레임 및 팬/틸트/줌 카메라에 의해 촬영된 객체영상프레임을 모두 사용함으로써, 감시대상 영역에 복수의 객체가 진입하는 경우에도 이를 모두 감지할 수 있으며, 각각의 객체에 대한 상세정보도 파악할 수 있다.As described above, when a plurality of objects enter the surveillance region by using both the entire image frame photographed by the omnidirectional camera and the object image frame photographed by the pan / tilt / zoom camera in the unattended surveillance of the surveillance region. All of them can be detected and detailed information about each object can be obtained.

도 5는 본 발명에 따른 무인 감시 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.5 is a flowchart illustrating a process of performing a preferred embodiment of the unattended monitoring method according to the present invention.

도 5를 참조하면, 제1영상획득부(110)는 감시대상 영역 전체에 대해 전방위 카메라에 의해 촬영된 복수의 전체영상프레임을 일정한 시간 간격으로 획득한다(S510). 다음으로 객체추출부(120)는 복수의 전체영상프레임 중 현재 영상프레임을 구성하는 화소들과 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 현재 영상프레임으로부터 객체영상을 추출 한다(S520). 이때 추출된 객체영상에는 고유의 식별코드가 부여되며, 동일한 객체영상에 대하여는 서로 다른 전체영상프레임에 위치하여도 동일한 식별코드가 부여된다.Referring to FIG. 5, the first image acquisition unit 110 acquires a plurality of all image frames photographed by the omnidirectional camera over the entire surveillance target area at regular time intervals (S510). Next, the object extractor 120 is configured to determine from the current image frame based on a difference between the pixels constituting the current image frame and the pixels constituting the previous image frame temporally preceding the current image frame. Extract the object image (S520). At this time, a unique identification code is assigned to the extracted object image, and the same identification code is assigned to the same object image even when located in different full image frames.

제2영상획득부(130)는 감시대상 영역 중에서 객체영상에 대응하는 감시대상 객체에 대해 팬/틸트/줌 카메라에 의하여 촬영된 객체영상프레임을 획득한다(S530). 제어부(140)는 전체영상프레임 내에서 객체영상의 위치를 기초로 감시대상 객체의 움직임을 추적하여 팬/틸트/줌 카메라의 회전 및 주밍 동작을 제어한다(S540). 이때 복수의 객체영상이 추출된 경우에는 객체영상에 부여된 식별코드에 따라 우선순위가 설정되어, 팬/틸트/줌 카메라는 설정된 우선순위에 따라 객체영상에 대응하는 감시대상 객체를 촬영한다. 또한 감시대상 객체가 이동하는 경우에는 그 이동경로를 따라 팬/틸트/줌 카메라의 회전각도 등이 산출되어 동일한 감시대상 객체를 지속적으로 촬영하여 객체의 상세정보를 얻을 수 있다.The second image acquisition unit 130 obtains an object image frame photographed by a pan / tilt / zoom camera with respect to the object to be monitored corresponding to the object image in the area to be monitored (S530). The controller 140 controls the rotation and zooming operation of the pan / tilt / zoom camera by tracking the movement of the monitored object based on the position of the object image in the entire image frame (S540). In this case, when a plurality of object images are extracted, priority is set according to an identification code assigned to the object image, and the pan / tilt / zoom camera captures a monitoring object corresponding to the object image according to the set priority. In addition, when the object to be monitored moves, the rotation angle of the pan / tilt / zoom camera is calculated along the moving path, and thus the same object to be monitored may be continuously photographed to obtain detailed information of the object.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific preferred embodiments described above, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

도 1은 본 발명에 따른 무인 감시 장치에 대한 바람직한 실시예의 구성을 도시한 블록도,1 is a block diagram showing the configuration of a preferred embodiment of the unmanned monitoring apparatus according to the present invention,

도 2는 전방위 카메라에 의해 촬영된 영상프레임의 일 예를 도시한 도면,2 is a diagram illustrating an example of an image frame photographed by an omnidirectional camera;

도 3은 전체영상프레임으로부터 객체추출부에 의해 추출된 복수의 객체영상의 일 예를 도시한 도면,3 is a diagram illustrating an example of a plurality of object images extracted by an object extracting unit from an entire image frame;

도 4는 팬/틸트/줌 카메라에 의해 촬영된 객체영상프레임의 일 예를 도시한 도면, 그리고,4 is a diagram illustrating an example of an object image frame photographed by a pan / tilt / zoom camera, and

도 5는 본 발명에 따른 무인 감시 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.5 is a flowchart illustrating a process of performing a preferred embodiment of the unattended monitoring method according to the present invention.

Claims (13)

감시대상 영역 전체에 대해 전방위 카메라에 의하여 촬영된 복수의 전체영상프레임을 일정한 시간 간격으로 획득하는 제1영상획득부;A first image acquisition unit for acquiring a plurality of all image frames photographed by the omnidirectional camera over the entire surveillance region at regular time intervals; 상기 복수의 전체영상프레임 중 현재 영상프레임을 구성하는 화소들과 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 상기 현재 영상프레임으로부터 객체영상을 추출하는 객체추출부;An object that extracts an object image from the current image frame based on a difference between pixel values of pixels of the entire image frame and pixels of the previous image frame temporally preceding the current image frame. Extraction unit; 상기 감시대상 영역 중에서 상기 객체영상에 대응하는 감시대상 객체에 대해 팬/틸트/줌 카메라에 의하여 촬영된 객체영상프레임을 획득하는 제2영상획득부; 및A second image acquisition unit for acquiring an object image frame photographed by a pan / tilt / zoom camera with respect to the object to be monitored corresponding to the object image in the area to be monitored; And 상기 전체영상프레임 내에서 상기 객체영상의 위치를 기초로 상기 감시대상 객체의 움직임을 추적하여 상기 팬/틸트/줌 카메라의 회전 및 주밍(zooming) 동작을 제어하는 제어부;를 포함하는 것을 특징으로 하는 무인 감시 장치.And a controller configured to control the rotation and zooming operation of the pan / tilt / zoom camera by tracking the movement of the object to be monitored based on the position of the object image in the whole image frame. Unmanned Surveillance Device. 제 1항에 있어서,The method of claim 1, 상기 객체추출부는 상기 현재 영상프레임으로부터 추출된 객체영상에 대해 고유의 식별코드를 부여하는 것을 특징으로 하는 무인 감시 장치.And the object extracting unit assigns a unique identification code to the object image extracted from the current image frame. 제 2항에 있어서,3. The method of claim 2, 상기 제어부는 복수의 객체영상에 대해 각각 부여된 식별코드를 기초로 상기 팬/틸트/줌 카메라에 의해 촬영되는 복수의 감시대상 객체에 대해 우선순위를 설정 하는 것을 특징으로 하는 무인 감시 장치.And the control unit sets priority to a plurality of monitored objects photographed by the pan / tilt / zoom camera based on identification codes assigned to a plurality of object images, respectively. 제 1항 내지 제 3항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 제어부는 상기 감시대상 영역 내에서의 상기 객체영상의 위치 및 상기 팬/틸트/줌 카메라의 위치를 기초로 상기 팬/틸트/줌 카메라의 회전 각도를 산출하는 것을 특징으로 하는 무인 감시 장치.And the control unit calculates a rotation angle of the pan / tilt / zoom camera based on the position of the object image and the position of the pan / tilt / zoom camera in the area to be monitored. 제 4항에 있어서,The method of claim 4, wherein 상기 제어부는 상기 전체영상프레임 내에서의 상기 객체영상의 크기 또는 상기 팬/틸트/줌 카메라의 설치위치와 상기 감시대상 영역 내에서의 상기 객체영상의 위치를 기초로 상기 팬/틸트/줌 카메라의 주밍 비율을 산출하는 것을 특징으로 하는 무인 감시 장치.The control unit controls the pan / tilt / zoom camera based on the size of the object image in the entire image frame or the installation position of the pan / tilt / zoom camera and the position of the object image in the surveillance region. Unattended monitoring device for calculating the zooming ratio. 제 1항 내지 제 3항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 객체추출부는 상기 현재 영상프레임에 시간적으로 앞서는 복수의 이전 영상프레임을 기초로 상기 객체영상을 추출하기 위한 배경영상을 생성하고, 상기 배경영상을 구성하는 화소들과 상기 현재 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 상기 객체영상을 추출하는 것을 특징으로 하는 무인 감시 장치.The object extracting unit generates a background image for extracting the object image based on a plurality of previous image frames that temporally precede the current image frame, and includes pixels constituting the background image and pixels constituting the current image frame. And extracting the object image based on the difference between pixel values. 감시대상 영역 전체에 대해 전방위 카메라에 의하여 촬영된 복수의 전체영상 프레임을 일정한 시간 간격으로 획득하는 제1영상획득단계;A first image acquisition step of acquiring a plurality of all image frames photographed by the omnidirectional camera over the entire surveillance region at regular time intervals; 상기 복수의 전체영상프레임 중 현재 영상프레임을 구성하는 화소들과 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 상기 현재 영상프레임으로부터 객체영상을 추출하는 객체추출단계;An object that extracts an object image from the current image frame based on a difference between pixel values of pixels of the entire image frame and pixels of the previous image frame temporally preceding the current image frame. Extraction step; 상기 감시대상 영역 중에서 상기 객체영상에 대응하는 감시대상 객체에 대해 팬/틸트/줌 카메라에 의하여 촬영된 객체영상프레임을 획득하는 제2영상획득단계; 및A second image acquisition step of acquiring an object image frame photographed by a pan / tilt / zoom camera with respect to the object to be monitored corresponding to the object image in the area to be monitored; And 상기 전체영상프레임 내에서 상기 객체영상의 위치를 기초로 상기 감시대상 객체의 움직임을 추적하여 상기 팬/틸트/줌 카메라의 회전 및 주밍(zooming) 동작을 제어하는 제어단계;를 포함하는 것을 특징으로 하는 무인 감시 방법.And controlling the rotation and zooming operation of the pan / tilt / zoom camera by tracking the movement of the object to be monitored based on the position of the object image within the entire image frame. Unmanned surveillance method. 제 7항에 있어서,The method of claim 7, wherein 상기 객체추출단계에서, 상기 현재 영상프레임으로부터 추출된 객체영상에 대해 고유의 식별코드를 부여하는 것을 특징으로 하는 무인 감시 방법.And in the object extraction step, assigning a unique identification code to the object image extracted from the current image frame. 제 8항에 있어서,The method of claim 8, 상기 제어단계에서, 복수의 객체영상에 대해 각각 부여된 식별코드를 기초로 상기 팬/틸트/줌 카메라에 의해 촬영되는 복수의 감시대상 객체에 대해 우선순위를 설정하는 것을 특징으로 하는 무인 감시 방법.And in the controlling step, setting priorities for a plurality of monitored objects photographed by the pan / tilt / zoom camera based on identification codes assigned to a plurality of object images, respectively. 제 7항 내지 제 9항 중 어느 한 항에 있어서,The method according to any one of claims 7 to 9, 상기 제어단계에서, 상기 감시대상 영역 내에서의 상기 객체영상의 위치 및 상기 팬/틸트/줌 카메라의 위치를 기초로 상기 팬/틸트/줌 카메라의 회전 각도를 산출하는 것을 특징으로 하는 무인 감시 방법.In the controlling step, the rotation angle of the pan / tilt / zoom camera is calculated based on the position of the object image and the position of the pan / tilt / zoom camera in the area to be monitored. . 제 10항에 있어서,The method of claim 10, 상기 제어단계에서, 상기 전체영상프레임 내에서의 상기 객체영상의 크기 또는 상기 팬/틸트/줌 카메라의 설치위치와 상기 감시대상 영역 내에서의 상기 객체영상의 위치를 기초로 상기 팬/틸트/줌 카메라의 주밍 비율을 산출하는 것을 특징으로 하는 무인 감시 방법.In the controlling step, the pan / tilt / zoom is based on the size of the object image in the entire image frame or the installation position of the pan / tilt / zoom camera and the position of the object image in the surveillance target area. Unattended monitoring method characterized by calculating the zooming ratio of the camera. 제 7항 내지 제 9항 중 어느 한 항에 있어서,The method according to any one of claims 7 to 9, 상기 객체추출단계에서, 상기 현재 영상프레임에 시간적으로 앞서는 복수의 이전 영상프레임을 기초로 상기 객체영상을 추출하기 위한 배경영상을 생성하고, 상기 배경영상을 구성하는 화소들과 상기 현재 영상프레임을 구성하는 화소들의 화소값의 차를 기초로 상기 객체영상을 추출하는 것을 특징으로 하는 무인 감시 방법.In the object extraction step, a background image for extracting the object image is generated based on a plurality of previous image frames that temporally precede the current image frame, and the pixels constituting the background image and the current image frame are configured. And extracting the object image based on a difference between pixel values of pixels. 제 7항 내지 제 9항 중 어느 한 항에 기재된 무인 감시 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the unattended monitoring method according to any one of claims 7 to 9.
KR1020090021545A 2009-03-13 2009-03-13 Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera KR101019384B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090021545A KR101019384B1 (en) 2009-03-13 2009-03-13 Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090021545A KR101019384B1 (en) 2009-03-13 2009-03-13 Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera

Publications (2)

Publication Number Publication Date
KR20100103109A true KR20100103109A (en) 2010-09-27
KR101019384B1 KR101019384B1 (en) 2011-03-07

Family

ID=43007937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090021545A KR101019384B1 (en) 2009-03-13 2009-03-13 Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera

Country Status (1)

Country Link
KR (1) KR101019384B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102505A2 (en) * 2011-01-28 2012-08-02 건아정보기술 주식회사 Camera system capable of omnidirectional and zoom photographing of object
KR101330247B1 (en) * 2012-06-04 2013-11-15 주식회사 영국전자 Method for tracking moving objects
KR101441105B1 (en) * 2012-12-07 2014-09-23 주식회사 에스원 Apparatus method for setting region of interest
KR101996907B1 (en) 2018-07-27 2019-07-08 비티에스 유한회사 Apparatus for tracking object
KR20190110369A (en) 2018-03-20 2019-09-30 이승은 Intelligent camera system for automatic tracking of specified subject and image capturing method using the same
KR102104088B1 (en) * 2019-11-25 2020-04-23 주식회사 시큐인포 Uwb-based location tracking and ai combined intelligent object tracking video monitoring system
KR20200048098A (en) * 2018-10-29 2020-05-08 서울과학기술대학교 산학협력단 Apparatus for tracking abnormal behavior object in video

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332820B1 (en) 2012-02-22 2013-11-27 주식회사 티앤이에스 System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof
KR102193984B1 (en) * 2019-05-31 2020-12-22 주식회사 아이디스 Monitoring System and Method for Controlling PTZ using Fisheye Camera thereof
KR102362695B1 (en) * 2020-07-30 2022-02-14 주식회사 영국전자 PTZ Camera Control Method for obtaining precise images in connection with Omnidirectional Panoramic Camera

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010016639A (en) * 2000-12-30 2001-03-05 정인수 Surveillance System using an Omni-directional Camera and Multiple Pan·Tilt·Zoom Cameras and Controlling Method therefore
JP4100934B2 (en) 2002-02-28 2008-06-11 シャープ株式会社 Composite camera system, zoom camera control method, and zoom camera control program
JP2004201231A (en) 2002-12-20 2004-07-15 Victor Co Of Japan Ltd Monitoring video camera system
KR100716306B1 (en) * 2006-11-14 2007-05-08 주식회사 지.피 코리아 System to monitoring forest fire

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102505A2 (en) * 2011-01-28 2012-08-02 건아정보기술 주식회사 Camera system capable of omnidirectional and zoom photographing of object
WO2012102505A3 (en) * 2011-01-28 2012-11-22 건아정보기술 주식회사 Camera system capable of omnidirectional and zoom photographing of object
KR101330247B1 (en) * 2012-06-04 2013-11-15 주식회사 영국전자 Method for tracking moving objects
KR101441105B1 (en) * 2012-12-07 2014-09-23 주식회사 에스원 Apparatus method for setting region of interest
KR20190110369A (en) 2018-03-20 2019-09-30 이승은 Intelligent camera system for automatic tracking of specified subject and image capturing method using the same
KR101996907B1 (en) 2018-07-27 2019-07-08 비티에스 유한회사 Apparatus for tracking object
KR20200048098A (en) * 2018-10-29 2020-05-08 서울과학기술대학교 산학협력단 Apparatus for tracking abnormal behavior object in video
KR102104088B1 (en) * 2019-11-25 2020-04-23 주식회사 시큐인포 Uwb-based location tracking and ai combined intelligent object tracking video monitoring system

Also Published As

Publication number Publication date
KR101019384B1 (en) 2011-03-07

Similar Documents

Publication Publication Date Title
KR101019384B1 (en) Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera
KR101425505B1 (en) The monitering method of Intelligent surveilance system by using object recognition technology
CN110222640B (en) Method, device and method for identifying suspect in monitoring site and storage medium
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
US9363487B2 (en) Scanning camera-based video surveillance system
EP2274654B1 (en) Method for controlling an alarm management system
JP6013923B2 (en) System and method for browsing and searching for video episodes
EP2779130A2 (en) GPS directed intrusion system with real-time data acquisition
US20190007630A1 (en) System and Method for Automated Camera Guard Tour Operation
CN105100596A (en) Camera system and method of tracking object using the same
KR101290782B1 (en) System and method for Multiple PTZ Camera Control Based on Intelligent Multi-Object Tracking Algorithm
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
KR102107957B1 (en) Cctv monitoring system for detecting the invasion in the exterior wall of building and method thereof
EP3432575A1 (en) Method for performing multi-camera automatic patrol control with aid of statistics data in a surveillance system, and associated apparatus
KR101832274B1 (en) System for crime prevention of intelligent type by video photographing and method for acting thereof
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
EP2812889B1 (en) Method and system for monitoring portal to detect entry and exit
JP2008182459A (en) Passage monitoring system
JP4985742B2 (en) Imaging system, method and program
KR100779858B1 (en) picture monitoring control system by object identification and the method thereof
US20120026292A1 (en) Monitor computer and method for monitoring a specified scene using the same
CN112243110B (en) Panoramic target track recording method
JP5361014B2 (en) Traffic monitoring system
KR101623331B1 (en) Detection and close up shooting method using images of moving objects
KR101623332B1 (en) Detection and close up shooting method using images of moving objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140120

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150108

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160404

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee