KR101077967B1 - Apparatus and method for surveillance and tracking - Google Patents

Apparatus and method for surveillance and tracking Download PDF

Info

Publication number
KR101077967B1
KR101077967B1 KR1020100011956A KR20100011956A KR101077967B1 KR 101077967 B1 KR101077967 B1 KR 101077967B1 KR 1020100011956 A KR1020100011956 A KR 1020100011956A KR 20100011956 A KR20100011956 A KR 20100011956A KR 101077967 B1 KR101077967 B1 KR 101077967B1
Authority
KR
South Korea
Prior art keywords
mobile robot
moving object
tracking
image frame
surveillance
Prior art date
Application number
KR1020100011956A
Other languages
Korean (ko)
Other versions
KR20110092502A (en
Inventor
심귀보
한철훈
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020100011956A priority Critical patent/KR101077967B1/en
Publication of KR20110092502A publication Critical patent/KR20110092502A/en
Application granted granted Critical
Publication of KR101077967B1 publication Critical patent/KR101077967B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves

Abstract

이동식 감시 및 추적 장치 및 방법이 개시된다. 위치 추정부는 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 감시영역 내에서의 이동에 따라 변화하는 이동로봇의 현재 위치를 실시간으로 추정한다. 촬상부는 현재 위치에서 사전에 설정된 촬영영역을 촬영하여 제1영상프레임을 생성한다. 영상 입력부는 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 네트워크를 통해 순차적으로 입력받는다. 객체위치 결정부는 제1영상프레임 및 제2영상프레임에 포함된 이동객체를 검출하여 객체 추적 필터에 의해 이동객체의 움직임을 추적하고, 제2영상프레임으로부터 이동객체가 검출된 경우에는 이동객체가 마지막으로 검출된 제2영상프레임에서 이동객체의 위치정보를 기초로 이동객체의 예상위치를 결정한다. 경로 생성부는 현재 위치로부터 상기 이동객체의 예상위치까지의 추적경로를 결정한다. 구동부는 결정된 추적경로를 따라 예상위치까지 이동로봇을 이동시키고, 제1영상프레임으로부터 검출되는 이동객체의 움직임에 따라 이동로봇을 이동시키는 제어명령을 출력한다. 본 발명에 따르면, 감시영역이 넓고 장애물이 많은 경우에도 다수의 고정식 카메라를 사용하여 무인감시를 수행하는 경우에 비해 적은 수의 카메라로 사각지대 없이 효율적으로 침입 탐지를 할 수 있다.Mobile monitoring and tracking devices and methods are disclosed. The position estimator estimates in real time the current position of the mobile robot that changes in accordance with the movement in the surveillance region by wireless communication with a plurality of beacons located in the surveillance region. The imaging unit photographs a preset photographing area at the current location to generate a first image frame. The image input unit sequentially receives a plurality of second image frames photographed by a fixed camera installed in the surveillance area through a network. The object position determiner detects the moving objects included in the first image frame and the second image frame and tracks the movement of the moving object by the object tracking filter. When the moving object is detected from the second image frame, the moving object is the last. The estimated position of the moving object is determined based on the position information of the moving object in the detected second image frame. The path generation unit determines a tracking path from the current position to the expected position of the moving object. The driving unit moves the mobile robot to the expected position along the determined tracking path, and outputs a control command for moving the mobile robot according to the movement of the moving object detected from the first image frame. According to the present invention, even when the surveillance area is large and there are many obstacles, intrusion detection can be efficiently performed without using blind spots with fewer cameras than when performing unmanned surveillance using a plurality of stationary cameras.

Description

이동식 감시 및 추적 장치 및 방법{Apparatus and method for surveillance and tracking}Mobile Apparatus and Method for Surveillance and Tracking

본 발명은 이동식 감시 및 추적 장치 및 방법에 관한 것으로, 보다 상세하게는, 이동로봇이 자신의 위치를 인식하고 주변영역의 지도를 작성하여 감시영역에 나타난 객체를 추적할 수 있도록 하는 장치 및 방법에 관한 것이다.The present invention relates to a mobile monitoring and tracking device and method, and more particularly, to a device and method for allowing a mobile robot to recognize its location and to map the surrounding area to track the objects appearing in the surveillance area It is about.

각종 범죄 및 사고 발생의 증가에 따라 공공시설, 기업 및 가정 등에서 보안의 중요성이 커지고 있다. 이에 따라 효과적인 보안 시스템의 구축이 요구되며, 현재 대부분의 보안 업체는 인체 감지 센서(PIR)나 마그네틱 센서를 이용하여 침입을 탐지하고, 데이터를 PSTN(Public Switch Telephone Network)망을 통하여 서버에 전송하고 있다. 이러한 시스템은 사용자의 부주의나 센서의 오동작에 취약할 뿐 아니라 침입자에 대한 정보를 가지고 있지 않기 때문에 보안 시스템으로서 취약점을 가지고 있다. 또한 현재 무인경비 시스템이나 CCTV 감시 카메라와 같은 보안 시스템은 사람의 집중력과 판단에 의존하고 있기 때문에 관리 소홀로 인한 침입탐지 실패와 같은 문제에 노출되어 있다.As the number of crimes and accidents increases, the importance of security is increasing in public facilities, businesses and homes. As a result, an effective security system needs to be established. Currently, most security companies detect an intrusion using a human body sensor (PIR) or a magnetic sensor, and transmit data to a server through a public switch telephone network (PSTN) network. have. Such a system is not only vulnerable to user's negligence or malfunction of the sensor, but also has a vulnerability as a security system because it does not have information about an intruder. In addition, security systems such as unmanned security systems and CCTV surveillance cameras are exposed to problems such as intrusion detection failure due to negligence in management because they rely on human concentration and judgment.

멀티미디어 무인감시 시스템은 기존의 CCTV에 비교해볼 때 사람의 수작업에 의한 모니터링에 비해 손색이 없는 방식으로, 추적과 동시에 고화질의 영상을 필요한 시점에만 기록할 수 있다는 점에서 기록매체의 효율적인 사용 및 관리가 가능하다는 장점을 가지며, 수작업에 의한 모니터링 요원의 오류 및 근무태만의 방지, 나아가 노동력 절감을 가능하게 한다는 장점이 있다.Compared to conventional CCTV, the multimedia unmanned surveillance system is inferior to manual monitoring by humans, and it is possible to efficiently use and manage the recording media in that it can record high quality images only at the same time as tracking. It has the advantage of being possible, and it has the advantage of enabling the prevention of errors and negligence of monitoring personnel by manual labor and further reducing labor.

특히, 네트워크 카메라와 이동로봇을 이용한 지능형 감시 시스템은 자율 이동 로봇의 이동성을 이용하여 카메라가 설치되지 않은 장소뿐 아니라 카메라의 사각지대에서도 유효한 영상을 얻을 수 있다. 또한 적은 수의 카메라를 이용하여 넓은 지역을 감시할 수 있기 때문에 시스템의 신뢰성과 경제성을 겸비한 효과적인 시스템이다.In particular, an intelligent surveillance system using a network camera and a mobile robot can obtain a valid image not only in the place where the camera is not installed but also in the blind spot of the camera by using the mobility of the autonomous mobile robot. In addition, since a large number of cameras can be used to monitor a large area, it is an effective system that combines the reliability and economy of the system.

이러한 지능형 감시 시스템을 효과적으로 구현하기 위해서는 이동로봇이 위치를 인식하고 장애물을 감지하여 목적지를 향해 이동할 수 있도록 하여야 한다. 이동로봇이 주변 환경에 대한 아무런 정보 없이 자신의 위치를 인식하고 환경에 대한 정보를 형성하기 위해서는 위치인식(localization)과 지도작성(mapping) 과정이 동시에 유기적으로 수행되어야 한다. 이를 이동로봇의 동시 위치인식 및 지도작성(Simulaneous Localization And Mapping : SLAM)이라 한다.In order to effectively implement such an intelligent monitoring system, a mobile robot must recognize a location, detect an obstacle, and move to a destination. In order for the mobile robot to recognize its location and form information about the environment without any information about the surrounding environment, localization and mapping processes must be performed at the same time. This is called Simulaneous Localization And Mapping (SLAM).

현재 대부분의 SLAM 알고리즘은 레이저 센서 또는 초음파 센서와 같은 거리 측정 센서를 기반으로 구현되어 왔다. 레이저 센서를 사용하는 경우에는 주변 환경에 대해 비교적 정확한 위치정보를 얻을 수 있어 좋은 성능을 보여주는 반면, 고가의 장비라는 특성상 실용화에 어려움이 있다. 그러나 초음파 센서를 사용하는 경우에는 가격 측면에서는 이점이 있지만 부정확한 거리정보 처리를 위한 후처리과정이 요구된다.Currently, most SLAM algorithms have been implemented based on distance sensors such as laser sensors or ultrasonic sensors. In the case of using a laser sensor, relatively accurate positional information about the surrounding environment can be obtained, which shows good performance, but it is difficult to be practical due to the expensive equipment. However, in the case of using an ultrasonic sensor, although there is an advantage in terms of price, a post-processing process for processing inaccurate distance information is required.

이러한 이유로 최근에는 비전 센서를 이용하여 이동로봇의 SLAM 알고리즘을 구현하는 연구가 진행되고 있는데, 영상에서 추출한 시각 특징점의 반복성과 신뢰성이 낮은 경우에는 SLAM 알고리즘의 강인성을 저하시키며, 계산량이 많아 알고리즘의 효율성을 저하시키는 문제가 있다.For this reason, recently, studies on implementing a SLAM algorithm of a mobile robot using a vision sensor have been conducted. When the repeatability and reliability of visual feature points extracted from images are low, the robustness of the SLAM algorithm is reduced, and the computational efficiency is large. There is a problem of lowering.

이러한 문제를 해결하여 이동로봇의 위치를 정확하게 인식하고 주변 영역에 대한 지도를 작성하여 감시영역에서 검출된 객체를 효과적으로 추적할 수 있는 알고리즘이 필요하다.To solve this problem, an algorithm is needed to accurately recognize the location of the mobile robot and to map the area around it, effectively tracking the objects detected in the surveillance area.

본 발명이 이루고자 하는 기술적 과제는, 감시영역에 나타난 객체를 검출하여 객체의 위치로 신속하게 이동할 수 있도록 자신의 위치를 인식하고 주변영역의 거리정보를 획득하여 지도를 작성함으로써 이동에 필요한 정보를 제공하는 이동식 감시 및 추적 장치 및 방법을 제공하는 데 있다.The technical problem to be achieved by the present invention is to provide the information necessary for the movement by detecting the object displayed in the surveillance area to quickly move to the location of the object by recognizing its location and obtaining distance information of the surrounding area to create a map. To provide a mobile monitoring and tracking device and method.

본 발명이 이루고자 하는 다른 기술적 과제는, 감시영역에 나타난 객체를 검출하여 객체의 위치로 신속하게 이동할 수 있도록 자신의 위치를 인식하고 주변영역의 거리정보를 획득하여 지도를 작성함으로써 이동에 필요한 정보를 제공하는 이동식 감시 및 추적 장치 및 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be achieved by the present invention is to recognize the location of the object so that it can quickly move to the location of the object detected in the surveillance area, obtain the distance information of the surrounding area to create a map to obtain the information necessary for the movement The present invention provides a computer-readable recording medium having recorded thereon a program for executing a portable monitoring and tracking apparatus and method provided by a computer.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 이동식 감시 및 추적 장치는, 감시영역 내에서 이동하는 이동로봇에 구비되어 무인감시를 수행하며, 상기 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 상기 감시영역 내에서의 이동에 따라 변화하는 상기 이동로봇의 현재 위치를 실시간으로 추정하는 위치 추정부; 상기 현재 위치에서 사전에 설정된 촬영영역을 촬영하여 제1영상프레임을 생성하는 촬상부; 상기 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 네트워크를 통해 순차적으로 입력받는 영상 입력부; 상기 제1영상프레임 및 제2영상프레임에 포함된 이동객체를 검출하여 객체 추적 필터에 의해 상기 이동객체의 움직임을 추적하고, 상기 제2영상프레임으로부터 상기 이동객체가 검출된 경우에는 상기 이동객체가 마지막으로 검출된 상기 제2영상프레임에서의 상기 이동객체의 위치정보를 기초로 상기 이동객체의 예상위치를 결정하는 객체위치 결정부; 상기 현재 위치로부터 상기 이동객체의 예상위치까지의 추적경로를 결정하는 경로 생성부; 및 상기 결정된 추적경로를 따라 상기 예상위치까지 상기 이동로봇을 이동시키고, 상기 제1영상프레임으로부터 검출되는 상기 이동객체의 움직임에 따라 상기 이동로봇을 이동시키는 제어명령을 출력하는 구동부;를 구비한다.In order to achieve the above technical problem, the mobile monitoring and tracking device according to the present invention is provided in a mobile robot moving in a surveillance area to perform unmanned surveillance and wireless communication with a plurality of beacons located in the surveillance area. A position estimating unit for estimating a current position of the mobile robot that changes in accordance with movement in the surveillance region by a real time; An imaging unit for photographing a preset photographing area at the current position to generate a first image frame; An image input unit which sequentially receives a plurality of second image frames photographed by a fixed camera installed in the surveillance area through a network; The moving object included in the first image frame and the second image frame is detected to track the movement of the moving object by an object tracking filter. When the moving object is detected from the second image frame, the moving object is detected. An object position determiner which determines an expected position of the moving object based on position information of the moving object in the second detected image frame; A path generation unit determining a tracking path from the current location to an expected location of the moving object; And a driving unit which moves the mobile robot to the expected position along the determined tracking path and outputs a control command for moving the mobile robot according to the movement of the mobile object detected from the first image frame.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 이동식 감시 및 추적 방법은, 감시영역 내에서 이동하는 이동로봇이 무인감시를 수행하도록 하며, (a) 상기 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 상기 감시영역 내에서의 이동에 따라 변화하는 상기 이동로봇의 현재 위치를 실시간으로 추정하는 단계; (b) 상기 현재 위치에서 사전에 설정된 촬영영역을 촬영하여 제1영상프레임을 생성하는 단계; (c) 상기 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 네트워크를 통해 순차적으로 입력받는 단계; (d) 상기 제1영상프레임 및 제2영상프레임에 포함된 이동객체를 검출하여 객체 추적 필터에 의해 상기 이동객체의 움직임을 추적하고, 상기 제2영상프레임으로부터 상기 이동객체가 검출된 경우에는 상기 이동객체가 마지막으로 검출된 상기 제2영상프레임에서의 상기 이동객체의 위치정보를 기초로 상기 이동객체의 예상위치를 결정하는 단계; (e) 상기 현재 위치로부터 상기 이동객체의 예상위치까지의 추적경로를 결정하는 단계; 및 (f) 상기 결정된 추적경로를 따라 상기 예상위치까지 상기 이동로봇을 이동시키고, 상기 제1영상프레임으로부터 검출되는 상기 이동객체의 움직임에 따라 상기 이동로봇을 이동시키는 제어명령을 출력하는 단계;를 갖는다.In order to achieve the above technical problem, the mobile monitoring and tracking method according to the present invention allows the mobile robot moving in the surveillance region to perform unattended surveillance, and (a) with a plurality of beacons located in the surveillance region. Estimating in real time the current position of the mobile robot that changes with movement in the surveillance area by wireless communication; (b) generating a first image frame by photographing a preset shooting area at the current position; (c) sequentially receiving a plurality of second image frames photographed by a fixed camera installed in the surveillance area through a network; (d) detecting the moving objects included in the first image frame and the second image frame to track the movement of the moving object by an object tracking filter, and when the moving object is detected from the second image frame, Determining an expected position of the moving object based on the position information of the moving object in the second image frame last detected by the moving object; (e) determining a tracking path from the current position to an expected position of the moving object; And (f) outputting a control command for moving the mobile robot to the expected position along the determined tracking path and moving the mobile robot according to the movement of the mobile object detected from the first image frame. Have

본 발명에 따른 이동식 감시 및 추적 장치에 의하면, 고정식 카메라로부터 실시간으로 전송받는 영상프레임 및 자체적으로 구비된 촬상부에 의해 촬영된 영상프레임으로부터 이동객체를 검출하여 추적함으로써, 감시영역이 넓고 장애물이 많은 경우에도 다수의 고정식 카메라를 사용하여 무인감시를 수행하는 경우에 비해 적은 수의 카메라로 사각지대 없이 효율적으로 침입 탐지를 할 수 있다. 또한 비콘으로부터 전송된 RF신호를 이용하여 이동로봇의 위치를 추정함으로써, 실내 환경에서도 정확하게 위치를 추정하여 감시영역에 대한 지도 작성 및 이동객체의 추적에 활용할 수 있다.According to the mobile monitoring and tracking device according to the present invention, by detecting and tracking the moving object from the image frame received in real time from the fixed camera and the image frame photographed by the self-capturing unit, a large surveillance area and a lot of obstacles Even in case of using unmanned surveillance using a large number of fixed cameras, intrusion detection can be performed efficiently with fewer cameras without blind spots. In addition, by estimating the position of the mobile robot by using the RF signal transmitted from the beacon, it can accurately estimate the location even in the indoor environment can be used for mapping the surveillance area and tracking of the moving object.

도 1은 본 발명에 따른 이동식 감시 및 추적 장치에 대한 바람직한 실시예의 구성을 도시한 블록도,
도 2는 본 발명에 따른 이동식 감시 및 추적 장치가 적용되는 감시영역의 일 예를 도시한 도면,
도 3은 위치 추정부에서 비콘과의 통신을 위해 사용되는 지그비 모듈의 예를 나타낸 도면,
도 4는 사전에 저장된 지도상에 추정된 현재 위치를 매핑하는 예를 나타낸 도면,
도 5는 촬상부로 사용되는 스테레오 카메라를 나타낸 도면,
도 6은 촬상부에 의해 얻어진 두 개의 제1영상프레임으로부터 거리정보를 추정하는 일 예를 도시한 도면,
도 7은 스테레오 카메라에 의해 촬영된 두 개의 제1영상프레임 및 정합에 의해 얻어진 거리정보의 일 예를 나타낸 도면,
도 8은 거리정보를 2차원 좌표계로 표현한 일 예를 도시한 도면,
도 9는 촬상부의 촬영영역 중에서 거리정보의 추출을 위한 일부 영역을 설정한 예를 나타낸 도면,
도 10은 이동객체가 이동하는 좌표를 검출하는 일 예를 도시한 도면,
도 11은 A-스타 알고리즘을 사용하여 최적의 경로를 탐색하는 일 예를 도시한 도면,
도 12는 본 발명에 따른 이동식 감시 및 추적 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도,
도 13a 및 도 13b는 이동로봇이 이동할 때 X좌표 및 Y좌표에 대해 측정된 데이터와 칼만 필터에 의한 보정으로 얻어진 데이터를 실제 데이터와 비교하여 도시한 그래프, 그리고,
도 14a 및 도 14b는 본 발명에 따른 이동식 감시 및 추적 장치가 구현된 시스템을 나타내는 도면이다.
1 is a block diagram showing the configuration of a preferred embodiment of a mobile monitoring and tracking device according to the present invention;
2 is a view showing an example of a surveillance area to which the mobile monitoring and tracking device according to the present invention is applied;
3 is a view showing an example of a Zigbee module used for communication with a beacon in the position estimator;
4 is a diagram illustrating an example of mapping an estimated current position on a previously stored map;
5 is a view showing a stereo camera used as the imaging unit,
FIG. 6 is a diagram illustrating an example of estimating distance information from two first image frames obtained by an image capturing unit; FIG.
FIG. 7 is a diagram illustrating an example of distance information obtained by two first image frames photographed by a stereo camera and registration; FIG.
8 is a diagram illustrating an example in which distance information is expressed in a two-dimensional coordinate system;
9 is a diagram illustrating an example in which a partial region for extracting distance information is set from among photographing regions of an image capturing unit;
10 is a diagram illustrating an example of detecting coordinates at which a moving object moves;
11 illustrates an example of searching for an optimal path using an A-star algorithm;
12 is a flowchart illustrating a process of performing a preferred embodiment of the mobile monitoring and tracking method according to the present invention;
13A and 13B are graphs showing the data measured for the X coordinate and the Y coordinate when the mobile robot moves and the data obtained by the correction by the Kalman filter compared with the actual data, and
14A and 14B are diagrams illustrating a system in which a mobile monitoring and tracking device according to the present invention is implemented.

이하에서 첨부된 도면들을 참조하여 본 발명에 따른 이동식 감시 및 추적 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the mobile monitoring and tracking device and method according to the present invention.

도 1은 본 발명에 따른 이동식 감시 및 추적 장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of a mobile monitoring and tracking device according to the present invention.

도 1을 참조하면, 본 발명에 따른 이동식 감시 및 추적 장치는 감시영역 내에서 자율이동하는 이동로봇에 구비되어 무인감시를 수행하며, 위치 추정부(110), 지도 생성부(120), 촬상부(130), 영상 입력부(140), 객체위치 결정부(150), 경로 생성부(160) 및 구동부(170)를 구비한다.Referring to FIG. 1, the mobile monitoring and tracking device according to the present invention is provided in a mobile robot that autonomously moves in a surveillance area, and performs unmanned monitoring. 130, an image input unit 140, an object position determiner 150, a path generator 160, and a driver 170.

앞에서 설명한 바와 같이 이동로봇을 이용한 무인 감시 시스템은 경제적이며 효과적인 시스템이다. 본 발명은 이러한 무인 감시 시스템에 사용되는 이동로봇에 구비되어 감시영역 내에서의 무인감시를 수행한다.As described above, an unmanned surveillance system using a mobile robot is an economical and effective system. The present invention is provided in a mobile robot used in such an unmanned surveillance system to perform an unmanned surveillance in the surveillance area.

도 2는 본 발명에 따른 이동식 감시 및 추적 장치가 적용되는 감시영역의 일 예를 도시한 도면이다. 도 2를 참조하면, 감시영역이 복수의 공간으로 분리되어 있고, 각각의 분리된 공간으로는 문을 통하여 이동할 수 있다. 이동로봇은 이러한 분리된 공간 사이에서 자율이동하거나 원격 제어에 의해 이동할 수 있으며, 본 발명에 따른 이동식 감시 및 추적 장치의 촬상부(130)는 이동로봇이 이동하는 동안 감시영역 내에 설정되는 촬영영역을 실시간으로 촬영한다. 촬영영역은 촬상부(130)의 구체적인 성능에 따라 달라진다.2 is a diagram illustrating an example of a surveillance area to which a mobile monitoring and tracking device according to the present invention is applied. Referring to FIG. 2, the surveillance region is divided into a plurality of spaces, and each separated space may be moved through a door. The mobile robot can move autonomously or move by remote control between the separated spaces. The image capturing unit 130 of the mobile monitoring and tracking device according to the present invention detects a shooting area set in the surveillance area while the mobile robot moves. Shoot in real time. The photographing area depends on the specific performance of the imaging unit 130.

각각의 분리된 공간에 배치된 복수의 RF 비콘(beacon)은 위치 추정부(110)와의 무선통신에 사용되며, 위치 추정부(110)는 RF 비콘으로부터 수신되는 신호의 강도를 기초로 이동로봇의 현재 위치를 추정할 수 있다. 이에 관하여는 뒤에서 상세하게 설명한다.A plurality of RF beacons arranged in each separated space are used for wireless communication with the position estimator 110, and the position estimator 110 is based on the strength of the signal received from the RF beacon. You can estimate your current location. This will be described in detail later.

한편, 감시영역의 중심부에 설치된 고정식 카메라는 감시영역 내의 고정된 영역을 지속적으로 촬영한다. 고정식 카메라는 본 발명에 따른 이동식 감시 및 추적 장치 내지 이동로봇과 네트워크를 통해 통신을 수행하여 실시간으로 영상을 전송한다. 객체위치 결정부(150)는 촬상부(130)가 촬영한 영상 및 고정식 카메라로부터 전송받은 영상을 지속적으로 분석하여 영상으로부터 이동객체가 검출되면 검출된 이동객체의 이동경로를 추적한다. 구동부(170)는 이동객체의 이동경로를 따라 이동로봇을 이동시킴으로써 이동객체를 지속적으로 추적하도록 할 수 있다.Meanwhile, the fixed camera installed at the center of the surveillance region continuously photographs the fixed region within the surveillance region. The stationary camera transmits an image in real time by performing communication through a network with a mobile monitoring and tracking device or a mobile robot according to the present invention. The object position determiner 150 continuously analyzes the image photographed by the image capturing unit 130 and the image transmitted from the fixed camera to track the movement path of the detected moving object when the moving object is detected from the image. The driving unit 170 may continuously track the moving object by moving the moving robot along the moving path of the moving object.

감시영역의 각각의 분리된 공간, RF 비콘의 위치 및 고정식 카메라의 위치는 지도상에 매핑되어 사전에 저장되어 있을 수 있다. 이러한 경우에 위치 추정부(110)는 이동로봇의 현재 위치를 실시간으로 추정하여 지도상에 매핑할 수 있으며, 촬상부(130)가 촬영한 영상 및 고정식 카메라로부터 전송받은 영상으로부터 검출된 이동객체의 위치 역시 지도상에 매핑할 수 있다. 그러나 감시영역에 관한 정보가 전혀 없는 경우에는 이동로봇이 감시영역 내를 무작위로 이동하면서 지도 생성부(120)에 의해 감시영역에 대한 지도를 새로 작성할 수 있다.Each separated space of the surveillance area, the position of the RF beacon and the position of the stationary camera may be mapped on a map and stored in advance. In this case, the position estimator 110 estimates the current position of the mobile robot in real time and maps it on a map. The position estimator 110 detects the moving object detected from the image captured by the imaging unit 130 and the image transmitted from the fixed camera. Locations can also be mapped on the map. However, if there is no information about the surveillance area, the mobile robot randomly moves in the surveillance area, and the map generator 120 may create a new map for the surveillance area.

이하, 본 발명에 따른 이동식 감시 및 추적 장치의 각 구성요소의 동작에 대하여 상세하게 설명한다.Hereinafter, the operation of each component of the mobile monitoring and tracking device according to the present invention will be described in detail.

위치 추정부(110)는 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 감시영역 내에서의 이동에 따라 변화하는 이동로봇의 현재 위치를 실시간으로 추정한다.The position estimator 110 estimates in real time the current position of the mobile robot that changes according to movement in the surveillance region by wireless communication with a plurality of beacons located in the surveillance region.

일정 영역 내에서 정해진 경로 없이 무작위로 이동하는 이동로봇의 위치를 실시간으로 추정하기 위해 사용되는 방법으로 바퀴 인코더와 자이로스코프가 있다. 바퀴 인코더는 이동로봇의 주행 거리를 측정하는 센서이고, 자이로스코프는 로봇의 진행 방향을 측정한다. 그런데 인코더는 바닥과 이동로봇의 바퀴 사이의 미끄러짐 및 바퀴의 정렬상태 등의 여러 가지 이유로 인해 낮은 정확도를 가지며, 로봇이 주행함에 따라 오도메트릭 오차(odometric error)가 누적되기 때문에 인코더의 정보만으로는 이동로봇의 정확한 위치를 알기 어렵다.Wheel encoders and gyroscopes are used to estimate the position of a mobile robot moving randomly in a certain area without a predetermined path in real time. The wheel encoder is a sensor that measures the traveling distance of the mobile robot, and the gyroscope measures the moving direction of the robot. However, the encoder has low accuracy due to various reasons such as slippage between the floor and the wheels of the mobile robot and alignment of the wheels. As the robot moves, odometric errors accumulate as the robot moves, It is difficult to know the exact location of the.

따라서 인코더에 의한 이동로봇의 위치 추정의 오차를 보정하기 위해 보조적인 방법이 사용된다. 보조적으로 사용될 수 있는 위치 추정 방법으로 클라이언트 기반 방법(client-based design)과 기준 노드 기반 방법이 있다. 클라이언트 기반 방법은 기준 노드들로부터 발신된 신호를 태그와 같은 전파 수신 클라이언트에서 수신하여 클라이언트 자신의 위치를 계산하는 방법으로, GPS가 대표적인 방법이라 할 수 있다. 무선 랜(WLAN)을 통한 핑거프린팅 방법은 액세스 포인트(AP)에서 클라이언트로 전파를 송신하여 위치를 결정하는 방법으로, 이 방법도 클라이언트 기반 위치 인식 시스템에 해당한다.Therefore, an auxiliary method is used to correct the error of the position estimation of the mobile robot by the encoder. Location estimation methods that can be used as auxiliary methods include client-based design and reference node-based methods. In the client-based method, a signal transmitted from reference nodes is received at a radio wave receiving client such as a tag to calculate a client's own location, and GPS is a typical method. The fingerprinting method through a WLAN is a method of determining a location by transmitting radio waves from an access point (AP) to a client, which also corresponds to a client-based location recognition system.

기준 노드 기반 위치 인식 방법은 태그에서 발신된 신호를 기준 노드에서 수신하여 태그의 위치를 계산하는 방법이다. 이 방식은 클라이언트로부터 수신된 신호의 강도나 방향, 신호의 전파 시간차 등을 이용하여 클라이언트의 위치를 결정한다. 거리 기반 위치 추정 방식은 거리를 측정하여 삼각법(triangulation)에 의해 위치를 추정한다. 이러한 위치 추정 방식을 실내 환경에서 적용하기 위해 RFID, 레이저(laser), 소나(sonar), 레이더(radar) 및 적외선(infrared) 등의 다양한 통신 방식이 이용되어 왔으나, 최근에는 와이파이(Wi-Fi) 기반, UWB 및 지그비(ZigBee)를 이용하는 방법이 빠르게 발전하고 있다.The reference node-based location recognition method is a method of calculating a location of a tag by receiving a signal transmitted from a tag at a reference node. This method determines the position of the client using the strength or direction of the signal received from the client, the propagation time difference of the signal, and the like. The distance-based position estimation method estimates the position by triangulation by measuring the distance. In order to apply the location estimation method in indoor environment, various communication methods such as RFID, laser, sonar, radar and infrared have been used, but recently Wi-Fi Ways to use infrastructure, UWB and ZigBee are rapidly evolving.

본 발명의 위치 추정부(110)는 바퀴 인코더와 자이로스코프를 사용함에 따른 오차를 보정하기 위해 RF 통신 방식의 지그비를 사용하여 이동로봇의 위치를 추정한다. 도 3은 위치 추정부(110)에서 비콘과의 통신을 위해 사용되는 지그비 모듈의 예를 나타낸 도면이다. 이동로봇이 이동하는 감시영역 내에는 지그비 통신이 가능한 비콘(beacon)이 곳곳에 배치되어 있고, 위치 추정부(110)는 각각의 비콘으로부터 수신된 전파의 강도를 측정하여 삼각 측량법으로 이동로봇의 위치를 추정한다.The position estimator 110 of the present invention estimates the position of the mobile robot using a ZigBee of the RF communication method to correct an error caused by using the wheel encoder and the gyroscope. 3 is a diagram illustrating an example of a Zigbee module used for communication with a beacon in the position estimator 110. Beacons capable of ZigBee communication are arranged throughout the surveillance area in which the mobile robot moves, and the position estimator 110 measures the strength of radio waves received from each beacon and triangulates the location of the mobile robot. Estimate

일반적으로 전파 신호 강도의 거리에 따른 변화는 다음의 수학식 1과 같이 표현된다.In general, the change according to the distance of the radio signal strength is expressed by Equation 1 below.

Figure 112010008721845-pat00001
Figure 112010008721845-pat00001

여기서, A는 비례상수, a는 강도의 감쇠를 나타내는 지수, r은 거리, Sr은 위치 추정부(110)로 수신된 신호의 강도, 그리고 S0는 비콘에서 송신된 신호의 강도를 나타낸다. A와 s는 측정환경 및 시간에 따라 변화하기 때문에 정확한 값을 측정하기 어렵고, 초기에 정확한 값을 측정하였다 하더라도 시간의 경과에 따라 오차가 발생한다.Here, A is a proportionality constant, a is an index indicating strength attenuation, r is a distance, S r is the strength of the signal received by the position estimator 110, and S 0 is the strength of the signal transmitted from the beacon. Since A and s change according to the measurement environment and time, it is difficult to measure the exact value, and even if the initial value is measured initially, an error occurs over time.

움직이는 클라이언트의 측정 성분에 따른 위치 결정 방법으로 대표적인 것이 수신된 신호의 강도를 이용하는 수신 신호 강도(Received Signal Strength Indication : RSSI이다. 이 방법은 사물이나 태그 등에 부착된 발신기(transmitter)로부터 수신된 전파의 강도를 이용하여 전파 강도의 약해진 정도에 따라 센서로부터 발신기까지의 거리를 측정한다. 측정된 거리를 이용하여 삼각측량 기법을 통해 현재의 위치를 추정할 수 있다.A representative method of positioning according to the measurement component of a moving client is Received Signal Strength Indication (RSSI), which uses the strength of a received signal, which is a method of receiving radio waves from a transmitter attached to an object or a tag. Using the strength, the distance from the sensor to the transmitter is measured according to the weakening of the radio wave strength, and the measured distance can be used to estimate the current position through triangulation techniques.

다음의 표 1은 실험을 통한 위치 추정의 오차를 나타낸 것으로, 비콘만을 이용한 위치 추정의 경우에 평균 오차 거리는 1m 이상이 되어 보정을 필요로 함을 알 수 있다.The following Table 1 shows the error of the position estimation through the experiment, it can be seen that the average error distance is more than 1m in the case of the position estimation using only beacons need correction.

X(m)X (m) Y(m)Y (m) 거리(m)Distance (m) 평균Average 0.850.85 0.920.92 1.041.04 분산Dispersion 0.560.56 0.380.38 0.780.78 표준편차Standard Deviation 1.241.24 1.141.14 1.211.21

위와 같이 이동로봇의 위치를 추정하기 위해 사용되는 인코더 및 비콘과의 RF통신 방식은 정확도가 떨어지며 오차가 많이 발생한다. 따라서 이를 보정하기 위해 칼만 필터(Kalman Filter)를 사용할 수 있다. 칼만 필터는 프로세스의 상태를 추적하기 위해 오차를 최소화하는 방법으로, 효율적인 계산 수단을 제공하는 수학 방정식의 집합이다. 또한 칼만 필터는 신호와 잡음의 분리도가 우수하여 순간적인 위치의 점프현상을 방지할 수 있으며, 정확한 위치, 속도 및 시간을 안정적으로 검출하는 데 사용된다.As described above, the RF communication method with the encoder and the beacon used to estimate the position of the mobile robot is less accurate and generates a lot of errors. Thus, the Kalman Filter can be used to compensate for this. The Kalman filter is a set of mathematical equations that provides an efficient means of calculation in a way that minimizes errors to track the state of the process. The Kalman filter also has excellent separation of signal and noise to prevent instantaneous position jumps, and is used to reliably detect accurate position, speed and time.

위치 추정부(110)는 인코더에 의해 측정된 위치와 비콘으로부터 수신된 RF신호의 강도에 의해 측정된 위치에 칼만 필터를 적용하여 이동로봇의 현재 위치를 추정한다.The position estimator 110 estimates the current position of the mobile robot by applying a Kalman filter to the position measured by the encoder and the position measured by the strength of the RF signal received from the beacon.

칼만 필터의 알고리즘은 예측을 위한 시간 갱신 방정식과 측정 갱신 방정식으로 구성된다. 시간 갱신 과정은 현재 상태를 미리 예측하는 단계로, 순방향으로 현재 상태의 추정 결과를 전달한다. 측정 갱신 과정은 해당 시간에 실제 측정에 의해 전달된 추정 상태 값들을 조정한다. 칼만 필터에서는 기본적으로 다음의 수학식 2와 같은 관계식을 가정한다.The Kalman filter's algorithm consists of a time update equation and a measurement update equation for prediction. The time update process is a step of predicting the current state in advance, and delivers the estimation result of the current state in the forward direction. The measurement update process adjusts the estimated state values delivered by the actual measurement at that time. The Kalman filter basically assumes the following equation (2).

Figure 112010008721845-pat00002
Figure 112010008721845-pat00002

여기서, xk는 특정시간 k에서의 상태 벡터, uk는 해당 시간에서의 사용자 입력, Ak는 해당 시간에서 이전 상태 xk -1에 기반한 상태 전이 행렬, Bk는 사용자 입력에 의한 상태 전이 행렬, 그리고 wk -1은 잡음 변수이다.Where x k is a state vector at a specific time k, u k is a user input at that time, A k is a state transition matrix based on the previous state x k -1 at that time, and B k is a state transition by user input. The matrix, and w k -1 are noise variables.

또한 상태 벡터 xk와 그 벡터를 측정했을 때 실제로 얻어진 벡터 zk는 다음의 수학식 3과 같은 관계를 가진다.In addition, the state vector x k and the vector z k actually obtained when the vector is measured have the same relationship as in Equation 3 below.

Figure 112010008721845-pat00003
Figure 112010008721845-pat00003

여기서, H는 해당 시간에서 측정에 관계된 행렬이고, vk는 잡음 변수이다.Where H is the matrix involved in the measurement at that time and v k is the noise variable.

앞에서 설명한 바와 같이 시간 갱신 과정은 칼만 필터의 예측 단계에 해당하며, 다음의 수학식 4와 같이 연역적으로 이루어진다.As described above, the time update process corresponds to the prediction step of the Kalman filter, and is deduced as shown in Equation 4 below.

Figure 112010008721845-pat00004
Figure 112010008721845-pat00004

수학식 4의 첫 번째 수식은 연역적 상태 예측에 관한 것이며, 두 번째 수식은 연역적 공분산 예측에 관한 것이다.The first equation of Equation 4 relates to the deductive state prediction, and the second equation relates to the deductive covariance prediction.

다음으로 측정 갱신 과정은 칼만 필터의 보정 단계에 해당하며, 다음의 수학식 5와 같이 귀납적으로 이루어진다.Next, the measurement update process corresponds to a calibration step of the Kalman filter, and is inductively performed as in Equation 5 below.

Figure 112010008721845-pat00005
Figure 112010008721845-pat00005

즉, 위치 추정부(110)는 첫 번째 수식에 의해 칼만 필터의 최적 이득을 생성하고, 이를 이용하여 두 번째 수식에 의해 현재 상태의 값을 보정한다. 또한 세 번째 수식은 공분산 행렬을 보정하는 수식이다.That is, the position estimator 110 generates an optimal gain of the Kalman filter by the first equation, and corrects the value of the current state by the second equation. The third equation is also a formula for correcting the covariance matrix.

이와 같이 비콘과의 RF 통신을 이용함으로써 실내 환경에서도 이동 로봇의 현재 위치를 정확하게 추정할 수 있다.By using the RF communication with the beacon in this way it is possible to accurately estimate the current position of the mobile robot even in the indoor environment.

위와 같은 과정에 의해 이동로봇의 현재 위치가 추정되고 감시영역에 대해 작성된 지도가 사전에 저장되어 있는 경우, 위치 추정부(110)에 의해 추정된 이동로봇의 현재 위치는 저장된 지도상에 매핑(mapping)될 수 있다. 그러나 감시영역에 대한 정보가 사전에 알려져 있지 않은 경우에는 무인감시를 수행하기 이전에 앞에서 설명한 SLAM 알고리즘에 의해 감시영역에 대한 새로운 지도를 작성하여야 한다. 도 4는 사전에 저장된 지도상에 추정된 현재 위치를 매핑하는 예를 나타낸 도면이다.When the current position of the mobile robot is estimated by the above process and the map created for the surveillance area is stored in advance, the current position of the mobile robot estimated by the position estimator 110 is mapped onto the stored map. Can be However, if the information on the surveillance area is not known in advance, a new map of the surveillance area should be prepared by the SLAM algorithm described above before performing unattended monitoring. 4 is a diagram illustrating an example of mapping an estimated current position on a previously stored map.

지도 생성부(120)는 감시영역에 대해 사전에 저장된 지도가 없는 경우에 촬상부(130)의 패닝(panning)에 의해 촬영영역을 일정한 간격으로 촬영하여 얻어진 복수의 제1영상프레임으로부터 추출된 거리정보를 기초로 이동로봇의 이동에 따라 감시영역 내에 사전에 설정된 간격으로 노드를 배치하여 감시영역에 대한 지도를 생성한다.The map generator 120 extracts a distance extracted from a plurality of first image frames obtained by capturing a photographing area at regular intervals by panning of the imaging unit 130 when there is no map previously stored in the surveillance area. Based on the information, as the mobile robot moves, nodes are arranged in the surveillance area at predetermined intervals to generate a map of the surveillance area.

위치 추정부(110)에 의해 실시간으로 추정되는 현재 위치를 기초로 감시영역에 대한 지도를 작성하기 위한 방법으로는 레이저 센서 및 초음파 센서와 같은 거리 측정 센서를 사용하는 방법이 있으며, 비전 센서를 사용하는 방법이 있다. 비전 센서를 사용하는 방법은 영상으로부터 추출한 시각 특징점을 이용하여 주변 환경에 대한 지도를 구성하는 과정으로 이루어진다.As a method for creating a map of the surveillance area based on the current position estimated by the position estimator 110 in real time, there is a method using a distance measuring sensor such as a laser sensor and an ultrasonic sensor, and using a vision sensor. There is a way. The method of using the vision sensor consists of constructing a map of the surrounding environment using visual feature points extracted from the image.

본 발명에 따른 이동식 감시 및 추적 장치에서는 거리 정보를 추정할 수 있는 스테레오 카메라를 사용하여 감시영역에 대한 지도를 작성한다. 즉, 촬상부(130)는 스테레오 카메라의 형태로 구현되어 이동객체의 탐지뿐만 아니라 감시영역에 대한 지도 작성을 위해 사용된다. 도 5에는 촬상부(130)로 사용되는 스테레오 카메라를 나타내었다.In the mobile monitoring and tracking device according to the present invention, a map of a surveillance area is prepared using a stereo camera capable of estimating distance information. That is, the imaging unit 130 is implemented in the form of a stereo camera and is used not only to detect the moving object but also to map the surveillance area. 5 illustrates a stereo camera used as the imaging unit 130.

스테레오 카메라의 전처리 수단에서는 스테레오 카메라에 의해 촬영된 좌우 영상에 대한 독립적인 밝기 조절 및 사각형화 등을 통해 카메라의 왜곡을 최소화함으로써 스테레오 정합의 성능을 향상시킬 수 있다. 스테레오 영상의 기하학적 구조에서 한 영상의 한 점은 다른 영상에서 라인으로 대응되는데, 이 대응되는 라인을 공액선(epipolar line)이라 한다. 이러한 공액 제한조건을 이용하여 한 영상에서의 한 점에 대응하는 대응점을 다른 영상 전체에서 찾는 것이 아니라 공액선 상으로 그 범위를 한정시킬 수 있다.In the pre-processing means of the stereo camera, the performance of stereo matching may be improved by minimizing the distortion of the camera through independent brightness adjustment and quadrature of the left and right images captured by the stereo camera. In the stereo image geometry, one point of one image corresponds to a line in another image, which is called an epipolar line. By using such a conjugate constraint, the corresponding point corresponding to one point in one image may be limited to the conjugate line rather than finding the corresponding point in the whole other image.

두 영상으로부터 특정 영역에 대한 특징을 추출하고, 동일한 특징이 두 영상에 나타난다면 둘 사이의 불일치(disparity)가 근접성 계산에 사용될 수 있고, 그 정보를 통해 거리정보를 얻을 수 있다. 지도 생성부(120)는 전처리 수단에서 처리된 좌우의 영상 입력으로부터 불일치를 계산하여 밝기 정보로서 나타낸다.If a feature of a specific region is extracted from two images, and the same feature appears in two images, disparity between the two images may be used for proximity calculation, and distance information may be obtained from the information. The map generation unit 120 calculates the inconsistency from the left and right image inputs processed by the preprocessing means and displays the brightness information.

도 6은 촬상부(130)에 의해 얻어진 두 개의 제1영상프레임으로부터 거리정보를 추정하는 일 예를 도시한 도면이다. 도 6에서 공액 평면(epipolar plane)은 점 X, OL 및 OR을 기준으로 한다. 촬상부(130)에 구비된 두 개의 카메라를 나타내는 OL 및 OR, 그리고 관측된 임의의 점 P가 각각의 제1영상프레임에 투영된 점인 PL 및 PR은 제1영상프레임 상에서 각각

Figure 112010008721845-pat00006
Figure 112010008721845-pat00007
로 나타내며, 점 EL과 ER을 공액으로 표현할 수 있다. 이와 같은 방법을 사용하여 두 개의 제1영상프레임에서 서로 대응되는 지점을 찾을 수 있다.FIG. 6 is a diagram illustrating an example of estimating distance information from two first image frames obtained by the imaging unit 130. In Fig. 6, the epipolar plane is based on points X, O L and O R. O L and O R representing the two cameras provided in the image pickup unit 130, and P L and P R, which are points at which the observed random point P is projected to each first image frame, are respectively on the first image frame.
Figure 112010008721845-pat00006
And
Figure 112010008721845-pat00007
The points E L and E R can be expressed as conjugates. Using this method, points corresponding to each other in two first image frames may be found.

다음으로 두 개의 제1영상프레임에서 대응되는 지점 사이의 불일치를 기초로 하여 두 개의 제1영상프레임을 정합시킬 수 있다. 영상프레임을 정합시키는 방법으로는 영상프레임을 일정한 크기의 복수 개의 블록으로 나누고 기준이 되는 영상프레임에서 각 블록의 부정합(disparity)을 구하는 방법을 사용할 수 있다.Next, two first image frames may be matched based on a mismatch between corresponding points in the two first image frames. As a method of matching image frames, a method of dividing an image frame into a plurality of blocks having a predetermined size and obtaining disparity of each block in a reference image frame may be used.

도 7은 스테레오 카메라에 의해 촬영된 두 개의 제1영상프레임 및 정합에 의해 얻어진 거리정보의 일 예를 나타낸 도면이다. 도 7의 상단 두 개의 이미지는 각각 좌측 제1영상프레임 및 우측 제1영상프레임을 나타내며, 하단 이미지는 거리정보를 밝기로 나타낸 결과이다. 먼저 좌측과 우측 제1영상프레임에는 각각 A 지점(A_left, A_right)과 B 지점(B_left, B_right)이 표시되어 있으며, A 지점과 B 지점에 대한 부정합은 다음의 수학식 6에 의해 산출할 수 있다.7 is a diagram illustrating an example of two first image frames photographed by a stereo camera and distance information obtained by registration. The upper two images of FIG. 7 represent the left first image frame and the right first image frame, respectively, and the bottom image shows the distance information in brightness. First, the A point (A_left, A_right) and the B point (B_left, B_right) are displayed on the left and right first image frames, respectively, and a mismatch between the A point and the B point can be calculated by Equation 6 below. .

Figure 112010008721845-pat00008
Figure 112010008721845-pat00008

이렇게 구해진 각 지점에 대한 부정합에서 D(A)의 값이 D(B)보다 크다면, A 지점이 B 지점에 비해 이동로봇으로부터 가까운 지점에 위치한다는 것을 알 수 있다.If the value of D (A) is larger than D (B) in the mismatch for each point thus obtained, it can be seen that the point A is located closer to the mobile robot than the point B.

이와 같은 방법으로 블록을 구성하는 각각의 지점에 대해 부정합을 산출하면 영상프레임에 대한 부정합은 다음의 수학식 7과 같이 나타낼 수 있다.In this way, if a mismatch is calculated for each point constituting the block, the mismatch for an image frame may be expressed by Equation 7 below.

Figure 112010008721845-pat00009
Figure 112010008721845-pat00009

여기서, dmin 및 dmax는 각 지점에 대해 얻어진 부정합의 최소값 및 최대값이며, m은 마스크의 크기이다.Where d min and d max are the minimum and maximum values of mismatch obtained for each point, and m is the size of the mask.

도 7의 하단 이미지를 참조하면, 이동로봇으로부터 가까운 거리는 밝은색으로 나타내고, 거리가 멀어질수록 어둡게 표현하여 거리정보를 나타내었다.Referring to the bottom image of FIG. 7, the distance from the mobile robot is represented by a bright color, and the distance information is represented by the darker the distance.

지도 생성부(120)는 이동로봇의 이동에 따라 지속적으로 얻어지는 제1영상프레임을 위에서 설명한 것과 같이 처리하여 거리정보를 추출한다. 얻어진 거리정보는 3차원의 원통 좌표계에서 높이 z를 생략한 (r,θ)의 2차원 좌표계로 표현될 수 있다. 또한 각 지점까지의 실제 거리로 표현되는 거리정보를 좌표계로 표현하기 위해 축척을 사용하여 축소된 거리로 표현한다.The map generator 120 processes the first image frame continuously obtained as the mobile robot moves as described above to extract distance information. The obtained distance information may be expressed in a two-dimensional coordinate system of (r, θ) in which the height z is omitted from the three-dimensional cylindrical coordinate system. In addition, in order to express distance information expressed by actual distance to each point in coordinate system, it is expressed as reduced distance using scale.

도 8은 거리정보를 2차원 좌표계로 표현한 일 예를 도시한 도면이다. 도 8에 도시된 것과 같이 거리정보는 2차원의 x-y 평면상에 r-θ의 원통 좌표계로 표현되며, 여기서 r은 실제 거리로부터 축소된 거리, θ는 카메라의 화각에 의해 결정되는 값으로 0에서

Figure 112010008721845-pat00010
사이의 값으로 표현할 수 있다.8 is a diagram illustrating an example of representing distance information in a two-dimensional coordinate system. As shown in FIG. 8, distance information is represented by a cylindrical coordinate system of r-θ on a two-dimensional xy plane, where r is a distance reduced from an actual distance and θ is a value determined by the angle of view of a camera.
Figure 112010008721845-pat00010
Can be expressed as a value in between.

지도 생성부(120)는 위치 추정부(110)가 추정한 이동로봇의 현재 위치와 촬상부(130)가 촬영한 제1영상프레임으로부터 추출한 거리정보를 기초로 감시영역 전체에 대한 지도를 작성할 수 있다. 지도를 작성할 때에는 이동로봇의 이동 경로에 따라 일정한 간격으로 노드를 배치하여 뒤에 목표 지점으로 이동로봇을 이동시키고자 할 때 사용하도록 할 수 있다.The map generator 120 may create a map of the entire surveillance area based on the current position of the mobile robot estimated by the position estimator 110 and distance information extracted from the first image frame photographed by the imaging unit 130. have. When creating a map, nodes can be arranged at regular intervals according to the movement path of the mobile robot so that they can be used to move the mobile robot to a target point later.

이때 이동로봇이 이동함에 따라 실시간으로 얻어지는 모든 제1영상프레임을 분석할 수도 있으며, 계산량을 줄이기 위해 이동로봇의 현재 위치를 참조하여 일정한 간격으로 제1영상프레임을 분석하여 거리정보를 추출할 수도 있다. 또한 제1영상프레임의 분석 간격을 설정하기 위해 이동로봇의 자율이동에 의지하지 않고 아직 거리정보에 대한 분석이 완료되지 않은 영역으로 이동로봇을 이동시켜 지도 작성의 속도를 향상시킬 수도 있다.In this case, as the mobile robot moves, all first image frames obtained in real time may be analyzed, and distance information may be extracted by analyzing the first image frames at regular intervals by referring to the current position of the mobile robot to reduce the amount of calculation. . In addition, to set the analysis interval of the first image frame, it is possible to improve the speed of mapping by moving the mobile robot to an area where analysis of distance information is not completed without relying on autonomous movement of the mobile robot.

즉, 현재 위치에서 제1영상프레임의 분석에 의해 촬영영역에 대한 거리정보가 얻어지면, 구동부(170)는 촬영영역 내에서 노드가 배치되지 않은 영역 중에서 현재 이동로봇으로부터 가장 멀리 떨어진 지점으로 이동로봇을 이동시키고, 지도 생성부(120)는 구동부(170)가 이동로봇을 이동시킨 지점에 새로운 노드를 배치한다. 또한 위치 추정부(110)는 새롭게 노드가 배치된 지점에서 현재 위치를 추정하고, 지도 생성부(120)는 제1영상프레임을 분석하여 거리정보를 추출하고 지도를 작성한다.That is, when distance information on the photographing area is obtained by analyzing the first image frame at the current position, the driving unit 170 moves to the point farthest from the current mobile robot among the areas where no node is disposed in the photographing area. Move, and the map generator 120 places a new node at the point where the driving unit 170 moves the mobile robot. In addition, the location estimator 110 estimates the current position at the point where the node is newly placed, and the map generator 120 analyzes the first image frame to extract distance information and create a map.

한편, 계산량을 줄이고 지도 작성의 속도를 향상시키기 위해 이동로봇의 크기 내지 높이를 고려하여 촬영영역 중에서 거리정보를 추출할 영역을 제한할 수도 있다. 도 9는 촬상부(130)의 촬영영역 중에서 거리정보의 추출을 위한 일부 영역을 설정한 예를 나타낸 도면이다. 도 9의 하단의 이미지에서 굵은 선으로 표시된 영역이 거리정보를 추출하기 위한 영역이며, 상단의 이미지는 설정된 영역으로부터 추출된 거리정보를 나타낸다. 이와 같이 실제 이동로봇이 감시영역 내에서 이동하는 데 실제로 영향을 미치는 부분의 거리정보만을 추출하면 지도 작성의 속도를 향상시킬 수 있으므로 효율적이다.On the other hand, in order to reduce the amount of calculation and to improve the speed of mapping, the area from which the distance information is extracted from the photographing area may be limited in consideration of the size or height of the mobile robot. 9 is a diagram illustrating an example in which a partial region for extracting distance information is set from among photographing regions of the imaging unit 130. In the image of the lower part of FIG. 9, the area indicated by the thick line is an area for extracting the distance information, and the upper image indicates the distance information extracted from the set area. As such, extracting only the distance information of the part that actually affects the movement of the mobile robot in the surveillance area can improve the speed of mapping.

영상 입력부(140)는 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 네트워크를 통해 순차적으로 입력받는다.The image input unit 140 sequentially receives a plurality of second image frames photographed by a fixed camera installed in the surveillance area through a network.

도 2에 도시된 바와 같이 감시영역 내에는 고정식 카메라가 설치되어 있으며, 고정식 카메라의 개수는 한 개 이상이 될 수 있다. 고정식 카메라는 네트워크를 통해 통신 가능하도록 설계되어 촬영한 영상을 무선으로 전송할 수 있다. 또한 감시영역에 대한 지도가 사전에 저장되어 있는 경우에는 고정식 카메라의 위치정보가 지도에 표시되어 있으며, 지도 생성부(120)가 감시영역에 대한 지도를 작성하는 경우에는 고정식 카메라와의 통신에 의해 그 위치정보를 파악할 수 있다.As shown in FIG. 2, a fixed camera is installed in the surveillance area, and the number of the fixed cameras may be one or more. The stationary camera is designed to communicate over a network and can wirelessly transmit captured images. In addition, when the map of the surveillance area is stored in advance, the location information of the fixed camera is displayed on the map. When the map generator 120 creates a map of the surveillance area, the communication with the fixed camera is performed. The location information can be grasped.

고정식 카메라는 고정된 영역을 지속적으로 촬영하여 복수의 제2영상프레임을 생성하며, 이들 복수의 제2영상프레임은 네트워크를 통해 영상 입력부(140)로 순차적으로 입력된다. 시간적으로 인접한 제2영상프레임 간의 비교를 통해 침입자가 발생하는 경우에 해당 침입자를 검출할 수 있다.The fixed camera continuously photographs the fixed area to generate a plurality of second image frames, and the plurality of second image frames are sequentially input to the image input unit 140 through a network. The intruder may be detected when an intruder occurs through comparison between adjacent second image frames.

객체위치 결정부(150)는 제1영상프레임 및 제2영상프레임에 포함된 이동객체를 검출하여 객체 추적 필터에 의해 이동객체의 움직임을 추적하고, 제2영상프레임으로부터 이동객체가 검출된 경우에는 이동객체가 마지막으로 검출된 제2영상프레임에서의 이동객체의 위치정보를 기초로 이동객체의 예상위치를 결정한다.The object position determiner 150 detects moving objects included in the first image frame and the second image frame, tracks the movement of the moving object by the object tracking filter, and when the moving object is detected from the second image frame. The estimated position of the moving object is determined based on the position information of the moving object in the second image frame in which the moving object was last detected.

촬상부(130)는 이동로봇이 이동하는 동안 촬영영역을 지속적으로 촬영하여 순차적으로 복수의 제1영상프레임을 출력하며, 고정식 카메라로부터 입력되는 복수의 제2영상프레임 역시 순차적으로 입력된다. 이러한 제1영상프레임 및 제2영상프레임으로부터 침입자와 같은 이동객체를 검출할 때에는 기존에 알려진 객체 검출 방법을 사용할 수 있으며, 일 예로서 블록 매칭에 의한 움직임 추정 방법을 사용할 수 있다.The imaging unit 130 continuously photographs the photographing area while the mobile robot moves to sequentially output a plurality of first image frames, and a plurality of second image frames input from the fixed camera are also sequentially input. When detecting a moving object such as an intruder from the first image frame and the second image frame, a known object detection method may be used, and as an example, a motion estimation method using block matching may be used.

블록 매칭은 시간적으로 인접한 두 개의 영상프레임에 각각 설정된 블록 사이의 평균 절대차(Mean Absolute Different : MAD)를 이용하여 유사도를 평가하는 방법이다. 즉, t번째 영상프레임 It에서 좌표 (k,l)에 M×N 크기의 블록이 위치한다고 가정할 때, 이 블록과 t-1번째 영상프레임 It -1에서 좌표 (k+x,l+y)에 위치하는 블록과의 평균 절대차는 다음의 수학식 8과 같이 계산할 수 있다.Block matching is a method of evaluating similarity using Mean Absolute Different (MAD) between blocks set in two temporally adjacent video frames. That is, the coordinate in the t-th image frame I t (k, l) to M × N Assuming that the size of the block position, the block and the t-1 th frame image I t -1 in the coordinates (x + k, l The average absolute difference with the block located at + y) may be calculated as in Equation 8 below.

Figure 112010008721845-pat00011
Figure 112010008721845-pat00011

수학식 8에 따라 t-1번째 영상프레임에 설정된 검색 윈도우 안에서 MAD 값이 가장 작은 위치의 블록을 찾고, 두 영상프레임 사이의 위치변화를 움직임 벡터로 검출한다. 검출된 움직임벡터에 따라 이동객체의 이동경로를 추적하고, 필요에 따라 이동객체의 이동경로에 따라 이동로봇을 이동시킨다.According to Equation 8, the block having the smallest MAD value is found in the search window set in the t-1 th image frame, and the position change between the two image frames is detected as a motion vector. The moving path of the moving object is tracked according to the detected motion vector, and the moving robot is moved according to the moving path of the moving object as needed.

도 10은 이동객체가 이동하는 좌표를 검출하는 일 예를 도시한 도면이다. 먼저 도 10의 상단 도면과 같이 320×240 크기의 영상프레임을 3×5개의 블록으로 나누어 이전 영상프레임과의 MAD의 값이 기준 임계치를 넘으면 1, 넘지 않으면 0의 값을 할당한다. 3×3 크기의 마스크 윈도우를 통과하여 최소값을 가지는 블록이 이동객체의 이동 좌표로 결정된다. 이를 위해 다음의 수학식 9에 의해 이동 좌표로 결정되는 블록의 가중치가 계산된다.10 is a diagram illustrating an example of detecting coordinates at which a moving object moves. First, as shown in the upper drawing of FIG. 10, a 320 × 240 image frame is divided into 3 × 5 blocks, and a value of 1 is allocated when the MAD value of the previous image frame exceeds a reference threshold, and a value of 0 is not exceeded. The block having the minimum value passing through the 3 × 3 mask window is determined as the moving coordinate of the moving object. To this end, the weight of the block determined as the movement coordinate is calculated by Equation 9 below.

Figure 112010008721845-pat00012
Figure 112010008721845-pat00012

도 10의 하단 도면을 참조하면, 최대값을 가지는 블록 B[1][3]이 이동 좌표로 결정된다.Referring to the bottom view of FIG. 10, the block B [1] [3] having the maximum value is determined as the movement coordinate.

만약 이동객체가 제2영상프레임에서 검출되는 경우, 고정식 카메라는 이동객체의 움직임에 따라 이동할 수 없으므로 복수의 제2영상프레임 내에서 이동객체의 이동경로를 지속적으로 추적하고, 이동객체가 제2영상프레임에 대응하는 영역으로부터 벗어나면 이동객체의 예상위치를 결정한다. 이동객체의 예상위치는 촬상부(130)를 구비한 이동로봇을 이동객체가 있는 곳으로 이동시켜 지속적으로 이동객체를 추적하도록 하기 위해 결정되는 것이다. 다만, 이동객체가 제2영상프레임에 대응하는 영역으로부터 벗어나기 이전이라도 동일한 이동객체가 제1영상프레임으로부터는 검출되지 않고 제2영상프레임으로부터만 검출되면 즉시 이동로봇을 이동객체의 위치로 이동시킬 수도 있다.If the moving object is detected in the second image frame, since the fixed camera cannot move according to the movement of the moving object, the moving path of the moving object is continuously tracked in the plurality of second image frames, and the moving object is the second image. When moving away from the area corresponding to the frame, the expected position of the moving object is determined. The expected position of the moving object is determined to move the mobile robot having the imaging unit 130 to the place where the moving object is located so as to continuously track the moving object. However, even before the moving object is moved out of the area corresponding to the second image frame, if the same moving object is not detected from the first image frame but only from the second image frame, the moving robot may be immediately moved to the position of the moving object. have.

영상프레임 내에서 이동객체를 지속적으로 추적하기 위해서는 확률모델 기반의 파티클 필터를 사용할 수 있다. 파티클 필터는 컴퓨터 비전 분야에서 객체 추적에 많이 사용되는 방법으로, 사전 확률의 정확도에 따라 성능이 좌우된다. 따라서 객체위치 결정부(150)에 의한 이동객체의 추적시에 앞에서 설명한 블록 매칭 방법에 의해 사전 확률밀도함수를 생성할 수 있다.To keep track of moving objects in an image frame, we can use a particle filter based on a probability model. Particle filters are a popular method for tracking objects in the field of computer vision, and their performance depends on the accuracy of prior probabilities. Accordingly, when tracking the moving object by the object position determiner 150, the prior probability density function may be generated by the block matching method described above.

이동객체의 움직임을 추적하고 예상위치를 결정하기 위해 객체 추적 필터인 파티클 필터가 사용될 수 있다. 추적 대상의 이동객체에 대한 모든 데이터는 상태 Xt에 대해 사후 확률밀도함수

Figure 112010008721845-pat00013
와 영상프레임에서 관측된 데이터 Z1 :t에 의해 유도될 수 있다. 파티클 필터에서 사후 확률은 N개의 상태 집합과 샘플링을 통한 파티클
Figure 112010008721845-pat00014
으로 나타낼 수 있다.A particle filter, an object tracking filter, can be used to track the movement of the moving object and determine the expected position. All data about the moving object to be tracked is the posterior probability density function for state X t .
Figure 112010008721845-pat00013
And data Z 1 : t observed in the image frame. In particle filters, the posterior probabilities are particles with N state sets and sampling.
Figure 112010008721845-pat00014
It can be represented as

파티클 필터는 예측 단계와 관측 단계의 두 단계로 구분할 수 있으며, 예측 단계에서 시간 t에서 사전 확률

Figure 112010008721845-pat00015
는 시간 t-1에서의 사후 확률로부터 다음의 수학식 10과 같이 유도될 수 있다.Particle filters can be divided into two phases, the prediction phase and the observation phase, and the prior probability at time t in the prediction phase.
Figure 112010008721845-pat00015
Can be derived from Equation 10 below from the posterior probability at time t-1.

Figure 112010008721845-pat00016
Figure 112010008721845-pat00016

다음으로 관측 단계에서 상태 X에 대한 관측 데이터는 다음의 수학식 11로 표현할 수 있다.Next, the observation data for the state X in the observation step can be expressed by the following equation (11).

Figure 112010008721845-pat00017
Figure 112010008721845-pat00017

여기서, Vt는 상태 Xt와 독립적인 관측데이터의 노이즈를 나타낸다. 그리고 관측데이터 Zt

Figure 112010008721845-pat00018
를 이용하여 유도할 수 있다.Here, V t represents noise of observation data independent of the state X t . And observed data Z t
Figure 112010008721845-pat00018
It can be derived using.

객체위치 결정부(150)는 이와 같이 파티클 필터를 이용하여 이동객체의 움직임을 추적하고 예상위치를 결정함으로써 촬상부(130)에 의해 얻어진 제1영상프레임으로부터 이동객체가 검출되지 않는 경우에도 침입자를 탐지하여 이동로봇이 침입자의 위치로 빨리 이동하여 침입자를 추적할 수 있도록 한다.In this way, the object position determiner 150 tracks the movement of the moving object using the particle filter and determines the expected position, so that the intruder may not detect the moving object even from the first image frame obtained by the imaging unit 130. By detecting, the mobile robot can quickly move to the intruder's location to track the intruder.

경로 생성부(160)는 위치 추정부(110)가 추정한 이동로봇의 현재 위치로부터 객체위치 결정부(150)에 의해 결정된 이동객체의 예상위치까지의 추적경로를 결정한다. 추적경로를 결정하는 방법으로는 기존의 경로 결정 방법을 사용할 수 있다. 지도 생성부(120)에 의해 감시영역에 대한 지도를 작성할 때 일정한 간격으로 노드를 배치하였거나 사전에 저장된 감시영역의 지도상에 노드가 배치되어 있는 경우, 경로 생성부(160)는 이동로봇의 현재 위치에 가장 근접한 노드로부터 이동객체의 예상위치에 가장 근접한 노드를 연결하는 최단거리에 의해 추적경로를 결정할 수 있다.The path generator 160 determines a tracking path from the current position of the mobile robot estimated by the position estimator 110 to the expected position of the moving object determined by the object position determiner 150. As a method of determining the tracking path, an existing path determination method may be used. When the nodes are arranged at regular intervals when the map generator 120 creates the map for the surveillance area, or when the nodes are arranged on the map of the previously stored surveillance area, the path generation unit 160 displays the current state of the mobile robot. The tracking path can be determined by the shortest distance connecting the node closest to the position to the node closest to the expected position of the moving object.

추적경로를 결정하는 한 가지 방법으로 A-스타(A*) 알고리즘을 사용할 수 있는데, A-스타 알고리즘은 초기 노드에서 목표 노드까지의 경로를 찾는 그래프 탐색 알고리즘으로, 그래프에서 최단 경로를 최소의 계산으로 검색한다. 도 11은 A-스타 알고리즘을 사용하여 최적의 경로를 탐색하는 일 예를 도시한 도면이다. 'S'로 표시된 노드가 출발지 노드이며, 'b'로 표시된 노드가 목적지 노드이다. 두 개의 노드를 서로 연결하는 직선에 표시된 숫자는 두 노드 사이를 이동할 때의 비용을 나타낸다. S 노드와 b 노드를 연결하는 최적의 경로는 {S,c,a,b}가 되며, 이 때의 비용은 5+3+1+0=9로서 최소 비용에 해당한다.One way to determine the tracking path is to use the A-Star (A * ) algorithm, which is a graph search algorithm that finds the path from the initial node to the target node, and calculates the shortest path in the graph. Search with. 11 is a diagram illustrating an example of searching for an optimal path using an A-star algorithm. The node marked 'S' is the starting node, and the node marked 'b' is the destination node. The number on the straight line connecting the two nodes represents the cost of moving between the two nodes. The optimal path connecting S node and b node is {S, c, a, b}, and the cost at this time is 5 + 3 + 1 + 0 = 9, which is the minimum cost.

이와 같이 경로 생성부(160)는 A-스타 알고리즘을 사용하여 현재 위치와 예상위치 사이에 배치된 노드를 연결하여 얻어지는 복수의 경로들 중에서 최소 비용을 가지는 경로를 추적경로로 결정할 수 있다.As such, the path generation unit 160 may determine a path having a minimum cost among a plurality of paths obtained by connecting nodes disposed between the current location and the expected location by using the A-star algorithm.

구동부(170)는 결정된 추적경로를 따라 예상위치까지 이동로봇을 이동시키며, 제1영상프레임으로부터 검출되는 이동객체의 움직임에 따라 이동로봇을 이동시키는 제어명령을 출력한다. 앞에서 설명한 바와 같이 고정식 카메라에 의해 촬영된 제2영상프레임으로부터 이동객체가 검출되고 촬상부(130)에 의해 촬영된 제1영상프레임으로부터는 해당 이동객체가 검출되지 않는 경우에는 이동객체가 제2영상프레임에 대응하는 영역으로부터 벗어나게 되면 더 이상 추적을 할 수 없다는 문제가 있다. 따라서 이동로봇을 이동객체가 위치하는 지점으로 이동시켜 지속적으로 이동객체의 움직임을 추적할 필요성이 있다.The driving unit 170 moves the mobile robot to the expected position along the determined tracking path, and outputs a control command for moving the mobile robot according to the movement of the moving object detected from the first image frame. As described above, when the moving object is detected from the second image frame photographed by the fixed camera and the moving object is not detected from the first image frame photographed by the imaging unit 130, the moving object is the second image. Once out of the area corresponding to the frame, there is a problem that no more tracking is possible. Therefore, there is a need to continuously track the movement of the moving object by moving the mobile robot to the point where the moving object is located.

객체위치 결정부(150)가 이동객체의 예상위치를 결정하고 경로 생성부(160)가 현재 위치로부터 예상위치까지의 추적경로를 결정하면, 구동부(170)는 결정된 추적경로를 따라 이동객체가 위치하는 지점까지 이동로봇을 이동시킨다. 이후 촬상부(130)에 의해 촬영되는 제1영상프레임으로부터 이동객체가 검출되면 객체위치 결정부(150)는 제1영상프레임 내에서 이동객체의 움직임을 추적하며, 구동부(170)는 움직임 추적 결과에 따라, 즉 시간적으로 인접한 두 개의 제1영상프레임으로부터 추출되는 움직임 벡터에 따라 이동로봇을 이동시키는 제어명령을 출력한다.When the object position determiner 150 determines the expected position of the moving object and the path generator 160 determines the tracking path from the current position to the expected position, the driving unit 170 moves the position along the determined tracking path. Move the robot to the point where When the moving object is detected from the first image frame photographed by the imaging unit 130, the object position determiner 150 tracks the movement of the moving object within the first image frame, and the driving unit 170 tracks the movement. In other words, a control command for moving the mobile robot according to a motion vector extracted from two adjacent temporally adjacent first image frames is output.

이와 같이 이동로봇은 구동부(170)에 의한 제어가 없는 경우에는 감시영역 내에서 자율이동하거나 원격 모니터링 수단에 의한 조작에 의한 이동을 하며, 이동객체가 검출되는 경우에는 구동부(170)의 제어에 의해 이동객체를 추적하게 된다. 이동객체가 검출되지 않아서 구동부(170)가 이동로봇의 움직임을 제어하지 않는 경우, 감시영역 내에서도 특별히 침입자가 많이 발생하거나 침입자의 발생 우려가 높은 것으로 판단되는 영역에 이동로봇이 더 오랫동안 머물도록 함으로써 이동객체를 빠르게 탐지하도록 할 수도 있다.As such, when there is no control by the driving unit 170, the mobile robot moves autonomously within the monitoring area or moves by a remote monitoring means. When the moving object is detected, the mobile robot is controlled by the driving unit 170. It will track the moving object. If the driving unit 170 does not control the movement of the mobile robot because the moving object is not detected, the mobile robot stays in the area where the intruder is particularly likely to be generated or the intruder is likely to be in a long time even in the surveillance area. You can also quickly detect objects.

이상에서 설명한 바와 같이 본 발명에 따른 이동식 감시 및 추적 장치는 고정식 카메라로부터 실시간으로 전송받는 제2영상프레임 및 자체적으로 구비된 촬상부(130)에 의해 촬영된 제1영상프레임으로부터 이동객체를 검출하여 추적함으로써, 감시영역이 넓고 장애물이 많은 경우에도 다수의 고정식 카메라를 사용하여 무인감시를 수행하는 경우에 비해 적은 수의 카메라로 사각지대 없이 효율적으로 침입 탐지가 가능하다.As described above, the mobile monitoring and tracking apparatus according to the present invention detects a moving object from the second image frame received in real time from the fixed camera and the first image frame photographed by the imaging unit 130 provided therein. By tracking, even if the surveillance area is large and there are many obstacles, intrusion detection can be performed efficiently with fewer cameras than with blind spots compared to the case of performing unmanned surveillance using a plurality of stationary cameras.

도 12는 본 발명에 따른 이동식 감시 및 추적 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.12 is a flowchart illustrating a preferred embodiment of the mobile monitoring and tracking method according to the present invention.

도 12를 참조하면, 위치 추정부(110)는 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 감시영역 내에서의 자율이동 또는 원격 모니터링에 의한 이동에 따라 변화하는 이동로봇의 현재 위치를 추정한다(S1210). 촬상부(130)는 현재 위치에서 사전에 설정된 촬영영역을 촬영하여 제1영상프레임을 생성한다(S1215).Referring to FIG. 12, the position estimator 110 detects a current position of a mobile robot that changes according to movement by autonomous movement or remote monitoring in the surveillance region by wireless communication with a plurality of beacons located in the surveillance region. It estimates (S1210). The imaging unit 130 generates a first image frame by photographing a preset shooting area at the current location (S1215).

사전에 감시영역에 대한 지도가 저장되어 있지 않은 경우(S1220), 지도 생성부(120)는 촬상부(130)의 패닝에 의해 촬영영역을 일정한 간격으로 촬영하여 얻어진 복수의 제1영상프레임으로부터 거리정보를 추출하고, 이동로봇의 이동에 따라 감시영역 내에 사전에 설정된 간격으로 노드를 배치하여 감시영역에 대한 지도를 생성한다(S1225).When the map for the surveillance region is not stored in advance (S1220), the map generator 120 may distance the plurality of first image frames obtained by capturing the photographing regions at regular intervals by panning of the imaging unit 130. The information is extracted, and nodes are arranged at predetermined intervals in the surveillance region according to the movement of the mobile robot to generate a map of the surveillance region (S1225).

한편, 영상 입력부(140)는 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 순차적으로 입력받고(S1230), 객체위치 결정부(150)는 제1영상프레임 및 제2영상프레임으로부터 이동객체를 검출한다.Meanwhile, the image input unit 140 sequentially receives a plurality of second image frames photographed by the fixed camera installed in the surveillance area (S1230), and the object position determiner 150 receives the first image frame and the second image frame. The moving object is detected from.

고정식 카메라가 촬영한 제2영상프레임으로부터 이동객체가 검출되면(S1235), 객체위치 결정부(150)는 객체 추적 필터, 예를 들면 파티클 필터에 의해 이동객체의 움직임을 추적하고, 이동객체가 마지막으로 검출된 제2영상프레임에서의 이동객체의 위치정보를 기초로 이동객체의 예상위치를 결정한다(S1240). 경로 생성부(160)는 이동로봇의 현재 위치로부터 예상위치까지의 추적경로를 결정하고(S1245), 구동부(170)는 결정된 추적경로를 따라 예상위치까지 이동로봇을 이동시킨다(S1250).When the moving object is detected from the second image frame photographed by the fixed camera (S1235), the object position determiner 150 tracks the movement of the moving object by an object tracking filter, for example, a particle filter, and the moving object ends. The estimated position of the moving object is determined based on the position information of the moving object in the detected second image frame (S1240). The path generation unit 160 determines the tracking path from the current position of the mobile robot to the expected location (S1245), and the driving unit 170 moves the mobile robot to the expected location along the determined tracking path (S1250).

이동로봇이 이동객체가 위치하는 지점으로 이동하여 제1영상프레임으로부터 이동객체가 검출되거나 처음부터 이동객체가 촬상부(130)의 촬영영역에 진입하여 제1영상프레임으로부터 이동객체가 검출되면(S1255), 객체위치 결정부(150)는 제1영상프레임 내에서 이동객체의 움직임을 추적하고, 구동부(170)는 추적된 움직임에 따라 이동로봇을 이동시켜(S1260) 이동객체가 촬상부(130)의 촬영영역으로부터 벗어나지 않고 지속적으로 추적할 수 있도록 한다.When the moving robot moves to the point where the moving object is located and the moving object is detected from the first image frame or the moving object enters the shooting area of the imaging unit 130 from the beginning and the moving object is detected from the first image frame (S1255). ), The object position determiner 150 tracks the movement of the moving object in the first image frame, and the driving unit 170 moves the mobile robot according to the tracked movement (S1260) so that the moving object is captured by the imaging unit 130. It allows you to keep track of the scene without getting out of it.

본 발명의 성능을 평가하기 위한 실험을 수행하였다. 실험을 위한 이동로봇으로는 한울 로보틱스사의 Hanuri-RS 로봇을 사용하였으며, 이 로봇은 3개의 구동 바퀴를 가진 동기식 구동 방식으로 바퀴들의 구동과 조향이 동시에 이루어지도록 설계되어 있다. 그리고 바퀴 인코더와 주 센서로 Point Grey Research 사의 스테레오 카메라를 사용하였다. 지도 작성을 위한 거리정보 측정 방법으로는 Point Grey Research 사에서 제공하는 TRICLOPS 라이브러리를 사용하였다. 또한 위치 추정을 위한 지그비 모듈 중 비콘 네 개와 기준 코디네이터 한 개로 구성하였으며, Radiopulse 사의 MG2455 칩셋을 사용하였다. 또한 사용된 PC 사양은 다음의 표 2와 같다.Experiments were conducted to evaluate the performance of the present invention. Hanul Robotics' Hanuri-RS robot was used for the experiment, which is a synchronous drive system with three driving wheels, designed to simultaneously drive and steer the wheels. The wheel encoder and main sensor were stereo cameras from Point Gray Research. The TRICLOPS library provided by Point Gray Research was used to measure the distance information for mapping. Four beacons and one reference coordinator among the Zigbee modules for position estimation were used, and Radiopulse's MG2455 chipset was used. In addition, the PC specifications used are shown in Table 2 below.

장 치Device 사 양Specification CPUCPU Intel® Core(TM)2 DuoIntel® Core (TM) 2 Duo RAMRAM 2GB RAM2 GB RAM VGAVGA Nvdia Geforce 9600 GTNvdia Geforce 9600 GT CAMERACAMERA PointGrey BurnableBee2PointGrey BurnableBee2

도 13a 및 도 13b는 이동로봇이 이동할 때 X좌표 및 Y좌표에 대해 측정된 데이터와 칼만 필터에 의한 보정으로 얻어진 데이터를 실제 데이터와 비교하여 도시한 그래프이다. 도 13a 및 도 13b를 참조하면, 측정된 값을 칼만 필터에 의해 보정함으로써 80% 이상의 정확도로 위치 추정이 가능하다는 것을 알 수 있다.13A and 13B are graphs showing the data measured for the X coordinate and the Y coordinate and the data obtained by the correction by the Kalman filter when the mobile robot moves with the actual data. 13A and 13B, it can be seen that position estimation can be performed with an accuracy of 80% or more by correcting the measured value by the Kalman filter.

도 14a 및 도 14b는 본 발명에 따른 이동식 감시 및 추적 장치가 구현된 시스템을 나타내는 도면이다. 네 개의 지그비 비콘으로부터 실시간으로 RSSI 값을 전송받고, 각각의 비콘 ID를 식별하여 RSSI 값과 매칭시킨다. 또한 자이로스코프로부터 입력받은 이동로봇의 방향을 실시간으로 표현하고, 스테레오 카메라로부터 얻은 거리정보를 나타내었다. 도 14a 및 도 14b에서 스테레오 카메라는 서로 다른 방향을 향하고 있으며, 이러한 스테레오 카메라의 방향 정보도 모두 기록되어 지도에 나타내어진다. 이와 같이 본 발명에 따른 이동식 감시 및 추적 장치를 외부의 모니터링 수단과 무선 네트워크를 통해 연결함으로써 실시간으로 무인감시 상태를 확인할 수 있다.14A and 14B are diagrams illustrating a system in which a mobile monitoring and tracking device according to the present invention is implemented. RSSI values are received from four Zigbee beacons in real time, and each beacon ID is identified and matched with the RSSI value. In addition, the direction of the mobile robot received from the gyroscope is expressed in real time, and the distance information obtained from the stereo camera is displayed. In FIGS. 14A and 14B, the stereo cameras face different directions, and the direction information of the stereo camera is also recorded and displayed on the map. As such, by connecting the mobile monitoring and tracking device according to the present invention through an external monitoring means and a wireless network, the unmanned monitoring state can be checked in real time.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific preferred embodiments described above, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

110 - 위치 추정부
120 - 지도 생성부
130 - 촬상부
140 - 영상 입력부
150 - 객체위치 결정부
160 - 경로 생성부
170 - 구동부
110-position estimator
120-Map Generator
130-imaging unit
140-Video input unit
150-object positioning unit
160-path generator
170-drive section

Claims (17)

감시영역 내에서 이동하는 이동로봇에 구비되어 무인감시를 수행하는 이동식 감시 및 추적 장치에 있어서,
상기 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 상기 감시영역 내에서의 이동에 따라 변화하는 상기 이동로봇의 현재 위치를 실시간으로 추정하는 위치 추정부;
상기 현재 위치에서 사전에 설정된 촬영영역을 촬영하여 제1영상프레임을 생성하는 촬상부;
상기 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 네트워크를 통해 순차적으로 입력받는 영상 입력부;
상기 제1영상프레임 및 제2영상프레임에 포함된 이동객체를 검출하여 객체 추적 필터에 의해 상기 이동객체의 움직임을 추적하고, 상기 제2영상프레임으로부터 상기 이동객체가 검출된 경우에는 상기 이동객체가 마지막으로 검출된 상기 제2영상프레임에서의 상기 이동객체의 위치정보를 기초로 상기 이동객체의 예상위치를 결정하는 객체위치 결정부;
상기 현재 위치로부터 상기 이동객체의 예상위치까지의 추적경로를 결정하는 경로 생성부; 및
상기 결정된 추적경로를 따라 상기 예상위치까지 상기 이동로봇을 이동시키고, 상기 제1영상프레임으로부터 검출되는 상기 이동객체의 움직임에 따라 상기 이동로봇을 이동시키는 제어명령을 출력하는 구동부;를 포함하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
In the mobile monitoring and tracking device which is provided in the mobile robot moving in the surveillance area to perform unmanned surveillance,
A position estimator for estimating in real time the current position of the mobile robot that changes in accordance with movement in the surveillance region by wireless communication with a plurality of beacons located in the surveillance region;
An imaging unit for photographing a preset photographing area at the current position to generate a first image frame;
An image input unit which sequentially receives a plurality of second image frames photographed by a fixed camera installed in the surveillance area through a network;
The moving object included in the first image frame and the second image frame is detected to track the movement of the moving object by an object tracking filter. When the moving object is detected from the second image frame, the moving object is detected. An object position determiner which determines an expected position of the moving object based on position information of the moving object in the second detected image frame;
A path generation unit determining a tracking path from the current location to an expected location of the moving object; And
And a driving unit for moving the mobile robot to the expected position along the determined tracking path and outputting a control command for moving the mobile robot according to the movement of the mobile object detected from the first image frame. Mobile monitoring and tracking device.
제 1항에 있어서,
상기 위치 추정부는 인접한 복수의 비콘으로부터 수신된 RF 신호의 강도를 기초로 산출된 상기 각각의 비콘까지의 거리를 이용하여 삼각측량법에 의해 상기 현재 위치를 추정하고, 칼만 필터를 사용하여 상기 현재 위치를 보정하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
The method of claim 1,
The position estimator estimates the current position by triangulation using a distance to each beacon calculated based on the strength of RF signals received from a plurality of adjacent beacons, and uses the Kalman filter to estimate the current position. Mobile monitoring and tracking device, characterized in that the correction.
제 1항 또는 제 2항에 있어서,
상기 촬상부의 패닝(panning) 기법에 의해 상기 촬영영역을 일정한 간격으로 촬영하여 얻어진 복수의 제1영상프레임으로부터 추출된 상기 촬영영역에 대한 거리정보를 기초로 상기 이동로봇의 이동에 따라 상기 감시영역 내에 사전에 설정된 간격으로 노드를 배치하여 상기 감시영역에 대한 지도를 생성하는 지도 생성부를 더 포함하며,
상기 경로 생성부는 상기 감시영역에 대해 생성된 지도상에서 상기 현재 위치에 가장 근접한 노드와 상기 예상위치에 가장 근접한 노드를 연결하는 최단거리에 의해 추적경로를 결정하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
3. The method according to claim 1 or 2,
In the surveillance area according to the movement of the mobile robot based on the distance information on the shooting area extracted from the plurality of first image frames obtained by photographing the shooting area at regular intervals by a panning technique of the imaging unit. It further comprises a map generator for generating a map for the surveillance area by arranging nodes at predetermined intervals,
And the path generation unit determines a tracking path based on a shortest distance connecting a node closest to the current location and a node closest to the expected location on a map generated for the surveillance area.
제 3항에 있어서,
상기 구동부는 상기 촬영영역에서 상기 노드가 배치되지 않은 영역에 대해 얻어진 거리정보를 기초로 상기 이동로봇으로부터 가장 멀리 떨어진 지점으로 상기 이동로봇을 이동시키며,
상기 지도 생성부는 상기 구동부가 상기 이동로봇을 이동시킨 지점에 상기 노드를 배치하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
The method of claim 3,
The driving unit moves the mobile robot to a point farthest from the mobile robot based on the distance information obtained for the area where the node is not disposed in the photographing area.
The map generating unit is a mobile monitoring and tracking device, characterized in that for placing the node at the point where the drive moves the mobile robot.
제 3항에 있어서,
상기 촬상부는 스테레오 카메라이며,
상기 지도 생성부는 상기 스테레오 카메라에 의해 동시에 촬영된 두 개의 제1영상프레임을 정합하여 상기 거리정보를 추출하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
The method of claim 3,
The imaging unit is a stereo camera,
The map generator extracts the distance information by matching two first image frames simultaneously photographed by the stereo camera.
제 1항 또는 제 2항에 있어서,
상기 객체 추적 필터는 파티클 필터이며,
상기 객체위치 결정부는 상기 이동객체가 포함된 시간적으로 연속하는 복수의 제2영상프레임에 블록 매칭 알고리즘을 적용하여 상기 파티클 필터의 사전 확률밀도함수를 생성하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
3. The method according to claim 1 or 2,
The object tracking filter is a particle filter,
And the object position determiner generates a prior probability density function of the particle filter by applying a block matching algorithm to a plurality of temporally contiguous second image frames including the moving object.
제 1항 또는 제 2항에 있어서,
상기 경로 생성부는 상기 현재 위치로부터 상기 예상위치 사이에 배치된 노드를 연결하여 얻어지는 복수의 경로 중에서 최소 비용을 가지는 경로를 검색하는 A-스타 알고리즘에 의해 상기 추적경로를 결정하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
3. The method according to claim 1 or 2,
The path generation unit determines the tracking path by an A-star algorithm for searching for a path having a minimum cost among a plurality of paths obtained by connecting nodes arranged between the current location and the expected location. And tracking device.
제 1항 또는 제 2항에 있어서,
상기 이동로봇은 상기 구동부가 상기 제어명령을 출력하지 않는 경우에는 상기 감시영역 내에서 자율이동하는 것을 특징으로 하는 이동식 감시 및 추적 장치.
3. The method according to claim 1 or 2,
And the mobile robot autonomously moves within the monitoring area when the driving unit does not output the control command.
감시영역 내에서 이동하는 이동로봇이 무인감시를 수행하도록 하는 이동식 감시 및 추적 방법에 있어서,
(a) 상기 감시영역 내에 위치하는 복수의 비콘과의 무선통신에 의해 상기 감시영역 내에서의 이동에 따라 변화하는 상기 이동로봇의 현재 위치를 실시간으로 추정하는 단계;
(b) 상기 현재 위치에서 사전에 설정된 촬영영역을 촬영하여 제1영상프레임을 생성하는 단계;
(c) 상기 감시영역 내에 설치된 고정식 카메라에 의해 촬영된 복수의 제2영상프레임을 네트워크를 통해 순차적으로 입력받는 단계;
(d) 상기 제1영상프레임 및 제2영상프레임에 포함된 이동객체를 검출하여 객체 추적 필터에 의해 상기 이동객체의 움직임을 추적하고, 상기 제2영상프레임으로부터 상기 이동객체가 검출된 경우에는 상기 이동객체가 마지막으로 검출된 상기 제2영상프레임에서의 상기 이동객체의 위치정보를 기초로 상기 이동객체의 예상위치를 결정하는 단계;
(e) 상기 현재 위치로부터 상기 이동객체의 예상위치까지의 추적경로를 결정하는 단계; 및
(f) 상기 결정된 추적경로를 따라 상기 예상위치까지 상기 이동로봇을 이동시키고, 상기 제1영상프레임으로부터 검출되는 상기 이동객체의 움직임에 따라 상기 이동로봇을 이동시키는 제어명령을 출력하는 단계;를 포함하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
In the mobile monitoring and tracking method for the mobile robot moving in the surveillance area to perform unattended monitoring,
(a) estimating in real time the current position of the mobile robot that changes with movement in the surveillance region by wireless communication with a plurality of beacons located in the surveillance region;
(b) generating a first image frame by photographing a preset shooting area at the current position;
(c) sequentially receiving a plurality of second image frames photographed by a fixed camera installed in the surveillance area through a network;
(d) detecting the moving objects included in the first image frame and the second image frame to track the movement of the moving object by an object tracking filter, and when the moving object is detected from the second image frame, Determining an expected position of the moving object based on the position information of the moving object in the second image frame last detected by the moving object;
(e) determining a tracking path from the current position to an expected position of the moving object; And
(f) moving the mobile robot to the expected position along the determined tracking path, and outputting a control command for moving the mobile robot according to the movement of the mobile object detected from the first image frame; Mobile monitoring and tracking method characterized in that.
제 9항에 있어서,
상기 (a) 단계에서, 인접한 복수의 비콘으로부터 수신된 RF 신호의 강도를 기초로 산출된 상기 각각의 비콘까지의 거리를 이용하여 삼각측량법에 의해 상기 현재 위치를 추정하고, 칼만 필터를 사용하여 상기 현재 위치를 보정하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
The method of claim 9,
In the step (a), using the distance to each beacon calculated based on the strength of the RF signal received from a plurality of adjacent beacons to estimate the current position by triangulation method, using the Kalman filter Mobile monitoring and tracking method characterized by correcting the current position.
제 9항 또는 제 10항에 있어서,
상기 (b) 단계와 상기 (c) 단계의 사이에,
(g) 패닝(panning) 기법에 의해 상기 촬영영역을 일정한 간격으로 촬영하여 얻어진 복수의 제1영상프레임으로부터 추출된 상기 촬영영역에 대한 거리정보를 기초로 상기 이동로봇의 이동에 따라 상기 감시영역 내에 사전에 설정된 간격으로 노드를 배치하여 상기 감시영역에 대한 지도를 생성하는 단계를 더 포함하며,
상기 (e) 단계에서, 상기 감시영역에 대해 생성된 지도상에서 상기 현재 위치에 가장 근접한 노드와 상기 예상위치에 가장 근접한 노드를 연결하는 최단거리에 의해 추적경로를 결정하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
11. The method according to claim 9 or 10,
Between step (b) and step (c),
(g) within the surveillance region according to the movement of the mobile robot based on distance information on the photographing region extracted from a plurality of first image frames obtained by photographing the photographing regions at regular intervals by a panning technique; Generating a map for the surveillance area by arranging nodes at preset intervals,
In the step (e), the mobile monitoring characterized in that the tracking path is determined by the shortest distance connecting the node closest to the current position and the node closest to the expected position on the map generated for the surveillance area; Tracking method.
제 11항에 있어서,
상기 (g) 단계에서,
(g1) 상기 촬영영역에서 상기 노드가 배치되지 않은 영역에 대해 얻어진 거리정보를 기초로 상기 이동로봇으로부터 가장 멀리 떨어진 지점으로 상기 이동로봇을 이동시키는 단계; 및
(g2) 상기 이동로봇을 이동시킨 지점에 상기 노드를 배치하는 단계;가 상기 감시영역 전체에 대하여 반복적으로 수행되는 것을 특징으로 하는 이동식 감시 및 추적 방법.
12. The method of claim 11,
In the step (g),
(g1) moving the mobile robot to a point farthest from the mobile robot based on distance information obtained for the area where the node is not disposed in the photographing area; And
(g2) disposing the node at a point where the mobile robot is moved; is repeatedly performed for the entire surveillance area.
제 11항에 있어서,
상기 (b) 단계에서, 스테레오 카메라에 의해 상기 제1영상프레임을 생성하며,
상기 (g) 단계에서, 상기 스테레오 카메라에 의해 동시에 촬영된 두 개의 제1영상프레임을 정합하여 상기 거리정보를 추출하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
12. The method of claim 11,
In the step (b), the first image frame is generated by a stereo camera,
In the step (g), the mobile surveillance and tracking method characterized in that to extract the distance information by matching the two first image frames taken at the same time by the stereo camera.
제 9항 또는 제 10항에 있어서,
상기 객체 추적 필터는 파티클 필터이며,
상기 (d) 단계에서, 상기 이동객체가 포함된 시간적으로 연속하는 복수의 제2영상프레임에 블록 매칭 알고리즘을 적용하여 상기 파티클 필터의 사전 확률밀도함수를 생성하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
11. The method according to claim 9 or 10,
The object tracking filter is a particle filter,
In the step (d), the mobile monitoring and tracking method comprising generating a prior probability density function of the particle filter by applying a block matching algorithm to a plurality of temporally contiguous second image frames including the moving object. .
제 9항 또는 제 10항에 있어서,
상기 (e) 단계에서, 상기 현재 위치로부터 상기 예상위치 사이에 배치된 노드를 연결하여 얻어지는 복수의 경로 중에서 최소 비용을 가지는 경로를 검색하는 A-스타 알고리즘에 의해 상기 추적경로를 결정하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
11. The method according to claim 9 or 10,
In the step (e), the tracking path is determined by an A-star algorithm searching for a path having a minimum cost among a plurality of paths obtained by connecting nodes arranged between the current location and the expected location. Removable surveillance and tracking method.
제 9항 또는 제 10항에 있어서,
상기 이동로봇은 상기 제어명령에 의해 이동하지 않는 경우에는 상기 감시영역 내에서 자율이동하는 것을 특징으로 하는 이동식 감시 및 추적 방법.
11. The method according to claim 9 or 10,
And the mobile robot autonomously moves within the surveillance area when the mobile robot does not move by the control command.
제 9항 또는 제 10항에 기재된 이동식 감시 및 추적 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the mobile monitoring and tracking method according to claim 9 or 10.
KR1020100011956A 2010-02-09 2010-02-09 Apparatus and method for surveillance and tracking KR101077967B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100011956A KR101077967B1 (en) 2010-02-09 2010-02-09 Apparatus and method for surveillance and tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100011956A KR101077967B1 (en) 2010-02-09 2010-02-09 Apparatus and method for surveillance and tracking

Publications (2)

Publication Number Publication Date
KR20110092502A KR20110092502A (en) 2011-08-18
KR101077967B1 true KR101077967B1 (en) 2011-10-28

Family

ID=44929333

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100011956A KR101077967B1 (en) 2010-02-09 2010-02-09 Apparatus and method for surveillance and tracking

Country Status (1)

Country Link
KR (1) KR101077967B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170063389A (en) * 2015-11-30 2017-06-08 셈테크 코포레이션 System and method for robust and accurate rssi based location estimation
KR20200131526A (en) * 2019-05-14 2020-11-24 주식회사 마크에이트 Position Detecting System and Method of Ultra Wide Band Using the Optimized Detection Threshold at Objects Size and Motion Strenth

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101203121B1 (en) * 2012-04-20 2012-11-21 주식회사 아이티엑스시큐리티 3 Dimensional Motion Recognition System and Method Using Stereo Camera
KR102029741B1 (en) * 2012-06-12 2019-10-10 한국전자통신연구원 Method and system of tracking object
US9208676B2 (en) 2013-03-14 2015-12-08 Google Inc. Devices, methods, and associated information processing for security in a smart-sensored home
KR101371275B1 (en) * 2012-11-05 2014-03-26 재단법인대구경북과학기술원 Method for multiple object tracking based on stereo video and recording medium thereof
KR101692504B1 (en) * 2015-05-21 2017-01-03 (주)와이즈콘 Intelligent image analysis system using beacon and method thereof
KR101709701B1 (en) * 2016-08-02 2017-02-24 주식회사 베스트디지탈 Integrated security service system and method based on tracking object
KR101897505B1 (en) * 2017-01-23 2018-09-12 광주과학기술원 A method and a system for real time tracking an interesting target under multi-camera environment
KR102008860B1 (en) * 2017-07-20 2019-08-09 주식회사 케이엠씨로보틱스 Apparatus of automatic photographing
US11563888B2 (en) 2017-09-25 2023-01-24 Hanwha Techwin Co., Ltd. Image obtaining and processing apparatus including beacon sensor
KR102190743B1 (en) * 2018-08-17 2020-12-15 주식회사 트레셋 AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
KR20200087361A (en) 2019-01-03 2020-07-21 삼성전자주식회사 Moving robot and driving method thereof
US11869365B2 (en) 2019-09-23 2024-01-09 Electronics And Telecommunications Research Institute Apparatus and method for detecting unmanned aerial vehicle
KR102583954B1 (en) * 2019-09-23 2023-09-27 한국전자통신연구원 Apparatus and method for detecting unmanned aerial vehicle
KR102353617B1 (en) * 2019-12-30 2022-01-24 주식회사 디파인 System for estimating location of wild animal
KR102247110B1 (en) * 2020-09-25 2021-05-06 주식회사세오 Cloud-based autonomous driving robot system and operation and control method of autonomous driving robot
KR102298063B1 (en) * 2021-02-17 2021-09-02 임정석 Smart security drone system linked to cctv
KR102516596B1 (en) * 2021-06-15 2023-03-30 호서대학교 산학협력단 Controll system for AVG's platooning based on UWB, and method for the same
KR102519151B1 (en) * 2021-09-23 2023-04-11 뉴인테크 주식회사 Moving line tracking system and method for arrival hall of liability to crime travelers

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100656859B1 (en) 2005-12-23 2006-12-13 학교법인 포항공과대학교 Simultaneous location and mapping method using supersonic wave sensor and vision sensor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100656859B1 (en) 2005-12-23 2006-12-13 학교법인 포항공과대학교 Simultaneous location and mapping method using supersonic wave sensor and vision sensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170063389A (en) * 2015-11-30 2017-06-08 셈테크 코포레이션 System and method for robust and accurate rssi based location estimation
US10492022B2 (en) 2015-11-30 2019-11-26 Semtech Corporation System and method for robust and accurate RSSI based location estimation
KR102082634B1 (en) * 2015-11-30 2020-02-28 셈테크 코포레이션 System and method for robust and accurate rssi based location estimation
KR20200131526A (en) * 2019-05-14 2020-11-24 주식회사 마크에이트 Position Detecting System and Method of Ultra Wide Band Using the Optimized Detection Threshold at Objects Size and Motion Strenth
KR102322480B1 (en) 2019-05-14 2021-11-05 주식회사 마크에이트 Position Detecting System and Method of Ultra Wide Band Using the Optimized Detection Threshold at Objects Size and Motion Strenth

Also Published As

Publication number Publication date
KR20110092502A (en) 2011-08-18

Similar Documents

Publication Publication Date Title
KR101077967B1 (en) Apparatus and method for surveillance and tracking
KR101948728B1 (en) Method and system for collecting data
US9031809B1 (en) Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
Ibisch et al. Towards autonomous driving in a parking garage: Vehicle localization and tracking using environment-embedded lidar sensors
US8115814B2 (en) Mobile tracking system, camera and photographing method
Kitt et al. Visual odometry based on stereo image sequences with RANSAC-based outlier rejection scheme
KR100790860B1 (en) Human tracking apparatus and method thereof, and recording media and removing electronic system therefor
Yang et al. A performance evaluation of vision and radio frequency tracking methods for interacting workforce
Nair et al. Moving obstacle detection from a navigating robot
EP1158309A2 (en) Method and Apparatus for position detection
CA2934102A1 (en) A system and a method for tracking mobile objects using cameras and tag devices
KR20100007726A (en) Inertial measurement with an imaging sensor and a digitized map
KR101486308B1 (en) Tracking moving objects for mobile robots control devices, methods, and its robot
JP6524529B2 (en) Building limit judging device
Ye Navigating a portable robotic device by a 3D imaging sensor
Raza et al. Comparing and evaluating indoor positioning techniques
Liu et al. The design of a fully autonomous robot system for urban search and rescue
JPH07262375A (en) Mobile object detector
KR101030317B1 (en) Apparatus for tracking obstacle using stereo vision and method thereof
Kamarudin et al. Improving performance of 2D SLAM methods by complementing Kinect with laser scanner
Ruotsalainen et al. Improving computer vision-based perception for collaborative indoor navigation
Souli et al. Cooperative relative positioning using signals of opportunity and inertial and visual modalities
KR100994722B1 (en) Method for tracking moving object on multiple cameras using probabilistic camera hand-off
Alves et al. Cost-effective indoor localization for autonomous robots using kinect and wifi sensors
Ham et al. Motion and visual data-driven distant object localization for field reporting

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee