KR20200011237A - Stream reasoning surveilance system and Stream reasoning surveilance method using the same - Google Patents

Stream reasoning surveilance system and Stream reasoning surveilance method using the same Download PDF

Info

Publication number
KR20200011237A
KR20200011237A KR1020180086087A KR20180086087A KR20200011237A KR 20200011237 A KR20200011237 A KR 20200011237A KR 1020180086087 A KR1020180086087 A KR 1020180086087A KR 20180086087 A KR20180086087 A KR 20180086087A KR 20200011237 A KR20200011237 A KR 20200011237A
Authority
KR
South Korea
Prior art keywords
trajectory
moving object
image
camera
collected
Prior art date
Application number
KR1020180086087A
Other languages
Korean (ko)
Other versions
KR102161344B1 (en
Inventor
윤창호
정혜선
이용우
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Priority to KR1020180086087A priority Critical patent/KR102161344B1/en
Publication of KR20200011237A publication Critical patent/KR20200011237A/en
Application granted granted Critical
Publication of KR102161344B1 publication Critical patent/KR102161344B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0233System arrangements with pre-alarms, e.g. when a first distance is exceeded
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras

Abstract

The present invention relates to a stream reasoning surveillance system capable of automatically tracking the separation or movement of a specific person in a place where many persons come and go and a stream reasoning surveillance method using the same. To this end, the stream reasoning surveillance system comprises: a common device interface layer collecting data; an image analysis module analyzing a collected image; and a trajectory inference module inferring the trajectory of a moving object. The stream reasoning surveillance system provides the stream reasoning surveillance method which comprises: a step of collecting images captured by a plurality of cameras by the common device interface layer; a step of merging the collected images by the image analysis module; a step of determining the same group for the moving object in the merged image in the trajectory inference module; and a step of determining whether the moving object satisfying separation conditions is present in the group. Therefore, the present invention can provide the stream reasoning surveillance system which can automatically recognize a specific situation at a site where many persons come and go to provide a notification to a surveillant, thereby efficiently monitoring the situation with less manpower.

Description

스트림 리즈닝 감시 시스템 및 그것을 이용한 스트림 리즈닝 감시방법{Stream reasoning surveilance system and Stream reasoning surveilance method using the same}Stream reasoning surveilance system and Stream reasoning surveilance method using the same}

본 발명은 스트림 리즈닝 감시 시스템 및 그것을 이용한 스트림 리즈닝 감시방법에 관한 것이며, 구체적으로 많은 사람들이 오가는 장소에서 특정인의 이탈이나 움직임을 자동으로 추적할 수 있는 스트림 리즈닝 감시 시스템 및 그것을 이용한 스트림 리즈닝 감시방법에 관한 것이다.The present invention relates to a stream listening monitoring system and a stream listening monitoring method using the same. Ning surveillance method.

흉악한 범죄나 사고로부터 시민들을 보호하기 위하여 곳곳에 CCTV가 많이 설치되고 있다. 이러한 CCTV는 해마다 평균 15~20% 증가하고 있으나, CCTV를 운용 및 감시할 인력은 턱없이 부족하여 제대로 감시가 이루어지지 못하고 있다.CCTVs are installed everywhere to protect citizens from violent crimes and accidents. These CCTVs are increasing by an average of 15 ~ 20% each year, but there is a shortage of manpower to operate and monitor CCTVs.

따라서, 현실적으로 인력을 통한 감시 시스템은 그 한계가 있으므로 자동으로 상황파악을 할 수 있는 지능형 CCTV에 대한 연구 필요성이 높아지고 있다.Therefore, in reality, the surveillance system through manpower has its limitations, and the necessity for research on intelligent CCTV that can automatically grasp the situation is increasing.

현재의 지능형 CCTV는 영상분석을 통해 객체들 인식 및 추적에 초점이 맞추어져 있다. Today's intelligent CCTV focuses on object recognition and tracking through image analysis.

도 1에 나타낸 등록특허 제10-1732115호에 의하면, 주 감시카메라에서 촬영되는 영상을 주화면 영역에 표시하고, 복수의 부 감시카메라에서 촬영되는 영상을 복수의 부화면 영역에 각각 표시하는 단계, 주화면 영역에 표시되는 영상에 포함된 객체를 인식하여 객체 특징을 추출하는 단계, 주화면 영역에서 인식되어 객체 특징이 추출된 객체 중 하나를 사용자로부터 선택받으면 주화면 영역과 복수의 부화면 영역에서 인식되는 객체마다 사용자로부터 선택된 객체와의 유사도를 산출하는 단계; 객체마다 산출된 유사도를 표시하는 단계를 포함한다According to Korean Patent No. 10-1732115 shown in FIG. 1, displaying an image photographed by a main surveillance camera in a main screen region, and displaying images photographed by a plurality of sub surveillance cameras in a plurality of sub screen regions, respectively; Extracting an object feature by recognizing an object included in an image displayed in the main screen area; when one of the objects recognized in the main screen area and extracted from the main feature is selected by the user, the main screen area and the plurality of subscreen areas Calculating similarity with the object selected by the user for each recognized object; Displaying the similarity calculated for each object.

하지만, 위 특허에서는 사용자로부터 선택받은 하나의 객체에 대한 유사도를 산출하는 기능에 그칠 뿐 다양한 사람들과의 관계를 자동으로 인식하지는 못한다. 이러한 관게를 파악해야 다양한 사람들의 궤적을 보다 정확하게 추론할 수 있다.However, the above patent is only a function for calculating the similarity with respect to one object selected by the user does not automatically recognize the relationship with various people. Understanding these relationships can help you infer the trajectories of different people more accurately.

수많은 사람들이 이동하는 현장에서 발생하는 상황을 즉시 인식하려면 다양한 영상정보를 취합하고 분석하여 사람들과의 관계를 파악해야 하는 것이 핵심이다. 이를 위해서는 스마트시티 미들웨어 및 스트림리즈닝 기술이 필요하다.In order to immediately recognize the situation occurring in the field where many people are moving, it is essential to collect and analyze various video information to understand the relationship with people. This requires smart city middleware and stream listening technologies.

본 발명은 상기한 목적을 달성하기 위한 것으로서, 많은 사람들이 오고가는 현장에서 자동으로 상황을 인식하여 감시자에게 알려줄 수 있는 스트림 리즈닝 감시 시스템을 제공하기 위한 것이다.The present invention has been made to achieve the above object, and to provide a stream listening monitoring system that can automatically inform the monitor by monitoring the situation in the field where many people come and go.

또한, 사람들의 궤적을 추론하여 특정인의 이동경로의 이상유무를 판단할 수 있는 스트림 리즈닝 감시 시스템을 제공한기 위한 것이다.In addition, it is to provide a stream listening monitoring system that can infer the trajectory of people to determine the abnormality of the movement path of a specific person.

상기한 목적을 달성하기 위하여 본 발명은, 데이터를 수집하는 공통디바이스 인터페이스층, 수집된 영상을 분석하는 영상분석모듈, 이동체의 궤적을 추론하는 궤적추론모듈을 포함하여 구성되는 스트림 리즈닝 감시 시스템에 있어서, 상기 스트림 리즈닝 감시 시스템은, 상기 공통디바이스 인터페이스층에 의해 복수 개의 카메라에 의해 촬영된 영상이 수집되는 단계; 상기 영상분석모듈에 의해 상기 수집된 영상이 병합되는 단계; 상기 궤적추론모듈에서 상기 병합된 영상에서 이동체에 대한 동일그룹을 판단하는 단계; 상기 그룹에서 이탈조건을 만족하는 이동체가 있는지 판단하는 단계를 수행하는 스트림 리즈닝 감시방법을 제공한다.In order to achieve the above object, the present invention provides a stream listening monitoring system comprising a common device interface layer for collecting data, an image analysis module for analyzing the collected image, and a trajectory inference module for inferring the trajectory of the moving object. The stream listening monitoring system may include: collecting images captured by a plurality of cameras by the common device interface layer; Merging the collected images by the image analysis module; Determining the same group for the moving object in the merged image by the trajectory inference module; It provides a stream listening monitoring method for performing a step of determining whether there is a moving object that satisfies the departure condition in the group.

상기 영상분석모듈은 한 카메라에서 수집된 영상에서 이동체의 각 픽셀에 대하여 rgb값을 추출하고, 또한, 다른 카메라에서 수집된 영상에서 이동체의 각 픽셀에 대하여 rgb값을 추출하여 rgb 각각에 대하여 동일객체 유사도를 산출하는 단계를 수행할 수 있다.The image analysis module extracts an rgb value for each pixel of the moving object from an image collected by one camera, and extracts an rgb value for each pixel of the moving object from an image collected by another camera, thereby extracting an rgb value for each rgb. The step of calculating the similarity may be performed.

상기 영상분석모듈은 이동체의 색깔을 판단하고, 상기 궤적추론모듈은 상기 색깔을 이용하여 복수 개의 다른 영상에서 동일객체를 판단할 수 있다.The image analysis module may determine the color of the moving object, and the trajectory inference module may determine the same object in a plurality of different images using the color.

상기 영상분석모듈은 이동체에 대한 궤적데이터를 추출하고, 상기 궤적추론모듈은 상기 자기상관계수에 기초하여 동일객체를 판단하며, 상기 궤적데이터를 이용하여 동일객체에 대한 전체 궤적을 생성하는 단계를 수행하는 것이 바람직하다.The image analysis module extracts trajectory data for a moving object, and the trajectory inference module determines the same object based on the autocorrelation coefficient, and generates the entire trajectory for the same object using the trajectory data. It is desirable to.

상기 궤적추론모듈은 하나의 이동체에 대하여 인접한 지역의 영상을 촬영하는 카메라에서 수집된 영상을 우선적으로 분석하여 상기 이동체에 대한 궤적을 추론하며, 특정 카메라에서 수집된 영상이 없는 경우 상기 특정 카메라가 촬영하는 지역과 가장 인접한 지역을 촬영하는 카메라에서 수집된 영상을 분석하여 상기 이동체에 대한 궤적을 추론하는 것이 바람직하다.The trajectory inference module preferentially infers a trajectory for the moving object by analyzing an image collected by a camera photographing an image of an adjacent region with respect to one moving object, and photographing the specific camera when there is no image collected by the specific camera. It is preferable to infer the trajectory of the moving object by analyzing the image collected by the camera photographing the region closest to the region.

상기 궤적추론모듈은 각 이동체의 궤적에 대한 궤적유사도 및 시간대별 이동체 사이의 거리에 기초하여 동일그룹인지 여부를 판단할 수 있다.The locus inference module may determine whether the locus is the same group based on the locus similarity for the locus of each moving object and the distance between moving objects for each time zone.

상기 영상분석모듈은 복수 개의 카메라에서 수집되는 영상 중 일부를 카메라그룹으로 나누어 병합하며, 상기 궤적추적모듈은 상기 카메라그룹별로 궤적을 추론하는 것이 바람직하다.The image analysis module merges some of the images collected from the plurality of cameras into camera groups, and the trajectory tracking module infers a trajectory for each camera group.

상기 궤적추론모듈은 상기 카메라로부터 수집되는 일정 시간의 영상을 분석하여 궤적을 추론하며, 미리 정해진 시간마다 영상을 갱신하여 궤적을 추론하는 것이 바람직하다.The trajectory inference module infers a trajectory by analyzing an image of a predetermined time collected from the camera, and infers a trajectory by updating an image every predetermined time.

본 발명에 의하면, 많은 사람들이 오고 가는 현장에서 자동으로 특정 상황을 인식하여 감시자에게 알람을 주어 적은 인력으로도 효율적인 상황감시를 할 수 있는 스트림 리즈닝 감시 시스템을 제공할 수 있다.According to the present invention, it is possible to provide a stream listening monitoring system capable of efficiently monitoring the situation with a small number of personnel by automatically recognizing a specific situation at a site where many people come and go.

또한, 사람들의 궤적을 자동으로 추론하여 미아가 발생하였을 때 즉각적인 대응이 가능해 진다.In addition, it automatically infers the trajectories of people, enabling immediate response in the event of a lost child.

도 1은 종래기술에 의한 감시카메라를 이용한 객체 추적방법을 설명하기 위한 예시도;
도 2는 본 발명에 의한 스트림 리즈닝 감시 시스템에 사용되는 스마트시티 미들웨어 시스템의 구성을 나타내는 구성도;
도 3은 본 발명에 의한 스트림 리즈닝 감시 시스템의 절차를 나타내는 구성도;
도 4는 도 3에서 사용되는 카메라그룹의 예를 나타내는 예시도;
도 5는 본 발명에 의한 스트림 리즈닝 감시시스템의 데이터포맷을 나타내는 설명도;
도 6은 본 발명에 의한 동일객체 판단방법을 설명하기 위한 예시도;
도 7은 본 발명에 의한 동일객체 처리방법을 설명하기 위한 예시도;
도 8은 본 발명에 의한 동일그룹 판단방법을 설명하기 위한 예시도;
도 9는 데이터수신이 되지 않을 경우 처리방법을 설명하기 위한 예시도;
도 10은 본 발명에 의한 자동미아발생 판단방법을 설명하기 위한 예시도.
1 is an exemplary view for explaining an object tracking method using a surveillance camera according to the prior art;
2 is a block diagram showing the configuration of a smart city middleware system used in the stream listening monitoring system according to the present invention;
3 is a block diagram showing a procedure of a stream listening monitoring system according to the present invention;
4 is an exemplary view showing an example of a camera group used in FIG. 3;
5 is an explanatory diagram showing a data format of a stream listening monitoring system according to the present invention;
6 is an exemplary view for explaining the same object determination method according to the present invention;
7 is an exemplary view for explaining a method for processing the same object according to the present invention;
8 is an exemplary view for explaining a method for determining a group according to the present invention;
9 is an exemplary view for explaining a processing method when data reception is not performed.
10 is an exemplary view for explaining a method for determining automatic lost occurrence according to the present invention.

본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.The configuration and operation of the embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2를 참조하면, 본 발명에 의한 스트림 리즈닝 감시 시스템은 스마트시티 서버(100)를 이용하여 구현될 수 있으며, 상기 스마트시티 서버(100)는 공통디바이스 인터페이스층(110), 영상분석모듈(230), 궤적추론모듈(250)을 포함하여 구성된다.2, the stream listening monitoring system according to the present invention may be implemented using a smart city server 100, and the smart city server 100 may include a common device interface layer 110 and an image analysis module ( 230, the trajectory inference module 250 is configured.

상기 스마트시티 미들웨어는 각 지역을 촬영하는 복수 개의 카메라로부터 공통디바이스 인터페이스층(110)을 통해 데이터를 수집한다.The smart city middleware collects data through the common device interface layer 110 from a plurality of cameras photographing each region.

도 3은 본 발명에 의한 개괄적인 스트림 리즈닝 감시방법을 나타낸다. 각 카메라에서 촬영된 영상을 포함한 데이터가 수집되면, 이러한 데이터들은 공통디바이스 인터페이스층(110)에서 정해진 포맷에 맞추어 진다. 또한, 이러한 데이터들은 영상분석모듈(230)에 의해 미리 정해진 복수 개의 카메라그룹으로 나뉘게 되며, 각 카메라그룹은 정해진 시간간격의 영상을 분석하여 이동체의 궤적을 추론하게 된다.3 shows an overview stream listening monitoring method according to the present invention. When data including an image captured by each camera is collected, the data is adapted to a format determined by the common device interface layer 110. In addition, the data are divided into a plurality of camera groups predetermined by the image analysis module 230, and each camera group infers the trajectory of the moving object by analyzing the image at a predetermined time interval.

구체적으로, 각 카메라는 일정 지역을 촬영하며 영상분석모듈(230)에서는 지역을 분할하여 복수 개의 카메라가 촬영하는 지역을 묶어 카메라그룹을 형성한다.In detail, each camera photographs a predetermined region, and the image analysis module 230 divides the region to tie up the regions photographed by the plurality of cameras to form a camera group.

도 4를 참조하면, 총 9개의 카메라가 각 지역을 촬영한다. 즉, 1번 카메라는 좌측 상부, 2번 카메라는 중앙 상부, 5번 카메라는 중앙 등 카메라마다 촬영하는 지역이 정해진다. 이때, 영상분석모듈(230)에서는 1,2,4,5번 카메라에서 송출되는 영상을 병합하여 카메라그룹 A로 생성한다. 또한, 2,3,5,6번 카메라에서 송출되는 영상을 병합하여 카메라그룹 B로 생성하고, 4,5,7,8번 카메라에서 송출되는 영상을 병합하여 카메라그룹 C로 생성하며, 5,6,8,9번 카메라에서 송출되는 영상을 병합하여 카메라그룹 D로 생성한다.Referring to FIG. 4, a total of nine cameras photograph each region. In other words, the first camera is located at the upper left, the second camera is located at the center, and the fifth camera is located at the center of each camera. At this time, the image analysis module 230 merges the images transmitted from the cameras 1, 2, 4, 5 to create a camera group A. In addition, by merging the images sent from the cameras 2, 3, 5, 6 to the camera group B, and merges the images sent from the cameras 4, 5, 7, and 8 to the camera group C, 5, Merge images from cameras 6, 8, and 9 to create camera group D.

한편, 궤적추론모듈(250)에서는 카메라그룹으로 병합된 영상데이터 중 1분간의 영상데이터를 패킷화하여 나누고, 패킷시간 1분 동안의 영상데이터패킷을 이용하여 이동체의 궤적을 추론한다. 또한, 상기 영상데이터패킷은 3초 마다 갱신되어 새로운 영상데이터패킷이 생성된다.Meanwhile, the trajectory inference module 250 packetizes and divides 1 minute of image data among the image data merged into the camera group, and infers the trajectory of the moving object using the image data packet for 1 minute of packet time. In addition, the image data packet is updated every three seconds to generate a new image data packet.

도 5를 참조하면, 영상분석모듈에서는 이동체(A)가 검출되면 해당 이동체에 대한 아이디(ID)를 포함한 데이터포맷을 생성한다. 상기 데이터포맷에는 상기 이동체가 발견된 영상을 촬영한 CCTV아이디, 옷색깔, 키, 머리색깔, 가방휴대유무, 안경착용유무, 진입시간, 궤적데이터 등이 포함될 수 있다.Referring to FIG. 5, when the moving object A is detected, the image analysis module generates a data format including an ID of the moving object. The data format may include a CCTV ID, a clothes color, a key, a hair color, a bag carrying case, wearing glasses, a wearing time, an entry time, a trajectory data, etc. photographing the moving object.

궤적추론모듈(250)에서는 먼저 한 카메라에서 촬영된 영상의 이동체와 다른 카메라에 의해 촬영된 영상의 이동체가 동일한 이동체인지를 판단한다.The trajectory inference module 250 first determines whether the moving object of the image photographed by one camera and the moving object of the image photographed by the other camera are the same moving object.

구체적으로, 영상분석모듈에서는 카메라 1에서 촬영된 이동체1의 각 픽셀에 대하여 색상값인 r,g,b값을 추출하고 또한, 다른 카메라인 카메라 2에서 촬영된 이동체2의 각 픽셀에 대하여 색상값인 r,g,b값을 추출하여 rgb히스토그램을 생성한다. 상기 rgb히스토그램의 x축(수평축)은 밝기를 표시하고, y축(수직축)은 해당 밝기에 대한 픽셀갯수를 표시한다.Specifically, the image analysis module extracts the color values r, g, and b for each pixel of the moving object 1 photographed by the camera 1, and also extracts the color values for each pixel of the moving object 2 photographed by the camera 2 which is another camera. Rgb histogram is generated by extracting r, g, b values. The x-axis (horizontal axis) of the rgb histogram represents the brightness, and the y-axis (vertical axis) represents the number of pixels for the corresponding brightness.

그러면, 이동체 1에 의한 rgb히스토그램에서는 픽셀갯수에 따라 Then, in the rgb histogram by the moving object 1, depending on the number of pixels

X(1,1), X(1,2), X(1,3), …, X(1,255)의 수열이 생성되고,X (1,1), X (1,2), X (1,3),... , A sequence of X (1,255) is generated,

이동체 2에 의한 rgb히스토그램에서는 픽셀갯수에 따라 In the histogram of rgb by moving object 2,

X(2,1), X(2,2), X(2,3), …, X(2,255)의 수열이 생성된다.X (2,1), X (2,2), X (2,3),... , A sequence of X (2,255) is generated.

그러면, 이동체 1과 이동체 2의 동일객체 유사도 T는 다음과 같이 계산된다.Then, the same object similarity T of the moving object 1 and the moving object 2 is calculated as follows.

Figure pat00001
Figure pat00001

X_bar는 수열 X의 평균을 의미하며, 상기 동일객체 유사도는 r,g,b별로 계산되어질 수 있다.X_bar means the average of the sequence X, and the similarity of the same object may be calculated for each of r, g, and b.

궤적추론모듈(250)에서는 상기 동일객체 유사도가 0.7 이상인 객체를 동일객체로 판단하며, 동일객체 유사도가 0.7 이상인 객체가 복수 개 있는 경우 동일객체 유사도가 가장 높은 객체를 동일객체로 판단한다.The trajectory inference module 250 determines that an object having the same object similarity of 0.7 or more is the same object, and when there are a plurality of objects having the same object similarity of 0.7 or more, the object having the highest object similarity is determined to be the same object.

영상데이터에 의해 생성된 데이터포맷에는 궤적데이터가 포함되며, 궤적데이터에는 시간별로 이동체의 좌표가 저장된다. 궤적추론모듈에 의해 동일객체로 판단되면, 영상분석모듈은 도 7과 같이 상기 데이터포맷에 동일객체에 대한 아이디 정보 등을 추가하여 저장한다. 이렇게 하여 다른 카메라에서 촬영된 영상이라도 동일객체를 빠르게 판단할 수 있다.The data format generated by the image data includes trajectory data, and the coordinate data of the moving object is stored for each time. If it is determined that the same object is determined by the trajectory inference module, the image analysis module adds ID information of the same object to the data format and stores the same as shown in FIG. 7. In this way, the same object can be quickly determined even if the image is taken by another camera.

또한, 궤적추론모듈은 상기 궤적데이터를 이용하여 도 5 및 도 6과 같이 궤적데이터를 병합하여 카메라그룹에서 동일객체에 대한 전체 궤적을 생성한다. 이때, 동일시간의 각 이동체의 좌표가 생성된다.In addition, the trajectory inference module merges the trajectory data using the trajectory data to generate the entire trajectory for the same object in the camera group. At this time, the coordinates of each moving object at the same time are generated.

동일객체에 대한 전체 궤적이 생성되면, 궤적추론모듈에서는 궤적간의 궤적유사도를 계산한다. 궤적유사도 P는 다음과 같이 계산된다.When the entire trajectory for the same object is generated, the trajectory inference module calculates the trajectory similarity between the trajectories. The trajectory similarity P is calculated as follows.

이동체 1의 궤적좌표가 (x11, y11), (x12, y12), (x13, y13), …, (x1n, y1n)이고The trajectory coordinates of the moving object 1 are (x11, y11), (x12, y12), (x13, y13),... , (x1n, y1n)

이동체 2의 궤적좌표가 (x21, y21), (x22, y22), (x23, y23), …, (x2n, y2n)인 경우The trajectory coordinates of the moving object 2 are (x21, y21), (x22, y22), (x23, y23),... , for (x2n, y2n)

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

또한, 상기 궤적추론모듈(250)에서는 일정 시간간격으로 이동체간 거리를 측정하여 상대거리가 일정거리 이내에 위치해 있는지 판단한다. 예를 들어, 5초간격으로 5분동안 이동체 1 및 이동체 2의 상대거리가 측정될 수 있으며, 이동체 1 및 이동체 2의 상대거리가 10m 이내에 있으면 근접거리, 10m 밖에 있으면 이탈거리로 저장될 수 있다.In addition, the trajectory inference module 250 measures the distance between moving bodies at a predetermined time interval to determine whether the relative distance is within a predetermined distance. For example, the relative distances of the mobile 1 and the mobile 2 may be measured for 5 minutes at intervals of 5 seconds, and may be stored as the close distance if the relative distance between the mobile 1 and the mobile 2 is within 10 m, and the deviation distance if the outside of the mobile is 10 m. .

궤적추론모듈(250)에서는 5분동안 이동체 1 및 이동체 2의 상대거리가 근접거리로 저장된 횟수를 산출하여 전체 측정횟수대비 근접거리횟수가 70% 이상인지 판단한다.The trajectory inference module 250 calculates the number of times the relative distances of the mobile body 1 and the mobile body 2 are stored as the proximal distances for 5 minutes to determine whether the proximal distance is 70% or more of the total measurement times.

결론적으로, 궤적추론모듈(250)은 이동체 1 및 이동체 2의 궤적유사도 Px, Py가 모두 0.7 이상이고, 근접거리가 70% 이상이면 이동체 1 및 이동체 2를 동일 그룹으로 판단한다. 반면, 위 조건을 만족하지 않으면 이동체 1 및 이동체 2를 동일 그룹이라고 판단하지 않는다.In conclusion, the trajectory inference module 250 determines that the trajectory similarities Px and Py of the mobile 1 and the mobile 2 are both 0.7 or more, and the proximity distance is 70% or more, and the mobile 1 and the mobile 2 are the same group. On the other hand, if the above conditions are not satisfied, the mobile 1 and the mobile 2 are not determined to be the same group.

상기 궤적추론모듈(250)은 하나의 이동체에 대하여 한 카메라 영상에서 사라진 경우 인접한 지역의 영상을 촬영하는 카메라에서 수집된 영상을 우선적으로 분석하여 상기 이동체에 대한 궤적을 추론한다. 이때, 도 9와 같이 특정 카메라가 고장나거나 다른 원인으로 인하여 데이터가 수신되지 않으면 상기 궤적추론모듈은 분석지역을 확장하여 데이터가 수신되지 않은 카메라가 촬영하는 지역과 가장 인접한 지역을 촬영하는 카메라에서 수집된 영상을 분석하여 이동체에 대한 궤적을 추론한다.The trajectory inference module 250 infers a trajectory for the moving object by first analyzing an image collected by a camera photographing an image of an adjacent area when one moving object disappears from one camera image. In this case, when data is not received due to a failure or other cause of a specific camera as shown in FIG. 9, the trajectory inference module expands the analysis area and collects the data captured by the camera closest to the area photographed by the camera where no data is received. Analyze the trajectory of the moving object by analyzing the captured images.

다음으로, 도 10을 참조하여 본 발명에 의한 스트림 리즈닝 감시 시스템을 이용한 미아발생 알람방법에 대해 설명한다.Next, referring to FIG. 10, a lost alarm method using the stream listening monitoring system according to the present invention will be described.

궤적추론모듈(250)에서는 동일그룹에 속하는 이동체에서 이탈조건이 만족되면 이동체 1 또는 이동체 2가 그룹을 이탈한 것으로 판단한다. 상기 이탈조건은 이동체 1 및 이동체 2의 궤적유사도 Px, Py가 모두 0.7 미만이고, 근접거리가 70% 미만이면 달성되는 것으로 구성될 수 있다.The trajectory inference module 250 determines that the moving object 1 or the moving object 2 has left the group when the departure condition is satisfied in the moving object belonging to the same group. The detachment condition may be configured to be achieved when the trajectory similarities of the moving body 1 and the moving body 2 are both less than 0.7 and the proximity distance is less than 70%.

동일그룹에 속한 이동체가 3명 이상인 경우 이동체 1 및 이동체 2 사이에 이탈조건이 만족된 경우 궤적추론모듈에서는 동일그룹에 속한 나머지 이동체와 이탈조건이 만족된 이동체 사이에 이탈조건이 만족되는지 분석한다. 분석결과, 동일그룹에 속하는 이동체가 적은 쪽이 그룹을 이탈한 것으로 판단한다.When there are three or more moving objects belonging to the same group, the departure condition is satisfied between the moving object 1 and the moving object 2. As a result of the analysis, it is determined that the one with fewer moving objects belonging to the same group has left the group.

예를 들어, 이동체 3과 이동체 1 사이에 이탈조건이 만족되고 이동체 3과 이동체 2 사이에 이탈조건이 만족되지 않으면 이동체 1이 그룹을 이탈한 것으로 판단한다. For example, if the departure condition is satisfied between the mobile body 3 and the mobile body 1 and the departure condition is not satisfied between the mobile body 3 and the mobile body 2, the mobile body 1 is determined to have left the group.

궤적추론모듈에서는 이탈조건이 만족된 경우 이탈한 이동체 아이디 및 해당지역을 촬영하는 카메라번호 등을 별도의 저장소에 저장한다. 필요한 경우에는 알람을 발생시킬 수도 있다. 이렇게 저장된 데이터는 필요한 경우 다시 디스플레이되어 확인할 수 있도록 한다.In the trajectory inference module, when the departure condition is satisfied, the moving object ID and the camera number photographing the area are stored in a separate storage. Alarms can also be triggered if necessary. The data stored in this way can be displayed again and checked if necessary.

상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments of the present invention, those skilled in the art will be variously modified and modified within the scope of the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be understood that it can be changed.

100 : 스마트시티 미들웨어 110 : 공통디바이스 인터페이스층
130 : 공통애플리케이션 인터페이스층 200 : 문맥추론 컴퓨팅층
230 : 영상분석모듈 250 : 궤적추론모듈
300 : 클라우드 컴퓨팅층
100: smart city middleware 110: common device interface layer
130: common application interface layer 200: context inference computing layer
230: image analysis module 250: trajectory inference module
300: cloud computing layer

Claims (5)

데이터를 수집하는 공통디바이스 인터페이스층, 수집된 영상을 분석하는 영상분석모듈, 이동체의 궤적을 추론하는 궤적추론모듈을 포함하여 구성되는 스트림 리즈닝 감시 시스템에 있어서, 상기 스트림 리즈닝 감시 시스템은,
상기 공통디바이스 인터페이스층에 의해 복수 개의 카메라에 의해 촬영된 영상이 수집되는 단계;
상기 영상분석모듈에 의해 상기 수집된 영상이 병합되는 단계;
상기 궤적추론모듈에서 상기 병합된 영상에서 이동체에 대한 동일그룹을 판단하는 단계;
상기 그룹에서 이탈조건을 만족하는 이동체가 있는지 판단하는 단계를 수행하는 스트림 리즈닝 감시방법.
A stream device monitoring system comprising a common device interface layer for collecting data, an image analysis module for analyzing a collected image, and a trajectory inference module for inferring a trajectory of a moving object, the stream listening monitoring system comprising:
Collecting images photographed by a plurality of cameras by the common device interface layer;
Merging the collected images by the image analysis module;
Determining the same group for the moving object in the merged image by the trajectory inference module;
And determining whether there is a moving object that satisfies the departure condition in the group.
제1항에 있어서,
상기 영상분석모듈은 한 카메라에서 수집된 영상에서 이동체의 각 픽셀에 대하여 rgb값을 추출하고, 또한, 다른 카메라에서 수집된 영상에서 이동체의 각 픽셀에 대하여 rgb값을 추출하여 rgb 각각에 대하여 동일객체 유사도를 산출하는 단계를 수행하는 것을 특징으로 하는 스트림 리즈닝 감시방법.
The method of claim 1,
The image analysis module extracts an rgb value for each pixel of the moving object from an image collected by one camera, and extracts an rgb value for each pixel of the moving object from an image collected from another camera, thereby extracting the same object for each rgb. And calculating a similarity level.
제2항에 있어서,
상기 영상분석모듈은 이동체에 대한 궤적데이터를 추출하고,
상기 궤적추론모듈은 상기 자기상관계수에 기초하여 동일객체를 판단하며, 상기 궤적데이터를 이용하여 동일객체에 대한 전체 궤적을 생성하는 단계를 수행하는 것을 특징으로 하는 스트림 리즈닝 감시방법.
The method of claim 2,
The image analysis module extracts the trajectory data for the moving object,
And the trajectory inference module determines the same object based on the autocorrelation coefficient, and generates the entire trajectory for the same object using the trajectory data.
제3항에 있어서,
상기 궤적추론모듈은 하나의 이동체에 대하여 인접한 지역의 영상을 촬영하는 카메라에서 수집된 영상을 우선적으로 분석하여 상기 이동체에 대한 궤적을 추론하며, 특정 카메라에서 수집된 영상이 없는 경우 상기 특정 카메라가 촬영하는 지역과 가장 인접한 지역을 촬영하는 카메라에서 수집된 영상을 분석하여 상기 이동체에 대한 궤적을 추론하는 것을 특징으로 하는 스트림 리즈닝 감시방법.
The method of claim 3,
The trajectory inference module preferentially analyzes an image collected by a camera photographing an image of an adjacent region with respect to one moving object, and infers a trajectory for the moving object, and when no image is collected from the specific camera, the specific camera captures the image. Stream deduction monitoring method characterized in that to infer the trajectory to the moving object by analyzing the image collected by the camera photographing the region closest to the.
제3항에 있어서,
상기 궤적추론모듈은 각 이동체의 궤적에 대한 궤적유사도 및 시간대별 이동체 사이의 거리에 기초하여 동일그룹인지 여부를 판단하는 것을 특징으로 하는 스트림 리즈닝 감시방법.
The method of claim 3,
And the trajectory inference module determines whether the trajectory inference module is the same group based on the trajectory similarity for the trajectory of each moving object and the distance between the moving objects for each time zone.
KR1020180086087A 2018-07-24 2018-07-24 Stream reasoning surveilance system and Stream reasoning surveilance method using the same KR102161344B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180086087A KR102161344B1 (en) 2018-07-24 2018-07-24 Stream reasoning surveilance system and Stream reasoning surveilance method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180086087A KR102161344B1 (en) 2018-07-24 2018-07-24 Stream reasoning surveilance system and Stream reasoning surveilance method using the same

Publications (2)

Publication Number Publication Date
KR20200011237A true KR20200011237A (en) 2020-02-03
KR102161344B1 KR102161344B1 (en) 2020-10-05

Family

ID=69627138

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180086087A KR102161344B1 (en) 2018-07-24 2018-07-24 Stream reasoning surveilance system and Stream reasoning surveilance method using the same

Country Status (1)

Country Link
KR (1) KR102161344B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101425505B1 (en) * 2013-10-25 2014-08-13 홍승권 The monitering method of Intelligent surveilance system by using object recognition technology
KR20150051630A (en) * 2013-11-05 2015-05-13 한국과학기술연구원 Apparatus and method for detecting terrorism using irregular motion of peoples
KR20170097265A (en) * 2016-02-17 2017-08-28 광주과학기술원 System for tracking of moving multi target and method for tracking of moving multi target using same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101425505B1 (en) * 2013-10-25 2014-08-13 홍승권 The monitering method of Intelligent surveilance system by using object recognition technology
KR20150051630A (en) * 2013-11-05 2015-05-13 한국과학기술연구원 Apparatus and method for detecting terrorism using irregular motion of peoples
KR20170097265A (en) * 2016-02-17 2017-08-28 광주과학기술원 System for tracking of moving multi target and method for tracking of moving multi target using same

Also Published As

Publication number Publication date
KR102161344B1 (en) 2020-10-05

Similar Documents

Publication Publication Date Title
KR101215948B1 (en) Image information masking method of monitoring system based on face recognition and body information
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
KR101492180B1 (en) Video analysis
CN108376246A (en) A kind of identification of plurality of human faces and tracking system and method
KR101541272B1 (en) Apparatus and method for detecting terrorism using irregular motion of peoples
WO2019220589A1 (en) Video analysis device, video analysis method, and program
CN112232186A (en) Epidemic prevention monitoring method and system
JP2011035571A (en) Suspicious behavior detection method and suspicious behavior detector
KR102244878B1 (en) Cctv security system and method based on artificial intelligence
KR100885418B1 (en) System and method for detecting and tracking people from overhead camera video
KR100887942B1 (en) System for sensing abnormal phenomenon on realtime and method for controlling the same
JP5758165B2 (en) Article detection device and stationary person detection device
KR101113515B1 (en) Video index system using surveillance camera and the method thereof
KR101579275B1 (en) Security system using real-time monitoring with location-trace for dangerous-object
CN113920585A (en) Behavior recognition method and device, equipment and storage medium
JP6253950B2 (en) Image surveillance system
JP2012088861A (en) Intrusion object detection device
KR102161342B1 (en) Stream reasoning getting out of group surveilance system
KR102161344B1 (en) Stream reasoning surveilance system and Stream reasoning surveilance method using the same
KR102147678B1 (en) Image merging stream reasoning surveilance method
CN115719464A (en) Water meter durability device water leakage monitoring method based on machine vision
KR102161343B1 (en) Stream reasoning surveilance system and missing child alarming method using the same
KR20200010691A (en) Character recognition and traffic control system using heterogeneous camera
WO2012074366A2 (en) A system and a method for detecting a loitering event
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant