KR102504320B1 - Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment - Google Patents

Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment Download PDF

Info

Publication number
KR102504320B1
KR102504320B1 KR1020200041134A KR20200041134A KR102504320B1 KR 102504320 B1 KR102504320 B1 KR 102504320B1 KR 1020200041134 A KR1020200041134 A KR 1020200041134A KR 20200041134 A KR20200041134 A KR 20200041134A KR 102504320 B1 KR102504320 B1 KR 102504320B1
Authority
KR
South Korea
Prior art keywords
target
behavior
unit
data
image
Prior art date
Application number
KR1020200041134A
Other languages
Korean (ko)
Other versions
KR20210123682A (en
Inventor
배강민
윤기민
권용진
김형일
문진영
박종열
배유석
이영완
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200041134A priority Critical patent/KR102504320B1/en
Publication of KR20210123682A publication Critical patent/KR20210123682A/en
Application granted granted Critical
Publication of KR102504320B1 publication Critical patent/KR102504320B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템 및 방법에 관한 것으로, 대상의 특징을 추출하기 위한 특징 데이터가 저장된 특징 데이터베이스; 기 설치된 카메라를 통해 촬영되는 영상을 획득하는 영상 획득부; 상기 영상 획득부를 통해 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 상기 물체를 들고 있는 사람을 특징 추출 대상으로 설정하는 대상 설정부; 설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출하는 특징 추출부; 및 상기 특징 추출부를 통해 추출된 특징 정보를 이용하여 쓰레기 투기 행위를 탐지하는 특정 행위 탐지부를 포함한다. The present invention relates to a garbage dump actor detection system and method using multiple feature information in a surveillance camera environment, comprising: a feature database storing feature data for extracting features of a target; An image acquisition unit for obtaining an image captured by a pre-installed camera; a target setting unit that sets a person holding the object as a feature extraction target by using a deep learning model pre-learned from the image acquired through the image acquisition unit; a feature extraction unit for extracting feature data for determining whether a specific action is performed in a set feature extraction target; and a specific action detection unit for detecting a garbage dumping behavior using the feature information extracted through the feature extraction unit.

Description

감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템 및 방법{Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment}Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment}

본 발명은 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템 및 방법에 관한 것으로, 더욱 상세하게는 감시카메라를 통해 제공되는 촬영 영상으로부터 특정 행위인 쓰레기 투기 행위자를 탐지하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for detecting a garbage dump actor using multi-characteristic information in a surveillance camera environment, and more particularly, to a system and method for detecting a garbage dump actor of a specific behavior from a captured image provided through a surveillance camera. will be.

환경과 공공을 위한 인공지능의 개발이 화두다. 플라스틱이나 쓰레기 등을 무분별한 사용과 버려짐으로 인해 많은 환경이 파괴되고 있다. 또한, 공공의 문제로서 무단으로 버려진 쓰레기 더미를 치우는데 많은 사회적 비용이 발생한다. 이를 해결하기 위해, 관제사가 CCTV를 돌려보거나 간단한 움직임 센서 등을 이용한 방법을 사용하고 있지만, 비효율성으로 인해서 사용 효과가 미비하다.The development of artificial intelligence for the environment and the public is a hot topic. Many environments are being destroyed due to the indiscriminate use and disposal of plastics and garbage. In addition, as a public problem, a lot of social costs are incurred in clearing the heap of garbage dumped without permission. In order to solve this problem, the controller uses a method using a CCTV camera or a simple motion sensor, but the effect of use is insufficient due to inefficiency.

기존의 유사한 연구로서는 놓고 간 물체 탐지 방법이 있다. 한번 발생한 움직임이 오랫동안 지속되면, 특정 물체가 사람에 의해서 장면에 등장한 이후에 두고 갔다라는 가정을 이용한다. There is a method for detecting an object left behind as a similar research in the past. If the movement that occurred once persists for a long time, we use the assumption that a particular object was brought into the scene by a person and then left behind.

그러나, 이 방식은 주차된 차량의 경우에도 놓고 간 물체라고 판단되는 문제가 있으며 또한 버려진 물체가 가려짐 없이 확연히 보여야만 동작하는 한계가 있다.However, this method has a problem in that even in the case of a parked vehicle, it is determined as a left object, and there is a limit in that the abandoned object is clearly visible without being covered.

종래의 쓰레기 투기 탐지 방법의 기술들은 미리 정해진 가정을 많이 활용한다. [0003] Conventional garbage dumping detection method techniques make great use of pre-determined assumptions.

예를 들어, 쓰레기가 버려져 있는 영역에 사람이 나타나서 오래 머물러있는다든지, 투기 감시 카메라 아래에서 움직이는 물체가 1개에서 2개로 나타난다든지, 혹은 손 주변 움직임이 발생한다든지 하는 제약사항이 많다. For example, there are many restrictions such as a person appearing and staying in an area where garbage is dumped, one or two moving objects appearing under a dump surveillance camera, or movement around a hand.

본 발명은 종래 문제점을 해결하기 위해 안출된 것으로, 실제 투기 행위에서 발생하는 사람의 자세 및 배경 정보의 형상을 학습 기반의 방식을 통해 쓰레기 투기 행위를 감지하고, 사용자에게 이벤트를 알려주는 장치 및 방법을 제시하고자 한다.The present invention has been made to solve the conventional problems, and an apparatus and method for detecting a person's posture and the shape of background information occurring in an actual dumping act through a learning-based method and notifying the user of the event. would like to present

또한, 본 발명은 추가적인 일반 행동 분류기를 통해서, 쓰레기 투기 행위뿐만 아니라 일반적인 행동 분류를 지원하고, 이를 이용하여 오탐지가 적은 쓰레기 투기 감지 시스템 및 방법을 제공하고자 한다. In addition, the present invention is intended to provide a garbage dumping detection system and method that supports not only garbage dumping behavior but also general action classification through an additional general behavior classifier, and uses the same to provide a garbage dumping detection system and method with fewer false positives.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템은 대상의 특징을 추출하기 위한 특징 데이터가 저장된 특징 데이터베이스; 기 설치된 카메라를 통해 촬영되는 영상을 획득하는 영상 획득부; 상기 영상 획득부를 통해 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 상기 물체를 들고 있는 사람을 특징 추출 대상으로 설정하는 대상 설정부; 설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출하는 특징 추출부; 및 상기 특징 추출부를 통해 추출된 특징 정보를 이용하여 쓰레기 투기 행위를 탐지하는 특정 행위 탐지부를 포함한다. In order to achieve the above object, a system for detecting a garbage dump actor using multiple feature information in a surveillance camera environment according to an embodiment of the present invention includes a feature database storing feature data for extracting features of a target; An image acquisition unit for obtaining an image captured by a pre-installed camera; a target setting unit that sets a person holding the object as a feature extraction target by using a deep learning model pre-learned from the image acquired through the image acquisition unit; a feature extraction unit for extracting feature data for determining whether a specific action is performed in a set feature extraction target; and a specific action detection unit for detecting a garbage dumping behavior using the feature information extracted through the feature extraction unit.

상기 영상 획득부는 웹을 통해 접속하는 IP 카메라이다. The image acquisition unit is an IP camera accessed through the web.

상기 특징 데이터베이스는 대상의 특징을 추출하기 위해, 영상 획득부가 촬영하는 영상에서 추출되는 대상 주변의 이미지 데이터; 추출된 대상의 관절 영역 데이터를 추출하기 위한 관절 데이터; 추출된 대상의 특정 행동을 추출하기 위한 움직임 데이터; 및 상기 움직임 데이터를 통해 선정된 대상이 들고 있는 물체를 식별하기 위해 상기 영상 획득부가 촬영하는 영상에서의 주변 배경 데이터가 각각 저장되고, 학습된다. The feature database may include image data around an object extracted from an image taken by an image acquisition unit in order to extract features of the object; joint data for extracting joint area data of the extracted object; movement data for extracting a specific behavior of the extracted target; And, in order to identify an object held by a target selected through the motion data, surrounding background data in an image captured by the image acquisition unit is stored and learned.

상기 대상이 들고 있는 물체는, 사람이 들 수 있는 물체만을 학습한다. As for the objects held by the target, only objects that can be held by a person are learned.

상기 특징 추출부는, 획득한 영상에서 대상 주변의 이미지 데이터를 추출하는 대상 주변 이미지 추출부; 추출된 대상의 관절 영역 데이터를 추출하는 대상 관절 영역 추정부; 추출된 대상의 쓰레기 투기 움직임 데이터를 추출하는 대상 주변 움직임 추출부; 및 상기 대상 주변 움직임 추출부를 통해 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출하는 대상 주변 배경 추출부를 포함한다. The feature extraction unit may include: an image extraction unit for extracting image data around the object from the acquired image; a target joint area estimator for extracting joint area data of the extracted subject; a motion extractor around the object to extract garbage dumping motion data of the extracted object; and a background extracting unit for extracting surrounding background data of an object in which the movement of the object extracted through the motion extracting unit around the object is performed.

상기 특징 추출부는, DNN(Deep Neural network)을 이용하여 추출된 복수의 다중 특징 정보를 각각 학습하는 다중 특징 학습부를 더 포함하고, 상기 다중 특징 학습부는 쓰레기 투기 영상과 일반적인 행동 인식 영상을 각각 학습한다. The feature extractor further includes a multi-feature learner for learning a plurality of multi-feature information extracted using a deep neural network (DNN), and the multi-feature learner learns a trash dumping image and a general action recognition image, respectively. .

상기 특정 행위 탐지부는 CCTV 데이터 분류기를 이용하고, 사람의 세부 상태 분류기, 사람 자세 예측기 및 사람의 상태 분류기 중 적어도 하나 이상을 이용하여 상기 특정 행위 탐지부를 통해 탐지한 투기 행위에 대한 검증을 수행하는 투기 행동 검증부를 포함한다. The specific action detection unit uses a CCTV data classifier and uses at least one of a detailed human state classifier, a human posture predictor, and a human state classifier to verify speculation behavior detected through the specific behavior detection unit. It includes a behavior verification unit.

그리고 상기 투기 행동 검증부는, 상기 특정 행위 탐지부를 통해 탐지한 투기 행위의 검증여부에 따라, 관제사에게 이벤트 송부를 결정한다. Further, the speculation behavior verification unit determines whether to send an event to the controller according to whether or not the speculation behavior detected through the specific behavior detection unit is verified.

그리고 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법은 영상 획득부에 의해, 기 설치된 카메라를 통해 촬영되는 영상을 획득하는 단계; 대상 설정부에 의해, 상기 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 물체를 들고 있는 사람을 특징 추출 대상으로 설정하는 단계; 특징 추출부에 의해, 상기 설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출하는 단계; 및 특정 행위 탐지부에 의해, 상기 추출된 특징 정보를 이용하여 쓰레기 투기 행위를 탐지하는 단계를 포함한다. In addition, a method for detecting a garbage dump actor using multi-characteristic information in a surveillance camera environment according to an embodiment of the present invention includes the steps of acquiring, by an image acquisition unit, an image captured through a pre-installed camera; setting a person holding an object as a feature extraction target by using a deep learning model pre-learned from the acquired image by a target setting unit; extracting, by a feature extraction unit, feature data for determining whether a specific action is performed in the set feature extraction target; and detecting, by a specific behavior detection unit, a garbage dumping behavior using the extracted characteristic information.

상기 영상 획득하는 단계는, 웹을 통해 접속하는 IP 카메라이고, IP, 아이디, 패스워드를 통해서 인증 받은 후 웹으로 인터넷을 접속할 수 있는 주소를 이용하여 접속하는 것이 바람직하다. The step of acquiring the image is an IP camera accessed through the web, and it is preferable to access using an address that can access the Internet through the web after being authenticated through the IP, ID, and password.

상기 대상이 손으로 잡고 있는 물체는, 사람이 들 수 있는 물체만을 학습할 수 있다. As for the objects held by the target, only objects that can be held by a person can be learned.

상기 특징 추출하는 단계는, 대상 주변 이미지 추출부에 의해, 상기 획득한 영상에서 대상 주변의 이미지 데이터를 추출하는 단계; 대상 관절 영역 추정부에 의해, 상기 추출된 대상의 관절 영역 데이터를 추출하는 단계; 대상 주변 움직임 추출부에 의해, 상기 추출된 대상의 쓰레기 투기 움직임 데이터를 추출하는 단계; 및 대상 주변 배경 추출부에 의해, 상기 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출하는 단계를 포함한다. The feature extraction step may include extracting image data around the object from the obtained image by an image extractor around the object; extracting joint region data of the extracted target joint region by a target joint region estimator; extracting garbage dumping motion data of the extracted object by a motion extractor around the object; and extracting, by a background extracting unit around the target, surrounding background data of the object in which the motion of the extracted target is performed.

또한, CCTV 데이터 분류기를 이용하여 투기 행위를 검출하는 단계 및 상기 투기 행동 검증부에 의해, 상기 특정 행위 탐지부를 통해 탐지한 투기 행위의 검증여부에 따라, 관제사에게 이벤트 송부를 결정하는 단계;를 포함한다. In addition, a step of detecting a speculation behavior using a CCTV data classifier and a step of determining, by the speculation behavior verification unit, to send an event to a controller according to whether or not the speculation behavior detected through the specific behavior detection unit is verified; do.

상기 탐지한 투기 행위에 대한 검증을 수행하는 단계는, 투기 행동 검증부에 의해, 사람의 세부 상태 분류기, 사람 자세 예측기 및 사람의 상태 분류기 중 적어도 하나 이상을 이용하여 상기 특정 행위 탐지부를 통해 탐지한 투기 행위에 대한 검증을 수행하는 것이 바람직하다. In the step of verifying the detected speculative behavior, the speculative behavior verifier detects the speculative action through the specific behavior detector using at least one of a detailed state classifier, a human posture predictor, and a human state classifier. It is desirable to perform verification of speculation behavior.

본 발명의 다른 실시에에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 학습방법은 영상 획득부에 의해, 획득한 영상에서 대상 주변의 이미지 데이터를 저장하는 단계; 대상의 관절 영역 데이터를 추출하기 위한 관절 데이터를 저장하는 단계; 특정 움직임을 판단하기 위해, 추출된 대상의 움직임 데이터를 저장하는 단계; 및 추출된 대상이 들고 있는 물체를 판단하기 위해, 상기 영상 획득부에 의해, 획득한 영상에서 대상의 주변 배경 데이터를 저장하는 단계를 포함한다. According to another embodiment of the present invention, a garbage dumping agent detection learning method using multi-characteristic information in a surveillance camera environment includes the steps of storing image data around a target in an acquired image by an image acquiring unit; Storing joint data for extracting joint area data of a subject; storing motion data of an extracted object in order to determine a specific motion; and storing, by the image acquiring unit, surrounding background data of the object in the obtained image in order to determine an object that the extracted object is holding.

상기 각 데이터를 저장하는 단계는, DNN(Deep Neural network)을 이용하여 추출된 복수의 다중 특징 정보를 각각 학습하는 단계를 더 포함한다. The step of storing each data further includes learning each of a plurality of multi-characteristic information extracted using a deep neural network (DNN).

상기 각 데이터를 저장하는 단계는, 쓰레기 투기 영상과 일반적인 행동 인식 영상을 각각 학습하는 것이 바람직하다. In the step of storing each data, it is preferable to learn each of a garbage dumping image and a general action recognition image.

본 발명의 일 실시예에 따르면, 실제 학습 데이터로 다양하게 수집한 영상을 통해서, 투기 행동과 그렇지 않은 행동을 잘 구별할 수 있는 분류기를 학습하여 기존의 규칙 기반의 방법보다 오탐지가 적고 개선된 결과를 얻을 수 있는 효과가 있다. According to an embodiment of the present invention, a classifier capable of distinguishing speculative behavior from non-speculative behavior is learned through images collected in various ways as actual learning data, resulting in fewer false positives and improved There is an effect that can produce results.

도 1은 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템을 설명하기 위한 기능블럭도.
도 2는본 발명의 일 실시예에서 영상 획득부를 통해 촬영된 영상의 일 예를 설명한 도면.
도 3은 도 1의 특징 추출부를 상세히 설명하기 위한 기능블록도.
도 4 내지 도 7은 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템에서 특정 행위를 감지하기 위한 과정을 설명하기 위한 참고도.
도 8은 본 발명의 일 실시예에서 획득한 영상에 복수개의 대상이 설정된 상태를 설명하기 위한 참고도.
도 9는 본 발명의 일 실시예에서 획득한 영상에 복수개의 대상이 들고 있는 물체를 설명하기 위한 참고도.
도 10은 본 발명의 일 실시예에서 특정 행위를 검증하기 위한 과정을 설명하기 위한 기능블록도.
도 11은 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법을 설명하기 위한 순서도.
도 12는 도 11의 특징 데이터 추출 단계를 설명하기 위한 순서도이다.
1 is a functional block diagram for explaining a garbage dumping actor detection system using multi-characteristic information in a monitoring camera environment according to an embodiment of the present invention.
2 is a view for explaining an example of an image captured through an image acquisition unit in one embodiment of the present invention.
3 is a functional block diagram for explaining in detail the feature extraction unit of FIG. 1;
4 to 7 are reference diagrams for explaining a process for detecting a specific behavior in the garbage dump actor detection system using multi-characteristic information in a monitoring camera environment according to an embodiment of the present invention.
8 is a reference diagram for explaining a state in which a plurality of objects are set in an image obtained in an embodiment of the present invention;
9 is a reference diagram for explaining objects held by a plurality of subjects in an image obtained in an embodiment of the present invention;
10 is a functional block diagram for explaining a process for verifying a specific action in an embodiment of the present invention.
11 is a flowchart illustrating a method of detecting a garbage dump actor using multi-characteristic information in a surveillance camera environment according to an embodiment of the present invention.
12 is a flowchart for explaining the feature data extraction step of FIG. 11 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

도 1은 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템을 설명하기 위한 기능블럭도이다. 1 is a functional block diagram for explaining a garbage dump actor detection system using multi-characteristic information in a monitoring camera environment according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템은 특징 데이터베이스(100), 영상 획득부(200), 대상 설정부(300), 특징 추출부(400) 및 특정 행위 탐지부(500)를 포함한다. As shown in FIG. 1, the garbage dumping agent detection system using multiple feature information in a monitoring camera environment according to an embodiment of the present invention includes a feature database 100, an image acquisition unit 200, and a target setting unit 300. , a feature extraction unit 400 and a specific action detection unit 500 are included.

특징 데이터베이스(100)는 대상의 특징을 추출하기 위한 특징 데이터가 저장된다. The feature database 100 stores feature data for extracting features of an object.

영상 획득부(200)는 기 설치된 카메라를 통해 촬영되는 영상을 획득한다. 도 2는 영상 획득부(200)를 통해 촬영된 영상의 예이다. 이러한 영상 획득부(200)는 CCTV 카메라일 수 있고, 웹을 통해 접속하는 IP 카메라이며, IP, 아이디, 패스워드를 통해서 인증 받은 후 웹으로 인터넷을 접속할 수 있는 주소를 이용하여 접속한다. The image acquiring unit 200 acquires an image captured through a pre-installed camera. 2 is an example of an image captured through the image acquisition unit 200. This image acquisition unit 200 may be a CCTV camera, an IP camera accessed through the web, and after being authenticated through IP, ID, and password, it is accessed using an address capable of accessing the Internet through the web.

대상 설정부(300)는 도 2에 도시된 바와 같이, 영상 획득부(200)를 통해 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 물체를 들고 있는 사람을 특징 추출 대상으로 설정한다. 이러한 대상 설정부(300)는 영상 획득부(200)를 통해 촬영된 영상에서 사람을 탐지하고, 사람이 소유하고 있는 물체를 탐지할 수 있다. As shown in FIG. 2 , the target setting unit 300 sets a person holding an object as a feature extraction target by using a pre-learned deep learning model from an image obtained through the image acquiring unit 200 . The target setting unit 300 may detect a person in an image captured by the image acquisition unit 200 and an object owned by the person.

특징 추출부(400)는 설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출한다. 여기서, 본 발명의 일 실시예에서의 특정 행위는 쓰레기를 투기하는 행위이다.The feature extraction unit 400 extracts feature data for determining whether a specific action is performed in a set feature extraction target. Here, a specific action in one embodiment of the present invention is an action of dumping garbage.

도 3은 도 1의 특징 추출부(400)를 설명하기 위한 구성블록도이다. FIG. 3 is a block diagram illustrating the feature extraction unit 400 of FIG. 1 .

도 3에 도시된 바와 같이, 하기에서는 본 발명의 일 실시예에 따른 특징 추출부(400)는 대상 주변 이미지 추출부(410), 대상 관절 영역 추정부(420), 대상 주변 움직임 추출부(430) 및 대상 주변 배경 추출부(440)를 포함한다. As shown in FIG. 3 , the feature extraction unit 400 according to an embodiment of the present invention includes an image extraction unit 410 around the target, a target joint area estimation unit 420, and a movement extraction unit 430 around the target. ) and a background extraction unit 440 around the target.

대상 주변 이미지 추출부(410)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 도 4에 도시된 바와 같이, 상기 영상에서 대상 주변의 이미지 데이터를 추출한다. The image extractor 410 extracts image data around the object from the image, as shown in FIG. 4 , using specific information stored in the feature database 100 .

대상 관절 영역 추정부(420)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 획득한 영상에서 도 5에 도시된 바와 같이, 추출된 대상의 관절 영역 데이터를 추출한다. The target joint region estimator 420 extracts joint region data of the extracted target, as shown in FIG. 5 , from an acquired image using specific information stored in the feature database 100 .

대상 주변 움직임 추출부(430)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 획득한 영상에서 도 7에 도시된 바와 같이, 추출된 대상의 쓰레기 투기 움직임 데이터를 추출한다. The movement extractor 430 around the object extracts garbage dumping movement data of the extracted object, as shown in FIG. 7 , from an acquired image using specific information stored in the feature database 100 .

대상 주변 배경 추출부(440)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 도 8에 도시된 바와 같이, 대상 주변 움직임 추출부(430)를 통해 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출한다. The surrounding background extractor 440 uses the specific information stored in the feature database 100, as shown in FIG. extract data

이후, 특정 행위 탐지부(500)는 특징 추출부(400)를 통해 추출된 특징 정보를 이용하여 특정 행위인 쓰레기 투기 행위를 탐지한다. Thereafter, the specific behavior detection unit 500 detects a specific behavior, such as garbage dumping, by using the feature information extracted through the feature extraction unit 400 .

일 예로, 도 2에 도시된 바와 같이, 영상 획득부(200)로부터 촬영된 영상 정보가 수집되면, 대상 설정부(300)는 영상 획득부(200)를 통해 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 물체를 들고 있는 사람을 특징 추출 대상과 대상이 들고 있는 물체(T1)을 설정한다. 한편, 특징 추출 대상은 도 8에 도시된 바와 같이, 복수의 사람(O1 내지 O3)이 특징 추출 대상으로 설정되거나 해당 대상이 들고 있는 물체(T1)이 될 수 있다. For example, as shown in FIG. 2 , when image information captured by the image acquisition unit 200 is collected, the target setting unit 300 performs deep learning pre-learned from the image acquired through the image acquisition unit 200. Using the model, a feature extraction target for a person holding an object and an object (T1) held by the target are set. Meanwhile, as shown in FIG. 8 , a feature extraction target may be a plurality of people O1 to O3 set as feature extraction targets or an object T1 held by the corresponding target.

이를 위해, 특징 추출부(400)는 설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출한다. To this end, the feature extractor 400 extracts feature data for determining whether a specific action is performed in a set feature extraction target.

먼저, 대상 주변 이미지 추출부(410)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 상기 영상에서 대상 주변의 이미지 데이터를 추출한다.First, the image extractor 410 extracts image data around the subject from the image using specific information stored in the feature database 100 .

대상 관절 영역 추정부(420)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 획득한 영상에서 추출된 대상의 관절 영역 데이터를 추출한다. The target joint region estimator 420 extracts joint region data of the target extracted from an acquired image using specific information stored in the feature database 100 .

대상 주변 움직임 추출부(430)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 획득한 영상에서 추출된 대상의 쓰레기 투기 움직임 데이터를 추출한다. The movement extraction unit 430 around the object extracts garbage dumping movement data of the object extracted from the acquired image using specific information stored in the feature database 100 .

대상 주변 배경 추출부(440)는 특징 데이터베이스(100)에 저장된 특정 정보를 이용하여 상기 대상 주변 움직임 추출부(430)를 통해 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출한다. The background extractor 440 extracts surrounding background data of an object in which the motion of the object extracted through the object motion extractor 430 is performed using specific information stored in the feature database 100 .

이후, 특정 행위 탐지부(500)는 특징 추출부(400)를 통해 추출된 특징 정보를 이용하여 특정 행위인 쓰레기 투기 행위를 탐지한다. Thereafter, the specific behavior detection unit 500 detects a specific behavior, such as garbage dumping, by using the feature information extracted through the feature extraction unit 400 .

특정 행위 탐지부(500)는 특징 추출부(400)에 의해, 추출된 특징 데이터를 이용하여 추출된 특징 추출 대상의 특징 행위를 탐지할 수 있다. The specific behavior detection unit 500 may detect a characteristic behavior of a feature extraction target extracted by using the feature data extracted by the feature extraction unit 400 .

즉, 특정 행위 탐지부(500)는 추출된 특징 추출 대상에 대하여 추출한 대상 주변의 이미지 데이터를 비교하여 사람이 들고 있는 물체 즉, 쓰레기를 검출한다. 이와 같이, 사람이 들고 있는 물체가 검출되면 해당 물체를 들고 있는 대상만을 선택하여 정밀 분석할 수 있다. That is, the specific action detection unit 500 compares image data around the extracted feature with respect to the extracted feature extraction target to detect an object held by a person, that is, garbage. In this way, when an object being held by a person is detected, only the object holding the object may be selected and precisely analyzed.

그리고 특징 행위 탐지부(500)는 추출된 특징 추출 대상에 대하여 관절 영역 데이터를 비교하여 쓰레기의 투기 행동을 탐지한다. 즉, 쓰레기 투기시의 관절 영역 데이터를 비교함으로써, 쓰레기 투기 행동을 수행하고자 하는 대상인지를 탐지할 수 있다. Further, the feature action detection unit 500 compares joint area data with respect to the extracted feature extraction target to detect garbage dumping behavior. That is, by comparing joint area data at the time of garbage dumping, it is possible to detect whether the object is intended to perform garbage dumping behavior.

또한, 특징 행위 탐지부(500)는 추출된 특징 추출 대상에 대하여 대상 쓰레기 투기 움직임 데이터와 비교하여 검출된 대상이 쓰레기를 투기 하는 움직임을 수행함을 탐지할 수 있다. In addition, the feature action detection unit 500 may detect that the detected object performs a garbage dumping motion by comparing the extracted feature extraction motion data with target garbage dumping motion data.

그리고 특징 행위 탐지부(500)는 추출된 특징 추출 대상에 대하여 대상의 주변 배경 데이터와 비교하여 대상이 특징 물체를 들고 있는지를 판단하거나 대상이 들고 있는 물체를 투기하는지를 탐지하여 쓰레기 투기 대상 탐지를 보다 정확하게 할 수 있다. In addition, the feature action detection unit 500 compares the extracted feature extraction target with surrounding background data of the target to determine whether the target is holding a characteristic object or detects whether the object is dumping the object that the target is holding so as to detect a garbage dumping target. can do it accurately

한편 특징 추출부(400)는 DNN(Deep Neural network)을 이용하여 추출된 복수의 다중 특징 정보를 각각 학습하는 다중 특징 학습부를 더 포함할 수 있다. 여기서, 본 실시예에서의 대상이 손으로 잡고 있는 물체는 사람이 들 수 있는 물체만을 학습하는 것이 바람직하다. 이와 같이, 학습 대상을 한정함으로써 보다 정확하게 물체를 학습할 수 있다. Meanwhile, the feature extractor 400 may further include a multi-feature learner for learning each of a plurality of multi-feature information extracted using a deep neural network (DNN). Here, it is preferable to learn only objects that can be held by a person as objects held by the hand in the present embodiment. In this way, by limiting the learning target, the object can be learned more accurately.

한편, 다중 특징 학습부는 쓰레기 투기 영상과 일반적인 행동 인식 영상을 각각 학습할 수 있다. 이와 같이, 쓰레기 투기 영상과 일반적인 행동 인식 영상을 각각 학습함으로써, 그 학습 대상 영상 데이터를 학습하여 그 정확도를 높일 수 있다. Meanwhile, the multi-feature learning unit may learn a trash dumping image and a general action recognition image, respectively. In this way, by learning the garbage dumping image and the general action recognition image respectively, the learning target image data can be learned and the accuracy thereof can be increased.

도 10은 본 발명의 일 실시예에서 특정 행위를 검증하기 위한 과정을 설명하기 위한 기능블록도이다. 10 is a functional block diagram for explaining a process for verifying a specific action in an embodiment of the present invention.

한편, 본 발명의 일 실시예에서는, 특정 행위 추출부(500)를 통해 추출된 특정 행위를 검증하여 검출의 정확성을 높일 수 있다. Meanwhile, in an embodiment of the present invention, the detection accuracy may be increased by verifying the specific action extracted through the specific action extraction unit 500 .

이를 위해, 본 발명의 일 실시예에서는, CCTV 데이터 분류기를 이용하여 쓰레기를 투기하는 대상을 탐지하고, 사람의 세부 상태 분류기, 사람 자세 예측기 및 사람의 상태 분류기 중 적어도 하나 이상을 이용하여 특정 행위 탐지부(500)를 통해 탐지한 투기 행위에 대한 검증을 수행하는 투기 행동 검증부(600)를 포함할 수 있다. 여기서, 사람의 세부 상태 분류기는 사람의 포괄적 행동 특징(예시; 서있다, 누워있다, 앉아있다 등)을 분류할 수 있는 MPHB 분류기이고, 사람의 상태 분류기는 사람의 세부적 행동 특징(예시; 자전거를 타다, 카트를 밀다 등)을 분류할 수 있는 Standford40 분류기이다. To this end, in an embodiment of the present invention, a target for dumping garbage is detected using a CCTV data classifier, and a specific action is detected using at least one of a detailed human state classifier, a human posture predictor, and a human state classifier. A speculation behavior verifying unit 600 performing verification of the speculative behavior detected through the unit 500 may be included. Here, the person's detailed state classifier is an MPHB classifier capable of classifying a person's comprehensive behavioral characteristics (eg, standing, lying, sitting, etc.), and the person's state classifier is a person's detailed behavioral characteristic (eg, riding a bicycle , push a cart, etc.) is a Standford 40 classifier.

그리고, 투기 행동 검증부(600)는 상기 특정 행위 탐지부(500)를 통해 탐지한 투기 행위의 검증여부에 따라, 관제사에게 이벤트 송부를 결정할 수 있다. Further, the speculation behavior verifying unit 600 may determine whether to send an event to the controller according to whether or not the speculative behavior detected through the specific behavior detection unit 500 is verified.

이하, 하기에서는 본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법에 대하여 도 11을 참조하여 설명하기로 한다. Hereinafter, a garbage dump actor detection method using multi-characteristic information in a surveillance camera environment according to an embodiment of the present invention will be described with reference to FIG. 11 .

먼저, 영상 획득부(200)에 의해, 기 설치된 카메라를 통해 촬영되는 영상을 획득한다(S100). 상기 영상 획득하는 단계(S100)는 웹을 통해 접속하는 IP 카메라인 것이 바람직하고, IP, 아이디, 패스워드를 통해서 인증 받은 후 웹으로 인터넷을 접속할 수 있는 주소를 이용하여 접속할 수 있다. First, an image captured through a pre-installed camera is acquired by the image acquisition unit 200 (S100). The step of acquiring the image (S100) is preferably an IP camera accessed through the web, and can be accessed using an address that can access the Internet through the web after being authenticated through IP, ID, and password.

이후, 대상 설정부(300)에 의해, 상기 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 물체를 들고 있는 사람을 특징 추출 대상으로 설정한다(S200). Thereafter, the target setting unit 300 sets a person holding an object as a feature extraction target using a deep learning model pre-learned from the obtained image (S200).

이어서, 특징 추출부(400)에 의해, 상기 설정된 특징 추출 대상에서 쓰레기를 투기하는 행위를 하는지를 판단하기 위한 특징 데이터를 추출한다(S300). Next, the feature extraction unit 400 extracts feature data for determining whether the set feature extraction target performs an act of dumping garbage (S300).

이하, 하기에서는 본 발명의 일 실시예에 따른 특징 추출하는 단계(S300)에 대하여 도 12를 참조하여 설명하기로 한다. Hereinafter, the feature extraction step (S300) according to an embodiment of the present invention will be described with reference to FIG. 12.

먼저, 대상 주변 이미지 추출부(410)에 의해, 상기 획득한 영상에서 대상 주변의 이미지 데이터를 추출한다(S310). First, image data around the subject is extracted from the obtained image by the image extraction unit 410 around the subject (S310).

그리고 대상 관절 영역 추정부(420)에 의해, 상기 추출된 대상의 관절 영역 데이터를 추출한다(S320). Then, the joint region data of the extracted target joint region is extracted by the target joint region estimation unit 420 (S320).

또한, 대상 주변 움직임 추출부(430)에 의해, 상기 추출된 대상의 쓰레기 투기 움직임 데이터를 추출한다(S330). In addition, the motion data around the object is extracted by the motion extractor 430 for dumping garbage of the extracted object (S330).

대상 주변 배경 추출부(440)에 의해, 상기 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출한다(S340). Background data around the object where the motion of the extracted object has been performed is extracted by the object surrounding background extractor 440 (S340).

이후, 특정 행위 탐지부(500)에 의해, 상기 추출된 특징 정보를 이용하여 쓰레기 투기 행위를 탐지한다(S400). Thereafter, the specific behavior detection unit 500 detects a garbage dumping behavior using the extracted feature information (S400).

이후, 탐지된 쓰레기 투기 행위를 검증한다(S500). 즉, 특정 행위 추출부(500)를 통해 추출된 특정 행위를 검증하여 검출의 정확성을 높일 수 있다. Thereafter, the detected garbage dumping behavior is verified (S500). That is, the detection accuracy may be increased by verifying the specific action extracted through the specific action extractor 500 .

상기 검증 단계는, 투기 행동 검증부(600)에 의해, 상기 CCTV 데이터 분류기를 이용하여 쓰레기를 투기하는 대상을 탐지할 수 있다. 그리고, 상기 검증 단계는, 사람의 세부 상태 분류기, 사람 자세 예측기 및 사람의 상태 분류기 중 적어도 하나 이상을 이용하여 특정 행위 탐지부(500)를 통해 탐지한 투기 행위에 대한 검증을 수행할 수 있다. 여기서, 사람의 세부 상태 분류기는 사람의 포괄적 행동 특징(예시; 서있다, 누워있다, 앉아있다 등)을 분류할 수 있는 MPHB 분류기이고, 사람의 상태 분류기는 사람의 세부적 행동 특징(예시; 자전거를 타다, 카트를 밀다 등)을 분류할 수 있는 Standford40 분류기이다. In the verifying step, the dumping behavior verifying unit 600 may detect a target for dumping garbage using the CCTV data classifier. Further, in the verification step, the speculation behavior detected through the specific behavior detection unit 500 may be verified using at least one of the detailed human state classifier, the human posture predictor, and the human state classifier. Here, the person's detailed state classifier is an MPHB classifier capable of classifying a person's comprehensive behavioral characteristics (eg, standing, lying, sitting, etc.), and the person's state classifier is a person's detailed behavioral characteristic (eg, riding a bicycle , push a cart, etc.) is a Standford 40 classifier.

그리고, 투기 행동 검증부(600)에 의해, 탐지한 투기 행위의 검증여부에 따라, 관제사에게 이벤트 송부를 결정할 수 있다.In addition, according to whether or not the detected speculation behavior is verified by the speculation behavior verifying unit 600, it may be determined to send the event to the controller.

한편, 상기 대상이 손으로 잡고 있는 물체는 사람이 들 수 있는 물체만을 학습할 수 있다. On the other hand, only objects that can be held by a person can be learned as objects that the target is holding by hand.

본 발명의 일 실시예에 따른 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 학습 방법은 획득한 영상에서 대상 주변의 이미지 데이터를 특징 데이터베이스(100)에 저장한다. 이러한 이미지 데이터는 검출된 대상이 손으로 들고 있는 물건 또는 쓰레기 더미에 쌓여 있는 물건을 검출하는데 이용된다. In the garbage dump actor learning method using multi-characteristic information in a monitoring camera environment according to an embodiment of the present invention, image data around an object in an acquired image is stored in the feature database 100. Such image data is used to detect an object that the detected object is holding by hand or an object piled up in a garbage pile.

이어서, 대상의 관절 영역 데이터를 추출하기 위한 관절 데이터를 특징 데이터베이스(100)에 저장한다. 여기서, 관절 데이터는 대상이 특정 행위를 수행하는지를 검출하는데 이용된다. Subsequently, joint data for extracting joint area data of the target is stored in the feature database 100 . Here, the joint data is used to detect whether the target performs a specific action.

그리고 특정 움직임을 판단하기 위해, 추출된 대상의 움직임 데이터를 특징 데이터베이스(100)에 저장한다. 여기서, 움직임 데이터는 대상이 특정 행위를 수행하는지를 검출하는데 이용된다. 이를 위해, 관절 데이터와 움직임 데이터의 경우 특정 행위와 일반적인 행동 인식 영상을 데이터로 이용하여 학습함으로써, 실제 CCTV를 통해 촬영된 영상뿐만 아니라, 특정 동작을 검출하기 위해 다른 영상 매체를 통해 촬영된 영상 또한 이용될 수 있다. Then, in order to determine a specific movement, the extracted movement data of the object is stored in the feature database 100 . Here, motion data is used to detect whether a target performs a specific action. To this end, in the case of joint data and motion data, by learning using specific actions and general action recognition images as data, not only images captured through actual CCTV, but also images captured through other video media to detect specific movements can be used

또한 추출된 대상이 들고 있는 물체를 판단하기 위해, 상기 획득한 영상에서 대상의 주변 배경 데이터를 특징 데이터베이스(100)에 저장한다. In addition, in order to determine the object that the extracted object is holding, the surrounding background data of the object in the obtained image is stored in the feature database 100 .

여기서, 주변 배경 데이터는 CCTV를 통해 촬영된 영상내에 복수의 대상이 검출되는 경우, 실제 쓰레기를 투기하는 대상 즉, 특정 행동을 수행하는 대상을 검출하기 위한 데이터로 이용된다. 따라서, 실제 CCTV를 통해 촬영된 영상으로부터 획득한 데이터가 저장되고 학습되는 것이 바람직하다. Here, the surrounding background data is used as data for detecting an object that actually dumps garbage, that is, an object that performs a specific action, when a plurality of objects are detected in an image captured through CCTV. Therefore, it is desirable to store and learn data obtained from images captured through actual CCTV.

여기서, 상기 각 데이터를 저장하는 단계는 DNN(Deep Neural network)을 이용하여 추출된 복수의 다중 특징 정보를 각각 학습하는 것이 바람직하다. Here, in the step of storing each data, it is preferable to learn each of a plurality of multi-characteristic information extracted using a deep neural network (DNN).

또한 상기 각 데이터를 저장하는 단계는 쓰레기 투기 영상과 일반적인 행동 인식 영상을 각각 학습할 수 있다. Also, in the step of storing each data, a trash dumping image and a general action recognition image may be learned.

이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허청구범위의 기재에 의하여 정해져야 할 것이다. In the above, the configuration of the present invention has been described in detail with reference to the accompanying drawings, but this is only an example, and various modifications and changes within the scope of the technical idea of the present invention to those skilled in the art to which the present invention belongs Of course this is possible. Therefore, the scope of protection of the present invention should not be limited to the above-described embodiments, but should be defined by the description of the claims below.

Claims (20)

DNN(Deep Neural network)을 이용하여 추출된 대상의 특징을 추출하기 위한, 영상 획득부가 촬영하는 영상에서 추출되는 대상 주변의 이미지 데이터, 추출된 대상의 관절 영역 데이터를 추출하기 위한 관절 데이터, 추출된 대상의 특정 행동을 추출하기 위한 움직임 데이터 및 상기 움직임 데이터를 통해 선정된 대상이 들고 있는 물체를 식별하기 위해 영상 획득부가 촬영하는 영상에서의 주변 배경 데이터가 각각 학습되어 저장된 대상의 특징을 추출하기 위한 특징 데이터가 저장된 특징 데이터베이스;
기 설치된 카메라를 통해 촬영되는 영상을 획득하는 영상 획득부;
상기 영상 획득부를 통해 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 상기 물체를 들고 있는 사람을 특징 추출 대상으로 설정하는 대상 설정부;
설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출하는 특징 추출부; 및
상기 특징 추출부를 통해 추출된 특징 정보를 이용하여 쓰레기 투기 행위를 탐지하는 특정 행위 탐지부를 포함하되,
상기 특징 추출부는,
획득한 영상에서 대상 주변의 이미지 데이터를 추출하는 대상 주변 이미지 추출부; 추출된 대상의 관절 영역 데이터를 추출하는 대상 관절 영역 추정부; 추출된 대상의 쓰레기 투기 움직임 데이터를 추출하는 대상 주변 움직임 추출부; 및 상기 대상 주변 움직임 추출부를 통해 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출하는 대상 주변 배경 추출부를 포함하고,
상기 특정 행위 탐지부는
추출된 특징 추출 대상에 대하여 대상의 주변 배경 데이터와 비교하여 대상이 특징 물체를 들고 있는지를 판단하거나 대상이 들고 있는 물체를 투기하는지를 탐지하는 것을 특징으로 하는 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
Image data around the object extracted from the image captured by the image acquisition unit, joint data for extracting joint area data of the extracted object, extracted using DNN (Deep Neural network) to extract features of the extracted object, extracted In order to identify the motion data for extracting a specific behavior of the target and the object held by the target selected through the motion data, the surrounding background data in the image captured by the image acquisition unit is learned and stored to extract the characteristics of the target. a feature database storing feature data;
An image acquisition unit for obtaining an image captured by a pre-installed camera;
a target setting unit that sets a person holding the object as a feature extraction target by using a deep learning model pre-learned from the image acquired through the image acquisition unit;
a feature extraction unit for extracting feature data for determining whether a specific action is performed in a set feature extraction target; and
A specific action detection unit for detecting a garbage dumping behavior using the feature information extracted through the feature extraction unit,
The feature extraction unit,
an image extraction unit for extracting image data around the object from the obtained image; a target joint area estimator for extracting joint area data of the extracted subject; a motion extractor around the object to extract garbage dumping motion data of the extracted object; and a background extracting unit for extracting surrounding background data of an object in which a motion of the object extracted through the motion extracting unit around the object is performed,
The specific action detection unit
Garbage dumping using multi-characteristic information in a surveillance camera environment, characterized in that the extracted feature extraction target is compared with the surrounding background data of the target to determine whether the target is holding a characteristic object or to detect whether the target throws the object it is holding actor detection system.
제 1항에 있어서,
상기 영상 획득부는,
웹을 통해 접속하는 IP 카메라인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
According to claim 1,
The image acquisition unit,
A garbage dump actor detection system using multi-characteristic information in a surveillance camera environment, which is an IP camera accessed through the web.
삭제delete 제 1항에 있어서,
상기 대상이 들고 있는 물체는,
사람이 들 수 있는 물체만을 학습하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
According to claim 1,
The object held by the target is
A garbage dump actor detection system using multi-characteristic information in a surveillance camera environment that learns only objects that people can lift.
삭제delete 삭제delete 제 1항에 있어서,
상기 다중 특징 학습부는,
쓰레기 투기 영상과 일반적인 행동 인식 영상을 각각 학습하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
According to claim 1,
The multi-feature learning unit,
A garbage dumping actor detection system using multi-characteristic information in a surveillance camera environment that learns garbage dumping images and general behavior recognition images separately.
제 1항에 있어서,
상기 특정 행위 탐지부는,
CCTV 데이터 분류기를 이용하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
According to claim 1,
The specific action detection unit,
A garbage dump actor detection system using multi-characteristic information in a surveillance camera environment using a CCTV data classifier.
제 8항에 있어서,
사람의 세부 상태 분류기, 사람 자세 예측기 및 사람의 상태 분류기 중 적어도 하나 이상을 이용하여 상기 특정 행위 탐지부를 통해 탐지한 투기 행위에 대한 검증을 수행하는 투기 행동 검증부를 포함하는 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
According to claim 8,
Multi-characteristic information in a surveillance camera environment including a speculative behavior verification unit that verifies the speculative behavior detected through the specific behavior detection unit using at least one of a detailed human state classifier, a human posture predictor, and a human state classifier. A garbage dumping agent detection system using .
제 9항에 있어서,
상기 투기 행동 검증부는,
상기 특정 행위 탐지부를 통해 탐지한 투기 행위의 검증여부에 따라, 관제사에게 이벤트 송부를 결정하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 시스템.
According to claim 9,
The speculation behavior verification unit,
A system for detecting trash dumping actors using multi-characteristic information in a surveillance camera environment, which determines whether to send an event to a controller according to whether the dumping behavior detected through the specific behavior detection unit is verified.
영상 획득부에 의해, 기 설치된 카메라를 통해 촬영되는 영상을 획득하는 단계;
대상 설정부에 의해, 상기 획득한 영상에서 기 학습된 딥러닝 모델을 이용하여 물체를 들고 있는 사람을 특징 추출 대상으로 설정하는 단계;
특징 추출부에 의해, 상기 설정된 특징 추출 대상에서 특정 행위를 하는지를 판단하기 위한 특징 데이터를 추출하는 단계; 및
특정 행위 탐지부에 의해, 상기 추출된 특징 정보를 이용하여 쓰레기 투기 행위를 탐지하는 단계를 포함하되,
상기 특징 추출하는 단계는,
대상 주변 이미지 추출부에 의해, 상기 획득한 영상에서 대상 주변의 이미지 데이터를 추출하는 단계; 대상 관절 영역 추정부에 의해, 상기 추출된 대상의 관절 영역 데이터를 추출하는 단계; 대상 주변 움직임 추출부에 의해, 상기 추출된 대상의 쓰레기 투기 움직임 데이터를 추출하는 단계; 및 대상 주변 배경 추출부에 의해, 상기 추출된 대상의 움직임이 행해진 대상의 주변 배경 데이터를 추출하는 단계를 포함하고,
상기 쓰레기 투기 행위를 탐지하는 단계는,
추출된 특징 추출 대상에 대하여 대상의 주변 배경 데이터와 비교하여 대상이 특징 물체를 들고 있는지를 판단하거나 대상이 들고 있는 물체를 투기하는지를 탐지하는 것을 특징으로 하는 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법.
Obtaining an image captured by a pre-installed camera by an image acquisition unit;
setting a person holding an object as a feature extraction target by using a deep learning model pre-learned from the acquired image by a target setting unit;
extracting, by a feature extraction unit, feature data for determining whether a specific action is performed in the set feature extraction target; and
Detecting, by a specific behavior detection unit, a garbage dumping behavior using the extracted feature information,
In the feature extraction step,
extracting image data around the object from the obtained image by an image extraction unit around the object; extracting joint region data of the extracted target joint region by a target joint region estimator; extracting garbage dumping motion data of the extracted object by a motion extractor around the object; and extracting, by a target surrounding background extracting unit, surrounding background data of an object in which the extracted object moves,
The step of detecting the garbage dumping act,
Garbage dumping using multi-characteristic information in a surveillance camera environment, characterized in that the extracted feature extraction target is compared with the surrounding background data of the target to determine whether the target is holding a characteristic object or to detect whether the target throws the object it is holding Actor detection methods.
제 11항에 있어서,
상기 영상 획득하는 단계는,
웹을 통해 접속하는 IP 카메라인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법.
According to claim 11,
The step of obtaining the image is,
A method for detecting a garbage dump actor using multi-characteristic information in a surveillance camera environment, which is an IP camera accessed through the web.
제 12항에 있어서,
상기 영상 획득하는 단계는,
IP, 아이디, 패스워드를 통해서 인증 받은 후 웹으로 인터넷을 접속할 수 있는 주소를 이용하여 접속하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법.
According to claim 12,
The step of obtaining the image is,
A method of detecting a garbage dump actor using multi-characteristic information in a surveillance camera environment, which is accessed using an address that can access the Internet through the web after being authenticated through IP, ID, and password.
제 11항에 있어서,
상기 대상이 손으로 잡고 있는 물체는,
사람이 들 수 있는 물체만을 학습하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법.
According to claim 11,
The object that the subject is holding by hand,
A garbage dump actor detection method using multi-characteristic information in a surveillance camera environment that learns only objects that people can lift.
삭제delete 제 11항에 있어서,
상기 쓰레기 투기 행위를 탐지하는 단계 이후 탐지한 투기 행위에 대한 검증을 수행하는 단계를 더 포함하고,
상기 탐지한 투기 행위에 대한 검증을 수행하는 단계는,
CCTV 데이터 분류기를 이용하여 투기 행위를 검출하는 단계; 및
투기 행동 검증부에 의해, 상기 특정 행위 탐지부를 통해 탐지한 투기 행위의 검증여부에 따라, 관제사에게 이벤트 송부를 결정하는 단계;를 포함하는 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법.
According to claim 11,
Further comprising the step of verifying the detected dumping behavior after the step of detecting the dumping behavior;
The step of verifying the detected speculation behavior,
Detecting speculation behavior using a CCTV data classifier; and
A method of detecting a garbage dumping actor using multi-characteristic information in a surveillance camera environment, comprising: determining whether to send an event to a controller according to whether the dumping behavior detected through the specific behavior detection unit is verified by the dumping behavior verification unit.
제 16항에 있어서,
상기 탐지한 투기 행위에 대한 검증을 수행하는 단계는,
투기 행동 검증부에 의해, 사람의 세부 상태 분류기, 사람 자세 예측기 및 사람의 상태 분류기 중 적어도 하나 이상을 이용하여 상기 특정 행위 탐지부를 통해 탐지한 투기 행위에 대한 검증을 수행하는 것인 감시카메라 환경에서 다중 특징 정보를 이용한 쓰레기 투기 행위자 탐지 방법.
According to claim 16,
The step of verifying the detected speculation behavior,
In a surveillance camera environment in which the speculation behavior verification unit verifies the speculation behavior detected through the specific behavior detection unit using at least one of a detailed human state classifier, a human posture predictor, and a human state classifier. A method for detecting garbage dumping actors using multi-characteristic information.
삭제delete 삭제delete 삭제delete
KR1020200041134A 2020-04-03 2020-04-03 Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment KR102504320B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200041134A KR102504320B1 (en) 2020-04-03 2020-04-03 Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200041134A KR102504320B1 (en) 2020-04-03 2020-04-03 Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment

Publications (2)

Publication Number Publication Date
KR20210123682A KR20210123682A (en) 2021-10-14
KR102504320B1 true KR102504320B1 (en) 2023-02-28

Family

ID=78151329

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200041134A KR102504320B1 (en) 2020-04-03 2020-04-03 Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment

Country Status (1)

Country Link
KR (1) KR102504320B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101880100B1 (en) 2018-03-26 2018-07-19 주식회사 큐앤에스시스템 CCTV System for detecting Object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140108789A (en) * 2013-02-28 2014-09-15 경북대학교 산학협력단 A method of monitoring and a apparatus using the same
KR20170128648A (en) * 2016-05-12 2017-11-23 주식회사 협성엠티 Apparatus for illegal waste dumping surveillance
KR102153591B1 (en) * 2018-05-08 2020-09-09 한국전자통신연구원 Method and apparatus for detecting garbage dumping action in real time on video surveillance system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101880100B1 (en) 2018-03-26 2018-07-19 주식회사 큐앤에스시스템 CCTV System for detecting Object

Also Published As

Publication number Publication date
KR20210123682A (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US8854182B2 (en) Opening management through gait detection
KR101724658B1 (en) Human detecting apparatus and method
US11048942B2 (en) Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
KR100886557B1 (en) System and method for face recognition based on adaptive learning
CN101853391B (en) Information processing device and method
JP4866754B2 (en) Action history search device and action history search method
JP5106356B2 (en) Image monitoring device
KR101697161B1 (en) Device and method for tracking pedestrian in thermal image using an online random fern learning
Eweiwi et al. Temporal key poses for human action recognition
JP2006133946A (en) Moving object recognition device
CN110674680B (en) Living body identification method, living body identification device and storage medium
KR20190068000A (en) Person Re-identification System in Multiple Camera Environments
KR101372860B1 (en) System for searching video and server for analysing video
KR102104548B1 (en) The visual detecting system and visual detecting method for operating by the same
KR20220078893A (en) Apparatus and method for recognizing behavior of human in video
CN111814510A (en) Detection method and device for remnant body
KR20170082025A (en) Apparatus and Method for Identifying Video with Copyright using Recognizing Face based on Machine Learning
Zambanini et al. Detecting falls at homes using a network of low-resolution cameras
Foresti et al. Detecting moving people in video streams
KR102475752B1 (en) Method and apparatus for prodicting moving path
KR102504320B1 (en) Garbage dumper detection system and method using multi-characteristic information in surveillance camera environment
Saxena et al. Video inpainting detection and localization using inconsistencies in optical flow
Chen et al. An indoor video surveillance system with intelligent fall detection capability
KR102656084B1 (en) Method and apparatus for mapping objects besed on movement path
Kang et al. A Simple and fast method to detect garbage dumping using pedestrian attribute

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant