KR101846074B1 - Security system and security process and security controller of throw trash, by detected humans action or shape image - Google Patents

Security system and security process and security controller of throw trash, by detected humans action or shape image Download PDF

Info

Publication number
KR101846074B1
KR101846074B1 KR1020160057474A KR20160057474A KR101846074B1 KR 101846074 B1 KR101846074 B1 KR 101846074B1 KR 1020160057474 A KR1020160057474 A KR 1020160057474A KR 20160057474 A KR20160057474 A KR 20160057474A KR 101846074 B1 KR101846074 B1 KR 101846074B1
Authority
KR
South Korea
Prior art keywords
image
human body
region
unit
calculating
Prior art date
Application number
KR1020160057474A
Other languages
Korean (ko)
Other versions
KR20170058827A (en
Inventor
김길용
김지환
Original Assignee
(주)오션네트웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)오션네트웍스 filed Critical (주)오션네트웍스
Publication of KR20170058827A publication Critical patent/KR20170058827A/en
Application granted granted Critical
Publication of KR101846074B1 publication Critical patent/KR101846074B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

설정된 범위를 촬영하는 영상촬영부(3D카메라);
감시카메라로부터의 촬영된 영상을 저장하는 영상저장부;
상기 영상촬영부에 연동되어 상기 영상촬영부에 의해 촬영된 영상에 인체가 포함되었는지 여부를 형상으로 판독하는 영상판독부(MPU 및 형상판독프로그램);
설정된 시간에 상기 영상판독부가 인체 형상을 판독하면 상기 영상저장부를 기동하여 이벤트 영상으로 저장토록 제어하는 제어부;
상기 제어부의 제어에 따라 상기 영상판독부로부터의 상기 이벤트 영상이 저장 및 검색될 수 있는 구성을 포함하는 것을 특징으로 하는 보안 감시장치
An image capturing unit (3D camera) for capturing a set range;
An image storage unit for storing the photographed image from the surveillance camera;
An image reading unit (MPU and shape reading program) interlocked with the image photographing unit and reading in shape whether the human body is included in the image photographed by the image photographing unit;
A control unit for activating the image storage unit and controlling the image storage unit to store the image as an event image when the image reading unit reads the human body shape at a set time;
And a configuration in which the event image from the image reading unit can be stored and retrieved under the control of the control unit.

Description

인체의 형상 내지 동태 분석을 이용한 보안 감시장치, 보안 감시방법 및 쓰레기 투기 감시장치{Security system and security process and security controller of throw trash, by detected humans action or shape image}TECHNICAL FIELD [0001] The present invention relates to a security monitoring apparatus, a security monitoring method, and a garbage dumping monitoring apparatus,

본 발명은 카메라를 이용하여 인체의 형상을 감지하거나 동태를 분석하고 그 분석의 결과를 보안감시, 쓰레기 투기 감시장치 등 다목적으로 활용토록 하는 기술에 관한 것이다. TECHNICAL FIELD The present invention relates to a technique for detecting a shape of a human body using a camera, analyzing dynamic behavior, and using the result of analysis to multipurpose such as security surveillance, garbage dumping monitoring apparatus, and the like.

도심지, 산야, 주택가 등을 불문하고 으슥한 곳에 버려지는 쓰레기는 미관을 훼손하고 환경오염을 일으키는데, 이러한 쓰레기는 주로 인간의 비양심적인 행위로 비롯된다.Garbage, which is dumped in dirty areas such as downtown, mountainous areas, and residential areas, damages the aesthetics and causes environmental pollution. Such garbage is mainly caused by human unconscious acts.

쓰레기 투기행위의 근절을 위한 종래기술로서, CCTV 카메라, 녹화장치, 적외선센서, 조도센서, 조명기, 경고방송 등의 수단을 결합하여 쓰레기 투기 행위 시 녹화와 경고방송을 실시하는 방법이 개시되었으며, 행정적인 부분에서도 정부 등(정부, 지방자치단체 및 시민단체 등을 말하며, 이하 이를 '정부 등'이라 함)의 홍보 및 계도를 통해 이를 근절하고자 하는 노력은 계속되어 왔다. 따라서, 이러한 시설이나 홍보의 영향이 미치는 범위 내에서는 일정부분 쓰레기 무단투기 행위가 근절되는 외형적 효과를 거두고 있다. As a conventional technique for eradicating garbage dumping, a method of recording and warning a garbage dumping action by combining means such as a CCTV camera, a recording device, an infrared sensor, an illuminance sensor, a lighting device, (Government, local governments, civic groups, etc., hereinafter referred to as "the government, etc.") through the public relations and systematic efforts to eradicate it. Therefore, within the scope of the influence of such facilities and publicity, some of the garbage dumping activities are exterminated.

그러나, 쓰레기 배출 종량제 실시 후에도 지정된 수거용기를 사용하지 않거나, 지정된 장소 이외의 곳에 쓰레기를 무단투기하는 비양심적인 행위는 근절되지 않고 있으며, 전체적인 수거비용 측면인 내면을 들여다보면 예산낭비를 해소할 근본적인 문제해결은 이루어지지 않고 있는 것이 현실이다.However, unscrupulous activities that do not use designated collection containers after the enforcement of the waste disposal allowance system or that dispose of garbage outside the designated area are not abolished, and if looking at the inside of the whole collection cost side, The reality is that no solution has been made.

종래의 기술 및 행정 측면으로 보면, 본 상황의 문제점은 다음과 같이 요약된다.In view of the prior art and administrative aspects, the problems of this situation are summarized as follows.

첫째, 종래기술에서는 영상분석 그 자체로 쓰레기 투기 여부를 판독할 수 있는 기능이 없었고, 적외선감지센서 등에 의해 인체의 접근 여부를 감지함으로써 인체를 감지한 그 자체를 쓰레기 투기로 유추하였다. 그런데, 종래의 적외선감지센서 등은 그 감지의 목적물을 정확히 인체에만 특화하기 어려운 문제점이 있다. 예를 들면, 개, 고양이와 같은 동물의 움직임까지도 인체로 감지되는 문제가 있고, 인체로 감지된다 하더라도 쓰레기 투기와는 무관하게 사람이 접근하는 것만으로도 무조건 경고를 하는 문제점이 있다. 그리고, 모든 영상이 저장되므로 시스템 부하가 크며, 인체가 포함된 영상을 검색하는 인력과 시간도 다량으로 소비되는 문제점이 있다. 또한, 인체 감지와 촬영 등에서 적외선감지센서를 비롯한 다양한 부수설비가 필요하므로 회로가 복잡하고 고장률이 높으며 유지보수성, 경제성 및 시공성이 떨어지는 것도 문제로 지적되어 왔다.First, in the prior art, the image analysis itself has no function to read whether or not the garbage is dumped, and the detection of the human body by detecting the human body by the infrared sensor or the like is analogous to the garbage dumping. However, the conventional infrared sensor or the like has a problem that it is difficult to accurately specify the object of detection only to the human body. For example, there is a problem that the movement of an animal such as a dog or a cat is also detected as a human body, and even if it is detected as a human body, there is a problem that an alarm is issued even if a person approaches it regardless of the dumping. In addition, since all images are stored, the system load is large, and manpower and time for searching for images including a human body are consumed in a large amount. In addition, it is pointed out that a complicated circuit, a high failure rate, and poor maintainability, economical efficiency, and workability have been pointed out, because various auxiliary facilities including an infrared ray sensor are required for human detection and shooting.

둘째, 종래기술에 따른 음향 경고방송은 인체의 동태와는 무관하게 인체가 감지되면 무조건 방송을 출력하며, 음향 콘텐츠도 단순한 하나의 유형인 경고에 그쳤으므로, 이를 여러 번 반복해서 듣게 되면 마치 '양치기소년의 거짓말' 속담처럼 만성화되는 문제점이 있다. 특히 종래의 음향 경고방송은 쓰레기 투기자를 응징하고자 감시하는 차원에서 접근해 왔기에, 쓰레기 투기자를 선도하여 근원적으로 예방 근절하는 계도의 기능으로는 절대적으로 미흡한 문제가 있다.Second, sound warning broadcasting according to the prior art outputs unconditional broadcasts when the human body is detected regardless of the motion of the human body, and the sound content is a simple type of warning, and if it is repeated many times, There is a problem that it becomes chronic like a proverb of a boy 's lie. In particular, since conventional sound warning broadcasting has been approached from the point of monitoring to punish the garbage maker, there is absolutely insufficient function as a function of leading the garbage thrower to prevent the root cause.

셋째, 종래기술에 따른 쓰레기 투기 감시장치는 하우징 및 브래킷으로 구성되는데, 브래킷은 일정한 높이에서 아래쪽을 향하여 촬영하므로, 이를 그대로 인체 형상 감지에 이용할 경우 인체의 형상이 조감도 형상(새가 날면서 하늘에서 지상으로 바라본 형상의 장면) 등으로 인식되는 문제점이 있다. 즉, 높이에 따라 상하 비대칭적인 감지오차가 발생되거나, 수평면 내 각도에 따라 좌우 비대칭의 감지오차가 발생되며, 이는 감지의 신뢰성을 저하시키는 단점이 있다.Thirdly, the garbage speculation monitoring apparatus according to the related art is composed of a housing and a bracket. Since the bracket captures downward from a certain height, when the human body is used for detecting the shape of a human body, Quot;), and the like. That is, a vertical asymmetric sensing error may occur depending on the height, or an asymmetric sensing error may occur depending on the angle in the horizontal plane, which may deteriorate the reliability of sensing.

넷째, 행정적 측면에서, 정부 등의 홍보 및 계도는 쓰레기 불법투기 지역 내에 설치되는 안내판 등을 통해 이루어지고 있으나, 안내판 자체가 실행력으로 작용하기에는 미흡하고, 안내 문구에 대한 인간의 감성적 만성화로 시간 경과에 따라 효과가 점차 쇠퇴되는 문제점이 있다.Fourth, from the administrative aspect, the public relations and the government of the government are carried out through the guide boards installed in the illegal dumping areas of garbage, but the guide boards themselves are insufficient to be the execution force, There is a problem that the effect gradually decreases.

한편, 사람의 존재 여부를 감지하여 안전성을 확보하고자 하는 요구는 다양한 분야에서 필요로 하고 있다. 예를 들면, 지상으로부터 높은 고공(高空) 위치에서 지상으로 내려다보면서 운전을 하는 크레인 운전이나, 자동차의 전방에서 횡단보도를 건너는 사람의 존재 여부를 감지하여 운전을 자동 제어하는 분야에도 채택될 수 있다.On the other hand, there is a need in various fields for the need to detect the presence of a person and secure safety. For example, the present invention can be applied to a crane driving operation while looking down to the ground from a high altitude position from the ground, or the automatic control of driving by detecting the presence of a person crossing the crosswalk from the front of the vehicle .

하지만, 크레인 운전의 경우, 현재 적외선센서 등의 감지 수단과 알람을 이용하는 방법이 고려되고 있지만, 모니터와 알람을 병행 주시해야 하는 사용상 불편이 있고, 종래의 센서를 이용한 감지 기술에서 이를 완벽히 소화하기에는 한계가 있다. However, in the case of crane operation, a method of using an alarm means and a sensing means such as an infrared sensor is currently considered. However, there are inconveniences in using the monitor and alarm in parallel, and there is a limitation .

상기한 문제점을 해결하기 위하여, 본 발명에서는 카메라가 촬영한 영상 그 자체로 인체의 형상과 동태를 분석하고 그 결과로서 경고방송, 계도방송 및 홍보방송을 출력하며, 나아가 확장된 다목적 영상처리 기술을 제공함을 목적으로 한다.In order to solve the above problems, the present invention analyzes the shape and dynamics of the human body by the image taken by the camera, and outputs alarm broadcasting, system broadcasting, and publicity broadcasting as a result, and further, The purpose is to provide.

보다 상세하게, 본 발명의 제1 목적은 영상 기록 시간의 단축 및 신뢰도 향상을 위하여, 별도의 센서를 사용하지 않고 카메라 등의 영상만으로 인체를 인식하고 그 인식된 인체의 동태를 파악하여 이벤트 데이터로 활성화하는 기초적 기술수단을 제공한다. More specifically, a first object of the present invention is to provide a method and apparatus for recognizing a human body using only a video of a camera or the like without using a separate sensor for shortening an image recording time and improving reliability, Provides basic technical means to activate.

그리고, 본 발명의 제2 목적은 상기한 제1 목적에 기초하여 쓰레기 무단 투기자를 판독하여 경고방송을 실시하는 등의 응용기술을 제공한다. 또한, 본 발명의 제3 목적은 상기 제1 목적 내지 제2 목적에 연계되어, 쓰레기 투기 예상지역의 접근자에 대하여 예방적인 방송을 실시하고, 나아가 쓰레기 무단투기가 있을 경우 투기자 자신의 행동을 거울처럼 되돌려 제공하는 계도방송을 실시함으로써 종래의 안내판보다 진보된 경각심 제고 효과의 기술적 수단을 제공한다. A second object of the present invention is to provide an application technique for reading a garbage unauthorized person on the basis of the above-mentioned first object and performing warning broadcasting. A third object of the present invention is to provide a preventive broadcasting program for an accessor in a garbage dumping area in connection with the first or second object, and further, when there is a garbage dumping machine, To provide a technological means of enhancing the alertness enhancement effect than the conventional guide board.

또한, 본 발명의 제4 목적은 상기한 제1 목적을 다목적으로 확장 연동하여, 예를 들어 높은 위치에서 작업을 하는 크레인 운전에도 적용할 수 있는 기술적 수단을 제공한다. The fourth object of the present invention is also to provide a technical means that can be applied to a crane operation that operates in a high position, for example, by multiplying the above-mentioned first object by multipurpose.

상기한 목적을 달성하기 위해 본 발명의 제1 실시예에 따르면, 설정된 범위의 영상을 촬영하는 영상촬영부; 상기 촬영된 영상을 저장하는 영상저장부; 및 상기 촬영된 영상에 인체가 포함되었는지 여부를 판독하는 영상판독부를 포함하며, 상기 영상촬영부 및 상기 영상저장부를 제어하는 제어부;를 포함하되, 상기 촬영된 영상에 인체가 포함되는 것으로 판독된 경우, 상기 영상저장부는 상기 제어부의 제어 하에 상기 촬영된 영상을 저장하는 것을 특징으로 하는 보안 감시장치가 제공된다.According to a first aspect of the present invention, there is provided an image capturing apparatus comprising: an image capturing unit capturing an image of a set range; An image storage unit for storing the photographed image; And a control unit for controlling the image capturing unit and the image storage unit, wherein the control unit controls the image capturing unit and the image storing unit to read whether the human body is included in the captured image, And the image storage unit stores the photographed image under the control of the control unit.

또한, 본 발명의 제2 실시예에 따르면, 설정된 범위의 영상을 촬영하는 영상촬영부; 상기 촬영된 영상에 인체가 포함되었는지 여부의 판독 및 상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태가 쓰레기 투기인지 여부를 판독을 수행하는 영상판독부를 포함하며, 상기 영상촬영부를 제어하는 제어부; 및 상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 경고 음향을 방송하는 음향출력부;를 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치가 제공된다. According to a second embodiment of the present invention, there is also provided an image capturing apparatus comprising: And an image reading unit for reading whether the human body is included in the photographed image and for reading whether the human body is dumping or not when the human body is included, wherein the control unit controls the image photographing unit; And an acoustic output unit controlled by the control unit and broadcasting a warning sound when the dynamics of the human body is dumping.

또한, 본 발명의 제3 실시예에 따르면, 피사체의 접근 여부를 감지하는 감지부; 상기 피사체가 접근하는 경우 설정된 범위의 영상을 촬영하는 영상촬영부; 상기 촬영된 영상을 저장하는 영상저장부; 상기 촬영된 영상에 인체가 포함되었는지 여부의 판독 및 상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태가 쓰레기 투기인지 여부를 판독을 수행하는 영상판독부를 포함하며, 상기 영상촬영부를 제어하는 제어부; 상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 음향을 방송하는 음향출력부; 및 상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 상기 촬영된 영상에 포함된 인체에게 상기 쓰레기 투기로 판독된 영상을 디스플레이하는 영상표시부;를 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치가 제공된다. According to a third aspect of the present invention, there is provided an information processing apparatus comprising: a sensing unit for sensing whether a subject is approaching; An image capturing unit for capturing an image of a set range when the subject approaches; An image storage unit for storing the photographed image; And an image reading unit for reading whether the human body is included in the photographed image and for reading whether the human body is dumping or not when the human body is included, wherein the control unit controls the image photographing unit; An acoustic output unit, which is controlled by the control unit and broadcasts sound when the dynamics of the human body is dumping; And an image display unit for displaying an image read by the dumping unit to a human body included in the photographed image when the dynamics of the human body is dumping, the image display unit being controlled by the controller, Is provided.

또한, 본 발명의 제4 실시예에 따르면, 설정된 범위의 영상을 촬영하는 단계; 상기 촬영된 영상을 저장하는 단계; 및 상기 촬영된 영상에 인체가 포함되었는지 여부의 판독하는 제1 판단 단계; 및 상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태를 판단하는 제2 판단 단계;를 포함하되, 상기 저장하는 단계는 상기 촬영된 영상에 인체가 포함되는 것으로 판독된 경우, 상기 촬영된 영상을 저장하는 것을 특징으로 하는 보안 감시방법이 제공된다.According to a fourth aspect of the present invention, Storing the photographed image; And a first determination step of determining whether a human body is included in the photographed image; And a second determination step of determining a dynamic state of the human body when the human body is read as including the human body, wherein the storing step includes a step of, when the human body is read as including the human body, A security monitoring method is provided.

본 발명은 다음과 같은 효과가 있다.The present invention has the following effects.

먼저, 설치 장소에 제약이 따르는 등 시공성 저해 및 감지의 신뢰성을 저해하는 센서를 배제하고, 카메라로 촬영된 영상 그 자체를 이용하여 인체의 형상을 인식하고 동태를 파악할 수 있으므로, 시스템 구성이 단순화 된다. 따라서 주택가, 행락지, 등산로, 고속도로 졸음쉼터 등 어떠한 장소이든 카메라 위주의 단순 시스템으로 간단히 설치될 수 있으며, 시공편이성이 증대되며 비용을 절감할 수 있다.First of all, it is possible to eliminate a sensor that hinders the reliability of the workability inhibition and sensing, such as a constraint on the installation site, and can recognize the shape of the human body using the image photographed by the camera and understand the dynamics, . Therefore, any place such as a residential area, a resort, a mountain trail, and a sleeping place on a highway can be simply installed with a camera-based simple system, and ease of installation and cost can be reduced.

다음으로, 종래의 감시 카메라만을 이용한 단속, 적발 위주의 감시를 탈피하여, 감시결과에 따라 역동적인 정보를 제공하는 안내판 기능 등을 수행할 수 있다. 따라서 종래에 영상을 관찰하면서 적정한 대응을 하던 관리 인력이 대폭 절감되며, 쓰레기 무단투기 행위 장면에 한하여 영상을 저장함으로써 저장장치의 용량을 간소화할 수 있으며 영상의 검색범위를 축소할 수 있다.Next, it is possible to perform the function of a guide board for providing dynamic information according to the monitoring result, by removing the monitoring based on the interruption and the caution using only the conventional surveillance camera. Accordingly, the number of management personnel who properly responded while observing the image is largely reduced, and the storage capacity of the storage device can be simplified by storing images only in the scenery of the trash unauthorized speculation, and the search range of the image can be reduced.

계속하여, 쓰레기 투기의 결과를 감시하여 대응하는 경고방송뿐만 아니라 스스로의 반성을 유도하는 경각심 고취 계도의 기능으로 활용될 수 있어, 시스템 운용에 대한 감성적인 거부감을 최소화 할 수 있는 효과가 있다.Further, it is possible to monitor not only the warning broadcasts corresponding to the results of the garbage dumping, but also the functions of the warning-awareness system which induces reflection of oneself, thereby minimizing the emotional rejection of the system operation.

그리고, 다목적 및 다양한 설치 높이 등에 적응하는 화면보정 기능을 통해 어떠한 장소에 설치되던 정규의 화면으로 정확한 영상분석이 가능하게 되는 효과를 거둘 수 있다.By using the screen correction function that adapts to various purposes and various installation heights, it is possible to perform an accurate image analysis on a normal screen installed in any place.

또한, 본 발명의 영상분석 기술은 쓰레기 투기를 방지하는데 활용될 수 있을 뿐만 아니라 고소작업을 하는 크레인 운전 등에도 활용될 수 있다. In addition, the image analysis technique of the present invention can be utilized not only for preventing waste dumping, but also for crane operations such as high-altitude work.

도 1은 본 발명의 기본적인 구성의 개념을 도시한 블록다이어그램.
도 2는 본 발명의 각 실시일례를 포괄적으로 설명하는 블록다이어그램.
도 3은 본 발명의 제1 실시예를 도시한 하드웨어 및 소프트웨어 블록다이어그램.
도 4는 본 발명에 따른 제1 격자영상의 개념을 설명하기 위한 개념도.
도 5는 본 발명에 따른 영상판독부의 '인체형상 인식을 위한 기본 템플릿'을 예시한 개념도.
도 6 및 도 7은 본 발명의 외형 구조에 대한 개념을 도시한 도면
도 8은 본 발명의 제2 실시예를 도시한 하드웨어 및 소프트웨어 블록다이어그램.
도 9는 본 발명에 따른 영상촬영부로부터 촬영된 화면의 보정 필요성을 설명하는 개념도.
도 10은 본 발명에 따른 쓰레기 투기 상태를 분별하는 동태분석 원리를 예시한 개념도.
도 11은 본 발명의 제3 실시예를 도시한 하드웨어 및 소프트웨어 블록다이어그램.
도 12는 본 발명의 제4 실시예를 도시한 소프트웨어 블록다이어그램.
도 13은 본 발명 소프트웨어 블록다이어그램에 대한 작동원리를 나타내는 흐름도.
1 is a block diagram showing a concept of a basic configuration of the present invention;
2 is a block diagram for comprehensively explaining each embodiment of the present invention.
3 is a hardware and software block diagram illustrating a first embodiment of the present invention.
4 is a conceptual diagram for explaining the concept of a first grid image according to the present invention;
5 is a conceptual diagram illustrating a 'basic template for human body shape recognition' of the image reading unit according to the present invention.
Figs. 6 and 7 are diagrams showing the concept of the contour structure of the present invention
8 is a hardware and software block diagram illustrating a second embodiment of the present invention.
9 is a conceptual diagram for explaining the necessity of correction of a picture taken from a picture taking unit according to the present invention;
10 is a conceptual diagram illustrating the principle of dynamics analysis for discriminating the state of dumping of garbage according to the present invention.
11 is a hardware and software block diagram illustrating a third embodiment of the present invention.
12 is a software block diagram illustrating a fourth embodiment of the present invention.
13 is a flow chart illustrating the operational principles for the inventive software block diagram;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 그 중에서 특정한 실시일례들을 도면에 예시하고 상세한 설명에서 자세히 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니므로, 이하 개시하는 구성은 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the present invention covers all modifications, equivalents, and alternatives falling within the spirit and scope of the present invention, since the present invention is not intended to be limited to the specific embodiments.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였으나, 예를 들어 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되고 있을 뿐 이 구성요소들을 제1, 제2 등으로 용어를 붙여서 한정되는 것으로 이해를 하여서는 아니 된다. 즉 상기 용어들은 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 마찬가지의 원리로서 제2 구성요소도 제1 구성요소로 명명될 수 있다. Although similar reference numerals are used for like elements in describing each drawing, the terms first, second, etc., for example, are used only for the purpose of distinguishing one element from another, It should not be construed as being limited to the first, second, and so on. That is, the terms may be named as the second component without departing from the scope of the present invention, and the second component as the same principle may also be named as the first component.

이와 같은 원칙하에 이하에서 본 발명에 따른 실시일례들을 첨부된 도면을 참조하여 상세하게 설명한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 보안 감시장치의 개략적 개념을 도시한 블록 다이어그램이다. 1 is a block diagram illustrating a schematic concept of a security monitoring apparatus according to the present invention.

도 1을 참조하면, 보안 감시장치는 영상 촬영부(120), 제어부(200) 및 영상저장부(220)를 포함한다. 제어부(200)에는 영상판독부(240)가 포함된다. 1, the security monitoring apparatus includes an image capturing unit 120, a control unit 200, and an image storage unit 220. The control unit 200 includes an image reading unit 240.

영상촬영부(120)는 설정된 범위의 영상을 촬영한다. The image capturing unit 120 captures an image in a set range.

영상저장부(220)는 촬영된 영상을 저장한다. The image storage unit 220 stores the photographed image.

제어부(200)는 영상촬영부(120) 및 영상저장부(220)를 제어한다. The control unit 200 controls the image capturing unit 120 and the image storage unit 220.

그리고, 제어부(200) 내의 영상판독부(240)는 촬영된 영상에 인체가 포함되었는지 여부를 평면 형상 내지 입체 형상으로 판독한다. The image reading unit 240 in the control unit 200 reads whether the human body is included in the photographed image, in a planar shape or a three-dimensional shape.

이 때, 영상판독부(240)가 인체 형상을 판독하면, 제어부(200)의 제어 하에 영상저장부(220)는 촬영된 영상을 저장한다. 즉, 영상판독부(240)는 모든 영상을 저장하는 것이 아니라 인체가 촬영된 영상만을 저장함으로써 시스템 부하를 줄일 수 있고, 영상을 검색하는 소요되는 인력 및 시간을 줄일 수 있는 장점이 있다.
At this time, when the image reading unit 240 reads the human body shape, the image storage unit 220 stores the photographed image under the control of the control unit 200. That is, the image reading unit 240 does not store all the images but stores only the images of the human body, thereby reducing the load on the system and reducing manpower and time required for searching the images.

도 2는 도 1에 기초한 확장된 보안 감시장치의 개략적 개념을 도시한 블록 다이어그램이다. 2 is a block diagram illustrating a schematic concept of an extended security monitoring device based on FIG.

도 2를 참조하면, 보안 감시장치는 영상 촬영부(120), 영상판독부(240)를 포함하는 제어부(200), 영상저장부(220), 전원공급부(100), 조명부(110), 영상표시부(140), 음향출력부(130) 및 통신부(230)를 포함하며, 이를 각각의 응용에 따라 취사선택적으로 확장 내지 축소되어 구성될 수 있다. 2, the security monitoring apparatus includes a control unit 200 including an image capturing unit 120, an image capturing unit 240, an image storage unit 220, a power supply unit 100, an illumination unit 110, A display unit 140, an audio output unit 130, and a communication unit 230, which can be selectively expanded or reduced according to each application.

영상촬영부(120), 영상저장부(220), 영상판독부(240)는 상기 도 1에서 설명한 바와 동일하게 동작한다. 그리고, 제어부(200)는 영상촬영부(120), 영상저장부(220), 영상표시부(140), 음향출력부(130)의 동작을 제어한다. The image capturing unit 120, the image storing unit 220, and the image reading unit 240 operate in the same manner as described with reference to FIG. The control unit 200 controls operations of the image pickup unit 120, the image storage unit 220, the image display unit 140, and the sound output unit 130.

음향출력부(130)는 인체 감시를 실시한 결과에 따라 음향을 출력하며, 음향증폭기(131) 및 스피커(132)를 포함한다. The sound output unit 130 outputs sound in accordance with the result of human body monitoring, and includes an acoustic amplifier 131 and a speaker 132.

영상표시부(140)는 보안 상황을 관찰 내지 영상을 검색한다. The video display unit 140 observes a security situation or searches for an image.

통신부(230)는 네트워크와 연결되며, 제어부(200)는 통신부(230)를 통해 수신된 명령을 이용하여 영상촬영부(120), 영상판독부(240), 음향출력부(130) 및 영상표시부(140) 중 적어도 하나의 동작을 원격 제어하고, 통신부(230)를 통해 촬영된 영상을 전송한다. The control unit 200 controls the image capturing unit 120, the image capturing unit 240, the sound output unit 130, and the image display unit 130 using the command received through the communication unit 230. [ (140), and transmits the photographed image through the communication unit (230).

조명부(110)는 영상촬영부(120)의 촬영 대상인 피사체를 조명하기 위한 기능을 수행하며, 조명제어기(111) 및 적외선발광기(112)를 포함한다. The illumination unit 110 functions to illuminate an object to be imaged by the imaging unit 120 and includes an illumination controller 111 and an infrared light emitter 112.

전원공급부(100)는 태양광, 풍력 등의 전력발생장치(101) 및 배터리 등의 전원저장장치(102)로 구성된다. The power supply unit 100 includes a power generation device 101 such as solar light and wind power, and a power storage device 102 such as a battery.

이하 응용되는 각각의 범위에 대하여 이를 제1 실시예 내지 제4 실시예로 특정하고 각각 구성 및 작용을 상세히 설명하기로 한다.
Hereinafter, the present invention will be described in detail with reference to the first to fourth embodiments, and the configuration and operation thereof will be described in detail.

도 3은 본 발명에 따른 보안 감시장치의 제1 실시예를 도시한 블록 다이어그램이다. 3 is a block diagram illustrating a first embodiment of a security monitoring apparatus according to the present invention.

영상촬영부(120)는 설정된 범위의 영상을 촬영한다. The image capturing unit 120 captures an image in a set range.

영상저장부(220)는 저장 장치와 대응되며, 촬영된 영상을 저장한다. The image storage unit 220 corresponds to the storage device, and stores photographed images.

영상판독부(240)는 소프트웨어와 대응되며, 영상촬영부(120)에 연동되며, 영상촬영부(240)에 의해 촬영된 영상에 인체가 포함되었는지 여부를 '형상'으로 판독한다. The image reading unit 240 corresponds to the software, and interlocks with the image capturing unit 120 and reads whether the human body is included in the image captured by the image capturing unit 240 as 'shape'.

제어부(200)는 영상촬영부(120) 및 영상저장부(220)를 제어한다.The control unit 200 controls the image capturing unit 120 and the image storage unit 220.

제어부(200) 내의 영상판독부(240)는 인체 형상을 판독하고, 이에 따라 영상저장부(220)를 기동하여 영상을 저장하도록 제어하고, 영상판독부(240)로부터의 영상 즉, 이벤트 영상이 검색될 수 있도록 제어한다. The image reading unit 240 in the control unit 200 controls the image reading unit 240 to read the human body shape and start the image storage unit 220 to store the image, To be retrieved.

보다 상세하게, 영상촬영부(120)는 평면 영상을 촬영하는 2D카메라 내지는 입체 영상을 촬영하는 3D카메라로 구성될 수 있지만, 판독의 정확도를 높이려 하는 경우는 3D카메라가 바람직하다. More specifically, the image capturing unit 120 may be configured as a 2D camera for capturing a planar image or a 3D camera for capturing a stereoscopic image, but a 3D camera is preferable when the accuracy of reading is to be increased.

제어부(200)는 본 발명의 중추적 역할을 수행하는 구성요소로서 하드웨어(210) 및 소프트웨어(240)로 구성된다. 하드웨어(210)는 MPU(Micro Processor Unit)이거나 PC로 구성될 수 있다. 소프트웨어(240)는 MPU(Micro Processor Unit) 내에서 실행 가능하다. The control unit 200 is constituted by hardware 210 and software 240 as components that play a pivotal role of the present invention. The hardware 210 may be an MPU (Micro Processor Unit) or a PC. The software 240 is executable within an MPU (Micro Processor Unit).

이와 같은 제어부(200)는 보안감시의 대상으로 인체의 형상을 분석하고, 그 결과로 영상을 저장하는 한편, 저장된 영상을 검색하거나 원격으로 전송하고, 지정 조건 별로 저장 내지 검색하는 등 다양한 제어를 수행할 수 있다. The controller 200 analyzes the shape of a human body as a subject of security surveillance and stores various images as a result of the security surveillance. The controller 200 also performs various controls such as retrieving stored images or remotely transmitting the images, can do.

이 때, 하드웨어(210)는 Video입력장치(211), Memory(214), 저장장치(220), Video출력장치(213)를 포함하고, 나아가 취사선택적으로 Audio출력장치(212)와 통신용I/O장치(230)를 추가적으로 포함할 수 있다. 저장장치(220)는 도 1 및 도 2의 영상저장부(220)와 대응된다..In this case, the hardware 210 includes a video input device 211, a memory 214, a storage device 220, and a video output device 213, and further includes an audio output device 212 and a communication I / O device < RTI ID = 0.0 > 230 < / RTI > The storage device 220 corresponds to the image storage 220 of FIG. 1 and FIG.

또한, 소프트웨어(240)는 입력영상정규화 수단(241), 촬영범위설정 수단(243), 템플릿비교기(250) 및 인체형상인식 수단(251)을 통해 인체의 형상을 분석한다. 나아가 취사선택 내지 추가적으로 경고방송출력 수단(281)과 DATA송수신 수단(280)을 포함할 수 있다.The software 240 analyzes the shape of the human body through the input image normalization means 241, the shooting range setting means 243, the template comparator 250 and the human shape recognition means 251. Furthermore, it may further include a warning broadcast output unit 281 and a DATA transmission / reception unit 280. [

또한, 제어부(200)는 설정된 시간, 즉 평상시에는 작동을 하되, 한밤중을 제외하고 작동하도록 하거나 설정된 예약시간에 작동하도록 구성될 수 있다.Further, the control unit 200 may be configured to operate at a predetermined time, that is, at a normal time, but operate at a time other than midnight, or at a scheduled time set.

전원공급부(100)는 태양광, 풍력 외에도 상용전원을 공급할 수 있고, AC/DC 변환기를 부가적으로 포함할 수도 있다.The power supply unit 100 may supply commercial power in addition to solar light and wind power, and may additionally include an AC / DC converter.

특히, 영상판독부(240)는 촬영된 영상에 포함된 피사체의 형상과 기 설정된 탬플릿을 비교하여 촬영된 영상에 인체가 포함되는지 여부를 판독할 수 있다. 이 때, 탬플릿은 인체의 머리와 어깨선이 이루는 형상일 수 있다. 즉, 영상판독부(240)는 피사체의 형상과 탬플릿의 형상의 동일 내지 유사 여부를 분석하여, 판독 결과가 설정된 횟수 이상으로 중복 검출되었을 때 이를 인체 형상으로 판단할 수 있다. In particular, the image reading unit 240 may compare the shape of the subject included in the photographed image with a predetermined template, and read whether the human body is included in the photographed image. At this time, the template may be a shape formed by the head and the shoulder line of the human body. That is, the image reading unit 240 analyzes whether the shape of the subject and the shape of the template are the same or similar, and when the reading result is detected more than the preset number of times, it can be determined as a human body shape.

여기서, 인체의 머리와 어깨선이 이루는 형상은, 직립 상태 또는 유사 직립 상태에서, 어깨선은 옷걸이의 상단부 모양으로 횡으로 전개되고 머리는 이와 직각 방향으로 상부에 얹어지는 모양이 될 수 있다.Here, the shape formed by the head and the shoulder line of the human body may be a shape in which the shoulder line extends laterally in the shape of the upper end of the hanger and the head is laid on the upper portion in the direction perpendicular thereto.

또한, '탬플릿 분석'은 어깨선과 머리가 이루어낸 모양을 여러 각도로 분석하고(예를 들면 허리를 구부린 형상, 직립한 형상, 모로 돌아선 형상 등 여러 모습을 미리 캡처) 이를 각각의 기준영상으로 저장 후, 촬영된 영상 내의 피사체와 상호 비교하여 유사성을 비교 검출하는 분석법을 말한다. In addition, the 'template analysis' analyzes the shape of the shoulder line and the head by various angles (eg, captures various shapes such as a bent shape of the waist, an upright shape, a rounded shape, etc.) And then comparing the similarity with the object in the photographed image.

한편, 촬영된 영상에는 복수의 피사체가 포함될 수 있으며, 영상판독부(240)는 복수의 피사체 각각에 대한 인체 여부 판단을 수행할 수 있다. Meanwhile, the photographed image may include a plurality of photographed objects, and the image reading unit 240 may perform the human body determination for each of the plurality of photographed subjects.

도 4 및 도 5는 본 발명에 따른 인체의 형상을 템플릿으로 분석하는 원리를 구체적으로 설명하는 도면이다. 4 and 5 are views for explaining the principle of analyzing the shape of a human body according to the present invention as a template.

이하, 도 4 및 도 5를 참조하여 템플릿을 이용한 인체 형상 검출 방법을 상세하게 설명한다..
Hereinafter, a method of detecting a human body shape using a template will be described in detail with reference to FIGS. 4 and 5. FIG.

과정 1; 촬영된 영상인 입력 영상을 격자형으로 분할하여 표본값을 산출하고, 이를 바탕으로 제1 격자 영상을 구성한다.Process 1; An input image, which is a photographed image, is divided into a grid shape to calculate a sample value, and a first grid image is formed based on the sampled value.

구체적으로 이 과정은, i) 입력 영상을 가로방향 및 세로방향에 따라 임의 개수로 분할하여 격자를 생성하고, ii) 각각에 격자에 대한 표본값을 생성하며, iii) 표본값을 하나의 픽셀로 간주한 제1 격자 영상을 생성하는 구성을 포함한다. 이 때, 표본값은 격자 내에 포함되는 픽셀들에 대한 적분값을 의미한다. 즉, 제1 격자 영상의 '픽셀'은 입력 영상의 '격자'와 대응되되, 입력 영상의 격자의 적분값(표본값)이 제1 격자 영상의 픽셀값이 된다. 도 4에서는 입력 영상 및 제1 격자 영상의 일례를 도시하고 있다.
Specifically, the process comprises the steps of: i) dividing the input image into arbitrary numbers in the horizontal and vertical directions to generate a grid, ii) generating a sample value for each grid, and iii) And generates a first grid image considered. In this case, the sample value means an integral value for the pixels included in the lattice. That is, the 'pixel' of the first lattice image corresponds to the 'lattice' of the input image, and the integral value (sampled value) of the lattice of the input image becomes the pixel value of the first lattice image. FIG. 4 shows an example of an input image and a first grid image.

과정 2; 인체 형상 분석을 위해, 제1 격자 영상에서 임의 영역에서 제2 격자 영상을 추출한다.Process 2; For analysis of the human shape, a second grid image is extracted from an arbitrary region in the first grid image.

구체적으로 이 과정은 '과정 1'에서 산출된 제1 격자 영상의 임의의 위치에서 '템플릿 1' 크기의 영상인 제2 격자 영상을 추출한다. 일례로, 도 5의 (a)가 제1 격자 영상 내의 제2 격자 영상을 의미한다(제2 격자 영상 외의 다른 영역의 제1 격자 영상은 도시하지 않음).
Specifically, this process extracts a second grid image which is a 'template 1' size image at an arbitrary position of the first grid image calculated in the 'process 1'. For example, FIG. 5A shows a second lattice image in the first lattice image (the first lattice image in a region other than the second lattice image is not shown).

과정 3; 제2 격자 영상에서 횡방향 유효 최대영상폭과 종방향 유효 최대영상높이를 산출한다.Process 3; And calculates the lateral effective maximum image width and the longitudinal effective maximum image height in the second grid image.

구체적으로 이 과정은 '과정 2'에서 추출된 제2 격자 영상에서, 임계치 이상의 적분값(표본값)을 가지는 횡방향 최대 격자의 개수와 종방향 최대 격자의 개수를 산출하고, 이를 이용하여 횡방향 유효 최대영상폭(H)과 종방향 유효 최대영상높이를 산출한다. Specifically, in this process, in the second grid image extracted in the 'process 2', the number of the horizontal maximum grids and the number of the vertical maximum grids having the integration value (sampled value) equal to or greater than the threshold value are calculated, The effective maximum image width H and the longitudinal effective maximum image height are calculated.

즉, 제2 격자 영상의 다수의 열 중 임계치 이상의 적분값(표본값)을 가지는 픽셀의 수가 최대인 열이 '횡방향 유효 최대영상폭'이고, 제2 격자 영상의 다수의 횡 중 임계치 이상의 적분값(표본값)을 가지는 픽셀의 수가 최대인 횡이 '횡방향 유효 최대영상폭'이고, 제2 격자 영상의 다수의 종 중 임계치 이상의 적분값(표본값)을 가지는 픽셀의 수가 최대인 종이 '종방향 유효 최대영상높이"이다.
That is, the column having the maximum number of pixels having an integral value (sampled value) equal to or more than the threshold value among the plurality of columns of the second grid image is the " lateral effective maximum image width ", and the integral The maximum effective width of the image is the transverse effective maximum image width, and the maximum number of pixels having the integral value (sample value) of the threshold value or more among the plurality of species of the second grid image is maximum, Longitudinal effective maximum image height ".

과정 4; '과정 3'에서 산출된 최대영상폭 대비 최대영상높이의 비율을 산출하고 제1 표준값과의 유사도를 비교한다.Process 4; The ratio of the maximum image height to the maximum image height calculated in the process 3 is calculated and compared with the first standard value.

구체적으로 이 과정은 '과정 3'에서 산출된 횡방향 유효 최대영상폭(H) 및 종방향 유효 최대영상높이(V)에 대하여 종횡비율을 산출하고, 기 설정된 제1 표준값(일례로, 0.412)과의 제1 유사정도를 산출하며, 제1 유사정도와 기 설정된 제1 기준값(일례로, 0.1)과의 대소 여부를 판단한다. Specifically, the process calculates an aspect ratio with respect to the transverse effective maximum image width H and the longitudinal effective maximum image height V calculated in the process 3, and determines a first standard value (for example, 0.412) And determines whether the first similarity degree is larger than a predetermined first reference value (e.g., 0.1).

- 종횡비율 = H / V- aspect ratio = H / V

- 제1 유사정도(S1) = |종횡비율 - 0.412|- First degree of similarity (S1) = | aspect ratio - 0.412 |

- 제1 판단 결과(R1) = S1 < 0.1
- the first judgment result (R1) = S1 < 0.1

과정 5; 제2 격자 영역에서 인체의 두부 영역에 해당하는 영역을 제1 비교영역 및 제2 비교영역으로 분할한다. Process 5; And the region corresponding to the head region of the human body in the second lattice region is divided into the first comparison region and the second comparison region.

구체적으로 이 과정은 '과정 4'의 결과물 R1이 '참'일 경우, 즉 제1 유사정도가 기 설정된 제1 기준값보다 작은 경우, '템플릿 2'를 이용하여 인체의 두부 영역에 해당하는 영역을 제1 비교영역과 제2 비교영역으로 분할한다. 도 5의 (b)에서 청색영역이 제1 비교영역이고, 황색영역이 제2 비교영역이다.
Specifically, when the result R1 of the 'process 4' is 'true', that is, when the first similarity is smaller than the predetermined first reference value, the region corresponding to the head region of the human body using 'Template 2' Into a first comparison area and a second comparison area. In Fig. 5 (b), the blue region is the first comparison region and the yellow region is the second comparison region.

과정 6: 제1 비교영역 및 제2 비교영역을 이용하여 상체 두부 비율을 산출하고, 제2 표준값과의 유사도를 비교한다. Step 6: The upper body portion ratio is calculated using the first comparison region and the second comparison region, and the similarity with the second standard value is compared.

구체적으로 이 과정은 '과정 5'에서 분할된 제1 비교영역 및 제2 비교영역에서 격자들의 개수를 확인하고, 확인된 개수에 기초하여 상체 두부 비율을 산출하고, 상체 두부 비율과 기 설정된 제2 표준값(일례로, 0.4)에 대한 제2 유사정도를 산출하고, 제2 유사정도와 기 설정된 제2 기준값(일례로, 0.1)과의 대소 여부를 판단한다.Specifically, this process checks the number of grids in the first comparison area and the second comparison area divided in step 5, calculates the upper part head ratio based on the identified number, A second similarity degree to a standard value (for example, 0.4) is calculated, and whether the second similarity degree is larger than a predetermined second reference value (e.g., 0.1) is determined.

이 때, 상체 두부 비율은 제1 비교영역 내의 임계치 이상의 픽셀값을 가지는 픽셀의 개수와 제2 비교영역 내의 임계치 이상의 픽셀값을 가지는 픽셀의 개수의 비를 의미한다. In this case, the upper body portion ratio means a ratio of the number of pixels having a pixel value equal to or higher than the threshold value in the first comparison region to the number of pixels having the pixel value equal to or higher than the threshold value in the second comparison region.

- 상체 두부 비율 = 청색영역 임계 개수 / 황색영역 임계 개수 = (제1 비교영역 내의 픽셀 중 임계치 이상의 픽셀값을 갖는 픽셀의 개수) / (제2 비교영역 내의 픽셀 중 임계치 이상의 픽셀값을 갖는 픽셀의 개수)(The number of pixels having a pixel value equal to or higher than the threshold value among the pixels in the first comparison region) / (the pixel value of the pixel having the pixel value equal to or higher than the threshold value among the pixels in the second comparison region) Count)

- 제2 유사정도(S2) = |상체 두부 비율 - 0.4 |- Second degree of similarity (S2) = | Head to head ratio - 0.4 |

- 제2 판단 결과(R2) = S2 < 0.1
- second determination result (R2) = S2 < 0.1

과정 7; '과정 4' 및 '과정 6'의 각각의 결과에 대한 논리조합(OR, AND, XOR 등) 및 각각의 결과에 대한 가중치의 합을 이용하여 인체 형상 검출 여부를 판단한다.Process 7; (OR, AND, XOR, etc.) for each of the results of the process 4 and the process 6, and the sum of the weights for the respective results.

구체적으로 이 과정은 '과정 4'의 제1 판단 결과(R1)와 '과정 6'의 제2 판단 결과(R2)가 모두 '참'인 경우 인체 형상이 검출되었다고 판독하거나, 가중치를 이용한 제1 유사정도(S1)와 제2 유사정도(S2)의 합이 기 설정된 제3 기준값 이상인 경우 인체 형상이 검출되었다고 판독하거나, 제1 판단 결과(R1)와 제2 판단 결과(R2)가 모두 '참'이고, 상기 합이 제3 기준값 이상인 경우 인체 형상이 검출되었다고 판독할 수 있다. Specifically, if the first determination result R1 of the process 4 and the second determination result R2 of the process 6 are both true, the process determines that the human body shape is detected, If the sum of the similarity degree S1 and the second similarity degree S2 is equal to or greater than a predetermined third reference value, it is determined that the human body shape has been detected, or both the first determination result R1 and the second determination result R2 are ' And if the sum is equal to or greater than the third reference value, it is possible to read that the human body shape has been detected.

이와 같은 각 과정 1부터 과정 7까지는 그 외에도 다양한 방법이 있을 수 있으며, 특히 순서는 서로 바꾸어 구현될 수도 있다.
There may be various other methods from step 1 to step 7, and in particular, the steps may be implemented in different ways.

한편, 제어부(200)는 통신부(230)를 통해 수신된 명령을 이용하여 영상촬영부(120), 영상저장부(220) 및 영상판독부(240) 중 적어도 하나의 동작을 원격 제어하고, 통신부(230)를 통해 촬영된 영상을 전송한다. 즉, 영상촬영부(120), 영상저장부(220) 및 영상판독부(240) 중 적어도 하나는 통신부(230)를 통해 네트워크로 연동되어 제어부(200)에서의 이벤트 영상을 원격 전송함과 아울러 원격으로 작동을 변경할 수 있도록 설정될 수 있다. The control unit 200 remotely controls the operation of at least one of the image capturing unit 120, the image storing unit 220 and the image reading unit 240 using the command received through the communication unit 230, And transmits the photographed image through the camera 230. That is, at least one of the image capturing unit 120, the image storing unit 220, and the image capturing unit 240 is linked to the network via the communication unit 230 to remotely transmit the event image in the control unit 200, It can be set to change the operation remotely.

또한, 본 발명의 보안 감시장치의 제1 실시예에서는 도 2에 도시된 바와 같이 보안 대상의 인체 감시를 실시한 결과 경고를 하거나 보안 상황을 관찰 내지 영상을 검색하는 등의 목적으로 음향출력부(130) 및 영상표시부(140)를 더 포함할 수 있다. In addition, in the first embodiment of the security monitoring apparatus of the present invention, as shown in FIG. 2, the sound output unit 130 And a video display unit 140. [0034] FIG.

이때 영상표시부(140)는 일반적인 모니터일 수 있다. 음향출력부(130)는 제어부(200)로부터 출력되는 음향신호를 증폭하는 음향증폭기(131)와 이를 소리로 변환하는 스피커(132)를 포함한다. 이 때, 음향출력부(130)는 경고방송출력 수단(281)과 연동될 수 있다. 다만, 도 3에서 음향출력부(130)와 경고방송출력 수단(281)은 취사선택적 사항이다.At this time, the image display unit 140 may be a general monitor. The sound output unit 130 includes an acoustic amplifier 131 for amplifying the sound signal output from the control unit 200 and a speaker 132 for converting the sound signal into sound. In this case, the sound output unit 130 may be interlocked with the alarm broadcast output unit 281. In FIG. 3, the sound output unit 130 and the warning broadcast output unit 281 are optional items.

위와 같은 구성 및 작용을 좀 더 이해하기 쉽도록, 도 2 및 도 3에 도시된 하드웨어(210)의 구성요소를 좀 더 자세히 설명하면 다음과 같다.The components of the hardware 210 shown in FIG. 2 and FIG. 3 will be described in more detail in order to facilitate a better understanding of the above configuration and operation.

전원공급부(100)는 상용전원(AC)을 사용전원(DC)으로 변환하기 위한 전원변압기, 정류기, AC/DC 컨버터 등을 선택적으로 포함할 수 있다. 특히 전원공급부(100)는 전력발생장치와 전력저장창치로 구성될 수 있으며, 경우에 따라서는 무정전전원공급장치(UPS)를 포함할 수도 있다.The power supply unit 100 may selectively include a power transformer, a rectifier, an AC / DC converter, and the like for converting a commercial power source AC into a used power source DC. In particular, the power supply unit 100 may include a power generation device and a power storage device, and may include an uninterruptible power supply (UPS) in some cases.

전력발생장치(101)는 외부전원 입력이 필요치 않은 태양광발전기 혹은 풍력발전기 등을 포함할 수 있다. 전력저장장치(102)는 외부전력 차단 시에도 계속적인 전원공급이 가능하도록 하기 위한 구성요소로서 배터리(battery) 및 충전기를 포함한다.The power generation apparatus 101 may include a photovoltaic generator or a wind power generator that does not require external power input. The power storage device 102 includes a battery and a charger as components for enabling continuous power supply even when external power is cut off.

조명부(110)는 조명제어기인 조도 센서(111) 및 적외선발광기(112)를 포함한다. 적외선발광기(112)는 야간 촬영 및 영상 식별이 가능토록 하기 위한 근적외선 LED 조명장치를 포함한다.The illumination unit 110 includes an illuminance sensor 111 and an infrared light emitter 112, which are illumination controllers. The infrared light emitter 112 includes a near-infrared LED illumination device for enabling night-time shooting and image identification.

영상촬영부(120)는 가시광영역 및 근적외선영역을 모두 촬영할 수 있는 CCD 혹은 CMOS 소자로 구성된 카메라일 수 있다. The image capturing unit 120 may be a camera including a CCD or a CMOS device capable of capturing both the visible light region and the near infrared region.

제어부(200)는 CPU 및 메모리(Memory(214)) 등으로 구성된 인쇄회로기판(PCB) 형태의 하드웨어(hardware)(210)와 전용의 운영체제(OS)를 비롯한 응용소프트웨어(application software)(240)를 포함한다.The control unit 200 includes hardware 210 in the form of a printed circuit board (PCB) composed of a CPU and a memory 214 and application software 240 including a dedicated operating system (OS) .

영상저장부 내지 저장장치(220)는 영상촬영부로(120)부터 입력된 영상을 저장하기 위한 디스크(HDD, SSD), SRAM, Flash Memory 등 비휘발성의 영구 혹은 반영구 저장장치를 포함할 수 있으며, 네트워크(network) 환경에서는 네트워크 엑세스 저장장치(NAS) 등의 원격저장 장치 및 클라우드(cloud) 저장장치를 포함할 수 있다.The image storage unit or storage unit 220 may include a nonvolatile permanent or semi-permanent storage unit such as a disk (HDD, SSD), SRAM, or flash memory for storing images input from the image pickup unit 120, In a network environment, it may include a remote storage device such as a network access storage device (NAS) and a cloud storage device.

통신부 내지 통신장치(230)는 네트워크 환경(LAN, WLAN, PAN) 구성을 위한 이더넷(Ethernet) 통신장치, 와이파이(WiFi), 지그비(Zigbee), 블루투스(Bluetooth) 등을 포함할 수 있다.The communication unit or the communication device 230 may include an Ethernet communication device for configuring a network environment (LAN, WLAN, PAN), a WiFi, a Zigbee, and a Bluetooth.

이어서, 도 3에 도시된 각 소프트웨어(240)의 구성요소를 실시일례를 들어 좀 더 자세히 설명하면 다음과 같다.Next, the components of each software 240 shown in FIG. 3 will be described in more detail with an embodiment.

영상판독부인 소프트웨어(240)는 영상촬영부(120)에서 출력되는 영상으로부터 인체 형상인식 수단을 포함한다. The software 240, which is an image reading unit, includes a human shape recognizing means from an image output from the image photographing unit 120.

입력영상정규화 수단(241)은 동일한 피사체에 대해 촬영시간, 일조량 등 기상조건에 따라 달라지는 촬영 영상을 일정하게 변환하는 수단으로서, 촬영영상의 명도 히스토그램(histogram)의 평준화 과정을 수행할 수 있다. 촬영범위설정 수단(243)은 일정한 범위 내의 영상만을 분석의 대상으로 하기 위한 영역분할 기능을 수행한다. 일례로, 설정된 범위는 쓰레기 투기예상 장소를 포함할 수 있다. The input image normalizing means 241 may perform a leveling process of the brightness histogram of the photographed image as means for uniformly converting the photographed image that varies depending on the weather conditions such as the photographing time and the amount of sunshine for the same subject. The shooting range setting means 243 performs an area dividing function for making only an image within a certain range as an object of analysis. For example, the set range may include a location for throwing garbage.

템플릿비교기(250)는 촬영된 영상에서 특징적 패턴 혹은 형상을 비교하여 유사한 정도를 수치적으로 산출하는 수단이다.The template comparator 250 compares a characteristic pattern or a shape of a photographed image to calculate a similar degree numerically.

인체형상인식 수단(251)은 인체 형상의 여러 특징정보를 이용한 템플릿비교 결과와 그 결과에 대한 가중치의 합을 이용하여 입력영상의 인체 유사성을 판단하기 위한 수단으로, Haar cascade feature classifier 알고리즘(Viola & Jones, 2004)을 사용할 수 있으며, 구체적으로는 이하 소프트웨어 흐름도로서 설명하는 팀플릿 비교 결과를 수행할 수 있다. The human shape recognizing means 251 is a means for judging human similarity of an input image using a template comparison result using various feature information of the human shape and a weight of the result of the template comparison. The Haar cascade feature classifier algorithm (Viola & Jones, 2004) can be used. Specifically, the result of the team fleet comparison described below as a software flow chart can be performed.

즉, Haar cascade feature classifier 알고리즘(Rapid Object Detection using a Boosted Cascade of Simple Features, Viola & Jones, 2004)은 촬영된 영상으로부터 검출하고자 하는 대상, 즉 인체를 추출하기 위하여, 여러 개의 부분 영상에 대한 특성비교와 이들의 결과에 대한 가중치를 적용하여, 검출 대상에 대한 유사특성을 고속으로 산출하여 대상물을 검출하는 영상처리 알고리즘이다. 즉, Haar cascade feature classifier 알고리즘은 유사 특성 비교를 통해 인체 형상과 유사한 정도를 산출하는 과정을 수행하므로, 비록 검지된 형상이 인체 전신 형상이 아니어도 그 결과가 '참'인 경우가 발생하는 문제점이 있지만, 본 발명은 이에 대한 진보된 보완의 수단으로 이하에서 명시하는 인체형상검출을 위한 템플릿을 부가적으로 적용한 것이다.That is, the Haar cascade feature classifier algorithm (Rapid Object Detection using a Boosted Cascade of Simple Features, Viola & Jones, 2004) is used to extract characteristics of a plurality of partial images And a weight of the result are applied to calculate an analogous characteristic of the object to be detected at a high speed to detect the object. In other words, the Haar cascade feature classifier algorithm calculates the degree similar to the human body shape through comparison of similar characteristics. Even if the detected shape is not the whole body shape of the human body, the result is 'true' However, the present invention is an additional application of a template for human shape detection as described below as an advanced means of supplementing the above.

DATA송수신 수단(280)은 촬영범위, 경고방송용 음원, 홍보영상 및 각 수단의 운용여부 등 본 발명의 실제 사용에 필요한 모든 정보에 대한 기기와의 통신 수단이다. The DATA transmitting and receiving means 280 is means for communicating with the device for all the information necessary for actual use of the present invention, such as a photographing range, a sound source for alarm broadcasting, a publicity image, and operation of each means.

경고방송출력 수단(281)은 경고방송용 음원(음성 및 기타 음향을 녹음한 디지털 파일형식의 자료를 말하며, 이하 '음원'이라 한다)을 실제의 음향출력부(130)로 출력하는 수단으로서, DAC 혹은 PWM을 포함한다.The warning broadcast output means 281 is means for outputting to a real sound output unit 130 a warning sound source (data of a digital file format in which sound and other sounds are recorded and hereinafter referred to as a sound source) Or PWM.

또한 본 발명의 제1 실시예에 따르면, 영상촬영부(120)는 쓰레기 투기예상 장소를 촬영범위로 하여 영상을 촬영할 수 있으며, 일정한 범위를 촬영토록 렌즈 및 브래킷(bracket)을 설정하는 구성을 포함할 수 있다. In addition, according to the first embodiment of the present invention, the image capturing unit 120 may include a configuration for setting a lens and a bracket so as to photograph an image with the image capturing range set as a speculative place for dumping, can do.

촬영범위설정 수단(243)은 일정한 범위 내의 영상만을 분석의 대상으로 하는데, 더 나아가서 일상적인 행인에 대해 무단 투기자로 처리되지 않도록 하기 위하여, H/W적 촬영범위가 아닌 카메라가 촬영한 영상으로부터 쓰레기 무단투기 감시를 위한 특정 지역 또는 영역을 설정하거나 제외시키는 수단을 포함할 수 있다. 소위 SCREENNING 혹은 MASKING 기능이 이에 해당된다.The shooting range setting means 243 sets only the images within a certain range to be analyzed, and furthermore, in order to prevent the routine user from being processed as an unauthorized photographer, And may include means for setting or excluding a specific area or area for surveillance surveillance. This is the so-called screening or masking function.

이 때, 브래킷은 취사선택적인 사항으로 팬-틸트 구조가 포함될 수도 있는데, 이에 관한 외형 구조의 개념을 도 6 및 도 7에 도시하였다.At this time, the bracket may include a pan-tilt structure as a matter of preference for cooking, and the concept of the outer structure related thereto is shown in Figs. 6 and 7. Fig.

즉, 도 6의 우측 도면에서, 하우징 내부에는 영상촬영부 즉 카메라(120)와 적외선 발광기(112)가 배치되며, 이를 통해 일정한 범위의 영상을 촬영할 수 있다. 기타 나머지 구성요소들도 외형적으로 하우징 내부에 각각 실장되는 모습을 나타내고 있다. 각각의 회로기호는 도 2 및 도 3에 도시된 각각의 구성요소가 어떻게 외형적으로 실장되는지를 나타내고 있다.That is, in the right side of FIG. 6, a video image pickup unit, that is, a camera 120 and an infrared ray light emitter 112 are disposed inside the housing, and a certain range of images can be captured through the camera. And other remaining components are mounted on the interior of the housing. Each circuit symbol shows how each of the components shown in Figs. 2 and 3 are mounted externally.

도 6의 좌측 도면은 안내판 기능을 겸한 브래킷과 하우징의 모습을 도시한 것으로, 함체(900)는 방진 및 방수 기능을 갖춘 박스형으로 재질은 steel, stainless steel, PE, ABS, FRP, PVC, 아크릴, aluminum 등 중 어느 하나를 선택할 수 있다.6 shows a bracket and a housing that serve as a guide plate function. The housing 900 is a box type having a dustproof and waterproof function and made of steel, stainless steel, PE, ABS, FRP, PVC, acrylic, aluminum, or the like.

명칭표시부(901)는 장치의 명칭 혹은 관리주체 등을 표시한다.The name display unit 901 displays the name of the apparatus or the management subject.

관리표시부(902)는 등록번호, 촬영범위, 관리자, 연락처 등 관리주체를 인식할 수 있는 내용을 표시한다. The management display unit 902 displays contents capable of recognizing a management subject such as a registration number, a shooting range, an administrator, and a contact.

도 7은 브래킷의 고정기구 및 잠금장치의 열림과 잠김 상태를 나타낸 도면으로, 외부에서 관계자가 여닫는 것으로 한정하는 보안 구성을 제공한다.
Fig. 7 is a view showing the opening and locking states of the fixing mechanism and the locking device of the bracket, and provides a security configuration that is limited to the outside opening and closing by the persons concerned.

도 8은 본 발명에 따른 보안 감시장치의 제2 실시예를 도시한 블록 다이어그램이다. FIG. 8 is a block diagram illustrating a second embodiment of the security monitoring apparatus according to the present invention.

영상촬영부(120)는 설정된 범위의 영상을 촬영한다. The image capturing unit 120 captures an image in a set range.

음향출력부(130)는 영상촬영부(120)의 촬영 대상에게 음향을 방송한다. The sound output unit 130 broadcasts sound to the object to be imaged by the image shooting unit 120.

제어부(200)는 영상촬영부(120) 및 음향 출력부(130) 등의 동작을 제어한다. The control unit 200 controls operations of the image pickup unit 120 and the sound output unit 130 and the like.

제어부(200) 내의 소프트웨어인 영상판독부(240)는 영상촬영부(120)에 연동되어 영상촬영부(120)에 의해 촬영된 영상에 인체가 포함되었는지 여부를 형상으로 판독함과 아울러 인체의 동태를 분석한다. 이 때, 인체의 동태를 분석한 결과 쓰레기 투기인지 여부를 판독하고, 쓰레기 투기인 경우 제어부(200)는 음향출력부(130)를 구동시킨다. The image reading unit 240, which is software in the control unit 200, reads out whether the human body is included in the image photographed by the image capturing unit 120 in a form interlocked with the image capturing unit 120, . At this time, the controller 200 reads the dynamics of the human body to determine whether the dumping is a dumping or not, and when the dumping is performed, the controller 200 drives the sound output unit 130.

여기서, 쓰레기 투기로 판독되면 제어부(200)는 영상저장부(220)를 구동시켜, 영상저장부(220)가 영상촬영부(120)로부터 촬영된 영상을 저장하도록 제어한다. 또한, 쓰레기 투기로 판독되면 쓰레기 투기자의 모습과 행동이 현장에서 영상으로 디스플레이 되는 영상표시부(140)를 더 포함할 수 있다. 즉, 영상표시부(140)는 촬영된 영상에 포함된 인체에게 상기 쓰레기 투기로 판독된 영상을 디스플레이할 수 있다. The control unit 200 drives the image storage unit 220 to control the image storage unit 220 to store the image photographed by the image photographing unit 120. [ In addition, the image display unit 140 may further include a display unit 140 for displaying the shape and behavior of the garbage maker when the garbage is read. That is, the image display unit 140 can display the image read by the garbage disposal to the human body included in the photographed image.

나아가, 영상촬영부(120)는 카메라 설치 높이에 따라 변형되는 인체 감지 형상을 자동적으로 보정하는 촬영영상보정 수단(242)을 더 포함할 수 있다.Furthermore, the image capturing unit 120 may further include an image capturing image correcting unit 242 that automatically corrects a human body sensed shape deformed according to a camera installation height.

또한, 네트워크와 연결되는 통신부 내지 통신장치(230)를 더 포함할 수 있으며, 제어부(200)는, 통신장치(230)를 통해 수신된 명령을 이용하여 영상촬영부(120), 영상판독부(240), 음향출력부(130) 및 영상표시부(140) 중 적어도 하나의 동작을 원격 제어하고, 통신부를 통해 촬영된 영상을 전송할 수 있다. 즉, 영상촬영부(120), 음향출력부(130), 영상판독부(240), 영상표시부(140) 및 제어부(200) 중 적어도 하나는 네트워크로 연동되어 영상촬영부(120), 음향출력부(130), 영상판독부(240), 영상 표시부(140) 및 제어부(200) 중 어느 하나 이상의 결과를 원격 전송함과 아울러 원격으로 작동 설정을 변경할 수 있는 구성을 더 포함할 수 있다. The controller 200 may further include a communication unit or a communication unit 230 connected to the network and the control unit 200 may control the image capturing unit 120, 240, the sound output unit 130, and the image display unit 140, and can transmit the photographed image through the communication unit. That is, at least one of the image capturing unit 120, the sound output unit 130, the image reading unit 240, the image display unit 140, and the control unit 200 is interlocked with the network and connected to the image capturing unit 120, The image display unit 140, and the control unit 200, as well as to remotely change the operation settings of the image display unit 140, the image reading unit 240, the image display unit 140,

이 때, 네트워크는 이동통신망과 스마트폰으로 구현될 수 있으며, 원격으로 작동 설정을 변경할 수 있는 구성에는 미리 둘 이상으로 저장된 콘텐트를 원격으로 선택 변경하여서 음향출력부(130)의 방송 내용을 변경하는 구성으로 구현되거나, 네트워크를 통해 실시간으로 방송을 하도록 음향출력부(130)를 설정하도록 구현될 수도 있다. 또한, 영상표시부(140) 역시 음향출력부(130)와 마찬가지로 동작할 수 있다. In this case, the network may be implemented as a mobile communication network and a smart phone. In a configuration capable of changing the operation setting remotely, the content stored in the sound output unit 130 is changed by remotely selecting and changing the content stored in advance Or may be configured to set the sound output unit 130 to broadcast in real time via the network. Also, the image display unit 140 may operate in the same manner as the sound output unit 130. [

일례로, 인체의 동태가 쓰레기 투기인 경우, 음향출력부(130)의 원격 제어는 기 저장된 경고 음원들 중 하나를 선택하여 방송하거나 통신부를 통해 수신된 경고 음원을 방송할 수 있다. 그리고, 영상표시부(140)는 인체의 동태가 쓰레기 투기인 경우 촬영된 영상에 포함된 인체에게 쓰레기 투기로 판독된 영상을 디스플레이할 수 있다. For example, when the human body is dumping, the remote control of the sound output unit 130 may select one of the pre-stored warning sound sources or broadcast the warning sound source received through the communication unit. In addition, the image display unit 140 can display an image read by the dumping unit to a human body included in the photographed image when the dynamics of the human body is dumping.

또한, 보안 감시장치는 음향출력부(130)의 홍보용 음향 또는 영상표시부(140)는 홍보용 영상을 방송하고 네트워크를 통해 원격으로 방송내용을 변경할 수 있는 구성을 더 포함할 수 있다. In addition, the security monitoring apparatus may further include a publicity sound of the sound output unit 130 or a configuration in which the image display unit 140 can broadcast the publicity image and remotely change the broadcast contents through the network.

일례로, 인체의 동태가 쓰레기 투기가 아닌 경우, 음향출력부(130)의 원격 제어는 기 저장된 계도용 홍보 음원들 중 하나를 선택하여 방송하거나 통신장치(230)를 통해 수신된 계도용 홍보 음원을 방송하고, 영상표시부(140)의 원격 제어는 기 저장된 계도용 홍보 영상들 중 하나를 선택하여 방송하거나 통신장치(230)를 통해 수신된 계도용 홍보 영상을 방송할 수 있다. For example, when the dynamics of the human body is not the dumping of the garbage, the remote control of the sound output unit 130 may be performed by selecting one of the pre-stored publicity sound sources for the system and broadcasting it, And the remote control of the image display unit 140 may broadcast one of the pre-stored publicity images for publicity and broadcast the publicity image for the publicity received through the communication unit 230. [

영상촬영부(120)는 안내 및 계도 현판에 최적화 한 하우징과 상기 하우징 및 브래킷의 이격면 사이에서 음향출력부(130)의 음향이 발생되는 구조체 내에 수용되는 구성을 포함할 수 있다. The image capturing unit 120 may include a structure that is housed in a structure in which sound of the sound output unit 130 is generated between a housing optimized for guidance and instrument panel and a space between the housing and the bracket.

이에 관한 각각의 구성요소에서, 영상촬영부(120)는 평면 영상을 촬영하는 2D카메라 내지는 입체 영상을 촬영하는 3D카메라로 구성될 수 있고, 영상판독부(240)는 인체의 평면 형상 내지 입체 영상을 판독하여 인체의 포함 및 인체의 동태를 판독할 수 있다. The image capturing unit 120 may be a 2D camera for capturing a plane image or a 3D camera for capturing a stereoscopic image, and the image reading unit 240 may be configured to include a plane shape or a stereoscopic image of a human body So that the inclusion of the human body and the dynamics of the human body can be read.

또한 제2 실시예에서도 제1 실시예에서처럼 영상판독부(240)는 인체의 머리와 어깨선이 이루는 형상을 탬플릿으로 분석하여 동일 내지 유사한 판독결과가 설정된 횟수 이상으로 중복 검출되었을 때 이를 인체 형상으로 판독할 수 있다. Also, in the second embodiment, as in the first embodiment, the image reading unit 240 analyzes the shape formed by the head and the shoulder line of the human body as a template, and when the same or similar reading result is detected twice or more than the set number of times, can do.

나아가, 영상촬영부(120)는 안내 및 계도 현판에 최적화 한 하우징과 상기 하우징 및 브래킷의 이격면 사이에서 음향출력부(130)의 음향이 발생되는 구조체 내에 수용될 수 있다. Further, the image capturing unit 120 may be accommodated in a structure in which sound of the sound output unit 130 is generated between a housing optimized for guidance and instrument panel and a space between the housing and the bracket.

각 구성요소의 설명에서 도 3과 중복되는 부분은 도 3의 설명을 인용하여 생략하기로 하고, 추가되거나 좀 더 구체화 되는 부분에 대하여 설명하면 다음과 같다.In the description of each constituent element, the parts overlapping with those in FIG. 3 will be omitted from the description of FIG. 3, and the added or more specific parts will be described as follows.

영상촬영부(120)는 도 3에서 설명한 바와 같으며, 조명부(110)는 조도센서(111)를 이용한 조명제어기와 적외선발광기(112) 등의 포함할 수 있다. 전원부(100) 역시 도 3의 것과 개념적으로 동일하다. 3, and the illumination unit 110 may include an illumination controller using an illuminance sensor 111, an infrared light emitter 112, and the like. The power supply unit 100 is also conceptually the same as that of Fig.

하드웨어(210)와 소프트웨어(240)를 포함하는 제어부(200) 역시 도 3에서와 동일하다. 다만 도 6의 소프트웨어(240)에는 인체의 동태분석 수단(260)이 더 포함되므로, 이하에서는 이에 대하여 별도로 설명하기로 한다.The control unit 200 including the hardware 210 and the software 240 is also the same as in FIG. However, since the software 240 of FIG. 6 further includes a human motion analysis means 260, the description will be separately described below.

음향출력부(130)는 음향증폭기 및 스피커를 포함한다. 음향증폭기(도 6의 131)는 제어부(200)에서 출력되는 음향을 사용시간에 따라 10~100dB 정도로 가변 증폭할 수 있되, 주간의 경우 주택가에서는 50dB정도, 야간의 경우는 30dB정도로 증폭할 수 있다(지하철의 구내방송은 60dB임을 참조).The sound output unit 130 includes a sound amplifier and a speaker. The acoustic amplifier (131 in FIG. 6) can amplify the sound output from the control unit 200 to about 10 to 100 dB according to the use time, but can amplify about 50 dB in the residential area in the daytime and 30 dB in the nighttime (See that the subway station is 60dB).

경고방송출력 수단(281)은 경고방송용 음원(음성 및 기타 음향을 녹음한 디지털 파일 형식의 자료를 말하며, 이하 이를 '음원'이라 한다)을 실제의 음향출력부(130)로 출력하는 수단으로서 DAC 혹은 PWM을 포함한다.The warning broadcast output means 281 is a means for outputting to the actual sound output unit 130 a warning sound source (data of a digital file format in which sound and other sounds are recorded and hereinafter referred to as 'sound source') as a DAC Or PWM.

영상표시부(140)는 안내문만을 표시하기 위한 LED전광판, 영상신호 및 안내문을 표시할 수 있는 LCD형, LED형, OLED형 혹은 AMOLED형 등의 모니터를 포함할 수 있으며, 교환 가능한 고정 안내문이 인쇄된 안내판을 포함할 수 있다. 이 때, 영상표시부(140)는 도 6와 같이 배치될 수 있으며, 인체의 동태가 쓰레기 투기인 경우, 촬영된 영상에 포함된 인체에게 쓰레기 투기로 판독된 영상을 디스플레이할 수 있다. The image display unit 140 may include an LED electric signboard for displaying only a guidance message, an LCD type, an LED type, an OLED type, or an AMOLED type monitor capable of displaying a video signal and a guidance message. It may include a sign board. At this time, the image display unit 140 can be arranged as shown in FIG. 6, and when the dynamics of the human body is waste dumping, the image read by the dumping body can be displayed to the human body included in the photographed image.

제2 실시예에서, '영상촬영부(120), 음향출력부(130), 영상판독부(240), 영상표시부(140) 및 제어부(200) 중 어느 하나 이상에는 네트워크로 연동되어 영상촬영부(120), 음향출력부(130), 영상판독부(240), 영상표시부(140) 및 제어부(200) 중 어느 하나 이상의 결과를 원격 전송함과 아울러 원격으로 작동 설정을 변경할 수 있는 구성' 및 '네트워크가 이동통신망과 스마트폰으로 구현'될 수 있는 점도 도 3의 해당부분 설명과 원리적으로 동일하므로 더 이상 구체적인 설명은 생략한다. In the second embodiment, any one or more of the image photographing unit 120, the sound output unit 130, the image reading unit 240, the image display unit 140, and the control unit 200 is linked to the network, A configuration capable of remotely transmitting the result of at least one of the sound output unit 120, the sound output unit 130, the image reading unit 240, the image display unit 140, and the control unit 200, The point that 'the network can be realized as a mobile communication network and a smart phone' is basically the same as that of the corresponding part of FIG. 3, so that a detailed explanation will be omitted.

'원격으로 작동 설정을 변경할 수 있는 구성에는 미리 둘 이상으로 저장된 콘텐트를 원격으로 선택 변경하여서 음향출력부의 방송 내용을 변경한다'는 의미는 사전에 정해진 경고 방송용 콘텐츠를 필요 시 선택한다는 뜻이다. 또한 '네트워크를 통해 실시간으로 방송을 하도록 음향출력부(130)를 설정한다'는 의미는 원격 장소에서 직접 모니터로 보면서 경고 방송을 할 수 있음을 뜻한다. 'In the configuration that can change the operation setting remotely, it is possible to remotely select and change the content stored in advance to change the broadcast contents of the sound output unit', which means to select the predetermined warning broadcast contents when necessary. In addition, 'setting the sound output unit 130 to broadcast in real time through the network' means that it is possible to watch a warning message while watching directly from a remote place.

제2 실시예에서 언급한 '영상촬영부(120)는 안내 및 계도 현판에 최적화 한 하우징과 상기 하우징과 브래킷의 이격면 사이에서 음향출력부(130)의 음향이 발생되는 구조체 내에 수용되는 구성'이라 함은 도 6의 우측에서 스피커(132) 등이 영상표시부(140)와 케이스(하우징)의 사이 공간에 설치된 구성을 의미한다.The image capturing unit 120 referred to in the second embodiment is configured to be housed in a structure in which the sound of the sound output unit 130 is generated between a housing optimized for the guide and gauge plate and a space between the housing and the bracket, Refers to a configuration in which the speaker 132 or the like is installed in the space between the image display unit 140 and the case (housing) on the right side of FIG.

한편, 제2 실시예의 소프트웨어(240)는 영상촬영부(120)와의 연동 구성에서 카메라 설치 높이에 따라 변형되는 인체 감지 형상을 자동적으로 보정하는 촬영영상보정 수단(242)을 더 포함되는 바, 이 구성은 카메라가 높은 곳에 설치되어 인체가 위치한 아래 부분이나 옆 부분을 비스듬히 촬영할 때 화면 찌그러짐 현상을 바로잡기 위한 것이다. 이 때, 촬영된 영상의 보정은 촬영의 각도 보정, 촬영된 영상에서의 종횡비 보정을 포함한다. The software 240 of the second embodiment may further include a photographed image correction means 242 for automatically correcting the human shape detected by the height of the camera in the interlocking configuration with the image photographing unit 120, The configuration is for correcting the distortion of the screen when the camera is installed at a high place and the lower portion or the side portion where the human body is located is obliquely photographed. At this time, correction of the photographed image includes angle correction of the photographing and correction of the aspect ratio of the photographed image.

즉, 도 8에서 촬영된 영상은 주로 사람의 키 높이에서 촬영한 영상보다는 2.5미터 이상의 고소에서 촬영된 영상일 수 있는데, 촬영된 영상에서의 피사체의 종횡비가 실제 피사체의 종횡비(縱橫比)와는 사뭇 달라지는바, 촬영영상보정 수단(242)은 이 같은 현상을 영상 보정한다. 요컨대, 동일한 피사체가 촬영 각도에 따라 서로 상이하게 촬영됨에 따라 서로 상이한 피사체로 인식되어질 수 있는 점을 방지하기 위하여, 촬영각도에 따른 영상보정을 행함으로써 탬플릿 분석 시에 오차가 발생되지 않도록 하거나 오차를 최소화시킬 수 있다. In other words, the image photographed in FIG. 8 may be an image photographed at a height of 2.5 meters or more, rather than the image taken at a height of a person's height. The aspect ratio of the subject in the photographed image is different from the aspect ratio of the actual subject As a result, the photographed image correcting means 242 corrects such a phenomenon. In other words, in order to prevent the same subject from being photographed differently from each other depending on the photographing angle, images are corrected according to the photographing angle, Can be minimized.

구체적인 사례로서 촬영영상보정의 대상을 도 9에 개시하였다.As a concrete example, an object of shot image correction is shown in Fig.

즉, 도 9의 a)는 정면에서 촬영한 피사체의 정규화 된 영상이다. 이에 비해 도 9의 b)는 상부가 좁아진 찌그러진 영상, 도 9의 c)는 좌측으로, d)는 우측으로 각각 좁아진 찌그러진 영상이고, 도 9의 e)는 엣지를 보정해야 할 대상인 영상 화면을 나타낸다. 그 중에서 b), c), d)는 조감도 현상으로 인해 발생되고, e)는 렌즈에서 왜곡이 발생한 경우에 나타나는 현상이다. 보정 방법의 일례로, 일정한 촬영 각도에 대한 단순 기울기(tangent)만의 보정방법, 카메라로부터 피사체까지의 원근에 의해 나타나는 사다리꼴형 FOV(field of view)에 대한 직사각형화 변환방법, 어안렌즈, 광시야각 렌즈 및 여타 렌즈에 의해 발생되는 피사체 영상 왜곡에 대한 카메라 및 영상 교정(calibration) 방법을 포함한다. That is, Fig. 9 (a) is a normalized image of a subject photographed in front. In contrast, FIG. 9 (b) shows a distorted image at the top, FIG. 9 (c) shows the left image, and d) shows a distorted image at the right. FIG. 9 e shows the image to be corrected . Among them, b), c) and d) are caused by the bird's-eye phenomenon phenomenon, and e) is a phenomenon that occurs when distortion occurs in the lens. As an example of the correction method, there are a correction method of only a simple tangent for a constant photographing angle, a rectangular conversion method for a trapezoidal FOV (field of view) appearing by a perspective from a camera to a subject, a fisheye lens, And camera and image calibration methods for subject image distortion caused by other lenses.

이제부터는 도 8의 제2 실시예에 적용된 인체의 동태분석 기술에 대하여 설명하기로 한다.Hereinafter, a description will be made of a technique for analyzing human body motion applied to the second embodiment of FIG.

즉, 영상판독부(240)는 인체의 형상을 인식하고, 나아가 그 인식된 인체 형상의 동태를 분석한다. 이를 위해, 동태분석 수단(260)이 더 포함된다. 이에 관하여는 구체적으로는 세 가지 기법으로 달성되는데, 그 첫 번째 달성기법이 인체의 좌우균형을 분석하여 판단하는 원리이며, 이 원리는 도 10의 'a) 하체 대칭비율'을 분석하는 이론에 기초한다.That is, the image reading unit 240 recognizes the shape of the human body and further analyzes the dynamics of the recognized human body shape. To this end, the dynamic analysis means 260 is further included. This principle is achieved by analyzing the left and right balance of the human body, and this principle is based on the theory of analyzing 'a) lower body symmetry ratio' in FIG. 10 do.

즉, 도 10의 (a)을 참조하면, 쓰레기(1000)를 든 부분만큼의 부피로 인하여 인체 하부의 대칭 균형 즉, 좌유균형은 달라지므로, 이와 같이 좌우 면적 대칭이 허물어진 상태를 비교 분석하여 인체의 동태를 분석하는 것으로, 각각 격자수만큼의 가중치 분석을 통해서 이를 달성한다.That is, referring to FIG. 10 (a), since the symmetry balance of the lower portion of the human body, that is, the balance of the left fluid, is changed due to the volume of the portion of the garbage 1000, By analyzing the dynamics of the human body, we accomplish this by analyzing the weight of each lattice.

두 번째 달성기법은 인체의 상하균형을 분석하여 판단하는 수단이다. 이 원리는 도 10의 'b) 상하체 비대칭 변화'를 분석하는 이론에 기초한다.The second attainment technique is a means of analyzing the top-bottom balance of the human body. This principle is based on the theory of analyzing 'b) upper and lower body asymmetry changes' in FIG.

즉, 도 10의 (b)을 참조하면, 쓰레기를 든 만큼 하체의 부피가 늘어나므로 도 10의 'b) 상하체 표준비율 분석'에 의하면 평상시 정상인의 템플릿과 비교했을 때 하단부 전체면적(즉 가로측의 범위)이 상단부 전체면적보다 더 넓어지도록 변화되며, 이를 통해 쓰레기 투기 여부를 분석하게 된다. Referring to FIG. 10B, since the volume of the lower body increases by the amount of the trash, according to the 'b) upper and lower body standard ratio analysis' of FIG. 10, the total area of the lower end ) Is changed to be wider than the entire area of the upper end, thereby analyzing whether or not the waste is dumped.

세 번째 달성기법은 인체의 상부중심선과 하부중심선의 괴리를 판별하는 수단이다. 이 원리는 도 10의 'c) 상하체 기울기 변화'를 분석하는 원리에 기초한다.The third achieving technique is a means to distinguish the distinction between the upper center line and the lower center line of the human body. This principle is based on the principle of analyzing 'c) the change of the upper and lower body slope' in FIG.

즉, 도 10의 (c)을 참조하면, 쓰레기 무게만큼 인체는 쓰레기를 든 반대편으로 상체가 기울어지므로 상하체를 잇는 축 선의 이탈(기울기) 정도를 분석, 즉 인체의 상부중심선과 하부중심선의 괴리를 분석하고, 이를 이용하여 쓰레기 투기 여부를 판단한다. That is, referring to FIG. 10 (c), since the upper body is inclined toward the opposite side of the garbage by the weight of the garbage, the degree of deviation (inclination) of the axis connecting the upper and lower bodies is analyzed, that is, the distance between the upper center line and the lower center line , And judges whether or not to throw the garbage by using it.

본 발명은 이와 같은 첫 번째로부터 세 번째까지의 각 기법을 OR조건으로 적용하거나 AND조건으로 적용할 수 있는데, OR조건으로 적용한 경우는 쓰레기 투기를 빠짐없이 감시할 수 있고, AND조건으로 적용한 경우는 쓰레기 투기를 정확히 분별해 내는 특징이 있다.In the present invention, each of the first to third techniques can be applied as an OR condition or an AND condition. In the case of applying the OR condition, the garbage dumping can be completely monitored. In the case of applying the AND condition, There is a feature that distinguishes garbage dumping accurately.

나아가 영상판독부(240)는 탐색된 인체 형상이 영상촬영부(120)에 의해 설정된 범위 내에서 원근 또는 좌우로 이동하는 행동패턴을 분석하는 수단을 더 포함할 수 있다. 즉, 영상판독부(240)는 설정된 범위의 출입시의 판독된 인체의 형상에 더 기초하여 인체의 동태가 쓰레기 투기인지 여부를 판독할 수 있다. 일정한 범위 내로 들어 올 때의 쓰레기 소지 형상과 그 범위 밖으로 나갈 때의 형상이 쓰레기 투기의 행동패턴에 가깝다면 이를 통해 투기로 판독할 수 있다. 한편, 상기한 내응은 OR조건이든 AND조건이든 간에 부가적으로 적용함으로써 쓰레기 투기 감시의 정확성을 높일 수 있다.Furthermore, the image reading unit 240 may further include means for analyzing a behavior pattern in which the detected human body shape moves to a perspective or a left or right within a range set by the image capturing unit 120. [ That is, the image reading unit 240 can read whether or not the dynamics of the human body is dumping, based on the shape of the human body read out from the set range. If the shape of the garbage when it comes within a certain range and the shape when going out of the range are close to the behavior pattern of the garbage dump, it can be read by dumping. On the other hand, the above-mentioned countermeasure can be applied additionally between the OR condition and the AND condition, thereby improving the accuracy of the garbage dumping monitoring.

도 8의 회로기호를 통해 특화된 핵심 특징부를 반복해서 설명하면 다음과 같다. The core features that are specialized through the circuit symbols in FIG. 8 will be described repeatedly as follows.

동태분석 수단(260)은 인체로 판단되어진 촬영영상(이하 '인체 영상'이라함)에서 쓰레기 무단 투기자를 식별하는 수단이다. 촬영된 영상에서 인간이 수하물을 소지하였을 때 나타날 수 있는 특징을 비교하여 동태를 분석한다. 즉 신체적 변화 특징과 인체의 상체 및 하체에 대한 외형적 특징을 비교함으로서 쓰레기 무단 투기자를 식별한다. The dynamic analysis means 260 is a means for identifying a garbage unauthorized person in a photographed image (hereinafter referred to as &quot; human image &quot;) determined to be a human body. We analyze the dynamics by comparing characteristics that can appear when humans carry baggage in photographed images. In other words, by comparing the characteristics of physical change with the external features of the body and lower body of the human body, it identifies the trash manipulator.

도 10은 본 발명의 실시예에 따른 쓰레기 투기 상태를 분별하는 동태분석 원리를 예시한 개념도로서 신체적 변화 특징과 외형적 특징을 비교하는 원리가 개시된다.FIG. 10 is a conceptual diagram illustrating a principle of dynamics analysis for discriminating a dumping state according to an embodiment of the present invention, and discloses a principle of comparing physical characteristics and external characteristics.

(1) 외형적 특징(도 10의 (a), (b))(1) Outline features ((a) and (b) in FIG. 10)

첫 번째 외형적 특징 분석 방법은 수하물을 포함한 하체의 좌우 면적분포에 대한 좌우 표준비율 차이를 검출한다. 도 10의 (a)을 참조하면, 하체에 대한 좌우 비율의 차이가 분석의 대상으로 된다. The first external feature analysis method detects the difference between the left and right standard ratio of the left and right area distribution of the lower body including the baggage. Referring to FIG. 10 (a), the difference in the left-right ratio with respect to the lower body is analyzed.

두 번째 외형적 특징 분석 방법으로는 상체 대비 수하물을 포함한 하체의 표준면적 차이를 분석한다. 즉, 수하물을 들었을 때 수하물로 인하여 평상시의 상체와 하체가 차지하는 면적 비율이 달라지는 정도를 분석한다. 도 10의 (a)에 도시된 바와 같이, 상체에 대한 하체의 비율의 차이 정도를 판단한다. 수하물을 들게 되면 그 면적만큼 이미지 전체의 형상으로 되는 하체의 면적은 늘어나게 된다. In the second outline characteristic analysis method, the standard area difference of the lower body including the bag body is analyzed. That is, the degree to which the ratio of the area occupied by the upper body and the lower body varies due to the baggage when the baggage is picked up is analyzed. As shown in Fig. 10 (a), the degree of difference in the ratio of the lower body to the upper body is determined. When the baggage is received, the area of the lower body which becomes the shape of the whole image increases by that area.

(2) 신체적 변화 특징(도 10의 (c))(2) Physical change characteristics (Fig. 10 (c))

신체적 변화 특징 분석 방법은 수하물의 무게에 따른 인체의 지면에 대한 수직 균형이탈(상체 중심선과 하체 중심선의 불일치 상태) 정도를 이용한다. 즉, 인체는 항상 중력방향에 대해 상체 및 하체의 중심선을 일치하여 넘어지지 않고 직립하고자 하므로, 수하물이 있을 경우 '수하물의 무게에 반하여 수하물의 반대방향으로 상체가 기울어질 것이다'라는 이론에 기초하여 분석을 수행한다. 또한, 수하물의 무게로 인하여 상체를 바로 세우지 못하는 경우에는 수하물의 방향으로 상체를 기울임과 동시에 하체를 그 반대방향으로 기울여 수하물과 인체 전체의 무게 중심선을 지면에 수직하게 유지하고자 한다. 즉 도 10의 (c)에 도시한 것과 같이 점선으로 표시된 상체 중심선과 하체 중심선이 직선의 범위에서 이탈한 정도를 분석하는 원리이다.The physical change characteristic analysis method uses the degree of vertical balance deviation (inconsistency of the center line of the upper body and the center line of the lower body) with respect to the ground of the human body according to the weight of the baggage. In other words, since the human body always tries to stand straight without matching with the center line of the upper body and lower body with respect to the direction of gravity, when the baggage is present, based on the theory that the upper body will tilt in the opposite direction of the baggage against the weight of the baggage Perform the analysis. In addition, when the upper body can not be raised due to the weight of the baggage, the upper body is tilted in the direction of the baggage and the lower body is tilted in the opposite direction to keep the weight center line of the baggage and the whole body perpendicular to the ground. That is, as shown in Fig. 10 (c), it is a principle to analyze the degree of deviation of the center line of the upper body and the center line of the lower body indicated by the dotted line from the range of the straight line.

이와 같이 '일정한 범위 내에서 관찰되는 위 (1)과 (2)에서의 차이의 결과가 수하물, 즉 쓰레기이다.'라고 전제한다면 위와 같은 이론은 쓰레기 투기 여부를 분석하는 유력한 기능으로 성립된다.
In this way, assuming that 'the result of the difference between (1) and (2) observed within a certain range is baggage, that is, garbage', the above theory is a powerful function of analyzing whether or not to throw garbage.

도 8로 되돌아가서, 촬영영상저장 수단(282)은 인체형상 혹은 동태 분석에 의한 쓰레기 무단 투기자 영상을 비휘발성 저장장치에 기록한다. 구체적인 원리는 도 3에서 설명한 바와 대동소이하지만, 여기서는 영구저장이 아닌 일시저장 수단이 될 수도 있다.Returning to Fig. 8, the photographed image storage means 282 records the trash stepladder image by human shape or dynamic analysis in the nonvolatile storage device. The specific principle is similar to that described with reference to FIG. 3, but may be temporary storage means, not permanent storage.

촬영영상재생 수단(290)은 쓰레기 무단 투기자에 대한 경고 내지 계도를 위하여 무단 투기자에 대한 경각심 제고할 수 있는 촬영 영상을 영상표시부(140)로 출력한다. The photographed image reproducing means 290 outputs to the image display unit 140 a photographed image capable of raising awareness of the unauthorized plotter for warning or guiding the trashter.

홍보영상재생 수단(291)은 촬영범위 내에서 쓰레기 무단 투기자가 아닌 인체형상이 지속적으로 감지되거나, 특정 이벤트 없이 일정시간 경과하였을 경우 쓰레기 무단투기에 대한 계도용 홍보영상을 출력하는 수단이다. 이 때, 계도용 홍보영상은 사진, 그림, 삽화, 안내문 및 동영상 자료 등을 포함한다. 즉, 홍보영상재생 수단(291)은 영상표시부(140)를 통해 인체의 동태가 쓰레기 투기가 아닌 경우, 기 저장된 계도용 홍보 영상들 중 하나를 선택하여 방송하거나 통신부를 통해 수신된 계도용 홍보 영상을 방송할 수 있다.
The publicity video image reproducing means 291 is means for outputting a publicity image for the unauthorized throwing of garbage when a human body shape is continuously detected within a photographing range, or when a predetermined time has elapsed without a specific event. At this time, the promotional images for the theft include photographs, pictures, illustrations, announcements, and moving pictures. That is, when the dynamic state of the human body is not the garbage dumping through the image display unit 140, the publicity image reproducing means 291 selects one of the pre-stored publicity pictures for the use of the system, . &Lt; / RTI &gt;

도 11은 본 발명에 따른 보안 감시장치의 제3 실시예를 도시한 블록 다이어그램이다. 11 is a block diagram illustrating a third embodiment of the security monitoring apparatus according to the present invention.

영상촬영부(120)는 설정된 범위의 영상을 촬영한다. The image capturing unit 120 captures an image in a set range.

영상저장부(220)는 영상촬영부(120)에 연동되어, 촬영된 영상을 저장한다.The image storage unit 220 interlocks with the image capturing unit 120 and stores the captured image.

음향출력부(130)는 영상촬영부(120)의 촬영 대상에게 음향을 방송한다. The sound output unit 130 broadcasts sound to the object to be imaged by the image shooting unit 120.

제어부(200) 내의 영상표시부(140)는 인체의 동태가 쓰레기 투기인 경우 촬영된 영상에 포함된 인체에게 쓰레기 투기로 판독된 영상을 디스플레이할 수 있다. The image display unit 140 in the control unit 200 can display an image read by a user who is included in the photographed image as garbage when the dynamics of the human body is dumping.

감지부(129)는 피사체의 접근 여부를 감지한다. 즉, 영상촬영부(120)가 촬영하는 설정 범위 내에 피사체 즉 인체가 접근하였는지 여부를 감지한다. The sensing unit 129 senses whether or not the subject is approaching. That is, the image capturing unit 120 detects whether the subject, i.e., the human body, has approached within the set range to be photographed.

제어부(200)는, 감지부(129)가 인체를 감지하면 영상저장부(220)를 구동함과 아울러 음향출력부(130) 및 영상표시부(140)를 구동하여 쓰레기 투기자에게 설정된 타이머기간 동안 쓰레기 투기자에게 경고 음향을 방송하고 투기모습을 방영토록 제어한다. 그리고, 제어부(200)는 음향출력부(130), 영상표시부(140), 감지부(129) 및 영상저장부(220)를 연동하여서 구성되는 수단을 포함한다. The control unit 200 drives the image storage unit 220 when the sensing unit 129 senses a human body and drives the sound output unit 130 and the image display unit 140 so that the garbage collector Controls the speculator to broadcast a warning sound and to show speculation. The control unit 200 includes means for interlocking the sound output unit 130, the image display unit 140, the sensing unit 129, and the image storage unit 220.

여기서, 감지부(129)는 적외선감지센서를 포함하거나, 촬영된 영상에서 인체의 형상을 분석하는 영상판독부(240)에 의해 구성될 수도 있다.Here, the sensing unit 129 may include an infrared sensor or may be configured by an image reading unit 240 for analyzing the shape of a human body in a photographed image.

제3 실시예에 있어서도 도 3에서 보았듯이, 영상촬영부(220)에는 야간 조명을 위한 조도센서(111)와 적외선발광기(112)의 연동 구성을 포함하는 조명부(110)를 더 포함할 수 있다.3, the image capturing unit 220 may further include an illuminating unit 110 including an illuminance sensor 111 for night illumination and an infrared illuminator 112 interlocked with each other, as shown in FIG. 3 .

또한, 제3 실시예에 있어서도, 제어부(200)에는 영상표시부(140)를 이용하여 홍보용 영상 및 홍보용 영상을 네트워크를 통해 원격으로 변경할 수 있는 연동 구성을 더 포함할 수 있다.Also, in the third embodiment, the control unit 200 may further include an interlocking configuration capable of remotely changing a promotional image and a promotional image through a network using the image display unit 140. [

상기 구성 중에서, 영상촬영부(120), 영상저장부(220), 음향출력부(130), 영상판독부(240), 영상표시부(140)를 이용하여 홍보용 영상 및 상기 홍보용 영상을 네트워크를 통해 원격으로 변경할 수 있는 연동 구성은 도 3 내지 도 8을 통해 설명한 바 있으므로, 도 11에서는 이를 원용하기로 하여 더 이상 중복된 설명은 생략한다.The image for promotional use and the image for promotion can be transmitted through the network using the image capturing unit 120, the image storing unit 220, the sound output unit 130, the image reading unit 240, and the image display unit 140. [ Since the interlocking configuration that can be changed remotely has been described with reference to FIG. 3 to FIG. 8, the description is abbreviated in FIG. 11, and a duplicated explanation will be omitted.

본 발명의 제3실시예에 따른 제어부(200) 및 이에 연동되는 '영상촬영부의 촬영 대상에게 영상을 재현하는 수단을 포함하는 영상표시부(140)'는 경각심 고취용 경고방영, 즉 쓰레기 투기자의 모습을 방영하여 쓰레기 투기를 계도적으로 근절하고자 하는 기술적 구성이다.The control unit 200 according to the third embodiment of the present invention and the video display unit 140 including the means for reproducing the video image of the video image capturing unit interlocked with the control unit 200 may display a warning broadcast for awakening awareness, And to eradicate garbage dumping systematically.

즉, '제어부(200)는 쓰레기 투기로 판독되면 쓰레기 투기자의 모습과 행동이 현장에서 영상으로 디스플레이 되는 영상표시부(140)'를 구동하도록 제어하는 구성을 포함하게 되는데, 이것은 제2 실시예에서처럼 음향으로 경고하는 방송뿐만 아니라 쓰레기 투기자에게 자신이 쓰레기를 투척하는 모습을 그대로 되돌려 나타냄으로써 경각심을 고취하는 작용을 얻기 위한 진보된 기술구성이다. 이를 위하여, 제어부(200)에서 자동적으로 행하거나 영상표시를 이용한 경고방영 내지 홍보방영을 원격으로 작동할 수도 있다.That is, when the control unit 200 reads out the garbage dump, the controller 200 controls the image display unit 140 to display the image and the action of the garbage dumpster in the field, As well as broadcasting the warning to the garbage dumpster by throwing the garbage of his own by showing the way to enhance the awareness is an advanced technology composition. For this purpose, the control unit 200 may operate automatically or remotely operate an alarm broadcasting or a publicity broadcasting using an image display.

바람직하게는, 일정한 타이머 기간 동안 인체의 동태, 즉 움직이는 모습을 (일시) 저장하였다가 영상판독부(240)에서 이를 쓰레기 투기라고 판독하면 (일시) 저장된 영상을 음향 경고 방송과 함께 되돌려서 방영할 수 있다. 요컨대, 이 기능은 투기자가 자신의 모습을 보고 스스로 반성하도록 하기 위한 경고 모니터링 역할을 수행한다.Preferably, the motion of the human body is temporarily stored during a predetermined period of time, and when the image reading unit 240 reads it as garbage, the stored image is returned together with the sound warning broadcast . In short, this function acts as a warning monitor to allow speculators to reflect on themselves and reflect on their own.

또한 '영상촬영부(220)가 촬영하는 설정 범위 내에 피사체가 접근하였는지 여부를 감지하는 감지부(129)'라는 의미는 종래기술에서 언급하였듯이 카메라를 작동시키기 위하여 피사체의 접근 여부를 센서로 감지하기 위한 것이다. 물론 제3 실시예에서는 카메라 영상으로 획득된 정보로부터 인체의 접근 여부를 감지하는 수단을 포함할 수 있다. The sensing unit 129 for sensing whether the subject is approaching within the set range captured by the image capturing unit 220 may be configured to detect whether the subject is approaching the sensor to operate the camera, . Of course, in the third embodiment, it is possible to include means for detecting whether or not the human body is approaching from the information obtained by the camera image.

따라서, 본 발명의 제3 실시예의 인체를 감지하는 구성에서는 특히 '(설정된 시간에) 감지부(129)가 인체를 감지하면 상기 영상저장부(220)를 구동함과 아울러 음향출력부(130)와 영상표시부(140)를 구동하여 쓰레기 투기자에게 설정된 타이머기간 동안 계도용 정보를 방송하는 제어부(200)'가 주요한 특징적 구성일 수 있다. Therefore, in the structure for sensing the human body according to the third embodiment of the present invention, when the sensing unit 129 senses a human body (at a set time), the image storage unit 220 is driven, And a controller 200 for driving the image display unit 140 to broadcast the information for the timer for the timer period set for the garbage maker.

이와 같은 특징적 구성의 의미는 쓰레기 투기자에게 경각심을 고취하기 위한 것으로, 필요에 따라서는 설정된 시간에만 이를 작동시키거나 작동된 후 설정된 타이머기간 동안만 작동을 유지하다가 중지시킴으로써 적외선감지센서가 가지는 오작동의 한계를 기술적 회로 수단으로 보완할 수 있다.This characteristic configuration is intended to raise awareness of the garbage maker. If necessary, it is operated only for a predetermined time or is operated only after the set timer period, Can be supplemented by technical circuit means.

나머지 미설명 부분은 도 3 내지 도 8의 설명을 원용하여 생략하기로 한다.
3 to 8 will be omitted for the sake of explanation.

도 12 및 도 13은 본 발명에 따른 보안 감시장치의 제4 실시예를 도시한 블록 다이어그램이다. 12 and 13 are block diagrams illustrating a fourth embodiment of the security monitoring apparatus according to the present invention.

즉, 본 발명의 제4 실시예는, 감시용 보안설비를 위하여 도 12의 영상촬영부(120) 내지 출력부(270)로 되는 일련의 하드웨어 및 소프트웨어적 연동구성에서 작동되는 인체의 형상감지 및 동태분석 프로그램 구성으로서, 프로그램, 즉 보안 감시방법은 다음과 같은 포괄적인 각 단계를 통해 작동된다. 다만 도 12은 도 11에서 하드웨어 내지 소프트웨어를 발췌 정리한 것에 해당되는데, 이것은 이하 프로그램에서 반드시 모두 포함됨을 전제하는 것은 아니다.That is, the fourth embodiment of the present invention is configured to detect the shape of a human body operated in a series of hardware and software interlocking configurations to be the image capturing unit 120 to the output unit 270 of FIG. As a dynamic analysis program configuration, the program, ie, the security monitoring method, operates through the following comprehensive steps. However, FIG. 12 corresponds to the excerpt of hardware or software in FIG. 11, which is not necessarily all included in the following program.

이 때, 제4 실시예에 따른 보안 감시방법은, (1) 영상촬영부(120)로부터 영상을 촬영하고, 촬영된 영상 내에 분포된 인체의 수량을 판단하는 인체 수량 판단 단계(도 13의 301~306); (2) 인체 수량 판단 단계에서 판단된 인체의 수량에 상응하여 적어도 하나의 영역 이미지를 설정하여 영역 이미지 설정 단계(도 13의 307~308); (3) 적어도 하나의 영역 이미지의 동태를 분석하여 감시 대상인지의 여부를 판단하는 동태 분석 단계(도 13의 309); (4) 감시 대상인 경우, 이벤트를 실행하는 이벤트 실행 단계(도 13의 310~312);를 포함한다. In this case, the security surveillance method according to the fourth embodiment includes (1) capturing an image from the image capturing unit 120, and determining a number of human bodies distributed in the captured image (step 301 ~ 306); (2) a region image setting step (307 to 308 in FIG. 13) by setting at least one region image according to the number of the human body determined in the human body quantity determination step; (3) a dynamic analysis step (309 in FIG. 13) for analyzing the dynamic state of at least one region image to determine whether or not it is a monitoring target; (4) an event execution step (310 to 312 in FIG. 13) for executing an event when it is a monitoring target.

여기서, 인체 수량 판단 단계는 인체의 머리와 어깨선이 이루는 형상을 탬플릿으로 분석하여 인체의 수량을 판단하는 구성으로서, 앞서 설명한 영상판독부(240)의 인체의 형상 판독 원리와 유사하다. Here, the human body quantity determination step is similar to the human body shape reading principle of the image reading unit 240 described above, by analyzing the shape formed by the head and the shoulder line of the human body with the template to determine the quantity of the human body.

이 구성은 '(1) 영상촬영부로부터 영상을 취득하여 상기 영상촬영부의 영상 내에 분포된 인체의 수량을 판별하는 인체 수량 판단 단계(도 13의 301~306)' 및 '(2) 인체 수량 판단 단계에서 판단된 인체의 수량에 상응하여 적어도 하나의 영역 이미지를 설정하여 영역 이미지 설정 단계(도 13의 307~308)'에 상당하는데, 이로부터 산출된 인체의 수량에 따라 화면은 그 수량만큼 분할하여, 이에 대한 독립적인 이하의 프로세스를 진행할 수 있게 된다. (1) a human body quantity determination step (301 to 306 in FIG. 13) for obtaining an image from the image capturing unit and determining the number of human bodies distributed in the image of the image capturing unit; and (2) (307 to 308 in FIG. 13) by setting at least one region image in accordance with the number of the human body determined in the step, and the screen is divided by the quantity according to the quantity of the human body calculated from the region image setting step So that the following independent processes can be carried out.

즉 '(3) 적어도 하나의 영역 이미지의 동태를 분석하여 감시 대상인지의 여부를 판단하는 동태 분석 단계(도 13의 309)'를 수행하면서, 본 발명은 화면 내 여러 사람에 대한 평균적인 형상을 판단하는 것이 아니라 각각의 사람마다 독립적으로 분할함으로써 각각의 인체 형상에 대하여 쓰레기 소지 혹은 투기 여부의 동태를 판단한다. 이는 제2 실시예 내지 제3 실시예와 동일하므로, 중복된 설명은 생략한다.In other words, (3) a dynamic analysis step (309 in FIG. 13) in which the dynamic image of at least one region image is analyzed to determine whether or not the image is to be monitored, the present invention performs an average shape It does not judge, but it divides independently for each person, and judges the dynamics of possession or dumping of garbage for each human figure. Since this is the same as the second to third embodiments, redundant description will be omitted.

본 발명의 제4 실시예서는 '(4)감시 대상인 경우, 이벤트를 실행하는 이벤트 실행 단계(도 13의 310~312)'를 포함한다. 구체적으로 이벤트 실행 단계는 전기적 진동, 음향, 시각적 램프 등으로 구현되는 알람 중 어느 하나 또는 그 이상을 취사선택적으로 포함할 수 있다.The fourth embodiment of the present invention includes an event execution step (310 to 312 in FIG. 13) for executing an event (4) when the event is a monitoring object. Specifically, the event execution step may selectively include one or more of alarms implemented by electric vibration, sound, visual lamp, and the like.

나아가, 이벤트 실행 단계는 모니터 계통으로 녹화장치 및/또는 원격관제 통보용 LAN, 인터넷, 모바일, 인터페이스 등을 포함하여 대내외적으로 활성화하는 구성을 포함할 수 있으며, 이러한 구성의 연동들을 통해 보다 유익하고 효과적이며 정확한 보안 감시장치를 완성할 수 있게 된다. 따라서 본 발명의 이벤트 실행부는 상기 알람, 모니터, 네트워크 등이 된다.Further, the event executing step may include a configuration for activating the monitor system in the inside and outside the world including a recording apparatus and / or a remote control notification LAN, the Internet, a mobile, an interface, etc., And it is possible to complete an accurate security monitoring device. Therefore, the event execution unit of the present invention is the alarm, monitor, network, and the like.

쓰레기 무단 투기자 식별을 위한 보안 감시방법으로서의 도 13의 흐름도 내의 상세한 내용을 도 10을 참조하여 좀 더 자세히 설명하면 다음과 같다.
Details in the flowchart of FIG. 13 as a security surveillance method for identifying a garbage unauthorized transmitter will be described in more detail with reference to FIG.

과정 1: 촬영된 영상인 입력 영상을 격자형으로 분할하여 표본값을 산출하고, 이를 바탕으로 제1 격자 영상을 구성한다.Step 1: The input image, which is a photographed image, is divided into a grid shape to calculate a sample value, and a first grid image is formed based on the sampled value.

구체적으로 이 과정은, i) 입력 영상을 가로방향 및 세로방향에 따라 임의 개수로 분할하여 격자를 생성하고, ii) 각각에 격자에 대한 표본값을 생성하며, iii) 표본값을 하나의 픽셀로 간주한 제1 격자 영상을 생성하는 구성을 포함한다. 이 때, 표본값은 격자 내에 포함되는 픽셀들에 대한 적분값을 의미한다. 즉, 제1 격자 영상의 '픽셀'은 입력 영상의 '격자'와 대응되되, 입력 영상의 격자의 적분값(표본값)이 제1 격자 영상의 픽셀값이 된다.
Specifically, the process comprises the steps of: i) dividing the input image into arbitrary numbers in the horizontal and vertical directions to generate a grid, ii) generating a sample value for each grid, and iii) And generates a first grid image considered. In this case, the sample value means an integral value for the pixels included in the lattice. That is, the 'pixel' of the first lattice image corresponds to the 'lattice' of the input image, and the integral value (sampled value) of the lattice of the input image becomes the pixel value of the first lattice image.

과정 2: 인체 동태 분석을 위해, 제1 격자 영상에서 임의 영역에서 제2 격자 영상을 추출한다.Step 2: For analysis of human dynamics, the second grid image is extracted from the first grid image in an arbitrary region.

구체적으로 이 과정은 '과정 1'에서 산출된 제1 격자 영상의 임의의 위치에서 '템플릿 1' 크기의 영상인 제2 격자 영상을 추출한다.Specifically, this process extracts a second grid image which is a 'template 1' size image at an arbitrary position of the first grid image calculated in the 'process 1'.

과정 3: 인체 동태 분석을 위해, 제2 격자영상의 하체영역에서 좌우를 제3 비교영역과 제4 비교영역으로 분할한다(즉, 쓰레기(1000)을 포함하는 면적 산출).Step 3: For human dynamics analysis, the left and right sides of the lower body region of the second grid image are divided into the third comparison region and the fourth comparison region (i.e., area calculation including the garbage 1000).

구체적으로 이 과정은 '과정 2'에서 추출된 제2 격자 영상에 대하여, '템플릿 3' 의 청색영역에서 임계치 이상 값을 가지는 픽셀들로 제3 비교영역을 분할하고, '템플릿 3' 의 적색영역에서 임계치 이상 값을 가지는 픽셀들로 제4 비교영역을 분할한다.
Specifically, in this process, the third comparison region is divided into the pixels having the threshold value or more in the blue region of 'Template 3' for the second grid image extracted in the 'Process 2', and the red region The fourth comparison region is divided into pixels having a threshold value or more.

과정 4: 분할된 제3 비교영역 및 제4 비교영역의 유사성을 산출한다 (즉, 쓰레기(1000)를 포함하는 면적 차이분 판단).Step 4: The similarity between the divided third comparison region and the fourth comparison region is calculated (i.e., area difference determination including the garbage 1000).

구체적으로 이 과정은 '과정 3'에서의 제3 비교영역의 임계치 이상의 값을 가지는 유효 격자 개수(A1)와 제4 비교영역의 임계치 이상의 값을 유효 격자 개수(A2)의 비율을 이용하여 하체영역의 대칭비율을 산출하고, 기 설정된 제3 표준값(1.0)에 대한 제3 유사정도를 산출하고, 제3 유사정도와 기 설정된 제3 기준값(일례로, 0.05)과의 대소 여부를 판단한다.More specifically, this process uses the ratio of the number of effective grids (A1) having a value equal to or greater than the threshold value of the third comparison area in the 'process 3' to the value of the effective grating number (A2) The third similarity degree to the third predetermined standard value 1.0 is calculated, and the third similarity degree and the predetermined third reference value (for example, 0.05) are compared with each other.

- 대칭비율 = A1 / A2- Symmetry ratio = A1 / A2

- 제3 유사정도(S3) = | 1.0 - 대칭비율 |- Third similarity (S3) = | 1.0 - Symmetry ratio |

- 제3 판단 결과(R3) = (S3 < 0.05 )
- the third judgment result (R3) = (S3 < 0.05)

과정 5: 제2 격자영상에서 상체영역에 상당하는 제5 비교영역을 분할하고, 하체영역에 상당하는 제6 비교영역을 분할한다(도 10의 (b)).Step 5: The fifth comparative region corresponding to the upper body region is divided in the second lattice image, and the sixth comparative region corresponding to the lower body region is divided (Fig. 10 (b)).

구체적으로 이 과정은 '과정 2'에서 추출된 제2 격자 영상에 대하여, '템플릿 4' 의 청색영역에서 임계치 이상 값을 가지는 픽셀들로 제5 비교영역을 분할하고, '템플릿 4' 의 적색영역에서 임계치 이상 값을 가지는 픽셀들로 제6 비교영역을 분할한다.
Specifically, in this process, a fifth comparison region is divided into pixels having a threshold value or more in the blue region of 'template 4' for the second grid image extracted in the 'process 2', and the red region The sixth comparison region is divided into pixels having a threshold value or more.

과정 6: 분할된 제5 비교영역에 대한 제6 비교영역의 비율을 산출하여 상하체(上下體) 표준비율을 산출한다. Step 6: Calculate the ratio of the sixth comparison area to the divided fifth comparison area, The standard ratio is calculated.

구체적으로 이 과정은 '과정 5'에서의 제5 비교영역의 임계치 이상의 값을 가지는 유효 격자 개수(A3)과 제6 비교영역의 임계치 이상의 값을 가지는 유효 격자 개수(A4)의 비율을 이용하여 상하체 표준비율을 산출하고, 기 설정된 제4 기준값(일례로, 0.524)과의 대소 여부를 판단한다.Specifically, this process uses the ratio of the number of effective grids A3 having a value equal to or greater than the threshold value of the fifth comparison area in step 5 and the number of effective grids A4 having a value equal to or greater than the threshold value of the sixth comparison area, The standard ratio is calculated, and it is judged whether the standard ratio is larger or smaller than a predetermined fourth reference value (for example, 0.524).

- 상하체 표준비율 = | A3 / A4 |- Upper standard ratio = | A3 / A4 |

- 제4 판단 결과(R4) = ( 상하체 표준비율 > 0.524 )
- fourth determination result (R4) = (upper body standard ratio> 0.524)

과정 7: 제2 격자영상에서 상체영역의 기울기와 하체영역의 기울기를 산출한다(도 10의 (c)).Step 7: The slope of the upper body region and the slope of the lower body region are calculated in the second grid image (FIG. 10 (c)).

구체적으로 이 과정은 '템플릿 5'에 있어서, 적색영역 혹은 청색영역에서 각행에 대한 횡방향 표본값들에 대한 bezier cuver의 최대점의 위치를 산출하고, 이들 각행의 최대점 위치들에 대해 이웃한 행의 최대점 위치와의 차이값들의 산술평균값을 상체 및 하체의 기울기(tangent) 값으로 산출하여, 상체 및 하체의 기울기를 산출한다.
Specifically, this process calculates the position of the maximum point of the bezier cuver with respect to the lateral specimen values for each line in the red region or the blue region in the 'template 5' The arithmetic average value of the difference values from the maximum point position of the row is calculated as the tangent value of the upper body and lower body, and the inclination of the upper body and the lower body is calculated.

과정 8: '과정 7'에서 산출한 상체영역의 기울기(1003)에 대한 하체영역의 기울기(1004)의 변화율을 산출하여 인체 기울기 표준비율과 비교한다.Step 8: The rate of change of the slope 1004 of the lower body region with respect to the slope 1003 of the upper body region calculated in the process 7 is calculated and compared with the standard slope standard ratio.

구체적으로 이 과정은 '과정 7'에서 산출된 상체 기울기값과 하체의 기울기값의 비율을 이용하여 그 변화율을 산출하고, 기 설정된 제4 표준값(1.0)에 대한 제4 유사정도를 산출하고, 제4 유사정도와 기 설정된 제5 기준값(일례로, 0.05)과의 대소 여부를 판단한다.Specifically, this process calculates the rate of change using the ratio of the slope value of the lower body to the slope value of the lower body calculated in the process 7, calculates the fourth similarity to the predetermined fourth standard value (1.0) 4 similarity and a preset fifth reference value (for example, 0.05).

- 변화율(T) = | 하체 기울기값 / 상체 기울기값 | - Rate of change (T) = | Lower body slope value / upper body slope value |

- 제4 유사정도(S4) = | 1.0 - T |- fourth similarity (S4) = | 1.0 - T |

- 제5 판단 결과(R5) = | 1.0 - T | < 0.05
- fifth determination result (R5) = | 1.0 - T | &Lt; 0.05

과정 9: '과정 4', '과정 6' 및 '과정 8'의 각각의 결과에 대한 논리조합(OR, AND, XOR 등) 및 각각의 결과에 대한 가중치의 합을 이용하여 인체의 동태를 판단한다.Step 9: Determine the dynamics of the human body using the logical combination (OR, AND, XOR, etc.) of each result of 'Process 4', 'Process 6' and 'Process 8' do.

구체적으로 이 과정은, 제2-4 단계의 판단 결과, 상기 제2-6 단계의 판단 결과 및 상기 제2-7 단계의 판단 결과 중 적어도 하나를 이용하여 인체의 동태를 판단한다. Specifically, the process determines the dynamics of the human body using at least one of the determination result of the step 2-4, the determination result of the step 2-6, and the determination result of the step 2-7.

이와 같은 각 과정 1부터 과정 9까지는 그 외에도 다양한 방법으로 구현될 수 있으며, 특히 순서를 바꾸어 구현될 수도 있다.
Each of the processes 1 to 9 may be implemented in various ways, and in particular, may be implemented by changing the order.

본 발명은 상기 실시예로서 설명한 구성에 한정되지 않는 것은 당연하고, 특히 상기 설명된 본 발명의 실시예 중 특히 제4 실시예는 고공(高空) 작업에서의 크레인 운전이나 자동차의 전방센서 기능에 적용될 수 있다. It is needless to say that the present invention is not limited to the configuration described as the above embodiment. Particularly, among the embodiments of the present invention described above in particular, the fourth embodiment is applicable to a crane operation in a high- .

또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the above-described technical features may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and limited embodiments and drawings. However, it should be understood that the present invention is not limited to the above- Various modifications and variations may be made thereto by those skilled in the art to which the present invention pertains. Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

100 전원공급부 101 전력발생장치
102 전력저장장치 110 조명부
111 조명제어기 112 적외선발광기
120 영상촬영부 129 적외선인체감지(PIR)센서
130 음향출력부 131 음향증폭기(AMP)
132 음향출력기(스피커) 140 영상표시부
200 제어부 220 영상저장부
230 통신부 900 함체
901 명칭표시부 902 관리표시부
240 영상판독부 241 입력영상정규화
242 촬영영상보정 243 촬영범위설정
250 템플릿비교기 251 인체형상인식
260 동태분석 280 DATA송수신
281 경고방송출력 282 촬영영상저장
290 촬영영상재생 291 홍보영상재생
100 Power supply 101 Power generator
102 power storage device 110 lighting part
111 Lighting controller 112 Infrared emitter
120 Image Recording Section 129 Infrared Human Body Detection (PIR) Sensor
130 Audio output unit 131 Audio amplifier (AMP)
132 Sound output unit (speaker) 140 Image display unit
200 controller 220 image storage unit
230 communication unit 900 enclosure
901 Name display section 902 Management display section
240 image reading unit 241 input image normalization
242 Shooting Image Compensation 243 Setting the Shooting Range
250 Template Comparator 251 Human shape recognition
260 Dynamic Analysis 280 Data Transmission and Reception
281 Warning Output 282 Saving the Recorded Image
290 Playing back the video 291 Playing the video

Claims (21)

설정된 범위의 영상을 촬영하는 영상촬영부;
상기 촬영된 영상을 저장하는 영상저장부; 및
상기 촬영된 영상에 인체가 포함되었는지 여부를 판독하는 제1 판독 동작 및 상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태가 쓰레기 투기인지 여부를 판독하는 제2 판독 동작을 수행하는 영상판독부를 포함하며, 상기 영상촬영부 및 상기 영상저장부를 제어하는 제어부;를 포함하되,
상기 촬영된 영상에 인체가 포함되는 것으로 판독된 경우, 상기 영상저장부는 상기 제어부의 제어 하에 상기 촬영된 영상을 저장하고,
상기 제1 판독 동작은, 상기 촬영된 영상을 격자형으로 분할하고, 상기 분할된 격자형 각각을 적분하여 표본값을 생성하고, 상기 표본값을 픽셀로 하는 제1 격자 영상을 생성하는 제1-1 동작; 상기 제1 격자 영상의 임의의 위치에서 제2 격자 영상을 추출하는 제1-2 동작; 상기 제2 격자 영상에서 횡방향 유효 최대영상폭과 종방향 유효 최대영상높이를 산출하는 제1-3 동작; 상기 횡방향 유효 최대영상폭과 상기 종방향 유효 최대영상높이를 이용하여 종횡비율을 산출하고, 상기 종횡비율과 기 설정된 제1 표준값을 비교하여 제1 유사정도를 산출하고, 상기 제1 유사정도와 기 설정된 제1 기준값과의 대소 여부를 판단하는 제1-4 동작; 상기 제2 격자 영상에서 상기 인체의 두부 영역에 해당하는 영역을 제1 비교영역과 제2 비교영역으로 분할하는 제1-5 동작; 상기 제1 비교영역과 상기 제2 비교영역을 이용하여 상체 두부 비율을 산출하고, 상기 상체 두부 비율과 기 설정된 제2 표준값을 비교하여 제2 유사정도를 산출하고, 상기 제2 유사정도와 기 설정된 제2 기준값과의 대소 여부를 판단하는 제1-6 동작; 및 상기 제1-4 동작의 판단이 참이고 상기 제1-6 동작의 판단이 참인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 가중치를 이용한 상기 제1 유사정도와 상기 제2 유사정도의 합이 기 설정된 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 상기 제1-4 동작의 판단이 참이고 상기 제1-6 동작의 판단이 참이며, 상기 합이 상기 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하는 제1-7 동작;를 포함하고,
상기 제2 판독 동작은, 상기 제2 격자 영상 내의 상기 인체의 하체영역에서 좌우를 제3 비교영역과 제4 비교영역으로 분할하는 제2-1 동작; 상기 제3 비교영역의 유효 격자 개수와 상기 제4 비교영역의 유효 격자 개수의 비율을 이용하여 상기 인체의 좌측 및 우측의 면적 대칭 여부와 대응되는 상기 하체영역의 대칭비율을 산출하고, 상기 하체영역의 대칭비율과 기 설정된 제3 표준값를 비교하여 제3 유사정도를 산출하고, 상기 제3 유사정도와 기 설정된 제3 기준값과의 대소 여부를 판단하는 제2-2 동작; 상기 제2 격자 영상에서 상기 인체의 상체영역에 상당하는 제5 비교영역 및 상기 하체영역에 상당하는 제6 비교영역을 분할하는 제2-3 동작; 상기 제5 비교영역의 유효 격자 개수과 상기 제6 비교영역의 유효 격자 개수의 비율을 이용하여 상기 상체영역과 상기 하체영역의 면적 정보와 대응되는 상하체 표준 비율을 산출하고, 상기 상하체 표준 비율과 기 설정된 제4 기준값과의 대소 여부를 판단하는 제2-4 동작; 상기 제2 격자 영상에서 상기 상체영역의 기울기값과 상기 하체영역의 기울기값을 산출하는 제2-5 동작; 상기 상체영역의 기울기값과 상기 하체영역의 기울기값의 비율을 산출하고, 상기 산출된 비율과 기 설정된 제4 표준값를 비교하여 제4 유사정도를 산출하고, 상기 제4 유사정도와 기 설정된 제5 기준값과의 대소 여부를 판단하는 제2-6 동작; 및 상기 제2-2 동작의 판단 결과, 상기 제2-4 동작의 판단 결과 및 상기 제2-5 동작의 판단 결과 중 적어도 하나를 이용하여 인체의 동태를 판단하는 제2-7 동작;을 포함하는 것을 특징으로 하는 보안 감시장치.
An image capturing unit for capturing an image of a set range;
An image storage unit for storing the photographed image; And
A first reading operation for reading whether the human body is included in the photographed image and a second reading operation for reading whether the human body is dumping or not, And a control unit for controlling the image capturing unit and the image storing unit,
Wherein the image storage unit stores the photographed image under the control of the control unit when the photographed image is read as including a human body,
The first reading operation may include dividing the photographed image into a lattice type, generating a sample value by integrating each of the divided lattice types, and generating a first lattice image using the sampled values as pixels, 1 operation; A first 1-2 operation of extracting a second grid image at an arbitrary position of the first grid image; Calculating a transversely effective maximum image width and a longitudinal effective maximum image height in the second grid image; Calculating an aspect ratio using the transversal effective maximum image width and the longitudinal effective maximum image height, calculating a first similarity degree by comparing the aspect ratio and a predetermined first standard value, A fourth operation for determining whether the first reference value is larger or smaller than the first reference value; Dividing an area corresponding to a head region of the human body into a first comparison area and a second comparison area in the second grid image; Calculating a second similarity degree by comparing the upper body portion ratio with a predetermined second standard value using the first comparison region and the second comparison region, A 1-6 operation for determining whether the second reference value is larger or smaller; And when the determination of the operation 1-4 is true and the determination of the operation 1-6 is true, it is determined that the shape of the human body has been detected, or the sum of the first similarity degree and the second similarity degree using the weight And if it is determined that the shape of the human body has been detected, or if the determination of the first to fourth operations is true and the determination of the first-sixth operation is true, and if the sum is equal to or greater than the third reference value, And a 1-7 operation for reading that the shape of the human body has been detected,
The second read operation may include: a 2-1 operation for dividing left and right portions of the lower body region of the human body in the second grid image into a third comparison region and a fourth comparison region; Calculating a symmetric ratio of the lower body region corresponding to an area symmetry of left and right sides of the human body using a ratio of the number of effective grids of the third comparison region and the number of effective gratings of the fourth comparison region, 2-2 operation for calculating a third similarity degree by comparing the symmetry ratio of the first similarity degree with a predetermined third standard value, and determining whether the third similarity degree is larger or smaller than a predetermined third reference value; A second comparative region corresponding to the upper body region of the human body in the second grid image and a sixth comparative region corresponding to the lower body region; Calculating a ratio of the number of effective grids in the fifth comparison area to the number of effective grids in the sixth comparison area to calculate the upper and lower body standard ratios corresponding to the area information of the upper body area and the lower body area, A second 2-4 operation for determining whether the fourth reference value is larger or smaller; A 2-5 operation for calculating a slope value of the body region and a slope value of the body region in the second grid image; Calculating a ratio of a slope value of the body region and a slope value of the body region, calculating a fourth similarity degree by comparing the calculated ratio with a predetermined fourth standard value, A 2-6 operation for judging whether or not it is larger or smaller; And a 2-7 operation for determining the dynamics of the human body by using at least one of the determination result of the 2-4 operation and the determination result of the 2-5 operation as a result of the determination of the operation of the 2-2 operation The security monitoring apparatus comprising:
제1항에 있어서,
네트워크와 연결되는 통신부;를 더 포함하되,
상기 제어부는, 상기 통신부를 통해 수신된 명령을 이용하여 상기 영상촬영부, 상기 영상저장부 및 상기 영상판독부 중 적어도 하나의 동작을 원격 제어하고, 상기 통신부를 통해 상기 촬영된 영상을 전송하는 것을 특징으로 하는 보안 감시장치.
The method according to claim 1,
And a communication unit connected to the network,
The control unit may remotely control at least one of the image photographing unit, the image storing unit, and the image reading unit using a command received through the communication unit, and transmitting the photographed image through the communication unit Features a security monitoring device.
제1항에 있어서,
성기 설정된 범위는 쓰레기 투기예상 장소를 포함하는 것을 특징으로 하는 보안 감시장치
The method according to claim 1,
Characterized in that the set range of the genitals includes a waste speculation place
삭제delete 설정된 범위의 영상을 촬영하는 영상촬영부;
상기 촬영된 영상에 인체가 포함되었는지 여부를 판독하는 제1 판독 동작 및 상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태가 쓰레기 투기인지 여부를 판독하는 제2 판독 동작을 수행하는 영상판독부를 포함하며, 상기 영상촬영부를 제어하는 제어부; 및
상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 경고 음향을 방송하는 음향출력부;를 포함하되,
상기 제1 판독 동작은, 상기 촬영된 영상을 격자형으로 분할하고, 상기 분할된 격자형 각각을 적분하여 표본값을 생성하고, 상기 표본값을 픽셀로 하는 제1 격자 영상을 생성하는 제1-1 동작; 상기 제1 격자 영상의 임의의 위치에서 제2 격자 영상을 추출하는 제1-2 동작; 상기 제2 격자 영상에서 횡방향 유효 최대영상폭과 종방향 유효 최대영상높이를 산출하는 제1-3 동작; 상기 횡방향 유효 최대영상폭과 상기 종방향 유효 최대영상높이를 이용하여 종횡비율을 산출하고, 상기 종횡비율과 기 설정된 제1 표준값을 비교하여 제1 유사정도를 산출하고, 상기 제1 유사정도와 기 설정된 제1 기준값과의 대소 여부를 판단하는 제1-4 동작; 상기 제2 격자 영상에서 상기 인체의 두부 영역에 해당하는 영역을 제1 비교영역과 제2 비교영역으로 분할하는 제1-5 동작; 상기 제1 비교영역과 상기 제2 비교영역을 이용하여 상체 두부 비율을 산출하고, 상기 상체 두부 비율과 기 설정된 제2 표준값을 비교하여 제2 유사정도를 산출하고, 상기 제2 유사정도와 기 설정된 제2 기준값과의 대소 여부를 판단하는 제1-6 동작; 및 상기 제1-4 동작의 판단이 참이고 상기 제1-6 동작의 판단이 참인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 가중치를 이용한 상기 제1 유사정도와 상기 제2 유사정도의 합이 기 설정된 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 상기 제1-4 동작의 판단이 참이고 상기 제1-6 동작의 판단이 참이며, 상기 합이 상기 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하는 제1-7 동작;를 포함하고,
상기 제2 판독 동작은, 상기 제2 격자 영상 내의 상기 인체의 하체영역에서 좌우를 제3 비교영역과 제4 비교영역으로 분할하는 제2-1 동작; 상기 제3 비교영역의 유효 격자 개수와 상기 제4 비교영역의 유효 격자 개수의 비율을 이용하여 상기 인체의 좌측 및 우측의 면적 대칭 여부와 대응되는 상기 하체영역의 대칭비율을 산출하고, 상기 하체영역의 대칭비율과 기 설정된 제3 표준값를 비교하여 제3 유사정도를 산출하고, 상기 제3 유사정도와 기 설정된 제3 기준값과의 대소 여부를 판단하는 제2-2 동작; 상기 제2 격자 영상에서 상기 인체의 상체영역에 상당하는 제5 비교영역 및 상기 하체영역에 상당하는 제6 비교영역을 분할하는 제2-3 동작; 상기 제5 비교영역의 유효 격자 개수과 상기 제6 비교영역의 유효 격자 개수의 비율을 이용하여 상기 상체영역과 상기 하체영역의 면적 정보와 대응되는 상하체 표준 비율을 산출하고, 상기 상하체 표준 비율과 기 설정된 제4 기준값과의 대소 여부를 판단하는 제2-4 동작; 상기 제2 격자 영상에서 상기 상체영역의 기울기값과 상기 하체영역의 기울기값을 산출하는 제2-5 동작; 상기 상체영역의 기울기값과 상기 하체영역의 기울기값의 비율을 산출하고, 상기 산출된 비율과 기 설정된 제4 표준값를 비교하여 제4 유사정도를 산출하고, 상기 제4 유사정도와 기 설정된 제5 기준값과의 대소 여부를 판단하는 제2-6 동작; 및 상기 제2-2 동작의 판단 결과, 상기 제2-4 동작의 판단 결과 및 상기 제2-5 동작의 판단 결과 중 적어도 하나를 이용하여 인체의 동태를 판단하는 제2-7 동작;을 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
An image capturing unit for capturing an image of a set range;
A first reading operation for reading whether the human body is included in the photographed image and a second reading operation for reading whether the human body is dumping or not, A control unit for controlling the image capturing unit; And
And an acoustic output unit that is controlled by the control unit and broadcasts a warning sound when the dynamics of the human body is dumping,
The first reading operation may include dividing the photographed image into a lattice type, generating a sample value by integrating each of the divided lattice types, and generating a first lattice image using the sampled values as pixels, 1 operation; A first 1-2 operation of extracting a second grid image at an arbitrary position of the first grid image; Calculating a transversely effective maximum image width and a longitudinal effective maximum image height in the second grid image; Calculating an aspect ratio using the transversal effective maximum image width and the longitudinal effective maximum image height, calculating a first similarity degree by comparing the aspect ratio and a predetermined first standard value, A fourth operation for determining whether the first reference value is larger or smaller than the first reference value; Dividing an area corresponding to a head region of the human body into a first comparison area and a second comparison area in the second grid image; Calculating a second similarity degree by comparing the upper body portion ratio with a predetermined second standard value using the first comparison region and the second comparison region, A 1-6 operation for determining whether the second reference value is larger or smaller; And when the determination of the operation 1-4 is true and the determination of the operation 1-6 is true, it is determined that the shape of the human body has been detected, or the sum of the first similarity degree and the second similarity degree using the weight And if it is determined that the shape of the human body has been detected, or if the determination of the first to fourth operations is true and the determination of the first-sixth operation is true, and if the sum is equal to or greater than the third reference value, And a 1-7 operation for reading that the shape of the human body has been detected,
The second read operation may include: a 2-1 operation for dividing left and right portions of the lower body region of the human body in the second grid image into a third comparison region and a fourth comparison region; Calculating a symmetric ratio of the lower body region corresponding to an area symmetry of left and right sides of the human body using a ratio of the number of effective grids of the third comparison region and the number of effective gratings of the fourth comparison region, 2-2 operation for calculating a third similarity degree by comparing the symmetry ratio of the first similarity degree with a predetermined third standard value, and determining whether the third similarity degree is larger or smaller than a predetermined third reference value; A second comparative region corresponding to the upper body region of the human body in the second grid image and a sixth comparative region corresponding to the lower body region; Calculating a ratio of the number of effective grids in the fifth comparison area to the number of effective grids in the sixth comparison area to calculate the upper and lower body standard ratios corresponding to the area information of the upper body area and the lower body area, A second 2-4 operation for determining whether the fourth reference value is larger or smaller; A 2-5 operation for calculating a slope value of the body region and a slope value of the body region in the second grid image; Calculating a ratio of a slope value of the body region and a slope value of the body region, calculating a fourth similarity degree by comparing the calculated ratio with a predetermined fourth standard value, A 2-6 operation for judging whether or not it is larger or smaller; And a 2-7 operation for determining the dynamics of the human body by using at least one of the determination result of the 2-4 operation and the determination result of the 2-5 operation as a result of the determination of the operation of the 2-2 operation Wherein the garbage collection device is a garbage collection device.
제5항에 있어서,
상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 상기 영상촬영부로부터 촬영된 영상을 저장하는 영상저장부;를 더 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
6. The method of claim 5,
And an image storage unit that is controlled by the control unit and stores an image photographed by the image photographing unit when the behavior of the human body is waste disposal.
제5항에 있어서,
상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 상기 쓰레기 투기로 판독된 영상을 상기 촬영된 영상에 포함된 인체에게 디스플레이하는 영상표시부;를 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
6. The method of claim 5,
And a video display unit for controlling the display unit to display an image read by the dumping unit to a human body included in the photographed image when the dynamics of the human body is dumping.
제7항에 있어서,
네트워크와 연결되는 통신부;를 더 포함하되,
상기 제어부는, 상기 통신부를 통해 수신된 명령을 이용하여 상기 영상촬영부, 상기 영상판독부, 상기 음향출력부 및 상기 영상표시부 중 적어도 하나의 동작을 원격 제어하고, 상기 통신부를 통해 상기 촬영된 영상을 전송하는 것을 특징으로 하는 쓰레기 투기 감시장치.
8. The method of claim 7,
And a communication unit connected to the network,
The control unit may remotely control at least one of the image photographing unit, the image reading unit, the sound output unit, and the image display unit using an instruction received through the communication unit, To the garbage collector.
제8항에 있어서,
상기 인체의 동태가 쓰레기 투기인 경우, 상기 음향출력부의 원격 제어는 기 저장된 경고 음원들 중 하나를 선택하여 방송하거나 상기 통신부를 통해 수신된 경고 음원을 방송하는 것을 특징으로 하는 쓰레기 투기 감시장치.
9. The method of claim 8,
Wherein the remote control of the sound output unit broadcasts one of the pre-stored warning sound sources or broadcasts the warning sound source received through the communication unit when the dynamics of the human body is the dumping of the garbage.
제8항에 있어서,
상기 인체의 동태가 쓰레기 투기가 아닌 경우,
상기 음향출력부의 원격 제어는 기 저장된 계도용 홍보 음원들 중 하나를 선택하여 방송하거나 상기 통신부를 통해 수신된 홍보 음원을 방송하고,
상기 영상표시부의 원격 제어는 기 저장된 계도용 홍보 영상들 중 하나를 선택하여 방송하거나 상기 통신부를 통해 수신된 계도용 홍보 영상을 방송하는 것을 특징으로 하는 쓰레기 투기 감시장치.
9. The method of claim 8,
If the behavior of the human body is not dumping,
The remote control of the sound output unit may be performed by selecting one of the pre-stored publicity sound sources for the system and broadcasting the publicity sound source received through the communication unit,
Wherein the remote control of the image display unit selectively broadcasts one of the pre-stored publicity images for publicity, or broadcasts the publicity image for publicity received through the communication unit.
제5항에 있어서,
상기 제어부에 포함되며, 상기 촬영된 영상을 보정하는 촬영영상보정 수단을 더 포함하되,
상기 촬영된 영상의 보정은 상기 촬영의 각도 보정, 상기 촬영된 영상에서의 종횡비 보정을 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
6. The method of claim 5,
Further comprising photographing image correction means included in the control unit for correcting the photographed image,
Wherein the correction of the photographed image includes an angle correction of the photographing and an aspect ratio correction of the photographed image.
제5항에 있어서,
상기 영상촬영부는 2D카메라 또는 3D카메라 중 적어도 하나를 포함하고,
상기 영상판독부는 상기 2D카메라에 의한 인체의 평면 형상을 판독하거나 상기 3D카메라에 의한 인체의 입체 형상을 판독하는 것을 특징으로 하는 쓰레기 투기 감시장치.
6. The method of claim 5,
Wherein the image capturing unit includes at least one of a 2D camera and a 3D camera,
Wherein the image reading unit reads the planar shape of the human body by the 2D camera or reads the three-dimensional shape of the human body by the 3D camera.
삭제delete 삭제delete 삭제delete 피사체의 접근 여부를 감지하는 감지부;
상기 피사체가 접근하는 경우 설정된 범위의 영상을 촬영하는 영상촬영부;
상기 촬영된 영상을 저장하는 영상저장부;
상기 촬영된 영상에 인체가 포함되었는지 여부를 판독하는 제1 판독 동작 및 상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태가 쓰레기 투기인지 여부를 판독하는 제2 판독 동작을 수행하는 영상판독부를 포함하며, 상기 영상촬영부를 제어하는 제어부;
상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 음향을 방송하는 음향출력부; 및
상기 제어부에 의해 제어되며, 상기 인체의 동태가 쓰레기 투기인 경우 상기 쓰레기 투기로 판독된 영상을 상기 촬영된 영상에 포함된 인체에게 디스플레이하는 영상표시부;를 포함하되,
상기 제1 판독 동작은, 상기 촬영된 영상을 격자형으로 분할하고, 상기 분할된 격자형 각각을 적분하여 표본값을 생성하고, 상기 표본값을 픽셀로 하는 제1 격자 영상을 생성하는 제1-1 동작; 상기 제1 격자 영상의 임의의 위치에서 제2 격자 영상을 추출하는 제1-2 동작; 상기 제2 격자 영상에서 횡방향 유효 최대영상폭과 종방향 유효 최대영상높이를 산출하는 제1-3 동작; 상기 횡방향 유효 최대영상폭과 상기 종방향 유효 최대영상높이를 이용하여 종횡비율을 산출하고, 상기 종횡비율과 기 설정된 제1 표준값을 비교하여 제1 유사정도를 산출하고, 상기 제1 유사정도와 기 설정된 제1 기준값과의 대소 여부를 판단하는 제1-4 동작; 상기 제2 격자 영상에서 상기 인체의 두부 영역에 해당하는 영역을 제1 비교영역과 제2 비교영역으로 분할하는 제1-5 동작; 상기 제1 비교영역과 상기 제2 비교영역을 이용하여 상체 두부 비율을 산출하고, 상기 상체 두부 비율과 기 설정된 제2 표준값을 비교하여 제2 유사정도를 산출하고, 상기 제2 유사정도와 기 설정된 제2 기준값과의 대소 여부를 판단하는 제1-6 동작; 및 상기 제1-4 동작의 판단이 참이고 상기 제1-6 동작의 판단이 참인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 가중치를 이용한 상기 제1 유사정도와 상기 제2 유사정도의 합이 기 설정된 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 상기 제1-4 동작의 판단이 참이고 상기 제1-6 동작의 판단이 참이며, 상기 합이 상기 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하는 제1-7 동작;를 포함하고,
상기 제2 판독 동작은, 상기 제2 격자 영상 내의 상기 인체의 하체영역에서 좌우를 제3 비교영역과 제4 비교영역으로 분할하는 제2-1 동작; 상기 제3 비교영역의 유효 격자 개수와 상기 제4 비교영역의 유효 격자 개수의 비율을 이용하여 상기 인체의 좌측 및 우측의 면적 대칭 여부와 대응되는 상기 하체영역의 대칭비율을 산출하고, 상기 하체영역의 대칭비율과 기 설정된 제3 표준값를 비교하여 제3 유사정도를 산출하고, 상기 제3 유사정도와 기 설정된 제3 기준값과의 대소 여부를 판단하는 제2-2 동작; 상기 제2 격자 영상에서 상기 인체의 상체영역에 상당하는 제5 비교영역 및 상기 하체영역에 상당하는 제6 비교영역을 분할하는 제2-3 동작; 상기 제5 비교영역의 유효 격자 개수과 상기 제6 비교영역의 유효 격자 개수의 비율을 이용하여 상기 상체영역과 상기 하체영역의 면적 정보와 대응되는 상하체 표준 비율을 산출하고, 상기 상하체 표준 비율과 기 설정된 제4 기준값과의 대소 여부를 판단하는 제2-4 동작; 상기 제2 격자 영상에서 상기 상체영역의 기울기값과 상기 하체영역의 기울기값을 산출하는 제2-5 동작; 상기 상체영역의 기울기값과 상기 하체영역의 기울기값의 비율을 산출하고, 상기 산출된 비율과 기 설정된 제4 표준값를 비교하여 제4 유사정도를 산출하고, 상기 제4 유사정도와 기 설정된 제5 기준값과의 대소 여부를 판단하는 제2-6 동작; 및 상기 제2-2 동작의 판단 결과, 상기 제2-4 동작의 판단 결과 및 상기 제2-5 동작의 판단 결과 중 적어도 하나를 이용하여 인체의 동태를 판단하는 제2-7 동작;을 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
A sensing unit for sensing whether the subject is approaching or not;
An image capturing unit for capturing an image of a set range when the subject approaches;
An image storage unit for storing the photographed image;
A first reading operation for reading whether the human body is included in the photographed image and a second reading operation for reading whether the human body is dumping or not, A control unit for controlling the image capturing unit;
An acoustic output unit, which is controlled by the control unit and broadcasts sound when the dynamics of the human body is dumping; And
And an image display unit which is controlled by the control unit and displays the image read by the garbage throwing to a human body included in the photographed image when the dynamics of the human body is dumping,
The first reading operation may include dividing the photographed image into a lattice type, generating a sample value by integrating each of the divided lattice types, and generating a first lattice image using the sampled values as pixels, 1 operation; A first 1-2 operation of extracting a second grid image at an arbitrary position of the first grid image; Calculating a transversely effective maximum image width and a longitudinal effective maximum image height in the second grid image; Calculating an aspect ratio using the transversal effective maximum image width and the longitudinal effective maximum image height, calculating a first similarity degree by comparing the aspect ratio and a predetermined first standard value, A fourth operation for determining whether the first reference value is larger or smaller than the first reference value; Dividing an area corresponding to a head region of the human body into a first comparison area and a second comparison area in the second grid image; Calculating a second similarity degree by comparing the upper body portion ratio with a predetermined second standard value using the first comparison region and the second comparison region, A 1-6 operation for determining whether the second reference value is larger or smaller; And when the determination of the operation 1-4 is true and the determination of the operation 1-6 is true, it is determined that the shape of the human body has been detected, or the sum of the first similarity degree and the second similarity degree using the weight And if it is determined that the shape of the human body has been detected, or if the determination of the first to fourth operations is true and the determination of the first-sixth operation is true, and if the sum is equal to or greater than the third reference value, And a 1-7 operation for reading that the shape of the human body has been detected,
The second read operation may include: a 2-1 operation for dividing left and right portions of the lower body region of the human body in the second grid image into a third comparison region and a fourth comparison region; Calculating a symmetric ratio of the lower body region corresponding to an area symmetry of left and right sides of the human body using a ratio of the number of effective grids of the third comparison region and the number of effective gratings of the fourth comparison region, 2-2 operation for calculating a third similarity degree by comparing the symmetry ratio of the first similarity degree with a predetermined third standard value, and determining whether the third similarity degree is larger or smaller than a predetermined third reference value; A second comparative region corresponding to the upper body region of the human body in the second grid image and a sixth comparative region corresponding to the lower body region; Calculating a ratio of the number of effective grids in the fifth comparison area to the number of effective grids in the sixth comparison area to calculate the upper and lower body standard ratios corresponding to the area information of the upper body area and the lower body area, A second 2-4 operation for determining whether the fourth reference value is larger or smaller; A 2-5 operation for calculating a slope value of the body region and a slope value of the body region in the second grid image; Calculating a ratio of a slope value of the body region and a slope value of the body region, calculating a fourth similarity degree by comparing the calculated ratio with a predetermined fourth standard value, A 2-6 operation for judging whether or not it is larger or smaller; And a 2-7 operation for determining the dynamics of the human body by using at least one of the determination result of the 2-4 operation and the determination result of the 2-5 operation as a result of the determination of the operation of the 2-2 operation Wherein the garbage collection device is a garbage collection device.
제16항에 있어서,
상기 감지부는 적외선감지센서를 포함하는 것을 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
17. The method of claim 16,
Wherein the sensing unit includes an infrared sensor.
제16항에 있어서,
야간 촬영을 위한 조명제어기 및 적외선발광기를 포함하는 조명부;를 더 포함하는 것을 특징으로 하는 쓰레기 투기 감시장치.
17. The method of claim 16,
Further comprising: an illuminating unit including an illuminating controller and an infrared light emitter for night image taking.
설정된 범위의 영상을 촬영하는 단계;
상기 촬영된 영상을 저장하는 단계; 및
상기 촬영된 영상에 인체가 포함되었는지 여부의 판독하는 제1 판단 단계; 및
상기 인체가 포함되는 것으로 판독된 경우 상기 인체의 동태를 판단하는 제2 판단 단계;를 포함하되,
상기 저장하는 단계는 상기 촬영된 영상에 인체가 포함되는 것으로 판독된 경우, 상기 촬영된 영상을 저장하고,
상기 제1 판단 단계는, 상기 촬영된 영상을 격자형으로 분할하고, 상기 분할된 격자형 각각을 적분하여 표본값을 생성하고, 상기 표본값을 픽셀로 하는 제1 격자 영상을 생성하는 제1-1 단계; 상기 제1 격자 영상의 임의의 위치에서 제2 격자 영상을 추출하는 제1-2 단계; 상기 제2 격자 영상에서 횡방향 유효 최대영상폭과 종방향 유효 최대영상높이를 산출하는 제1-3 단계; 상기 횡방향 유효 최대영상폭과 상기 종방향 유효 최대영상높이를 이용하여 종횡비율을 산출하고, 상기 종횡비율과 기 설정된 제1 표준값을 비교하여 제1 유사정도를 산출하고, 상기 제1 유사정도와 기 설정된 제1 기준값과의 대소 여부를 판단하는 제1-4 단계; 상기 제2 격자 영상에서 상기 인체의 두부 영역에 해당하는 영역을 제1 비교영역과 제2 비교영역으로 분할하는 제1-5 단계; 상기 제1 비교영역과 상기 제2 비교영역을 이용하여 상체 두부 비율을 산출하고, 상기 상체 두부 비율과 기 설정된 제2 표준값을 비교하여 제2 유사정도를 산출하고, 상기 제2 유사정도와 기 설정된 제2 기준값과의 대소 여부를 판단하는 제1-6 단계; 및 상기 제1-4 단계의 판단이 참이고 상기 제1-6 단계의 판단이 참인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 가중치를 이용한 상기 제1 유사정도와 상기 제2 유사정도의 합이 기 설정된 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하거나, 상기 제1-4 단계의 판단이 참이고 상기 제1-6 단계의 판단이 참이며, 상기 합이 상기 제3 기준값 이상인 경우 상기 인체의 형상이 검출되었다고 판독하는 제1-7 단계;를 포함하고,
상기 제2 판단 단계는, 상기 제2 격자 영상 내의 상기 인체의 하체영역에서 좌우를 제3 비교영역과 제4 비교영역으로 분할하는 제2-1 단계; 상기 제3 비교영역의 유효 격자 개수와 상기 제4 비교영역의 유효 격자 개수의 비율을 이용하여 상기 인체의 좌측 및 우측의 면적 대칭 여부와 대응되는 상기 하체영역의 대칭비율을 산출하고, 상기 하체영역의 대칭비율과 기 설정된 제3 표준값를 비교하여 제3 유사정도를 산출하고, 상기 제3 유사정도와 기 설정된 제3 기준값과의 대소 여부를 판단하는 제2-2 단계; 상기 제2 격자 영상에서 상기 인체의 상체영역에 상당하는 제5 비교영역 및 상기 하체영역에 상당하는 제6 비교영역을 분할하는 제2-3 단계; 상기 제5 비교영역의 유효 격자 개수과 상기 제6 비교영역의 유효 격자 개수의 비율을 이용하여 상기 상체영역과 상기 하체영역의 면적 정보와 대응되는 상하체 표준 비율을 산출하고, 상기 상하체 표준 비율과 기 설정된 제4 기준값과의 대소 여부를 판단하는 제2-4 단계; 상기 제2 격자 영상에서 상기 상체영역의 기울기값과 상기 하체영역의 기울기값을 산출하는 제2-5 단계; 상기 상체영역의 기울기값과 상기 하체영역의 기울기값의 비율을 산출하고, 상기 산출된 비율과 기 설정된 제4 표준값를 비교하여 제4 유사정도를 산출하고, 상기 제4 유사정도와 기 설정된 제5 기준값과의 대소 여부를 판단하는 제2-6 단계; 및 상기 제2-2 단계의 판단 결과, 상기 제2-4 단계의 판단 결과 및 상기 제2-5 단계의 판단 결과 중 적어도 하나를 이용하여 인체의 동태를 판단하는 제2-7 단계;을 포함하는 것을 특징으로 하는 보안 감시방법.
Capturing an image of a set range;
Storing the photographed image; And
A first determination step of determining whether a human body is included in the photographed image; And
And a second determination step of determining the dynamic state of the human body when the human body is read as including the human body,
Wherein the storing step stores the photographed image when the photographed image is read as including a human body,
The first determining step may include a step of dividing the photographed image into a lattice type, generating a sample value by integrating each of the divided lattice types, and generating a first lattice image using the sampled values as pixels, Stage 1; A first step of extracting a second grid image at an arbitrary position of the first grid image; Calculating a lateral effective maximum image width and a longitudinal effective maximum image height in the second grid image; Calculating an aspect ratio using the transversal effective maximum image width and the longitudinal effective maximum image height, calculating a first similarity degree by comparing the aspect ratio and a predetermined first standard value, Determining whether the first reference value is larger or smaller than the first reference value; Dividing a region corresponding to a head region of the human body into a first comparison region and a second comparison region in the second grid image; Calculating a second similarity degree by comparing the upper body portion ratio with a predetermined second standard value using the first comparison region and the second comparison region, (1-6) judging whether it is larger or smaller than the second reference value; And when the determination of step 1-4 is true and the determination of step 1-6 is true, the shape of the human body is detected, or the sum of the first similarity degree and the second similarity degree using the weight If the determination of the step 1-4 is true and the judgment of the step 1-6 is true and the sum is not less than the third reference value, A step (1-7) of reading out that the shape of the human body has been detected,
The second determining step may include: a second step of dividing left and right portions of the lower body region of the human body in the second grid image into a third comparison region and a fourth comparison region; Calculating a symmetric ratio of the lower body region corresponding to an area symmetry of left and right sides of the human body using a ratio of the number of effective grids of the third comparison region and the number of effective gratings of the fourth comparison region, A second similarity degree is calculated by comparing a symmetry ratio of the first similarity value with a predetermined third standard value, and whether the third similarity degree is larger or smaller than a predetermined third reference value; A second comparative region corresponding to the upper body region of the human body and a sixth comparative region corresponding to the lower body region in the second grid image; Calculating a ratio of the number of effective grids in the fifth comparison area to the number of effective grids in the sixth comparison area to calculate the upper and lower body standard ratios corresponding to the area information of the upper body area and the lower body area, (2-4) judging whether it is larger or smaller than the fourth reference value; A 2-5 step of calculating a slope value of the upper body region and a slope value of the lower body region in the second lattice image; Calculating a ratio of a slope value of the body region and a slope value of the body region, calculating a fourth similarity degree by comparing the calculated ratio with a predetermined fourth standard value, (2-6) of judging whether it is large or small; And a 2-7 step of determining the dynamics of the human body using at least one of the determination result of the step 2-4 and the determination result of the step 2-5 as a result of the determination of the step 2-2 The security monitoring method comprising:
삭제delete 삭제delete
KR1020160057474A 2015-11-19 2016-05-11 Security system and security process and security controller of throw trash, by detected humans action or shape image KR101846074B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150162638 2015-11-19
KR1020150162638 2015-11-19

Publications (2)

Publication Number Publication Date
KR20170058827A KR20170058827A (en) 2017-05-29
KR101846074B1 true KR101846074B1 (en) 2018-04-05

Family

ID=59053313

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160057474A KR101846074B1 (en) 2015-11-19 2016-05-11 Security system and security process and security controller of throw trash, by detected humans action or shape image

Country Status (1)

Country Link
KR (1) KR101846074B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11048942B2 (en) 2018-05-08 2021-06-29 Electronics And Telecommunications Research Institute Method and apparatus for detecting a garbage dumping action in real time on video surveillance system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102027045B1 (en) * 2017-12-29 2019-09-30 한국산업기술대학교산학협력단 Method of recognizing object and apparatuses performing the same
KR101880100B1 (en) * 2018-03-26 2018-07-19 주식회사 큐앤에스시스템 CCTV System for detecting Object
KR102076113B1 (en) * 2019-10-14 2020-02-11 (주)비에스아이시스템 Garbage unauthorized dumping monitoring device
KR102187831B1 (en) * 2019-10-29 2020-12-07 곽찬우 Control method, device and program of congestion judgment system using cctv
KR102430785B1 (en) * 2019-11-05 2022-08-09 대구대학교 산학협력단 Waste monitoring cctv apparatus with solar module
KR102160991B1 (en) * 2020-05-21 2020-09-29 이상기 CCTV surveillance system for illegal dumping of solar power
CN112216016B (en) * 2020-08-13 2021-10-15 潘石 Delivery system is assisted to disposal bag
CN112115846B (en) * 2020-09-15 2024-03-01 上海迥灵信息技术有限公司 Method and device for identifying random garbage behavior and readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002746B1 (en) * 2008-05-21 2010-12-21 (주)케이아이디에스 Waste fly tipping monitoring system
KR200468745Y1 (en) 2013-02-14 2013-09-05 윤부원 Apparatus for preventing throwing wastes illegally
KR101470315B1 (en) 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk by moving of object and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002746B1 (en) * 2008-05-21 2010-12-21 (주)케이아이디에스 Waste fly tipping monitoring system
KR200468745Y1 (en) 2013-02-14 2013-09-05 윤부원 Apparatus for preventing throwing wastes illegally
KR101470315B1 (en) 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk by moving of object and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11048942B2 (en) 2018-05-08 2021-06-29 Electronics And Telecommunications Research Institute Method and apparatus for detecting a garbage dumping action in real time on video surveillance system

Also Published As

Publication number Publication date
KR20170058827A (en) 2017-05-29

Similar Documents

Publication Publication Date Title
KR101846074B1 (en) Security system and security process and security controller of throw trash, by detected humans action or shape image
AU2021202430B2 (en) Smart city closed camera photocell and street lamp device
CN101918980B (en) Runway surveillance system and method
KR101375583B1 (en) Object Density Estimation in Video
CN102110376B (en) Roadside parking space detection device based on computer vision
US7903841B2 (en) Miniature autonomous agents for scene interpretation
KR101178878B1 (en) Object recognition and situation video search system and the image tractability system which uses this
US20210071855A1 (en) Multifunction lighting control unit
KR101146583B1 (en) Smart computer camera for identifying vehicles in parking area
KR101043912B1 (en) System for Controlling Vehicle Transport Signal of Intersection using Day and Night Integrated Traffic Image Detector
CN102577347A (en) Omni-directional intelligent autotour and situational aware dome surveillance camera system and method
CN102915638A (en) Surveillance video-based intelligent parking lot management system
CN104813339A (en) Methods, devices and systems for detecting objects in a video
CN104134352A (en) Video vehicle characteristic detection system and detection method based on combination of long exposure and short exposure
JP2009201064A (en) Method and apparatus for specifying related region, and method and apparatus for recognizing image
CN108205896A (en) A kind of Campus transport safety intelligence monitoring and controlling manages system
CN115797873B (en) Crowd density detection method, system, equipment, storage medium and robot
WO2020174916A1 (en) Imaging system
JP2003219399A (en) Supervisory apparatus for identifying supervisory object
US20100296703A1 (en) Method and device for detecting and classifying moving targets
CN212724329U (en) Illegal whistle and illegal refitted vehicle snapshot system covering bidirectional lane
Shafie et al. Smart video surveillance system for vehicle detection and traffic flow control
KR101717140B1 (en) A system and method for detecting vehicles and recognizing number plates on multi-lane using one camera
KR101937582B1 (en) Safety System for Walkway Monitor
US20190188861A1 (en) Method and apparatus for detecting motion deviation in a video sequence

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal