KR20170140610A - The Apparatus For Surveillancing - Google Patents

The Apparatus For Surveillancing Download PDF

Info

Publication number
KR20170140610A
KR20170140610A KR1020160073129A KR20160073129A KR20170140610A KR 20170140610 A KR20170140610 A KR 20170140610A KR 1020160073129 A KR1020160073129 A KR 1020160073129A KR 20160073129 A KR20160073129 A KR 20160073129A KR 20170140610 A KR20170140610 A KR 20170140610A
Authority
KR
South Korea
Prior art keywords
light
reflected
image
monitored object
lights
Prior art date
Application number
KR1020160073129A
Other languages
Korean (ko)
Other versions
KR102474706B1 (en
Inventor
정송택
송재천
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020160073129A priority Critical patent/KR102474706B1/en
Publication of KR20170140610A publication Critical patent/KR20170140610A/en
Application granted granted Critical
Publication of KR102474706B1 publication Critical patent/KR102474706B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities

Abstract

The present invention provides a surveillance device which can grasp a surveillance object by irradiating light toward a dead zone and acquiring an image by capturing the light when the light is reflected from the surveillance object existing in the dead zone. According to an embodiment of the present invention, the surveillance device comprises: an imaging part capturing a specific region to acquire the image; a light emitting part irradiating a plurality of lights to the outside; and a control part controlling operations of the imaging part and the light emitting part. The control part models an appearance of the surveillance object based on properties of a plurality of reflected lights when the plurality of lights irradiated by the light emitting part are reflected from the surveillance object.

Description

감시 장치{The Apparatus For Surveillancing}The Apparatus For Surveillancing &

본 발명은 감시 장치에 관한 것으로서, 보다 상세하게는 사각지대를 향해 광을 조사하여, 사각지대에 존재하는 감시 대상으로부터 광이 반사되면, 이를 촬영하여 영상을 획득함으로써 감시 대상을 파악할 수 있는 감시 장치에 관한 것이다.The present invention relates to a surveillance apparatus, and more particularly, to a surveillance apparatus that irradiates light toward a blind spot and acquires an image when the light is reflected from a surveillance target existing in a blind spot, .

일반적으로 은행, 백화점, 일반 주택가를 비롯한 다양한 장소에서 감시 시스템이 널리 사용되고 있다. 이러한 감시 시스템은 범죄 예방, 보안을 목적으로 사용될 수 있으나, 최근에는 실내의 애완동물 또는 어린 아이를 실시간으로 감시하기 위해서도 사용되기도 한다. 그리고 이러한 감시 시스템으로 가장 많이 사용하는 시스템은, 감시를 원하는 영역을 촬영할 수 있도록 적절한 위치에 카메라를 설치하고, 사용자는 카메라가 촬영한 영상을 모니터링 함으로써 감시할 수 있는 폐쇄회로 텔레비전(Closed Circuit Television: CCTV) 시스템이다.In general, surveillance systems are widely used in various places including banks, department stores, and residential areas. Such a surveillance system can be used for crime prevention and security purposes, but recently it is also used to monitor indoor pet or child in real time. Most of the surveillance systems use a closed - circuit television (TV) that can be monitored by monitoring the images taken by the camera. CCTV) system.

이렇게 카메라에 대한 기술이 점점 발전하고, 보안에 대한 사람들의 관심이 증가함에 따라, 카메라로는 촬영되지 않는 사각지대를 제거하는 기술들도 많이 제안되고 있다. 종래에는 사각지대를 제거하기 위해, 화각을 넓히는 기술이 자주 사용되었다. 그러나, 화각을 넓혀도 장애물에 의해 시야가 확보되지 않아 발생하는 사각지대는 제거할 수가 없었다. 최근에는 복수의 카메라를 설치하여 복수의 영상을 획득하고, 이들을 합성함으로써 사각지대를 제거하는 기술도 소개되었다. 그러나, 이러한 기술은 카메라를 복수로 설치해야 되므로 많은 비용이 소모되었다.As the techniques for cameras become more advanced and people's interest in security increases, many techniques for eliminating blind spots that are not photographed by a camera are proposed. Conventionally, in order to remove blind spots, a technique of widening the angle of view has been frequently used. However, even if the angle of view is enlarged, the blind spot can not be removed because the view is not secured by the obstacle. In recent years, a technique has been introduced in which a plurality of cameras are installed to acquire a plurality of images and synthesize them to remove blind spots. However, this technique requires a plurality of cameras, which is expensive.

한국특허등록 제1546697호Korea Patent No. 1546697 일본공개공보 제2014-0098603호Japanese Laid-Open Publication No. 2014-0098603

본 발명이 해결하고자 하는 과제는, 사각지대를 향해 광을 조사하여, 사각지대에 존재하는 감시 대상으로부터 광이 반사되면, 이를 촬영하여 영상을 획득함으로써 감시 대상을 파악할 수 있는 감시 장치를 제공하는 것이다.A problem to be solved by the present invention is to provide a surveillance apparatus capable of grasping a surveillance target by irradiating light toward a dead space and acquiring an image by capturing the light when the surveillance target is present in a blind spot .

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 감시 장치는 특정 영역을 촬영하여 영상을 획득하는 촬상부; 외부로 복수의 광을 조사하는 발광부; 및 상기 촬상부 및 상기 발광부의 동작을 제어하는 제어부를 포함하되, 상기 제어부는, 상기 발광부가 조사한 상기 복수의 광이 감시 대상으로부터 반사되면, 상기 복수의 반사광의 특성을 토대로 상기 감시 대상의 외형을 모델링한다.According to an aspect of the present invention, there is provided a surveillance apparatus including: an imaging unit that captures an image of a specific area to acquire an image; A light emitting portion for emitting a plurality of lights to the outside; And a control unit for controlling operations of the imaging unit and the light emitting unit, wherein when the plurality of lights irradiated by the light emitting unit are reflected from the monitored object, the control unit controls the shape of the monitored target based on the characteristics of the plurality of reflected lights Model.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.The embodiments of the present invention have at least the following effects.

카메라를 복수로 설치할 필요가 없어 비용을 절감하면서도, 사각지대에 존재하는 감시 대상을 사용자가 용이하게 파악할 수 있다.It is not necessary to install a plurality of cameras, so that a user can easily grasp a monitoring target existing in a blind spot while reducing the cost.

나아가, 단순히 감시 대상의 유무만을 파악함에 그치는 것이 아니라, 감시 대상의 외형을 모델링하여, 사용자가 감시 대상을 용이하게 모니터링 할 수 있다.Furthermore, it is not limited to merely grasping only the presence or absence of the monitoring object, but can model the external shape of the monitoring object and allow the user to easily monitor the monitoring object.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the specification.

도 1은 본 발명의 일 실시예에 따른 감시 장치(1)의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 감시 장치(1)가 설치된 모습을 도시한 개략도이다.
도 3은 도 2의 사각지대(2)에 감시 대상(5)이 나타난 모습을 도시한 개략도이다.
도 4는 본 발명의 일 실시예에 따른 감시 장치(1)가 광을 조사하는 모습을 도시한 개략도이다.
도 5는 본 발명의 일 실시예에 따른 광이 감시 대상(5)으로부터 반사되는 모습을 도시한 개략도이다.
도 6은 도 5의 광이 감시 대상(5)으로부터 반사되는 모습을 상세히 도시한 개략도이다.
도 7은 본 발명의 일 실시예에 따른 감시 장치(1)가 감시 대상(5)을 모델링한 모습을 도시한 개략도이다.
1 is a block diagram showing a configuration of a monitoring apparatus 1 according to an embodiment of the present invention.
2 is a schematic view showing a state in which a monitoring apparatus 1 according to an embodiment of the present invention is installed.
3 is a schematic view showing a state in which the monitoring target 5 appears on the blind spot 2 in Fig.
4 is a schematic view showing a state in which the monitoring apparatus 1 according to the embodiment of the present invention irradiates light.
5 is a schematic view showing a state in which light is reflected from the monitored object 5 according to an embodiment of the present invention.
FIG. 6 is a schematic view showing in detail the manner in which the light of FIG. 5 is reflected from the monitored object 5. FIG.
FIG. 7 is a schematic diagram showing a state in which the monitoring apparatus 1 according to the embodiment of the present invention models the monitored object 5. FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 감시 장치(1)의 구성을 도시한 블록도이다.1 is a block diagram showing a configuration of a monitoring apparatus 1 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 감시 장치(1)는, 도 1에 도시된 바와 같이 촬상부(11), 발광부(12), 제어부(13)를 포함한다. 이하, 상기 기술한 촬상부(11), 발광부(12), 제어부(13)는 하나의 감시 장치(1) 내에 포함되는 구성인 것으로 설명하나, 이는 설명의 편의를 위한 것이며, 본 발명은 이에 제한되지 않고 각각의 구성들이 별도로 마련될 수도 있다.The monitoring apparatus 1 according to an embodiment of the present invention includes an imaging unit 11, a light emitting unit 12, and a control unit 13 as shown in Fig. Hereinafter, it is assumed that the imaging unit 11, the light emitting unit 12, and the control unit 13 described above are included in one monitoring apparatus 1, but this is for convenience of explanation, But the respective configurations may be provided separately.

촬상부(11)는 특정 영역을 촬영하여 영상을 획득한다. 촬상부(11)는 이미지 센서를 활용하여 특정 영역을 촬영함으로써 2차원의 영상을 획득한다. 촬상부(11)에는 촬상소자가 포함되며, 촬상소자는 일반적인 CMOS(Complementary Metal Oxide Semiconductor) 소자 또는 CCD(Charge-Coupled Device) 소자 등의 피사체를 촬영할 수 있는 카메라 소자가 사용될 수 있다. 여기서 상기 특정 영역은 촬상부(11)가 영상을 획득하려는 대상이 되는 공간을 말하며, 일반적으로 3차원 공간이 된다.The image pickup section 11 photographs a specific region and acquires an image. The image pickup unit 11 acquires a two-dimensional image by photographing a specific region using an image sensor. The image pickup section 11 includes an image pickup element and the image pickup element can be a camera element capable of photographing a subject such as a general CMOS (Complementary Metal Oxide Semiconductor) element or a CCD (Charge-Coupled Device) element. Here, the specific area refers to a space in which the image pickup unit 11 is to acquire an image, and is generally a three-dimensional space.

촬상부(11)는 또한, 발광부(12)로부터 조사된 광(121) 및 감시 대상(5)으로부터 반사된 광(122)을 촬영할 수도 있다. 이러한 광을 촬영하여 영상을 획득하기 위해, 촬상부(11)는 초고속 카메라인 것이 바람직하다. 초고속 카메라는 매우 세밀한 프레임 간격으로 연속 촬영하여, 프레임의 저하 없이 매우 느린 속도로 재생할 수 있는 카메라이다. 일반 카메라가 24 내지 30 FPS(Frame Per Second)로 규칙적으로 촬영한다면, 초고속 카메라는 수백 내지 수천 FPS로 촬영하며, 최근에는 심지어 수만 FPS까지 촬영하는 기술도 소개되었다. 촬상부(11)는 이러한 매우 높은 프레임레이트(Frame Rate)를 이용하여, 광의 움직임을 용이하게 촬영할 수 있다.The image pickup section 11 may also photograph the light 121 irradiated from the light emitting section 12 and the light 122 reflected from the monitoring target 5. [ In order to capture such light to acquire an image, the imaging section 11 is preferably an ultra-high speed camera. A high-speed camera is a camera that can shoot continuously at very fine frame intervals and reproduce at a very slow speed without degrading the frame. If a regular camera shoots regularly at 24 to 30 frames per second (FPS), ultra-high-speed cameras shoot at hundreds to thousands of FPS, and more recently, technology to shoot even tens of thousands of FPS has been introduced. The image pickup section 11 can easily photograph the motion of light by using this very high frame rate.

만약, 촬상부(11)가 디지털카메라가 아니라면 촬영한 영상은 RGB 아날로그 영상 신호이므로, 감시 장치(1)에는 ADC컨버터가 별도로 구비되어야 한다. 그러나, 촬상부(11)가 디지털카메라라면 ADC컨버터가 불필요하다.If the image pickup unit 11 is not a digital camera, the captured image is an RGB analog image signal, so that the monitor apparatus 1 must be provided with an ADC converter separately. However, if the image pickup section 11 is a digital camera, an ADC converter is unnecessary.

발광부(12)는 감시 대상(5)을 식별하기 위해, 광을 외부로 조사하는 역할을 한다. 일반적으로, 레이더(RAdio Detecting And Ranging, RADAR) 또는 라이다(LIght Detection And Ranging, LIDAR)와 같이 특정 물체를 식별하기 위해 전파 또는 광을 외부로 조사하는 장비는, 상기 전파 또는 광이 특정 물체에 반사되어 되돌아오면 이를 검출하는 검출기를 포함한다. 그러나, 본 발명의 일 실시예에 따른 발광부(12)는, 검사 대상으로부터 반사된 광을 별도로 검출하는 검출기가 불필요하다. 반사된 광이 발광부(12)로 다시 되돌아오지 않을 수도 있기 때문이다. 그리고 본 발명의 감시 장치(1)는, 복귀하는 반사광을 검출하여 감시 대상(5)을 판단하는 것이 아니라, 반사광(122)을 촬상부(11)로 촬영하여 영상 분석을 통해 모델링하는 것이기 때문이다. 다만, 외부로 조사한 광이 사각지대(2)를 향해 입사하도록, 입사광(121)의 광로를 변경할 수 있는 반사물(3)이 별도로 마련되어야 한다.The light emitting portion 12 serves to irradiate the light to the outside in order to identify the monitored object 5. [ In general, equipment that externally radiates radio waves or light to identify a specific object, such as a Radar Detection and Ranging (RADAR) or Lidar Detection And Ranging (LIDAR) And a detector for detecting the reflected light when it returns. However, the light emitting unit 12 according to the embodiment of the present invention does not need a detector for separately detecting the light reflected from the object to be inspected. And the reflected light may not return to the light emitting portion 12 again. The monitoring apparatus 1 according to the present invention does not detect the reflected light to be returned and determines the monitored object 5 but rather photographs the reflected light 122 with the imaging unit 11 and performs modeling through image analysis . However, the reflector 3, which can change the optical path of the incident light 121, must be separately provided so that the light irradiated to the outside is incident on the dead zone 2.

본 발명의 일 실시예에 따른 발광부(12)는 광의 일종인 레이저(LASER)를 조사하는 것이 바람직하다. 그러나, 이에 제한되지 않고 촬상부(11)가 촬영하여 영상을 획득할 수 있다면, 발광부(12)는 전파 등 다양한 종류의 파동 에너지를 발신할 수도 있다.The light emitting unit 12 according to an exemplary embodiment of the present invention preferably irradiates a laser, which is a kind of light. However, the present invention is not limited to this, and the light emitting unit 12 may transmit various types of wave energy, such as radio waves, if the imaging unit 11 can capture and acquire an image.

발광부(12)는 광을 항상 조사하고 있는 것이 바람직하다. 이 경우, 불시에 사각지대(2)에서 감시 대상(5)이 출몰하더라도, 곧바로 그 사실을 인식하고 감시 대상(5)을 식별할 수 있다. 그러나, 이에 제한되지 않고, 주기적으로 광을 조사할 수도 있고, 또는 사용자가 원하는 경우에만 작동을 하여 광을 조사할 수도 있다.It is preferable that the light emitting portion 12 always irradiate light. In this case, even if the observer 5 suddenly appears in the blind spot 2, the observer can immediately recognize the fact and identify the observer 5. However, the present invention is not limited to this, and the light may be irradiated periodically, or only when the user desires to operate.

제어부(13)는 촬상부(11)가 상기 특정 영역을 촬영하도록 동작을 제어하거나, 발광부(12)에서 광을 조사하도록 동작을 제어한다. 특히, 본 발명의 일 실시예에 따르면, 발광부(12)에서 조사한 광이 감시 대상(5)으로부터 반사되면, 촬상부(11)가 상기 반사된 광들을 촬영하여 영상을 획득한다. 그리고 제어부(13)는 상기 영상으로부터 반사된 광들의 움직임을 분석 및 연산하여, 감시 대상(5)의 형체를 예측하여 모델링을 할 수 있다. 제어부(13)가 감시 대상(5)을 모델링 하는 방법에 대한 자세한 설명은 후술한다.The control unit 13 controls the operation so that the imaging unit 11 captures the specific area or controls the operation to irradiate light in the light emitting unit 12. [ In particular, according to an embodiment of the present invention, when the light emitted from the light emitting unit 12 is reflected from the monitored object 5, the imaging unit 11 captures the reflected light to acquire an image. The control unit 13 analyzes and computes the motion of the light reflected from the image, and predicts the shape of the object to be monitored 5 and performs modeling. A detailed description of how the control unit 13 models the monitored object 5 will be described later.

본 발명의 일 실시예에 따른 감시 장치(1)는 인코더(14), 저장부(15), 통신부(16)를 더 포함할 수 있다.The monitoring apparatus 1 according to an embodiment of the present invention may further include an encoder 14, a storage unit 15, and a communication unit 16.

인코더(14)는 촬상부(11)에서 획득한 영상을 인코딩하여, 압축 영상 데이터화 한다. 인코더(14)는 촬상부(11)와 일체로 형성되거나, 제어부(13)와 일체로 형성될 수도 있으나, 이에 제한되지 않고 별도의 구성으로 마련될 수도 있다. 최근에는 초고해상도 영상인 UHD(Ultra High Definition)의 관심으로 UHD 영상 인코딩을 위한 HEVC(High Efficiency Video Coding)의 표준화가 완료되며 H.264/MPEG-4 AVC보다 2배 이상의 인코딩 효율을 향상시켰다. 상기 영상을 인코딩하기 위한 코덱으로는, 최근 주로 사용되는 MPEG4 또는 H.264/MPEG-4 AVC, 상기 소개한 HEVC 등을 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 종류의 코덱이 사용될 수 있다.The encoder 14 encodes the image acquired by the imaging unit 11 and converts it into compressed image data. The encoder 14 may be integrally formed with the image pickup unit 11 or may be integrally formed with the control unit 13, but the present invention is not limited thereto and may be provided in a separate configuration. In recent years, the standardization of HEVC (High Efficiency Video Coding) for UHD image encoding has been completed with the interest of UHD (Ultra High Definition), which is an ultra high resolution image, and the encoding efficiency is improved by more than twice as much as H.264 / MPEG-4 AVC. As the codec for encoding the image, it is preferable to use MPEG4 or H.264 / MPEG-4 AVC, which is mainly used in recent years, HEVC, etc., but the present invention is not limited thereto and various codecs can be used.

저장부(15)는 촬상부(11)에서 획득한 영상을 저장하고, 발광부(12)에서 조사하는 광의 특성에 대한 정보를 저장한다. 그리고, 감시 대상(5)이 존재하지 않을 때 광을 사각지대(2)로 조사하여 반사되는 초기 반사광에 대한 정보를 미리 저장할 수 있다. 제어부(13)는 감시 대상(5)이 사각지대(2)에 출몰한 경우, 입사광(121)과 반사광(122)을 비교하여 반사광(122)의 변화를 판단한다. 이 때, 저장부(15)에 미리 저장하였던 상기 초기 반사광에 대한 정보를 로딩하여, 반사광(122)의 변화를 판단하는데 반영하여, 더욱 정밀하게 감시 대상(5)을 모델링 할 수 있다. 감시 장치(1)를 소형화 하기 위해 저장부(15)는 부피가 크지 않은 비휘발성 메모리인 플래시 메모리를 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 메모리 장치가 사용될 수 있다.The storage unit 15 stores the image acquired by the image pickup unit 11 and stores information about the characteristics of the light irradiated by the light emitting unit 12. [ Then, when the monitored object 5 is not present, it is possible to irradiate the light to the dead zone 2 and to previously store information on the reflected initially reflected light. The control unit 13 compares the incident light 121 and the reflected light 122 to determine a change in the reflected light 122 when the monitored object 5 appears or disappears in the dead zone 2. [ At this time, the information about the initial reflected light previously stored in the storage unit 15 is loaded, and the change of the reflected light 122 is reflected in the determination, so that the monitoring target 5 can be more accurately modeled. In order to miniaturize the monitoring apparatus 1, the storage unit 15 preferably uses a flash memory which is a non-volatile memory, but not limited thereto, various memory apparatuses can be used.

통신부(16)는 외부와 네트워크를 형성하여, 상기 압축 영상 데이터 또는 감시 대상(5) 모델링 정보 등을 외부로 전송하거나, 외부로부터 사용자의 입력 신호 등을 송신할 수 있다. 통신부(16)는 와이파이(WIFI), 블루투스(BLUETOOTH), 지웨이브(Z-WAVE) 등 무선으로 통신할 수도 있으나, 이에 제한되지 않고 유선으로도 외부와 통신할 수도 있다.The communication unit 16 forms a network with the outside, and can transmit the compressed video data or the modeling information to be monitored 5 to the outside, or can transmit a user's input signal or the like from the outside. The communication unit 16 may communicate wirelessly such as WIFI, BLUETOOTH, Z-WAVE, or the like, but is not limited thereto.

본 발명의 일 실시예에 따르면, 제어부(13)가 감시 대상(5)을 모델링하면, 모델링한 결과를 이미지화 하여 디스플레이 하는 화면부가 더 존재할 수 있다. 이러한 화면부는 상기 감시 장치(1)에 포함되어, 감시 장치(1)를 구성하는 구성 요소일 수 있다. 그러나, 상기 감시 장치(1)와는 별도로 모니터링 장치가 마련되어, 상기 모니터링 장치를 구성하는 구성 요소일 수도 있다. 화면부를 통해 감시 대상(5)의 모델링한 결과가 디스플레이 되면, 사용자는 사각지대(2)에 출몰한 감시 대상(5)을 용이하게 모니터링 할 수 있게 된다.According to an embodiment of the present invention, when the control unit 13 models the monitored object 5, there may exist a screen portion for displaying the modeled result and displaying the image. Such a screen part may be included in the monitoring device 1 and constitute a component of the monitoring device 1. [ However, a monitoring device may be provided separately from the monitoring device 1, and may be a component constituting the monitoring device. When the modeling result of the monitoring object 5 is displayed through the screen, the user can easily monitor the monitoring object 5 appearing in the blind spot 2.

도 2는 본 발명의 일 실시예에 따른 감시 장치(1)가 설치된 모습을 도시한 개략도이고, 도 3은 도 2의 사각지대(2)에 감시 대상(5)이 나타난 모습을 도시한 개략도이다.FIG. 2 is a schematic view showing a state in which a monitoring apparatus 1 according to an embodiment of the present invention is installed, and FIG. 3 is a schematic view showing a state in which a monitored object 5 appears in a dead zone 2 in FIG. 2 .

본 발명의 일 실시예에 따른 감시 장치(1)는 도 2에 도시된 바와 같이 설치되어, 특정 화각(θ)을 가지고 특정 영역을 촬영할 수 있다. 이러한 특정 화각(θ)이 넓을수록, 더욱 넓은 영역을 촬영할 수 있어 사용자가 모니터링하는 것이 용이하다. 이 때, 상기 특정 영역에 장애물(4)이 존재하면, 감시 장치(1)가 촬영할 수 없는 영역인 사각지대(2)가 발생하게 된다. 따라서 도 3에 도시된 바와 같이, 이러한 사각지대(2)에 감시 대상(5)이 되는 사람 또는 물체가 출몰한다면, 감시 장치(1)의 화각(θ)이 아무리 넓더라도 감시 장치(1)가 감시 대상(5)을 촬영할 수 없다. 따라서 사용자가 모니터링을 하더라도, 감시 대상(5)의 출몰 여부를 알 수가 없다.The monitoring apparatus 1 according to an embodiment of the present invention is installed as shown in FIG. 2, and can photograph a specific area with a specific angle of view?. The wider the specific angle of view?, The wider the area can be photographed, and the easier the user to monitor. At this time, if the obstacle (4) exists in the specific area, a dead zone (2), which is an area where the monitoring device (1) can not shoot, is generated. 3, even if a person or an object to be monitored 5 appears or disappears into the blind spot 2, no matter how wide the viewing angle? Of the monitoring device 1 is, The surveillance target 5 can not be photographed. Therefore, even if the user performs the monitoring, it is impossible to know whether or not the monitoring target 5 is in the presence or absence.

도 4는 본 발명의 일 실시예에 따른 감시 장치(1)가 광을 조사하는 모습을 도시한 개략도이고, 도 5는 본 발명의 일 실시예에 따른 광이 감시 대상(5)으로부터 반사되는 모습을 도시한 개략도이다.FIG. 4 is a schematic view showing a state in which a monitoring apparatus 1 according to an embodiment of the present invention irradiates light, FIG. 5 is a view showing a state in which light according to an embodiment of the present invention is reflected from a monitored object 5 Fig.

본 발명의 일 실시예에 따르면, 감시 장치(1)에 포함된 발광부(12)가 도 4에 도시된 바와 같이 반사물(3)을 향해 광을 조사한다. 그리고 반사물(3)로부터 반사된 광(121)은 사각지대(2)에 존재하는 감시 대상(5)에 입사한 후, 도 5에 도시된 바와 같이 감시 대상(5)으로부터 반사된다.According to an embodiment of the present invention, the light emitting portion 12 included in the monitoring apparatus 1 irradiates light toward the reflection member 3 as shown in Fig. The light 121 reflected from the reflection object 3 is incident on the monitoring object 5 existing in the dead zone 2 and then reflected from the monitoring object 5 as shown in FIG.

여기서 반사물(3)은, 본 발명의 일 실시예에 따른 감시 장치(1)를 구성하는 하나의 구성 요소로서 별도로 마련될 수도 있다. 그러나, 이에 제한되지 않고 주변의 환경을 이용하여 발광부(12)에서 조사된 광이 사각지대(2)로 입사하도록 광로를 변경할 수도 있다. 이 경우, 사용자는 발광부(12)가 광을 조사하는 방향, 반사물(3)의 위치 및 각도, 촬상부(11)가 반사광(122)을 촬영할 수 있는지 여부 등에 따라 감시 장치(1)를 설치하여야 한다.Here, the reflection object 3 may be separately provided as one component constituting the monitoring apparatus 1 according to the embodiment of the present invention. However, the present invention is not limited to this, and the optical path may be changed so that the light emitted from the light emitting portion 12 is incident on the dead zone 2 by using the surrounding environment. In this case, the user can set the monitoring device 1 in accordance with the direction in which the light emitting portion 12 irradiates the light, the position and angle of the reflection 3, the image pickup portion 11 can take the reflected light 122, Should be installed.

도 4에는, 발광부(12)에서 3개의 광이 각각의 광로를 따라 반사물(3)을 향해 조사되는 것으로 도시되어 있으나, 이에 제한되지 않고 다양한 개수의 광이 조사될 수 있다. 실제로, 광의 개수가 많을수록, 감시 대상(5)을 더욱 세밀하게 모델링할 수 있으나, 연산량이 증가하여 감시 장치(1)에 부하가 많이 작용하는 문제가 있다. 반대로 광의 개수가 적을수록, 연산량이 감소하여 모델링을 매우 빠르게 수행할 수 있으나, 감시 대상(5)을 세밀하게 모델링할 수 없다. 따라서, 사용자는 제어부(13)의 연산 능력 등을 고려하여 광의 개수를 적절하게 조절할 수 있다. 이하, 설명의 편의를 위해 발광부(12)에서 3개의 광이 조사되는 것으로 설명한다.In Fig. 4, three lights in the light emitting portion 12 are shown to be irradiated toward the reflector 3 along the respective optical paths, but the present invention is not limited thereto and various numbers of lights can be irradiated. Actually, the more the number of light is, the more precise modeling of the monitored object 5 is possible, but the amount of calculation is increased and there is a problem that the monitoring device 1 is loaded with a lot of load. On the contrary, the smaller the number of light, the smaller the amount of calculation and the modeling can be performed very quickly, but the object to be monitored 5 can not be finely modeled. Accordingly, the user can appropriately adjust the number of lights in consideration of the computing power of the control unit 13 and the like. Hereinafter, for ease of explanation, it is assumed that three light beams are emitted from the light emitting portion 12.

감시 대상(5)으로부터 반사된 광(122)은 기준 영역(111)을 통과하게 된다. 촬상부(11)는 기준 영역(111)을 통과하는 반사광(122)을 촬영하여 영상을 획득하고, 제어부(13)는 상기 영상으로부터 반사광(122)의 특성을 추출하여 감시 대상(5)을 모델링한다. 따라서, 기준 영역(111)을 통과하는 반사광(122)이, 제어부(13)가 특성을 추출하여 모델링을 수행하는 기준이 된다. 여기서 반사광(122)들의 특성은, 반사광(122)들의 진행 방향, 속도, 기준 영역(111)에 입사하는 시간 등을 포함한다.The light 122 reflected from the monitored object 5 passes through the reference area 111. [ The control unit 13 extracts the characteristic of the reflected light 122 from the image and outputs the modeled observation object 5 as a modeling object do. Therefore, the reflected light 122 passing through the reference area 111 becomes a criterion for the control unit 13 to extract the characteristics and perform the modeling. Here, the characteristics of the reflected light 122 include the traveling direction of the reflected light 122, the velocity, the time of incidence to the reference region 111, and the like.

감시 장치(1)가 설치되어 촬영하는 특정 영역마다, 장애물(4)의 구조, 반사물(3)의 구조, 사각지대(2)의 위치 등이 상이하다. 이에 따라, 사각지대(2)에서 감시 대상(5)이 출몰하는 경우, 사각지대(2)에 입사광(121)이 입사하는 방향, 반사광(122)이 감시 대상(5)으로부터 반사되는 방향 등이 상이하다. 따라서, 기준 영역(111)은 사용자가 감시 장치(1)를 설치하면서 반사광(122)의 특성을 가장 명확하게 추출할 수 있는 영역으로 임의로 설정할 수 있다.The structure of the obstacle 4, the structure of the reflection 3, the position of the blind spot 2, and the like are different for each specific region photographed by the monitoring apparatus 1. Accordingly, when the observer 5 appears and disappears from the dead zone 2, the direction in which the incident light 121 enters the dead zone 2, the direction in which the reflected light 122 is reflected from the monitored object 5, and the like It is different. Therefore, the reference area 111 can be arbitrarily set as an area where the characteristic of the reflected light 122 can be extracted most clearly while the user installs the monitoring apparatus 1. [

도 6은 도 5의 광이 감시 대상(5)으로부터 반사되는 모습을 상세히 도시한 개략도이고, 도 7은 본 발명의 일 실시예에 따른 감시 장치(1)가 감시 대상(5)을 모델링한 모습을 도시한 개략도이다.FIG. 6 is a schematic view showing in detail the manner in which the light of FIG. 5 is reflected from the monitored object 5, and FIG. 7 is a view showing a state in which the monitoring device 1 according to the embodiment of the present invention models the monitored object 5 Fig.

상기 기술한 바와 같이, 촬상부(11)는 기준 영역(111)을 통과하는 반사광(122)을 촬영하여 영상을 획득한다. 그리고 제어부(13)는 상기 영상으로부터 반사광(122)들의 움직임을 분석하여 반사광(122)들의 특성을 추출한다. 그리고 입사광(121)에 대한 정보와 비교 및 연산하여, 감시 대상(5)의 형체를 예측하고 모델링을 할 수 있다. 이하, 감시 대상(5)의 형체를 모델링하는 방법을 구체적으로 설명한다.As described above, the imaging unit 11 captures the reflected light 122 passing through the reference area 111 to acquire an image. The control unit 13 analyzes the motion of the reflected light 122 from the image and extracts the characteristics of the reflected light 122. Then, the shape of the object to be monitored 5 can be predicted and modeled by comparing and calculating information with respect to the incident light 121. Hereinafter, a method of modeling the shape of the monitoring target 5 will be described in detail.

발광부(12)로부터 조사된 광은 반사물(3)로부터 반사되어 기준 영역(111)을 통과한 후, 감시 대상(5)에 입사한다. 만약, 반사물(3)로부터 고르게 반사되었다면, 도 6에 도시된 바와 같이, 제1 내지 제3 입사광(121a, 121b, 121c)은 모두 평행하다.The light emitted from the light emitting portion 12 is reflected from the reflection member 3 and passes through the reference region 111 and then enters the monitoring target 5. [ 6, the first to third incident light beams 121a, 121b and 121c are all parallel to each other.

만약, 사각지대(2)가 열린 공간이라면, 사각지대(2)에 감시 대상(5)이 존재하지 않을 때, 사각지대(2)로부터 반사되는 반사광(122)도 존재하지 않는다. 즉, 상기 기준 영역(111)에는 사각지대(2)를 향해 입사하는 입사광(121) 만이 존재한다. 이 때, 사각지대(2)에 감시 대상(5)이 출몰한다면, 감시 대상(5)으로부터 반사되는 반사광(122)이 상기 기준 영역(111)을 통과한다. 그리고 제어부(13)는 반사광(122)의 특성에 대한 정보를, 입사광(121)의 특성에 대한 정보와 비교 및 연산한다.If the dead zone 2 is an open space, there is no reflected light 122 reflected from the dead zone 2 when the monitored object 5 is not present in the dead zone 2. That is, only the incident light 121 incident on the dead zone 2 exists in the reference area 111. At this time, if the monitored object 5 appears and disappears in the dead zone 2, the reflected light 122 reflected from the monitored object 5 passes through the reference area 111. The control unit 13 compares the information on the characteristics of the reflected light 122 with information on the characteristics of the incident light 121 and calculates the information.

우선, 반사광(122)들의 진행 방향을 통해 감시 대상(5)의 외형이 향하는 방향을 파악할 수 있다. 도 6에 도시된 바와 같이, 제1 입사광(121a)은 제1 반사광(122a)이 된다. 이 때, 제1 반사광(122a)은, 제1 입사광(121a)에 비해 상방으로 기울어진 방향으로 기준 영역(111)을 통과한다. 따라서, 제1 반사광(122a)이 감시 대상(5)으로부터 반사되는 제1 반사면은 상방으로 기울어진 방향을 향한다. 제2 입사광(121b)은 제2 반사광(122b)이 된다. 이 때, 제2 반사광(122b)은, 제2 입사광(121b)과 평행하도록 기준 영역(111)을 통과한다. 따라서, 제2 반사광(122b)이 감시 대상(5)으로부터 반사되는 제2 반사면은 제2 입사광(121b)과 수직이다. 제3 입사광(121c)은 제3 반사광(122c)이 된다. 이 때, 제3 반사광(122c)은, 제3 입사광(121c)에 비해 하방으로 기울어진 방향으로 기준 영역(111)을 통과한다. 따라서, 제3 반사광(122c)이 감시 대상(5)으로부터 반사되는 제3 반사면은 하방으로 기울어진 방향을 향한다.First, the direction in which the external shape of the monitored object 5 faces can be grasped through the traveling direction of the reflected light 122. As shown in FIG. 6, the first incident light 121a becomes the first reflected light 122a. At this time, the first reflected light 122a passes through the reference region 111 in a direction tilted upward relative to the first incident light 121a. Therefore, the first reflection surface, from which the first reflected light 122a is reflected from the monitored object 5, is directed in an upward tilted direction. And the second incident light 121b becomes the second reflected light 122b. At this time, the second reflected light 122b passes through the reference region 111 in parallel with the second incident light 121b. Therefore, the second reflection surface on which the second reflected light 122b is reflected from the monitored object 5 is perpendicular to the second incident light 121b. And the third incident light 121c becomes the third reflected light 122c. At this time, the third reflected light 122c passes through the reference region 111 in a direction inclined downward relative to the third incident light 121c. Therefore, the third reflection surface, from which the third reflected light 122c is reflected from the monitored object 5, is directed in a downward tilted direction.

감시 대상(5)의 외형의 구체적인 기울기는 다음과 같이 구할 수 있다. 반사의 법칙에 따라, 입사각과 반사각의 크기는 동일하다. 그리고, 입사 지점과 반사 지점도 동일하다. 따라서, 입사광(121)과 반사광(122)에 각각 연장선을 도시하여 만나는 지점이, 감시 대상(5)의 외형, 즉 반사면이 존재하는 지점이고, 입사광(121)과 반사광(122)의 사이각을 이등분하는 선이 반사면의 법선이 된다. 따라서, 상기 법선에 수직한 면이 반사면이 된다. 이러한 방법으로 감시 대상(5)의 외형의 기울기를 파악할 수 있다.The concrete slope of the external shape of the monitoring target 5 can be obtained as follows. According to the law of reflection, the angle of incidence and the angle of reflection are the same. The incident point and the reflection point are also the same. The point where the incident light 121 and the reflected light 122 respectively extend and meet is the point where the external shape of the monitored object 5, that is, the reflecting surface exists, and the angle between the incident light 121 and the reflected light 122 And the line bisecting the line bisects the normal of the reflection surface. Therefore, the plane perpendicular to the normal line becomes a reflection plane. In this way, the inclination of the external shape of the monitoring target 5 can be grasped.

그리고, 반사광(122)들이 기준 영역(111)에 입사하는 시간을 통해 감시 대상(5)을 이루는 외형의 요철의 정도를 파악할 수 있다. 도 6에 도시된 바와 같이, 제3 반사광(122c)은 제1 및 제2 반사광(122a, 122b)에 비해 먼저 기준 영역(111)을 통과한다. 따라서, 제3 반사광(122c)이 감시 대상(5)으로부터 반사되는 제3 반사면은 기준 영역(111)으로부터의 거리가 짧다. 즉, 제3 반사면은 감시 대상(5)에서 돌출된 부분이다. 반면에, 제2 반사광(122b)은 제1 및 제3 반사광(122a, 122c)에 비해 나중에 기준 영역(111)을 통과한다. 따라서, 제2 반사광(122b)이 감시 대상(5)으로부터 반사되는 제2 반사면은 기준 영역(111)으로부터의 거리가 길다. 즉, 제2 반사면은 감시 대상(5)에서 함몰된 부분이다.The degree of the unevenness of the contour forming the monitored object 5 can be grasped through the time when the reflected light 122 is incident on the reference region 111. As shown in FIG. 6, the third reflected light 122c passes through the reference region 111 first compared to the first and second reflected lights 122a and 122b. Therefore, the distance from the reference area 111 to the third reflection surface at which the third reflected light 122c is reflected from the monitored object 5 is short. That is, the third reflecting surface is a portion protruding from the monitoring target 5. On the other hand, the second reflected light 122b passes through the reference area 111 later than the first and third reflected light 122a and 122c. Therefore, the distance from the reference area 111 is long in the second reflection surface where the second reflected light 122b is reflected from the monitored object 5. [ In other words, the second reflecting surface is a depressed portion in the monitored object 5. [

기준 영역(111)으로부터 감시 대상(5)의 외형까지의 구체적인 거리는 다음과 같이 구할 수 있다. 레이저 광도 빛의 일종이므로, 레이저 광의 속력은 대략 30만 km/s 이다. 그런데, 입사광이 기준 영역(111)을 통과한 후로부터, 다시 기준 영역(111)으로 입사하기 전 까지 t 초의 시간이 소요된다. 이는 왕복 시간이므로, 기준 영역(111)으로부터 감시 대상(5)의 외형에 이르는 데 걸리는 시간은 대략 0.5t 초이다. 따라서, 기준 영역(111)으로부터 거리는 시간과 속력의 곱이므로, 30만 × 0.5t = 15만t km이다. 만약, 입사광과 반사광이 이루는 각도가 크다면, 소요 시간을 계산할 때 각도만큼의 보상을 해야 한다.The specific distance from the reference area 111 to the external shape of the monitored object 5 can be obtained as follows. Since the laser light is a kind of light, the speed of the laser light is about 300,000 km / s. However, it takes a time of t seconds from the time when the incident light passes through the reference region 111 to before the incident light enters again into the reference region 111. [ Since this is the round trip time, the time taken from the reference area 111 to the appearance of the monitored object 5 is approximately 0.5 t second. Therefore, the distance from the reference area 111 is a product of time and speed, and thus is 300,000 x 0.5t = 150,000 tkm. If the angle between the incident light and the reflected light is large, the angle must be compensated when calculating the time required.

상기의 방법과 같이, 감시 대상(5)을 이루는 외형이 향하는 방향, 외형의 요철의 정도를 파악하고 이들을 연결하면, 도 7에 도시된 바와 같이 감시 대상(5)의 외형이 드러난다. 본 명세서에서는 설명의 편의를 위해 발광부(12)에서 3개의 광이 조사되는 것으로 설명하였으나, 상기 기술한 바, 광의 개수가 많을수록, 감시 대상(5)을 더욱 세밀하게 모델링할 수 있다.As shown in Fig. 7, the external appearance of the monitoring target 5 is revealed by grasping the direction of the external shape forming the monitoring target 5 and the degree of the unevenness of the external shape and connecting them. In the present specification, three light beams are emitted from the light emitting unit 12 for the sake of convenience of description. However, as described above, the greater the number of light beams, the more precisely the monitoring target object 5 can be modeled.

촬상부(11)는 기준 영역(111)을 촬영하여 2차원 영상을 획득할 수 있으나, 제어부(13)는 더욱 세밀한 분석을 통해 감시 대상(5)을 3차원으로 모델링 할 수도 있다. 예를 들면, 반사광(122)이 기준 영역(111)의 상, 하 방향만이 아니라, 전, 후 방향으로도 입사할 수 있다. 그리고 반사광(122)이 기준 영역(111)에 입사하는 방향도, 2차원 영상에서 반사광(122)의 이동 속도 및 방향을 기초로 용이하게 파악할 수 있다. 그리고 이를 토대로 감시 대상(5)의 외형을 예측하여 3차원 모델링을 수행할 수 있다.The imaging unit 11 may capture the two-dimensional image by photographing the reference area 111. However, the control unit 13 may model the monitored object 5 in three dimensions through more detailed analysis. For example, the reflected light 122 can be incident not only in the upward and downward directions of the reference region 111 but also in the forward and backward directions. The direction in which the reflected light 122 is incident on the reference region 111 can also be easily grasped based on the moving speed and direction of the reflected light 122 in the two-dimensional image. Based on this, it is possible to predict the outline of the object to be monitored 5 to perform three-dimensional modeling.

만약, 감시 대상(5)이 이동한다면, 이동 방향 및 속도까지 알 수도 있다. 입사광(121)이 일정한 주기로 입사하는데 비해, 반사광(122)이 기준 영역(111)으로 입사하는 시간이 점점 늦어진다면, 감시 대상(5)은 점점 기준 영역(111)으로부터 멀어지는 운동을 한다. 이와 반대로, 입사광(121)이 일정한 주기로 입사하는데 비해, 반사광(122)이 기준 영역(111)으로 입사하는 시간이 점점 빨라진다면, 감시 대상(5)은 점점 기준 영역(111)으로 가까워지는 운동을 한다. 따라서 감시 대상(5)이 이동하는 방향을 알 수 있다. 그리고 이러한 시간의 변화율을 측정하면, 감시 대상(5)이 이동하는 속도까지 알 수 있다.If the monitored object 5 moves, the moving direction and speed may be known. The monitoring target 5 gradually moves away from the reference area 111 when the incident light 121 is incident at a constant period and the time when the reflected light 122 is incident on the reference area 111 is gradually delayed. On the other hand, if the incident light 121 is incident at a constant cycle, and the time for the reflected light 122 to enter the reference region 111 becomes faster, the monitoring target 5 gradually moves toward the reference region 111 do. Therefore, the direction in which the monitored object 5 moves can be known. By measuring the rate of change of the time, the speed at which the monitored object 5 moves can be known.

지금까지 사각지대(2)가 열린 공간으로 가정하고, 반사광을 입사광과 비교하였다. 그러나 만약, 사각지대(2)가 어느 정도 닫힌 공간이라면, 사각지대(2)에 감시 대상(5)이 존재하지 않더라도, 이미 사각 지대로부터 반사되는 반사광이 기준 영역(111)을 통과할 수 있다. 감시 장치(1)는 이러한 초기 반사광에 대한 정보를 저장부(15)에 미리 저장할 수 있다. 이후, 감시 대상(5)이 사각지대(2)에 출몰한 경우, 기준 영역(111)을 통과하는 반사광(122)의 특성이 변화한다. 제어부(13)는 감시 대상(5)을 모델링 하기 위해 상기 변화한 반사광(122)의 특성에 대한 정보를, 입사광(121)의 특성에 대한 정보와 비교 및 연산한다. 이 때, 저장부(15)에 미리 저장하였던 상기 초기 반사광에 대한 정보를 로딩하여, 반사광(122)의 변화를 판단하는데 반영한다. 사각지대(2)가 열린 공간인 경우와는 달리, 감시 대상(5)의 외형만이 반사광의 특성에 영향을 미치는 것이 아니기 때문이다. 초기 반사광에 대한 정보를 반영함으로써, 더욱 정밀하게 감시 대상(5)의 외형을 모델링 할 수 있다.The blind spot (2) is assumed to be an open space so far, and the reflected light is compared with the incident light. However, if the dead zone 2 is a somewhat closed space, the reflected light already reflected from the dead zone can pass through the reference zone 111, even if the monitored object 5 does not exist in the dead zone 2. [ The monitoring apparatus 1 may store the information on the initial reflected light in the storage unit 15 in advance. Thereafter, when the monitored object 5 appears and disappears in the dead zone 2, the characteristic of the reflected light 122 passing through the reference area 111 changes. The control unit 13 compares the information on the characteristic of the reflected light 122 with the information on the characteristics of the incident light 121 to model the monitored object 5. At this time, the information about the initial reflected light previously stored in the storage unit 15 is loaded, and the reflected light 122 is reflected on the change of the reflected light 122. This is because only the external shape of the monitoring target 5 does not affect the characteristics of the reflected light, unlike the case where the dead zone 2 is an open space. By reflecting the information on the initial reflected light, it is possible to model the contour of the monitored object 5 more accurately.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

1: 감시 장치 2: 사각지대
3: 반사물 4: 장애물
5: 감시 대상 11: 촬상부
12: 발광부 13: 제어부
121: 입사광 122: 반사광
123: 기준 영역
1: Monitoring device 2: Blind spot
3: Reflector 4: Obstacle
5: Monitored object 11:
12: light emitting portion 13:
121: incident light 122: reflected light
123: Reference area

Claims (6)

특정 영역을 촬영하여 영상을 획득하는 촬상부;
외부로 복수의 광을 조사하는 발광부; 및
상기 촬상부 및 상기 발광부의 동작을 제어하는 제어부를 포함하되,
상기 촬상부는,
상기 발광부가 조사한 상기 복수의 광이 감시 대상으로부터 반사되면, 상기 복수의 반사광을 촬영하여 영상을 획득하고,
상기 제어부는,
상기 획득된 영상을 분석하여, 상기 복수의 반사광의 특성을 토대로 상기 감시 대상의 외형을 모델링하는, 감시 장치.
An imaging unit for photographing a specific area to acquire an image;
A light emitting portion for emitting a plurality of lights to the outside; And
And a control unit for controlling operations of the image pickup unit and the light emitting unit,
Wherein,
When the plurality of lights irradiated by the light emitting section are reflected from the monitored object, the plurality of reflected lights are photographed to acquire an image,
Wherein,
And analyzes the acquired image to model the external shape of the monitored object based on the characteristics of the plurality of reflected lights.
제1항에 있어서,
상기 촬상부는,
임의로 설정된 기준 영역을 통과하는 상기 복수의 반사광을 촬영하는, 감시 장치.
The method according to claim 1,
Wherein,
And captures the plurality of reflected lights passing through the arbitrarily set reference area.
제2항에 있어서,
상기 제어부는,
상기 복수의 반사광이 기준 영역을 통과할 때의 특성들을 토대로 상기 감시 대상의 외형을 모델링하는, 감시 장치.
3. The method of claim 2,
Wherein,
And modeling the external shape of the object to be monitored based on the characteristics when the plurality of reflected light passes through the reference region.
제3항에 있어서,
상기 제어부는,
상기 복수의 반사광의 특성을 상기 감시 대상으로 입사하는 복수의 입사광의 특성과 비교하여 상기 감시 대상의 외형을 모델링하는, 감시 장치.
The method of claim 3,
Wherein,
And compares the characteristics of the plurality of reflected lights with characteristics of a plurality of incident lights incident on the monitored object to model the outline of the monitored object.
제2항에 있어서,
상기 복수의 반사광의 특성은,
상기 복수의 반사광의 진행 방향, 속도, 상기 기준 영역에 입사하는 시간을 포함하는, 감시 장치.
3. The method of claim 2,
The characteristics of the plurality of reflected lights are,
A traveling direction of the plurality of reflected lights, a velocity, and a time of incidence in the reference area.
제2항에 있어서,
상기 감시 대상이 존재하지 않을 때에도 상기 기준 영역을 통과하는 복수의 반사광들이 존재한다면,
상기 제어부는,
상기 복수의 반사광의 특성을,
상기 감시 대상의 외형을 모델링 하는데 반영하는, 감시 장치.
3. The method of claim 2,
When there are a plurality of reflected light passing through the reference area even when the monitored object does not exist,
Wherein,
The characteristics of the plurality of reflected lights,
And reflects the external shape of the object to be monitored for modeling.
KR1020160073129A 2016-06-13 2016-06-13 The Apparatus For Surveillancing KR102474706B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160073129A KR102474706B1 (en) 2016-06-13 2016-06-13 The Apparatus For Surveillancing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160073129A KR102474706B1 (en) 2016-06-13 2016-06-13 The Apparatus For Surveillancing

Publications (2)

Publication Number Publication Date
KR20170140610A true KR20170140610A (en) 2017-12-21
KR102474706B1 KR102474706B1 (en) 2022-12-05

Family

ID=60936287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160073129A KR102474706B1 (en) 2016-06-13 2016-06-13 The Apparatus For Surveillancing

Country Status (1)

Country Link
KR (1) KR102474706B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011091523A (en) * 2009-10-21 2011-05-06 Victor Co Of Japan Ltd Shape recognition method and shape recognition device
JP2014098603A (en) 2012-11-14 2014-05-29 Toshiba Corp Three-dimensional model generation device
KR20140067160A (en) * 2011-10-07 2014-06-03 플리어 시스템즈, 인크. Smart surveillance camera systems and methods
KR20150014290A (en) * 2013-07-29 2015-02-06 엘지전자 주식회사 Image display device and operation method of the image display device
KR101546697B1 (en) 2014-01-29 2015-08-25 국방과학연구소 An apparatus and method for building target identifying information database

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011091523A (en) * 2009-10-21 2011-05-06 Victor Co Of Japan Ltd Shape recognition method and shape recognition device
KR20140067160A (en) * 2011-10-07 2014-06-03 플리어 시스템즈, 인크. Smart surveillance camera systems and methods
JP2014098603A (en) 2012-11-14 2014-05-29 Toshiba Corp Three-dimensional model generation device
KR20150014290A (en) * 2013-07-29 2015-02-06 엘지전자 주식회사 Image display device and operation method of the image display device
KR101546697B1 (en) 2014-01-29 2015-08-25 국방과학연구소 An apparatus and method for building target identifying information database

Also Published As

Publication number Publication date
KR102474706B1 (en) 2022-12-05

Similar Documents

Publication Publication Date Title
TWI580273B (en) Surveillance system
KR101172747B1 (en) Camera tracking monitoring system and method using thermal image coordinates
TWI722353B (en) Method and device for laser ranging
TWI466545B (en) Image capturing device and image monitoring method using the image capturing device
KR101496390B1 (en) System for Vehicle Number Detection
KR20070106709A (en) Systems and methods for night time surveillance
US10298858B2 (en) Methods to combine radiation-based temperature sensor and inertial sensor and/or camera output in a handheld/mobile device
CN103929592A (en) All-dimensional intelligent monitoring equipment and method
KR100904254B1 (en) Non-intrusive iris image acquisition system and method thereof
US8306272B2 (en) Method and system for dynamically altering the analysis methodology of millimeter wave imagery in response to the range and direction of motion of a subject
JP2017208595A (en) Monitoring system
KR101834882B1 (en) Camara device to detect the object having a integral body with a optical video camera and a thermal camera
EP2926545A1 (en) Imaging system and process
KR102274270B1 (en) System for acquisiting iris image for enlarging iris acquisition range
KR20150107423A (en) Moving object tracting control system for pan-tilt camera
KR20170140610A (en) The Apparatus For Surveillancing
Kastek et al. Multisensor systems for security of critical infrastructures: concept, data fusion, and experimental results
EP3846461A1 (en) Real-time deviation in video monitoring
KR20110117858A (en) Robot controlling apparatus and method thereof
JP7086752B2 (en) Monitoring device
JP4954459B2 (en) Suspicious person detection device
KR102472366B1 (en) 360 degree surveillance camera
KR101623331B1 (en) Detection and close up shooting method using images of moving objects
Layton et al. 3D laser scanner and profiler for application to border security

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant