KR102361488B1 - Surround Internet Protocol Camera - Google Patents

Surround Internet Protocol Camera Download PDF

Info

Publication number
KR102361488B1
KR102361488B1 KR1020200121518A KR20200121518A KR102361488B1 KR 102361488 B1 KR102361488 B1 KR 102361488B1 KR 1020200121518 A KR1020200121518 A KR 1020200121518A KR 20200121518 A KR20200121518 A KR 20200121518A KR 102361488 B1 KR102361488 B1 KR 102361488B1
Authority
KR
South Korea
Prior art keywords
control unit
sub
fire
image
camera
Prior art date
Application number
KR1020200121518A
Other languages
Korean (ko)
Inventor
배동민
신종춘
Original Assignee
주식회사 디티앤바이오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디티앤바이오 filed Critical 주식회사 디티앤바이오
Priority to KR1020200121518A priority Critical patent/KR102361488B1/en
Application granted granted Critical
Publication of KR102361488B1 publication Critical patent/KR102361488B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H11/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • H04N5/2258

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Studio Devices (AREA)

Abstract

Provided is a surround IP camera, which includes: a photographing unit capable of omnidirectional video and omnidirectional infrared photographing; a control unit for tracking and observing a subject in an infrared image photographed through the photographing unit, but determining that a problem has occurred in the subject based on the body temperature distribution and body temperature change amount of a non-moving subject; and a communication unit transmitting the result determined by the control unit.

Description

서라운드 아이피 카메라{Surround Internet Protocol Camera}Surround IP Camera {Surround Internet Protocol Camera}

본 발명은 감시카메라 장치에 관한 것으로서, 더 상세하게는 서라운드 아이피 카메라에 관한 것이다.The present invention relates to a surveillance camera device, and more particularly, to a surround IP camera.

일반적으로 cctv 카메라(감시 카메라)는 특정 건축물 또는 특정 시설 등에서 유선 텔레비전을 이용하여 영상을 전달하는 장치로써 다양한 분야에서 폭넓게 사용된다.In general, a cctv camera (surveillance camera) is a device that transmits an image using a cable television in a specific building or a specific facility, and is widely used in various fields.

예를 들어, 사용자는 생산공장, 금융기관, 기차역 및 지하철, 제철소 선박 및 건축현장, 유통업체, 레저시설, 고속도로 및 시내교통망 등의 시설에 cctv 카메라를 설치하여 자체중앙통제실(또는 경비실)에서 소수 인원으로 광범위한 지역을 한 눈에 감시할 수 있다.For example, users install cctv cameras in facilities such as production plants, financial institutions, train stations and subways, steelworks ships and construction sites, distributors, leisure facilities, highways and city traffic networks, and use a small number in their central control room (or security room). The personnel can monitor a wide area at a glance.

또한 공정감독, 입출고, 통제, 가정자동사무화 등에서도 다양하게 운용할 수 있으며, 녹화가 가능하여 사후의 자료로도 활용될 수 있다.In addition, it can be operated in various ways in process supervision, warehousing, control, and automatic home office management, and it can be recorded and used as post-mortem data.

그리고 최소의 인원으로 최대의 감시효과를 볼 수 있으며, 범죄 행위 발견 시 즉시 퇴치가 가능하고 불필요한 지역에는 순찰이 필요 없으므로 근무자의 사기 향상은 물론 완전한 감시로 인해 신변을 안전하게 보호할 수 있다.In addition, the maximum monitoring effect can be achieved with the minimum number of people, and when a criminal activity is discovered, it can be immediately eliminated.

이러한 cctv 카메라의 일반적인 구성은 카메라의 몸체가 팬 헤드에 의해 회전가능하게 설치되고, 카메라에서 출력되는 비디오신호가 조정실의 팬 헤드 콘트롤러로 입력되도록 연결되고, 이러한 이 팬 헤드 콘트롤러에서는 팬헤드를 제어하도록 연결된다.The general configuration of such a cctv camera is that the body of the camera is rotatably installed by a pan head, and the video signal output from the camera is connected to be input to the pan head controller of the control room, and this pan head controller controls the pan head. connected

그러나 이와 같은 구성은 카메라의 렌즈를 통해 촬영되는 영상신호가 팬 헤드 컨트롤러로 입력되면 조정실의 사용자는 모니터를 통해 영상을 확인하게 된다. 따라서 사용자는 조정실에서는 수동으로 상기 팬 헤드를 조정하여 사프트를 통해 연결된 카메라가 상, 하, 좌, 우로 움직이게 하여 물체를 추적하면서 촬영을 하게 되었다. 이와 같은 종래의 장치의 경우, 사용자가 모니터를 확인하고 있을 때만 상황을 감지할 수 있고 사용자(관리자)가 부재 중 일 때는 능동적인 모니터링이 힘든 단점이 있다.However, in this configuration, when an image signal photographed through the lens of the camera is input to the pan head controller, the user in the control room checks the image through the monitor. Therefore, the user manually adjusts the pan head in the control room to move the camera connected through the shaft up, down, left, and right to take pictures while tracking the object. In the case of such a conventional device, the situation can be sensed only when the user is checking the monitor, and active monitoring is difficult when the user (administrator) is absent.

KRKR 10-2010-006189010-2010-0061890 AA

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 자동판단 할 수 있는 서라운드 아이피 카메라를 제공한다.The present invention has been proposed to solve the technical problem as described above, and it is possible to automatically determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the motionless object by tracking and observing the object in the infrared image. Surround IP camera is provided.

또한, 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 자동 판별할 수 있는 서라운드 아이피 카메라를 제공한다.In addition, there is provided a surround IP camera capable of dividing a photographed image into a plurality of sub-regions and independently and automatically determining the presence or absence of abnormalities in each sub-region.

상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 전방위 영상촬영 및 전방위 적외선촬영이 가능한 촬영부와, 촬영부를 통해 촬영된 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 판단하는 제어부와, 제어부를 통해 판단된 결과를 전송하기 위한 통신부를 포함하는 것을 특징으로 하는 서라운드 아이피 카메라가 제공된다.According to an embodiment of the present invention for solving the above problems, a photographing unit capable of omnidirectional imaging and omnidirectional infrared imaging, and tracking and observing an object in an infrared image captured through the photographing unit, but the body temperature distribution and A surround IP camera is provided, comprising: a control unit that determines that a problem has occurred in a subject based on an amount of body temperature change; and a communication unit that transmits a result determined by the control unit.

또한, 본 발명에 포함되는 제어부는 촬영부를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별함에 있어서, 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 화재종류를 선반영하여 위험요소를 예측하는 것을 특징으로 한다.In addition, the control unit included in the present invention divides the image photographed through the photographing unit into a plurality of sub-regions and independently determines the presence or absence of abnormalities in each sub-region. It is characterized by judging the type of fire through color and fire area, and predicting risk factors by pre-projecting the type of fire on a sub-area located in the direction of fire progress.

또한, 진동을 검출하기 위한 진동 검출부를 더 포함하며, 제어부는 진동 검출부를 통해 검출된 진동의 파형을 분석하여 진동 파형에 대응되는 위험요소를 예측하는 것을 특징으로 한다.In addition, it further includes a vibration detection unit for detecting the vibration, the control unit is characterized in that by analyzing the waveform of the vibration detected through the vibration detection unit predicts a risk factor corresponding to the vibration waveform.

또한, 본 발명의 다른 실시예에 따르면, 전방위 영상촬영 및 전방위 적외선촬영이 가능한 촬영부와, 촬영부를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별함에 있어서, 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 화재종류를 선반영하여 위험요소를 예측경보하는 제어부를 포함하는 것을 특징으로 하는 서라운드 아이피 카메라가 제공된다.In addition, according to another embodiment of the present invention, a photographing unit capable of omnidirectional imaging and omnidirectional infrared imaging, and an image captured through the photographing unit are divided into a plurality of sub-regions to independently determine the presence or absence of abnormalities in each sub-region. , a control unit that predicts and alerts risk factors by judging the fire type through the color of the flame and the fire area of the image taken in the sub-region determined as having an abnormality, and pre-projecting the fire type in the sub-region located in the direction of the fire There is provided a surround IP camera, characterized in that.

또한, 본 발명에 포함되는 제어부는 화재 감지시 발화점을 검출한 후 발화점으로부터 각각의 서브영역까지 화재가 도달하는 예상시간을 산출하는 것을 특징으로 한다.In addition, the control unit included in the present invention is characterized in that after detecting the ignition point when the fire is detected, the estimated time for the fire to arrive from the ignition point to each sub-region is calculated.

본 발명의 실시예에 따른 서라운드 아이피 카메라는 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 자동 판단할 수 있다.The surround IP camera according to an embodiment of the present invention tracks and observes an object in an infrared image, but can automatically determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the non-moving object.

또한, 서라운드 아이피 카메라는 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 자동 판별 할 수 있다.In addition, the surround IP camera can divide the captured image into a plurality of sub-regions and automatically determine whether there is an abnormality in each sub-region independently.

도 1은 본 발명의 실시에에 따른 서라운드 아이피 카메라(100)의 구성도
도 2는 서라운드 아이피 카메라(100)에서 촬영된 전방위 촬영영상의 예시도
도 3은 서라운드 아이피 카메라(100)에서 영상을 처리하는 과정을 나타낸 예시도
도 4는 서라운드 아이피 카메라(100)를 구비한 지능형 감시시스템(1)의 구성도
도 5는 지능형 감시시스템(1)에서 생성된 영상을 나타낸 예시도
1 is a block diagram of a surround IP camera 100 according to an embodiment of the present invention.
2 is an exemplary view of an omnidirectional photographed image taken by the surround IP camera 100
3 is an exemplary diagram illustrating a process of processing an image in the surround IP camera 100
4 is a block diagram of an intelligent monitoring system 1 having a surround IP camera 100
5 is an exemplary view showing an image generated by the intelligent monitoring system (1)

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough that a person of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention.

도 1은 본 발명의 실시에에 따른 서라운드 아이피 카메라(100)의 구성도이다.1 is a block diagram of a surround IP camera 100 according to an embodiment of the present invention.

본 실시예에 따른 서라운드 아이피 카메라(100)는 제안하고자 하는 기술적인 사상을 명확하게 설명하기 위한 간략한 구성만을 포함하고 있다.The surround IP camera 100 according to the present embodiment includes only a simple configuration for clearly explaining the technical idea to be proposed.

도 1을 참조하면, 서라운드 아이피 카메라(100)는 촬영부(110), 진동 검출부(120), 소리 인식부(130), LiDAR 센서(140) 및 제어부(190)를 포함하여 구성된다.Referring to FIG. 1 , the surround IP camera 100 includes a photographing unit 110 , a vibration detection unit 120 , a sound recognition unit 130 , a LiDAR sensor 140 , and a control unit 190 .

상기와 같이 구성되는 서라운드 아이피 카메라(100)의 주요동작을 살펴보면 다음과 같다.The main operations of the surround IP camera 100 configured as described above are as follows.

촬영부(110)는 전방위 영상촬영 및 전방위 적외선촬영이 가능하도록 구성된다. 즉, 촬영부(110)는 가시광선 영역을 촬영하는 카메라와, 적외선 영역을 촬영하는 열화상 카메라를 구비한다.The photographing unit 110 is configured to enable omnidirectional imaging and omnidirectional infrared imaging. That is, the photographing unit 110 includes a camera for photographing a visible ray region and a thermal imaging camera for photographing an infrared region.

기본적으로 촬영부(110)는 360도 방향을 촬영하기 위한 단일 렌즈 모듈을 포함한다.Basically, the photographing unit 110 includes a single lens module for photographing a 360-degree direction.

즉, 촬영부(110)는 입사되는 광(光)을 굴절시키는 것으로 하측으로 볼록한 광굴절면으로 이루어진 측면과, 광굴절면으로 입사된 광이 반사되는 광반사면으로 이루어진 상면과, 광반사면의 하부에 상기 광반사면에서 반사된 광이 아래로 출사되는 광출사면으로 이루어진 하면을 가진 반사굴절 렌즈를 포함하고 있다.That is, the photographing unit 110 refracts incident light, and has a side surface formed of a convex light refraction surface downward, an upper surface formed of a light reflection surface on which the light incident on the light refraction surface is reflected, and a lower portion of the light reflection surface. It includes a catadioptric lens having a lower surface made of a light exit surface through which light reflected from the light reflection surface is emitted downward.

또한, 촬영부(110)는 반사굴절 렌즈의 측면을 둘러싸서 수용하는 투명한 소재의 광투과부를 구비하는 반사굴절 렌즈 홀더(holder)와, 반사굴절 렌즈의 상면을 가리는 것으로, 반사굴절 렌즈 홀더에 체결되어 반사굴절 렌즈를 고정하는 커버와, 광출사면을 통해 아래로 출사되는 광(光)이 투과하는 적어도 하나의 광투과 렌즈와, 광 투과 렌즈를 투과한 광이 촬상되는 이미지 센서를 포함하고, 반사굴절 렌즈 홀더에 결합되는 경통 어셈블리(barrelassembly)를 구비하도록 제작될 수 있다.In addition, the photographing unit 110 includes a catadioptric lens holder having a light transmitting part of a transparent material to surround and accommodate the side surface of the catadioptric lens, and to cover the upper surface of the catadioptric lens, and is fastened to the catadioptric lens holder A cover for fixing the catadioptric lens, at least one light transmitting lens through which light emitted downward through the light exit surface is transmitted, and an image sensor for capturing the light transmitted through the light transmitting lens, It may be manufactured to have a barrel assembly coupled to a catadioptric lens holder.

제어부(190)는 촬영부(110)의 촬영영상을 영상처리하여 전방위 평면 이미지를 생성한다.The controller 190 generates an omnidirectional flat image by image processing the captured image of the photographing unit 110 .

제어부(190)는 전 방위 광학 렌즈를 이용하여 촬영된 원본 이미지를 획득하고, 우선적으로 불필요한 이미지 부분을 제거하여 원형 이미지를 획득할 수 있다. 원형 이미지는 평면 이미지를 생성하기 위한 부분 왜곡 해소 및 부분 이미지 처리를 위해 분할될 수 있다. 분할된 원형 이미지의 단위(원형 분할 단위 이미지)는 해상도, 원호, 픽셀, 이미지 왜곡 등을 고려하여 분할될 수 있다.The controller 190 may obtain an original image photographed using an omnidirectional optical lens, and may obtain a circular image by preferentially removing unnecessary image portions. The circular image may be divided for partial image processing and partial distortion reduction to generate a flat image. A unit of the divided circular image (a circular division unit image) may be divided in consideration of resolution, arc, pixel, image distortion, and the like.

서라운드 아이피 카메라(100)는 미리 설정된 촬영영역의 가시광선 영상, 열화상 영상 및 객체의 움직임 정보를 검출하도록 동작한다. 서라운드 아이피 카메라(100)는 객체의 움직임이 있는 경우에만 녹화, 저장되는 타입랩스(Time Lapse) 기능이 적용될 수 있다.The surround IP camera 100 operates to detect a visible ray image, a thermal image, and motion information of an object of a preset photographing area. The surround IP camera 100 may apply a Time Lapse function that is recorded and stored only when there is a movement of an object.

서라운드 아이피 카메라(100)는 촬영부(110), 라이더(LiDAR)/레이더(RADAR) 센서(140)를 구비하고 있으므로, 야간에도 촬영영역을 효과적으로 감시할 수 있다.Since the surround IP camera 100 includes a photographing unit 110 and a LiDAR/RADAR sensor 140, it is possible to effectively monitor a photographing area even at night.

즉, 촬영부(110)는 촬영영역의 열화상 영상을 촬영한다. 열화상 카메라는 비접촉 온도 측정 장비이다. 열화상 카메라는 절대0도(0°Kelvin) 이상의 온도에서 모든 물질에 의하여 방사, 전송 또는 반사되는 적외선 에너지를 감지하고 이러한 에너지 요인을 온도측정치 또는 온도기록으로 전환한다. 온도기록은 열화상 카메라가 표시하는 적외선 에너지를 방사, 전송 또는 반사하는 물체의 열 이미지로 출력한다.That is, the photographing unit 110 captures a thermal image of the photographing area. A thermal imaging camera is a non-contact temperature measurement device. A thermal imaging camera detects infrared energy radiated, transmitted or reflected by any material at temperatures above absolute zero (0°Kelvin) and converts this energy factor into a temperature measurement or thermogram. Thermography outputs the thermal image of an object that radiates, transmits, or reflects the infrared energy displayed by the thermal imaging camera.

열화상 카메라는 초광대역/저전력의 매우 좁은 펄스를 송신하고 정밀한 해상도로 수신 펄스 신호를 복원하기 위한 임펄스 레이더용 RF 송수신 칩셋과 수신된 레이더 신호로부터 클러터 제거, 움직이는 물체에 대한 특징 수집(속도), 자세 추정(걸음걸이) 그리고 정지한 물체의 특성(호흡) 등을 추정할 수 있는 레이더 신호처리 알고리즘을 적용하여 활용할 수도 있다.The thermal imaging camera transmits ultra-wide/low-power very narrow pulses and restores the received pulse signal with precise resolution. The RF transceiver chipset for impulse radar, removes clutter from the received radar signal, and collects features for moving objects (velocity) , posture estimation (gait), and the characteristics of a stationary object (respiration) can be used by applying a radar signal processing algorithm.

또한, 라이더(LiDAR)/레이더(RADAR) 센서(140)는 레이저를 목표물에 비춤으로써 사물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있는 장치이다.In addition, the lidar (LiDAR)/radar (RADAR) sensor 140 is a device capable of detecting a distance to an object, a direction, a speed, a temperature, a material distribution and concentration characteristics, etc. by shining a laser on the target.

라이다 센서의 구성은 레이저 송신부, 레이저 검출부, 신호 수집 및 처리와 데이터를 송수신하기 위한 부분으로 구분될 수 있다. 아울러 라이다 센서는 레이저 신호의 변조 방법에 따라 time-of-flight(TOF) 방식과 phase-shift 방식으로 구분될 수 있다. The configuration of the lidar sensor may be divided into a laser transmitter, a laser detector, a signal collection and processing part, and a part for transmitting and receiving data. In addition, the lidar sensor may be divided into a time-of-flight (TOF) method and a phase-shift method according to a modulation method of a laser signal.

TOF 방식은 레이저가 펄스 신호를 방출하여 측정 범위 내에 있는 물체들로부터의 반사 펄스 신호들이 수신기에 도착하는 시간을 측정함으로써 거리를 측정하는 것이 가능하다. Phase-shift 방식은 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고 측정 범위 내에 있는 물체로부터 반사되어 되돌아오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다.In the TOF method, it is possible to measure the distance by measuring the time that the laser emits a pulse signal and the reflected pulse signals from objects within the measurement range arrive at the receiver. The phase-shift method is a method of calculating the time and distance by emitting a laser beam that is continuously modulated with a specific frequency and measuring the amount of phase change of a signal reflected from an object within the measurement range.

레이저 광원은 250nm부터 11μm까지의 파장 영역에서 특정 파장을 가지거나 파장 가변이 가능한 레이저 광원들이 사용되며, 최근에는 소형, 저전력이 가능한 반도체 레이저 다이오드가 많이 사용된다. 특히, 레이저의 파장은 대기, 구름, 비 등에 대한 투과성과 eye-safety 에 직접적인 영향을 준다. 기본적으로 레이저 출력, 파장, 스펙트럼 특성, 펄스 폭 및 모양 등과 함께 수신기의 수신감도 및 다이내믹 레인지, 그리고 광학필터 및 렌즈의 특성이 라이다의 성능을 결정하는 주요 요인이다. 이와 함께 수신기의 측정 각도를 나타내는 Field Of View(FOV), 측정 범위를 선택하기 위한 field stop, 레이저빔과 수신기의 FOV overlap 특성 등도 중요한 항목이다. 광속에 대하여 단위 데이터 수집을 위한 최소 시간은 거리 분해능(range resolution)을 결정하는 요인이며, 따라서 1m 이하의 거리 분해능을 위해서는 수 ns 이내의 데이터 수집 및 처리가 요구된다.As the laser light source, laser light sources having a specific wavelength or having a wavelength tunable in a wavelength range from 250 nm to 11 μm are used, and recently, a semiconductor laser diode capable of small size and low power is widely used. In particular, the wavelength of the laser directly affects the transmittance to the atmosphere, clouds, rain, etc. and eye-safety. Basically, laser power, wavelength, spectral characteristics, pulse width and shape, receiver sensitivity and dynamic range, and optical filter and lens characteristics are the main factors that determine the performance of LiDAR. In addition, Field Of View (FOV) indicating the measurement angle of the receiver, field stop to select the measurement range, and the FOV overlap characteristics of the laser beam and the receiver are also important items. The minimum time for unit data collection with respect to the speed of light is a factor that determines the range resolution, and therefore data collection and processing within a few ns is required for a distance resolution of 1 m or less.

따라서 제어부(190)는 라이더(LiDAR)/레이더(RADAR) 센서(140)의 촬영정보를 바탕으로 객체를 식별할 수 있다. 즉, 제어부(190)는 감지된 객체가 사람, 동물, 사물 인지를 라이더(LiDAR)/레이더(RADAR) 센서(140)의 정보를 바탕으로 식별할 수 있다.Accordingly, the controller 190 may identify the object based on the photographing information of the LiDAR/RADAR sensor 140 . That is, the controller 190 may identify whether the sensed object recognizes a person, an animal, or an object based on the information of the LiDAR/RADAR sensor 140 .

도 2는 서라운드 아이피 카메라(100)에서 촬영된 전방위 촬영영상의 예시도이다.2 is an exemplary view of an omnidirectional photographed image taken by the surround IP camera 100 .

도 2의 좌측영상은 전방위렌즈를 사용한 영상이며 이러한 전방위렌즈에 의한 영상은 중심영역에 사각지역이 발생할 수 있다.The left image of FIG. 2 is an image using an omnidirectional lens, and the image by the omnidirectional lens may cause a blind spot in the central region.

그러나 도 2의 우측영상과 같이 본원발명의 촬영부(110)는 어안렌즈를 적용하여 사각지역을 최소화 시킬 수 있으며, 5Mega(QHD)까지 지원하는 렌즈를 적용하고 3Mega급 이미지센서(Image Sensor)를 적용하여 고해상도의 360도 영상을 확보할 수 있도록 구성될 수도 있다.However, as shown in the right image of FIG. 2 , the photographing unit 110 of the present invention can minimize the blind area by applying a fisheye lens, apply a lens supporting up to 5Mega (QHD), and use a 3Mega-class image sensor. It may be configured to secure a high-resolution 360-degree image by applying it.

도 3은 서라운드 아이피 카메라(100)에서 영상을 처리하는 과정을 나타낸 예시도이다.3 is an exemplary diagram illustrating a process of processing an image in the surround IP camera 100 .

도 3을 참조하면, 서라운드 아이피 카메라(100)의 제어부(190)는 촬영부(110)를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별할 수 있다.Referring to FIG. 3 , the controller 190 of the surround IP camera 100 may divide an image captured by the photographing unit 110 into a plurality of sub-regions to independently determine whether each sub-region is abnormal.

제어부(190)는 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 화재종류를 선반영하여 위험요소를 예측 경보할 수 있다.The control unit 190 determines the fire type through the color of the flame and the fire area of the image taken in the sub-region determined as having an abnormality, and predicts and alerts the fire type by pre-projecting the fire type in the sub-region located in the direction of the fire. can

이때, 제어부(190)는 화재 감지시 발화점을 검출한 후 발화점으로부터 각각의 서브영역까지 화재가 도달하는 예상시간을 산출할 수 있다. 따라서 도 3에 도시된 바와 같이, 가연성물질 보관함이 객체 인식된 서브영역에 화재전파가 이루어질 것으로 예상되는 경우, 해당 서브영역까지 화재가 도달하는 예상시간을 산출하여 알려줌으로써 빠른 대처가 가능케 한다.In this case, the control unit 190 may calculate an estimated time for the fire to arrive from the ignition point to each sub-region after detecting the ignition point when the fire is detected. Therefore, as shown in FIG. 3 , when the fire propagation is expected to occur in the sub-region where the combustible material storage box is recognized as an object, it calculates and informs the estimated time for the fire to reach the sub-region, thereby enabling a quick response.

특히, 제어부(190)는 발화점을 감지할 경우, 각 방향별 화재전파속도를 산출할 수 있다. 즉, 도 3에 도시된 와 같이 우측방향의 화재전파속도(V1)가 가장 빠르고, 다음으로 상부방향의 화재전파속도(V2)가 빠르고, 다음으로 하부방향의 화재전파속도(V3)가 빠르고, 마지막으로 좌측방향의 화재전파속도(V4)가 가장 느리게 검출되었다고 가정한다.In particular, when detecting the ignition point, the control unit 190 may calculate the fire propagation speed for each direction. That is, as shown in Figure 3, the fire propagation speed in the right direction (V1) is the fastest, then the fire propagation speed in the upper direction (V2) is fast, and then the fire propagation speed in the lower direction (V3) is fast, Finally, it is assumed that the fire propagation speed (V4) in the left direction is detected the slowest.

이때, 제어부(190)는 우측방향의 화재전파속도(V1)를 고려하여 가장 빠르게 화재가 전파되고 있는 방향의 서브영역의 영상처리 주기를 상대적으로 더욱 빠르게 처리하도록 동작한다.In this case, the control unit 190 operates to relatively more rapidly process the image processing cycle of the sub-region in the direction in which the fire is propagating the fastest in consideration of the fire propagation speed V1 in the right direction.

즉, 제어부(190)는 촬영부(110)를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별할 때, 각 서브영역의 객체인식 및 상황인식 처리를 순차적으로 진행한다.That is, the controller 190 divides the image captured by the photographing unit 110 into a plurality of sub-regions and independently determines whether there is an abnormality in each sub-region, and sequentially performs object recognition and situation recognition processing of each sub-region. proceed to

따라서 화재전파속도가 느린 서브영역의 처리주기는 길어지고(화재전파속도가 느려질수록 처리주기가 길어짐), 화재전파속도가 빠른 서브영역의 처리주기는 짧아진다.(화재전파속도가 빨라질수록 처리주기가 짧아짐)Therefore, the treatment cycle of the sub-area with a slow fire propagation speed becomes longer (the treatment cycle becomes longer as the fire propagation speed slows down), and the treatment cycle of the sub-area with a high fire spread speed becomes shorter (the faster the fire propagation speed, the shorter the treatment cycle). is shortened)

이와 같이 각 서브영역의 객체인식을 독립적으로 진행하고, 상황인식을 통해 우선순위가 높게 선정된 서브영역의 처리주기를 짧게함으로서 상황의 변화를 더욱 빠르고 정확하게 감지할 수 있는 장점이 있다.In this way, object recognition of each sub-region is performed independently and the processing cycle of the sub-region selected with high priority through context recognition is shortened, thereby enabling faster and more accurate detection of changes in the situation.

즉, 제어부(190)는 복수의 서브영역을 시분할하여 순차적으로 영상 처리함에 있어서 기본적으로는 미리 설정된 순서대로 각 서브영역을 영상처리 하다가, 미리 설정된 상황 또는 화재 등과 같이 비상상황이 자동 감지될 경우, 위험이 도달하는 속도, 방향, 객체인식(가연성물질) 여부를 모두 고려하여 각 서브영역의 영상처리 주기를 개별적으로 조절할 수 있다.That is, when the control unit 190 time-divisions a plurality of sub-regions and sequentially processes the images, basically, each sub-region is image-processed in a preset order, and when an emergency situation such as a preset situation or a fire is automatically detected, The image processing cycle of each sub-region can be individually adjusted in consideration of the speed at which danger arrives, direction, and object recognition (combustible material).

또한, 제어부(190)는 촬영부(110)를 통해 촬영된 적외선 영상에서 대상을 추적 관찰하는데, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 판단할 수 있다. 따라서 어린이, 독거노인 등과 같은 노약자의 신체적 위험상황을 선제적으로 감지할 수 있다.In addition, the controller 190 tracks and observes the object in the infrared image captured by the photographing unit 110 , and may determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the motionless object. Therefore, it is possible to preemptively detect the physical danger situation of the elderly, such as children and the elderly living alone.

참고적으로, 제어부(190)는 영상저장용 메모리, 통신모듈 및 배터리 모듈이 일체형으로 포함되어 있으므로, 별도의 통신모듈이 구비되지 않더라도 내장된 통신모듈을 이용하여 데이터를 송수신할 수 있다. 이때, 별도의 외부 통신모듈이 구비될 경우 제어부(190)는 내장된 통신모듈 또는 외부 통신모듈을 선택적으로 이용하여 데이터를 송수신할 수 있도록 데이터를 처리한다.For reference, since the control unit 190 includes an image storage memory, a communication module, and a battery module as an integrated body, even if a separate communication module is not provided, data can be transmitted/received using the built-in communication module. At this time, when a separate external communication module is provided, the control unit 190 processes data so as to transmit and receive data by selectively using a built-in communication module or an external communication module.

진동 검출부(120)는 촬영부(110)가 감시하는 영역의 진동패턴을 감지한다. 즉, 제어부(190)는 진동 검출부(120)를 통해 검출된 진동의 파형을 분석하여 진동 파형에 대응되는 위험요소를 예측할 수 있다. 예를 들면 사람의 낙상소리, 사람의 신음소리, 고함소리, 특정 언어, 폭발소리 등의 진동 파형을 감지하여 위험요소를 예측할 수 있다.The vibration detection unit 120 detects a vibration pattern of the area monitored by the photographing unit 110 . That is, the controller 190 may analyze the waveform of the vibration detected by the vibration detection unit 120 to predict a risk factor corresponding to the vibration waveform. For example, it is possible to predict risk factors by detecting vibration waveforms such as a human falling sound, a human moaning sound, a shouting sound, a specific language, or an explosion sound.

소리 인식부(130)는 촬영부(110)가 감시하는 영역에서 소리를 감지한다. 즉, 제어부(190)는 소리 인식부(130)를 통해 감지된 소리의 패턴을 분석하여 소리 패턴에 대응되는 위험요소를 예측할 수 있다. 예를 들면 사람의 신음소리, 고함소리, 특정 언어, 폭발소리 등의 소리의 패턴을 감지하여 위험요소를 예측할 수 있다. 참고적으로, 제어부(190)는 진동 검출부(120) 및 소리 인식부(130)의 감지 데이터를 모두 반영하여 진동의 파형 및 소리의 패턴을 검출할 수도 있다.The sound recognition unit 130 detects a sound in the area monitored by the photographing unit 110 . That is, the control unit 190 may analyze the sound pattern sensed through the sound recognition unit 130 to predict a risk factor corresponding to the sound pattern. For example, it is possible to predict risk factors by detecting sound patterns such as a person's moaning sound, shouting sound, specific language, or explosion sound. For reference, the control unit 190 may detect a waveform of vibration and a pattern of sound by reflecting both the detection data of the vibration detection unit 120 and the sound recognition unit 130 .

또한, 소리 인식부(130)는 복수의 지향성 마이크로 구성되어 각 방향에서 감지되는 소리를 인식한다. 예를 들어 4개의 마이크가 동일한 위치에 배치될 경우 각 마이크 사이에는 격벽이 설치되어 소리의 진원지를 파악하는데 보조적인 도움을 줄 수 있다. 따라서 제어부(190)는 소리 인식부(130)에서 수집된 소리에서 특정 음성패턴이 검출될 때, 촬영부(110)가 소리가 수집된 방향을 확대해서 촬영하도록 제어할 수 있다.In addition, the sound recognition unit 130 is configured with a plurality of directional microphones to recognize sounds sensed in each direction. For example, when four microphones are arranged at the same location, a partition wall is installed between each microphone, which can assist in identifying the source of sound. Accordingly, when a specific voice pattern is detected from the sound collected by the sound recognition unit 130 , the control unit 190 may control the photographing unit 110 to enlarge and photograph the direction in which the sound is collected.

또한, 제어부(190)는 가정에서 가스가 누출되는 소리, 물건 떨어지는 소리, 특정 장소(목욕탕)에서 사람이 넘어지는 소리를 감지하여, 촬영부(110)가 소리가 수집된 방향을 확대해서 촬영하도록 제어하면서 경고음을 출력하도록 제어할 수 있다.In addition, the control unit 190 detects the sound of gas leaking at home, the sound of falling objects, and the sound of a person falling in a specific place (bathroom), so that the photographing unit 110 enlarges the direction in which the sound is collected and shoots it. It can be controlled to output a warning sound while controlling.

도 4는 서라운드 아이피 카메라(100)를 구비한 지능형 감시시스템(1)의 구성도이다.4 is a block diagram of an intelligent monitoring system 1 having a surround IP camera 100 .

도 4를 참조하면, 지능형 감시시스템(1)은 서라운드 아이피 카메라(100), 데이터 서버(300), 사용자 단말기(400)를 포함하여 구성된다.Referring to FIG. 4 , the intelligent monitoring system 1 includes a surround IP camera 100 , a data server 300 , and a user terminal 400 .

서라운드 아이피 카메라(100)의 동작은 도 1 내지 도 3을 통해 상세히 설명하였으므로 중복된 설명은 생략한다.Since the operation of the surround IP camera 100 has been described in detail with reference to FIGS. 1 to 3 , a redundant description will be omitted.

데이터 서버(300)는 제어부(190)에서 송신하는 정보를 수신하여 미리 등록된 적어도 하나 이상의 사용자 단말기(400)로 영상 및 감지정보를 제공한다. 데이터 서버(300)는 미리 등록된 이벤트가 발생할 때마다 해당 영상 및 정보를 미리 등록된 사용자 단말기(400)로 자동 전송한다.The data server 300 receives information transmitted from the control unit 190 and provides images and detection information to at least one or more user terminals 400 registered in advance. The data server 300 automatically transmits the corresponding image and information to the pre-registered user terminal 400 whenever a pre-registered event occurs.

여기에서 사용자 단말기(400)는 휴대폰, 스마트폰, 스마트 패드 등과 같이 사용자가 휴대하면서 사용할 수 있는 기기를 총칭하는 것이며, 본 실시예에서는 스마트폰으로 구성된 단말기로 가정하고 설명하기로 한다.Here, the user terminal 400 is a generic term for devices that a user can carry and use, such as a mobile phone, a smart phone, a smart pad, and the like.

도 5는 지능형 감시시스템(1)에서 생성된 영상을 나타낸 예시도이다.5 is an exemplary view showing an image generated by the intelligent monitoring system (1).

도 5를 참조하면, 제어부(190)는 촬영영역에서 객체가 검출되는 영역을 시선집중구역으로 설정(붉은색 점선)하는데, 검출된 객체의 위험상황이 검출되면 시선집중구역의 면적을 자동조절한다.Referring to FIG. 5 , the controller 190 sets the area in which the object is detected in the photographing area as the gaze concentration zone (red dotted line), and when a dangerous situation of the detected object is detected, the area of the gaze concentration zone is automatically adjusted. .

예를 들어, 제어부(190)는 미리 설정된 객체(아기, 노인)가 검출되는 시점부터 소정의 크기로 시선집중구역을 설정하여 표시하는데, 객체(아기)가 뜨거운 물체(전기 주전자)방향으로 이동할 경우, 시선집중구역을 축소하면서 “아기, 뜨거움, 위험물 문구”를 붉은색으로 강조하여 표시한다. 이때, 아기 및 위험한 상황과 관련 없이 표시되는 정보는 시선집중구역 밖으로 자동이동시킨다. 이러한 정보는 제어부(190)에 표시장치가 내장되어 있을 경우, 내장된 표시장치에 표시되며, 데이터 서버(300) 및 사용자 단말기(400)의 표시장치에 표시될 수 있을 것이다.For example, the control unit 190 sets and displays a gaze concentration zone with a predetermined size from the time when a preset object (baby, elderly) is detected, and when the object (baby) moves in the direction of a hot object (electric kettle) , while reducing the focus area, highlight “Baby, Hot, Dangerous Goods Phrases” in red. At this time, the information displayed regardless of the baby and dangerous situations is automatically moved out of the gaze concentration area. When the control unit 190 has a built-in display device, such information is displayed on the built-in display device, and may be displayed on the display devices of the data server 300 and the user terminal 400 .

이때, 객체(아기) 및 전기 포트의 온도 및 형체는 서라운드 아이피 카메라(100)의 촬영부(110), 진동 검출부(120), 소리 인식부(130), 라이더(LiDAR)/레이더(RADAR) 센서(140)의 정보를 모두 취합하여 식별될 수 있을 것이다.At this time, the temperature and shape of the object (baby) and the electric port are the capturing unit 110, the vibration detecting unit 120, the sound recognition unit 130, and the LiDAR/RADAR sensor of the surround IP camera 100. It may be identified by collecting all the information of (140).

또한, 제어부(190)는 촬영영역에서 소정의 온도변화가 있는 영역을 시선집중구역으로 설정(붉은색 점선)할 수 있다. 이때, 제어부(190)는 온도변화에 비례하여 시선집중구역의 면적을 자동조절할 수 있다. 예를 들어, 소정의 온도이상이 감지되면 시선집중구역이 설정되고 화재가 발생할 정도의 온도에 도달하면 해당 구역에 시선집중구역을 집중시키고 “화재주의“라는 문구를 추가로 표시하고 온도를 붉은색으로 강조하여 표시할 수 있다.Also, the controller 190 may set an area having a predetermined temperature change in the photographing area as the gaze concentration area (red dotted line). In this case, the controller 190 may automatically adjust the area of the gaze concentration zone in proportion to the temperature change. For example, when a certain temperature abnormality is detected, a gaze concentration zone is set, and when the temperature reaches the level to cause a fire, the gaze concentration zone is concentrated in the corresponding zone, the phrase “fire caution” is additionally displayed, and the temperature is displayed in red. can be highlighted with

데이터 서버(300)는 수신받은 영상 중에서 영상의 변화가 없는 부분을 피드백하고, 제어부(190)는 영상의 변화가 없는 부분은 자동 제거함으로써 저장 용량을 감소시킬 수 있다. 또한, 데이터 서버(300)는 영상을 복수의 영역(서브영역)으로 구분한 후, 객체의 움직임 속도를 고려하여 각 영역별 저장 영상 프레임을 가변시킬 수는 정보를 피드백할 수 있다.The data server 300 may feed back a portion of the received image in which there is no change in the image, and the controller 190 may reduce the storage capacity by automatically removing the portion in which the image does not change. Also, after dividing the image into a plurality of regions (sub regions), the data server 300 may feed back information indicating that the stored image frame for each region can be varied in consideration of the movement speed of the object.

참고적으로, 지능형 감시시스템(1)은 서라운드 아이피 카메라(100)에서 촬영된 가시영상을 토대로 인식된 객체(사람)의 안면 이미지까지 촬영할 수 있다.For reference, the intelligent monitoring system 1 may capture a facial image of an object (person) recognized based on the visible image captured by the surround IP camera 100 .

제어부(190)는 촬영된 안면 이미지의 색상변화를 통해 안면동맥의 박동성 혈액의 흐름을 측정하여 심장 박동수를 산출한다. 즉, 촬영한 안면 이미지 중 관심영역을 선택한 후 RGB(Red Green Blue) 채널로 분리하고, RGB 채널 중 각 채널에 비선형 스케일 팩터(Scale Factor)를 부여하여 신호대 잡음비(SNR)를 조절하고, 비선형 스케일 팩터(Scale Factor)가 부여된 신호를 토대로 심장 박동수를 산출한다.The controller 190 calculates the heart rate by measuring the flow of pulsatile blood in the facial artery through the color change of the photographed facial image. That is, after selecting a region of interest among the photographed facial images, it is divided into RGB (Red Green Blue) channels, and a nonlinear scale factor is given to each of the RGB channels to adjust the signal-to-noise ratio (SNR), and the non-linear scale A heart rate is calculated based on a signal to which a scale factor is assigned.

즉, 제어부(190)는 객체(사람)의 안면 이미지를 추출하고 안면 이미지 중 관심영역을 선택한 후 RGB(Red Green Blue) 채널로 분리하고, RGB 채널 중 각 채널에 비선형 스케일 팩터(Scale Factor)를 부여하여 신호대 잡음비(SNR)를 조절하고, 비선형 스케일 팩터(Scale Factor)가 부여된 신호를 토대로 심장 박동수를 산출할 수 있다.That is, the controller 190 extracts a facial image of an object (person), selects a region of interest from among the facial images, separates them into RGB (Red Green Blue) channels, and applies a nonlinear scale factor to each of the RGB channels. to adjust a signal-to-noise ratio (SNR), and calculate a heart rate based on a signal to which a non-linear scale factor is assigned.

또한, 제어부(190)는 비선형 스케일 팩터(Scale Factor)가 부여된 신호를 주파수 영역으로 변환한 후, 심장 박동수에 해당하는 주파수 도메인 중 가장 큰 파워 스펙트럼 주파수 값을 토대로 호흡수를 산출할 수 있다.In addition, after converting the signal to which the non-linear scale factor is applied to the frequency domain, the controller 190 may calculate the respiration rate based on the largest power spectrum frequency value among the frequency domains corresponding to the heart rate.

즉, 제어부(190)는 산출된 심장 박동수 및 호흡수를 토대로 객체(사람)의 수면상태, 사망상태, 혼수상태 가능성을 판단할 수 있고, 산출된 심장 박동수 및 호흡수를 토대로 호흡곤란 또는 심장마비까지도 판단할 수 있다.That is, the controller 190 may determine the sleep state, death state, and coma possibility of the object (person) based on the calculated heart rate and respiration rate, and difficulty breathing or heart attack based on the calculated heart rate and respiration rate can even be judged.

또한, 제어부(190)는 복수의 객체의 감지된 속도 및 형태를 바탕으로 각 객체와의 상관관계를 파악한 후 경고할 수 있다. 예를 들어, 어린이(객체1)와 오토바이(객체2)가 동시에 감지될 경우, 제어부(190)는 오토바이가 소정의 속도 이상으로 어린이가 있는 방향으로 이동할 때 경고할 수 있다.Also, the controller 190 may warn after recognizing a correlation with each object based on the detected speed and shape of the plurality of objects. For example, when a child (object 1) and a motorcycle (object 2) are detected at the same time, the controller 190 may warn when the motorcycle moves in the direction of the child at a predetermined speed or more.

또한, 서라운드 아이피 카메라(100)는 칩 내부에서 발생하는 랜덤 노이즈(random noise)를 억제하여 수신하기 위해, 동일 레인지(송신 클록과 수신 샘플링 클록 간 동일한 시간 간격)에서 반복 수신 후 다음 레인지 수신으로 변경하도록 동작할 수 있다.In addition, the surround IP camera 100 receives repeated reception in the same range (the same time interval between the transmission clock and the reception sampling clock) in order to suppress and receive random noise generated inside the chip, and then changes to reception in the next range. can operate to do so.

또한, 제어부(190)는 미리 설정된 촬영영역을 복수의 서브영역으로 분할한 후, 각 영역별 감지시간, 감지객체, 감지 이벤트를 독립적으로 미리 설정할 수 있다.In addition, after dividing the preset photographing area into a plurality of sub-regions, the controller 190 may independently preset a detection time, a detection object, and a detection event for each area.

또한, 제어부(190)에서 송신된 영상을 수신한 데이터 서버(300)는 자체적으로 객체인식동작을 진행할 수 있다. 즉, 데이터 서버(300)는 인식된 객체정보를 제어부(190)로 피드백 하는데, 각각의 객체정보는 객체 종류별로 미리 할당된 식별코드 및 각 객체의 중심영역에 대한 시간별 위치정보를 포함한다. In addition, the data server 300 receiving the image transmitted from the controller 190 may perform an object recognition operation by itself. That is, the data server 300 feeds back the recognized object information to the control unit 190, and each object information includes an identification code allocated in advance for each object type and location information for each time of the central region of each object.

예를 들면, 노인이라는 객체가 인식될 경우, 노인에 미리 할당된 식별코드와, 노인의 중심영역의 위치(좌표)에 대한 시간별 위치정보가 전송된다.For example, when an object called an elderly person is recognized, an identification code pre-allocated to the elderly and location information for each time on the location (coordinate) of the central area of the elderly are transmitted.

참고적으로, 식별코드는 객체코드 및 부가코드를 포함하는데, 객체코드는 노인이라는 형상에 부여된 코드이고, 부가코드는 노인의 이름 등과 같은 부가 데이터 정보를 코드화한 것으로 정의된다.For reference, the identification code includes an object code and an additional code. The object code is a code assigned to the shape of an elderly person, and the additional code is defined as encoding additional data information such as the elderly person's name.

따라서 제어부(190) 입장에서는 이미지 프로세싱작업을 직접 처리하지 않고도 데이터 서버(300)로부터 전송되는 객체정보를 수신하여, 노인이라는 객체의 인식된 이름(사람의 이름을 식별)과, 그 이동위치를 파악할 수 있다. 데이터 서버(300)는 제어부(190)의 요청에 의해 복수의 객체를 동시에 인식하고, 각각의 위치를 실시간 추적 가능하다.Therefore, the controller 190 receives the object information transmitted from the data server 300 without directly processing the image processing task, and grasps the recognized name (identification of the person's name) and the movement location of the object called the elderly. can The data server 300 simultaneously recognizes a plurality of objects at the request of the controller 190 and can track their respective locations in real time.

또한, 지능형 감시시스템(1)은 객체로써 노인이 검출될 경우, 노약자 보호모드가 실행된다.In addition, when the intelligent monitoring system 1 detects an elderly person as an object, the elderly protection mode is executed.

노약자 보호모드에서는 노인이 쇼파에 앉아 있고, 노인의 얼굴이 비추는 거울이 있는 상태에서 서라운드 아이피 카메라(100)가 거울만을 통해 노인의 얼굴을 감지할 수 있는 경우, In the elderly protection mode, when an elderly person is sitting on a sofa and there is a mirror reflecting the elderly person's face, the surround IP camera 100 can detect the elderly person's face only through the mirror,

서라운드 아이피 카메라(100)는 거울에 비춰지는 얼굴을 영상감지할 수 있다. 따라서 서라운드 아이피 카메라(100)는 거울에 비춰지는 얼굴을 객체인식한 후, 노인의 심장 박동수 및 호흡수를 파악할 수도 있다. The surround IP camera 100 may detect an image of a face reflected in a mirror. Therefore, the surround IP camera 100 may recognize the heart rate and respiration rate of the elderly person after object recognition of the face reflected in the mirror.

참고적으로, 노인이 객체인식 되어 노약자 보호모드가 실행될 경우, 추가적으로 구비된 모션감지센서에서 객체가 인식된 방향으로 주기적으로 소정의 파장의 전파를 송신 및 수신하여 객체의 움직임을 보다 정확하게 파악할 수 있다.For reference, when an elderly person is recognized as an object and the elderly protection mode is executed, an additionally provided motion sensor periodically transmits and receives a radio wave of a predetermined wavelength in the direction in which the object is recognized, so that the movement of the object can be more accurately identified. .

즉, 노인이 쇼파 뒷부분에서 쓰러질 경우, 쇼파에 의해서 영상에서 벗어날 수 있으므로, 이를 보완하기 위해 모션감지센서가 추가적으로 사용되는 것이다.That is, when an elderly person collapses on the back of the sofa, he may be out of the image by the sofa, so a motion sensor is additionally used to compensate for this.

본 발명의 실시예에 따른 서라운드 아이피 카메라는 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 자동 판단할 수 있다.The surround IP camera according to an embodiment of the present invention tracks and observes an object in an infrared image, but can automatically determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the non-moving object.

또한, 서라운드 아이피 카메라는 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 자동 판별 할 수 있다.In addition, the surround IP camera can divide the captured image into a plurality of sub-regions and automatically determine whether there is an abnormality in each sub-region independently.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100 : 서라운드 아이피 카메라
110 : 촬영부
120 : 진동 검출부
130 : 소리 인식부
140 : 라이더(LiDAR)/레이더(RADAR) 센서
190 : 제어부
300 : 데이터 서버
400 : 사용자 단말기
100: Surround IP camera
110: filming unit
120: vibration detection unit
130: sound recognition unit
140: lidar (LiDAR) / radar (RADAR) sensor
190: control unit
300 : data server
400: user terminal

Claims (6)

전방위 영상촬영 및 전방위 적외선촬영이 가능한 촬영부;
상기 촬영부를 통해 촬영된 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 판단하는 제어부;
상기 제어부를 통해 판단된 결과를 전송하기 위한 통신부; 및
진동을 검출하기 위한 진동 검출부;를 포함하고,
상기 제어부는, 상기 촬영부를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별함에 있어서, 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 상기 화재종류를 선반영하여 위험요소를 예측경보하고,
상기 제어부는 상기 진동 검출부를 통해 검출된 진동의 파형을 분석하여 진동 파형에 대응되는 위험요소를 예측하고,
상기 제어부는 화재 감지시 발화점을 검출한 후 상기 발화점으로부터 각각의 서브영역까지 화재가 도달하는 예상시간을 산출하되, 화재전파속도가 상대적으로 느린 서브영역의 영상처리주기는 길어지도록 제어하고, 화재전파속도가 상대적으로 빠른 서브영역의 영상처리주기는 빨라지도록 제어하며,
데이터 서버는 상기 제어부에서 송신된 영상을 수신하여 자체적으로 객체인식동작을 진행하되, 객체 종류별로 미리 할당된 식별코드 및 각 객체의 중심영역에 대한 시간별 위치정보를 포함하는 객체정보를 상기 제어부로 피드백하는 것을 특징으로 하는 서라운드 아이피 카메라.
A photographing unit capable of omnidirectional imaging and omnidirectional infrared imaging;
a control unit for tracking and observing a subject in the infrared image captured by the photographing unit, and determining that a problem has occurred in the subject based on the body temperature distribution and body temperature change amount of the non-moving subject;
a communication unit for transmitting a result determined through the control unit; and
a vibration detection unit for detecting vibration; and
The control unit divides the image captured by the photographing unit into a plurality of sub-regions and independently determines whether each sub-region has an abnormality, to determine the type of fire through the
The control unit predicts a risk factor corresponding to the vibration waveform by analyzing the waveform of the vibration detected through the vibration detection unit,
The control unit calculates an estimated time for a fire to reach each sub-region from the fire point after detecting an ignition point upon detection of a fire, but controls the image processing cycle of the sub-region having a relatively slow fire propagation speed to be longer, and fire propagation The image processing cycle of the relatively fast sub-region is controlled so that it becomes faster,
The data server receives the image transmitted from the control unit and performs an object recognition operation by itself, but feeds back object information including identification codes allocated in advance for each object type and location information for each object's central region by time to the control unit Surround IP camera, characterized in that.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200121518A 2020-09-21 2020-09-21 Surround Internet Protocol Camera KR102361488B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200121518A KR102361488B1 (en) 2020-09-21 2020-09-21 Surround Internet Protocol Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200121518A KR102361488B1 (en) 2020-09-21 2020-09-21 Surround Internet Protocol Camera

Publications (1)

Publication Number Publication Date
KR102361488B1 true KR102361488B1 (en) 2022-02-11

Family

ID=80266286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200121518A KR102361488B1 (en) 2020-09-21 2020-09-21 Surround Internet Protocol Camera

Country Status (1)

Country Link
KR (1) KR102361488B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025275A1 (en) * 2022-07-25 2024-02-01 주식회사 세이프이노베이션 De-identification safety detection system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3151593U (en) * 2009-02-04 2009-07-02 株式会社ソキエ Solitary death early detection device
KR20100061890A (en) 2008-12-01 2010-06-10 박철우 Camera place control unit with sensing the sound
KR20140050785A (en) * 2012-10-21 2014-04-30 이승철 Sound frequency analysis of information systems and alarm systems, and rescue requests on the system interface
KR20150129937A (en) * 2014-05-12 2015-11-23 (주)유틸리온 System and Method for Determining Health Status of Object
JP2019079445A (en) * 2017-10-27 2019-05-23 ホーチキ株式会社 Fire monitoring system
KR102024340B1 (en) * 2018-03-22 2019-09-23 사단법인 도시생명네트워크 Fire condition display system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100061890A (en) 2008-12-01 2010-06-10 박철우 Camera place control unit with sensing the sound
JP3151593U (en) * 2009-02-04 2009-07-02 株式会社ソキエ Solitary death early detection device
KR20140050785A (en) * 2012-10-21 2014-04-30 이승철 Sound frequency analysis of information systems and alarm systems, and rescue requests on the system interface
KR20150129937A (en) * 2014-05-12 2015-11-23 (주)유틸리온 System and Method for Determining Health Status of Object
JP2019079445A (en) * 2017-10-27 2019-05-23 ホーチキ株式会社 Fire monitoring system
KR102024340B1 (en) * 2018-03-22 2019-09-23 사단법인 도시생명네트워크 Fire condition display system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025275A1 (en) * 2022-07-25 2024-02-01 주식회사 세이프이노베이션 De-identification safety detection system and method

Similar Documents

Publication Publication Date Title
CN111033231B (en) System and method for quantifying gas leakage
US20210248353A1 (en) Gate mate comprising detection passage system integrating temperature measurement and facial recognition
KR101073076B1 (en) Fire monitoring system and method using compound camera
KR101898897B1 (en) Method and device for measuring the internal body temperature of a patient
US8825112B1 (en) Mobile communication device with electromagnetic radiation sensors
JP4805991B2 (en) Security system using laser distance measuring device and intruder detection method using laser distance measuring device
US5289275A (en) Surveillance monitor system using image processing for monitoring fires and thefts
EP2530442A1 (en) Methods and apparatus for thermographic measurements.
KR102151002B1 (en) Intelligent Camera System capable of Video Translation
EP2756275A2 (en) Wireless communication device with integrated electromagnetic radiation sensors
CN104966375A (en) Security monitoring system and monitoring method
KR101271385B1 (en) Intelligent security apparatus
WO2003073128A1 (en) Lidar system controlled by computer for smoke identification applied, in particular, to early stage forest fire detection
KR20150104046A (en) Motion and gesture recognition by a passive single pixel thermal sensor system
US5465080A (en) Infrared intrusion sensor
KR102092552B1 (en) Intelligent Camera System
KR102397131B1 (en) Security alarm system that works with environmental sensor based on IP camera
KR102361488B1 (en) Surround Internet Protocol Camera
CN108271082A (en) Based on the alarm shielding watched attentively in system for managing video
RU2595532C1 (en) Radar system for protection of areas with small-frame video surveillance system and optimum number of security guards
KR101897691B1 (en) Hidden Camera Detecting System of Intelligent Type by Using UWB Sensor and Method thereof
KR102247752B1 (en) Gate apparatus using radar and thermo-graphic camera
KR102472366B1 (en) 360 degree surveillance camera
US11734833B2 (en) Systems and methods for detecting movement of at least one non-line-of-sight object
KR102464209B1 (en) Intelligent surveilance camera and intelligent visual surveilance system using the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant