KR102361488B1 - Surround Internet Protocol Camera - Google Patents
Surround Internet Protocol Camera Download PDFInfo
- Publication number
- KR102361488B1 KR102361488B1 KR1020200121518A KR20200121518A KR102361488B1 KR 102361488 B1 KR102361488 B1 KR 102361488B1 KR 1020200121518 A KR1020200121518 A KR 1020200121518A KR 20200121518 A KR20200121518 A KR 20200121518A KR 102361488 B1 KR102361488 B1 KR 102361488B1
- Authority
- KR
- South Korea
- Prior art keywords
- control unit
- sub
- fire
- image
- camera
- Prior art date
Links
- 238000004891 communication Methods 0.000 claims abstract description 9
- 238000009826 distribution Methods 0.000 claims abstract description 8
- 208000031636 Body Temperature Changes Diseases 0.000 claims abstract description 7
- 230000036760 body temperature Effects 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 15
- 230000005856 abnormality Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000003331 infrared imaging Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000001931 thermography Methods 0.000 description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 3
- 206010027783 Moaning Diseases 0.000 description 2
- 238000009529 body temperature measurement Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 206010010071 Coma Diseases 0.000 description 1
- 206010013975 Dyspnoeas Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000010125 myocardial infarction Diseases 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000541 pulsatile effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000001757 thermogravimetry curve Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H11/00—Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- H04N5/2258—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 감시카메라 장치에 관한 것으로서, 더 상세하게는 서라운드 아이피 카메라에 관한 것이다.The present invention relates to a surveillance camera device, and more particularly, to a surround IP camera.
일반적으로 cctv 카메라(감시 카메라)는 특정 건축물 또는 특정 시설 등에서 유선 텔레비전을 이용하여 영상을 전달하는 장치로써 다양한 분야에서 폭넓게 사용된다.In general, a cctv camera (surveillance camera) is a device that transmits an image using a cable television in a specific building or a specific facility, and is widely used in various fields.
예를 들어, 사용자는 생산공장, 금융기관, 기차역 및 지하철, 제철소 선박 및 건축현장, 유통업체, 레저시설, 고속도로 및 시내교통망 등의 시설에 cctv 카메라를 설치하여 자체중앙통제실(또는 경비실)에서 소수 인원으로 광범위한 지역을 한 눈에 감시할 수 있다.For example, users install cctv cameras in facilities such as production plants, financial institutions, train stations and subways, steelworks ships and construction sites, distributors, leisure facilities, highways and city traffic networks, and use a small number in their central control room (or security room). The personnel can monitor a wide area at a glance.
또한 공정감독, 입출고, 통제, 가정자동사무화 등에서도 다양하게 운용할 수 있으며, 녹화가 가능하여 사후의 자료로도 활용될 수 있다.In addition, it can be operated in various ways in process supervision, warehousing, control, and automatic home office management, and it can be recorded and used as post-mortem data.
그리고 최소의 인원으로 최대의 감시효과를 볼 수 있으며, 범죄 행위 발견 시 즉시 퇴치가 가능하고 불필요한 지역에는 순찰이 필요 없으므로 근무자의 사기 향상은 물론 완전한 감시로 인해 신변을 안전하게 보호할 수 있다.In addition, the maximum monitoring effect can be achieved with the minimum number of people, and when a criminal activity is discovered, it can be immediately eliminated.
이러한 cctv 카메라의 일반적인 구성은 카메라의 몸체가 팬 헤드에 의해 회전가능하게 설치되고, 카메라에서 출력되는 비디오신호가 조정실의 팬 헤드 콘트롤러로 입력되도록 연결되고, 이러한 이 팬 헤드 콘트롤러에서는 팬헤드를 제어하도록 연결된다.The general configuration of such a cctv camera is that the body of the camera is rotatably installed by a pan head, and the video signal output from the camera is connected to be input to the pan head controller of the control room, and this pan head controller controls the pan head. connected
그러나 이와 같은 구성은 카메라의 렌즈를 통해 촬영되는 영상신호가 팬 헤드 컨트롤러로 입력되면 조정실의 사용자는 모니터를 통해 영상을 확인하게 된다. 따라서 사용자는 조정실에서는 수동으로 상기 팬 헤드를 조정하여 사프트를 통해 연결된 카메라가 상, 하, 좌, 우로 움직이게 하여 물체를 추적하면서 촬영을 하게 되었다. 이와 같은 종래의 장치의 경우, 사용자가 모니터를 확인하고 있을 때만 상황을 감지할 수 있고 사용자(관리자)가 부재 중 일 때는 능동적인 모니터링이 힘든 단점이 있다.However, in this configuration, when an image signal photographed through the lens of the camera is input to the pan head controller, the user in the control room checks the image through the monitor. Therefore, the user manually adjusts the pan head in the control room to move the camera connected through the shaft up, down, left, and right to take pictures while tracking the object. In the case of such a conventional device, the situation can be sensed only when the user is checking the monitor, and active monitoring is difficult when the user (administrator) is absent.
본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 자동판단 할 수 있는 서라운드 아이피 카메라를 제공한다.The present invention has been proposed to solve the technical problem as described above, and it is possible to automatically determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the motionless object by tracking and observing the object in the infrared image. Surround IP camera is provided.
또한, 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 자동 판별할 수 있는 서라운드 아이피 카메라를 제공한다.In addition, there is provided a surround IP camera capable of dividing a photographed image into a plurality of sub-regions and independently and automatically determining the presence or absence of abnormalities in each sub-region.
상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 전방위 영상촬영 및 전방위 적외선촬영이 가능한 촬영부와, 촬영부를 통해 촬영된 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 판단하는 제어부와, 제어부를 통해 판단된 결과를 전송하기 위한 통신부를 포함하는 것을 특징으로 하는 서라운드 아이피 카메라가 제공된다.According to an embodiment of the present invention for solving the above problems, a photographing unit capable of omnidirectional imaging and omnidirectional infrared imaging, and tracking and observing an object in an infrared image captured through the photographing unit, but the body temperature distribution and A surround IP camera is provided, comprising: a control unit that determines that a problem has occurred in a subject based on an amount of body temperature change; and a communication unit that transmits a result determined by the control unit.
또한, 본 발명에 포함되는 제어부는 촬영부를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별함에 있어서, 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 화재종류를 선반영하여 위험요소를 예측하는 것을 특징으로 한다.In addition, the control unit included in the present invention divides the image photographed through the photographing unit into a plurality of sub-regions and independently determines the presence or absence of abnormalities in each sub-region. It is characterized by judging the type of fire through color and fire area, and predicting risk factors by pre-projecting the type of fire on a sub-area located in the direction of fire progress.
또한, 진동을 검출하기 위한 진동 검출부를 더 포함하며, 제어부는 진동 검출부를 통해 검출된 진동의 파형을 분석하여 진동 파형에 대응되는 위험요소를 예측하는 것을 특징으로 한다.In addition, it further includes a vibration detection unit for detecting the vibration, the control unit is characterized in that by analyzing the waveform of the vibration detected through the vibration detection unit predicts a risk factor corresponding to the vibration waveform.
또한, 본 발명의 다른 실시예에 따르면, 전방위 영상촬영 및 전방위 적외선촬영이 가능한 촬영부와, 촬영부를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별함에 있어서, 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 화재종류를 선반영하여 위험요소를 예측경보하는 제어부를 포함하는 것을 특징으로 하는 서라운드 아이피 카메라가 제공된다.In addition, according to another embodiment of the present invention, a photographing unit capable of omnidirectional imaging and omnidirectional infrared imaging, and an image captured through the photographing unit are divided into a plurality of sub-regions to independently determine the presence or absence of abnormalities in each sub-region. , a control unit that predicts and alerts risk factors by judging the fire type through the color of the flame and the fire area of the image taken in the sub-region determined as having an abnormality, and pre-projecting the fire type in the sub-region located in the direction of the fire There is provided a surround IP camera, characterized in that.
또한, 본 발명에 포함되는 제어부는 화재 감지시 발화점을 검출한 후 발화점으로부터 각각의 서브영역까지 화재가 도달하는 예상시간을 산출하는 것을 특징으로 한다.In addition, the control unit included in the present invention is characterized in that after detecting the ignition point when the fire is detected, the estimated time for the fire to arrive from the ignition point to each sub-region is calculated.
본 발명의 실시예에 따른 서라운드 아이피 카메라는 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 자동 판단할 수 있다.The surround IP camera according to an embodiment of the present invention tracks and observes an object in an infrared image, but can automatically determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the non-moving object.
또한, 서라운드 아이피 카메라는 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 자동 판별 할 수 있다.In addition, the surround IP camera can divide the captured image into a plurality of sub-regions and automatically determine whether there is an abnormality in each sub-region independently.
도 1은 본 발명의 실시에에 따른 서라운드 아이피 카메라(100)의 구성도
도 2는 서라운드 아이피 카메라(100)에서 촬영된 전방위 촬영영상의 예시도
도 3은 서라운드 아이피 카메라(100)에서 영상을 처리하는 과정을 나타낸 예시도
도 4는 서라운드 아이피 카메라(100)를 구비한 지능형 감시시스템(1)의 구성도
도 5는 지능형 감시시스템(1)에서 생성된 영상을 나타낸 예시도1 is a block diagram of a
2 is an exemplary view of an omnidirectional photographed image taken by the
3 is an exemplary diagram illustrating a process of processing an image in the
4 is a block diagram of an
5 is an exemplary view showing an image generated by the intelligent monitoring system (1)
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough that a person of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention.
도 1은 본 발명의 실시에에 따른 서라운드 아이피 카메라(100)의 구성도이다.1 is a block diagram of a
본 실시예에 따른 서라운드 아이피 카메라(100)는 제안하고자 하는 기술적인 사상을 명확하게 설명하기 위한 간략한 구성만을 포함하고 있다.The
도 1을 참조하면, 서라운드 아이피 카메라(100)는 촬영부(110), 진동 검출부(120), 소리 인식부(130), LiDAR 센서(140) 및 제어부(190)를 포함하여 구성된다.Referring to FIG. 1 , the
상기와 같이 구성되는 서라운드 아이피 카메라(100)의 주요동작을 살펴보면 다음과 같다.The main operations of the
촬영부(110)는 전방위 영상촬영 및 전방위 적외선촬영이 가능하도록 구성된다. 즉, 촬영부(110)는 가시광선 영역을 촬영하는 카메라와, 적외선 영역을 촬영하는 열화상 카메라를 구비한다.The photographing
기본적으로 촬영부(110)는 360도 방향을 촬영하기 위한 단일 렌즈 모듈을 포함한다.Basically, the photographing
즉, 촬영부(110)는 입사되는 광(光)을 굴절시키는 것으로 하측으로 볼록한 광굴절면으로 이루어진 측면과, 광굴절면으로 입사된 광이 반사되는 광반사면으로 이루어진 상면과, 광반사면의 하부에 상기 광반사면에서 반사된 광이 아래로 출사되는 광출사면으로 이루어진 하면을 가진 반사굴절 렌즈를 포함하고 있다.That is, the photographing
또한, 촬영부(110)는 반사굴절 렌즈의 측면을 둘러싸서 수용하는 투명한 소재의 광투과부를 구비하는 반사굴절 렌즈 홀더(holder)와, 반사굴절 렌즈의 상면을 가리는 것으로, 반사굴절 렌즈 홀더에 체결되어 반사굴절 렌즈를 고정하는 커버와, 광출사면을 통해 아래로 출사되는 광(光)이 투과하는 적어도 하나의 광투과 렌즈와, 광 투과 렌즈를 투과한 광이 촬상되는 이미지 센서를 포함하고, 반사굴절 렌즈 홀더에 결합되는 경통 어셈블리(barrelassembly)를 구비하도록 제작될 수 있다.In addition, the photographing
제어부(190)는 촬영부(110)의 촬영영상을 영상처리하여 전방위 평면 이미지를 생성한다.The
제어부(190)는 전 방위 광학 렌즈를 이용하여 촬영된 원본 이미지를 획득하고, 우선적으로 불필요한 이미지 부분을 제거하여 원형 이미지를 획득할 수 있다. 원형 이미지는 평면 이미지를 생성하기 위한 부분 왜곡 해소 및 부분 이미지 처리를 위해 분할될 수 있다. 분할된 원형 이미지의 단위(원형 분할 단위 이미지)는 해상도, 원호, 픽셀, 이미지 왜곡 등을 고려하여 분할될 수 있다.The
서라운드 아이피 카메라(100)는 미리 설정된 촬영영역의 가시광선 영상, 열화상 영상 및 객체의 움직임 정보를 검출하도록 동작한다. 서라운드 아이피 카메라(100)는 객체의 움직임이 있는 경우에만 녹화, 저장되는 타입랩스(Time Lapse) 기능이 적용될 수 있다.The
서라운드 아이피 카메라(100)는 촬영부(110), 라이더(LiDAR)/레이더(RADAR) 센서(140)를 구비하고 있으므로, 야간에도 촬영영역을 효과적으로 감시할 수 있다.Since the
즉, 촬영부(110)는 촬영영역의 열화상 영상을 촬영한다. 열화상 카메라는 비접촉 온도 측정 장비이다. 열화상 카메라는 절대0도(0°Kelvin) 이상의 온도에서 모든 물질에 의하여 방사, 전송 또는 반사되는 적외선 에너지를 감지하고 이러한 에너지 요인을 온도측정치 또는 온도기록으로 전환한다. 온도기록은 열화상 카메라가 표시하는 적외선 에너지를 방사, 전송 또는 반사하는 물체의 열 이미지로 출력한다.That is, the photographing
열화상 카메라는 초광대역/저전력의 매우 좁은 펄스를 송신하고 정밀한 해상도로 수신 펄스 신호를 복원하기 위한 임펄스 레이더용 RF 송수신 칩셋과 수신된 레이더 신호로부터 클러터 제거, 움직이는 물체에 대한 특징 수집(속도), 자세 추정(걸음걸이) 그리고 정지한 물체의 특성(호흡) 등을 추정할 수 있는 레이더 신호처리 알고리즘을 적용하여 활용할 수도 있다.The thermal imaging camera transmits ultra-wide/low-power very narrow pulses and restores the received pulse signal with precise resolution. The RF transceiver chipset for impulse radar, removes clutter from the received radar signal, and collects features for moving objects (velocity) , posture estimation (gait), and the characteristics of a stationary object (respiration) can be used by applying a radar signal processing algorithm.
또한, 라이더(LiDAR)/레이더(RADAR) 센서(140)는 레이저를 목표물에 비춤으로써 사물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있는 장치이다.In addition, the lidar (LiDAR)/radar (RADAR)
라이다 센서의 구성은 레이저 송신부, 레이저 검출부, 신호 수집 및 처리와 데이터를 송수신하기 위한 부분으로 구분될 수 있다. 아울러 라이다 센서는 레이저 신호의 변조 방법에 따라 time-of-flight(TOF) 방식과 phase-shift 방식으로 구분될 수 있다. The configuration of the lidar sensor may be divided into a laser transmitter, a laser detector, a signal collection and processing part, and a part for transmitting and receiving data. In addition, the lidar sensor may be divided into a time-of-flight (TOF) method and a phase-shift method according to a modulation method of a laser signal.
TOF 방식은 레이저가 펄스 신호를 방출하여 측정 범위 내에 있는 물체들로부터의 반사 펄스 신호들이 수신기에 도착하는 시간을 측정함으로써 거리를 측정하는 것이 가능하다. Phase-shift 방식은 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고 측정 범위 내에 있는 물체로부터 반사되어 되돌아오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다.In the TOF method, it is possible to measure the distance by measuring the time that the laser emits a pulse signal and the reflected pulse signals from objects within the measurement range arrive at the receiver. The phase-shift method is a method of calculating the time and distance by emitting a laser beam that is continuously modulated with a specific frequency and measuring the amount of phase change of a signal reflected from an object within the measurement range.
레이저 광원은 250nm부터 11μm까지의 파장 영역에서 특정 파장을 가지거나 파장 가변이 가능한 레이저 광원들이 사용되며, 최근에는 소형, 저전력이 가능한 반도체 레이저 다이오드가 많이 사용된다. 특히, 레이저의 파장은 대기, 구름, 비 등에 대한 투과성과 eye-safety 에 직접적인 영향을 준다. 기본적으로 레이저 출력, 파장, 스펙트럼 특성, 펄스 폭 및 모양 등과 함께 수신기의 수신감도 및 다이내믹 레인지, 그리고 광학필터 및 렌즈의 특성이 라이다의 성능을 결정하는 주요 요인이다. 이와 함께 수신기의 측정 각도를 나타내는 Field Of View(FOV), 측정 범위를 선택하기 위한 field stop, 레이저빔과 수신기의 FOV overlap 특성 등도 중요한 항목이다. 광속에 대하여 단위 데이터 수집을 위한 최소 시간은 거리 분해능(range resolution)을 결정하는 요인이며, 따라서 1m 이하의 거리 분해능을 위해서는 수 ns 이내의 데이터 수집 및 처리가 요구된다.As the laser light source, laser light sources having a specific wavelength or having a wavelength tunable in a wavelength range from 250 nm to 11 μm are used, and recently, a semiconductor laser diode capable of small size and low power is widely used. In particular, the wavelength of the laser directly affects the transmittance to the atmosphere, clouds, rain, etc. and eye-safety. Basically, laser power, wavelength, spectral characteristics, pulse width and shape, receiver sensitivity and dynamic range, and optical filter and lens characteristics are the main factors that determine the performance of LiDAR. In addition, Field Of View (FOV) indicating the measurement angle of the receiver, field stop to select the measurement range, and the FOV overlap characteristics of the laser beam and the receiver are also important items. The minimum time for unit data collection with respect to the speed of light is a factor that determines the range resolution, and therefore data collection and processing within a few ns is required for a distance resolution of 1 m or less.
따라서 제어부(190)는 라이더(LiDAR)/레이더(RADAR) 센서(140)의 촬영정보를 바탕으로 객체를 식별할 수 있다. 즉, 제어부(190)는 감지된 객체가 사람, 동물, 사물 인지를 라이더(LiDAR)/레이더(RADAR) 센서(140)의 정보를 바탕으로 식별할 수 있다.Accordingly, the
도 2는 서라운드 아이피 카메라(100)에서 촬영된 전방위 촬영영상의 예시도이다.2 is an exemplary view of an omnidirectional photographed image taken by the
도 2의 좌측영상은 전방위렌즈를 사용한 영상이며 이러한 전방위렌즈에 의한 영상은 중심영역에 사각지역이 발생할 수 있다.The left image of FIG. 2 is an image using an omnidirectional lens, and the image by the omnidirectional lens may cause a blind spot in the central region.
그러나 도 2의 우측영상과 같이 본원발명의 촬영부(110)는 어안렌즈를 적용하여 사각지역을 최소화 시킬 수 있으며, 5Mega(QHD)까지 지원하는 렌즈를 적용하고 3Mega급 이미지센서(Image Sensor)를 적용하여 고해상도의 360도 영상을 확보할 수 있도록 구성될 수도 있다.However, as shown in the right image of FIG. 2 , the photographing
도 3은 서라운드 아이피 카메라(100)에서 영상을 처리하는 과정을 나타낸 예시도이다.3 is an exemplary diagram illustrating a process of processing an image in the
도 3을 참조하면, 서라운드 아이피 카메라(100)의 제어부(190)는 촬영부(110)를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별할 수 있다.Referring to FIG. 3 , the
제어부(190)는 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 화재종류를 선반영하여 위험요소를 예측 경보할 수 있다.The
이때, 제어부(190)는 화재 감지시 발화점을 검출한 후 발화점으로부터 각각의 서브영역까지 화재가 도달하는 예상시간을 산출할 수 있다. 따라서 도 3에 도시된 바와 같이, 가연성물질 보관함이 객체 인식된 서브영역에 화재전파가 이루어질 것으로 예상되는 경우, 해당 서브영역까지 화재가 도달하는 예상시간을 산출하여 알려줌으로써 빠른 대처가 가능케 한다.In this case, the
특히, 제어부(190)는 발화점을 감지할 경우, 각 방향별 화재전파속도를 산출할 수 있다. 즉, 도 3에 도시된 와 같이 우측방향의 화재전파속도(V1)가 가장 빠르고, 다음으로 상부방향의 화재전파속도(V2)가 빠르고, 다음으로 하부방향의 화재전파속도(V3)가 빠르고, 마지막으로 좌측방향의 화재전파속도(V4)가 가장 느리게 검출되었다고 가정한다.In particular, when detecting the ignition point, the
이때, 제어부(190)는 우측방향의 화재전파속도(V1)를 고려하여 가장 빠르게 화재가 전파되고 있는 방향의 서브영역의 영상처리 주기를 상대적으로 더욱 빠르게 처리하도록 동작한다.In this case, the
즉, 제어부(190)는 촬영부(110)를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별할 때, 각 서브영역의 객체인식 및 상황인식 처리를 순차적으로 진행한다.That is, the
따라서 화재전파속도가 느린 서브영역의 처리주기는 길어지고(화재전파속도가 느려질수록 처리주기가 길어짐), 화재전파속도가 빠른 서브영역의 처리주기는 짧아진다.(화재전파속도가 빨라질수록 처리주기가 짧아짐)Therefore, the treatment cycle of the sub-area with a slow fire propagation speed becomes longer (the treatment cycle becomes longer as the fire propagation speed slows down), and the treatment cycle of the sub-area with a high fire spread speed becomes shorter (the faster the fire propagation speed, the shorter the treatment cycle). is shortened)
이와 같이 각 서브영역의 객체인식을 독립적으로 진행하고, 상황인식을 통해 우선순위가 높게 선정된 서브영역의 처리주기를 짧게함으로서 상황의 변화를 더욱 빠르고 정확하게 감지할 수 있는 장점이 있다.In this way, object recognition of each sub-region is performed independently and the processing cycle of the sub-region selected with high priority through context recognition is shortened, thereby enabling faster and more accurate detection of changes in the situation.
즉, 제어부(190)는 복수의 서브영역을 시분할하여 순차적으로 영상 처리함에 있어서 기본적으로는 미리 설정된 순서대로 각 서브영역을 영상처리 하다가, 미리 설정된 상황 또는 화재 등과 같이 비상상황이 자동 감지될 경우, 위험이 도달하는 속도, 방향, 객체인식(가연성물질) 여부를 모두 고려하여 각 서브영역의 영상처리 주기를 개별적으로 조절할 수 있다.That is, when the
또한, 제어부(190)는 촬영부(110)를 통해 촬영된 적외선 영상에서 대상을 추적 관찰하는데, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 판단할 수 있다. 따라서 어린이, 독거노인 등과 같은 노약자의 신체적 위험상황을 선제적으로 감지할 수 있다.In addition, the
참고적으로, 제어부(190)는 영상저장용 메모리, 통신모듈 및 배터리 모듈이 일체형으로 포함되어 있으므로, 별도의 통신모듈이 구비되지 않더라도 내장된 통신모듈을 이용하여 데이터를 송수신할 수 있다. 이때, 별도의 외부 통신모듈이 구비될 경우 제어부(190)는 내장된 통신모듈 또는 외부 통신모듈을 선택적으로 이용하여 데이터를 송수신할 수 있도록 데이터를 처리한다.For reference, since the
진동 검출부(120)는 촬영부(110)가 감시하는 영역의 진동패턴을 감지한다. 즉, 제어부(190)는 진동 검출부(120)를 통해 검출된 진동의 파형을 분석하여 진동 파형에 대응되는 위험요소를 예측할 수 있다. 예를 들면 사람의 낙상소리, 사람의 신음소리, 고함소리, 특정 언어, 폭발소리 등의 진동 파형을 감지하여 위험요소를 예측할 수 있다.The
소리 인식부(130)는 촬영부(110)가 감시하는 영역에서 소리를 감지한다. 즉, 제어부(190)는 소리 인식부(130)를 통해 감지된 소리의 패턴을 분석하여 소리 패턴에 대응되는 위험요소를 예측할 수 있다. 예를 들면 사람의 신음소리, 고함소리, 특정 언어, 폭발소리 등의 소리의 패턴을 감지하여 위험요소를 예측할 수 있다. 참고적으로, 제어부(190)는 진동 검출부(120) 및 소리 인식부(130)의 감지 데이터를 모두 반영하여 진동의 파형 및 소리의 패턴을 검출할 수도 있다.The
또한, 소리 인식부(130)는 복수의 지향성 마이크로 구성되어 각 방향에서 감지되는 소리를 인식한다. 예를 들어 4개의 마이크가 동일한 위치에 배치될 경우 각 마이크 사이에는 격벽이 설치되어 소리의 진원지를 파악하는데 보조적인 도움을 줄 수 있다. 따라서 제어부(190)는 소리 인식부(130)에서 수집된 소리에서 특정 음성패턴이 검출될 때, 촬영부(110)가 소리가 수집된 방향을 확대해서 촬영하도록 제어할 수 있다.In addition, the
또한, 제어부(190)는 가정에서 가스가 누출되는 소리, 물건 떨어지는 소리, 특정 장소(목욕탕)에서 사람이 넘어지는 소리를 감지하여, 촬영부(110)가 소리가 수집된 방향을 확대해서 촬영하도록 제어하면서 경고음을 출력하도록 제어할 수 있다.In addition, the
도 4는 서라운드 아이피 카메라(100)를 구비한 지능형 감시시스템(1)의 구성도이다.4 is a block diagram of an
도 4를 참조하면, 지능형 감시시스템(1)은 서라운드 아이피 카메라(100), 데이터 서버(300), 사용자 단말기(400)를 포함하여 구성된다.Referring to FIG. 4 , the
서라운드 아이피 카메라(100)의 동작은 도 1 내지 도 3을 통해 상세히 설명하였으므로 중복된 설명은 생략한다.Since the operation of the
데이터 서버(300)는 제어부(190)에서 송신하는 정보를 수신하여 미리 등록된 적어도 하나 이상의 사용자 단말기(400)로 영상 및 감지정보를 제공한다. 데이터 서버(300)는 미리 등록된 이벤트가 발생할 때마다 해당 영상 및 정보를 미리 등록된 사용자 단말기(400)로 자동 전송한다.The
여기에서 사용자 단말기(400)는 휴대폰, 스마트폰, 스마트 패드 등과 같이 사용자가 휴대하면서 사용할 수 있는 기기를 총칭하는 것이며, 본 실시예에서는 스마트폰으로 구성된 단말기로 가정하고 설명하기로 한다.Here, the
도 5는 지능형 감시시스템(1)에서 생성된 영상을 나타낸 예시도이다.5 is an exemplary view showing an image generated by the intelligent monitoring system (1).
도 5를 참조하면, 제어부(190)는 촬영영역에서 객체가 검출되는 영역을 시선집중구역으로 설정(붉은색 점선)하는데, 검출된 객체의 위험상황이 검출되면 시선집중구역의 면적을 자동조절한다.Referring to FIG. 5 , the
예를 들어, 제어부(190)는 미리 설정된 객체(아기, 노인)가 검출되는 시점부터 소정의 크기로 시선집중구역을 설정하여 표시하는데, 객체(아기)가 뜨거운 물체(전기 주전자)방향으로 이동할 경우, 시선집중구역을 축소하면서 “아기, 뜨거움, 위험물 문구”를 붉은색으로 강조하여 표시한다. 이때, 아기 및 위험한 상황과 관련 없이 표시되는 정보는 시선집중구역 밖으로 자동이동시킨다. 이러한 정보는 제어부(190)에 표시장치가 내장되어 있을 경우, 내장된 표시장치에 표시되며, 데이터 서버(300) 및 사용자 단말기(400)의 표시장치에 표시될 수 있을 것이다.For example, the
이때, 객체(아기) 및 전기 포트의 온도 및 형체는 서라운드 아이피 카메라(100)의 촬영부(110), 진동 검출부(120), 소리 인식부(130), 라이더(LiDAR)/레이더(RADAR) 센서(140)의 정보를 모두 취합하여 식별될 수 있을 것이다.At this time, the temperature and shape of the object (baby) and the electric port are the capturing
또한, 제어부(190)는 촬영영역에서 소정의 온도변화가 있는 영역을 시선집중구역으로 설정(붉은색 점선)할 수 있다. 이때, 제어부(190)는 온도변화에 비례하여 시선집중구역의 면적을 자동조절할 수 있다. 예를 들어, 소정의 온도이상이 감지되면 시선집중구역이 설정되고 화재가 발생할 정도의 온도에 도달하면 해당 구역에 시선집중구역을 집중시키고 “화재주의“라는 문구를 추가로 표시하고 온도를 붉은색으로 강조하여 표시할 수 있다.Also, the
데이터 서버(300)는 수신받은 영상 중에서 영상의 변화가 없는 부분을 피드백하고, 제어부(190)는 영상의 변화가 없는 부분은 자동 제거함으로써 저장 용량을 감소시킬 수 있다. 또한, 데이터 서버(300)는 영상을 복수의 영역(서브영역)으로 구분한 후, 객체의 움직임 속도를 고려하여 각 영역별 저장 영상 프레임을 가변시킬 수는 정보를 피드백할 수 있다.The
참고적으로, 지능형 감시시스템(1)은 서라운드 아이피 카메라(100)에서 촬영된 가시영상을 토대로 인식된 객체(사람)의 안면 이미지까지 촬영할 수 있다.For reference, the
제어부(190)는 촬영된 안면 이미지의 색상변화를 통해 안면동맥의 박동성 혈액의 흐름을 측정하여 심장 박동수를 산출한다. 즉, 촬영한 안면 이미지 중 관심영역을 선택한 후 RGB(Red Green Blue) 채널로 분리하고, RGB 채널 중 각 채널에 비선형 스케일 팩터(Scale Factor)를 부여하여 신호대 잡음비(SNR)를 조절하고, 비선형 스케일 팩터(Scale Factor)가 부여된 신호를 토대로 심장 박동수를 산출한다.The
즉, 제어부(190)는 객체(사람)의 안면 이미지를 추출하고 안면 이미지 중 관심영역을 선택한 후 RGB(Red Green Blue) 채널로 분리하고, RGB 채널 중 각 채널에 비선형 스케일 팩터(Scale Factor)를 부여하여 신호대 잡음비(SNR)를 조절하고, 비선형 스케일 팩터(Scale Factor)가 부여된 신호를 토대로 심장 박동수를 산출할 수 있다.That is, the
또한, 제어부(190)는 비선형 스케일 팩터(Scale Factor)가 부여된 신호를 주파수 영역으로 변환한 후, 심장 박동수에 해당하는 주파수 도메인 중 가장 큰 파워 스펙트럼 주파수 값을 토대로 호흡수를 산출할 수 있다.In addition, after converting the signal to which the non-linear scale factor is applied to the frequency domain, the
즉, 제어부(190)는 산출된 심장 박동수 및 호흡수를 토대로 객체(사람)의 수면상태, 사망상태, 혼수상태 가능성을 판단할 수 있고, 산출된 심장 박동수 및 호흡수를 토대로 호흡곤란 또는 심장마비까지도 판단할 수 있다.That is, the
또한, 제어부(190)는 복수의 객체의 감지된 속도 및 형태를 바탕으로 각 객체와의 상관관계를 파악한 후 경고할 수 있다. 예를 들어, 어린이(객체1)와 오토바이(객체2)가 동시에 감지될 경우, 제어부(190)는 오토바이가 소정의 속도 이상으로 어린이가 있는 방향으로 이동할 때 경고할 수 있다.Also, the
또한, 서라운드 아이피 카메라(100)는 칩 내부에서 발생하는 랜덤 노이즈(random noise)를 억제하여 수신하기 위해, 동일 레인지(송신 클록과 수신 샘플링 클록 간 동일한 시간 간격)에서 반복 수신 후 다음 레인지 수신으로 변경하도록 동작할 수 있다.In addition, the
또한, 제어부(190)는 미리 설정된 촬영영역을 복수의 서브영역으로 분할한 후, 각 영역별 감지시간, 감지객체, 감지 이벤트를 독립적으로 미리 설정할 수 있다.In addition, after dividing the preset photographing area into a plurality of sub-regions, the
또한, 제어부(190)에서 송신된 영상을 수신한 데이터 서버(300)는 자체적으로 객체인식동작을 진행할 수 있다. 즉, 데이터 서버(300)는 인식된 객체정보를 제어부(190)로 피드백 하는데, 각각의 객체정보는 객체 종류별로 미리 할당된 식별코드 및 각 객체의 중심영역에 대한 시간별 위치정보를 포함한다. In addition, the
예를 들면, 노인이라는 객체가 인식될 경우, 노인에 미리 할당된 식별코드와, 노인의 중심영역의 위치(좌표)에 대한 시간별 위치정보가 전송된다.For example, when an object called an elderly person is recognized, an identification code pre-allocated to the elderly and location information for each time on the location (coordinate) of the central area of the elderly are transmitted.
참고적으로, 식별코드는 객체코드 및 부가코드를 포함하는데, 객체코드는 노인이라는 형상에 부여된 코드이고, 부가코드는 노인의 이름 등과 같은 부가 데이터 정보를 코드화한 것으로 정의된다.For reference, the identification code includes an object code and an additional code. The object code is a code assigned to the shape of an elderly person, and the additional code is defined as encoding additional data information such as the elderly person's name.
따라서 제어부(190) 입장에서는 이미지 프로세싱작업을 직접 처리하지 않고도 데이터 서버(300)로부터 전송되는 객체정보를 수신하여, 노인이라는 객체의 인식된 이름(사람의 이름을 식별)과, 그 이동위치를 파악할 수 있다. 데이터 서버(300)는 제어부(190)의 요청에 의해 복수의 객체를 동시에 인식하고, 각각의 위치를 실시간 추적 가능하다.Therefore, the
또한, 지능형 감시시스템(1)은 객체로써 노인이 검출될 경우, 노약자 보호모드가 실행된다.In addition, when the
노약자 보호모드에서는 노인이 쇼파에 앉아 있고, 노인의 얼굴이 비추는 거울이 있는 상태에서 서라운드 아이피 카메라(100)가 거울만을 통해 노인의 얼굴을 감지할 수 있는 경우, In the elderly protection mode, when an elderly person is sitting on a sofa and there is a mirror reflecting the elderly person's face, the
서라운드 아이피 카메라(100)는 거울에 비춰지는 얼굴을 영상감지할 수 있다. 따라서 서라운드 아이피 카메라(100)는 거울에 비춰지는 얼굴을 객체인식한 후, 노인의 심장 박동수 및 호흡수를 파악할 수도 있다. The
참고적으로, 노인이 객체인식 되어 노약자 보호모드가 실행될 경우, 추가적으로 구비된 모션감지센서에서 객체가 인식된 방향으로 주기적으로 소정의 파장의 전파를 송신 및 수신하여 객체의 움직임을 보다 정확하게 파악할 수 있다.For reference, when an elderly person is recognized as an object and the elderly protection mode is executed, an additionally provided motion sensor periodically transmits and receives a radio wave of a predetermined wavelength in the direction in which the object is recognized, so that the movement of the object can be more accurately identified. .
즉, 노인이 쇼파 뒷부분에서 쓰러질 경우, 쇼파에 의해서 영상에서 벗어날 수 있으므로, 이를 보완하기 위해 모션감지센서가 추가적으로 사용되는 것이다.That is, when an elderly person collapses on the back of the sofa, he may be out of the image by the sofa, so a motion sensor is additionally used to compensate for this.
본 발명의 실시예에 따른 서라운드 아이피 카메라는 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 자동 판단할 수 있다.The surround IP camera according to an embodiment of the present invention tracks and observes an object in an infrared image, but can automatically determine that a problem has occurred in the object based on the body temperature distribution and body temperature change of the non-moving object.
또한, 서라운드 아이피 카메라는 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 자동 판별 할 수 있다.In addition, the surround IP camera can divide the captured image into a plurality of sub-regions and automatically determine whether there is an abnormality in each sub-region independently.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
100 : 서라운드 아이피 카메라
110 : 촬영부
120 : 진동 검출부
130 : 소리 인식부
140 : 라이더(LiDAR)/레이더(RADAR) 센서
190 : 제어부
300 : 데이터 서버
400 : 사용자 단말기100: Surround IP camera
110: filming unit
120: vibration detection unit
130: sound recognition unit
140: lidar (LiDAR) / radar (RADAR) sensor
190: control unit
300 : data server
400: user terminal
Claims (6)
상기 촬영부를 통해 촬영된 적외선 영상에서 대상을 추적 관찰하되, 움직임이 없는 대상의 체온분포 및 체온 변화량을 바탕으로 대상에 문제가 발생하였음을 판단하는 제어부;
상기 제어부를 통해 판단된 결과를 전송하기 위한 통신부; 및
진동을 검출하기 위한 진동 검출부;를 포함하고,
상기 제어부는, 상기 촬영부를 통해 촬영된 영상을 복수 개의 서브영역으로 분할하여 각 서브영역의 이상 유무를 독립적으로 판별함에 있어서, 이상 있음으로 판별된 서브영역에서 촬영된 영상의 화염의 색상, 화재 면적을 통해 화재종류를 판단하고, 화재 진행방향에 위치한 서브영역에 상기 화재종류를 선반영하여 위험요소를 예측경보하고,
상기 제어부는 상기 진동 검출부를 통해 검출된 진동의 파형을 분석하여 진동 파형에 대응되는 위험요소를 예측하고,
상기 제어부는 화재 감지시 발화점을 검출한 후 상기 발화점으로부터 각각의 서브영역까지 화재가 도달하는 예상시간을 산출하되, 화재전파속도가 상대적으로 느린 서브영역의 영상처리주기는 길어지도록 제어하고, 화재전파속도가 상대적으로 빠른 서브영역의 영상처리주기는 빨라지도록 제어하며,
데이터 서버는 상기 제어부에서 송신된 영상을 수신하여 자체적으로 객체인식동작을 진행하되, 객체 종류별로 미리 할당된 식별코드 및 각 객체의 중심영역에 대한 시간별 위치정보를 포함하는 객체정보를 상기 제어부로 피드백하는 것을 특징으로 하는 서라운드 아이피 카메라.A photographing unit capable of omnidirectional imaging and omnidirectional infrared imaging;
a control unit for tracking and observing a subject in the infrared image captured by the photographing unit, and determining that a problem has occurred in the subject based on the body temperature distribution and body temperature change amount of the non-moving subject;
a communication unit for transmitting a result determined through the control unit; and
a vibration detection unit for detecting vibration; and
The control unit divides the image captured by the photographing unit into a plurality of sub-regions and independently determines whether each sub-region has an abnormality, to determine the type of fire through the
The control unit predicts a risk factor corresponding to the vibration waveform by analyzing the waveform of the vibration detected through the vibration detection unit,
The control unit calculates an estimated time for a fire to reach each sub-region from the fire point after detecting an ignition point upon detection of a fire, but controls the image processing cycle of the sub-region having a relatively slow fire propagation speed to be longer, and fire propagation The image processing cycle of the relatively fast sub-region is controlled so that it becomes faster,
The data server receives the image transmitted from the control unit and performs an object recognition operation by itself, but feeds back object information including identification codes allocated in advance for each object type and location information for each object's central region by time to the control unit Surround IP camera, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200121518A KR102361488B1 (en) | 2020-09-21 | 2020-09-21 | Surround Internet Protocol Camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200121518A KR102361488B1 (en) | 2020-09-21 | 2020-09-21 | Surround Internet Protocol Camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102361488B1 true KR102361488B1 (en) | 2022-02-11 |
Family
ID=80266286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200121518A KR102361488B1 (en) | 2020-09-21 | 2020-09-21 | Surround Internet Protocol Camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102361488B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024025275A1 (en) * | 2022-07-25 | 2024-02-01 | 주식회사 세이프이노베이션 | De-identification safety detection system and method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3151593U (en) * | 2009-02-04 | 2009-07-02 | 株式会社ソキエ | Solitary death early detection device |
KR20100061890A (en) | 2008-12-01 | 2010-06-10 | 박철우 | Camera place control unit with sensing the sound |
KR20140050785A (en) * | 2012-10-21 | 2014-04-30 | 이승철 | Sound frequency analysis of information systems and alarm systems, and rescue requests on the system interface |
KR20150129937A (en) * | 2014-05-12 | 2015-11-23 | (주)유틸리온 | System and Method for Determining Health Status of Object |
JP2019079445A (en) * | 2017-10-27 | 2019-05-23 | ホーチキ株式会社 | Fire monitoring system |
KR102024340B1 (en) * | 2018-03-22 | 2019-09-23 | 사단법인 도시생명네트워크 | Fire condition display system and method |
-
2020
- 2020-09-21 KR KR1020200121518A patent/KR102361488B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100061890A (en) | 2008-12-01 | 2010-06-10 | 박철우 | Camera place control unit with sensing the sound |
JP3151593U (en) * | 2009-02-04 | 2009-07-02 | 株式会社ソキエ | Solitary death early detection device |
KR20140050785A (en) * | 2012-10-21 | 2014-04-30 | 이승철 | Sound frequency analysis of information systems and alarm systems, and rescue requests on the system interface |
KR20150129937A (en) * | 2014-05-12 | 2015-11-23 | (주)유틸리온 | System and Method for Determining Health Status of Object |
JP2019079445A (en) * | 2017-10-27 | 2019-05-23 | ホーチキ株式会社 | Fire monitoring system |
KR102024340B1 (en) * | 2018-03-22 | 2019-09-23 | 사단법인 도시생명네트워크 | Fire condition display system and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024025275A1 (en) * | 2022-07-25 | 2024-02-01 | 주식회사 세이프이노베이션 | De-identification safety detection system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111033231B (en) | System and method for quantifying gas leakage | |
US20210248353A1 (en) | Gate mate comprising detection passage system integrating temperature measurement and facial recognition | |
KR101073076B1 (en) | Fire monitoring system and method using compound camera | |
KR101898897B1 (en) | Method and device for measuring the internal body temperature of a patient | |
US8825112B1 (en) | Mobile communication device with electromagnetic radiation sensors | |
JP4805991B2 (en) | Security system using laser distance measuring device and intruder detection method using laser distance measuring device | |
US5289275A (en) | Surveillance monitor system using image processing for monitoring fires and thefts | |
EP2530442A1 (en) | Methods and apparatus for thermographic measurements. | |
KR102151002B1 (en) | Intelligent Camera System capable of Video Translation | |
EP2756275A2 (en) | Wireless communication device with integrated electromagnetic radiation sensors | |
CN104966375A (en) | Security monitoring system and monitoring method | |
KR101271385B1 (en) | Intelligent security apparatus | |
WO2003073128A1 (en) | Lidar system controlled by computer for smoke identification applied, in particular, to early stage forest fire detection | |
KR20150104046A (en) | Motion and gesture recognition by a passive single pixel thermal sensor system | |
US5465080A (en) | Infrared intrusion sensor | |
KR102092552B1 (en) | Intelligent Camera System | |
KR102397131B1 (en) | Security alarm system that works with environmental sensor based on IP camera | |
KR102361488B1 (en) | Surround Internet Protocol Camera | |
CN108271082A (en) | Based on the alarm shielding watched attentively in system for managing video | |
RU2595532C1 (en) | Radar system for protection of areas with small-frame video surveillance system and optimum number of security guards | |
KR101897691B1 (en) | Hidden Camera Detecting System of Intelligent Type by Using UWB Sensor and Method thereof | |
KR102247752B1 (en) | Gate apparatus using radar and thermo-graphic camera | |
KR102472366B1 (en) | 360 degree surveillance camera | |
US11734833B2 (en) | Systems and methods for detecting movement of at least one non-line-of-sight object | |
KR102464209B1 (en) | Intelligent surveilance camera and intelligent visual surveilance system using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |