KR102542327B1 - 지능형 인체감지 무인 계도방송 시스템 - Google Patents

지능형 인체감지 무인 계도방송 시스템 Download PDF

Info

Publication number
KR102542327B1
KR102542327B1 KR1020220185239A KR20220185239A KR102542327B1 KR 102542327 B1 KR102542327 B1 KR 102542327B1 KR 1020220185239 A KR1020220185239 A KR 1020220185239A KR 20220185239 A KR20220185239 A KR 20220185239A KR 102542327 B1 KR102542327 B1 KR 102542327B1
Authority
KR
South Korea
Prior art keywords
guidance broadcasting
sensor
unmanned guidance
unit
broadcasting device
Prior art date
Application number
KR1020220185239A
Other languages
English (en)
Inventor
정연식
임해용
Original Assignee
주식회사 융합기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 융합기술 filed Critical 주식회사 융합기술
Priority to KR1020220185239A priority Critical patent/KR102542327B1/ko
Application granted granted Critical
Publication of KR102542327B1 publication Critical patent/KR102542327B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • G08B27/008Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations with transmission via TV or radio broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Emergency Management (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 일반인의 출입이 금지된 특정 지역에서 물체의 움직임이 감지될 때 그 물체가 사람인지 동물인지 등을 구별하여 동물이 감지된 경우에는 계도방송을 하지 않도록 함으로써 불필요한 계도방송을 방지함으로써 에너지를 절감할 수 있게 하여 시스템의 장기간 구동이 가능한, 지능형 인체감지 무인 계도방송 시스템을 제공하기 위한 것이다.

Description

지능형 인체감지 무인 계도방송 시스템{Intelligent human body detection unmanned guidance broadcasting system}
본 발명은 무인 계도방송 시스템에 관한 것으로, 보다 상세하게는, 일반인의 출입이 금지된 특정 지역에서 물체의 움직임이 감지될 때 그 물체가 사람인지 동물인지를 구별하여 불필요한 계도방송을 방지할 수 있는, 지능형 인체감지 무인 계도방송 시스템에 관한 것이다.
출입이 금지된 등산로, 군사구역 및 제한구역 또는 사람의 접근이 어려운 산악지역, 계곡, 물놀이 사고지역 등에는 평상시 방송 음원을 방송하는 동시에 비상상황 발생시 인명피해를 최소화하기 위한 경보 또는 경고방송을 위한 방송장비가 설치되어 있다. 이와 같은 장소에 설치되는 방송장비는 전력 케이블 등의 매설이 어렵기 때문에 주로 태양광 또는 풍력에 의한 신재생에너지로 전기를 공급하여 사용하거나 배터리 교환 방식을 채용하여 일정 기간 마다 관리자가 방전된 배터리를 충전된 배터리로 교체하는 방식으로 방송장치가 운영되고 있다.
이와 같은 방송장치는 관리자가 상주하면서 일반인의 출입을 통제할 수 없기 때문에 움직임 감지 CCTV를 설치하여 움직임이 감지될 때만 자동으로 계도방송을 송출하는 무인 방속시스템으로 구성되어 운영되고 있으며, 예를 들면, 특허등록 제10-1863301호 "CCTV 영상의 객체 감지를 통한 방송출력 시스템"과 같은 기술이 있다. 이하에서 도 1을 참조하여 상기 특허를 간략히 설명한다.
상기 특허는, 실시간으로 영상을 촬영하는 다수의 카메라와; 다수의 카메라로부터 실시간 촬영되는 영상을 수신하고 상기 각각의 카메라로부터 수신되는 영상에 대해서 객체를 감지하기 위한 영역 설정을 위하여 사용자의 터치에 의한 적어도 3개 이상의 포인트로 제1감지영역이 형성되는 기준프레임, 기준프레임의 제1감지영역과 동일한 좌표를 통해 제2감지영역이 형성되는 가상 프레임을 생성하고, 기준프레임 다음으로 수신되는 제1프레임에 대해서 가상프레임에 의해서 동일한 좌표를 갖는 제3감지영역이 설정되고, 제1프레임의 각 픽셀에 대해서 제3감지영역에 포함되는지 여부를 이진화로 판단하여 제3감지영역에 포함되는 경우에만 제1감지영역과 제3감지영역에서 동일한 좌표에 있는 픽셀 비교시 설정된 변화량 이상의 픽셀변화값이 생성되면 제1제어신호를 생성하는 단말기; 및 상기 제1제어신호를 수신함에 따라 제1경고방송파일을 타 단말기 또는 상기 단말기로부터 수신하여 1차 경고방송 출력하는 음성출력기로 이루어지면서, 상기 단말기는 제1감지영역과 제3감지영역에서 동일한 좌표에 있는 픽셀들 비교시 설정된 변화량 이상의 픽셀변화값이 발생한 객체감지픽셀들이 발생한 경우에, 제1프레임 이후에 일정시간 수신되는 제2프레임들이 가상프레임의 제2감지영역과 동일한 좌표의 제4감지영역이 형성되고, 상기 객체감지픽셀들과 동일한 좌표의 제4감지영역의 픽셀들이 상기 객체감지 픽셀들의 픽셀값과 동일 또는 설정된 픽셀변화값이 생성되면 기준프레임의 제1감지영역과 제2프레임의 제4감지영역을 비교하여 픽셀변화값이 생성되면 제1제어신호를 생성하는 CCTV 영상의 객체 감지를 통한 방송출력 시스템을 제안하고 있다.
그러나 이와 같은 종래의 카메라 시스템에서는 화상 내의 픽셀 변화에 기반하여 움직임을 감지하고 방송을 송출하도록 구성되어 있으며 감지영역 내에서 움직임의 수반한 객체의 종류가 사람, 동물, 차량 또는 나뭇가지나 나뭇잎과 같은 종류를 구분하고 있지 않는다.
그러므로 사람의 출입이 제한된 지역에서의 무인계도 방송에서 개, 고양이, 산짐승 등과 같은 동물이 접근한 경우 또는 나뭇가지 나 나뭇잎 등이 심하게 흔들리는 경우에도 무인 계도방송이 송출되어 불필요하게 전력이 낭비되는 일이 빈번하게 발생되는 문제가 있다. 따라서 감지된 객체가 사람, 동물 또는 사물인지를 구분하여 사람인 경우에만 방송하고 불필요한 경우까지 계도방송 또는 안내방송을 하지 않는 무인 계도방송 장치가 절실하게 필요한 실정이다.
본 발명은 상기와 같은 문제를 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 일반인의 출입이 금지된 특정 지역에서 물체의 움직임이 감지될 때 그 물체가 사람인지 동물인지 등을 구별하여 동물이 감지된 경우에는 계도방송을 하지 않도록 함으로써 불필요한 계도방송을 방지함으로써 에너지를 절감할 수 있게 하여 시스템의 장기간 구동이 가능한, 지능형 인체감지 무인 계도방송 시스템을 제공하기 위한 것이다.
본 발명에 따른 지능형 인체감지 무인 계도방송 시스템은, 무인 계도방송 장치 및 통합 관제서버를 포함하는 지능형 인체감지 무인 계도방송 시스템인데, 상기 무인 계도방송 장치는, 사람 또는 동물의 동작을 포함하는 움직임을 감지하는 동작감지부; 무인 계도방송 장치가 설치된 장소의 환경 데이터를 수집하는 환경감지부; 동작감지 이벤트 발생시 시청각 데이터를 수집하기 위한 시청각 데이터 수집부; 무인 계도방송 장치의 동작을 제어하기 위한 제어부; 동작감지 이벤트 발생시 제어부의 제어하에 청각적 경고를 발생시키는 청각적 경고 출력부; 및 무인 계도방송 장치의 구성요소에 전원을 공급하는 전원공급부를 포함하여 구성되고, 상기 무인 계도방송 장치는 동작감지부로부터 감지 이벤트가 발생되기까지 절전모드로 동작되는 것을 특징으로 한다.
바람직하게는, 제어부는 객체 식별부를 포함하고, 시청각 데이터 수집부는 정지영상을 촬영하는 카메라 및 동영상을 촬영하는 CCTV를 포함하며, 동작감지부로부터 감지 이벤트가 발생했을 때 제어부는 카메라를 기동시키고 카메라로부터 정지영상을 수신하며, 객체 식별부는 인공신경망 학습을 통해 정지영상으로부터 사람 또는 동물을 식별하도록 구성된다.
바람직하게는, 객체 식별부가 정지영상으로부터 식별된 객체가 동물인 것으로 판단한 경우, 제어부는 정지영상을 관제서버로 전송한 후 무인 계도방송 장치를 절전모드로 전환하도록 동작한다.
바람직하게는, 객체 식별부가 정지영상으로부터 식별된 객체가 사람인 것으로 판단한 경우, 제어부는 정지영상을 관제서버로 전송하는 동시에 CCTV를 기동시키고 CCTV로부터 동영상을 수신하여 저장하며, 청각적 경고 출력부를 통해 경고 방송을 송출한 후 무인 계도방송 장치를 절전모드로 전환하도록 동작한다.
바람직하게는, 환경감지부는 온도/습도 센서, 풍향/풍속 센서, 미세먼지 센서, 라돈 방사선 센서 및 일산화탄소 센서 중 하나 이상을 포함하고, 제어부는 미리 정해진 시간 간격으로 환경 감지부에서 감지된 환경 데이터를 서버로 전송하도록 구성된다.
본 발명에 따른 무인 계도방송 시스템은, 일반인의 출입이 금지된 등산로, 군사구역 및 제한구역 등과 같은 특정 장소에 설치되어 무인 계도방송 또는 안내방송을 수행하는 시스템인데, 상기와 같은 특정 지역에서 물체의 움직임이 감지될 때 그 물체가 사람인지 동물인지 등을 구별하여 개, 고양이 또는 산짐승 등과 같은 동물이 접근하거나 움직임이 감지된 경우 및 나뭇잎과 같은 사물의 움직임이 감지된 경우에는 계도방송을 하지 않고, 사람이 접근하거나 움직임이 감지될 경우에만 계도방송을 하기 때문에 불필요한 에너지 낭비를 방지하고 에너지를 절감하여 시스템의 장기간 구동이 가능하다.
도 1은 종래의 움직임 감지 CCTV에서 프레임별 픽셀 변화에 기반한 움직임 감지동작을 나타내는 도면이다.
도 2는 본 발명에 따른 지능형 인체감지 무인 계도방송 시스템을 개략적으로 도시한 도면이다.
도 3는 무인 계도방송 장치를 블록으로 도시한 블록도이다.
도 4는 전력 최적화를 위해 구성된 무인 계도방송 장치의 전원공급라인을 설명하기 위한 도면이다.
도 5는 인공신경망 예측 모델의 일례를 나타낸 도면이다.
도 6는 인공신경망 학습 모델의 훈련장치의 일례를 나타낸 도면이다.
도 7은 본 발명에 따른 무인 계도방송 시스템의 관제서버에서 제공하는 기후 환경 데이터의 일례를 나타낸 도면이다.
도 8은 감지 이벤트 발생에 따른 출입 인원수 및 방송횟수 기록을 나타내는 통계 데이터의 일례를 나타내는 도면이다.
본 발명에 따른 무인 계도방송 시스템의 기술적 특징은, 사람의 출입이 금지된 지역에서 동물이나 사물이 아닌 사람의 움직임이 감지될 경우에만 계도방송을 하도록 하여 방송 오송출에 의한 불필요한 에너지 소모를 방지할 수 있는 에너지 절감형 방송장치를 제공했다는 점이다.
도 2는 본 발명에 따른 지능형 인체감지 무인 계도방송 시스템을 개략적으로 도시한 도면이다. 도 2에 도시된 바와 같이, 지능형 인체감지 무인 계도방송 시스템(1)은 무인 계도방송 장치(10) 및 관제서버(50)로 구성된다. 무인 계도방송장치(10)는 전국의 산에 분산 배치되거나 또는 특수목적의 구역, 예를 들면, 출입이 통제된 군사보호구역, 상수도보호구역, 문화재보호구역, 고소득 농특산물(예를 들면 버섯, 인삼, 송이 등) 재배구역, 계절 유형별 안전사고 다발 발생지역 등과 같은 다양한 분야에서 그 목적에 맞게 분산 배치될 수 있다.
또한, 복수의 무인 계도방송 장치(10) 각각은 그 자체에 설치된 환경검출 센서 등을 이용하여 환경 요소, 예를 들면, 온도, 습도, 풍향, 풍속, 미세먼지, 라돈 방사선 등과 같은 환경 요소값을 검출 및 수집하고, 출입제한 지역에 사람이 감지되면 출입금지 안내방송을 송출하거나, 사고발생 위험지역에서 사람이 감지되면 사고 주의 안내방송을 송출하거나, 긴급재난과 같은 비상상황 발생시 비상방송을 송출하도록 구성된다. 특히 출입제한 지역에 사람이 감지되는 경우 미리 설정된 제어 절차에 따라 영상을 녹화하고 녹화된 영상 및 음성을 수집하도록 동작한다. 수집된 영상 및 음성 데이터와 수집된 환경요소 데이터는 이후 관제서버(50)로 전송되고 관제서버(50)는 수집된 데이터에 기반하여 무인 계도방송 장치(10)가 설치된 장소 주변의 환경정보를 관리하거나 캡쳐 영상 등을 통해 실시간 모니터링을 수행하게 된다.
먼저 본 발명에 따른 무인 계도방송 장치(10)에 대해 설명하도록 한다. 도 3은 무인 계도방송 장치(10)의 기능을 블록으로 도시한 기능 블록도이다. 도 3에 도시된 바와 같이, 무인 계도방송 장치(10)는 무인 계도방송 장치(10)가 설치된 장소에서 사람 또는 동물 등에 의한 동작을 포함하는 움직임을 감지하는 동작감지부(12); 무인 계도방송 장치(10)가 설치된 장소의 환경 데이터를 수집하는 환경감지부(14); 동작감지 이벤트 발생시 시청각 데이터를 수집하기 위한 시청각 데이터 수집부(15); 무인 계도방송 장치(10)의 동작을 제어하기 위한 제어부(13); 및 동작감지 이벤트 발생시 제어부(13)의 제어하에 청각 및/또는 시각적 경고를 발생시키는 시청각 출력부(16) 및 무인 계도방송 장치의 구성요소에 전원을 공급하는 전원공급부(17)를 포함하여 구성된다.
무인 계도방송 장치(10)는 최소한의 전력 소모를 위해 평상시 동작감지센서(12)를 제외한 모든 구성요소는 슬립모드 또는 절전모드 상태로 유지된다. 동작감지센서(12)는 적외선 방식의 움직임 감지센서일 수 있으며, 본 실시예에서 동작감지센서(12)는 무인 계도방송 장치(10)의 지주에 설치될 수도 있고 지주에 결합된 브라켓 등을 통해 설치될 수도 있다.
또한, 동작감지센서(12)는 지상에서 대략 2.5~3m 정도의 높이에 설치되는 것이 바람직하며, 동작감지 검출거리는 대략 10~20m 사이에서 검출 가능하도록 설정되는 것이 바람직하다. 동작감지센서(12)는 무인 계도방송 장치(10)가 설치된 장소 주변을 지나는 객체(사람, 동물)의 움직임을 감지하여 제어부(13)에 트리거 신호를 출력하도록 동작한다. 제어부(13)는 동작감지센서(12)로부터 신호를 수신하는 트리거 신호수신부(131)를 제외하면 모두 슬립모드로 기동하도록 트리거 신호수신부(131)에 별도의 전원공급 라인이 제공될 수 있다.
도 4는 전력 최적화를 위해 구성된 무인 계도방송 장치의 전원공급라인을 설명하기 위한 도면이다. 도 4에 도시된 바와 같이, 상시 전원은 전술한 동작감지센서(12), 라돈방사선센서(144), CO 센서(145) 및 트리거 신호수신부(131)에 연결되고, 동작감지 이벤트 발생시에는 제어부(13)는 슬립모드에 있던 카메라(151), CCTV(152)를 포함하는 시청각 데이터 수집부(15)와 방송출력에 필요한 앰프(161), 스피커(162) 및 LED(163)를 포함하는 시청각 출력부(16)에 전원을 공급하여 동작모드로 전환한다. 그러나 동작검출 이벤트 발생시에도 최초에는 정지영상을 촬영하는 카메라(151)에만 전원을 공급하고 정지영상을 통해 검출된 객체가 사람인 경우에만 CCTV(152), 앰프(161), 스피커(162), LED(163)에 전원을 공급하도록 구성되는 것이 바람직하다. 이는 동작감지 이벤트 발생시 검출된 객체가 동물이나 나뭇가지와 같은 사물인 경우 CCTV(152), 앰프(161), 스피커(162), LED(163)에 전원을 공급하여 불필요한 전력이 낭비되는 것을 방지하는데 기여할 수 있다.
한편 환경데이터 검출을 위한 환경감지부(14) 중 라돈방사선 센서(144) 및 일산화탄소(CO) 센서의 경우 상시전원에 연결되어 방사선 유출 또는 산불과 같은 재난 상태에 대응하도록 구성된다. 센서 제어부(147)는 라돈방사선 센서(144) 및 일산화탄소 센서(145)로부터의 검출된 값을 감시하고 각각 측정된 라돈방사선 수치와 일산화탄소 수치가 기준값 이상일 경우 트리거 신호를 발생시키고 이를 트리거 신호수신부(131)로 전달하지만, 그렇지 않은 경우 라돈방사선 수치와 일산화탄소 수치가 기준값 이하(정상값 범위)인 경우에는 트리거 신호를 발생시키지 않고, 타이머(146)에 설정된 시간 스케쥴 또는 시간 주기마다 다른 온도/습도값, 풍향/풍속값, 미세먼지값과 함께 제어부(13)로 전송되고 환경데이터 저장부(1362)에 수집된다. 각각 측정된 라돈방사선 수치와 일산화탄소 수치가 기준값 이상일 경우 제어부(13)는 무인 계도방송 장치(10)는 슬립모드에서 동작모드로 전환되고 제어부는 카메라, CCTV와 같은 시청각 데이터 수집수단을 활성화시켜 주변 상황을 녹화하고 제어부(13)의 미디어데이터 저장부(1361)로 전송되며 이는 통신부(138)를 통해 모니터링 될 수 있다.
이와 같은 구성에 의하면 무인 계도방송 장치(10)는 동작감지센서(12)로부터 감지된 동작 감지 결과가 사람인 것으로 판단된 경우, 라돈 방사선 센서 또는 일산화탄소 센서에서 검출된 값이 기준범위를 벗어난 경우 슬립모드에서 동작모드로 전환되도록 구성되어 최대한으로 전력을 절약할 수 있게 된다. 또한, 무인 계도방송 장치(10)는 원격지의 관제서버(50)로부터 트리거 신호를 수신한 경우 슬립모드에서 동작모드로 전환될 수도 있다.
전술한 실시예에서 일부의 구성요소들, 예를 들면, 환경 센서들 중 라돈방사선 센서(144), 일산화탄소 센서(145)만 상시 전원에 연결된 것으로 설명되고 있지만 본 발명은 이에 한정되는 것은 아니고 다른 센서들 역시 필요에 따라 상시 전원에 연결될 수도 있으며, 이 경우 라돈방사선 센서(144), 일산화탄소 센서(145)만 상시 감시를 수행하고, 온도/습도 센서(141), 풍향/풍속 센서(142) 및 미세먼지 센서(145)의 경우 타이머(146)에 의해 미리 정해진 시간 간격마다 측정을 수행하여 배터리 효율을 향상시키도록 구성되어도 좋다.
다시 도 3을 참조하면, 제어부(13)는 트리거 신호를 수신하는 트리거 신호 수신부(131); 카메라(151)을 기동시키기 위한 명령을 생성하는 카메라 기동부(132); 기동된 카메라(151)로부터 촬영된 정지영상을 수신하는 이미지 수신부(133); 수신된 정지영상으로부터 객체를 식별하는 객체 식별부(20); 객체 식별부(20)의 식별 결과에 따른 CCTV를 기동시키는 CCTV 기동부(134); CCTV 기동에 따라 CCTV로부터 전송되는 영상을 수신하는 영상 수신부(135); 영상 수신부(135) 및 환경 감지부(14)로부터 감지된 데이터가 저장되는 데이터 저장부(136); 객체 식별부(20)에서의 객체 식별 결과에 따라 미리 저장된 방송을 송출하는 방송 출력부(139); 및 관제서버(50)와의 데이터 통신을 수행하기 위한 통신부(138)을 포함하여 구성된다.
트리거 신호수신부(131)는 무인 계도방송 장치(10)를 슬립모드에서 동작모드로 변경하기 위한 트리거 신호를 수신한다. 트리거 신호로는 전술한 바와 같은 동작감지 센서(12)로부터의 동작감지 신호, 환경 감지부(14)로부터의 이상 환경 검출 신호가 이용될 수 있다. 또한 트리거 신호의 수신과 무관하게 관제서버(50)로부터의 동작명령이 수신되면 무인 계도방송 장치(10)가 슬립모드에서 동작모드로 변경될 수 있다.
트리거 신호 수신부(131)에서 동작감지 신호가 검출됨에 따라 제어부(13)는 카메라 기동부(132)를 통해 카메라(151)를 슬립모드에서 동작모드로 기동시킨다. 카메라(151)의 제어모듈이 기동 명령을 수신하면 카메라 제어모듈은 영상을 정지 촬영하고 촬영된 정지 영상을 이미지 수신부(133)로 전달한다. 이미지 수신부(133)는 수신된 정지 영상을 객체 식별부(20)에 전달한다.
객체 식별부(20)는 수신된 정지영상을 통해 정지영상 내의 객체를 판단하도록 기능한다. 예를 들면, 객체 식별부(20)는 인공신경망 학습, 딥러닝, 머신러닝과 같은 학습을 통해 이루어지는 예측 모델이 이용될 수 있다. 도 5는 인공신경망 예측 모델의 일례를 나타낸 도면이다. 본 발명의 실시예에서 객체 식별부(20)는 인공신경망을 이용한 연산을 통해 정지 영상에 존재하는 객체의 3차원 선형 메쉬 모델 파라미터를 추정한다.
이러한 객체 식별부(20)는 수신된 정지 영상에 존재하는 객체의 특징 벡터를 추출하고, 특징 벡터에 기초하여 객체에 대하여 종을 분류하며, 특징 벡터를 미리학습된 동물용 메쉬 모델 파라미터 추정 인공신경망에 입력하여 동물용 메쉬 모델 파라미터 추정 인공신경망의 출력으로서 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터를 획득하고, 상기 특징 벡터를 미리 학습된 사람용 메쉬 모델 파라미터 추정 인공신경망에 입력하여 사람용 제2메쉬 모델 파라미터 추정 인공신경망의 출력으로서 사람의 3차원 선형 메쉬 모델 파라미터를 획득하며, 객체에 대한 종 분류 결과와 획득된 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터 및 사람의 3차원 선형 메쉬 모델 파라미터를 비교하여 객체를 판별한다.
여기서, 객체 식별부(20) 내 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 4족 보행 동물과 사람에 대한 전체 관절의 정확성을 평가하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 전체 관절의 정확성을 평가하는 방법은 객체의 상체 및 객체의 하체를 분리하여 별도로 수행하고, 또한 객체의 상체 및 하체를 모두 포함한 전체 관절 포인트를 평가할 수도 있다.
또한, 4족 보행 동물 메쉬 모델과 사람 메쉬 모델이 공통적으로 가지고 있는 부관절을 매칭시켜서 형태학적 유사성을 학습하는 방향으로 네트워크 파라미터가 학습된 것일 수 있다. 또한, 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망이 관측 영상의 동일 프레임으로부터 각각 계산된 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습된 것일 수 있다.
또한, 동물용 메쉬 모델 파라미터 추정 인공신경망의 학습 시에, 동물용 메쉬 모델 파라미터 추정 인공신경망이 출력하는 4족 보행 동물의 3차원 선형 메쉬 모델 파라미터가 동물 종 별로 분포 특성이 달라지는 것을 규제(regularize)하는 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다. 예를 들어, 객체 식별부(20) 내 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망은 앞서 열거한 손실 함수들이 하나 이상 반영된 전체 손실 함수를 줄이는 방향으로 네트워크 파라미터가 학습될 수 있다.
이어서 객체 식별부(20)는 정지 영상 내의 객체가 동물일 확률과 사람일 확률을 각각 동물용 메쉬 모델 파라미터 추정 인공신경망과 사람용 메쉬 모델 파라미터 추정 인공신경망을 통해 각각 계산하고 더 높은 확률을 가진 판단 결과에 기반하여 정지 영상내 객체가 사람인지 동물인지를 판단하게 된다.
인공신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다. 인공신경망은 시냅스(synapse)의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 용어 인공신경망은 용어 뉴럴 네트워크(Neural Network)와 혼용되어 사용될 수 있으며, 인공신경망은 복수의 레이어(layer)를 포함할 수 있고, 레이어들 각각은 복수의 뉴런(neuron)을 포함할 수 있다. 또한 인공신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다.
인공신경망은 일반적으로 다음의 세가지 인자, 즉 (1) 다른 레이어의 뉴런들 사이의 연결 패턴, (2) 연결의 가중치를 갱신하는 학습 과정, (3) 이전 레이어로부터 수신되는 입력에 대한 가중 합으로부터 출력값을 생성하는 활성화 함수에 의해 정의될 수 있다. 전술한 바와 같이 본 발명에서 객체 식별부(20)는 인공신경망을 이용하여 구성될수 있으며, 예를 들면, CNN(Convolutional Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron) 와 같은 방식의 네트워크 모델들을 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
본 명세서에서 용어 '레이어'는 용어 '계층'과 혼용되어 사용될 수 있다. 인공신경망은 계층 수에 따라 단층 신경망(Single-Layer Neural Networks)과 다층 신경망(Multi-Layer NeuralNetworks)으로 구분된다. 일반적인 단층 신경망은, 입력층과 출력층으로 구성된다. 또한 일반적인 다층 신경망은 입력층(Input Layer)과 하나 이상의 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성된다. 입력층은 외부의 자료들을 받아들이는 층으로서, 입력층의 뉴런 수는 입력되는 변수의 수와 동일하며, 은닉층은 입력층과 출력층 사이에 위치하며 입력층으로부터 신호를 받아 특성을 추출하여 출력층으로 전달한다. 출력층은 은닉층으로부터 신호를 받고, 수신한 신호에 기반한 출력 값을 출력한다. 뉴런간의 입력신호는 각각의 연결강도(가중치)와 곱해진 후 합산되며 이 합이 뉴런의 임계치보다 크면 뉴런이 활성화되어 활성화 함수를 통하여 획득한 출력값을 출력한다.
입력층과 출력층 사이에 복수의 은닉층을 포함하는 심층 신경망은, 기계 학습 기술의 한 종류인 딥 러닝을 구현하는 대표적인 인공신경망일 수 있다. 한편 용어 '딥 러닝'은 용어 '심층 학습'과 혼용되어 사용될 수 있다. 인공신경망은 훈련 데이터(training data)를 이용하여 학습(training)될 수 있다. 여기서 학습이란, 입력 데이터를 분류(classification)하거나 회귀분석(regression)하거나 군집화(clustering)하는 등의 목적을 달성하기 위하여, 학습 데이터를 이용하여 인공신경망의 파라미터(parameter)를 결정하는 과정을 의미할 수 있다.
도 6는 인공신경망 학습 모델인 객체 식별부(20)의 훈련장치(500)의 일례를 나타낸 도면이다. 훈련장치(500)는 관제서버(50)에 제공된 장치일 수 있으며 또는 연산 가능한 컴퓨터 장치일 수도 있다. 인공신경망 훈련장치(500)는 훈련 데이터를 이용하여 기계 학습을 수행할 수 있는 장치로서, 인공신경망으로 구성된 모델을 이용하여 학습하는 장치를 포함할 수 있다. 즉, 신경망 훈련장치는 데이터 마이닝, 데이터 분석, 지능형 의사 결정 및 기계 학습 알고리즘을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다. 여기서, 기계 학습 알고리즘은 딥 러닝 알고리즘을 포함할 수 있다. 인공신경망 훈련장치(500)는 적어도 하나의 외부 장치 또는 단말기와 통신할 수 있고, 외부 장치를 대신하여 혹은 외부장치를 도와 데이터를 분석하거나 학습하여 결과를 도출할 수 있다. 여기서, 다른 장치를 도운다는 의미는 분산 처리를 통한 연산력의 분배를 의미할 수 있다.
인공신경망 훈련장치(500)는 인공신경망을 훈련 또는 학습하기 위한 장치로서, 통상적으로 서버를 의미할 수 있고, 신경망 학습 서버 등으로 지칭할 수 있다. 인공신경망 훈련장치(500)는 주기적으로 혹은 요청에 의하여 외부장치(방송장치(10))에 기계 학습 또는 딥 러닝에 의하여 학습한 모델을 전송할 수 있으며, 방송장치(10)는 주기적으로 또는 필요에 따라 학습된 모델로 업데이트될 수 있다.
인공신경망 훈련장치(500)는 통신부(Communication Unit, 510), 입력부(Input Unit, 520), 메모리(Memory, 530), 러닝 프로세서(Learning Processor, 540) 및 프로세서(Processor, 560) 등을 포함할 수 있다.
통신부(510)는 무선 통신부(미도시) 및 인터페이스부(미도시)를 포함하는 구성을 의미할 수 있다. 즉, 통신부(510)는 유무선 통신이나 인터페이스를 통하여 드론과 같은 다른 장치와 데이터를 송수신할 수 있다.
입력부(520)는 모델 학습을 위한 훈련 데이터 또는 학습된 모델(trained model)을 이용하여 출력을 획득하기 위한 입력 데이터 등을 획득할 수 있다. 입력부(520)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 러닝 프로세서(540) 또는 프로세서(560)는 획득한 데이터를 전처리하여 모델 학습에 입력이 가능한 훈련 데이터 또는 전처리된 입력 데이터를 생성할 수 있다.
메모리(530)는 러닝 프로세서(540) 또는 인공신경망 훈련장치(500)에서 학습된 모델을 저장할 수 있다. 이때, 메모리(530)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다. 이때, 메모리(530)는 입력부(520)에서 획득한 입력 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장할 수 있다. 이때, 메모리(530)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터 뿐만 아니라 가공되지 않은 입력 데이터 그 자체일 수 있다.
메모리(530)는 모델 저장부(531) 및 데이터베이스(532) 등을 포함할 수 있다. 모델 저장부(531)는 러닝 프로세서(540)을 통하여 학습 중인 또는 학습된 인공신경망 모델(531a)을 저장하며, 학습을 통하여 모델이 업데이트되면 업데이트 된 모델을 저장한다. 이때, 모델 저장부(531)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다.
데이터베이스(532)는 입력부(520)에서 획득한 입력 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장할 수 있다. 데이터베이스(532)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터 뿐만 아니라 가공되지 않은 입력 데이터 그 자체일 수 있다.
러닝 프로세서(540)는 훈련 데이터 또는 트레이닝 셋(training set)을 이용하여 인공신경망 모델(531a)을 훈련(training, 또는 학습)시킬 수 있다. 러닝 프로세서(540)는 프로세서(560)가 입력부(520)를 통해 획득한 입력 데이터를 전처리한 데이터를 바로 획득하여 인공신경망 모델(531a)을 학습하거나, 데이터베이스(532)에 저장된 전처리된 입력 데이터를 획득하여 인공신경망 모델(531a)을 학습할 수 있다.
구체적으로, 러닝 프로세서(540)는 앞서 설명한 다양한 학습 기법을 이용하여 인공신경망을 반복적으로 학습시킴으로써, 인공신경망 모델(531a)의 최적화된 모델 파라미터들을 결정할 수 있다.
다시 도 3을 참조하면, 객체 식별부(20)는 학습된 인공신경망 예측 모델을 통해 객체의 종류를 판단하고 판단된 결과와 정지영상을 관제서버(50)의 훈련장치(500)로 전송한다. 전송된 판단 결과와 정지 영상은 훈련장치(500)에서 인공신경망 모델을 학습하는데 다시 사용된다.
객체 식별부(20)에서 정지영상 내의 객체가 동물인 것으로 판단되면 제어부(13)는 무인 계도방송 장치(10)의 운영모드를 절전 모드로 전환하고 다음 이벤트가 감지될 때까지 이 상태를 유지한다. 그러나 객체 식별부(20)에서 정지영상 내의 객체가 사람인 것으로 판단된 경우 제어부(13)는 CCTV 기동부(134)를 통해 CCTV를 슬립모드 상태에서 동작모드 상태로 전환하고 CCTV(152)로부터 동영상을 촬영하도록 촬영 명령을 전송한다. CCTV(152)의 제어부는 촬영 명령을 수신하면 CCTV를 통해 동영상을 촬영하고 촬영된 동영상을 제어부(13)의 영상 수신부(135)로 전송한다
또한, 제어부(13)는 객체 식별부(20)에서 정지영상 내의 객체가 사람인 것으로 판단된 경우 통신부(138)를 통해 관제서버(50)에 제한 구역에 사람이 감지되었음을 알리는 동시에 관제서버(50)와 무인 계도방송 장치(10) 사이에 영상 채널을 수립하고 영상 수신부(135)에 수신된 동영상을 실시간으로 관제서버(50)에 전송하며, 따라서 관리자는 원격지에서 관제서버(50)를 통해 해당하는 이벤트를 모니터링할 수 있게 된다. 이와 같은 원격지 모니터링은 환경감지부(14)에서 비상 이벤트 발생시(방사능 누출, 화제로 인한 라돈방사선 이상 검출 또는 일산화탄소 이상 검출)에도 동일하다.
데이터 저장부(136)는 환경감지부(14)로부터 수집된 환경 데이터와 시청각 데이터 수집부(15)에서 수집된 정지 영상, 동영상, 음성(비디오 및 오디오) 데이터가 저장된다. 저장된 환경 데이터는 무인 계도방송 장치(10)가 활성화되는 미리 정해진 시간 또는 시간마다 통신부(138)를 통해 관제서버(50)로 전송된다. 또한, 미디어데이터 저장부(1361)에 저장된 데이터 역시 환경 데이터와 동일하게 방송장치(10)가 활성화되는 미리 정해진 시간 또는 시간마다 통신부(138)를 통해 관제서버(50)로 전송될 수도 있다. 그러나 본 발명은 이에 한정되는 것은 아니고 비교적 크기가 큰 미디어 데이터의 사람이 감지된 경우가 아니라면 관제 서버로 보내지지 않고 미디어 데이터 저장부(1361)에 저장되고 필요시 관제서버(50)에서 관리자가 무인 계도방송 장치(10)에 액세스하여 저장된 미디어 파일을 모니터링 가능하도록 구성될 수도 있다.
방송 출력부(139)는 객체 식별부(20)로부터의 판단 결과에 따라 경고 방송의 수행 여부가 결정된다. 예를 들면, 객체 식별부(20)에서 정지 영상 내의 객체가 사람인 것으로 판단된 경우 제어부(13)는 방송 출력부(139)로 하여금 메모리(137)에 저장된 경고 오디오 파일을 송출하도록 구성된다. 이 경우 시청각 출력부(16)에 전원이 공급되고 앰프 및 스피커를 통해 청각적 경보 방송이 송출되는 한편 LED가 발광하며 시각적 경보 시그널이 발생된다.
전원공급부(17)는 무인 계도방송 장치(10)에 필요한 전원을 공급하도록 구성되고 전원공급부(17)는 배터리 감시부(171)를 포함한다. 배터리 감시부(171)는 현재 남아 있는 배터리의 잔량을 체크하고 이를 제어부(13)에 전달한다. 제어부(13)는 배터리의 잔량을 메모리(137) 등에 저장해 두고, 이벤트가 발생하여 관제서버(50)와의 통신 연결시 또는 관제서버(50)와의 정기적 통신 연결시 배터리의 잔량을 환경 데이터와 함께(필요에 따라 미디어 데이터도 포함될 수 있음) 관제서버(50)에 전송된다.
관제서버(50)는 전술한 바와 같이 무인 계도방송 장치(10)로부터 환경데이터와 감지이벤트 데이터(미디어 데이터)와 배터리 잔량 데이터를 수신한다. 관제서버(50)는 수신된 환경 데이터를 이용하여 환경 데이터 베이스를 구축하고 구축된 데이터에 기반하여 무인 계도방송 장치(10)가 설치된 장소의 환경을 관리할 수 있도록 구성된다. 도 7은 본 발명에 따른 무인 계도방송 시스템의 관제서버(50)에서 제공하는 기후 환경 데이터의 일례를 나타낸 도면이다. 관제서버(50)는 예를 들면, 날자별 해당 구역의 온습도 데이터, 풍량/풍속 데이터, 미세먼지 데이터, 라돈 방사선 데이터, 일산화탄소 데이터를 제공할 수 있으며, 각 측정 항목별로 주간 평균 데이터, 월간 평균 데이터를 제공할 수 있으며 이를 통해 기후 자료를 제공할 수 있다.
도 8은 감지 이벤트 발생에 따른 출입 인원수 및 방송횟수 기록을 나타내는 통계 데이터의 일례를 나타내는 도면이다. 도 8에 도시된 바와 같이, 관제서버(50)는 사람 감지 이벤트를 통해 파악되는 사람의 수(출입인원수)와 방송횟수 데이터를 데이터베이스화하고 이를 일별, 월별 데이터로 제공하여 출입인원수의 시간대별 변화, 월별 변화량을 시각적으로 관측하는 것을 가능하게 하고, 따라서 이에 대한 대응방안을 만련하는 것을 가능하게 한다.
이상의 설명은 본 발명을 예시적으로 설명한 것이고, 명세서에 게시된 실시예는 본 발명의 기술사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술사상을 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 그러므로 본 발명의 보호범위는 청구범위에 기재된 사항에 의해 해석되고, 그와 균등한 범위 내에 있는 기술적 사항도 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 무인 계도방송 장치
12: 동작감지 센서 13: 제어부
14: 환경 감지부 15: 시청각 데이터 수집부
16: 시청각 출력부 17: 전원공급부
50: 관제서버

Claims (5)

  1. 무인 계도방송 장치 및 통합 관제서버를 포함하는 지능형 인체감지 무인 계도방송 시스템에 있어서,
    상기 무인 계도방송 장치는,
    사람 또는 동물의 동작을 포함하는 움직임을 감지하는 동작감지부;
    무인 계도방송 장치가 설치된 장소의 환경 데이터를 수집하는 환경감지부;
    동작감지 이벤트 발생시 시청각 데이터를 수집하기 위한 시청각 데이터 수집부;
    무인 계도방송 장치의 동작을 제어하기 위한 제어부;
    동작감지 이벤트 발생시 제어부의 제어하에 청각적 경고를 발생시키는 청각적 경고 출력부; 및
    무인 계도방송 장치의 구성요소에 전원을 공급하는 전원공급부;
    를 포함하여 구성되고, 상기 무인 계도방송 장치는 동작감지부로부터 감지 이벤트가 발생되기까지 절전모드로 동작되고,
    상기 제어부는 인공신경망 학습을 통해 정지영상으로부터 사람 또는 동물을 식별하도록 구성된 객체 식별부를 포함하고,
    상기 시청각 데이터 수집부는 정지영상을 촬영하는 카메라 및 동영상을 촬영하는 CCTV를 포함하고,
    상기 동작감지부로부터 감지 이벤트가 발생했을 때, 제어부는 먼저 카메라만을 기동시키고 카메라로부터 정지영상을 수신하며,
    상기 객체 식별부가 정지영상으로부터 식별된 객체가 동물인 것으로 판단한 경우, 상기 제어부는 정지영상을 관제서버로 전송한 후 무인 계도방송 장치를 절전모드로 전환하고,
    상기 객체 식별부가 정지영상으로부터 식별된 객체가 사람인 것으로 판단한 경우, 상기 제어부는 관제서버와의 통신 장비 및 CCTV를 기동시키고 CCTV로부터 동영상을 수신하여 저장하는 동시에 관제서버로 동영상을 송출하며, 청각적 경고 출력부와 LED 경고등을 통해 경고 방송을 송출한 후 무인 계도방송 장치를 절전모드로 전환하도록 구성되고,
    상기 환경 감지부는 온도/습도 센서, 풍향/풍속 센서, 미세먼지 센서, 라돈 방사선 센서 및 일산화탄소 센서 중 하나 이상을 포함하고,
    상기 환경 감지부 중 라돈방사선 센서 및 일산화탄소 센서는 상시전원에 연결되고, 라돈방사선 수치와 일산화탄소 수치가 기준값 이상일 경우 상기 무인 계도방송 장치에 트리거 신호를 발생시켜 무인 계도 장치를 절전모드로부터 동작모드로 전환시키는 것을 특징으로 하는 지능형 인체감지 무인 계도방송 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 제어부는 미리 정해진 시간 간격으로 환경 감지부에서 감지된 환경 데이터를 서버로 전송하도록 구성된 것을 특징으로 하는 지능형 인체감지 무인 계도방송 시스템.
KR1020220185239A 2022-12-27 2022-12-27 지능형 인체감지 무인 계도방송 시스템 KR102542327B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220185239A KR102542327B1 (ko) 2022-12-27 2022-12-27 지능형 인체감지 무인 계도방송 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220185239A KR102542327B1 (ko) 2022-12-27 2022-12-27 지능형 인체감지 무인 계도방송 시스템

Publications (1)

Publication Number Publication Date
KR102542327B1 true KR102542327B1 (ko) 2023-06-13

Family

ID=86762656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220185239A KR102542327B1 (ko) 2022-12-27 2022-12-27 지능형 인체감지 무인 계도방송 시스템

Country Status (1)

Country Link
KR (1) KR102542327B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101779477B1 (ko) * 2017-01-23 2017-09-18 임혜영 지진감지분석·재난안전통신망 구축을 갖는 스마트 저전력 디지털 사이니지 장치
KR20200098985A (ko) * 2019-02-13 2020-08-21 엔씨엔스페이스(주) 데이터 기반 관제 시스템 및 그 방법
KR102327923B1 (ko) * 2021-05-31 2021-11-17 (주) 범영테크 쓰레기 무단투기 단속시스템 및 방법
KR20220105851A (ko) * 2021-01-21 2022-07-28 한국전력공사 무인변전소 감시 시스템 및 그 동작 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101779477B1 (ko) * 2017-01-23 2017-09-18 임혜영 지진감지분석·재난안전통신망 구축을 갖는 스마트 저전력 디지털 사이니지 장치
KR20200098985A (ko) * 2019-02-13 2020-08-21 엔씨엔스페이스(주) 데이터 기반 관제 시스템 및 그 방법
KR20220105851A (ko) * 2021-01-21 2022-07-28 한국전력공사 무인변전소 감시 시스템 및 그 동작 방법
KR102327923B1 (ko) * 2021-05-31 2021-11-17 (주) 범영테크 쓰레기 무단투기 단속시스템 및 방법

Similar Documents

Publication Publication Date Title
JP7072700B2 (ja) 監視システム
CN105913559B (zh) 一种基于体感技术的银行atm机智能监控方法
CN103839373B (zh) 一种突发异常事件智能识别报警装置及报警系统
KR101644443B1 (ko) 시공적 상황데이터를 이용한 경고 방법 및 시스템
CN115272037B (zh) 一种基于物联网的智慧城市区域治安管理预警方法和系统
KR102172239B1 (ko) 영상 기반 비정상 상황 모니터링 방법 및 시스템
WO2021114766A1 (zh) 一种基于深度数据的人员行为模式分析方法和系统
CN112737121A (zh) 一种电网智能视频监控分析控制管理系统
CN206629277U (zh) 一种wsn监测系统
CN111753780A (zh) 变电站违章检测系统及违章检测方法
KR20190044867A (ko) 독거 세대 관제 장치
KR102542327B1 (ko) 지능형 인체감지 무인 계도방송 시스템
KR102299704B1 (ko) 재난환경 메타데이터 연계를 통한 스마트 딥러닝 영상감시 시스템
Saravanan et al. IoT alert reflexion of forbidden deforestation regions with drone observation
CN117636169A (zh) 一种森林巡护方法及系统
KR20220113631A (ko) 위험 상황 감지 장치 및 위험 상황 감지 방법
KR102556447B1 (ko) 패턴 분석을 통한 상황 판단 시스템
KR20210116183A (ko) 가축의 설사 탐지 및 설사 위험도 예측 시스템 및 그 이용 방법
KR102469301B1 (ko) 행동별 이상 감지 시스템
KR102492066B1 (ko) 이동식 예방 경계 시스템
AU2020103515A4 (en) A system and a method for real time monitoring and identification of endangered animals
WO2022204153A1 (en) Image based tracking system
JP2005353016A (ja) 動画像の行動パターン識別の評価と方法
US20170073069A1 (en) Security system
KR102581941B1 (ko) 딥러닝을 이용한 반려견의 입마개 착용 여부 감시 시스템 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant