KR102029751B1 - Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device - Google Patents

Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device Download PDF

Info

Publication number
KR102029751B1
KR102029751B1 KR1020170140896A KR20170140896A KR102029751B1 KR 102029751 B1 KR102029751 B1 KR 102029751B1 KR 1020170140896 A KR1020170140896 A KR 1020170140896A KR 20170140896 A KR20170140896 A KR 20170140896A KR 102029751 B1 KR102029751 B1 KR 102029751B1
Authority
KR
South Korea
Prior art keywords
sensor
sensor device
program
unit
data
Prior art date
Application number
KR1020170140896A
Other languages
Korean (ko)
Other versions
KR20190047246A (en
Inventor
성원용
Original Assignee
(주)테크노니아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)테크노니아 filed Critical (주)테크노니아
Priority to KR1020170140896A priority Critical patent/KR102029751B1/en
Publication of KR20190047246A publication Critical patent/KR20190047246A/en
Application granted granted Critical
Publication of KR102029751B1 publication Critical patent/KR102029751B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 영상 센서 및/또는 소리 센서를 포함하는 제1 센서부, 무선 네트워크를 통해 데이터를 송수신하는 통신부, 제1 센서부로부터의 센싱 데이터를 처리하는 하나 이상의 프로그램을 저장하는 저장부 및 하나 이상의 프로그램을 수행하여 제1 센서부로부터의 센싱 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 통신부를 통해 송출하는 제어부를 포함하는 센서 디바이스 및 환경 모니터링 시스템에 관한 것이다.The present invention provides a first sensor unit including an image sensor and / or a sound sensor, a communication unit for transmitting and receiving data through a wireless network, a storage unit for storing one or more programs for processing sensing data from the first sensor unit, and one or more programs. The present invention relates to a sensor device and an environmental monitoring system including a control unit which executes a program to process sensing data from a first sensor unit to generate result data, and transmit the generated result data through a communication unit.

Description

소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템{SENSOR DEVICE ABLE TO MONITOR EXTERNAL ENVIRONMENT BASED ON SOUND OR IMAGE AND ENVIRONMENT MONITORING SYSTEM COMPRSING THE SENSOR DEVICE}Sensor device capable of monitoring the external environment based on sound or video and environmental monitoring system including the same

본 발명은 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템에 관한 것으로서, 구체적으로는 소리 센서 및/또는 영상 센서로부터 센싱된 데이터를 처리하여 외부 환경을 인식하고 인식된 상태를 나타내는 결과값을 IoT 네트워크를 통해 전송할 수 있도록 구성되는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템에 관한 것이다. The present invention relates to a sensor device capable of monitoring an external environment based on sound or an image, and an environmental monitoring system including the same, and specifically, recognizes an external environment by processing data sensed from a sound sensor and / or an image sensor. And a sensor device capable of monitoring an external environment based on sound or video and configured to transmit a result value indicating a recognized state through an IoT network, and an environmental monitoring system including the same.

사물 인터넷(IoT : Internet of Things) 기술을 활용하여 생활환경을 감시하거나 측정하여 위험을 미리 감지하거나 안전한 환경을 제공하기 위한 노력들이 행해지고 있다. Efforts have been made to monitor or measure the living environment using the Internet of Things (IoT) technology to detect risks in advance or to provide a safe environment.

이를 위해, IoT 디바이스는 다양한 센서를 구비하여 각종 외부 환경을 모니터링하고 있다. IoT 디바이스는 공기질 측정 센서(PM2.5, VOCs), 방사능 센서, 전자파 센서 등 다양한 센서를 활용하여 외부 환경을 모니터링할 수 있도록 구성된다. To this end, IoT devices are equipped with various sensors to monitor various external environments. IoT devices are configured to monitor the external environment using various sensors such as air quality measurement sensors (PM2.5, VOCs), radiation sensors, and electromagnetic sensors.

나아가, 개발자들은 IoT 디바이스에서 인간의 오감 중에서 가장 중요한 센싱 역할을 담당하는 시각과 청각에 대응하는 영상센서 및 소리센서의 활용 부분에 많은 관심을 가지고 있다.In addition, developers are interested in the use of image sensors and sound sensors corresponding to vision and hearing, which play the most important sensing role among the human senses in IoT devices.

일반적으로, 영상과 소리 데이터는 수집된 그대로 서버(클라우드 서버)로 전송되고 서버가 수집된 데이터를 처리한다. 클라우드 서버는 컴퓨팅 파워가 높아 수집된 데이터를 처리하여 영상과 소리에 관련된 각종 서비스를 제공할 수 있다. In general, video and sound data is sent to a server (cloud server) as it is collected, and the server processes the collected data. The cloud server may provide various services related to video and sound by processing the collected data due to its high computing power.

IoT 디바이스는 IoT 네트워크를 통해 각종 데이터를 클라우드 서버와 송수신할 수 있다. IoT 네트워크는 예를 들어 LoRa(Long Range) 네트워크이거나 NB-IoT(NarrowBand-Internet of Things) 네트워크일 수 있다. 기존 IoT 네트워크는 기존의 유선랜, 와이파이, LTE 망과 달리 저속의 통신 속도를 가진다. 예를 들어, LoRa나 NB-IoT 네트워크상에서 IoT 디바이스는 수 bps에서 수 Kbps 정도의 통신 속도를 가진다. The IoT device may transmit and receive various data with the cloud server through the IoT network. The IoT network may be, for example, a long range (LoRa) network or a narrowband-Internet of things (NB-IoT) network. Unlike conventional wired LAN, Wi-Fi, and LTE networks, the existing IoT network has a low communication speed. For example, on LoRa or NB-IoT networks, IoT devices have communication speeds ranging from a few bps to a few Kbps.

이러한 IoT 통신 속도는 영상과 소리 데이터의 처리에 턱없이 부족하다. 또한, 영상과 소리 데이터는 개인정보보호에 민감한 정보를 포함할 수 있어 영상과 소리 데이터 자체가 클라우드 서버로 전송되는 경우 개인정보보호와 관련하여 다양한 문제점을 야기할 수 있다. This IoT communication speed is far short of processing video and sound data. In addition, the video and sound data may include information sensitive to privacy, and may cause various problems with respect to privacy when the video and sound data itself is transmitted to the cloud server.

이와 같이, IoT 네트워크를 통해 영상과 소리 데이터의 처리에 있어 야기되는 여러 문제점을 해소할 수 있는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템이 필요하다. As such, there is a need for a sensor device capable of monitoring an external environment based on sound or video and an environmental monitoring system including the same, which can solve various problems caused in processing of video and sound data through an IoT network. .

본 발명은 상술한 문제점을 해결하기 위해서 안출한 것으로서, 영상이나 소리 센싱에 기반하여 외부 환경을 모니터링하고 모니터링된 결과를 저속의 IoT 네트워크를 통해 송출할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.The present invention has been made to solve the above-described problems, the external environment based on the sound or video, to monitor the external environment based on the image or sound sensing and to transmit the monitored result through the low-speed IoT network An object of the present invention is to provide a sensor device capable of monitoring and an environmental monitoring system including the same.

또한, 본 발명은 딥-러닝 프로그램을 이용하여 입력되는 영상이나 소리로부터 지정된 목적물만을 인식하고 인식된 목적물에 기초한 결과 데이터를 산출하도록 구성하여 영상이나 소리 데이터에 의한 개인정보 노출을 방지할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is configured to recognize only the designated object from the image or sound input using the deep-learning program and to calculate the result data based on the recognized object to prevent exposure of personal information by the image or sound data It is an object of the present invention to provide a sensor device capable of monitoring an external environment based on sound or image, and an environmental monitoring system including the same.

또한, 본 발명은 각각의 센서 디바이스에서 기록된 센싱 데이터를 이용하여 내장된 프로그램을 갱신하고 저속의 IoT 네트워크를 통해 갱신된 내장 프로그램을 센서 디바이스로 재배포할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is based on the external sound based on the sound or video to update the embedded program using the sensing data recorded in each sensor device and to redistribute the updated embedded program to the sensor device through a low-speed IoT network An object thereof is to provide a sensor device capable of monitoring the environment and an environmental monitoring system including the same.

또한, 본 발명은 다른 환경 센서와 결합하여 환경 센서의 이벤트에 연동하여 영상이나 소리 데이터를 센싱 및 이벤트에 지정된 목적물을 인식하고 그에 따라 결과 데이터를 산출하여 IoT 네트워크로 송출할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention, in conjunction with other environmental sensors in conjunction with the event of the environmental sensor to sense the image or sound data and the object specified in the event and to calculate the resulting data accordingly, so that the sound or An object of the present invention is to provide a sensor device capable of monitoring an external environment based on an image and an environmental monitoring system including the same.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

본 발명의 일 양상에 따른 센서 디바이스는 영상 센서, 소리 센서 또는 영상 센서와 소리 센서를 포함하는 제1 센서부, 무선 네트워크를 통해 데이터를 송수신하는 통신부, 제1 센서부로부터의 센싱 데이터를 처리하는 하나 이상의 프로그램을 저장하는 저장부 및 하나 이상의 프로그램을 수행하여 제1 센서부로부터의 센싱 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 통신부를 통해 송출하는 제어부를 포함한다.According to an aspect of the present invention, a sensor device includes an image sensor, a sound sensor, or a first sensor unit including an image sensor and a sound sensor, a communication unit for transmitting and receiving data through a wireless network, and processing sensing data from the first sensor unit. A storage unit for storing one or more programs and a control unit for performing the one or more programs to process the sensing data from the first sensor unit to generate the result data and to send the generated result data through the communication unit.

상기한 센서 디바이스에 있어서, 무선 네트워크는 LoRa 네트워크이거나 NB-IoT 네트워크이고, 하나 이상의 프로그램은 설정된 목적물을 인식하고 목적물의 인식에 따라 결과 데이터를 생성할 수 있는 딥-러닝 프로그램을 포함한다.In the sensor device described above, the wireless network is a LoRa network or an NB-IoT network, and the one or more programs include a deep-learning program capable of recognizing a set object and generating result data in accordance with the recognition of the object.

상기한 센서 디바이스에 있어서, 영상 센서 및 소리 센서와 상이한 환경 센서를 하나 이상 포함하는 제2 센서부를 더 포함하고, 제어부는 제2 센서부로부터의 센싱 데이터에서 외부 이벤트를 인식하고 외부 이벤트를 인식하는 경우에 제1 센서부를 구동하여 외부 이벤트에 맵핑된 목적물을 인식하고 목적물의 인식에 따른 결과 데이터를 생성한다.The sensor device may further include a second sensor unit including one or more environmental sensors different from the image sensor and the sound sensor, wherein the control unit recognizes an external event and recognizes an external event in sensing data from the second sensor unit. In this case, the first sensor unit is driven to recognize a target mapped to an external event and generate result data according to the recognition of the target.

상기한 센서 디바이스에 있어서, 제1 센서부, 제2 센서부, 통신부, 저장부 및 제어부에 지정된 전압 레벨에 대응하는 전원을 공급하고 제1 센서부의 전원 공급을 제어할 수 있는 전원 공급부를 더 포함하고, 전원 공급부를 통해 제1 센서부로의 전원 공급을 차단하고 있는 제어부는 제2 센서부를 통해 외부 이벤트를 인식하는 경우에 전원 공급부를 통해 제1 센서부에 지정된 전압 레벨에 대응하는 전원을 공급하여 제1 센서부를 구동하고 제1 센서부로부터의 센싱 데이터에서 외부 이벤트에 맵핑된 목적물을 인식하고 목적물의 인식에 따른 결과 데이터를 생성한다.The sensor device may further include a power supply unit configured to supply power corresponding to a voltage level specified in the first sensor unit, the second sensor unit, the communication unit, the storage unit, and the control unit, and to control the power supply of the first sensor unit. The controller which cuts off the power supply to the first sensor unit through the power supply unit supplies power corresponding to the voltage level specified by the first sensor unit through the power supply unit when the external event is recognized through the second sensor unit. The first sensor unit is driven to recognize a target mapped to an external event in sensing data from the first sensor unit, and generate result data according to the recognition of the target.

상기한 센서 디바이스에 있어서, 제1 센서부는 영상 센서 및 소리 센서를 포함하고, 센서 디바이스는 영상 센서 및 소리 센서에 지정된 전압 레벨에 대응하는 전원을 공급하고 영상 센서의 전원 공급을 제어할 수 있는 전원 공급부를 더 포함하며, 제어부는 소리 센서로부터의 소리 데이터에서 지정된 외부 이벤트를 인식하는 경우에 전원 공급부를 통해 영상 센서에 전원을 공급하고 영상 센서로부터의 영상 데이터를 처리하여 지정된 목적물을 인식하고 지정된 목적물의 인식에 따른 결과 데이터를 생성하여 통신부를 통해 송출한다.In the above sensor device, the first sensor unit includes an image sensor and a sound sensor, and the sensor device supplies power corresponding to a voltage level specified to the image sensor and the sound sensor and controls power supply of the image sensor. The apparatus further includes a supply unit, and when the controller recognizes an external event specified in the sound data from the sound sensor, the controller supplies power to the image sensor through the power supply unit and processes the image data from the image sensor to recognize the designated object and designate the designated object. Generates the result data according to the recognition of the transmitted through the communication unit.

상기한 센서 디바이스에 있어서, 하나 이상의 프로그램은 딥-러닝 프로그램을 업데이트하기 위한 갱신 프로그램을 더 포함하고, 갱신 프로그램을 수행하는 제어부는 LoRa 네트워크 또는 NB-IoT 네트워크를 통해 복수의 센서 디바이스에 의해 수집된 센싱 데이터에 의한 추가 학습으로 갱신된 딥-러닝 프로그램의 부분들을 서로 다른 시각에 수신하고 부분들을 조합하여 저장부의 딥-러닝 프로그램을 대체한다.In the above sensor device, the one or more programs further comprise an update program for updating the deep-learning program, wherein the controller for performing the update program is collected by the plurality of sensor devices via the LoRa network or the NB-IoT network. Further learning by sensing data receives portions of the updated deep-learning program at different times and combines the portions to replace the deep-learning program of the storage.

상기한 센서 디바이스에 있어서, 저장부는 착탈 가능한 메모리 카드를 포함하고, 외부 이벤트를 인식한 제어부는 외부 이벤트의 인식에 따라 제1 센서부에 포함되는 영상 센서 및 소리 센서를 통해 수신되는 센싱 데이터를 메모리 카드에 저장하고, 메모리 카드에 저장되는 센싱 데이터는 클라우드 서버에 의한 추가 학습을 통해 하나 이상의 프로그램에 포함되는 딥-러닝 프로그램의 갱신에 이용된다. In the sensor device, the storage unit includes a detachable memory card, and the controller recognizing the external event stores the sensing data received through the image sensor and the sound sensor included in the first sensor unit according to the recognition of the external event. The sensing data stored in the card and stored in the memory card is used for updating a deep learning program included in one or more programs through further learning by the cloud server.

본 발명의 일 양상에 따른 환경 모니터링 시스템은 상기한 제1 센서 디바이스 및 제2 센서 디바이스를 포함한다.An environmental monitoring system according to an aspect of the present invention includes the first sensor device and the second sensor device described above.

상기한 환경 모니터링 시스템에 있어서, IoT 네트워크를 통해 무선으로 제1 센서 디바이스 및 제2 센서 디바이스로부터 결과 데이터를 수신하고 각각의 센서 디바이스에 대한 대응 처리를 수행하는 클라우드 서버를 더 포함한다.The above-described environmental monitoring system further includes a cloud server that receives the result data from the first sensor device and the second sensor device wirelessly through the IoT network and performs corresponding processing for each sensor device.

상기한 환경 모니터링 시스템에 있어서, 클라우드 서버는 제1 센서 디바이스 및 제2 센서 디바이스에서 수집된 오프라인 센싱 데이터를 추가 학습 데이터로 이용하여 제1 센서 디바이스 및 제2 센서 디바이스에서 수행되는 딥-러닝 프로그램을 갱신하고 갱신된 딥-러닝 프로그램의 부분 파일들을 제1 센서 디바이스 및 제2 센서 디바이스로 전송하고, 제1 센서 디바이스는 제1 센서 디바이스에서 수신된 부분 파일과 제2 센서 디바이스에서 수신된 부분 파일을 이용하여 갱신된 딥-러닝 프로그램을 구성하고 저장부에 저장되어 있는 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체한다. In the above-described environmental monitoring system, the cloud server uses a deep learning program performed in the first sensor device and the second sensor device by using offline sensing data collected from the first sensor device and the second sensor device as additional learning data. And update the partial files of the updated deep-learning program to the first sensor device and the second sensor device, wherein the first sensor device receives the partial file received at the first sensor device and the partial file received at the second sensor device. The updated deep learning program is configured to replace the existing deep learning program stored in the storage unit with the updated deep learning program.

상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 영상이나 소리 센싱에 기반하여 외부 환경을 모니터링하고 모니터링된 결과를 저속의 IoT 네트워크를 통해 송출할 수 있도록 하는 효과가 있다. The sensor device capable of monitoring the external environment based on the sound or the image according to the present invention as described above and the environmental monitoring system including the same monitor the external environment based on the image or sound sensing and monitor the monitored result at a low speed IoT network. It is effective to send through.

또한, 상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 딥-러닝 프로그램을 이용하여 입력되는 영상이나 소리로부터 지정된 목적물만을 인식하고 인식된 목적물에 기초한 결과 데이터를 산출하도록 구성하여 영상이나 소리 데이터에 의한 개인정보 노출을 방지할 수 있도록 하는 효과가 있다.In addition, the sensor device capable of monitoring the external environment based on the sound or the image according to the present invention as described above, and the environmental monitoring system including the same recognize only the designated object from the image or sound input using the deep-learning program It is effective to prevent personal information exposure by video or sound data by configuring the result data based on the recognized object.

또한, 상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 각각의 센서 디바이스에서 기록된 센싱 데이터를 이용하여 내장된 프로그램을 갱신하고 저속의 IoT 네트워크를 통해 갱신된 내장 프로그램을 센서 디바이스로 재배포할 수 있도록 하는 효과가 있다. In addition, the sensor device capable of monitoring the external environment based on the sound or image according to the present invention as described above and the environmental monitoring system including the same update the embedded program using the sensing data recorded in each sensor device It has the effect of redistributing updated embedded programs to sensor devices via low-speed IoT networks.

또한, 상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 다른 환경 센서와 결합하여 환경 센서의 이벤트에 연동하여 영상이나 소리 데이터를 센싱 및 이벤트에 지정된 목적물을 인식하고 그에 따라 결과 데이터를 산출하여 IoT 네트워크로 송출할 수 있도록 하는 효과가 있다. In addition, the sensor device capable of monitoring the external environment based on the sound or the image according to the present invention as described above, and the environmental monitoring system including the same, in conjunction with other environmental sensors in conjunction with the event of the environmental sensor image or sound data It has the effect of recognizing the targets specified in the sensing and events, and calculating the result data and sending them to the IoT network.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1은 본 발명에 따른 환경 모니터링 시스템에 구성되는 장치간 연결 구성의 예를 도시한 도면이다.
도 2는 센서 디바이스의 예시적인 블록도를 도시한 도면이다.
도 3은 본 발명에 따른 센서 디바이스를 활용하여 외부 환경을 모니터링하고 그에 따라 프로그램을 갱신할 수 있는 예시적인 제어 흐름을 도시한 도면이다.
1 is a view showing an example of the connection configuration between the devices configured in the environmental monitoring system according to the present invention.
2 shows an exemplary block diagram of a sensor device.
3 illustrates an exemplary control flow that may utilize a sensor device in accordance with the present invention to monitor an external environment and update a program accordingly.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되어 있는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. The above objects, features, and advantages will become more apparent from the detailed description given hereinafter with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may share the technical idea of the present invention. It will be easy to implement. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 환경 모니터링 시스템에 구성되는 장치간 연결 구성의 예를 도시한 도면이다. 1 is a view showing an example of the connection configuration between the devices configured in the environmental monitoring system according to the present invention.

도 1의 환경 모니터링 시스템은 소리 및/또는 영상에 기반하여 외부 환경을 모니터링할 수 있도록 구성된다. The environmental monitoring system of FIG. 1 is configured to monitor an external environment based on sound and / or video.

도 1을 통해 환경 모니터링 시스템을 살펴보면, 환경 모니터링 시스템은 하나 이상의 센서 디바이스(100), 무선 네트워크(200), 무선 AP(300), 광대역 네트워크(400), 클라우드(Cloud) 서버(500) 및 외부 서버(600)를 포함한다. Referring to FIG. 1, an environmental monitoring system includes at least one sensor device 100, a wireless network 200, a wireless AP 300, a broadband network 400, a cloud server 500, and an external device. Server 600.

센서 디바이스(100)는 센서 디바이스(100) 외부의 환경을 모니터링할 수 있는 디바이스이다. 센서 디바이스(100)는 적어도 소리 센서 및/또는 영상 센서를 구비하여 소리 센서 및/또는 영상 센서를 통해 소리 데이터 및/또는 영상 데이터를 캡쳐링(인식)하고 소리 데이터 및/또는 영상 데이터에서 지정된(설정된) 이벤트나 지정된(설정된) 목적물(타겟)을 인식하고 인식된 이벤트나 목적물에 따라 산출되는 결과 데이터를 무선 네트워크(200)를 통해 송출할 수 있도록 구성된다. The sensor device 100 is a device capable of monitoring an environment outside the sensor device 100. The sensor device 100 has at least a sound sensor and / or an image sensor to capture (recognize) the sound data and / or the image data via the sound sensor and / or the image sensor and to designate the sound data and / or the image data ( It is configured to recognize the set) event or the designated (set) target (target) and to transmit the result data calculated according to the recognized event or target through the wireless network 200.

센서 디바이스(100)는 결과 데이터를 산출하기 위한 프로그램을 구비하여 프로그램을 통해 소리 데이터 및/또는 영상 데이터로부터 특정 타겟이나 이벤트를 인식할 수 있도록 구성된다. 이 프로그램은 예를 들어 인공지능 프로그램일 수 있고 예를 들어 딥-러닝 프로그램일 수 있다.The sensor device 100 includes a program for calculating the result data, and is configured to recognize a specific target or event from sound data and / or image data through the program. This program may for example be an artificial intelligence program and for example may be a deep-learning program.

센서 디바이스(100)는 특정 위치에 고정 설치되거나 이동 가능하도록 구성될 수 있다. 센서 디바이스(100)는 IoT 네트워크에 연결될 수 있고 각종 외부 환경을 센싱할 수 있는 IoT 디바이스일 수 있다. 센서 디바이스(100)에 대해서는 도 2 이하에서 상세히 살펴보도록 한다. The sensor device 100 may be configured to be fixedly installed or movable at a specific position. The sensor device 100 may be an IoT device that may be connected to an IoT network and may sense various external environments. The sensor device 100 will be described in detail later with reference to FIG. 2.

무선 네트워크(200)는 고정 설치되거나 이동 가능한 여러 센서 디바이스(100) 사이의 데이터를 무선으로 송수신하기 위한 네트워크이다. 무선 네트워크(200)는 일정한 영역 내의 센서 디바이스(100)를 서로 연결할 수 있다. 무선 네트워크(200)는 수백 미터나 수 킬로미터 영역 범위 내에서 무선 통신이 가능하고 IoT 네트워크로 활용 가능한 LoRa 네트워크이거나 NB-IoT 네트워크일 수 있다. 그 외 무선 네트워크(200)는 센서 네트워크에 활용 가능한 지그비 네트워크이거나 와이파이 등일 수도 있다. The wireless network 200 is a network for wirelessly transmitting and receiving data between various fixed or movable sensor devices 100. The wireless network 200 may connect the sensor devices 100 within a certain area to each other. The wireless network 200 may be a LoRa network or an NB-IoT network capable of wireless communication within an area range of several hundred meters or several kilometers and used as an IoT network. In addition, the wireless network 200 may be a Zigbee network that can be utilized for the sensor network or Wi-Fi.

무선 AP(300)(Access Point)는 무선 네트워크(200)와 광대역 네트워크(400)를 연결하기 위한 디바이스이다. 무선 AP(300)는 무선 네트워크(200)를 통해 센서 디바이스(100)로부터 수신된 결과 데이터 등을 광대역 네트워크(400)를 통해 클라우드 서버(500) 등으로 전송할 수 있다. 무선 AP(300)는 클라우드 서버(500)로부터의 각종 데이터를 연결된 무선 네트워크(200)상의 하나 혹은 복수의 센서 디바이스(100)로 전송할 수 있다. The wireless AP 300 (Access Point) is a device for connecting the wireless network 200 and the broadband network 400. The wireless AP 300 may transmit the result data received from the sensor device 100 through the wireless network 200 to the cloud server 500 through the broadband network 400. The wireless AP 300 may transmit various data from the cloud server 500 to one or a plurality of sensor devices 100 on the connected wireless network 200.

여기서, 무선 네트워크(200)에 연결된 각각의 센서 디바이스(100)는 지정된 동일 외부 환경을 모니터링하기 위해 동일한 프로그램과 구성을 구비할 수 있다. 예를 들어 센서 디바이스(100)는 딥-러닝을 통해 영상이나 소리로부터 특정 이벤트나 특정 목적물을 하나 이상 인식하는 딥-러닝 프로그램을 내장하고 동일한 환경 센서를 구비할 수 있다.Here, each sensor device 100 connected to the wireless network 200 may have the same program and configuration to monitor the same designated external environment. For example, the sensor device 100 may include a deep learning program that recognizes one or more specific events or specific objects from an image or sound through deep learning, and may include the same environmental sensor.

광대역 네트워크(400)는 무선 네트워크(200)가 커버링하는 단일 통신 영역보다 더 넓은 영역에서 데이터를 송수신할 수 있는 네트워크이다. 광대역 네트워크(400)는 예를 들어 이동통신사업자에 의해서 제공되는 이동통신망, 인터넷망 또는 그 조합으로 구성된다.The broadband network 400 is a network capable of transmitting and receiving data in a wider area than the single communication area covered by the wireless network 200. Broadband network 400 is composed of, for example, a mobile communication network, an internet network, or a combination thereof provided by a mobile service provider.

광대역 네트워크(400)를 통해 서버 등은 각종 데이터를 무선 AP(300)를 통해 센서 디바이스(100)로 전송하고 센서 디바이스(100)로부터 수신할 수 있다. Through the broadband network 400, a server or the like may transmit various data to the sensor device 100 through the wireless AP 300 and receive the data from the sensor device 100.

클라우드 서버(500)는 광대역 네트워크(400)를 통해 다수의 센서 디바이스(100)에 연결되고 다수 센서 디바이스(100) 각각으로부터의 각종 데이터를 처리하고 처리 결과를 출력할 수 있도록 구성된다. The cloud server 500 is connected to the plurality of sensor devices 100 through the broadband network 400 and is configured to process various data from each of the plurality of sensor devices 100 and to output a processing result.

예를 들어, 클라우드 서버(500)는 무선 네트워크(200)의 일 예인 IoT 네트워크를 통해 무선으로 센서 디바이스(100)들 각각으로부터 결과 데이터를 수신하고 결과 데이터를 이용하여 각각의 센서 디바이스(100)에 대한 대응 처리를 수행한다. For example, the cloud server 500 receives result data from each of the sensor devices 100 wirelessly through an IoT network, which is an example of the wireless network 200, and uses the result data to transmit to the respective sensor device 100. Perform the corresponding process.

예를 들어, 클라우드 서버(500)는 센서 디바이스(100)로부터의 사람 인식 여부, 차량 인식 여부, 인식된 사람수, 인식된 차량수 등(과 인식된 외부 이벤트)을 포함하는 결과 데이터를 이용하여 센서 디바이스(100)의 목적에 따른 특정 이벤트를 인식하고 대응하는 처리(예를 들어 소방청 연락, 경찰청 연락, 차량 통제 등)를 수행한다. 대응 처리는 예를 들어 클라우드 서버(500)가 지정된 외부 서버(600)로 통신 채널을 설정하고 외부 서버(600)로 인식된 이벤트와 센서 디바이스(100)의 위치 정보를 포함하며 특정 액션을 요청하는 데이터를 전송하여 구성될 수 있다. For example, the cloud server 500 may use result data including whether the person is recognized from the sensor device 100, whether the vehicle is recognized, the number of people recognized, the number of vehicles recognized, and the like (and recognized external events). A specific event according to the purpose of the sensor device 100 is recognized and corresponding processing (for example, fire department contact, police station contact, vehicle control, etc.) is performed. Correspondence processing includes, for example, the cloud server 500 establishing a communication channel to a designated external server 600, including an event recognized by the external server 600 and location information of the sensor device 100, and requesting a specific action. It can be configured by sending data.

또한, 클라우드 서버(500)는 무선 네트워크(200)에 연결된 센서 디바이스(100)에서 수행되는 프로그램을 센서 디바이스(100)들로부터 수집된 데이터를 이용하여 갱신하고 갱신된 프로그램을 무선 네트워크(200)를 통해 각각의 센서 디바이스(100)들로 전송할 수 있다. In addition, the cloud server 500 updates a program performed in the sensor device 100 connected to the wireless network 200 using data collected from the sensor devices 100 and updates the updated program to the wireless network 200. Can be transmitted to the respective sensor devices 100 via.

예를 들어, 클라우드 서버(500)는 센서 디바이스(100)에 구비되고 착탈 가능한 메모리 카드의 센싱 데이터를 관리자 등에 의한 준비와 입력으로 인식하고 여러 센서 디바이스(100)에서의 센싱 데이터, 나아가 결과 데이터,를 추가 학습 데이터로 이용하여 자가 학습하여 센서 디바이스(100)에 내장되는 딥-러닝 프로그램을 갱신한다. For example, the cloud server 500 recognizes sensing data of a removable memory card provided in the sensor device 100 as preparation and input by an administrator or the like, and senses sensing data of the various sensor devices 100 and further results data, Using self-learning as additional learning data to update the deep learning program embedded in the sensor device 100.

클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 이 딥-러닝 프로그램을 수행하는 여러 센서 디바이스(100)로 무선 네트워크(200)를 통해 전송한다. IoT 네트워크의 전송 속도가 저속임을 감안하여, 클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 여러 부분(여러 패치 파일)으로 나누고 나누어진 부분들을 센서 디바이스(100)들로 서로 다른 시각에 전송한다. The cloud server 500 transmits the updated deep-learning program to the various sensor devices 100 performing the deep-learning program through the wireless network 200. Given that the transmission speed of the IoT network is low, the cloud server 500 divides the updated deep learning program into several parts (multiple patch files) and transmits the divided parts to the sensor devices 100 at different times. .

클라우드 서버(500)는 프로그램의 전송의 효율을 위해, 동일 IoT 네트워크의 그룹에 연결된 각각의 센서 디바이스(100)로 갱신된 딥-러닝 프로그램들 중 서로 다른 부분들을 전송하고 각각의 센서 디바이스(100)는 IoT 네트워크에 연결되어 있는 다른 센서 디바이스(100)로부터 다른 부분들을 수신하고 자신이 수신한 부분과 다른 부분들을 이용하여 클라우드 서버(500)에 의해 갱신된 딥-러닝 프로그램을 구성할 수 있다. The cloud server 500 transmits different parts of the updated deep-learning programs to each sensor device 100 connected to a group of the same IoT network for efficiency of program transmission, and each sensor device 100 Receives different parts from the other sensor device 100 connected to the IoT network and may configure the deep-learning program updated by the cloud server 500 using the parts different from the received part.

센서 디바이스(100)는 동일 무선 네트워크(200) 내의 여러 센서 디바이스(100)에서 수신된 부분들(패치 파일들)을 결합하여 전체 딥-러닝 프로그램을 구성하고 저장부(107)에 저장되어 있는 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체할 수 있다. The sensor device 100 combines the parts (patch files) received from the various sensor devices 100 in the same wireless network 200 to form the entire deep-learning program and store the existing data stored in the storage unit 107. The deep learning program can be replaced with an updated deep learning program.

외부 서버(600)는 광대역 네트워크(400)를 통해 클라우드 서버(500)에 연결되어 특정 액션 요청을 수신하고 해당 액션을 처리한다. 외부 서버(600)는 예를 들어, 경찰청, 소방청, 교통 상황실, 등과 같이 특정 기관에 설치되어 있는 서버일 수 있다.The external server 600 is connected to the cloud server 500 through the broadband network 400 to receive a specific action request and process the action. The external server 600 may be, for example, a server installed in a specific institution such as a police department, a fire department, a traffic situation room, or the like.

도 2는 센서 디바이스(100)의 예시적인 블록도를 도시한 도면이다.2 shows an exemplary block diagram of a sensor device 100.

도 2에 따르면, 센서 디바이스(100)는 제1 센서부(101), 제2 센서부(103), 통신부(105), 저장부(107), 출력부(109), 전원 공급부(111) 및 제어부(113)를 포함한다. 설계예에 따라 센서 디바이스(100)는 도 2의 특정 구성요소를 생략할 수 있고 도시되지 않은 다른 구성요소를 더 포함할 수도 있다. According to FIG. 2, the sensor device 100 includes a first sensor unit 101, a second sensor unit 103, a communication unit 105, a storage unit 107, an output unit 109, a power supply unit 111, and The control unit 113 is included. According to a design example, the sensor device 100 may omit certain components of FIG. 2 and may further include other components not shown.

도 2를 통해 센서 디바이스(100)를 상세히 살펴보면, 제1 센서부(101)는 영상 센서, 소리 센서 또는 영상 센서 및 소리 센서를 포함하여 포함된 영상 센서 및/또는 소리 센서로부터의 영상 이미지 및/또는 소리를 인식(캡쳐링)하고 인식된 영상 데이터 및/또는 소리 데이터를 출력한다. Referring to the sensor device 100 in detail with reference to FIG. 2, the first sensor unit 101 includes an image sensor, a sound sensor or an image sensor, and / or an image image from an included image sensor and / or a sound sensor. Or recognizing (capturing) sound and outputting recognized image data and / or sound data.

영상 센서는 예를 들어 카메라 센서일 수 있고 CCD 센서, CMOS 센서 등 일 수 있다. 소리 센서는 진동 신호를 전기 신호로 변환하는 마이크를 포함한다. 제1 센서부(101)는 영상 센서에서 출력되는 이미지 신호를 디지털 신호로 변환하기 위한 로직(칩셋)과 마이크로부터의 전기 신호를 디지털 신호로 변환하기 위한 오디오 ADC(또는 CODEC)를 더 포함할 수 있다.The image sensor may be, for example, a camera sensor, a CCD sensor, a CMOS sensor, or the like. The sound sensor includes a microphone that converts the vibration signal into an electrical signal. The first sensor unit 101 may further include logic (chipset) for converting an image signal output from an image sensor into a digital signal and an audio ADC (or CODEC) for converting an electrical signal from a micro signal into a digital signal. have.

제1 센서부(101)는 전원 공급부(111)로부터 지정된 전압 레벨의 전원을 공급받아 영상 데이터 및/또는 소리 데이터를 출력할 수 있고 전원 공급이 차단되는 경우 영상이나 소리 데이터의 캡쳐링은 중단된다. The first sensor unit 101 may receive power of a specified voltage level from the power supply unit 111 to output image data and / or sound data, and the capturing of the image or sound data is stopped when the power supply is cut off. .

제2 센서부(103)는 센서 디바이스(100) 외부에서 지정된 특정 환경 데이터를 센싱한다. 제2 센서부(103)는 하나 이상의 환경 센서를 포함하여 각종 환경 데이터를 센싱할 수 있다. 환경 센서는 예를 들어 적외선 센서, 공기질 측정 센서, 방사능 센서, 전자파 센서, 화재 감지 센서 등을 포함할 수 있다. The second sensor unit 103 senses specific environmental data specified outside the sensor device 100. The second sensor unit 103 may sense various environmental data, including one or more environmental sensors. Environmental sensors may include, for example, infrared sensors, air quality sensors, radiation sensors, electromagnetic wave sensors, fire detection sensors, and the like.

환경 센서는 특정 이벤트의 발생을 모니터링할 수 있도록 하고 예를 들어 외부로부터의 무단 침입, 환경 오염, 화재 감지, 사람의 존재 여부 탐지 등 다양한 이벤트를 모니터링할 수 있다. Environmental sensors can monitor the occurrence of specific events and monitor a variety of events, such as unauthorized intrusions from outside, environmental pollution, fire detection, and the presence of people.

환경 센서는 제1 센서부(101)의 영상 센서 및 소리 센서와는 다른 구성을 가지고 지정된 특정 환경 데이터를 센싱하고 센싱된 데이터를 출력할 수 있다. The environmental sensor may have a configuration different from that of the image sensor and the sound sensor of the first sensor unit 101 to sense specific environmental data and output the sensed data.

통신부(105)는 무선 네트워크(200)를 통해 데이터를 송수신한다. 통신부(105)는 무선 네트워크(200)의 무선 통신 기술을 적용하기 위한 안테나 및 통신 칩셋( 모듈)을 구비하여 공기 중으로부터 무선 패킷을 인식하거나 공기 중으로 무선 패킷을 송출할 수 있다. The communication unit 105 transmits and receives data through the wireless network 200. The communication unit 105 may include an antenna and a communication chipset (module) for applying a wireless communication technology of the wireless network 200 to recognize a wireless packet from the air or to transmit a wireless packet to the air.

예를 들어, 통신부(105)는 LoRa 네트워크(통신) 기술을 이용하기 위한 무선 안테나 및 칩셋을 구비하여 LoRa 표준에 따른 각종 무선 패킷을 송수신할 수 있다. 또는, 통신부(105)는 NB-IoT 네트워크(통신) 기술을 이용하기 위한 무선 안테나 및 칩셋을 구비하여 NB-IoT 표준에 따른 각종 무선 패킷을 송수신할 수 있다. For example, the communication unit 105 may include a wireless antenna and a chipset for using LoRa network (communication) technology to transmit and receive various wireless packets according to the LoRa standard. Alternatively, the communication unit 105 may include a wireless antenna and a chipset for using the NB-IoT network (communication) technology to transmit and receive various wireless packets according to the NB-IoT standard.

저장부(107)는 휘발성 메모리, 비휘발성 메모리, 및/또는 착탈 가능한 메모리 카드를 포함하여 각종 데이터와 프로그램을 저장한다. The storage unit 107 stores various data and programs, including a volatile memory, a nonvolatile memory, and / or a removable memory card.

예를 들어, 저장부(107)는 비휘발성 메모리에 센서 디바이스(100)를 통괄 제어하기 위한 제어 프로그램, 제2 센서부(103)를 통한 센싱 데이터로부터 특정 이벤트를 인식하기 위한 감지 프로그램, 제1 센서부(101)를 통한 센싱 데이터를 처리하기 위한 처리 프로그램, 저장부(107)에 저장되어 있는 프로그램을 업데이트하기 위한 갱신 프로그램 등을 저장한다. For example, the storage unit 107 may include a control program for collectively controlling the sensor device 100 in a nonvolatile memory, a detection program for recognizing a specific event from sensing data through the second sensor unit 103, and a first program. A processing program for processing sensing data through the sensor unit 101 and an update program for updating a program stored in the storage unit 107 are stored.

제어 프로그램은 센서 디바이스(100)를 전체적으로 제어하며 다른 프로그램의 구동과 종료를 제어할 수 있다. 감지 프로그램은 제2 센서부(103)의 환경 센서의 유형에 따라 지정된 특정 외부 이벤트를 감지할 수 있다. 예를 들어 감지 프로그램은 무단 침입, 환경 오염 이상, 사고 발생, 독성 물질의 배출, 화재 발생 등의 이벤트를 환경 센서의 센싱 값을 이용하여 인식할 수 있도록 구성된다. 감지 프로그램은 일반 프로그래밍 기법으로 구성될 수 있고 설계 예에 따라 딥-러닝 프로그램으로 구성될 수도 있다. The control program controls the sensor device 100 as a whole and can control the driving and termination of other programs. The sensing program may detect a specific external event designated according to the type of the environmental sensor of the second sensor unit 103. For example, detection programs can be configured to recognize events such as unauthorized intrusions, environmental pollution abnormalities, accidents, release of toxic substances, and fires using sensing values of environmental sensors. The sensing program may be composed of a general programming technique or a deep learning program according to a design example.

처리 프로그램은 제1 센서부(101)의 센싱 데이터를 처리하여 지정된 결과값을 산출할 수 있도록 구성된다. 예를 들어, 처리 프로그램은 설정된 목적물(사람, 사람의 얼굴, 차량, 차량 번호, 특정 곤충)을 인식하고 목적물의 인식 여부, 인식시 그 수 등에 따라 결과 데이터를 생성하는 딥-러닝 프로그램을 포함할 수 있다. The processing program is configured to process the sensing data of the first sensor unit 101 to calculate a designated result value. For example, the processing program may include a deep learning program that recognizes a set object (a person, a face of a person, a vehicle, a vehicle number, a particular insect) and generates the result data according to whether the object is recognized, the number of the recognition object, and the like. Can be.

딥-러닝 프로그램은 제1 센서부(101)의 영상 데이터 나아가 소리 데이터를 입력으로 받아 다층 구조의 노드(신경망)를 통해 인식 결과를 산출할 수 있다. 본 발명에 따른, 딥-러닝 프로그램은 특정 목적물을 인식할 수 있도록 구성된다. 예를 들어, 딥-러닝 프로그램은 영상 데이터에서(보조적으로 소리 데이터를 더 활용하여) 사람을 인식하거나 특정 곤충, 특정 동물을 인식하거나 차량 등을 인식할 수 있다. The deep-learning program may receive image data and sound data of the first sensor unit 101 as an input and calculate a recognition result through a node (neural network) having a multilayer structure. According to the present invention, a deep learning program is configured to recognize a specific object. For example, the deep-learning program may recognize a person from the image data (additionally using sound data), recognize a particular insect, a specific animal, or recognize a vehicle.

본 발명에 따른, 딥-러닝 프로그램은 특정 목적물의 인식을 위해 최적화될 수 있고 신경망의 계층 구조를 단순화(예를 들어 5층 이하의 중간층 노드를 가지도록 수정 가능함) 시킬 수 있다. According to the present invention, the deep-learning program can be optimized for the recognition of a specific object and can simplify the hierarchical structure of the neural network (for example, can be modified to have a middle layer node of 5 layers or less).

갱신 프로그램은 저장부(107)에 저장되어 있는 하나 이상의 프로그램을 갱신할 수 있도록 한다. 갱신 프로그램은 제어 프로그램에 의해 구동될 수 있고 OTA(Over-The-Air) 기법을 통해 특정 프로그램을 갱신할 수 있다. 예를 들어, 갱신 프로그램은 처리 프로그램의 갱신된 딥-러닝 프로그램을 통신부(105)를 통해 무선 네트워크(200)로부터(예를 들어 클라우드 서버(500)로부터) 수신하고 저장부(107)의 기존 딥-러닝 프로그램을 대체할 수 있다.The update program makes it possible to update one or more programs stored in the storage unit 107. The update program may be driven by a control program and may update a specific program through the over-the-air technique. For example, the update program receives the updated deep-learning program of the processing program from the wireless network 200 (for example, from the cloud server 500) via the communication unit 105 and the existing dip of the storage unit 107. Can replace running programs

저장부(107)에 저장되는 각각의 프로그램들은 알려진 다양한 프로그래밍 기법을 통해 서로 연동할 수 있도록 구성된다. Each program stored in the storage unit 107 is configured to interoperate with each other through various known programming techniques.

저장부(107)는 착탈 가능한 메모리 카드(예를 들어 SD 카드)를 포함하는 데, 메모리 카드는 제1 센서부(101)의 영상 센서 및/또는 소리 센서를 통해 수신되는 센싱 데이터(영상 데이터 및/또는 소리 데이터), 나아가 결과 데이터,를 저장한다. The storage unit 107 includes a removable memory card (for example, an SD card), and the memory card includes sensing data (image data and / or audio signals received through the image sensor and / or the sound sensor of the first sensor unit 101). And / or sound data), and further the resulting data.

저장된 센싱 데이터는 오프라인을 통해 클라우드 서버(500)에 제공된다. 클라우드 서버(500)는 여러 센서 디바이스(100)로부터 제공된 센싱 데이터들을 학습 데이터로 이용하여 기존 딥-러닝 프로그램을 업데이트하는 데 이용된다. The stored sensing data is provided to the cloud server 500 through offline. The cloud server 500 is used to update existing deep-learning programs using sensing data provided from various sensor devices 100 as learning data.

출력부(109)는 스피커, 부저, 사이렌, LED 등을 구비하여 제어부(113)로부터의 신호를 출력한다. 예를 들어, 출력부(109)는 제어부(113)로부터의 경고 신호를 수신하고 이를 스피커, 부저, 사이렌 등을 통해 소리로 출력하거나 LED 등을 통해 광으로 출력할 수 있다. The output unit 109 includes a speaker, a buzzer, a siren, an LED, and the like to output a signal from the control unit 113. For example, the output unit 109 may receive a warning signal from the control unit 113 and output it as a sound through a speaker, a buzzer, a siren, or a light through an LED.

전원 공급부(111)는 전원 소스(예를 들어, 리튬이온 배터리, 건전지, AC 전원 등)를 구비하여 전원 소스로부터 제1 센서부(101), 제2 센서부(103), 저장부(107), 통신부(105), 출력부(109) 및 제어부(113)에서 이용될 하나 이상의 전원을 생성하고 생성된 전원을 제1 센서부(101), 제2 센서부(103), 저장부(107), 통신부(105), 출력부(109) 및 제어부(113)로 공급한다. The power supply 111 includes a power source (for example, a lithium ion battery, a dry battery, an AC power source, etc.) and includes a first sensor unit 101, a second sensor unit 103, and a storage unit 107 from a power source. The first sensor unit 101, the second sensor unit 103, and the storage unit 107 generate one or more power sources to be used in the communication unit 105, the output unit 109, and the control unit 113. To the communication unit 105, the output unit 109, and the control unit 113.

예를 들어, 전원 공급부(111)는 하나 이상의 전압 레귤레이터를 포함하여 각 구성요소가 필요한 지정된 전압 레벨(3.3V, 5V, 12V 등)에 대응하는 전원을 전원 소스로부터 생성하고 생성된 전원을 대응하는 구성요소로 출력할 수 있다. For example, power supply 111 may include one or more voltage regulators to generate power from a power source corresponding to a specified voltage level (3.3V, 5V, 12V, etc.) for which each component is required and to generate the generated power. Can output to the component.

전원 공급부(111)는 특정 구성요소로의 전원 공급을 제어할 수 있도록 구성된다. 전원 공급부(111)는 전원의 공급/차단을 제어할 수 있는 전원 스위치(릴레이)를 구비하여 특정 구성요소로의 전원 공급을 제어할 수 있다. 예를 들어, 전원 공급부(111)는 제1 센서부(101)(의 영상 센서 및/또는 소리 센서)에 지정된 전압 레벨을 공급 및 차단하기 위한 전원 스위치를 구비하고 제어부(113)에서의 제어 신호에 따라 제1 센서부(101)(의 영상 센서 및/또는 소리 센서)로 지정된 전압 레벨의 전원을 공급하거나 차단할 수 있다. The power supply 111 is configured to control the power supply to a specific component. The power supply 111 may include a power switch (relay) for controlling the supply / blocking of power to control power supply to a specific component. For example, the power supply 111 includes a power switch for supplying and cutting off a voltage level specified for the first sensor unit 101 (image sensor and / or sound sensor) and a control signal from the control unit 113. In accordance with this, the first sensor unit 101 (the image sensor and / or the sound sensor) may supply or cut off power at a specified voltage level.

제1 센서부(101)가 영상 센서 및 소리 센서를 모두 포함하는 경우에, 전원 공급부(111)는 영상 센서와 소리 센서를 개별적으로 전원 제어하기 위한 전원 스위치를 각각 포함하여 제어부(113)로부터의 제어 신호에 따라 각 센서로의 전원 공급을 제어할 수 있다. When the first sensor unit 101 includes both an image sensor and a sound sensor, the power supply unit 111 includes a power switch for individually controlling power of the image sensor and the sound sensor, respectively, from the control unit 113. The power supply to each sensor can be controlled according to the control signal.

제어부(113)는 프로그램의 명령어를 실행할 수 있는 실행 유닛(Execution Unit)을 하나 이상 포함하여 저장부(107)에 저장되어 있는 하나 이상의 프로그램을 이용하여 센서 디바이스(100)를 제어한다. 제어부(113)는 프로세서, 마이컴, CPU, MPU, 중앙처리장치 등으로 지칭되거나 이를 포함할 수 있다. The controller 113 includes one or more execution units capable of executing instructions of the program to control the sensor device 100 using one or more programs stored in the storage unit 107. The controller 113 may be referred to as or include a processor, a microcomputer, a CPU, an MPU, a central processing unit, and the like.

예를 들어, 제어부(113)는 저장부(107)의 하나 이상의 프로그램을 수행하여 제1 센서부(101)로부터의 센싱 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 통신부(105)를 통해 클라우드 서버(500)로 송출한다. For example, the controller 113 may perform one or more programs of the storage unit 107 to process sensing data from the first sensor unit 101 to generate result data, and to generate the result data in the communication unit 105. Send to the cloud server 500 through.

제어부(113)는 제어 프로그램을 로딩하여 다른 프로그램들을 구동하거나 제어할 수 있고 처리 프로그램(딥-러닝 프로그램), 감지 프로그램, 갱신 프로그램 등을 통해 외부 환경을 모니터링하고 외부 환경의 모니터링에 이용되는 프로그램을 갱신할 수 있다. The controller 113 may load or control a program to drive or control other programs, and monitor an external environment through a processing program (deep-learning program), a detection program, an update program, and the like. Can be updated.

또한, 제어부(113)는 제어 프로그램을 통해 전원 공급부(111)를 제어한다. 예를 들어, 제어 프로그램은 제1 센서부(101)(의 영상 센서)로의 지정 전압 레벨의 전원을 공급하거나 차단할 수 있는 전원 스위치를 제어하기 위한 제어 신호를 출력하고 그에 따라 제1 센서부(101)(의 영상 센서)를 구동하고 센싱 데이터(영상 데이터)를 수신할 수 있다. In addition, the controller 113 controls the power supply 111 through a control program. For example, the control program outputs a control signal for controlling a power switch capable of supplying or interrupting power of a specified voltage level to the first sensor unit 101 (the image sensor of) and accordingly the first sensor unit 101. Drive the image sensor) and receive the sensing data (the image data).

제어부(113)에서 이루어지는 예시적인 제어 흐름은 도 3에서 좀 더 상세히 살펴보도록 한다. An exemplary control flow made by the controller 113 will be described in more detail with reference to FIG. 3.

도 3은 본 발명에 따른 센서 디바이스(100)를 활용하여 외부 환경을 모니터링하고 그에 따라 프로그램을 갱신할 수 있는 예시적인 제어 흐름을 도시한 도면이다.3 is a diagram illustrating an exemplary control flow that may utilize a sensor device 100 in accordance with the present invention to monitor an external environment and update a program accordingly.

본 발명에 따른, 환경 모니터링 시스템은 다양한 응용예에 활용될 수 있다. 예를 들어, 환경 모니터링 시스템은 외부 침입 감지(1인 가구나 화장실 등), 실내 환경(예를 들어 교실) 모니터링, 출입 모니터링(내방객 수 등), 교통 환경 분석, 주차장 모니터링, 사고 모니터링, 소음이나 공기질 모니터링, 화재 감지, 위험 감지 등을 수행할 수 있는 시스템이다. According to the present invention, the environmental monitoring system can be utilized for various applications. For example, environmental monitoring systems may include external intrusion detection (such as single households or toilets), indoor environment (eg classroom) monitoring, access monitoring (such as number of visitors), traffic environment analysis, parking lot monitoring, accident monitoring, noise or air quality. It is a system that can perform monitoring, fire detection and danger detection.

환경 모니터링 시스템의 센서 디바이스(100)는 적어도 제1 센서부(101)를 구비하여 영상 및/또는 소리 데이터를 이용하여 특정 목적물을 인식하고 대응하는 액션이나 처리를 수행할 수 있도록 구성된다. The sensor device 100 of the environmental monitoring system is configured to include at least the first sensor unit 101 so as to recognize a specific object using image and / or sound data and perform a corresponding action or process.

환경 모니터링 시스템의 센서 디바이스(100)는 응용 예에 따라 특정 환경 센서를 구비하여 응용 예에 특화된 이벤트 등을 인식할 수 있도록 구성된다. 또한, 센서 디바이스(100)는 응용 예에 특화된 프로그램을 구비하고 바람직하게는 응용 예에서 목적물(사람, 동물, 곤충 등) 인식에 이용되고 최적화된 딥-러닝 프로그램을 구비한다. The sensor device 100 of the environmental monitoring system includes a specific environmental sensor according to an application example and configured to recognize an event specific to the application example and the like. In addition, the sensor device 100 has a program specific to the application example, and preferably has a deep learning program optimized and used for object recognition (human, animal, insect, etc.) in the application example.

여기서, 도 3의 제어 흐름의 특정 과정은 응용 예 등에 따라 생략될 수 있다. 예를 들어 단계 S10이나 S20 등은 응용 예에 따라 생략될 수 있다. Here, the specific process of the control flow of FIG. 3 may be omitted according to an application example. For example, step S10 or S20 may be omitted depending on the application.

도 3을 통해 그 제어 흐름을 살펴보면, 센서 디바이스(100)(제어부(113))는 감지 프로그램 등을 통해 외부 이벤트를 인식(S10)한다. Referring to the control flow through FIG. 3, the sensor device 100 (control unit 113) recognizes an external event through a sensing program (S10).

예를 들어 감지 프로그램을 수행하는 센서 디바이스(100)(제어부(113))는 제2 센서부(103)로부터 센싱 데이터를 수신하고 수신된 센싱 데이터의 값에 따라 지정된 외부 이벤트의 발생을 인식할 수 있다. 센서 디바이스(100)(제어부(113))는 제2 센서부(103)으로부터 수신된 환경 데이터와 임계치와의 비교로 특정 이벤트(외부 침입, 부재중, 공기 오염, 화재 발생, 위험 감지 등)를 인식할 수 있다.For example, the sensor device 100 (control unit 113) that performs a sensing program may receive sensing data from the second sensor unit 103 and recognize the occurrence of a specified external event according to the value of the received sensing data. have. The sensor device 100 (control unit 113) recognizes a specific event (external intrusion, absence, air pollution, fire occurrence, danger detection, etc.) by comparing the environmental data received from the second sensor unit 103 with a threshold value. can do.

또는, 감지 프로그램이나 딥-러닝 프로그램을 수행하는 센서 디바이스(100)(제어부(113))는 제1 센서부(101)의 소리 센서로부터 소리 데이터를 수신하고 지정된 외부 이벤트의 발생을 인식할 수 있다. 센서 디바이스(100)(제어부(113))는 소리 데이터를 주파수 변환 등을 통해 특징(feature) 데이터로 변환하고 변환된 특징 데이터와 기존 이벤트에 대응하는 특징 데이터를 비교하여 외부 이벤트의 발생 여부를 결정할 수 있다. 예를 들어 센서 디바이스(100)(제어부(113))는 비명이나 고음 등의 이벤트 발생을 인식할 수 있다. Alternatively, the sensor device 100 (control unit 113) that executes the sensing program or the deep learning program may receive sound data from the sound sensor of the first sensor unit 101 and recognize the occurrence of a specified external event. . The sensor device 100 (control unit 113) converts sound data into feature data through frequency conversion and compares the converted feature data with feature data corresponding to an existing event to determine whether an external event has occurred. Can be. For example, the sensor device 100 (control unit 113) can recognize the occurrence of events such as screaming and treble.

센서 디바이스(100)(제어부(113))가 외부 이벤트의 인식을 위해 소리 센서만을 활용하는 경우에, 제2 센서부(103)는 센서 디바이스(100)에서 생략될 수 있다. 또한, S10의 과정과 후속 S20의 과정은 설경 변형에 따라 생략될 수도 있다. When the sensor device 100 (control unit 113) utilizes only a sound sensor for recognition of an external event, the second sensor unit 103 may be omitted from the sensor device 100. In addition, the process of S10 and the subsequent process of S20 may be omitted according to the snow scene modification.

센서 디바이스(100)(제어부(113))가 외부 이벤트를 인식하지 못한 경우, S20 이후의 과정이 수행되기 전에 S10 과정은 반복적으로 수행되어 센서 디바이스(100)(제어부(113))가 외부 이벤트의 인식을 지속적으로 시도할 수 있다.If the sensor device 100 (control unit 113) does not recognize the external event, the process S10 is repeatedly performed before the process after S20 is performed so that the sensor device 100 (control unit 113) of the external event Recognition can be continually attempted.

센서 디바이스(100)(제어부(113))는 제어 프로그램을 통해 외부 이벤트의 인식에 따라 제1 센서부(101)를 구동(S20)한다. 예를 들어, 제1 센서부(101)(의 영상 센서)에 전원을 차단하고 있는 센서 디바이스(100)(제어부(113))는 제1 센서부(101)(의 영상 센서)에 전원을 공급하기 위한 제어 신호를 생성하고 생성된 제어 신호를 전원 공급부(111)로 출력한다. The sensor device 100 (control unit 113) drives the first sensor unit 101 according to recognition of an external event through a control program (S20). For example, the sensor device 100 (control unit 113), which cuts off power to the first sensor unit 101 (image sensor), supplies power to the first sensor unit 101 (image sensor). It generates a control signal for outputting and outputs the generated control signal to the power supply 111.

전원 공급을 위한 제어 신호의 수신에 따라, 전원 공급부(111)는 제1 센서부(101)(의 영상 센서)에 연결되어 전원을 공급하거나 차단하도록 구성된 전원 스위치에 수신된 제어 신호에 대응하는 신호를 인가하여 지정된 전압 레벨에 대응하는 전원을 제1 센서부(101)(의 영상 센서)로 공급한다.According to the reception of a control signal for power supply, the power supply 111 is connected to the first sensor unit 101 (the image sensor) and a signal corresponding to the control signal received at the power switch configured to supply or cut off power. Is applied to supply the power corresponding to the specified voltage level to the first sensor unit 101 (image sensor).

전원이 공급됨에 따라, 제1 센서부(101)(의 영상 센서)는 구동 시작하고 영상 센서로부터의 영상 데이터 및/또는 소리 센서로부터의 소리 데이터를 포함하는 센싱 데이터를 제어부(113)로 출력한다. As the power is supplied, the first sensor unit 101 (the image sensor) starts to drive and outputs sensing data including the image data from the image sensor and / or sound data from the sound sensor to the controller 113. .

센서 디바이스(100)(제어부(113))는 수신된 센싱 데이터를 이용하여 지정된 목적물을 인식하는 한편, 영상 데이터 및/또는 소리 데이터를 포함하는 센싱 데이터를 저장 시각(시작 시각 및 종료 시각)에 맵핑시켜 저장부(107)의 착탈 가능한 메모리 카드에 제어 프로그램 등을 통해 저장(S30)한다. 바람직하게는 센서 디바이스(100)(제어부(113))는 외부 이벤트를 인식하는 경우에 해당 영상 데이터 및 소리 데이터를 메모리 카드에 저장할 수 있다. The sensor device 100 (control unit 113) recognizes a designated object by using the received sensing data, and maps sensing data including image data and / or sound data to storage time (start time and end time). In operation S30, the memory card is stored in a removable memory card of the storage unit 107 through a control program or the like. Preferably, the sensor device 100 (control unit 113) may store the corresponding image data and sound data in the memory card when the external event is recognized.

센서 디바이스(100)(제어부(113))는 제어 프로그램 등에 의해 구동되는 딥-러닝 프로그램을 통해 특정 외부 이벤트에 맵핑되어 있는 특정 목적물을 센싱 데이터(영상 데이터, 나아가 소리 데이터)에서 인식하고 목적물의 인식에 따른 결과 데이터를 생성하고 생성된 결과 데이터를 무선 네트워크(200)를 통해 클라우드 서버(500)로 전송(S40)한다. The sensor device 100 (control unit 113) recognizes a specific object mapped to a specific external event in sensing data (image data, and also sound data) through a deep learning program driven by a control program or the like and recognizes the object. The result data is generated and the generated result data is transmitted to the cloud server 500 through the wireless network 200 (S40).

구체적으로, 센서 디바이스(100)(제어부(113))는 특정 외부 이벤트의 발생에 따라 인식될 목적물을 맵핑하도록 구성된다. 예를 들어 침입 이벤트, 공기 오염 이벤트, 화재 발생, 위험 발생 등의 경우에 사람이나 사람 얼굴을 목적물(타겟)로 하여 해당 목적물을 인식하거나 차량 사고가 발생한 경우에 차량 및/또는 사람을 인식하거나 환경 보호나 관리 등을 위한 경우 특정 곤충을 인식하도록 딥-러닝 프로그램이 구성된다. 이와 같이 구비된 환경 센서와 발생 이벤트에 따라 특정 목적물이 맵핑되어 딥-러닝 프로그램이 해당 목적물을 인식하도록 구성된다. Specifically, the sensor device 100 (control unit 113) is configured to map an object to be recognized according to the occurrence of a specific external event. For example, in case of an intrusion event, air pollution event, fire occurrence, danger occurrence, etc., a person (human face) is recognized as a target (target) or a vehicle and / or a person or environment in the event of a vehicle accident. Deep-learning programs are organized to recognize specific insects, for example for protection or care. The specific object is mapped according to the environmental sensor and the event generated as described above, and the deep-learning program is configured to recognize the object.

센서 디바이스(100)(제어부(113))는 딥-러닝 프로그램의 구동을 통해 영상 센서로부터의 영상 데이터(나아가 소리 데이터)를 입력으로 하여 지정된 목적물을 인식하고 지정된 목적물의 인식에 따른(기초한) 결과 데이터를 생성한다. The sensor device 100 (control unit 113) recognizes the designated object by inputting the image data (the sound data) from the image sensor through the driving of the deep-learning program, and results based on the recognition of the designated object (based on). Generate data.

예를 들어, 센서 디바이스(100)(제어부(113))는 딥-러닝 프로그램과 제어 프로그램을 통해 목적물의 인식 여부, 인식된 목적물의 수 등과 인식 시각과 나아 인식된 외부 이벤트 데이터를 포함하는 결과 데이터를 생성하고 이를 통신부(105)를 통해 클라우드 서버(500)로 송출한다. For example, the sensor device 100 (control unit 113) may be a result data including whether the object is recognized, the number of objects recognized and the recognition time and the external event data further recognized through the deep-learning program and the control program It generates and sends it to the cloud server 500 through the communication unit 105.

클라우드 서버(500)는 수신된 결과 데이터에 따라 외부 서버(600)와 연동하여 대응하는 처리나 액션을 수행할 수 있다. 예를 들어, 클라우드 서버(600)는 특정 외부 이벤트가 발생하고 나아가 해당 이벤트에서 사람 등이 인식되는 경우, 소방청, 경찰청 등의 외부 서버(600)로 사고 발생, 화재 발생, 환경 오염 발생, 비상 상황 등의 이벤트 데이터와 함께 사람 등의 존재 여부와 사람의 수 등을 나타내는 데이터를 전송하여 필요한 대응 액션을 수행하도록 요청할 수 있다. The cloud server 500 may perform a corresponding process or action in association with the external server 600 according to the received result data. For example, when a specific external event occurs and a person or the like is recognized in the event, the cloud server 600 may cause an accident, fire, environmental pollution, or emergency by an external server 600 such as a fire department or a police agency. In addition to the event data such as data, data indicating whether there is a person or the like and the number of people may be transmitted to request that a corresponding action be performed.

또한, 센서 디바이스(100)(제어부(113))는 결과 데이터를 메모리 카드에 저장중에 있는 센싱 데이터(영상 데이터 및/또는 소리 데이터)에 맵핑시켜 메모리 카드에 저장한다. In addition, the sensor device 100 (control unit 113) maps the result data to sensing data (image data and / or sound data) stored in the memory card and stores the result data in the memory card.

한편, 클라우드 서버(500)는 추가적인 학습 데이터를 이용하여 딥-러닝 프로그램을 갱신(S50)한다.Meanwhile, the cloud server 500 updates the deep learning program using additional learning data (S50).

본 발명에 따른 환경 모니터링 시스템의 관리자 등은 동일 환경을 모니터링하는 여러 센서 디바이스(100)의 메모리 카드를 센서 디바이스(100)로부터 분리하고 메모리 카드의 센싱 데이터(와 대응 결과 데이터)를 딥-러닝 프로그램을 갱신할 때 이용되는 학습 데이터로 클라우드 서버(500)에 제공할 수 있다. The administrator of the environmental monitoring system according to the present invention separates the memory cards of the various sensor devices 100 for monitoring the same environment from the sensor device 100 and stores the sensing data (and corresponding result data) of the memory card in the deep-learning program. It can be provided to the cloud server 500 as learning data used when updating.

클라우드 서버(500)는 딥-러닝 프로그램의 갱신에 이용될 수 있는 여러 센서 디바이스(100)로부터의 센싱 데이터(와 대응 결과 데이터)를 학습 데이터로 이용하여 기존 딥-러닝 프로그램을 갱신한다. The cloud server 500 updates the existing deep learning program using sensing data (and corresponding result data) from various sensor devices 100 that can be used to update the deep learning program as learning data.

이후, 클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 무선 네트워크(200)(예를 들어, LoRa 네트워크나 NB-IoT 네트워크)를 통해 OTA 표준에 따라 여러 센서 디바이스(100)로 배포(S60)한다. Thereafter, the cloud server 500 distributes the updated deep-learning program to various sensor devices 100 according to the OTA standard through the wireless network 200 (eg, LoRa network or NB-IoT network) (S60). do.

무선 네트워크(200)의 속도와 각 센서 디바이스(100)의 무선 네트워크(200)로의 접속 기회의 제한 사항을 고려하여, 클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 여러 부분(패치 파일들)으로 분리하고 분리된 부분들을 센서 디바이스(100)에서 다른 시각에 수신될 수 있도록 한다.In view of the speed of the wireless network 200 and the limitations of the opportunities of connection of each sensor device 100 to the wireless network 200, the cloud server 500 may update the updated deep-learning program in several parts (patch files). And the separated parts can be received at different times in the sensor device 100.

예를 들어, 클라우드 서버(500)는 여러 부분을 단일 센서 디바이스(100)로 다른 시각에 순차적으로 무선 네트워크(200)를 통해 전송할 수 있다. 단일 센서 디바이스(100)(의 제어부(113))는 갱신 프로그램을 통해 다른 시각에 수신된 부분들을 조합하여 갱신된 딥-러닝 프로그램을 구성할 수 있다. For example, the cloud server 500 may transmit several portions to the single sensor device 100 sequentially at different times over the wireless network 200. The control unit 113 of the single sensor device 100 may combine the parts received at different times through the update program to configure the updated deep-learning program.

또는, 클라우드 서버(500)는 무선 네트워크(200)의 그룹(하나의 무선 AP(300)에 연결되어 있는 센서 디바이스(100)들의 그룹)의 센서 디바이스(100)들 각각으로 서로 다른 부분들을 무선 네트워크(200)의 무선 AP(300)를 통해 전송한다. Alternatively, the cloud server 500 may assign different portions to each of the sensor devices 100 of the group of the wireless network 200 (the group of sensor devices 100 connected to one wireless AP 300). Transmit through the wireless AP (300) (200).

무선 네트워크(200)의 그룹 내의 각각의 센서 디바이스(100)들은 가지고 부분들을 무선 네트워크(200) 그룹 내의 다른 센서 디바이스(100)로 서로 송수신하고 센서 디바이스(100)들(의 제어부(113)) 각각은 갱신 프로그램을 통해 부분들을 조합하여 갱신된 딥-러닝 프로그램을 구성 할 수 있다. Each sensor device 100 in a group of wireless network 200 has portions that send and receive each other to another sensor device 100 in a group of wireless network 200 and each of the sensor devices 100 (control 113 of) Can combine the parts through the update program to form an updated deep-learning program.

이후, 센서 디바이스(100)(의 제어부(113))는 갱신 프로그램을 통해 저장부(107)의 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체(S70)하고 갱신된 딥-러닝 프로그램을 이용하여 외부 이벤트를 다시 모니터링하고 그에 따라 영상 데이터나 소리 데이터로부터 결과 데이터를 생성하여 클라우드 서버(500)로 전송(S10 내지 S40 참조)한다. Subsequently, the control unit 113 of the sensor device 100 replaces the existing deep-learning program of the storage unit 107 with the updated deep-learning program through the update program (S70) and replaces the updated deep-learning program. The external event is monitored again, and the resulting data is generated from the image data or the sound data and transmitted to the cloud server 500 (see S10 to S40).

센서 디바이스(100)(의 제어부(113))는 다양한 방식으로 기존 딥-러닝 프로그램을 신규로 갱신된 딥-러닝 프로그램으로 대체할 수 있다. 한 예로, 센서 디바이스(100)(의 제어부(113))는 대체전 기존 딥-러닝 프로그램의 비휘발성 메모리 영역을 프리(free) 메모리 영역으로 할당하고 신규 갱신된 딥-러닝 프로그램의 비휘발성 메모리 영역의 시작 주소와 그 사이즈를 제어 프로그램에 설정하여 이후 갱신된 딥-러닝 프로그램이 수행될 수 있도록 한다. The controller 113 of the sensor device 100 may replace the existing deep learning program with a newly updated deep learning program in various ways. For example, the control unit 113 of the sensor device 100 allocates the nonvolatile memory area of the existing deep-learning program to the free memory area before replacing the non-volatile memory area of the newly updated deep-learning program. Set the start address and its size in the control program so that the updated deep-learning program can be executed later.

이와 같이, 센서 디바이스(100)(의 제어부(113))는 클라우드 서버(500)나 무선 AP(300)와의 약속된 포맷에 따라 서로 다른 시각에 무선 네트워크(200)를 통해 수신된 부분들(패치파일들)을 하나의 딥-러닝 프로그램을 완성하고 완성된 후에 기존 딥-러닝 프로그램을 대체할 수 있도록 구성된다. 딥-러닝 프로그램의 대체는 딥-러닝 프로그램이 실행 중인 상태에서 이루어지거나 딥-러닝 프로그램이 구동 종료 상태에서 이루어질 수 있도 있다. As such, the control unit 113 of the sensor device 100 (parts patched through the wireless network 200 at different times according to the promised format with the cloud server 500 or the wireless AP 300 (patch) Files are configured to complete one deep-learning program and replace the existing deep-learning program after completion. Substitution of the deep learning program may be performed while the deep learning program is running, or the deep learning program may be performed in a driving termination state.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다. The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

100 : 센서 디바이스
101 : 제1 센서부
103 : 제2 센서부
105 : 통신부
107 : 저장부
109 : 출력부
111 : 전원 공급부
113 : 제어부
200 : 무선 네트워크
300 : 무선 AP
400 : 광대역 네트워크
500 : 클라우드 서버
600 : 외부 서버
100: sensor device
101: first sensor unit
103: second sensor unit
105: communication unit
107: storage unit
109: output unit
111: power supply
113: control unit
200: wireless network
300: wireless AP
400: broadband network
500: cloud server
600: external server

Claims (10)

무선의 IoT 네트워크에 연결되어 외부 환경을 모니터링하는 센서 디바이스로서,
카메라 센서를 포함하는 제1 센서부;
센서 디바이스 외부의 환경을 센싱하는 환경 센서를 하나 이상 포함하는 제2 센서부;
IoT 네트워크를 통해 데이터를 송수신하는 통신부;
상기 제2 센서부로부터 지정된 이벤트를 인식하기 위한 감지 프로그램, 상기 제1 센서부로부터의 영상 데이터를 처리하여 목적물을 인식하고 목적물의 인식에 기초하여 결과 데이터를 생성하는 딥-러닝 프로그램, 상기 딥-러닝 프로그램을 갱신하는 갱신 프로그램 및 상기 감지 프로그램, 상기 딥-러닝 프로그램 및 상기 갱신 프로그램의 구동과 종료를 적어도 제어하는 제어 프로그램을 저장하는 저장부;
상기 딥-러닝 프로그램을 통해 상기 제1 센서부로부터의 영상 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 상기 통신부를 통해 클라우드 서버로 송출하는 제어부; 및
리튬이온 배터리 또는 건전지를 구비하여 상기 제1 센서부, 상기 제2 센서부, 상기 통신부, 상기 저장부 및 상기 제어부에 지정된 전압 레벨에 대응하는 전원을 공급하고 상기 제1 센서부로 전원 공급 또는 전원 차단을 제어할 수 있는 전원 스위치를 구비한 전원 공급부;를 포함하며,
상기 제어부는, 감지 프로그램을 통해 제2 센서부로부터 센싱 데이터를 수신하고 수신된 센싱 데이터와 임계 데이터와의 비교로 외부 이벤트를 인식하고, 제어 프로그램을 통해 상기 외부 이벤트의 인식에 따라 상기 제1 센서부로 전원 공급을 위한 제어 신호를 생성 및 상기 전원 공급부로 출력하여 상기 제1 센서부의 구동을 제어하고, 상기 딥-러닝 프로그램을 통해 제1 센서부로부터의 영상 데이터로부터 외부 이벤트에 맵핑된 목적물을 인식하고 목적물 인식에 기초한 결과 데이터를 생성하며 영상 데이터에 결과 데이터를 맵핑하여 저장부에 저장하고 생성된 결과 데이터를 통신부를 통해 클라우드 서버로 전송하며,
상기 저장부에 저장되는 영상 데이터 및 맵핑된 결과 데이터는 클라우드 서버에서의 상기 딥-러닝 프로그램의 갱신을 위한 학습 데이터로 이용되는,
센서 디바이스.
A sensor device connected to a wireless IoT network to monitor the external environment,
A first sensor unit including a camera sensor;
A second sensor unit including one or more environmental sensors for sensing an environment external to the sensor device;
Communication unit for transmitting and receiving data through the IoT network;
A sensing program for recognizing an event designated by the second sensor unit, a deep-learning program for processing image data from the first sensor unit to recognize an object, and generating result data based on recognition of the object, the deep- A storage unit for storing an update program for updating a running program and a control program for controlling at least a driving and an end of the detection program, the deep-learning program, and the update program;
A controller configured to process image data from the first sensor unit through the deep-learning program to generate result data and to transmit the generated result data to a cloud server through the communication unit; And
A lithium ion battery or a battery is provided to supply power corresponding to a voltage level specified in the first sensor unit, the second sensor unit, the communication unit, the storage unit, and the control unit, and supply or cut power to the first sensor unit. It includes; a power supply having a power switch to control the;
The control unit receives sensing data from the second sensor unit through a sensing program, recognizes an external event by comparing the received sensing data with threshold data, and controls the first sensor according to the recognition of the external event through a control program. A control signal for supplying power to the unit is generated and output to the power supply unit to control driving of the first sensor unit, and recognize an object mapped to an external event from image data from the first sensor unit through the deep-learning program. Generates result data based on object recognition, maps the result data to image data, stores it in the storage unit, and transmits the generated result data to the cloud server through the communication unit,
The image data and the mapped result data stored in the storage unit are used as learning data for updating the deep-learning program in the cloud server.
Sensor device.
제1항에 있어서,
상기 IoT 네트워크는 LoRa 네트워크이거나 NB-IoT 네트워크이고,
상기 목적물은 사람, 사람얼굴, 차량, 차량번호 또는 지정된 곤충인,
센서 디바이스.
The method of claim 1,
The IoT network is a LoRa network or an NB-IoT network,
The object is a person, a face, a vehicle, a vehicle number or a designated insect,
Sensor device.
삭제delete 삭제delete 삭제delete 제2항에 있어서,
상기 갱신 프로그램을 수행하는 제어부는 동일 환경을 모니터링하는 복수의 센서 디바이스에 의해 수집되고 저장된 영상 데이터 및 대응 결과 데이터를 이용한 클라우드 서버에 의한 추가 학습으로 갱신된 딥-러닝 프로그램의 부분들을 상기 클라우드 서버와 다른 센서 디바이스들로부터 LoRa 네트워크 또는 NB-IoT 네트워크를 통해 서로 다른 시각에 수신하고 상기 부분들을 조합하여 상기 저장부의 딥-러닝 프로그램을 대체하며,
제어부는 갱신전 딥-러닝 프로그램의 메모리 영역을 프리 메모리 영역으로 할당하고 갱신되는 딥-러닝 프로그램의 저장 메모리 영역의 주소와 사이즈를 제어 프로그램에 설정하고 이후 설정된 메모리 영역의 갱신된 딥-러닝 프로그램을 수행하여 결과 데이터를 생성하는,
센서 디바이스.
The method of claim 2,
The control unit for executing the update program may be configured to store portions of the deep-learning program updated by additional learning by a cloud server using image data and corresponding result data collected and stored by a plurality of sensor devices monitoring the same environment. Receive at different times from different sensor devices via a LoRa network or an NB-IoT network and combine the parts to replace the deep-learning program of the storage,
The controller allocates the memory area of the deep-learning program before updating to the free memory area, sets the address and the size of the storage memory area of the deep-learning program to be updated in the control program, and then updates the updated deep-learning program of the set memory area. To generate the resulting data,
Sensor device.
제1항에 있어서,
상기 저장부는 착탈 가능한 메모리 카드를 포함하고,
상기 제어부는 영상 데이터 및 맵핑된 결과 데이터를 상기 메모리 카드에 저장하는,
센서 디바이스.
The method of claim 1,
The storage unit includes a removable memory card,
The controller stores the image data and the mapped result data in the memory card.
Sensor device.
제1항의, 제1 센서 디바이스; 및 제2 센서 디바이스;를 포함하는, 환경 모니터링 시스템.The apparatus of claim 1, further comprising: a first sensor device; And a second sensor device. 제8항에 있어서,
IoT 네트워크를 통해 무선으로 상기 제1 센서 디바이스 및 상기 제2 센서 디바이스로부터 결과 데이터를 수신하고 각각의 센서 디바이스에 대한 대응 처리를 수행하는 클라우드 서버;를 더 포함하는,
환경 모니터링 시스템.
The method of claim 8,
And a cloud server that receives result data from the first sensor device and the second sensor device wirelessly via an IoT network and performs corresponding processing on each sensor device.
Environmental monitoring system.
제9항에 있어서,
상기 클라우드 서버는 제1 센서 디바이스 및 제2 센서 디바이스에서 수집된 오프라인 영상 데이터 및 결과 데이터를 추가 학습 데이터로 이용하여 상기 제1 센서 디바이스 및 상기 제2 센서 디바이스에서 수행되는 딥-러닝 프로그램을 갱신하고 갱신된 딥-러닝 프로그램의 부분 파일들 각각을 상기 제1 센서 디바이스 및 상기 제2 센서 디바이스로 전송하고,
상기 제1 센서 디바이스는 상기 클라우드 서버로부터 수신된 부분 파일과 상기 IoT 네트워크를 통해 상기 제2 센서 디바이스에서 수신된 부분 파일을 이용하여 상기 갱신된 딥-러닝 프로그램을 구성하고 저장부에 저장되어 있는 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체하는,
환경 모니터링 시스템.
The method of claim 9,
The cloud server uses the offline image data and the result data collected by the first sensor device and the second sensor device as additional learning data to update the deep-learning program performed by the first sensor device and the second sensor device. Transmit each of the partial files of the updated deep-learning program to the first sensor device and the second sensor device,
The first sensor device configures the updated deep-learning program using the partial file received from the cloud server and the partial file received from the second sensor device through the IoT network and is stored in a storage unit. To replace a deep learning program with an updated deep learning program,
Environmental monitoring system.
KR1020170140896A 2017-10-27 2017-10-27 Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device KR102029751B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170140896A KR102029751B1 (en) 2017-10-27 2017-10-27 Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170140896A KR102029751B1 (en) 2017-10-27 2017-10-27 Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device

Publications (2)

Publication Number Publication Date
KR20190047246A KR20190047246A (en) 2019-05-08
KR102029751B1 true KR102029751B1 (en) 2019-10-08

Family

ID=66580087

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170140896A KR102029751B1 (en) 2017-10-27 2017-10-27 Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device

Country Status (1)

Country Link
KR (1) KR102029751B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220022942A (en) 2020-08-19 2022-03-02 인포뱅크 주식회사 Apparatus and method for handling dangerous situations outside of autonomous vehicles
KR20220086403A (en) 2020-12-16 2022-06-23 주식회사 콕스랩 Method, system and non-transitory computer-readable recording medium for estimating information on objects based on image in lpwan environment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190075017A (en) * 2019-06-10 2019-06-28 엘지전자 주식회사 vehicle device equipped with artificial intelligence, methods for collecting learning data and system for improving the performance of artificial intelligence

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101405398B1 (en) * 2012-11-29 2014-06-11 이종선 A pro-pedestrian safty informing apparatus and method using the same
KR101739976B1 (en) * 2015-07-02 2017-05-26 주식회사 스마트올웨이즈온 Method and apparatus for controlling subordinate electronic device or allowing the subordinate electronic device to be controlled by learning infrared-ray signal
KR20170095082A (en) * 2016-02-12 2017-08-22 한국기술교육대학교 산학협력단 Practicing device and method for training internet of things

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220022942A (en) 2020-08-19 2022-03-02 인포뱅크 주식회사 Apparatus and method for handling dangerous situations outside of autonomous vehicles
KR20220086403A (en) 2020-12-16 2022-06-23 주식회사 콕스랩 Method, system and non-transitory computer-readable recording medium for estimating information on objects based on image in lpwan environment

Also Published As

Publication number Publication date
KR20190047246A (en) 2019-05-08

Similar Documents

Publication Publication Date Title
KR102029751B1 (en) Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device
CN106164991B (en) Correlation of sensory input to identify unauthorized persons
JP7142698B2 (en) Integrated device based on the Internet of Things (IoT) for monitoring and controlling events in the environment
KR102390405B1 (en) Doorbell
US8365871B2 (en) Electronic device and method for monitoring an elevator
US20130325407A1 (en) Apparatus and method for sharing sensing information of portable device
US20130215903A1 (en) Dual communication-interface facility monitoring and management system and method
KR102472369B1 (en) Object tracking system based on sound source asking for emegency help and tracking method using the same
Gia et al. Exploiting LoRa, edge, and fog computing for traffic monitoring in smart cities
CN207895630U (en) Monitoring system with environment sensing and emergency evacuation command function
KR102251777B1 (en) Intelligent image surveillance apparatus supporting proxy function and driving method thereof
KR102007221B1 (en) Security System With IP Camera And Network Video Recorder
KR20170101518A (en) Method for cooperating with smart devices and cloud server therof
KR101772391B1 (en) Exetended Monitoring Device Using Voice Recognition Module Installed in Multi Spot
US20160240057A1 (en) System and method for providing alerts regarding occupancy conditions
KR102415461B1 (en) Ai camera and monitering system able to detect situation and give an alarm
KR20200010642A (en) Location tracking method and location tracking system
CN112315098B (en) Intelligent helmet and system
KR20230079913A (en) smart pole capable of performing safety accident prevention warning function through artificial intelligence-based image analysis
KR101993307B1 (en) Method for proceeding dangerous situation using neighbors
KR101384730B1 (en) Monitoring system of backwoods using tethering function
KR20200063294A (en) Object Tracking System and method automatically gathering in vehicle black box image
US11763656B1 (en) Dynamic collection and reporting of customer premises context information in response to predicted emergency event
KR20150030836A (en) Monitoring apparatus for transmission line and system using the same
CN112435423B (en) Monitoring method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant