KR102029751B1 - Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device - Google Patents
Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device Download PDFInfo
- Publication number
- KR102029751B1 KR102029751B1 KR1020170140896A KR20170140896A KR102029751B1 KR 102029751 B1 KR102029751 B1 KR 102029751B1 KR 1020170140896 A KR1020170140896 A KR 1020170140896A KR 20170140896 A KR20170140896 A KR 20170140896A KR 102029751 B1 KR102029751 B1 KR 102029751B1
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- sensor device
- program
- unit
- data
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 46
- 230000007613 environmental effect Effects 0.000 claims abstract description 45
- 238000004891 communication Methods 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 14
- 241000238631 Hexapoda Species 0.000 claims description 5
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 claims description 2
- 229910001416 lithium ion Inorganic materials 0.000 claims description 2
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 claims 2
- 230000000875 corresponding effect Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003912 environmental pollution Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000003915 air pollution Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010039740 Screaming Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 231100000614 poison Toxicity 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000003440 toxic substance Substances 0.000 description 1
- 239000012855 volatile organic compound Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Alarm Systems (AREA)
Abstract
본 발명은 영상 센서 및/또는 소리 센서를 포함하는 제1 센서부, 무선 네트워크를 통해 데이터를 송수신하는 통신부, 제1 센서부로부터의 센싱 데이터를 처리하는 하나 이상의 프로그램을 저장하는 저장부 및 하나 이상의 프로그램을 수행하여 제1 센서부로부터의 센싱 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 통신부를 통해 송출하는 제어부를 포함하는 센서 디바이스 및 환경 모니터링 시스템에 관한 것이다.The present invention provides a first sensor unit including an image sensor and / or a sound sensor, a communication unit for transmitting and receiving data through a wireless network, a storage unit for storing one or more programs for processing sensing data from the first sensor unit, and one or more programs. The present invention relates to a sensor device and an environmental monitoring system including a control unit which executes a program to process sensing data from a first sensor unit to generate result data, and transmit the generated result data through a communication unit.
Description
본 발명은 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템에 관한 것으로서, 구체적으로는 소리 센서 및/또는 영상 센서로부터 센싱된 데이터를 처리하여 외부 환경을 인식하고 인식된 상태를 나타내는 결과값을 IoT 네트워크를 통해 전송할 수 있도록 구성되는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템에 관한 것이다. The present invention relates to a sensor device capable of monitoring an external environment based on sound or an image, and an environmental monitoring system including the same, and specifically, recognizes an external environment by processing data sensed from a sound sensor and / or an image sensor. And a sensor device capable of monitoring an external environment based on sound or video and configured to transmit a result value indicating a recognized state through an IoT network, and an environmental monitoring system including the same.
사물 인터넷(IoT : Internet of Things) 기술을 활용하여 생활환경을 감시하거나 측정하여 위험을 미리 감지하거나 안전한 환경을 제공하기 위한 노력들이 행해지고 있다. Efforts have been made to monitor or measure the living environment using the Internet of Things (IoT) technology to detect risks in advance or to provide a safe environment.
이를 위해, IoT 디바이스는 다양한 센서를 구비하여 각종 외부 환경을 모니터링하고 있다. IoT 디바이스는 공기질 측정 센서(PM2.5, VOCs), 방사능 센서, 전자파 센서 등 다양한 센서를 활용하여 외부 환경을 모니터링할 수 있도록 구성된다. To this end, IoT devices are equipped with various sensors to monitor various external environments. IoT devices are configured to monitor the external environment using various sensors such as air quality measurement sensors (PM2.5, VOCs), radiation sensors, and electromagnetic sensors.
나아가, 개발자들은 IoT 디바이스에서 인간의 오감 중에서 가장 중요한 센싱 역할을 담당하는 시각과 청각에 대응하는 영상센서 및 소리센서의 활용 부분에 많은 관심을 가지고 있다.In addition, developers are interested in the use of image sensors and sound sensors corresponding to vision and hearing, which play the most important sensing role among the human senses in IoT devices.
일반적으로, 영상과 소리 데이터는 수집된 그대로 서버(클라우드 서버)로 전송되고 서버가 수집된 데이터를 처리한다. 클라우드 서버는 컴퓨팅 파워가 높아 수집된 데이터를 처리하여 영상과 소리에 관련된 각종 서비스를 제공할 수 있다. In general, video and sound data is sent to a server (cloud server) as it is collected, and the server processes the collected data. The cloud server may provide various services related to video and sound by processing the collected data due to its high computing power.
IoT 디바이스는 IoT 네트워크를 통해 각종 데이터를 클라우드 서버와 송수신할 수 있다. IoT 네트워크는 예를 들어 LoRa(Long Range) 네트워크이거나 NB-IoT(NarrowBand-Internet of Things) 네트워크일 수 있다. 기존 IoT 네트워크는 기존의 유선랜, 와이파이, LTE 망과 달리 저속의 통신 속도를 가진다. 예를 들어, LoRa나 NB-IoT 네트워크상에서 IoT 디바이스는 수 bps에서 수 Kbps 정도의 통신 속도를 가진다. The IoT device may transmit and receive various data with the cloud server through the IoT network. The IoT network may be, for example, a long range (LoRa) network or a narrowband-Internet of things (NB-IoT) network. Unlike conventional wired LAN, Wi-Fi, and LTE networks, the existing IoT network has a low communication speed. For example, on LoRa or NB-IoT networks, IoT devices have communication speeds ranging from a few bps to a few Kbps.
이러한 IoT 통신 속도는 영상과 소리 데이터의 처리에 턱없이 부족하다. 또한, 영상과 소리 데이터는 개인정보보호에 민감한 정보를 포함할 수 있어 영상과 소리 데이터 자체가 클라우드 서버로 전송되는 경우 개인정보보호와 관련하여 다양한 문제점을 야기할 수 있다. This IoT communication speed is far short of processing video and sound data. In addition, the video and sound data may include information sensitive to privacy, and may cause various problems with respect to privacy when the video and sound data itself is transmitted to the cloud server.
이와 같이, IoT 네트워크를 통해 영상과 소리 데이터의 처리에 있어 야기되는 여러 문제점을 해소할 수 있는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템이 필요하다. As such, there is a need for a sensor device capable of monitoring an external environment based on sound or video and an environmental monitoring system including the same, which can solve various problems caused in processing of video and sound data through an IoT network. .
본 발명은 상술한 문제점을 해결하기 위해서 안출한 것으로서, 영상이나 소리 센싱에 기반하여 외부 환경을 모니터링하고 모니터링된 결과를 저속의 IoT 네트워크를 통해 송출할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.The present invention has been made to solve the above-described problems, the external environment based on the sound or video, to monitor the external environment based on the image or sound sensing and to transmit the monitored result through the low-speed IoT network An object of the present invention is to provide a sensor device capable of monitoring and an environmental monitoring system including the same.
또한, 본 발명은 딥-러닝 프로그램을 이용하여 입력되는 영상이나 소리로부터 지정된 목적물만을 인식하고 인식된 목적물에 기초한 결과 데이터를 산출하도록 구성하여 영상이나 소리 데이터에 의한 개인정보 노출을 방지할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is configured to recognize only the designated object from the image or sound input using the deep-learning program and to calculate the result data based on the recognized object to prevent exposure of personal information by the image or sound data It is an object of the present invention to provide a sensor device capable of monitoring an external environment based on sound or image, and an environmental monitoring system including the same.
또한, 본 발명은 각각의 센서 디바이스에서 기록된 센싱 데이터를 이용하여 내장된 프로그램을 갱신하고 저속의 IoT 네트워크를 통해 갱신된 내장 프로그램을 센서 디바이스로 재배포할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention is based on the external sound based on the sound or video to update the embedded program using the sensing data recorded in each sensor device and to redistribute the updated embedded program to the sensor device through a low-speed IoT network An object thereof is to provide a sensor device capable of monitoring the environment and an environmental monitoring system including the same.
또한, 본 발명은 다른 환경 센서와 결합하여 환경 센서의 이벤트에 연동하여 영상이나 소리 데이터를 센싱 및 이벤트에 지정된 목적물을 인식하고 그에 따라 결과 데이터를 산출하여 IoT 네트워크로 송출할 수 있도록 하는, 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템을 제공하는 데 그 목적이 있다.In addition, the present invention, in conjunction with other environmental sensors in conjunction with the event of the environmental sensor to sense the image or sound data and the object specified in the event and to calculate the resulting data accordingly, so that the sound or An object of the present invention is to provide a sensor device capable of monitoring an external environment based on an image and an environmental monitoring system including the same.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.
본 발명의 일 양상에 따른 센서 디바이스는 영상 센서, 소리 센서 또는 영상 센서와 소리 센서를 포함하는 제1 센서부, 무선 네트워크를 통해 데이터를 송수신하는 통신부, 제1 센서부로부터의 센싱 데이터를 처리하는 하나 이상의 프로그램을 저장하는 저장부 및 하나 이상의 프로그램을 수행하여 제1 센서부로부터의 센싱 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 통신부를 통해 송출하는 제어부를 포함한다.According to an aspect of the present invention, a sensor device includes an image sensor, a sound sensor, or a first sensor unit including an image sensor and a sound sensor, a communication unit for transmitting and receiving data through a wireless network, and processing sensing data from the first sensor unit. A storage unit for storing one or more programs and a control unit for performing the one or more programs to process the sensing data from the first sensor unit to generate the result data and to send the generated result data through the communication unit.
상기한 센서 디바이스에 있어서, 무선 네트워크는 LoRa 네트워크이거나 NB-IoT 네트워크이고, 하나 이상의 프로그램은 설정된 목적물을 인식하고 목적물의 인식에 따라 결과 데이터를 생성할 수 있는 딥-러닝 프로그램을 포함한다.In the sensor device described above, the wireless network is a LoRa network or an NB-IoT network, and the one or more programs include a deep-learning program capable of recognizing a set object and generating result data in accordance with the recognition of the object.
상기한 센서 디바이스에 있어서, 영상 센서 및 소리 센서와 상이한 환경 센서를 하나 이상 포함하는 제2 센서부를 더 포함하고, 제어부는 제2 센서부로부터의 센싱 데이터에서 외부 이벤트를 인식하고 외부 이벤트를 인식하는 경우에 제1 센서부를 구동하여 외부 이벤트에 맵핑된 목적물을 인식하고 목적물의 인식에 따른 결과 데이터를 생성한다.The sensor device may further include a second sensor unit including one or more environmental sensors different from the image sensor and the sound sensor, wherein the control unit recognizes an external event and recognizes an external event in sensing data from the second sensor unit. In this case, the first sensor unit is driven to recognize a target mapped to an external event and generate result data according to the recognition of the target.
상기한 센서 디바이스에 있어서, 제1 센서부, 제2 센서부, 통신부, 저장부 및 제어부에 지정된 전압 레벨에 대응하는 전원을 공급하고 제1 센서부의 전원 공급을 제어할 수 있는 전원 공급부를 더 포함하고, 전원 공급부를 통해 제1 센서부로의 전원 공급을 차단하고 있는 제어부는 제2 센서부를 통해 외부 이벤트를 인식하는 경우에 전원 공급부를 통해 제1 센서부에 지정된 전압 레벨에 대응하는 전원을 공급하여 제1 센서부를 구동하고 제1 센서부로부터의 센싱 데이터에서 외부 이벤트에 맵핑된 목적물을 인식하고 목적물의 인식에 따른 결과 데이터를 생성한다.The sensor device may further include a power supply unit configured to supply power corresponding to a voltage level specified in the first sensor unit, the second sensor unit, the communication unit, the storage unit, and the control unit, and to control the power supply of the first sensor unit. The controller which cuts off the power supply to the first sensor unit through the power supply unit supplies power corresponding to the voltage level specified by the first sensor unit through the power supply unit when the external event is recognized through the second sensor unit. The first sensor unit is driven to recognize a target mapped to an external event in sensing data from the first sensor unit, and generate result data according to the recognition of the target.
상기한 센서 디바이스에 있어서, 제1 센서부는 영상 센서 및 소리 센서를 포함하고, 센서 디바이스는 영상 센서 및 소리 센서에 지정된 전압 레벨에 대응하는 전원을 공급하고 영상 센서의 전원 공급을 제어할 수 있는 전원 공급부를 더 포함하며, 제어부는 소리 센서로부터의 소리 데이터에서 지정된 외부 이벤트를 인식하는 경우에 전원 공급부를 통해 영상 센서에 전원을 공급하고 영상 센서로부터의 영상 데이터를 처리하여 지정된 목적물을 인식하고 지정된 목적물의 인식에 따른 결과 데이터를 생성하여 통신부를 통해 송출한다.In the above sensor device, the first sensor unit includes an image sensor and a sound sensor, and the sensor device supplies power corresponding to a voltage level specified to the image sensor and the sound sensor and controls power supply of the image sensor. The apparatus further includes a supply unit, and when the controller recognizes an external event specified in the sound data from the sound sensor, the controller supplies power to the image sensor through the power supply unit and processes the image data from the image sensor to recognize the designated object and designate the designated object. Generates the result data according to the recognition of the transmitted through the communication unit.
상기한 센서 디바이스에 있어서, 하나 이상의 프로그램은 딥-러닝 프로그램을 업데이트하기 위한 갱신 프로그램을 더 포함하고, 갱신 프로그램을 수행하는 제어부는 LoRa 네트워크 또는 NB-IoT 네트워크를 통해 복수의 센서 디바이스에 의해 수집된 센싱 데이터에 의한 추가 학습으로 갱신된 딥-러닝 프로그램의 부분들을 서로 다른 시각에 수신하고 부분들을 조합하여 저장부의 딥-러닝 프로그램을 대체한다.In the above sensor device, the one or more programs further comprise an update program for updating the deep-learning program, wherein the controller for performing the update program is collected by the plurality of sensor devices via the LoRa network or the NB-IoT network. Further learning by sensing data receives portions of the updated deep-learning program at different times and combines the portions to replace the deep-learning program of the storage.
상기한 센서 디바이스에 있어서, 저장부는 착탈 가능한 메모리 카드를 포함하고, 외부 이벤트를 인식한 제어부는 외부 이벤트의 인식에 따라 제1 센서부에 포함되는 영상 센서 및 소리 센서를 통해 수신되는 센싱 데이터를 메모리 카드에 저장하고, 메모리 카드에 저장되는 센싱 데이터는 클라우드 서버에 의한 추가 학습을 통해 하나 이상의 프로그램에 포함되는 딥-러닝 프로그램의 갱신에 이용된다. In the sensor device, the storage unit includes a detachable memory card, and the controller recognizing the external event stores the sensing data received through the image sensor and the sound sensor included in the first sensor unit according to the recognition of the external event. The sensing data stored in the card and stored in the memory card is used for updating a deep learning program included in one or more programs through further learning by the cloud server.
본 발명의 일 양상에 따른 환경 모니터링 시스템은 상기한 제1 센서 디바이스 및 제2 센서 디바이스를 포함한다.An environmental monitoring system according to an aspect of the present invention includes the first sensor device and the second sensor device described above.
상기한 환경 모니터링 시스템에 있어서, IoT 네트워크를 통해 무선으로 제1 센서 디바이스 및 제2 센서 디바이스로부터 결과 데이터를 수신하고 각각의 센서 디바이스에 대한 대응 처리를 수행하는 클라우드 서버를 더 포함한다.The above-described environmental monitoring system further includes a cloud server that receives the result data from the first sensor device and the second sensor device wirelessly through the IoT network and performs corresponding processing for each sensor device.
상기한 환경 모니터링 시스템에 있어서, 클라우드 서버는 제1 센서 디바이스 및 제2 센서 디바이스에서 수집된 오프라인 센싱 데이터를 추가 학습 데이터로 이용하여 제1 센서 디바이스 및 제2 센서 디바이스에서 수행되는 딥-러닝 프로그램을 갱신하고 갱신된 딥-러닝 프로그램의 부분 파일들을 제1 센서 디바이스 및 제2 센서 디바이스로 전송하고, 제1 센서 디바이스는 제1 센서 디바이스에서 수신된 부분 파일과 제2 센서 디바이스에서 수신된 부분 파일을 이용하여 갱신된 딥-러닝 프로그램을 구성하고 저장부에 저장되어 있는 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체한다. In the above-described environmental monitoring system, the cloud server uses a deep learning program performed in the first sensor device and the second sensor device by using offline sensing data collected from the first sensor device and the second sensor device as additional learning data. And update the partial files of the updated deep-learning program to the first sensor device and the second sensor device, wherein the first sensor device receives the partial file received at the first sensor device and the partial file received at the second sensor device. The updated deep learning program is configured to replace the existing deep learning program stored in the storage unit with the updated deep learning program.
상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 영상이나 소리 센싱에 기반하여 외부 환경을 모니터링하고 모니터링된 결과를 저속의 IoT 네트워크를 통해 송출할 수 있도록 하는 효과가 있다. The sensor device capable of monitoring the external environment based on the sound or the image according to the present invention as described above and the environmental monitoring system including the same monitor the external environment based on the image or sound sensing and monitor the monitored result at a low speed IoT network. It is effective to send through.
또한, 상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 딥-러닝 프로그램을 이용하여 입력되는 영상이나 소리로부터 지정된 목적물만을 인식하고 인식된 목적물에 기초한 결과 데이터를 산출하도록 구성하여 영상이나 소리 데이터에 의한 개인정보 노출을 방지할 수 있도록 하는 효과가 있다.In addition, the sensor device capable of monitoring the external environment based on the sound or the image according to the present invention as described above, and the environmental monitoring system including the same recognize only the designated object from the image or sound input using the deep-learning program It is effective to prevent personal information exposure by video or sound data by configuring the result data based on the recognized object.
또한, 상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 각각의 센서 디바이스에서 기록된 센싱 데이터를 이용하여 내장된 프로그램을 갱신하고 저속의 IoT 네트워크를 통해 갱신된 내장 프로그램을 센서 디바이스로 재배포할 수 있도록 하는 효과가 있다. In addition, the sensor device capable of monitoring the external environment based on the sound or image according to the present invention as described above and the environmental monitoring system including the same update the embedded program using the sensing data recorded in each sensor device It has the effect of redistributing updated embedded programs to sensor devices via low-speed IoT networks.
또한, 상기와 같은 본 발명에 따른 소리 또는 영상에 기반하여 외부 환경을 모니터링할 수 있는 센서 디바이스 및 이를 포함하는 환경 모니터링 시스템은 다른 환경 센서와 결합하여 환경 센서의 이벤트에 연동하여 영상이나 소리 데이터를 센싱 및 이벤트에 지정된 목적물을 인식하고 그에 따라 결과 데이터를 산출하여 IoT 네트워크로 송출할 수 있도록 하는 효과가 있다. In addition, the sensor device capable of monitoring the external environment based on the sound or the image according to the present invention as described above, and the environmental monitoring system including the same, in conjunction with other environmental sensors in conjunction with the event of the environmental sensor image or sound data It has the effect of recognizing the targets specified in the sensing and events, and calculating the result data and sending them to the IoT network.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.
도 1은 본 발명에 따른 환경 모니터링 시스템에 구성되는 장치간 연결 구성의 예를 도시한 도면이다.
도 2는 센서 디바이스의 예시적인 블록도를 도시한 도면이다.
도 3은 본 발명에 따른 센서 디바이스를 활용하여 외부 환경을 모니터링하고 그에 따라 프로그램을 갱신할 수 있는 예시적인 제어 흐름을 도시한 도면이다.1 is a view showing an example of the connection configuration between the devices configured in the environmental monitoring system according to the present invention.
2 shows an exemplary block diagram of a sensor device.
3 illustrates an exemplary control flow that may utilize a sensor device in accordance with the present invention to monitor an external environment and update a program accordingly.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되어 있는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. The above objects, features, and advantages will become more apparent from the detailed description given hereinafter with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may share the technical idea of the present invention. It will be easy to implement. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 환경 모니터링 시스템에 구성되는 장치간 연결 구성의 예를 도시한 도면이다. 1 is a view showing an example of the connection configuration between the devices configured in the environmental monitoring system according to the present invention.
도 1의 환경 모니터링 시스템은 소리 및/또는 영상에 기반하여 외부 환경을 모니터링할 수 있도록 구성된다. The environmental monitoring system of FIG. 1 is configured to monitor an external environment based on sound and / or video.
도 1을 통해 환경 모니터링 시스템을 살펴보면, 환경 모니터링 시스템은 하나 이상의 센서 디바이스(100), 무선 네트워크(200), 무선 AP(300), 광대역 네트워크(400), 클라우드(Cloud) 서버(500) 및 외부 서버(600)를 포함한다. Referring to FIG. 1, an environmental monitoring system includes at least one
센서 디바이스(100)는 센서 디바이스(100) 외부의 환경을 모니터링할 수 있는 디바이스이다. 센서 디바이스(100)는 적어도 소리 센서 및/또는 영상 센서를 구비하여 소리 센서 및/또는 영상 센서를 통해 소리 데이터 및/또는 영상 데이터를 캡쳐링(인식)하고 소리 데이터 및/또는 영상 데이터에서 지정된(설정된) 이벤트나 지정된(설정된) 목적물(타겟)을 인식하고 인식된 이벤트나 목적물에 따라 산출되는 결과 데이터를 무선 네트워크(200)를 통해 송출할 수 있도록 구성된다. The
센서 디바이스(100)는 결과 데이터를 산출하기 위한 프로그램을 구비하여 프로그램을 통해 소리 데이터 및/또는 영상 데이터로부터 특정 타겟이나 이벤트를 인식할 수 있도록 구성된다. 이 프로그램은 예를 들어 인공지능 프로그램일 수 있고 예를 들어 딥-러닝 프로그램일 수 있다.The
센서 디바이스(100)는 특정 위치에 고정 설치되거나 이동 가능하도록 구성될 수 있다. 센서 디바이스(100)는 IoT 네트워크에 연결될 수 있고 각종 외부 환경을 센싱할 수 있는 IoT 디바이스일 수 있다. 센서 디바이스(100)에 대해서는 도 2 이하에서 상세히 살펴보도록 한다. The
무선 네트워크(200)는 고정 설치되거나 이동 가능한 여러 센서 디바이스(100) 사이의 데이터를 무선으로 송수신하기 위한 네트워크이다. 무선 네트워크(200)는 일정한 영역 내의 센서 디바이스(100)를 서로 연결할 수 있다. 무선 네트워크(200)는 수백 미터나 수 킬로미터 영역 범위 내에서 무선 통신이 가능하고 IoT 네트워크로 활용 가능한 LoRa 네트워크이거나 NB-IoT 네트워크일 수 있다. 그 외 무선 네트워크(200)는 센서 네트워크에 활용 가능한 지그비 네트워크이거나 와이파이 등일 수도 있다. The
무선 AP(300)(Access Point)는 무선 네트워크(200)와 광대역 네트워크(400)를 연결하기 위한 디바이스이다. 무선 AP(300)는 무선 네트워크(200)를 통해 센서 디바이스(100)로부터 수신된 결과 데이터 등을 광대역 네트워크(400)를 통해 클라우드 서버(500) 등으로 전송할 수 있다. 무선 AP(300)는 클라우드 서버(500)로부터의 각종 데이터를 연결된 무선 네트워크(200)상의 하나 혹은 복수의 센서 디바이스(100)로 전송할 수 있다. The wireless AP 300 (Access Point) is a device for connecting the
여기서, 무선 네트워크(200)에 연결된 각각의 센서 디바이스(100)는 지정된 동일 외부 환경을 모니터링하기 위해 동일한 프로그램과 구성을 구비할 수 있다. 예를 들어 센서 디바이스(100)는 딥-러닝을 통해 영상이나 소리로부터 특정 이벤트나 특정 목적물을 하나 이상 인식하는 딥-러닝 프로그램을 내장하고 동일한 환경 센서를 구비할 수 있다.Here, each
광대역 네트워크(400)는 무선 네트워크(200)가 커버링하는 단일 통신 영역보다 더 넓은 영역에서 데이터를 송수신할 수 있는 네트워크이다. 광대역 네트워크(400)는 예를 들어 이동통신사업자에 의해서 제공되는 이동통신망, 인터넷망 또는 그 조합으로 구성된다.The broadband network 400 is a network capable of transmitting and receiving data in a wider area than the single communication area covered by the
광대역 네트워크(400)를 통해 서버 등은 각종 데이터를 무선 AP(300)를 통해 센서 디바이스(100)로 전송하고 센서 디바이스(100)로부터 수신할 수 있다. Through the broadband network 400, a server or the like may transmit various data to the
클라우드 서버(500)는 광대역 네트워크(400)를 통해 다수의 센서 디바이스(100)에 연결되고 다수 센서 디바이스(100) 각각으로부터의 각종 데이터를 처리하고 처리 결과를 출력할 수 있도록 구성된다. The
예를 들어, 클라우드 서버(500)는 무선 네트워크(200)의 일 예인 IoT 네트워크를 통해 무선으로 센서 디바이스(100)들 각각으로부터 결과 데이터를 수신하고 결과 데이터를 이용하여 각각의 센서 디바이스(100)에 대한 대응 처리를 수행한다. For example, the
예를 들어, 클라우드 서버(500)는 센서 디바이스(100)로부터의 사람 인식 여부, 차량 인식 여부, 인식된 사람수, 인식된 차량수 등(과 인식된 외부 이벤트)을 포함하는 결과 데이터를 이용하여 센서 디바이스(100)의 목적에 따른 특정 이벤트를 인식하고 대응하는 처리(예를 들어 소방청 연락, 경찰청 연락, 차량 통제 등)를 수행한다. 대응 처리는 예를 들어 클라우드 서버(500)가 지정된 외부 서버(600)로 통신 채널을 설정하고 외부 서버(600)로 인식된 이벤트와 센서 디바이스(100)의 위치 정보를 포함하며 특정 액션을 요청하는 데이터를 전송하여 구성될 수 있다. For example, the
또한, 클라우드 서버(500)는 무선 네트워크(200)에 연결된 센서 디바이스(100)에서 수행되는 프로그램을 센서 디바이스(100)들로부터 수집된 데이터를 이용하여 갱신하고 갱신된 프로그램을 무선 네트워크(200)를 통해 각각의 센서 디바이스(100)들로 전송할 수 있다. In addition, the
예를 들어, 클라우드 서버(500)는 센서 디바이스(100)에 구비되고 착탈 가능한 메모리 카드의 센싱 데이터를 관리자 등에 의한 준비와 입력으로 인식하고 여러 센서 디바이스(100)에서의 센싱 데이터, 나아가 결과 데이터,를 추가 학습 데이터로 이용하여 자가 학습하여 센서 디바이스(100)에 내장되는 딥-러닝 프로그램을 갱신한다. For example, the
클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 이 딥-러닝 프로그램을 수행하는 여러 센서 디바이스(100)로 무선 네트워크(200)를 통해 전송한다. IoT 네트워크의 전송 속도가 저속임을 감안하여, 클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 여러 부분(여러 패치 파일)으로 나누고 나누어진 부분들을 센서 디바이스(100)들로 서로 다른 시각에 전송한다. The
클라우드 서버(500)는 프로그램의 전송의 효율을 위해, 동일 IoT 네트워크의 그룹에 연결된 각각의 센서 디바이스(100)로 갱신된 딥-러닝 프로그램들 중 서로 다른 부분들을 전송하고 각각의 센서 디바이스(100)는 IoT 네트워크에 연결되어 있는 다른 센서 디바이스(100)로부터 다른 부분들을 수신하고 자신이 수신한 부분과 다른 부분들을 이용하여 클라우드 서버(500)에 의해 갱신된 딥-러닝 프로그램을 구성할 수 있다. The
센서 디바이스(100)는 동일 무선 네트워크(200) 내의 여러 센서 디바이스(100)에서 수신된 부분들(패치 파일들)을 결합하여 전체 딥-러닝 프로그램을 구성하고 저장부(107)에 저장되어 있는 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체할 수 있다. The
외부 서버(600)는 광대역 네트워크(400)를 통해 클라우드 서버(500)에 연결되어 특정 액션 요청을 수신하고 해당 액션을 처리한다. 외부 서버(600)는 예를 들어, 경찰청, 소방청, 교통 상황실, 등과 같이 특정 기관에 설치되어 있는 서버일 수 있다.The
도 2는 센서 디바이스(100)의 예시적인 블록도를 도시한 도면이다.2 shows an exemplary block diagram of a
도 2에 따르면, 센서 디바이스(100)는 제1 센서부(101), 제2 센서부(103), 통신부(105), 저장부(107), 출력부(109), 전원 공급부(111) 및 제어부(113)를 포함한다. 설계예에 따라 센서 디바이스(100)는 도 2의 특정 구성요소를 생략할 수 있고 도시되지 않은 다른 구성요소를 더 포함할 수도 있다. According to FIG. 2, the
도 2를 통해 센서 디바이스(100)를 상세히 살펴보면, 제1 센서부(101)는 영상 센서, 소리 센서 또는 영상 센서 및 소리 센서를 포함하여 포함된 영상 센서 및/또는 소리 센서로부터의 영상 이미지 및/또는 소리를 인식(캡쳐링)하고 인식된 영상 데이터 및/또는 소리 데이터를 출력한다. Referring to the
영상 센서는 예를 들어 카메라 센서일 수 있고 CCD 센서, CMOS 센서 등 일 수 있다. 소리 센서는 진동 신호를 전기 신호로 변환하는 마이크를 포함한다. 제1 센서부(101)는 영상 센서에서 출력되는 이미지 신호를 디지털 신호로 변환하기 위한 로직(칩셋)과 마이크로부터의 전기 신호를 디지털 신호로 변환하기 위한 오디오 ADC(또는 CODEC)를 더 포함할 수 있다.The image sensor may be, for example, a camera sensor, a CCD sensor, a CMOS sensor, or the like. The sound sensor includes a microphone that converts the vibration signal into an electrical signal. The
제1 센서부(101)는 전원 공급부(111)로부터 지정된 전압 레벨의 전원을 공급받아 영상 데이터 및/또는 소리 데이터를 출력할 수 있고 전원 공급이 차단되는 경우 영상이나 소리 데이터의 캡쳐링은 중단된다. The
제2 센서부(103)는 센서 디바이스(100) 외부에서 지정된 특정 환경 데이터를 센싱한다. 제2 센서부(103)는 하나 이상의 환경 센서를 포함하여 각종 환경 데이터를 센싱할 수 있다. 환경 센서는 예를 들어 적외선 센서, 공기질 측정 센서, 방사능 센서, 전자파 센서, 화재 감지 센서 등을 포함할 수 있다. The
환경 센서는 특정 이벤트의 발생을 모니터링할 수 있도록 하고 예를 들어 외부로부터의 무단 침입, 환경 오염, 화재 감지, 사람의 존재 여부 탐지 등 다양한 이벤트를 모니터링할 수 있다. Environmental sensors can monitor the occurrence of specific events and monitor a variety of events, such as unauthorized intrusions from outside, environmental pollution, fire detection, and the presence of people.
환경 센서는 제1 센서부(101)의 영상 센서 및 소리 센서와는 다른 구성을 가지고 지정된 특정 환경 데이터를 센싱하고 센싱된 데이터를 출력할 수 있다. The environmental sensor may have a configuration different from that of the image sensor and the sound sensor of the
통신부(105)는 무선 네트워크(200)를 통해 데이터를 송수신한다. 통신부(105)는 무선 네트워크(200)의 무선 통신 기술을 적용하기 위한 안테나 및 통신 칩셋( 모듈)을 구비하여 공기 중으로부터 무선 패킷을 인식하거나 공기 중으로 무선 패킷을 송출할 수 있다. The
예를 들어, 통신부(105)는 LoRa 네트워크(통신) 기술을 이용하기 위한 무선 안테나 및 칩셋을 구비하여 LoRa 표준에 따른 각종 무선 패킷을 송수신할 수 있다. 또는, 통신부(105)는 NB-IoT 네트워크(통신) 기술을 이용하기 위한 무선 안테나 및 칩셋을 구비하여 NB-IoT 표준에 따른 각종 무선 패킷을 송수신할 수 있다. For example, the
저장부(107)는 휘발성 메모리, 비휘발성 메모리, 및/또는 착탈 가능한 메모리 카드를 포함하여 각종 데이터와 프로그램을 저장한다. The
예를 들어, 저장부(107)는 비휘발성 메모리에 센서 디바이스(100)를 통괄 제어하기 위한 제어 프로그램, 제2 센서부(103)를 통한 센싱 데이터로부터 특정 이벤트를 인식하기 위한 감지 프로그램, 제1 센서부(101)를 통한 센싱 데이터를 처리하기 위한 처리 프로그램, 저장부(107)에 저장되어 있는 프로그램을 업데이트하기 위한 갱신 프로그램 등을 저장한다. For example, the
제어 프로그램은 센서 디바이스(100)를 전체적으로 제어하며 다른 프로그램의 구동과 종료를 제어할 수 있다. 감지 프로그램은 제2 센서부(103)의 환경 센서의 유형에 따라 지정된 특정 외부 이벤트를 감지할 수 있다. 예를 들어 감지 프로그램은 무단 침입, 환경 오염 이상, 사고 발생, 독성 물질의 배출, 화재 발생 등의 이벤트를 환경 센서의 센싱 값을 이용하여 인식할 수 있도록 구성된다. 감지 프로그램은 일반 프로그래밍 기법으로 구성될 수 있고 설계 예에 따라 딥-러닝 프로그램으로 구성될 수도 있다. The control program controls the
처리 프로그램은 제1 센서부(101)의 센싱 데이터를 처리하여 지정된 결과값을 산출할 수 있도록 구성된다. 예를 들어, 처리 프로그램은 설정된 목적물(사람, 사람의 얼굴, 차량, 차량 번호, 특정 곤충)을 인식하고 목적물의 인식 여부, 인식시 그 수 등에 따라 결과 데이터를 생성하는 딥-러닝 프로그램을 포함할 수 있다. The processing program is configured to process the sensing data of the
딥-러닝 프로그램은 제1 센서부(101)의 영상 데이터 나아가 소리 데이터를 입력으로 받아 다층 구조의 노드(신경망)를 통해 인식 결과를 산출할 수 있다. 본 발명에 따른, 딥-러닝 프로그램은 특정 목적물을 인식할 수 있도록 구성된다. 예를 들어, 딥-러닝 프로그램은 영상 데이터에서(보조적으로 소리 데이터를 더 활용하여) 사람을 인식하거나 특정 곤충, 특정 동물을 인식하거나 차량 등을 인식할 수 있다. The deep-learning program may receive image data and sound data of the
본 발명에 따른, 딥-러닝 프로그램은 특정 목적물의 인식을 위해 최적화될 수 있고 신경망의 계층 구조를 단순화(예를 들어 5층 이하의 중간층 노드를 가지도록 수정 가능함) 시킬 수 있다. According to the present invention, the deep-learning program can be optimized for the recognition of a specific object and can simplify the hierarchical structure of the neural network (for example, can be modified to have a middle layer node of 5 layers or less).
갱신 프로그램은 저장부(107)에 저장되어 있는 하나 이상의 프로그램을 갱신할 수 있도록 한다. 갱신 프로그램은 제어 프로그램에 의해 구동될 수 있고 OTA(Over-The-Air) 기법을 통해 특정 프로그램을 갱신할 수 있다. 예를 들어, 갱신 프로그램은 처리 프로그램의 갱신된 딥-러닝 프로그램을 통신부(105)를 통해 무선 네트워크(200)로부터(예를 들어 클라우드 서버(500)로부터) 수신하고 저장부(107)의 기존 딥-러닝 프로그램을 대체할 수 있다.The update program makes it possible to update one or more programs stored in the
저장부(107)에 저장되는 각각의 프로그램들은 알려진 다양한 프로그래밍 기법을 통해 서로 연동할 수 있도록 구성된다. Each program stored in the
저장부(107)는 착탈 가능한 메모리 카드(예를 들어 SD 카드)를 포함하는 데, 메모리 카드는 제1 센서부(101)의 영상 센서 및/또는 소리 센서를 통해 수신되는 센싱 데이터(영상 데이터 및/또는 소리 데이터), 나아가 결과 데이터,를 저장한다. The
저장된 센싱 데이터는 오프라인을 통해 클라우드 서버(500)에 제공된다. 클라우드 서버(500)는 여러 센서 디바이스(100)로부터 제공된 센싱 데이터들을 학습 데이터로 이용하여 기존 딥-러닝 프로그램을 업데이트하는 데 이용된다. The stored sensing data is provided to the
출력부(109)는 스피커, 부저, 사이렌, LED 등을 구비하여 제어부(113)로부터의 신호를 출력한다. 예를 들어, 출력부(109)는 제어부(113)로부터의 경고 신호를 수신하고 이를 스피커, 부저, 사이렌 등을 통해 소리로 출력하거나 LED 등을 통해 광으로 출력할 수 있다. The
전원 공급부(111)는 전원 소스(예를 들어, 리튬이온 배터리, 건전지, AC 전원 등)를 구비하여 전원 소스로부터 제1 센서부(101), 제2 센서부(103), 저장부(107), 통신부(105), 출력부(109) 및 제어부(113)에서 이용될 하나 이상의 전원을 생성하고 생성된 전원을 제1 센서부(101), 제2 센서부(103), 저장부(107), 통신부(105), 출력부(109) 및 제어부(113)로 공급한다. The
예를 들어, 전원 공급부(111)는 하나 이상의 전압 레귤레이터를 포함하여 각 구성요소가 필요한 지정된 전압 레벨(3.3V, 5V, 12V 등)에 대응하는 전원을 전원 소스로부터 생성하고 생성된 전원을 대응하는 구성요소로 출력할 수 있다. For example,
전원 공급부(111)는 특정 구성요소로의 전원 공급을 제어할 수 있도록 구성된다. 전원 공급부(111)는 전원의 공급/차단을 제어할 수 있는 전원 스위치(릴레이)를 구비하여 특정 구성요소로의 전원 공급을 제어할 수 있다. 예를 들어, 전원 공급부(111)는 제1 센서부(101)(의 영상 센서 및/또는 소리 센서)에 지정된 전압 레벨을 공급 및 차단하기 위한 전원 스위치를 구비하고 제어부(113)에서의 제어 신호에 따라 제1 센서부(101)(의 영상 센서 및/또는 소리 센서)로 지정된 전압 레벨의 전원을 공급하거나 차단할 수 있다. The
제1 센서부(101)가 영상 센서 및 소리 센서를 모두 포함하는 경우에, 전원 공급부(111)는 영상 센서와 소리 센서를 개별적으로 전원 제어하기 위한 전원 스위치를 각각 포함하여 제어부(113)로부터의 제어 신호에 따라 각 센서로의 전원 공급을 제어할 수 있다. When the
제어부(113)는 프로그램의 명령어를 실행할 수 있는 실행 유닛(Execution Unit)을 하나 이상 포함하여 저장부(107)에 저장되어 있는 하나 이상의 프로그램을 이용하여 센서 디바이스(100)를 제어한다. 제어부(113)는 프로세서, 마이컴, CPU, MPU, 중앙처리장치 등으로 지칭되거나 이를 포함할 수 있다. The
예를 들어, 제어부(113)는 저장부(107)의 하나 이상의 프로그램을 수행하여 제1 센서부(101)로부터의 센싱 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 통신부(105)를 통해 클라우드 서버(500)로 송출한다. For example, the
제어부(113)는 제어 프로그램을 로딩하여 다른 프로그램들을 구동하거나 제어할 수 있고 처리 프로그램(딥-러닝 프로그램), 감지 프로그램, 갱신 프로그램 등을 통해 외부 환경을 모니터링하고 외부 환경의 모니터링에 이용되는 프로그램을 갱신할 수 있다. The
또한, 제어부(113)는 제어 프로그램을 통해 전원 공급부(111)를 제어한다. 예를 들어, 제어 프로그램은 제1 센서부(101)(의 영상 센서)로의 지정 전압 레벨의 전원을 공급하거나 차단할 수 있는 전원 스위치를 제어하기 위한 제어 신호를 출력하고 그에 따라 제1 센서부(101)(의 영상 센서)를 구동하고 센싱 데이터(영상 데이터)를 수신할 수 있다. In addition, the
제어부(113)에서 이루어지는 예시적인 제어 흐름은 도 3에서 좀 더 상세히 살펴보도록 한다. An exemplary control flow made by the
도 3은 본 발명에 따른 센서 디바이스(100)를 활용하여 외부 환경을 모니터링하고 그에 따라 프로그램을 갱신할 수 있는 예시적인 제어 흐름을 도시한 도면이다.3 is a diagram illustrating an exemplary control flow that may utilize a
본 발명에 따른, 환경 모니터링 시스템은 다양한 응용예에 활용될 수 있다. 예를 들어, 환경 모니터링 시스템은 외부 침입 감지(1인 가구나 화장실 등), 실내 환경(예를 들어 교실) 모니터링, 출입 모니터링(내방객 수 등), 교통 환경 분석, 주차장 모니터링, 사고 모니터링, 소음이나 공기질 모니터링, 화재 감지, 위험 감지 등을 수행할 수 있는 시스템이다. According to the present invention, the environmental monitoring system can be utilized for various applications. For example, environmental monitoring systems may include external intrusion detection (such as single households or toilets), indoor environment (eg classroom) monitoring, access monitoring (such as number of visitors), traffic environment analysis, parking lot monitoring, accident monitoring, noise or air quality. It is a system that can perform monitoring, fire detection and danger detection.
환경 모니터링 시스템의 센서 디바이스(100)는 적어도 제1 센서부(101)를 구비하여 영상 및/또는 소리 데이터를 이용하여 특정 목적물을 인식하고 대응하는 액션이나 처리를 수행할 수 있도록 구성된다. The
환경 모니터링 시스템의 센서 디바이스(100)는 응용 예에 따라 특정 환경 센서를 구비하여 응용 예에 특화된 이벤트 등을 인식할 수 있도록 구성된다. 또한, 센서 디바이스(100)는 응용 예에 특화된 프로그램을 구비하고 바람직하게는 응용 예에서 목적물(사람, 동물, 곤충 등) 인식에 이용되고 최적화된 딥-러닝 프로그램을 구비한다. The
여기서, 도 3의 제어 흐름의 특정 과정은 응용 예 등에 따라 생략될 수 있다. 예를 들어 단계 S10이나 S20 등은 응용 예에 따라 생략될 수 있다. Here, the specific process of the control flow of FIG. 3 may be omitted according to an application example. For example, step S10 or S20 may be omitted depending on the application.
도 3을 통해 그 제어 흐름을 살펴보면, 센서 디바이스(100)(제어부(113))는 감지 프로그램 등을 통해 외부 이벤트를 인식(S10)한다. Referring to the control flow through FIG. 3, the sensor device 100 (control unit 113) recognizes an external event through a sensing program (S10).
예를 들어 감지 프로그램을 수행하는 센서 디바이스(100)(제어부(113))는 제2 센서부(103)로부터 센싱 데이터를 수신하고 수신된 센싱 데이터의 값에 따라 지정된 외부 이벤트의 발생을 인식할 수 있다. 센서 디바이스(100)(제어부(113))는 제2 센서부(103)으로부터 수신된 환경 데이터와 임계치와의 비교로 특정 이벤트(외부 침입, 부재중, 공기 오염, 화재 발생, 위험 감지 등)를 인식할 수 있다.For example, the sensor device 100 (control unit 113) that performs a sensing program may receive sensing data from the
또는, 감지 프로그램이나 딥-러닝 프로그램을 수행하는 센서 디바이스(100)(제어부(113))는 제1 센서부(101)의 소리 센서로부터 소리 데이터를 수신하고 지정된 외부 이벤트의 발생을 인식할 수 있다. 센서 디바이스(100)(제어부(113))는 소리 데이터를 주파수 변환 등을 통해 특징(feature) 데이터로 변환하고 변환된 특징 데이터와 기존 이벤트에 대응하는 특징 데이터를 비교하여 외부 이벤트의 발생 여부를 결정할 수 있다. 예를 들어 센서 디바이스(100)(제어부(113))는 비명이나 고음 등의 이벤트 발생을 인식할 수 있다. Alternatively, the sensor device 100 (control unit 113) that executes the sensing program or the deep learning program may receive sound data from the sound sensor of the
센서 디바이스(100)(제어부(113))가 외부 이벤트의 인식을 위해 소리 센서만을 활용하는 경우에, 제2 센서부(103)는 센서 디바이스(100)에서 생략될 수 있다. 또한, S10의 과정과 후속 S20의 과정은 설경 변형에 따라 생략될 수도 있다. When the sensor device 100 (control unit 113) utilizes only a sound sensor for recognition of an external event, the
센서 디바이스(100)(제어부(113))가 외부 이벤트를 인식하지 못한 경우, S20 이후의 과정이 수행되기 전에 S10 과정은 반복적으로 수행되어 센서 디바이스(100)(제어부(113))가 외부 이벤트의 인식을 지속적으로 시도할 수 있다.If the sensor device 100 (control unit 113) does not recognize the external event, the process S10 is repeatedly performed before the process after S20 is performed so that the sensor device 100 (control unit 113) of the external event Recognition can be continually attempted.
센서 디바이스(100)(제어부(113))는 제어 프로그램을 통해 외부 이벤트의 인식에 따라 제1 센서부(101)를 구동(S20)한다. 예를 들어, 제1 센서부(101)(의 영상 센서)에 전원을 차단하고 있는 센서 디바이스(100)(제어부(113))는 제1 센서부(101)(의 영상 센서)에 전원을 공급하기 위한 제어 신호를 생성하고 생성된 제어 신호를 전원 공급부(111)로 출력한다. The sensor device 100 (control unit 113) drives the
전원 공급을 위한 제어 신호의 수신에 따라, 전원 공급부(111)는 제1 센서부(101)(의 영상 센서)에 연결되어 전원을 공급하거나 차단하도록 구성된 전원 스위치에 수신된 제어 신호에 대응하는 신호를 인가하여 지정된 전압 레벨에 대응하는 전원을 제1 센서부(101)(의 영상 센서)로 공급한다.According to the reception of a control signal for power supply, the
전원이 공급됨에 따라, 제1 센서부(101)(의 영상 센서)는 구동 시작하고 영상 센서로부터의 영상 데이터 및/또는 소리 센서로부터의 소리 데이터를 포함하는 센싱 데이터를 제어부(113)로 출력한다. As the power is supplied, the first sensor unit 101 (the image sensor) starts to drive and outputs sensing data including the image data from the image sensor and / or sound data from the sound sensor to the
센서 디바이스(100)(제어부(113))는 수신된 센싱 데이터를 이용하여 지정된 목적물을 인식하는 한편, 영상 데이터 및/또는 소리 데이터를 포함하는 센싱 데이터를 저장 시각(시작 시각 및 종료 시각)에 맵핑시켜 저장부(107)의 착탈 가능한 메모리 카드에 제어 프로그램 등을 통해 저장(S30)한다. 바람직하게는 센서 디바이스(100)(제어부(113))는 외부 이벤트를 인식하는 경우에 해당 영상 데이터 및 소리 데이터를 메모리 카드에 저장할 수 있다. The sensor device 100 (control unit 113) recognizes a designated object by using the received sensing data, and maps sensing data including image data and / or sound data to storage time (start time and end time). In operation S30, the memory card is stored in a removable memory card of the
센서 디바이스(100)(제어부(113))는 제어 프로그램 등에 의해 구동되는 딥-러닝 프로그램을 통해 특정 외부 이벤트에 맵핑되어 있는 특정 목적물을 센싱 데이터(영상 데이터, 나아가 소리 데이터)에서 인식하고 목적물의 인식에 따른 결과 데이터를 생성하고 생성된 결과 데이터를 무선 네트워크(200)를 통해 클라우드 서버(500)로 전송(S40)한다. The sensor device 100 (control unit 113) recognizes a specific object mapped to a specific external event in sensing data (image data, and also sound data) through a deep learning program driven by a control program or the like and recognizes the object. The result data is generated and the generated result data is transmitted to the
구체적으로, 센서 디바이스(100)(제어부(113))는 특정 외부 이벤트의 발생에 따라 인식될 목적물을 맵핑하도록 구성된다. 예를 들어 침입 이벤트, 공기 오염 이벤트, 화재 발생, 위험 발생 등의 경우에 사람이나 사람 얼굴을 목적물(타겟)로 하여 해당 목적물을 인식하거나 차량 사고가 발생한 경우에 차량 및/또는 사람을 인식하거나 환경 보호나 관리 등을 위한 경우 특정 곤충을 인식하도록 딥-러닝 프로그램이 구성된다. 이와 같이 구비된 환경 센서와 발생 이벤트에 따라 특정 목적물이 맵핑되어 딥-러닝 프로그램이 해당 목적물을 인식하도록 구성된다. Specifically, the sensor device 100 (control unit 113) is configured to map an object to be recognized according to the occurrence of a specific external event. For example, in case of an intrusion event, air pollution event, fire occurrence, danger occurrence, etc., a person (human face) is recognized as a target (target) or a vehicle and / or a person or environment in the event of a vehicle accident. Deep-learning programs are organized to recognize specific insects, for example for protection or care. The specific object is mapped according to the environmental sensor and the event generated as described above, and the deep-learning program is configured to recognize the object.
센서 디바이스(100)(제어부(113))는 딥-러닝 프로그램의 구동을 통해 영상 센서로부터의 영상 데이터(나아가 소리 데이터)를 입력으로 하여 지정된 목적물을 인식하고 지정된 목적물의 인식에 따른(기초한) 결과 데이터를 생성한다. The sensor device 100 (control unit 113) recognizes the designated object by inputting the image data (the sound data) from the image sensor through the driving of the deep-learning program, and results based on the recognition of the designated object (based on). Generate data.
예를 들어, 센서 디바이스(100)(제어부(113))는 딥-러닝 프로그램과 제어 프로그램을 통해 목적물의 인식 여부, 인식된 목적물의 수 등과 인식 시각과 나아 인식된 외부 이벤트 데이터를 포함하는 결과 데이터를 생성하고 이를 통신부(105)를 통해 클라우드 서버(500)로 송출한다. For example, the sensor device 100 (control unit 113) may be a result data including whether the object is recognized, the number of objects recognized and the recognition time and the external event data further recognized through the deep-learning program and the control program It generates and sends it to the
클라우드 서버(500)는 수신된 결과 데이터에 따라 외부 서버(600)와 연동하여 대응하는 처리나 액션을 수행할 수 있다. 예를 들어, 클라우드 서버(600)는 특정 외부 이벤트가 발생하고 나아가 해당 이벤트에서 사람 등이 인식되는 경우, 소방청, 경찰청 등의 외부 서버(600)로 사고 발생, 화재 발생, 환경 오염 발생, 비상 상황 등의 이벤트 데이터와 함께 사람 등의 존재 여부와 사람의 수 등을 나타내는 데이터를 전송하여 필요한 대응 액션을 수행하도록 요청할 수 있다. The
또한, 센서 디바이스(100)(제어부(113))는 결과 데이터를 메모리 카드에 저장중에 있는 센싱 데이터(영상 데이터 및/또는 소리 데이터)에 맵핑시켜 메모리 카드에 저장한다. In addition, the sensor device 100 (control unit 113) maps the result data to sensing data (image data and / or sound data) stored in the memory card and stores the result data in the memory card.
한편, 클라우드 서버(500)는 추가적인 학습 데이터를 이용하여 딥-러닝 프로그램을 갱신(S50)한다.Meanwhile, the
본 발명에 따른 환경 모니터링 시스템의 관리자 등은 동일 환경을 모니터링하는 여러 센서 디바이스(100)의 메모리 카드를 센서 디바이스(100)로부터 분리하고 메모리 카드의 센싱 데이터(와 대응 결과 데이터)를 딥-러닝 프로그램을 갱신할 때 이용되는 학습 데이터로 클라우드 서버(500)에 제공할 수 있다. The administrator of the environmental monitoring system according to the present invention separates the memory cards of the
클라우드 서버(500)는 딥-러닝 프로그램의 갱신에 이용될 수 있는 여러 센서 디바이스(100)로부터의 센싱 데이터(와 대응 결과 데이터)를 학습 데이터로 이용하여 기존 딥-러닝 프로그램을 갱신한다. The
이후, 클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 무선 네트워크(200)(예를 들어, LoRa 네트워크나 NB-IoT 네트워크)를 통해 OTA 표준에 따라 여러 센서 디바이스(100)로 배포(S60)한다. Thereafter, the
무선 네트워크(200)의 속도와 각 센서 디바이스(100)의 무선 네트워크(200)로의 접속 기회의 제한 사항을 고려하여, 클라우드 서버(500)는 갱신된 딥-러닝 프로그램을 여러 부분(패치 파일들)으로 분리하고 분리된 부분들을 센서 디바이스(100)에서 다른 시각에 수신될 수 있도록 한다.In view of the speed of the
예를 들어, 클라우드 서버(500)는 여러 부분을 단일 센서 디바이스(100)로 다른 시각에 순차적으로 무선 네트워크(200)를 통해 전송할 수 있다. 단일 센서 디바이스(100)(의 제어부(113))는 갱신 프로그램을 통해 다른 시각에 수신된 부분들을 조합하여 갱신된 딥-러닝 프로그램을 구성할 수 있다. For example, the
또는, 클라우드 서버(500)는 무선 네트워크(200)의 그룹(하나의 무선 AP(300)에 연결되어 있는 센서 디바이스(100)들의 그룹)의 센서 디바이스(100)들 각각으로 서로 다른 부분들을 무선 네트워크(200)의 무선 AP(300)를 통해 전송한다. Alternatively, the
무선 네트워크(200)의 그룹 내의 각각의 센서 디바이스(100)들은 가지고 부분들을 무선 네트워크(200) 그룹 내의 다른 센서 디바이스(100)로 서로 송수신하고 센서 디바이스(100)들(의 제어부(113)) 각각은 갱신 프로그램을 통해 부분들을 조합하여 갱신된 딥-러닝 프로그램을 구성 할 수 있다. Each
이후, 센서 디바이스(100)(의 제어부(113))는 갱신 프로그램을 통해 저장부(107)의 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체(S70)하고 갱신된 딥-러닝 프로그램을 이용하여 외부 이벤트를 다시 모니터링하고 그에 따라 영상 데이터나 소리 데이터로부터 결과 데이터를 생성하여 클라우드 서버(500)로 전송(S10 내지 S40 참조)한다. Subsequently, the
센서 디바이스(100)(의 제어부(113))는 다양한 방식으로 기존 딥-러닝 프로그램을 신규로 갱신된 딥-러닝 프로그램으로 대체할 수 있다. 한 예로, 센서 디바이스(100)(의 제어부(113))는 대체전 기존 딥-러닝 프로그램의 비휘발성 메모리 영역을 프리(free) 메모리 영역으로 할당하고 신규 갱신된 딥-러닝 프로그램의 비휘발성 메모리 영역의 시작 주소와 그 사이즈를 제어 프로그램에 설정하여 이후 갱신된 딥-러닝 프로그램이 수행될 수 있도록 한다. The
이와 같이, 센서 디바이스(100)(의 제어부(113))는 클라우드 서버(500)나 무선 AP(300)와의 약속된 포맷에 따라 서로 다른 시각에 무선 네트워크(200)를 통해 수신된 부분들(패치파일들)을 하나의 딥-러닝 프로그램을 완성하고 완성된 후에 기존 딥-러닝 프로그램을 대체할 수 있도록 구성된다. 딥-러닝 프로그램의 대체는 딥-러닝 프로그램이 실행 중인 상태에서 이루어지거나 딥-러닝 프로그램이 구동 종료 상태에서 이루어질 수 있도 있다. As such, the
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다. The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.
100 : 센서 디바이스
101 : 제1 센서부
103 : 제2 센서부
105 : 통신부
107 : 저장부
109 : 출력부
111 : 전원 공급부
113 : 제어부
200 : 무선 네트워크
300 : 무선 AP
400 : 광대역 네트워크
500 : 클라우드 서버
600 : 외부 서버100: sensor device
101: first sensor unit
103: second sensor unit
105: communication unit
107: storage unit
109: output unit
111: power supply
113: control unit
200: wireless network
300: wireless AP
400: broadband network
500: cloud server
600: external server
Claims (10)
카메라 센서를 포함하는 제1 센서부;
센서 디바이스 외부의 환경을 센싱하는 환경 센서를 하나 이상 포함하는 제2 센서부;
IoT 네트워크를 통해 데이터를 송수신하는 통신부;
상기 제2 센서부로부터 지정된 이벤트를 인식하기 위한 감지 프로그램, 상기 제1 센서부로부터의 영상 데이터를 처리하여 목적물을 인식하고 목적물의 인식에 기초하여 결과 데이터를 생성하는 딥-러닝 프로그램, 상기 딥-러닝 프로그램을 갱신하는 갱신 프로그램 및 상기 감지 프로그램, 상기 딥-러닝 프로그램 및 상기 갱신 프로그램의 구동과 종료를 적어도 제어하는 제어 프로그램을 저장하는 저장부;
상기 딥-러닝 프로그램을 통해 상기 제1 센서부로부터의 영상 데이터를 처리하여 결과 데이터를 생성하고 생성된 결과 데이터를 상기 통신부를 통해 클라우드 서버로 송출하는 제어부; 및
리튬이온 배터리 또는 건전지를 구비하여 상기 제1 센서부, 상기 제2 센서부, 상기 통신부, 상기 저장부 및 상기 제어부에 지정된 전압 레벨에 대응하는 전원을 공급하고 상기 제1 센서부로 전원 공급 또는 전원 차단을 제어할 수 있는 전원 스위치를 구비한 전원 공급부;를 포함하며,
상기 제어부는, 감지 프로그램을 통해 제2 센서부로부터 센싱 데이터를 수신하고 수신된 센싱 데이터와 임계 데이터와의 비교로 외부 이벤트를 인식하고, 제어 프로그램을 통해 상기 외부 이벤트의 인식에 따라 상기 제1 센서부로 전원 공급을 위한 제어 신호를 생성 및 상기 전원 공급부로 출력하여 상기 제1 센서부의 구동을 제어하고, 상기 딥-러닝 프로그램을 통해 제1 센서부로부터의 영상 데이터로부터 외부 이벤트에 맵핑된 목적물을 인식하고 목적물 인식에 기초한 결과 데이터를 생성하며 영상 데이터에 결과 데이터를 맵핑하여 저장부에 저장하고 생성된 결과 데이터를 통신부를 통해 클라우드 서버로 전송하며,
상기 저장부에 저장되는 영상 데이터 및 맵핑된 결과 데이터는 클라우드 서버에서의 상기 딥-러닝 프로그램의 갱신을 위한 학습 데이터로 이용되는,
센서 디바이스. A sensor device connected to a wireless IoT network to monitor the external environment,
A first sensor unit including a camera sensor;
A second sensor unit including one or more environmental sensors for sensing an environment external to the sensor device;
Communication unit for transmitting and receiving data through the IoT network;
A sensing program for recognizing an event designated by the second sensor unit, a deep-learning program for processing image data from the first sensor unit to recognize an object, and generating result data based on recognition of the object, the deep- A storage unit for storing an update program for updating a running program and a control program for controlling at least a driving and an end of the detection program, the deep-learning program, and the update program;
A controller configured to process image data from the first sensor unit through the deep-learning program to generate result data and to transmit the generated result data to a cloud server through the communication unit; And
A lithium ion battery or a battery is provided to supply power corresponding to a voltage level specified in the first sensor unit, the second sensor unit, the communication unit, the storage unit, and the control unit, and supply or cut power to the first sensor unit. It includes; a power supply having a power switch to control the;
The control unit receives sensing data from the second sensor unit through a sensing program, recognizes an external event by comparing the received sensing data with threshold data, and controls the first sensor according to the recognition of the external event through a control program. A control signal for supplying power to the unit is generated and output to the power supply unit to control driving of the first sensor unit, and recognize an object mapped to an external event from image data from the first sensor unit through the deep-learning program. Generates result data based on object recognition, maps the result data to image data, stores it in the storage unit, and transmits the generated result data to the cloud server through the communication unit,
The image data and the mapped result data stored in the storage unit are used as learning data for updating the deep-learning program in the cloud server.
Sensor device.
상기 IoT 네트워크는 LoRa 네트워크이거나 NB-IoT 네트워크이고,
상기 목적물은 사람, 사람얼굴, 차량, 차량번호 또는 지정된 곤충인,
센서 디바이스.The method of claim 1,
The IoT network is a LoRa network or an NB-IoT network,
The object is a person, a face, a vehicle, a vehicle number or a designated insect,
Sensor device.
상기 갱신 프로그램을 수행하는 제어부는 동일 환경을 모니터링하는 복수의 센서 디바이스에 의해 수집되고 저장된 영상 데이터 및 대응 결과 데이터를 이용한 클라우드 서버에 의한 추가 학습으로 갱신된 딥-러닝 프로그램의 부분들을 상기 클라우드 서버와 다른 센서 디바이스들로부터 LoRa 네트워크 또는 NB-IoT 네트워크를 통해 서로 다른 시각에 수신하고 상기 부분들을 조합하여 상기 저장부의 딥-러닝 프로그램을 대체하며,
제어부는 갱신전 딥-러닝 프로그램의 메모리 영역을 프리 메모리 영역으로 할당하고 갱신되는 딥-러닝 프로그램의 저장 메모리 영역의 주소와 사이즈를 제어 프로그램에 설정하고 이후 설정된 메모리 영역의 갱신된 딥-러닝 프로그램을 수행하여 결과 데이터를 생성하는,
센서 디바이스.The method of claim 2,
The control unit for executing the update program may be configured to store portions of the deep-learning program updated by additional learning by a cloud server using image data and corresponding result data collected and stored by a plurality of sensor devices monitoring the same environment. Receive at different times from different sensor devices via a LoRa network or an NB-IoT network and combine the parts to replace the deep-learning program of the storage,
The controller allocates the memory area of the deep-learning program before updating to the free memory area, sets the address and the size of the storage memory area of the deep-learning program to be updated in the control program, and then updates the updated deep-learning program of the set memory area. To generate the resulting data,
Sensor device.
상기 저장부는 착탈 가능한 메모리 카드를 포함하고,
상기 제어부는 영상 데이터 및 맵핑된 결과 데이터를 상기 메모리 카드에 저장하는,
센서 디바이스.The method of claim 1,
The storage unit includes a removable memory card,
The controller stores the image data and the mapped result data in the memory card.
Sensor device.
IoT 네트워크를 통해 무선으로 상기 제1 센서 디바이스 및 상기 제2 센서 디바이스로부터 결과 데이터를 수신하고 각각의 센서 디바이스에 대한 대응 처리를 수행하는 클라우드 서버;를 더 포함하는,
환경 모니터링 시스템.The method of claim 8,
And a cloud server that receives result data from the first sensor device and the second sensor device wirelessly via an IoT network and performs corresponding processing on each sensor device.
Environmental monitoring system.
상기 클라우드 서버는 제1 센서 디바이스 및 제2 센서 디바이스에서 수집된 오프라인 영상 데이터 및 결과 데이터를 추가 학습 데이터로 이용하여 상기 제1 센서 디바이스 및 상기 제2 센서 디바이스에서 수행되는 딥-러닝 프로그램을 갱신하고 갱신된 딥-러닝 프로그램의 부분 파일들 각각을 상기 제1 센서 디바이스 및 상기 제2 센서 디바이스로 전송하고,
상기 제1 센서 디바이스는 상기 클라우드 서버로부터 수신된 부분 파일과 상기 IoT 네트워크를 통해 상기 제2 센서 디바이스에서 수신된 부분 파일을 이용하여 상기 갱신된 딥-러닝 프로그램을 구성하고 저장부에 저장되어 있는 기존 딥-러닝 프로그램을 갱신된 딥-러닝 프로그램으로 대체하는,
환경 모니터링 시스템.The method of claim 9,
The cloud server uses the offline image data and the result data collected by the first sensor device and the second sensor device as additional learning data to update the deep-learning program performed by the first sensor device and the second sensor device. Transmit each of the partial files of the updated deep-learning program to the first sensor device and the second sensor device,
The first sensor device configures the updated deep-learning program using the partial file received from the cloud server and the partial file received from the second sensor device through the IoT network and is stored in a storage unit. To replace a deep learning program with an updated deep learning program,
Environmental monitoring system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170140896A KR102029751B1 (en) | 2017-10-27 | 2017-10-27 | Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170140896A KR102029751B1 (en) | 2017-10-27 | 2017-10-27 | Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190047246A KR20190047246A (en) | 2019-05-08 |
KR102029751B1 true KR102029751B1 (en) | 2019-10-08 |
Family
ID=66580087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170140896A KR102029751B1 (en) | 2017-10-27 | 2017-10-27 | Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102029751B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220022942A (en) | 2020-08-19 | 2022-03-02 | 인포뱅크 주식회사 | Apparatus and method for handling dangerous situations outside of autonomous vehicles |
KR20220086403A (en) | 2020-12-16 | 2022-06-23 | 주식회사 콕스랩 | Method, system and non-transitory computer-readable recording medium for estimating information on objects based on image in lpwan environment |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190075017A (en) * | 2019-06-10 | 2019-06-28 | 엘지전자 주식회사 | vehicle device equipped with artificial intelligence, methods for collecting learning data and system for improving the performance of artificial intelligence |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101405398B1 (en) * | 2012-11-29 | 2014-06-11 | 이종선 | A pro-pedestrian safty informing apparatus and method using the same |
KR101739976B1 (en) * | 2015-07-02 | 2017-05-26 | 주식회사 스마트올웨이즈온 | Method and apparatus for controlling subordinate electronic device or allowing the subordinate electronic device to be controlled by learning infrared-ray signal |
KR20170095082A (en) * | 2016-02-12 | 2017-08-22 | 한국기술교육대학교 산학협력단 | Practicing device and method for training internet of things |
-
2017
- 2017-10-27 KR KR1020170140896A patent/KR102029751B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220022942A (en) | 2020-08-19 | 2022-03-02 | 인포뱅크 주식회사 | Apparatus and method for handling dangerous situations outside of autonomous vehicles |
KR20220086403A (en) | 2020-12-16 | 2022-06-23 | 주식회사 콕스랩 | Method, system and non-transitory computer-readable recording medium for estimating information on objects based on image in lpwan environment |
Also Published As
Publication number | Publication date |
---|---|
KR20190047246A (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102029751B1 (en) | Sensor device able to monitor external environment based on sound or image and environment monitoring system comprsing the sensor device | |
CN106164991B (en) | Correlation of sensory input to identify unauthorized persons | |
JP7142698B2 (en) | Integrated device based on the Internet of Things (IoT) for monitoring and controlling events in the environment | |
KR102390405B1 (en) | Doorbell | |
US8365871B2 (en) | Electronic device and method for monitoring an elevator | |
US20130325407A1 (en) | Apparatus and method for sharing sensing information of portable device | |
US20130215903A1 (en) | Dual communication-interface facility monitoring and management system and method | |
KR102472369B1 (en) | Object tracking system based on sound source asking for emegency help and tracking method using the same | |
Gia et al. | Exploiting LoRa, edge, and fog computing for traffic monitoring in smart cities | |
CN207895630U (en) | Monitoring system with environment sensing and emergency evacuation command function | |
KR102251777B1 (en) | Intelligent image surveillance apparatus supporting proxy function and driving method thereof | |
KR102007221B1 (en) | Security System With IP Camera And Network Video Recorder | |
KR20170101518A (en) | Method for cooperating with smart devices and cloud server therof | |
KR101772391B1 (en) | Exetended Monitoring Device Using Voice Recognition Module Installed in Multi Spot | |
US20160240057A1 (en) | System and method for providing alerts regarding occupancy conditions | |
KR102415461B1 (en) | Ai camera and monitering system able to detect situation and give an alarm | |
KR20200010642A (en) | Location tracking method and location tracking system | |
CN112315098B (en) | Intelligent helmet and system | |
KR20230079913A (en) | smart pole capable of performing safety accident prevention warning function through artificial intelligence-based image analysis | |
KR101993307B1 (en) | Method for proceeding dangerous situation using neighbors | |
KR101384730B1 (en) | Monitoring system of backwoods using tethering function | |
KR20200063294A (en) | Object Tracking System and method automatically gathering in vehicle black box image | |
US11763656B1 (en) | Dynamic collection and reporting of customer premises context information in response to predicted emergency event | |
KR20150030836A (en) | Monitoring apparatus for transmission line and system using the same | |
CN112435423B (en) | Monitoring method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |