KR102559307B1 - Method, device and system for processing and utilizing images and video data generated at disaster sites - Google Patents

Method, device and system for processing and utilizing images and video data generated at disaster sites Download PDF

Info

Publication number
KR102559307B1
KR102559307B1 KR1020230053408A KR20230053408A KR102559307B1 KR 102559307 B1 KR102559307 B1 KR 102559307B1 KR 1020230053408 A KR1020230053408 A KR 1020230053408A KR 20230053408 A KR20230053408 A KR 20230053408A KR 102559307 B1 KR102559307 B1 KR 102559307B1
Authority
KR
South Korea
Prior art keywords
disaster
sensor
server
data
field data
Prior art date
Application number
KR1020230053408A
Other languages
Korean (ko)
Inventor
곽제곤
Original Assignee
제온시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제온시스 주식회사 filed Critical 제온시스 주식회사
Priority to KR1020230053408A priority Critical patent/KR102559307B1/en
Application granted granted Critical
Publication of KR102559307B1 publication Critical patent/KR102559307B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Emergency Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Alarm Systems (AREA)

Abstract

일실시예에 따른 센서는 센서의 감지 및 센서 값에 의해 재난이 감지되었다고 판단하면, 서버로 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 전송하고, 서버는 센서로부터 현장 데이터를 수신하면, 지역에 설치된 카메라를 통해 이미지 데이터를 획득하고, 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하고, 판단 결과, 재난이 발생하였다고 확인되면, 지역에 매칭된 안전 관리자의 단말로 지역의 출동을 요청하는 메시지를 전송하고, 재난이 발생하지 않았다고 확인되면, 센서의 오류 가능성을 고려하여 지역 관리자의 단말로 센서를 확인하라는 메시지를 전송한다.According to an embodiment, the sensor transmits field data including detection data and location data to the server when it is determined that a disaster has been detected by detection and sensor values of the sensor, and when the server receives the field data from the sensor, image data is obtained through a camera installed in the region, and the acquired image data is analyzed to determine whether a disaster has occurred. Considering this, a message to check the sensor is transmitted to the terminal of the regional manager.

Description

재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법, 장치 및 시스템 { METHOD, DEVICE AND SYSTEM FOR PROCESSING AND UTILIZING IMAGES AND VIDEO DATA GENERATED AT DISASTER SITES }Methods, devices and systems for processing and utilizing images and video data generated at disaster sites { METHOD, DEVICE AND SYSTEM FOR PROCESSING AND UTILIZING IMAGES AND VIDEO DATA GENERATED AT DISASTER SITES }

아래 실시예들은 재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법에 관한 것이다. The following embodiments relate to methods of processing and utilizing images and video data generated at a disaster site.

재난 데이터를 관리 및 활용하고 재난 사고를 예측하는 것은 재난으로 인한 인명과 재산 피해를 최소화할 수 있고, 효율적인 대처 계획을 수립할 수 있도록 과거 데이터와 현장 데이터를 결합하여 사고에 관한 확대 가능성 과 지원 규모를 데이터로 제공하고, 예산을 효율적으로 사용할 수 있도록 투입 예산을 데이터로 제공하여, 사회적 안전을 보장과 선제적 대처로 재정의 건전성을 재고 할 수 있기 때문에 중요하다. Managing and utilizing disaster data and predicting disaster accidents are important because they can minimize human and property damage due to disasters, combine past data and on-site data to establish efficient response plans, provide data on the possibility of expansion and scale of support for accidents, and provide input budget data so that budgets can be used efficiently, ensuring social safety and ensuring financial soundness through preemptive measures.

또한, 재난 사고를 예측하는 것은, 재난 발생 후 대처하는 것보다 훨씬 중요한데 이는 재난 사고 예측은 미리 대비할 수 있도록 하여, 인명과 재산의 피해를 최소화하고, 대처 시간을 단축시킬 수 있으며, 더 나아가 사고의 발생을 차단할 수 있다.In addition, predicting a disaster accident is much more important than responding after a disaster occurs, which enables preparation in advance, minimizing damage to life and property, shortening response time, and further preventing the occurrence of accidents.

최근 기후 변화와 관련하여 자연재해의 발생 가능성이 높아지면서, 이를 미리 예측하여 대처할 수 있도록 하는 것은 더욱 중요해지고 있다. Recently, as the possibility of occurrence of natural disasters increases in relation to climate change, it is becoming more important to predict and cope with them in advance.

또한 각종 범죄, 교통사고, 산업사고 등과 같은 상황에도 이미지 및 영상 데이터 생성 및 활용을 적용하여 범죄, 산업 재해, 교통사고를 감소시킬 수 있을 것으로 예상되어 사고(범죄)를 예측하는 기술은 매우 중요한 이슈로 부상하고 있으며, 더욱 발전될 것으로 예상된다.In addition, it is expected that crime, industrial accidents, and traffic accidents can be reduced by applying image and video data generation and utilization to situations such as various crimes, traffic accidents, and industrial accidents, and the technology to predict accidents (crime) is emerging as a very important issue and is expected to be further developed.

한국등록특허 제 10-2284747호 (2021.08.03. 공고)Korean Patent Registration No. 10-2284747 (2021.08.03. Notice) 한국등록특허 제 10-2490062호 (2023.01.18. 공고)Korean Patent Registration No. 10-2490062 (2023.01.18. Notice) 한국등록특허 제 10-2485227호 (2023.01.06. 공고)Korean Patent Registration No. 10-2485227 (2023.01.06. Notice) 한국등록특허 제 10-1732819호 (2017.05.08. 공고)Korean Patent Registration No. 10-1732819 (Announced on May 8, 2017)

실시예들은 재난 현장에서 생성한 이미지 및 영상 데이터를 처리 및 활용하여 사고를 예측하고자 한다.Embodiments attempt to predict an accident by processing and utilizing images and video data generated at a disaster site.

실시예들은 재난이 발생할 경우, 현장 데이터 및 이미지 데이터를 통해 인적 피해가 있는지 여부, 재난의 규모 및 확산도를 예측하여 어떠한 안전 관리자를 어느 정도의 규모로 지원할 것인지 선정하여 안전 관리자에게 출동을 요청하고자 한다.In the case of a disaster, in the case of a disaster, human damage is predicted through field data and image data, and the scale and spread of the disaster are predicted to select which safety manager to support and to what extent to request the safety manager to mobilize.

실시예들은 인공신경망을 통해 재난이 발생하기 전후 패턴을 파악하고, 해당 패턴과 현장 데이터 및 이미지 데이터를 비교하여 재난 발생을 예측하고자 한다.Embodiments attempt to predict the occurrence of disasters by identifying patterns before and after disasters occur through artificial neural networks and comparing corresponding patterns with field data and image data.

재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법은 센서가 센서의 감지 및 센서 값에 의해 재난이 감지되었다고 판단하면, 서버로 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 전송하는 단계; 상기 서버가 상기 센서로부터 현장 데이터를 수신하면, 상기 지역에 설치된 카메라를 통해 이미지 데이터를 획득하는 단계; 상기 서버가 상기 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하는 단계; 재난이 발생하였다고 확인되면, 상기 서버가 상기 지역에 매칭된 안전 관리자의 단말로 상기 지역의 출동을 요청하는 메시지를 전송하는 단계; 및 재난이 발생하지 않았다고 확인되면, 상기 서버가 상기 센서의 오류 가능성을 고려하여 지역 관리자의 단말로 상기 센서를 확인하라는 메시지를 전송하는 단계를 포함한다.A method of processing and utilizing images and video data generated at a disaster site, when a sensor determines that a disaster has been detected by the sensor's detection and sensor values, transmitting field data including detection data and location data to a server; acquiring image data through a camera installed in the region when the server receives field data from the sensor; determining, by the server, whether a disaster has occurred by analyzing the obtained image data; If it is confirmed that a disaster has occurred, the server transmitting a message requesting dispatch to the region to a terminal of a safety manager matched to the region; and if it is determined that no disaster has occurred, the server transmitting a message requesting confirmation of the sensor to a terminal of a regional manager in consideration of a possibility of error of the sensor.

재난이 발생하였다고 확인되면, 상기 서버가 상기 지역에 매칭된 안전 관리자의 단말로 상기 지역의 출동을 요청하는 메시지를 전송하는 단계는, 상기 서버가 상기 현장 데이터를 통해 재난의 종류를 확인하는 단계, 상기 서버가 상기 이미지 데이터를 통해 상기 이미지 데이터 내에 사람이 포함되었는지 여부를 판단하는 단계, 상기 이미지 데이터 내에 사람이 포함되었다고 확인되면, 상기 서버가 상기 지역에 매칭된 안전 관리자 중 상기 재난의 종류 및 상기 인명 구조와 관련된 안전 관리자를 후보 안전 관리자로 선정하는 단계, 상기 이미지 내에 사람이 포함되지 않았다고 확인되면, 상기 서버가 상기 지역에 매칭된 안전 관리자 중 상기 재난의 종류와 관련된 안전 관리자를 후보 안전 관리자로 선정하는 단계, 상기 서버가 상기 이미지 데이터 및 상기 현장 데이터를 통해 상기 재난의 위급도를 생성하는 단계, 상기 서버가 상기 현장 데이터를 전송한 센서의 범위를 통해 상기 재난의 확산도를 생성하는 단계, 상기 서버가 상기 재난의 위급도 및 상기 재난의 확산도를 통해 재난의 규모를 예측하는 단계, 상기 서버가 상기 후보 안전 관리자 중 상기 재난의 규모에 대응하는 수의 안전 관리자를 추출하여 최종 안전 관리자를 선정하는 단계, 및 상기 서버가 상기 최종 안전 관리자의 단말로 상기 지역의 출동을 요청하는 메시지를 전송하는 단계를 포함한다.If it is confirmed that a disaster has occurred, the server transmitting a message requesting dispatch to the area to the terminals of safety managers matched to the area, the server confirming the type of disaster through the field data, the server determining whether a person is included in the image data through the image data, if it is confirmed that a person is included in the image data, the server selecting a safety manager related to the type of disaster and the lifesaving among safety managers matched to the area as candidate safety managers, a person in the image If it is determined that is not included, the server selecting a safety manager related to the type of disaster among safety managers matched to the region as candidate safety managers, the server generating the emergency severity of the disaster through the image data and the site data, the server generating the disaster spread through the range of the sensor that transmitted the field data, the server predicting the scale of the disaster through the disaster severity and the disaster spread, and the server corresponding to the disaster scale among the candidate safety managers Selecting a final safety manager by extracting the safety managers of, and transmitting, by the server, a message requesting dispatch to the area to a terminal of the final safety manager.

상기 서버가 상기 이미지 데이터 및 상기 현장 데이터를 통해 상기 재난의 위급도를 생성하는 단계,는 상기 이미지 데이터 내에 사람이 포함되었다고 판단하면, 상기 서버가 상기 센서의 민감도를 높이는 단계, 상기 이미지 데이터 내에 사람이 포함되지 않았다고 판단하면, 상기 서버가 상기 센서의 민감도를 유지하는 단계, 상기 서버가 상기 센서로부터 현장 데이터가 전송되는 주기를 확인하는 단계, 상기 서버가 상기 주기가 미리 설정된 기준 주기보다 짧은지 여부를 판단하는 단계, 상기 주기가 상기 기준 주기보다 짧다고 판단되면, 상기 서버가 상기 재난의 위급도를 높음으로 생성하는 단계, 상기 주기가 상기 기준 주기보다 짧지 않다고 판단되면, 상기 서버가 상기 재난의 위급도를 낮음으로 생성하는 단계,를 포함한다.The server generating the urgency of the disaster through the image data and the field data, the server increasing the sensitivity of the sensor if it is determined that a person is included in the image data, the server maintaining the sensitivity of the sensor if it is determined that a person is not included in the image data, the server confirming a period in which field data is transmitted from the sensor, the server determining whether the period is shorter than a preset reference period, if the period is determined to be shorter than the reference period, the server Generating the urgency of the disaster as high, and if it is determined that the period is not shorter than the reference period, the server generating the urgency of the disaster as low.

상기 서버가 상기 현장 데이터를 전송한 센서의 범위를 통해 상기 재난의 확산도를 생성하는 단계는, 상기 서버가 상기 현장 데이터를 전송한 센서가 모두 미리 설정된 제1 범위 이내에 포함되는지 여부를 판단하는 단계, 상기 현장 데이터를 전송한 센서가 모두 상기 제1 범위 이내에 포함되었다고 확인되면, 상기 서버가 상기 재난의 확산도를 낮음으로 생성하는 단계, 상기 현장 데이터를 전송한 센서 중 적어도 하나 이상이 상기 제1 범위 이내에 포함되어 있지 않다고 확인되면, 상기 서버가 상기 현장 데이터를 전송한 센서가 모두 미리 설정된 제2 범위 이내에 포함되는지 여부를 판단하는 단계, 상기 현장 데이터를 전송한 센서가 모두 상기 제2 범위 이내에 포함되었다고 확인되면, 상기 서버가 상기 재난의 확산도를 보통으로 생성하는 단계, 및 상기 현장 데이터를 전송한 센서 중 적어도 하나 이상이 상기 제2 범위 이내에 포함되어 있지 않다고 확인되면, 상기 서버가 상기 재난의 확산도를 높음으로 생성하는 단계를 포함한다.Generating, by the server, the spread of the disaster through the range of the sensor that transmitted the field data, the server determining whether all the sensors that transmitted the field data were included within a preset first range, if it was determined that all the sensors that transmitted the field data were included within the first range, the server generating the spread of the disaster as low, and if it was confirmed that at least one of the sensors that transmitted the field data was not included within the first range, the server transmitted all the sensors that transmitted the field data in advance. Determining whether or not it is included within a set second range; if it is determined that all of the sensors that transmitted the field data are included within the second range, the server generating a normal spread of the disaster; and if it is determined that at least one of the sensors that transmitted the field data is not included within the second range, the server generating a high spread of the disaster.

재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법은 상기 서버가 재난이 발생하기 전 미리 설정된 설정 시간동안 획득된 현장 데이터를 기초로, 센서 값 변화 정보를 생성하는 단계; 상기 서버가 재난이 발생하기 전 상기 설정 시간동안 촬영된 이미지 데이터를 기초로, 이미지 변화 정보를 생성하는 단계; 상기 서버가 상기 센서 값 변화 정보 및 상기 이미지 변화 정보를 기초로, 입력 신호를 생성하는 단계; 상기 서버가 상기 입력 신호를 인공신경망에 적용하여 출력 신호를 획득하는 단계; 상기 서버가 상기 출력 신호를 기초로, 재난 발생 패턴을 확인하는 단계; 상기 서버가 상기 센서로부터 획득한 현장 데이터 또는 상기 카메라를 통해 획득한 이미지 데이터를 상기 재난 발생 패턴과 비교하여 일치하는 패턴이 존재하는지 여부를 판단하는 단계; 및 상기 재난 징조 패턴과 일치하는 패턴이 존재한다고 확인되면, 상기 서버가 상기 센서로부터 수신된 현장 데이터의 변화를 추적하고, 해당 지역에 위치한 사용자의 단말로 재난 예방 대응을 요청하는 메시지를 전송하는 단계를 포함한다.A method for processing and utilizing image and video data generated at a disaster site, the server generating sensor value change information based on field data obtained for a preset time before a disaster occurs; generating, by the server, image change information based on image data captured during the set time period before a disaster occurs; generating, by the server, an input signal based on the sensor value change information and the image change information; obtaining, by the server, an output signal by applying the input signal to an artificial neural network; Confirming, by the server, a disaster occurrence pattern based on the output signal; Comparing, by the server, field data obtained from the sensor or image data acquired through the camera with the disaster occurrence pattern to determine whether a matching pattern exists; and when it is determined that a pattern matching the disaster warning pattern exists, the server tracking a change in field data received from the sensor, and transmitting a message requesting disaster prevention response to a terminal of a user located in the corresponding region.

일실시예에 따른 서버는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.The server according to an embodiment may be combined with hardware and controlled by a computer program stored in a medium in order to execute any one of the methods described above.

실시예들은 재난 현장에서 생성한 이미지 및 영상 데이터를 처리 및 활용하여 사고를 예측할 수 있다.Embodiments can predict an accident by processing and utilizing images and video data generated at a disaster site.

실시예들은 재난이 발생할 경우, 현장 데이터 및 이미지 데이터를 통해 인적 피해가 있는지 여부, 재난의 규모 및 확산도를 예측하여 어떠한 안전 관리자를 어느 정도의 규모로 지원할 것인지 선정하여 안전 관리자에게 출동을 요청할 수 있다.When a disaster occurs, the embodiments predict whether there is human damage through field data and image data, the scale and spread of the disaster, select which safety manager to support and to what extent, and request the safety manager to mobilize.

실시예들은 인공신경망을 통해 재난이 발생하기 전후 패턴을 파악하고, 해당 패턴과 현장 데이터 및 이미지 데이터를 비교하여 재난 발생을 예측할 수 있다.Embodiments can identify patterns before and after a disaster occurs through an artificial neural network, and predict the occurrence of a disaster by comparing the pattern with field data and image data.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 현장 데이터가 수신되면 카메라를 통해 이미지 데이터를 수신하고, 이미지 데이터를 통해 재난을 판단하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 지역에 매칭된 안전 관리자의 단말로 지역의 출동을 요청하는 메시지를 전송하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 재난의 위급도를 생성하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 재난의 확산도를 생성하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 재난 발생을 예측하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 안전 관리자에게 경로를 제공하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 열화상 카메라를 기반으로 한 화재 발생 위험 여부를 판단하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 색상 스펙트럼의 도면이다.
도 10은 일실시예에 따른 서버의 구성의 예시도이다.
1 is a diagram schematically showing the configuration of a system according to an embodiment.
2 is a flowchart illustrating a process of receiving image data through a camera and determining a disaster through the image data when field data is received according to an embodiment.
3 is a flowchart illustrating a process of transmitting a message requesting a dispatch to a region to a terminal of a safety manager matched to a region according to an embodiment.
4 is a diagram for explaining a process of generating an emergency degree of disaster according to an embodiment.
5 is a flowchart illustrating a process of generating a spread of a disaster according to an embodiment.
6 is a flowchart illustrating a process of predicting occurrence of a disaster according to an embodiment.
7 is a flowchart illustrating a process of providing a path to a safety manager according to an embodiment.
8 is a flowchart illustrating a process of determining whether there is a risk of fire based on a thermal imaging camera according to an exemplary embodiment.
9 is a diagram of a color spectrum according to an embodiment.
10 is an exemplary diagram of a configuration of a server according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "having" are intended to specify that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but it should be understood that the presence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof is not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 센서(110), 카메라(120), 서버(200), 안전 관리자의 단말(310), 지역 관리자의 단말(320) 및 사용자의 단말(330)을 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a sensor 110, a camera 120, a server 200, a safety manager's terminal 310, a regional manager's terminal 320, and a user's terminal 330.

먼저, 센서(110)는 불꽃감지센서, 연기센서, 온도센서, 침수센서 중 적어도 하나를 포함할 수 있으며, 실시예에 따라 다양한 형태의 센서로 구현될 수 있다.First, the sensor 110 may include at least one of a flame detection sensor, a smoke sensor, a temperature sensor, and an immersion sensor, and may be implemented as various types of sensors according to embodiments.

구체적으로, 센서(110)는 불꽃감지센서, 연기센서, 온도센서, 침수센서, 진동센서 중 적어도 하나를 포함하며, 지역에 재난이 발생하였는지 확인하기 위해 지역에 설치될 수 있다. 센서(110)는 센서 값에 의해 재난이 감지되면, 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 생성할 수 있으며, 생성된 현장 데이터를 서버(200)로 전송할 수 있다. 즉, 센서(110)는 서버(200)와 유무선으로 통신할 수 있다. 여기서, 재난은 화재, 홍수, 태풍, 지진 등을 포함할 수 있으며, 그 외의 인명이나 재산의 피해를 줄 수 있는 사고가 더 포함될 수 있다.Specifically, the sensor 110 includes at least one of a flame detection sensor, a smoke sensor, a temperature sensor, a immersion sensor, and a vibration sensor, and may be installed in an area to determine whether a disaster has occurred in the area. When a disaster is detected by the sensor value, the sensor 110 may generate field data including detection data and location data, and may transmit the generated field data to the server 200 . That is, the sensor 110 may communicate with the server 200 by wire or wireless. Here, the disaster may include fire, flood, typhoon, earthquake, and the like, and may further include other accidents that may cause damage to human life or property.

또한, 센서(110)는 임베디드 시스템을 센서 자체에 내포할 수 있으며, 센서(100)는 평소에는 슬립모드이며, 입력한 시스템에 의하여 조건 충족 시 감지 데이터를 생성할 수 있고, 생성된 감지 데이터 및 센서가 위치한 지역의 정보를 포함하는 위치 데이터를 포함하는 현장 데이터를 서버(200)로 전송할 수 있다. In addition, the sensor 110 may include an embedded system in the sensor itself, the sensor 100 is normally in a sleep mode, may generate sensing data when a condition is satisfied by an input system, and may transmit field data including location data including information of the area where the sensor is located and the generated sensing data to the server 200.

한편, 하나의 지역에는 하나 이상의 센서(100)가 설치될 수 있으며, 지역에 설치된 센서(110)의 개수는 실시 예에 따라 달라질 수 있다. 또한, 센서(110)는 본문에 작성되지 않았지만 통상적으로 센서가 수행하는 업무를 수행할 수 있다.Meanwhile, one or more sensors 100 may be installed in one region, and the number of sensors 110 installed in a region may vary according to embodiments. In addition, the sensor 110 may perform a task normally performed by a sensor although not described herein.

카메라(120)는 영상 또는 이미지 촬영을 위한 Full HD(High Definition) 화질의 카메라 장비로서, 30 내지 60프레임을 기준으로 하는 촬영 장비일 수 있지만, 이에 한정되는 것은 아니다. 카메라(120)는 노출, 셔터스피드, 감도를 자동으로 조절할 수 있으며, 지역 관리자에 의해 수동 조절이 가능할 수 있다. The camera 120 is a Full HD (High Definition) quality camera device for capturing video or images, and may be a recording device based on 30 to 60 frames, but is not limited thereto. The camera 120 may automatically adjust exposure, shutter speed, and sensitivity, and may be manually adjusted by a local manager.

구체적으로, 카메라(120)는 지역에 재난이 발생하였는지 확인하기 위해 지역에 설치될 수 있다. 카메라(120)는 설치된 위치에서 지역을 촬영할 수 있으며, 촬영된 영상 데이터 또는 이미지 데이터를 서버(200)로 전송할 수 있다. 즉, 카메라(120)는 서버(200)와 유무선으로 통신할 수 있다. 또한, 이하에서는 설명의 편의상, 이미지 데이터로 작성하였으나, 이미지 데이터에는 이미지 데이터 및 영상 데이터가 모두 포함될 수 있고, 적어도 하나의 데이터가 포함될 수 있다. 또한, 카메라(120)는 본문에 작성되지 않았지만 통상적으로 카메라가 수행하는 업무를 수행할 수 있다.Specifically, the camera 120 may be installed in an area to check whether a disaster has occurred in the area. The camera 120 may capture a region at the location where it is installed, and may transmit captured image data or image data to the server 200 . That is, the camera 120 may communicate with the server 200 wired or wirelessly. Also, in the following description, image data is used for convenience of explanation, but image data may include both image data and video data, and at least one piece of data may be included. In addition, the camera 120 may perform tasks normally performed by a camera, although not described in the text.

안전 관리자의 단말(310)의 단말은 지역의 안전을 관리하는 안전 관리자가 사용하는 단말로, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다. 예를 들어, 도 1에 도시된 바와 같이, 안전 관리자의 단말(310)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다. 또한, 안전 관리자는 생명체 및 재산의 안전을 위해 구조 및 피해 복구 작업을 수행하는 관리자로서, 소방관, 경찰관, 응급구조사, 재난 관리사 등일 수 있으며, 이에 한정되는 것은 아니다.The terminal of the safety manager's terminal 310 is a terminal used by a safety manager who manages regional safety, and may be implemented as a mobile phone, desktop PC, laptop PC, tablet PC, smart phone, etc., but is not limited thereto, and may be implemented as various types of communication devices that can be connected to an external server. For example, as shown in FIG. 1 , the safety manager's terminal 310 may be a smart phone, and may be employed differently depending on the embodiment. In addition, the safety manager is a manager who performs rescue and damage restoration work for the safety of life and property, and may be a firefighter, police officer, emergency rescuer, disaster manager, etc., but is not limited thereto.

지역 관리자의 단말(320)은 지역을 관리하는 지역 관리자가 사용하는 단말로, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다. 예를 들어, 도 1에 도시된 바와 같이, 지역 관리자의 단말(320)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다. 또한, 지역 관리자는 해당 지역을 관리하는 관리자로서, 시장, 구청장, 동장 등 공무원일 수 있으며, 이에 한정되는 것은 아니다.The terminal 320 of the regional manager is a terminal used by the regional manager who manages the region, and may be implemented as a mobile phone, desktop PC, laptop PC, tablet PC, smart phone, etc., but is not limited thereto, and may be implemented as various types of communication devices that can be connected to an external server. For example, as shown in FIG. 1 , the terminal 320 of the regional manager may be a smart phone or may be employed differently depending on the embodiment. In addition, the regional manager is a manager who manages the region, and may be a public official such as a mayor, a district head, or a dong head, but is not limited thereto.

사용자의 단말(330)은 지역에 위치하는 사용자가 사용하는 단말로, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다. 예를 들어, 도 1에 도시된 바와 같이, 사용자의 단말(330)은 스마트폰일 수 있으며, 실시예에 따라 달리 채용될 수도 있다.The user's terminal 330 is a terminal used by a user located in a region, and may be implemented as a mobile phone, desktop PC, laptop PC, tablet PC, smart phone, etc., but is not limited thereto, and may be implemented as various types of communication devices that can be connected to an external server. For example, as shown in FIG. 1 , the user's terminal 330 may be a smart phone, and may be employed differently depending on embodiments.

서버(200)는 서버(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버(200)는 센서(110), 카메라(120), 안전 관리자의 단말(310), 지역 관리자의 단말(320) 및 사용자의 단말(330)과 유무선으로 통신하도록 구성될 수 있다.The server 200 may be a server owned by a person or organization that provides services using the server 200, may be a cloud server, or may be a peer-to-peer (p2p) set of distributed nodes. The server 200 may be configured to perform all or part of an arithmetic function, a storage/reference function, an input/output function, and a control function of a normal computer. The server 200 may be configured to communicate with the sensor 110, the camera 120, the safety manager's terminal 310, the regional manager's terminal 320, and the user's terminal 330 through wired or wireless communication.

서버(200)는 센서(110), 및 카메라(120) 각각에 대한 전체적인 동작을 제어할 수 있으며, 서버(200)는 센서(110), 및 카메라(120)를 통해 정보를 획득하여, 지역에 재난이 발생하였는지 여부를 확인할 수 있다.The server 200 can control the overall operation of each of the sensor 110 and the camera 120, and the server 200 obtains information through the sensor 110 and the camera 120, It is possible to check whether a disaster has occurred in an area.

센서(110)는 센서(110)의 감지 및 센서 값에 의해 재난이 감지되었다고 판단하면, 서버(200)로 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 전송할 수 있고, 서버(200)는 센서(110)로부터 현장 데이터를 수신하면, 지역에 설치된 카메라(120)를 통해 이미지 데이터를 획득하고, 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하고, 판단 결과, 재난이 발생하였다고 확인되면, 지역에 매칭된 안전 관리자(310)의 단말로 지역의 출동을 요청하는 메시지를 전송하고, 재난이 발생하지 않았다고 확인되면, 센서의 오류 가능성을 고려하여 지역 관리자의 단말(320)로 센서(110)를 확인하라는 메시지를 전송할 수 있다.When the sensor 110 determines that a disaster has been detected by the detection of the sensor 110 and the sensor value, it can transmit field data including detection data and location data to the server 200. When the server 200 receives the field data from the sensor 110, the server 200 obtains image data through the camera 120 installed in the region, analyzes the acquired image data to determine whether a disaster has occurred, and as a result of the determination, if it is confirmed that a disaster has occurred, a safety manager (3) matched to the region 10) transmits a message requesting dispatch to the region, and when it is confirmed that no disaster has occurred, a message requesting confirmation of the sensor 110 may be transmitted to the terminal 320 of the regional manager considering the possibility of a sensor error.

본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) means a technology that imitates human learning ability, reasoning ability, perception ability, etc., and implements it with a computer, and includes concepts such as machine learning and symbolic logic. Machine learning (ML) is an algorithm technology that classifies or learns the characteristics of input data by itself. Artificial intelligence technology is a machine learning algorithm that analyzes input data, learns the result of the analysis, and can make judgments or predictions based on the result of the learning. In addition, technologies that mimic the functions of the human brain, such as recognition and judgment, using machine learning algorithms, can also be understood as artificial intelligence. For example, technical fields such as linguistic understanding, visual understanding, inference/prediction, knowledge expression, and motion control may be included.

기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning may refer to processing that trains a neural network model using experience of processing data. Through machine learning, computer software could mean improving its own data processing capabilities. A neural network model is constructed by modeling a correlation between data, and the correlation may be expressed by a plurality of parameters. The neural network model derives a correlation between data by extracting and analyzing features from given data, and optimizing the parameters of the neural network model by repeating this process can be referred to as machine learning. For example, a neural network model may learn a mapping (correlation) between an input and an output with respect to data given as an input/output pair. Alternatively, even when only input data is given, the neural network model may learn the relationship by deriving a regularity between given data.

인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.An artificial intelligence learning model or a neural network model may be designed to implement a human brain structure on a computer, and may include a plurality of network nodes having weights while simulating neurons of a human neural network. A plurality of network nodes may have a connection relationship between them by simulating synaptic activities of neurons that transmit and receive signals through synapses. In the artificial intelligence learning model, a plurality of network nodes can send and receive data according to a convolutional connection relationship while being located in layers of different depths. The artificial intelligence learning model may be, for example, an artificial neural network model, a convolutional neural network model (CNN), and the like. As an embodiment, the artificial intelligence learning model may be machine-learned according to methods such as supervised learning, unsupervised learning, and reinforcement learning. Machine learning algorithms for performing machine learning include decision trees, Bayesian networks, support vector machines, artificial neural networks, Ada-boost, Perceptron, genetic programming, clustering, and the like.

이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Of these, CNNs are a type of multilayer perceptrons designed to use minimal preprocessing. A CNN consists of one or several convolution layers and general artificial neural network layers on top, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize the input data with a two-dimensional structure. Compared to other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained via standard back-propagation. CNNs are easier to train than other feedforward artificial neural network techniques and have the advantage of using fewer parameters.

컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increasing size of available training data and the availability of computational power, combined with algorithmic advances such as piecewise linear unit and dropout training, have greatly improved many computer vision tasks. With huge data sets, such as those available for many tasks today, overfitting is not critical, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. To this end, a distributed, scalable implementation of deep neural networks can be used.

도 2는 일실시예에 따른 현장 데이터가 수신되면 카메라를 통해 이미지 데이터를 수신하고, 이미지 데이터를 통해 재난을 판단하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of receiving image data through a camera and determining a disaster through the image data when field data is received according to an embodiment.

도 2를 참조하면, 먼저 S201 단계에서, 센서(110)는 센서의 감지 및 센서 값에 의해 재난이 감지되었다고 판단할 수 있고, 센서(110)는 재난이 감지되었다고 판단하면, 서버(200)로 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 전송할 수 있다.Referring to FIG. 2, first, in step S201, the sensor 110 may determine that a disaster has been detected by the detection of the sensor and the sensor value, and if the sensor 110 determines that a disaster has been detected, the server 200 may transmit field data including detection data and location data.

구체적으로, 센서(110)는 임베디드 시스템을 통해 미리 설정된 설정 값 이상의 센서 값이 측정되면, 재난이 감지되었다고 판단할 수 있고, 센서(110)는 재난이 감지되었다고 판단되면, 센서 값을 포함하는 감지 데이터 및 센서가 위치한 지역의 정보를 포함하는 위치 데이터를 포함하는 현장 데이터를 생성하여 생성된 현장 데이터를 서버(200)로 전송할 수 있다.Specifically, the sensor 110 may determine that a disaster has been detected when a sensor value equal to or greater than a preset set value is measured through the embedded system, and if it is determined that a disaster has been detected, the sensor 110 may generate field data including detection data including the sensor value and location data including information of a region where the sensor is located, and transmit the generated field data to the server 200.

S202 단계에서, 서버(200)는 센서(110)로부터 현장 데이터를 수신하면, 지역에 설치된 카메라(120)를 통해 이미지 데이터를 획득할 수 있다. 여기서, 이미지 데이터는 편의상 이미지 데이터로 작성하였지만, 영상 데이터를 포함할 수 있다.In step S202 , when the server 200 receives field data from the sensor 110 , image data may be acquired through the camera 120 installed in the area. Here, the image data is written as image data for convenience, but may include image data.

구체적으로, 센서(110)는 센서 값에 의한 센서의 감지를 통해 재난이 감지되었다고 판단하면, 센서(110)는 서버(200)로 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 전송할 수 있고, 서버(200)는 센서(110)로부터 현장 데이터를 수신하면 현장 데이터에 포함된 위치 데이터를 통해 센서(110)가 설치된 지역을 확인할 수 있다. 또한, 서버(200)는 위치 데이터를 통해 확인된 센서(110)가 설치된 지역에 설치된 카메라(120)를 통해 이미지 데이터를 획득할 수 있다. 즉, 서버(200)는 센서(110)로부터 현장 데이터를 수신하면, 위치 데이터를 통해 센서(110)가 설치된 지역을 확인할 수 있고, 확인된 지역에 설치된 카메라(120)에게 이미지 데이터 요청을 전송할 수 있고, 카메라(120)는 서버(200)로부터 수신한 이미지 데이터 요청에 응답하여 현재 지역의 상황을 촬영하고, 촬영을 통해 이미지 데이터를 생성하고, 생성된 이미지 데이터를 서버(200)로 전송할 수 있다.Specifically, when the sensor 110 determines that a disaster has been detected through sensor detection by sensor values, the sensor 110 may transmit field data including detection data and location data to the server 200. When the server 200 receives the field data from the sensor 110, it may check the area where the sensor 110 is installed through the location data included in the field data. In addition, the server 200 may acquire image data through the camera 120 installed in the area where the sensor 110 identified through the location data is installed. That is, when the server 200 receives field data from the sensor 110, the server 200 can identify the region where the sensor 110 is installed through the location data, and transmit a request for image data to the camera 120 installed in the identified region.

S203 단계에서, 서버(200)는 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단할 수 있다.In step S203, the server 200 may determine whether a disaster has occurred by analyzing the acquired image data.

구체적으로, 서버(200)는 카메라(120)를 통해 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하기 위해 해당 카메라를 통해 이전에 촬영된 이미지 데이터인 기존 이미지 데이터를 포함하는 데이터베이스를 구비할 수 있으며, 카메라를 통해 이전에 촬영된 이미지 데이터인 기존 이미지 데이터와 카메라를 통해 현재 촬영된 이미지 데이터를 비교하여 차이점을 확인할 수 있다. 이때, 이미지 데이터와 기존 이미지 데이터를 비교하여 차이점을 추출하는 과정은 구체적으로 작성하지 않았지만, 통상적으로 사용되는 방법에 의해 이미지 데이터와 기존 이미지 데이터를 비교하여 차이점을 추출할 수 있다.Specifically, the server 200 may analyze image data obtained through the camera 120 to determine whether a disaster has occurred, and may include a database including existing image data, which is image data previously captured through a corresponding camera, and compare existing image data, which is image data previously captured through a camera, with image data currently captured through a camera to determine a difference. At this time, although a process of comparing image data and existing image data and extracting a difference is not specifically prepared, a difference can be extracted by comparing image data and existing image data by a commonly used method.

또한, 서버(200)는 추출된 차이점이 재난 발생 데이터베이스에 등록된 것인지 여부를 확인할 수 있으며, 차이점이 재난 발생 데이터베이스에 등록된 것일 경우, 재난이 발생하였다고 판단할 수 있고, 차이점이 없거나, 차이점이 재난 발생 데이터베이스에 등록되지 않았을 경우, 재난이 발생하지 않았다고 판단할 수 있다. 여기서, 서버(200)는 재난 발생 데이터베이스를 구비할 수 있으며, 재난 발생 데이터베이스는 재난이 발생되었다고 확인될 때 촬영된 이미지 데이터에 포함된 차이점에 대응하여 차이점의 이미지 또는 차이점의 종류 중 적어도 하나를 포함하는 차이점에 대한 정보가 저장되어 있을 수 있으며, 재난 발생 데이터베이스에 포함된 차이점은 서버(200)를 관리하는 관리자에 의해서 저장될 수도 있고, 실시 예가 증가함에 따라 재난 발생 데이터베이스에 저장된 차이점도 증가할 수도 있다. 이때, 재난 발생 데이터베이스에 등록된 차이점으로는 연기, 불, 수위 상승, 땅 갈라짐, 건물 파손 등이 포함될 수 있다. In addition, the server 200 may check whether the extracted difference is registered in the disaster occurrence database, and if the difference is registered in the disaster occurrence database, it may be determined that a disaster has occurred. If there is no difference or the difference is not registered in the disaster occurrence database, it may be determined that no disaster has occurred. Here, the server 200 may have a disaster occurrence database, and the disaster occurrence database may store information on differences including at least one of a difference image or a type of difference corresponding to differences included in image data taken when a disaster occurs. In this case, differences registered in the disaster occurrence database may include smoke, fire, water level rise, ground cracks, building damage, and the like.

또한, 서버(200)는 카메라(120)를 통해 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하는 과정은 이에 한정되는 것은 아니고, 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하는 과정은 통상적으로 사용되는 다양한 방법을 통해 판단할 수 있다.In addition, the process of determining whether a disaster has occurred by analyzing the image data obtained by the server 200 through the camera 120 is not limited thereto, and the process of determining whether a disaster has occurred by analyzing the image data can be determined through various commonly used methods.

S203 단계에서 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단한 결과, 재난이 발생하였다고 확인되면, S204 단계에서, 서버(200)는 지역에 매칭된 안전 관리자의 단말(310)로 지역의 출동을 요청하는 메시지를 전송할 수 있다.As a result of determining whether a disaster has occurred by analyzing the image data acquired in step S203, if it is confirmed that a disaster has occurred, in step S204, the server 200 may transmit a message requesting dispatch to the region to the terminal 310 of the safety manager matched to the region.

구체적으로, 서버(200)는 획득한 이미지 데이터를 분석하여 재난이 발생하였다고 확인되면, 지역에 매칭된 안전 관리자의 단말(310)로 지역의 출동을 요청하는 메시지를 전송할 수 있다. 여기서, 서버(200)에 구비된 데이터베이스에는 지역과 해당 지역의 안전을 관리하는 안전 관리자의 정보가 매칭되어 저장될 수 있으며, 안전 관리자는 해당 지역의 소방관, 경찰관, 응급구조사 등을 포함할 수 있으며, 그 외의 해당 지역의 안전을 관리하는 사람 또는 시설이 될 수 있다. 또한, 서버(200)는 안전 관리자의 단말(310)과 유무선으로 통신할 수 있다. Specifically, when it is confirmed that a disaster has occurred by analyzing the acquired image data, the server 200 may transmit a message requesting dispatch to the region to the terminal 310 of the safety manager matched to the region. Here, the database provided in the server 200 may match and store information on a region and a safety manager who manages safety in the region, and the safety manager may include firefighters, police officers, and first responders in the region, and may be other people or facilities that manage safety in the region. In addition, the server 200 may communicate with the terminal 310 of the safety manager by wire or wireless.

S203 단계에서 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단한 결과, 재난이 발생하지 않았다고 확인되면, S205 단계에서, 서버(200)는 센서의 오류 가능성을 고려하여 지역 관리자의 단말(320)로 센서를 확인하라는 메시지를 전송할 수 있다.As a result of determining whether a disaster has occurred by analyzing the image data acquired in step S203, if it is confirmed that no disaster has occurred, in step S205, the server 200 may transmit a message to the terminal 320 of the regional manager to check the sensor in consideration of the possibility of a sensor error.

구체적으로, 서버(200)는 획득한 이미지 데이터를 분석하여 재난이 발생하지 않았다고 확인되면, 센서의 오류 가능성을 고려하여 지역에 매칭된 지역 관리자의 단말(310)로 센서를 확인하라는 메시지를 전송할 수 있다. 여기서, 서버(200)에 구비된 데이터베이스에는 지역과 해당 지역을 관리하는 지역 관리자의 정보가 매칭되어 저장될 수 있으며, 지역 관리자는 해당 지역의 도지사, 시장, 동장 등을 포함할 수 있으며, 그 외의 해당 지역을 관리하는 사람 또는 시설이 될 수 있다. 또한, 서버(200)는 지역 관리자의 단말(320)과 유무선으로 통신할 수 있다. Specifically, when it is determined that no disaster has occurred by analyzing the obtained image data, the server 200 may transmit a message requesting confirmation of the sensor to the terminal 310 of the region manager matched to the region in consideration of the possibility of error in the sensor. Here, in the database provided in the server 200, information on a region and a region manager managing the region may be matched and stored, and the region manager may include a governor, mayor, mayor, etc. of the region, and may be other people or facilities that manage the region. In addition, the server 200 may communicate with the terminal 320 of the regional manager by wire or wireless.

이로 인해, 1차적으로 센서를 통해 재난을 감지하고, 센서를 통해 재난이 감지되어 현장 데이터를 수신하면, 서버(200)는 2차적으로 카메라를 통해 재난을 감지함으로써, 재난이 발생하였는지 더 정확하게 확인할 수 있다. For this reason, when a disaster is detected primarily through a sensor and field data is received after a disaster is detected through a sensor, the server 200 secondarily detects a disaster through a camera, thereby more accurately confirming whether a disaster has occurred.

도 3은 일실시예에 따른 지역에 매칭된 안전 관리자의 단말로 지역의 출동을 요청하는 메시지를 전송하는 과정을 설명하기 위한 순서도이다.3 is a flowchart illustrating a process of transmitting a message requesting a dispatch to a region to a terminal of a safety manager matched to a region according to an embodiment.

도 3을 참조하면, 먼저 S301 단계에서, 서버(200)는 현장 데이터를 통해 재난의 종류를 확인할 수 있다.Referring to FIG. 3 , first in step S301, the server 200 may check the type of disaster through on-site data.

구체적으로, 서버(200)는 센서(110)로부터 수신된 현장 데이터를 통해 재난의 종류를 확인할 수 있다. 즉, 현장 데이터에는 재난의 종류가 포함될 수 있다. 센서(110)는 센서 값에 의해 센서가 감지되면, 해당 센서에 매칭된 재난의 종류를 확인할 수 있고, 확인된 재난의 종류를 현장 데이터에 포함하여 서버(200)로 전송할 수 있다. Specifically, the server 200 may check the type of disaster through field data received from the sensor 110 . That is, the type of disaster may be included in the field data. When the sensor 110 is detected by the sensor value, the sensor 110 can check the type of disaster matched to the corresponding sensor, and transmit the identified disaster type to the server 200 by including it in field data.

예를 들어, 불꽃감지센서는 재난의 종류 중 화재와 매칭되어 불꽃감지센서로부터 생성된 현장 데이터에는 재난의 종류로 화재가 포함될 수 있고, 연기센서는 재난의 종류 중 화재와 매칭되어 연기센서로부터 생성된 현장 데이터에는 재난의 종류로 화재가 포함될 수 있고, 온도센서는 재난의 종류 중 화재와 매칭되어 온도센서로부터 생성된 현장 데이터에는 재난의 종류로 화재가 포함될 수 있고, 침수센서는 재난의 종류 중 홍수 및 태풍과 매칭되어 침수센서로부터 생성된 현장 데이터에는 재난의 종류로 홍수 및 태풍이 포함될 수 있고, 진동센서는 재난의 종류 중 지진과 매칭되어 진동센서로부터 생성된 현장 데이터에는 재난의 종류로 지진이 포함될 수 있다.For example, a flame detection sensor is matched with a fire among types of disasters, and field data generated from the flame detection sensor may include fire as a type of disaster. A smoke sensor may be matched with a fire among types of disasters, and field data generated from the smoke sensor may include fire as a type of disaster. Floods and typhoons may be included, and the vibration sensor is matched with an earthquake among types of disasters, and field data generated from the vibration sensor may include an earthquake as a type of disaster.

S302 단계에서, 서버(200)는 현장에 사람이 있는지 여부를 판단할 수 있다.In step S302, the server 200 may determine whether there is a person on site.

구체적으로, 서버(200)는 카메라(120)로부터 획득한 이미지 데이터를 통해 이미지 데이터 내에 사람이 포함되었는지 여부를 판단할 수 있고, 이미지 데이터 내에 사람이 포함되었는지 여부를 통해 현장에 사람이 있는지 여부를 판단할 수 있다. 즉, 서버(200)는 이미지 데이터 내에 사람이 포함되었다고 확인되면, 현장에 사람이 있다고 판단할 수 있고, 서버(200)는 이미지 데이터 내에 사람이 포함되어 있지 않다고 확인되면, 현장에 사람이 없다고 판단할 수 있다. 여기서, 이미지 데이터 내에 사람이 포함되어 있는지 여부를 판단하는 방법은 구체적으로 작성하지 않았지만, 통상적으로 사용되는 방법을 통해 이미지 데이터 내에 사람이 포함되어 있는지 여부를 판단할 수 있다.Specifically, the server 200 may determine whether a person is included in the image data through image data obtained from the camera 120, and determine whether a person is present at the site based on whether a person is included in the image data. That is, if it is confirmed that a person is included in the image data, the server 200 may determine that there is a person in the scene, and if it is confirmed that a person is not included in the image data, the server 200 may determine that there is no person in the scene. Here, a method for determining whether a person is included in the image data is not specifically prepared, but it is possible to determine whether a person is included in the image data through a commonly used method.

S302 단계에서 현장에 사람이 있다고 확인되면, S303 단계에서, 서버(200)는 지역에 매칭된 안전 관리자 중 재난의 종류 및 인명 구조와 관련된 안전 관리자를 후보 안전 관리자로 선정할 수 있다. 이때, 서버(200)는 데이터베이스에 저장된 지역과 매칭된 안전 관리자를 저장하는 과정에서 해당 안전 관리자의 정보를 기초로, 안전 관리자와 재난의 종류를 매칭하여 저장할 수 있다. 예를 들어, 데이터베이스에는 경찰관, 의사, 응급구조사 등은 모든 재난과 매칭되어 저장될 수 있으며, 소방관은 모든 재난과 매칭될 수도 있지만 화재와 매칭되어 저장될 수 있고, 수난 구조대와 홍수 및 태풍이 매칭되어 저장될 수 있고, 산악 구조대와 산불이 매칭되어 저장될 수 있다. 또한, 데이터베이스에 저장된 지역과 매칭된 안전 관리자를 저장하는 과정에서 해당 안전 관리자의 정보를 기초로, 안전 관리자 중 인명 구조를 하는 안전 관리자를 인명 구조와 매칭하여 저장할 수 있다. 예를 들어, 데이터베이스에는 의사, 응급 구조사, 인명 구조원과 같이 사람을 구조하는 안전 관리자는 인명 구조와 매칭되어 저장될 수 있다.If it is confirmed that there is a person at the site in step S302, in step S303, the server 200 may select a safety manager related to the type of disaster and lifesaving among safety managers matched to the region as candidate safety managers. At this time, in the process of storing the safety manager matched with the region stored in the database, the server 200 may match and store the safety manager and the type of disaster based on the information of the corresponding safety manager. For example, in the database, police officers, doctors, paramedics, etc. may be matched and stored with all disasters, firefighters may be matched with all disasters, but may be stored matched with fires, and water rescue teams may be matched with floods and typhoons, and mountain rescue teams may be matched with forest fires. In addition, in the process of storing the safety manager matched with the region stored in the database, based on the information of the corresponding safety manager, a safety manager performing lifesaving among the safety managers may be matched with the lifesaving and stored. For example, safety managers who rescue people, such as doctors, paramedics, and lifeguards, may be matched with and stored in the database.

S302 단계에서 현장에 사람이 없다고 확인되면, S304 단계에서, 서버(200)는 지역에 매칭된 안전 관리자 중 재난의 종류와 관련된 안전 관리자를 후보 안전 관리자로 선정할 수 있다.If it is confirmed that there is no person at the site in step S302, in step S304, the server 200 may select a safety manager related to the type of disaster from safety managers matched to the region as candidate safety managers.

S305 단계에서, 서버(200)는 이미지 데이터 및 현장 데이터를 통해 재난의 위급도를 생성할 수 있다.In step S305, the server 200 may generate a disaster severity level through image data and field data.

구체적으로 서버(200)는 이미지 데이터에 포함된 사람의 여부를 통해 센서의 민감도를 높이거나, 센서의 민감도를 유지할 수 있으며, 센서에서 현장 데이터가 전송되는 주기를 확인하여 재난의 위급도를 생성할 수 있다. 이미지 데이터 및 현장 데이터를 통해 재난의 위급도를 생성하는 과정에 대한 구체적인 설명은 도 4를 참조하기로 한다.Specifically, the server 200 may increase the sensitivity of the sensor or maintain the sensitivity of the sensor through whether or not there is a person included in the image data, and may generate an emergency degree of disaster by checking a cycle in which field data is transmitted from the sensor. A detailed description of the process of generating the urgency of a disaster through image data and field data will be referred to FIG. 4 .

S306 단계에서, 서버(200)는 현장 데이터를 전송한 센서의 범위를 통해 재난의 확산도를 생성할 수 있다.In step S306, the server 200 may generate the spread of the disaster through the range of the sensor that has transmitted the field data.

구체적으로 서버(200)는 현장 데이터를 전송한 센서가 모여있을 경우, 재난의 확산도를 낮게 생성할 수 있고, 현장 데이터를 전송한 센서가 여러 군데 퍼져있을 경우 재난의 확산도를 높게 생성할 수 있다. 현장 데이터를 전송한 센서의 범위를 통해 재난의 확산도를 생성하는 과정에 대한 구체적인 설명은 도 5를 참조하기로 한다.Specifically, the server 200 can generate a low spread of disaster when sensors that transmit field data are gathered, and can generate a high spread of disaster when sensors that transmit field data are spread out in several places. A detailed description of a process of generating a spread of a disaster through a range of a sensor that transmits field data will be described with reference to FIG. 5 .

S307 단계에서, 서버(200)는 재난의 위급도 및 재난의 확산도를 통해 재난의 규모를 예측할 수 있다.In step S307, the server 200 may predict the scale of the disaster through the urgency of the disaster and the degree of spread of the disaster.

구체적으로 서버(200)는 재난의 위급도 및 재난의 확산도를 통해 재난의 규모를 예측할 수 있는데, 이때, 서버(200)는 재난의 위급도가 높음인지 낮음인지에 따라 제1 수치를 다르게 부여할 수 있으며, 재난의 확산도가 높음인지, 보통인지, 낮음인지에 따라 제2 수치를 다르게 부여할 수 있다. 여기서, 재난의 위급도에 따라 부여되는 제1 수치는 미리 설정된 값으로 실시 예에 따라 달라질 수 있으며, 재난의 위급도가 높음인 경우, 재난의 위급도가 낮음인 경우보다 제1 수치로 더 높은 수치를 부여할 수 있다. 재난의 위급도가 재난의 확산도에 따라 부여되는 제2 수치는 미리 설정된 값으로 실시 예에 따라 달라질 수 있으며, 재난의 확산도가 높음인 경우, 재난의 확산도가 보통인 경우보다 제2 수치로 더 높은 수치를 부여할 수 있고, 재난의 확산도가 보통인 경우, 재난의 확산도가 낮음인 경우보다 제2 수치로 더 높은 수치를 부여할 수 있다. 예를 들어, 서버(200)는 재난의 위급도가 높음일 경우, 제1 수치로 5를 부여할 수 있고, 재난의 위급도가 낮음일 경우, 제1 수치로 2를 부여할 수 있다. 또한, 서버(200)는 재난의 확산도가 높음일 경우, 제2 수치로 5를 부여할 수 있고, 재난의 확산도가 보통일 경우, 제2 수치로 3을 부여할 수 있고, 재난의 확산도가 낮음일 경우, 제2 수치로 1을 부여할 수 있다. Specifically, the server 200 can predict the scale of the disaster through the urgency of the disaster and the spread of the disaster. At this time, the server 200 may assign a first value differently depending on whether the severity of the disaster is high or low, and may assign a second value differently depending on whether the spread of the disaster is high, normal, or low. Here, the first value given according to the emergency level of the disaster may be a preset value and may vary depending on the embodiment, and when the emergency level of the disaster is high, a higher value may be assigned as the first value than when the emergency level of the disaster is low. The second value assigned according to the degree of emergency of the disaster may be a preset value and may vary depending on the embodiment, and when the degree of spread of the disaster is high, a higher value may be assigned as the second value than when the degree of spread of the disaster is normal. For example, the server 200 may assign 5 as the first value when the severity of the disaster is high, and may assign 2 as the first value when the severity of the disaster is low. In addition, when the spread of the disaster is high, the server 200 may assign 5 as the second value, and when the spread of the disaster is normal, 3 may be assigned as the second value, and when the spread of the disaster is low, 1 may be assigned as the second value.

또한, 서버(200)는 재난의 위급도에 따라 부여된 제1 수치와 재난의 확산도에 따라 부여된 제2 수치를 더한 값으로 재난의 규모를 예측할 수 있다. In addition, the server 200 may predict the scale of a disaster by adding a first value assigned according to the severity of the disaster and a second value assigned according to the spread of the disaster.

예를 들어, 재난의 위급도가 높음에 대응하는 제1 수치가 5이고, 재난의 위급도가 낮음에 대응하는 제1 수치가 2이고, 재난의 확산도가 높음에 대응하는 제2 수치가 5이고, 재난의 확산도가 보통에 대응하는 제2 수치가 3이고, 재난의 확산도가 낮음에 대응하는 제2 수치가 1이고, 이미지 데이터 및 현장 데이터로부터 획득한 재난의 위급도가 높음이고, 재난의 확산도가 높음인 경우, 서버(200)는 재난의 위급도가 높음에 대응하는 제1 수치인 5와 재난의 확산도가 높음에 대응하는 제2 수치인 5를 더한 값으로 재난의 규모를 10으로 생성할 수 있다.For example, if the first value corresponding to the high degree of emergency of the disaster is 5, the first value corresponding to the low severity of the disaster is 2, the second value corresponding to the high spread of the disaster is 5, the second value corresponding to the normal spread of the disaster is 3, the second value corresponding to the low spread of the disaster is 1, the urgency of the disaster obtained from image data and field data is high, and the spread of the disaster is high , The server 200 may generate a disaster scale of 10 as a value obtained by adding 5, which is a first value corresponding to a high degree of emergency, and 5, which is a second value corresponding to a high degree of spread of a disaster.

예를 들어, 재난의 위급도가 높음에 대응하는 제1 수치가 5이고, 재난의 위급도가 낮음에 대응하는 제1 수치가 2이고, 재난의 확산도가 높음에 대응하는 제2 수치가 5이고, 재난의 확산도가 보통에 대응하는 제2 수치가 3이고, 재난의 확산도가 낮음에 대응하는 제2 수치가 1이고, 이미지 데이터 및 현장 데이터로부터 획득한 재난의 위급도가 낮음이고, 재난의 확산도가 낮음인 경우, 서버(200)는 재난의 위급도가 낮음에 대응하는 제1 수치인 2와 재난의 확산도가 낮음에 대응하는 제2 수치인 1을 더한 값으로 재난의 규모를 3으로 생성할 수 있다.For example, if the first value corresponding to the high degree of emergency of the disaster is 5, the first value corresponding to the low severity of the disaster is 2, the second value corresponding to the high spread of the disaster is 5, the second value corresponding to the normal spread of the disaster is 3, the second value corresponding to the low spread of the disaster is 1, the urgency of the disaster obtained from image data and field data is low, and the spread of the disaster is low , The server 200 may generate a disaster scale of 3 as a value obtained by adding 2, which is a first value corresponding to a low severity of a disaster, and 1, which is a second value corresponding to a low spread of a disaster.

즉, 서버(200)는 재난의 위급도가 높음이고, 재난의 확산도가 높음일 경우, 재난의 규모를 가장 크게 생성할 수 있고, 재난의 위급도가 낮음이고, 재난의 확산도가 낮음일 경우, 재난의 규모를 가장 작게 생성할 수 있다.That is, the server 200 may generate the largest scale of disaster when the urgency of the disaster is high and the spread of the disaster is high, and when the urgency of the disaster is low and the spread of the disaster is low, it can generate the smallest scale of the disaster.

S308 단계에서, 서버(200)는 후보 안전 관리자 중 재난의 규모에 대응하는 수의 안전 관리자를 추출하여 최종 안전 관리자를 선정할 수 있다.In step S308, the server 200 may select a final safety manager by extracting the number of safety managers corresponding to the scale of the disaster from among the candidate safety managers.

구체적으로 서버(200)는 지역에 매칭된 안전 관리자 중 재난의 종류를 통해 후보 안전 관리자를 추출할 수 있으며, 추출된 후보 안전 관리자 중 재난의 규모에 대응하는 수의 안전 관리자를 추출하여 최종 안전 관리자를 선정할 수 있다.In detail, the server 200 may extract candidate safety managers from safety managers matched to the region through the type of disaster, and select a final safety manager by extracting the number of safety managers corresponding to the size of the disaster from among the extracted candidate safety managers.

S309 단계에서, 서버(200)는 최종 안전 관리자의 단말로 지역의 출동을 요청하는 메시지를 전송할 수 있다.In step S309, the server 200 may transmit a message requesting a local dispatch to the terminal of the final safety manager.

이로 인해, 서버(200)는 재난의 종류 및 재난의 규모를 통해 적합한 안전 관리자를 선정하고, 안전 관리자의 수를 선정하여 지역의 출동을 요청함으로써, 안전 관리자에게 출동 요청을 하고, 지역까지 도착하는데 소요되는 시간을 단축시킬 수 있어 재난에 대한 피해를 최소화할 수 있다.For this reason, the server 200 selects an appropriate safety manager through the type and scale of the disaster, selects the number of safety managers, and requests dispatch to the area, thereby requesting dispatch to the safety manager and reducing the time required to arrive to the area, thereby minimizing damage caused by the disaster.

도 4는 일실시예에 따른 재난의 위급도를 생성하는 과정을 설명하기 위한 도면이다.4 is a diagram for explaining a process of generating an emergency degree of disaster according to an embodiment.

도 4를 참조하면, 먼저, S302 단계에서 현장에 사람이 있다고 확인되면, S401 단계에서, 서버(200)는 이미지 데이터 내에 사람이 포함되었다고 판단하면, 센서의 민감도를 높일 수 있다.Referring to FIG. 4 , first, if it is confirmed in step S302 that there is a person in the field, in step S401, the server 200 may increase the sensitivity of the sensor if it is determined that a person is included in the image data.

구체적으로, 서버(200)는 이미지 데이터를 통해 이미지 데이터 내에 사람이 포함되었는지 여부를 판단할 수 있고, 이미지 데이터를 통해 사람이 포함되었다고 판단되면, 센서의 민감도를 높일 수 있다. 이때, 센서(110)는 높아진 민감도를 통해 더 좁은 단위를 기초로 현장 데이터를 전송할 수 있다. Specifically, the server 200 may determine whether a person is included in the image data through image data, and if it is determined through the image data that a person is included, the server 200 may increase the sensitivity of the sensor. At this time, the sensor 110 may transmit field data based on a narrower unit through increased sensitivity.

예를 들어, 가스 센서의 경우 PPM 데이터 혹은 구간 데이터를 통해 센서에서 유의미한 감지 구간으로 진입 시 진입한 시점부터 일정 단위로 측정 및 측정된 센서 값을 포함하는 현장 데이터를 서버(200)로 송신할 수 있는데, 서버(200)는 이미지 데이터 내에 사람이 포함되었다고 판단하면, 센서의 민감도를 높일 수 있고, 센서(110)는 서버(200)에 의해 높아진 센서의 민감도에 따라 기존에 100PPM 단위로 측정하고 생성된 현장 데이터를 송신하던 것을 10PPM 단위로 측정하고, 생성된 현장 데이터를 전송하도록 할 수 있다.For example, in the case of a gas sensor, when the sensor enters a meaningful detection section through PPM data or section data, field data including measured and measured sensor values can be measured in a certain unit from the point of entry to the server 200. If the server 200 determines that a person is included in the image data, the sensitivity of the sensor can be increased. It is possible to measure what was being transmitted in units of 10PPM and to transmit the generated field data.

S302 단계에서 현장에 사람이 있지 않다고 확인되면, S402 단계에서, 서버(200)는 이미지 데이터 내에 사람이 포함되지 않았다고 판단하면, 센서의 민감도를 유지할 수 있다.When it is confirmed in step S302 that there is no person in the scene, in step S402, the server 200 may maintain the sensitivity of the sensor when it is determined that no person is included in the image data.

구체적으로, 서버(200)는 이미지 데이터를 통해 이미지 데이터 내에 사람이 포함되었는지 여부를 판단할 수 있고, 이미지 데이터를 통해 사람이 포함되지 않았다고 판단되면, 센서의 민감도를 유지할 수 있다.Specifically, the server 200 may determine whether a person is included in the image data through image data, and if it is determined through the image data that a person is not included, the server 200 may maintain sensitivity of the sensor.

예를 들어, 가스 센서의 경우 PPM 데이터 혹은 구간 데이터를 통해 센서에서 유의미한 감지 구간으로 진입 시 진입한 시점부터 일정 단위로 측정 및 측정된 센서 값을 포함하는 현장 데이터를 서버(200)로 송신할 수 있는데, 서버(200)는 이미지 데이터 내에 사람이 포함되지 않았다고 판단하면, 센서의 민감도를 유지할 수 있고, 센서(110)는 서버(200)에 의해 유지된 민감도에 따라 기존에 100PPM 단위로 측정하고 생성된 현장 데이터를 송신하던 것을 유지할 수 있다.For example, in the case of a gas sensor, when the sensor enters a meaningful detection range through PPM data or interval data, field data including measured and measured sensor values can be measured and transmitted to the server 200 in a certain unit from the point of entry. You can keep what you do.

S403 단계에서, 서버(200)는 센서에서 현장 데이터가 전송되는 주기를 확인할 수 있다.In step S403, the server 200 may check a period in which field data is transmitted from the sensor.

구체적으로, 서버(200)는 센서로부터 현장 데이터를 수신한 시점을 통해 센서에서 현장 데이터가 전송되는 주기를 확인할 수 있다. Specifically, the server 200 may check a period in which field data is transmitted from the sensor through a time point at which field data is received from the sensor.

S404 단계에서, 서버(200)는 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧은지 여부를 판단할 수 있다. 여기서, 기준 주기는 미리 설정된 주기로 실시 예에 따라 다를 수 있다.In step S404, the server 200 may determine whether a period in which field data is transmitted from the sensor is shorter than a reference period. Here, the reference period is a preset period and may vary according to embodiments.

S404 단계에서, 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧다고 확인되면, S405 단계에서, 서버(200)는 재난의 위급도를 높음으로 생성할 수 있다.In step S404, if it is determined that the period in which field data is transmitted from the sensor is shorter than the reference period, in step S405, the server 200 may generate a high level of emergency.

구체적으로, 서버(200)는 센서로부터 현장 데이터를 수신한 시점을 통해 센서에서 현장 데이터가 전송되는 주기를 확인하고, 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧은지 여부를 확인할 수 있다. 또한, 서버(200)는 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧다고 확인되면, 센서에서 측정되는 값 즉, 센서 값이 빠르게 증가한다고 판단하여 재난의 위급도를 높음으로 생성할 수 있다. Specifically, the server 200 may check a period in which field data is transmitted from a sensor through a time point at which field data is received from a sensor, and determine whether a period in which field data is transmitted from a sensor is shorter than a reference period. In addition, when the server 200 determines that the period in which field data is transmitted from the sensor is shorter than the reference period, the server 200 determines that the value measured by the sensor, that is, the sensor value increases rapidly, and generates a high level of emergency.

예를 들어, 센서에서 현장 데이터가 전송되는 주기가 1분이고, 기준 주기가 2분일 경우, 서버(200)는 센서에서 현장 데이터가 전송되는 주기인 1분이 기준 주기인 2분보다 짧은 것을 확인할 수 있고, 센서 값이 빠르게 증가한다고 판단하여 재난의 위급도를 높음으로 생성할 수 있다.For example, if the field data transmission period from the sensor is 1 minute and the reference period is 2 minutes, the server 200 can confirm that the field data transmission period from the sensor, 1 minute, is shorter than the reference period of 2 minutes.

S404 단계에서, 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧지 않다고 확인되면, S406 단계에서, 서버(200)는 재난의 위급도를 낮음으로 생성할 수 있다.In step S404, if it is determined that the period in which field data is transmitted from the sensor is not shorter than the reference period, in step S406, the server 200 may generate a disaster emergency as low.

구체적으로, 서버(200)는 센서로부터 현장 데이터를 수신한 시점을 통해 센서에서 현장 데이터가 전송되는 주기를 확인하고, 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧은지 여부를 확인할 수 있다. 또한, 서버(200)는 센서에서 현장 데이터가 전송되는 주기가 기준 주기보다 짧지 않다고 확인되면, 센서에서 측정되는 값 즉, 센서 값이 천천히 증가하거나, 증가하지 않는다고 판단하여 재난의 위급도를 낮음으로 생성할 수 있다. Specifically, the server 200 may check a period in which field data is transmitted from a sensor through a time point at which field data is received from a sensor, and determine whether a period in which field data is transmitted from a sensor is shorter than a reference period. In addition, if the server 200 determines that the period at which field data is transmitted from the sensor is not shorter than the reference period, the value measured by the sensor, that is, the sensor value, increases slowly or does not increase, and determines the severity of the disaster as low. Can be generated.

예를 들어, 센서에서 현장 데이터가 전송되는 주기가 5분이고, 기준 주기가 2분일 경우, 서버(200)는 센서에서 현장 데이터가 전송되는 주기인 5분이 기준 주기인 2분보다 긴 것을 확인할 수 있고, 센서 값이 천천히 증가한다고 판단하여 재난의 위급도를 낮음으로 생성할 수 있다.For example, if the field data transmission period from the sensor is 5 minutes and the reference period is 2 minutes, the server 200 can confirm that the field data transmission period from the sensor, 5 minutes, is longer than the reference period of 2 minutes.

이로 인해, 서버(200)는 현장에 사람이 포함되었다고 판단되면, 센서의 민감도를 높일 수 있고, 센서에서 현장 데이터가 전송되는 주기를 기초로, 재난의 위급도를 생성할 수 있어 재난이 빠르게 커지는 경우 재난의 위급도를 높음으로 생성할 수 있고, 재난이 천천히 커지는 경우 재난의 위급도를 낮음으로 생성할 수 있다.For this reason, the server 200 may increase the sensitivity of the sensor when it is determined that a person is included in the site, and may generate a disaster emergency based on a cycle in which field data is transmitted from the sensor. When the disaster grows rapidly, the disaster emergency can be created as high, and when the disaster grows slowly, the disaster emergency can be created as low.

도 5는 일실시예에 따른 재난의 확산도를 생성하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of generating a spread of a disaster according to an embodiment.

도 5를 참조하면, 먼저, S501 단계에서 서버(200)는 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함되는지 여부를 판단할 수 있다. 여기서, 제1 범위는 미리 설정된 범위로 실시 예에 따라 달라질 수 있다.Referring to FIG. 5 , first, in step S501 , the server 200 may determine whether all sensors that transmit field data are included within a first range. Here, the first range is a preset range and may vary according to embodiments.

구체적으로, 서버(200)는 지역에 재난이 발생하였다고 확인되면, 지역에 포함된 센서 중 현장 데이터를 전송한 센서의 위치 데이터를 확인하여, 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함되었는지 여부를 판단할 수 있다. Specifically, when it is confirmed that a disaster has occurred in an area, the server 200 checks location data of sensors that have transmitted field data among sensors included in the area, and determines whether all sensors that have transmitted field data are included within the first range.

S501 단계에서 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함된다고 확인되면, S502 단계에서, 서버(200)는 재난의 확산도를 낮음으로 생성할 수 있다.When it is confirmed in step S501 that all sensors that have transmitted field data are included within the first range, in step S502, the server 200 may generate a low spread of the disaster.

구체적으로, 서버(200)는 지역에 재난이 발생하였다고 확인되면, 지역에 포함된 센서 중 현장 데이터를 전송한 센서의 위치 데이터를 확인하여, 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함되었는지 여부를 판단할 수 있고, 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함된다고 확인되면, 재난의 확산도를 낮음으로 생성할 수 있다.Specifically, when it is confirmed that a disaster has occurred in an area, the server 200 checks location data of sensors included in the area that have transmitted field data to determine whether all sensors that have transmitted field data are included within the first range. If it is confirmed that all sensors that have transmitted field data are included within the first range, the server 200 may generate a low spread of the disaster.

예를 들어, 제1 지역에 재난이 발생하였다고 확인되고, 제1 지역에 포함된 센서 중 제1 센서, 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 현장 데이터를 전송하였고, 제1 센서, 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 모두 제1 범위 이내에 포함된다고 확인될 경우, 서버(200)는 제1 지역에 포함된 센서 중 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함된다고 확인하여 재난의 확산도를 낮음으로 생성할 수 있다. For example, if it is confirmed that a disaster has occurred in the first area, and it is confirmed that the first, second, third, fourth, fifth, sixth, and seventh sensors among sensors included in the first area transmit field data, and the first sensor, second sensor, third sensor, fourth sensor, fifth sensor, sixth sensor, and seventh sensor are all included within the first range, the server 200 determines that all of the sensors included in the first area that have transmitted the field data fall within the first range. By confirming that it is within the range, the spread of the disaster can be created as low.

S501 단계에서 현장 데이터를 전송한 센서 중 적어도 하나 이상이 제1 범위 이내에 포함되지 않는다고 확인되면, S503 단계에서, 서버(200)는 현장 데이터를 전송한 센서가 모두 제2 범위 이내에 포함되는지 여부를 판단할 수 있다. 여기서, 제2 범위는 제1 범위를 포함하며 제1 범위보다 넓게 미리 설정된 범위로 실시 예에 따라 달라질 수 있다.If it is determined that at least one of the sensors that have transmitted the field data is not included within the first range in step S501, the server 200 may determine whether all of the sensors that have transmitted the field data are included within the second range in step S503. Here, the second range includes the first range and may vary according to embodiments as a preset range wider than the first range.

구체적으로, 서버(200)는 지역에 재난이 발생하였다고 확인되면, 지역에 포함된 센서 중 현장 데이터를 전송한 센서의 위치 데이터를 확인하여, 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함되었는지 여부를 판단할 수 있고, 현장 데이터를 전송한 센서 중 적어도 하나 이상이 제1 범위 이내에 포함되지 않는다고 확인되면, 현장 데이터를 전송한 센서가 모두 제1 범위보다 넓은 제2 범위 이내에 포함되는지 여부를 판단할 수 있다.Specifically, when it is confirmed that a disaster has occurred in an area, the server 200 may determine whether all sensors that transmit field data are included within a first range by checking location data of sensors included in the area that transmit field data, and if it is determined that at least one of the sensors that transmit field data is not included within the first range, it may determine whether all sensors that transmit field data are included within a second range wider than the first range.

예를 들어, 제1 지역에 재난이 발생하였다고 확인되고, 제1 지역에 포함된 센서 중 제1 센서, 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 현장 데이터를 전송하였고, 제1 센서, 제2 센서, 제3 센서가 제1 범위 이내에 포함되고, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 제1 범위 이내에 포함되지 않는다고 확인될 경우, 서버(200)는 현장 데이터를 전송한 센서 중 4개의 센서가 제1 범위 이내에 포함되지 않는 것을 확인하여 현장 데이터를 전송한 센서가 모두 제1 범위보다 넓은 제2 범위에 포함되는지 여부를 판단할 수 있다. For example, if it is confirmed that a disaster has occurred in the first area, and it is confirmed that the first sensor, the second sensor, the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the seventh sensor among the sensors included in the first area transmit field data, the first sensor, the second sensor, and the third sensor are included within the first range, and the fourth sensor, the fifth sensor, the sixth sensor, and the seventh sensor are not included within the first range, the server 200 transmits field data to four sensors. By confirming that is not included within the first range, it is possible to determine whether all sensors that have transmitted field data are included in the second range wider than the first range.

S503 단계에서 현장 데이터를 전송한 센서가 모두 제2 범위 이내에 포함된다고 확인되면, S504 단계에서, 서버(200)는 재난의 확산도를 보통으로 생성할 수 있다.When it is determined in step S503 that all sensors that have transmitted field data are included within the second range, in step S504, the server 200 may generate a normal spread of the disaster.

구체적으로, 서버(200)는 지역에 재난이 발생하였다고 확인되면, 지역에 포함된 센서 중 현장 데이터를 전송한 센서의 위치 데이터를 확인하여, 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함되었는지 여부를 판단할 수 있고, 현장 데이터를 전송한 센서 중 적어도 하나 이상이 제1 범위 이내에 포함되지 않는다고 확인되면, 현장 데이터를 전송한 센서가 모두 제1 범위보다 넓은 제2 범위 이내에 포함되는지 여부를 판단할 수 있고, 현장 데이터를 전송한 센서가 모두 제2 범위 이내에 포함된다고 확인되면, 재난의 확산도를 보통으로 생성할 수 있다.Specifically, when it is confirmed that a disaster has occurred in an area, the server 200 may determine whether all sensors that transmit field data are included within the first range by checking location data of sensors included in the area that transmit field data, and if it is determined that at least one sensor that transmits field data is not included within the first range, it may determine whether all sensors that transmit field data are included within a second range wider than the first range, and if it is determined that all sensors that transmit field data are included within the second range, , can generate normal spread of disaster.

예를 들어, 제1 지역에 재난이 발생하였다고 확인되고, 제1 지역에 포함된 센서 중 제1 센서, 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 현장 데이터를 전송하였고, 제1 센서, 제2 센서, 제3 센서가 제1 범위 이내에 포함되고, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 제1 범위 이내에 포함되지 않지만 제2 범위에 포함된다고 확인될 경우, 서버(200)는 현장 데이터를 전송한 센서 중 4개의 센서가 제1 범위 이내에 포함되지 않지만, 4개의 센서가 제2 범위에는 포함되는 것을 확인하여 재난의 확산도를 보통으로 생성할 수 있다. For example, when it is confirmed that a disaster has occurred in the first region, and among the sensors included in the first region, the first sensor, the second sensor, the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the seventh sensor transmit field data, the first sensor, the second sensor, and the third sensor are included within the first range, and the fourth sensor, fifth sensor, sixth sensor, and seventh sensor are not included within the first range but are included in the second range. Although four of the sensors are not included within the first range, it is confirmed that the four sensors are included in the second range, so that the spread of the disaster may be normal.

S503 단계에서 현장 데이터를 전송한 센서 중 적어도 하나 이상이 제2 범위 이내에 포함되지 않는다고 확인되면, S505 단계에서, 서버(200)는 재난의 확산도를 높음으로 생성할 수 있다.If it is determined in step S503 that at least one of the sensors that have transmitted field data is not included within the second range, in step S505, the server 200 may generate a high degree of spread of the disaster.

구체적으로, 서버(200)는 지역에 재난이 발생하였다고 확인되면, 지역에 포함된 센서 중 현장 데이터를 전송한 센서의 위치 데이터를 확인하여, 현장 데이터를 전송한 센서가 모두 제1 범위 이내에 포함되었는지 여부를 판단할 수 있고, 현장 데이터를 전송한 센서 중 적어도 하나 이상이 제1 범위 이내에 포함되지 않는다고 확인되면, 현장 데이터를 전송한 센서가 모두 제1 범위보다 넓은 제2 범위 이내에 포함되는지 여부를 판단할 수 있고, 현장 데이터를 전송한 센서 중 적어도 하나 이상이 제2 범위 이내에 포함되지 않는다고 확인되면, 재난의 확산도를 높음으로 생성할 수 있다.Specifically, if it is confirmed that a disaster has occurred in the area, the server 200 may determine whether all sensors that have transmitted the field data are included within the first range by checking location data of sensors included in the area that have transmitted field data, and if it is determined that at least one or more of the sensors that have transmitted the field data are not included within the first range, it may determine whether all of the sensors that have transmitted the field data are included within the second range wider than the first range, and at least one of the sensors that have transmitted the field data is not included within the second range. If it is confirmed that it is not, the spread of the disaster can be created as high.

예를 들어, 제1 지역에 재난이 발생하였다고 확인되고, 제1 지역에 포함된 센서 중 제1 센서, 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서 및 제7 센서가 현장 데이터를 전송하였고, 제1 센서, 제2 센서, 제3 센서가 제1 범위 이내에 포함되고, 제4 센서, 제5 센서가 제1 범위 이내에 포함되지 않지만 제2 범위 이내에 포함되고, 제6 센서 및 제7 센서가 제2 범위 이내에 포함되지 않는다고 확인될 경우, 서버(200)는 현장 데이터를 전송한 센서 중 4개의 센서가 제1 범위 이내에 포함되지 않고, 4개의 센서 중 2개의 센서는 제2 범위 이내에도 포함되지 않는 것을 확인하여 재난의 확산도를 높음으로 생성할 수 있다.For example, if it is confirmed that a disaster has occurred in the first region, and among the sensors included in the first region, the first sensor, the second sensor, the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the seventh sensor transmit field data, the first sensor, the second sensor, and the third sensor are included within the first range, the fourth sensor and the fifth sensor are not included within the first range but are included within the second range, and the sixth sensor and the seventh sensor are not included within the second range. 0) confirms that 4 of the sensors that transmitted field data are not included within the first range, and 2 of the 4 sensors are not included within the second range, so that the spread of the disaster is high. Can be generated.

이로 인해, 서버(200)는 지역에 포함된 센서 중 현장 데이터를 전송한 센서의 위치 데이터를 확인하여 현장 데이터를 전송한 센서의 범위를 통해 재난이 확산되었는지 확인할 수 있다.For this reason, the server 200 may check location data of a sensor that has transmitted field data among sensors included in the region to determine whether a disaster has spread through the range of the sensor that has transmitted field data.

도 6은 일실시예에 따른 재난 발생을 예측하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of predicting occurrence of a disaster according to an embodiment.

도 6을 참조하면, 먼저 S601 단계에서, 서버(200)는 재난이 발생하기 전 미리 설정된 시간 동안 획득된 현장 데이터를 기초로, 센서 값 변화 정보를 생성할 수 있다. 여기서, 미리 설정된 시간은 재난이 발생할 수 있는 유의미한 기준 값이 측정된 시점부터 재난이 발생하였다고 확인된 시점까지일 수 있다. 이때, 유의미한 기준 값은 실시 예에 따라 다를 수 있으며, 기준 값은 인공신경망을 통해 생성된 재난 발생 패턴에 의해 변경될 수 있다.Referring to FIG. 6 , first, in step S601 , the server 200 may generate sensor value change information based on field data obtained for a preset time before a disaster occurs. Here, the preset time may be from the time when a meaningful reference value capable of causing a disaster is measured to the time when it is confirmed that a disaster has occurred. In this case, a meaningful reference value may be different according to an embodiment, and the reference value may be changed according to a disaster occurrence pattern generated through an artificial neural network.

구체적으로, 서버(200)는 재난이 발생할 수 있는 유의미한 기준 값이 측정된 시점부터 재난이 발생하였다고 확인된 시점까지인 미리 설정된 시간 동안 센서(110)를 통해 획득된 현장 데이터를 기초로, 센서 값 변화 정보를 생성할 수 있다.Specifically, the server 200 may generate sensor value change information based on field data obtained through the sensor 110 for a preset time from the time when a meaningful reference value at which a disaster may occur is measured to the time when it is confirmed that a disaster has occurred.

예를 들어, 제1 시점에 재난이 발생할 수 있는 유의미한 기준 값이 측정되었고, 제2 시점에 재난이 발생한 것을 확인한 경우, 서버(200)는 제1 시점에서부터 제2 시점까지의 시간동안 획득된 현장 데이터를 확인할 수 있고, 제1 시점에서부터 제2 시점까지의 시간동안 획득된 현장 데이터를 기초로, 센서 값 변화 정보를 생성할 수 있다.For example, when a meaningful reference value that can cause a disaster is measured at a first time point and it is confirmed that a disaster has occurred at a second time point, the server 200 may check field data acquired during the time from the first time point to the second time point, and generate sensor value change information based on the field data obtained during the time from the first time point to the second time point.

S602 단계에서, 서버(200)는 재난이 발생하기 전 미리 설정된 시간 동안 촬영된 이미지 데이터를 기초로, 이미지 변화 정보를 생성할 수 있다. In step S602, the server 200 may generate image change information based on image data captured for a preset time before a disaster occurs.

구체적으로, 서버(200)는 재난이 발생할 수 있는 유의미한 기준 값이 측정된 시점부터 재난이 발생하였다고 확인된 시점까지인 미리 설정된 시간 동안 센서(110)를 통해 획득된 현장 데이터를 기초로, 센서 값 변화 정보를 생성할 수 있고, 재난이 발생할 수 있는 유의미한 기준 값이 측정된 시점부터 재난이 발생하였다고 확인된 시점까지인 미리 설정된 시간 동안 카메라(120)를 통해 촬영된 이미지 데이터를 기초로, 이미지 변화 정보를 생성할 수 있다. 이때, 카메라(120)는 이미지 데이터를 미리 설정된 주기마다 계속하여 촬영할 수 있으며, 촬영된 이미지를 카메라 데이터베이스에 저장할 수 있다. 또한, 서버(200)는 카메라 및 카메라 데이터베이스와 유무선으로 통신하여 카메라 데이터베이스로부터 저장된 이미지 데이터를 획득할 수 있다.Specifically, the server 200 may generate sensor value change information based on field data acquired through the sensor 110 for a preset time, from the time when a meaningful reference value at which a disaster may occur is measured to the time when a disaster is confirmed to have occurred, and may generate image change information based on image data captured through the camera 120 for a preset time from the time when a meaningful reference value at which a disaster may occur is measured to the time when it is confirmed that a disaster has occurred. In this case, the camera 120 may continuously capture image data at preset intervals, and may store the captured images in a camera database. In addition, the server 200 may obtain stored image data from the camera database by communicating with the camera and the camera database through wired/wireless communication.

예를 들어, 제1 시점에 재난이 발생할 수 있는 유의미한 기준 값이 측정되었고, 제2 시점에 재난이 발생한 것을 확인한 경우, 서버(200)는 카메라 데이터베이스로부터 제1 시점에서부터 제2 시점까지의 시간동안 촬영된 이미지 데이터를 획득할 수 있고, 제1 시점에서부터 제2 시점까지의 시간동안 촬영된 이미지 데이터를 기초로, 이미지 변화 정보를 생성할 수 있다.For example, when a meaningful reference value at which a disaster may occur is measured at a first time point and it is confirmed that a disaster occurs at a second time point, the server 200 may obtain image data taken during the time from the first time point to the second time point from the camera database, and generate image change information based on the image data taken during the time from the first time point to the second time point.

S603 단계에서, 서버(200)는 센서 값 변화 정보 및 이미지 변화 정보를 기초로, 입력 신호를 생성할 수 있다.In step S603, the server 200 may generate an input signal based on the sensor value change information and the image change information.

구체적으로, 서버(200)는 생성된 센서 값 변화 정보 및 이미지 변화 정보를 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 센서 값 변화 정보, 및 이미지 변화 정보는 인공신경망의 입력으로 그대로 사용하거나, 불필요한 정보 및 노이즈를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.Specifically, the server 200 may perform a process of pre-processing the generated sensor value change information and image change information. The pre-processed sensor value change information and image change information may be used as inputs to an artificial neural network, or may be generated through normal processing to remove unnecessary information and noise.

S604 단계에서, 서버(200)는 입력 신호를 인공신경망에 적용하여 출력 신호를 획득할 수 있다.In step S604, the server 200 may obtain an output signal by applying the input signal to the artificial neural network.

여기서, 인공신경망은 센서 값 변화 정보 및 이미지 변화 정보를 입력으로 받아, 재난 발생 패턴을 출력하는 알고리즘일 수 있다.Here, the artificial neural network may be an algorithm that receives sensor value change information and image change information as inputs and outputs a disaster occurrence pattern.

즉, 인공신경망은 센서 값 변화 정보 및 이미지 변화 정보를 고려하여, 재난이 발생하기 전 어떠한 패턴인지 재난 발생 패턴을 출력할 수 있다.That is, the artificial neural network may output a disaster occurrence pattern, which pattern is before a disaster occurs, in consideration of sensor value change information and image change information.

인공신경망의 학습이 이루어지는 학습 장치는 학습된 인공신경망을 이용하여 재난 발생 패턴을 생성하는 서버(200)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. The learning device in which the learning of the artificial neural network is performed may be the same device as the server 200 that generates the disaster occurrence pattern using the learned artificial neural network, or may be a separate device.

학습 장치는 인공신경망에 입력을 적용할 수 있다. 인공신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 제1 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.The learning device may apply the input to the artificial neural network. The artificial neural network may be an artificial neural network that is learned according to reinforcement learning. The first artificial neural network may be a Q-Network, a Depp Q-Network (DQN), or a relational network (RL) structure suitable for outputting abstract inference through reinforcement learning.

강화 학습에 따라 학습되는 제1 인공신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 센서 값 변화 정보에 따라 적합한 재난 발생 패턴을 출력할수록 보상 값이 높아질 수 있고, 제2 보상은 이미지 변화 정보에 따라 적합한 재난 발생 패턴을 출력할수록 보상 값이 높아질 수 있고, 제3 보상은 센서 값 변화 정보에 따라 적합하지 않은 재난 발생 패턴을 출력하지 않을수록 보상 값이 높아질 수 있고, 제4 보상은 이미지 변화 정보에 따라 적합하지 않은 재난 발생 패턴을 출력하지 않을수록 보상 값이 높아질 수 있다.The first artificial neural network learned through reinforcement learning may be updated and optimized by reflecting evaluations on various rewards. For example, in the first compensation, the compensation value may increase as a suitable disaster occurrence pattern is output according to the sensor value change information, in the second compensation, the compensation value may increase as a suitable disaster occurrence pattern is output according to the image change information, in the third compensation, the compensation value may increase as an unsuitable disaster occurrence pattern is not output according to the sensor value change information, and in the fourth compensation, the compensation value may increase as an inappropriate disaster occurrence pattern is not output according to the image change information.

학습 장치는 인공신경망으로부터 출력을 획득할 수 있다. 인공신경망의 출력은, 센서 값 변화 정보 및 이미지 변화 정보에 따른 재난 발생 패턴일 수 있다. 이때, 인공신경망은 센서 값 변화 정보 및 이미지 변화 정보를 고려하여, 재난이 발생하기 전 어떠한 패턴인지에 대한 재난 발생 패턴을 분석하여, 재난 발생 패턴을 출력할 수 있다.The learning device may obtain an output from the artificial neural network. An output of the artificial neural network may be a disaster occurrence pattern according to sensor value change information and image change information. At this time, the artificial neural network may analyze the disaster occurrence pattern of what pattern it is before a disaster occurs in consideration of the sensor value change information and the image change information, and output the disaster occurrence pattern.

학습 장치는 인공신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상, 제3 보상 및 제4 보상 등으로 나뉠 수 있다.The learning device may evaluate the output of the artificial neural network and provide a reward. At this time, the evaluation of the output may be divided into first compensation, second compensation, third compensation, and fourth compensation.

구체적으로, 학습 장치는 센서 값 변화 정보에 따라 적합한 재난 발생 패턴을 출력하면 제1 보상을 많이 수여하고, 이미지 변화 정보에 따라 적합한 재난 발생 패턴을 출력하면 제2 보상을 많이 수여하고, 센서 값 변화 정보에 따라 적합하지 않은 재난 발생 패턴을 출력하지 않으면 제3 보상을 많이 수여하고, 이미지 변화 정보에 따라 적합하지 않은 재난 발생 패턴을 출력하지 않으면 제4 보상을 많이 수여할 수 있다.Specifically, the learning device may award many first rewards if an appropriate disaster occurrence pattern is output according to the sensor value change information, award a second reward if an appropriate disaster occurrence pattern is output according to the image change information, award many third rewards if an unsuitable disaster occurrence pattern is not output according to the sensor value change information, and award a fourth reward if an inappropriate disaster occurrence pattern is not output according to the image change information.

학습 장치는 평가를 기초로 인공신경망을 갱신할 수 있다.The learning device may update the artificial neural network based on the evaluation.

구체적으로, 학습 장치는 인공신경망이, 센서 값 변화 정보 및 이미지 변화 정보를 고려하여, 재난 발생 패턴에 대한 정보를 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 인공신경망을 갱신할 수 있다.Specifically, the learning device may update the artificial neural network through a process of optimizing a policy for determining actions to be taken in specific states so that the expected value of the sum of reward values is maximized in an environment in which the artificial neural network analyzes information on a disaster occurrence pattern in consideration of sensor value change information and image change information.

한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.Meanwhile, the process of optimizing the policy may be performed through a process of estimating the maximum value of the expected value of the sum of rewards or the maximum value of the Q-function, or estimating the minimum value of the loss function of the Q-function. Estimation of the minimum value of the loss function may be performed through stochastic gradient descent (SGD) or the like. The process of optimizing the policy is not limited thereto, and various optimization algorithms used in reinforcement learning may be used.

학습 장치는 상술한 인공신경망의 학습 과정을 반복함으로써, 인공신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 학습 장치는 센서 값 변화 정보 및 이미지 변화 정보를 고려하여, 재난 발생 패턴을 출력하는 인공신경망을 학습시킬 수 있다.The learning device may gradually update the artificial neural network by repeating the above-described learning process of the artificial neural network. Through this, the learning device may learn an artificial neural network that outputs a disaster occurrence pattern in consideration of sensor value change information and image change information.

즉, 학습 장치는 센서 값 변화 정보 및 이미지 변화 정보를 고려하여, 재난이 발생하기 전 어떠한 패턴인지에 대한 재난 발생 패턴을 출력할 때, 제1 보상, 제2 보상, 제3 보상, 제4 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 인공신경망을 학습시킬 수 있다.That is, when the learning device outputs a disaster occurrence pattern of what pattern it is before a disaster occurs, in consideration of sensor value change information and image change information, the artificial neural network can be learned by reflecting reinforcement learning through the first compensation, the second compensation, the third compensation, and the fourth compensation and adjusting the analysis criteria.

S605 단계에서, 서버(200)는 출력 신호를 기초로, 재난 발생 패턴을 확인할 수 있다.In step S605, the server 200 may check a disaster occurrence pattern based on the output signal.

S606 단계에서, 서버(200)는 센서(110)로부터 획득한 현장 데이터 또는 카메라(120)를 통해 획득한 이미지 데이터를 재난 발생 패턴과 비교하여 일치하는 패턴이 존재하는지 여부를 판단할 수 있다.In step S606, the server 200 may compare field data obtained from the sensor 110 or image data acquired through the camera 120 with a disaster occurrence pattern to determine whether a matching pattern exists.

구체적으로, 서버(200)는 센서(110)로부터 수신된 현장 데이터들과 재난 발생 패턴을 비교하여 일치하는 패턴이 존재하는지 여부를 판단할 수 있고, 서버(200)는 재난 발생 패턴과 일치하는 패턴이 존재하는지 확인하기 위해 카메라(120)로부터 미리 설정된 주기마다 이미지 데이터를 수신할 수 있고, 수신한 이미지 데이터들을 재난 발생 패턴과 비교하여 일치하는 패턴이 존재하는지 여부를 판단할 수 있다.Specifically, the server 200 may compare the field data received from the sensor 110 with the disaster occurrence pattern to determine whether a matching pattern exists, and the server 200 may receive image data from the camera 120 at predetermined intervals to check whether a pattern matching the disaster occurrence pattern exists, and compare the received image data with the disaster occurrence pattern to determine whether a matching pattern exists.

S607 단계에서, 서버(200)는 재난 발생 패턴과 일치하는 패턴이 존재한다고 확인되면, 센서(110)로부터 수신된 현장 데이터의 변화를 추적하고, 해당 지역에 위치한 사용자의 단말(330)로 재난 예방 대응을 요청하는 메시지를 전송할 수 있다.In step S607, if it is confirmed that there is a pattern matching the disaster occurrence pattern, the server 200 tracks the change in the field data received from the sensor 110, and sends a message requesting response to disaster prevention to the terminal 330 of the user located in the corresponding area.

구체적으로 서버(200)는 센서로부터 획득한 신호들 또는 카메라로부터 획득한 이미지들을 기초로. 재난 발생 패턴과 일치하는 패턴이 존재한다고 확인되면, 재난이 발생할 것을 예상하여 센서(110)로부터 수신된 현장 데이터의 변화를 추적할 수 있으며, 해당 지역에 위치한 사용자의 단말(330)을 인식하여 사용자의 단말(330)로부터 재난 예방 대응을 요청하는 메시지를 전송할 수 있다. 여기서, 재난 예방 대응을 요청하는 메시지는 대피하라는 메시지일 수도 있고, 가스 밸브를 포함하여 전기를 차단하라는 메시지일 수도 있으며, 그 외의 메시지일 수도 있다.Specifically, the server 200 based on signals obtained from sensors or images obtained from cameras. If it is confirmed that there is a pattern matching the disaster occurrence pattern, it is possible to track changes in field data received from the sensor 110 in anticipation of a disaster, and to recognize the user's terminal 330 located in the corresponding area. From the user's terminal 330, a message requesting disaster prevention response can be transmitted. Here, the message requesting response to disaster prevention may be a message to evacuate, a message to cut off electricity including a gas valve, or other messages.

이로 인해, 서버(200)는 재난 발생 패턴을 파악하여 재난을 예측할 수 있는 효과가 있다.Due to this, the server 200 has an effect of predicting a disaster by grasping a disaster occurrence pattern.

도 7은 일실시예에 따른 안전 관리자에게 경로를 제공하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of providing a path to a safety manager according to an embodiment.

도 7을 참조하면, 먼저, S701 단계에서, 서버(200)는 안전 관리자의 단말(310)로부터 안전 관리자의 현재 위치를 획득할 수 있다.Referring to FIG. 7 , first, in step S701, the server 200 may obtain the current location of the safety manager from the terminal 310 of the safety manager.

S702 단계에서, 서버(200)는 지역의 정보를 기초로, 지역의 위치를 획득할 수 있다.In step S702, the server 200 may obtain a location of the region based on the information of the region.

구체적으로, 데이터베이스에 포함된 지역의 정보에는 지역의 위치가 포함될 수 있으며, 서버(200)는 데이터베이스를 통해 지역의 위치를 확인할 수 있다.In detail, the region information included in the database may include the location of the region, and the server 200 may check the location of the region through the database.

S703 단계에서, 서버(200)는 안전 관리자의 현재 위치와 지역의 위치를 이용하여 실시간 네비게이션 데이터베이스를 통해 제1 경로 정보를 생성할 수 있다. 여기서, 실시간 네비게이션 데이터베이스는 지도 데이터베이스와 실시간 교통상황이 포함된 실시간 네비게이션 데이터베이스일 수 있으며, 현재 상용화된 티맵이나 카카오 내비와 같은 실시간 네비게이션 데이터베이스일 수 있다. 서버(200)는 실시간 네비게이션 데이터베이스와 유무선으로 통신할 수 있다.In step S703, the server 200 may generate first route information through a real-time navigation database using the current location of the safety manager and the location of the area. Here, the real-time navigation database may be a real-time navigation database including a map database and real-time traffic conditions, or a real-time navigation database such as currently commercialized T-map or Kakao Navi. The server 200 may communicate with the real-time navigation database by wire or wireless.

구체적으로, 서버(200)는 안전 관리자의 현재 위치와 지역의 위치를 이용하여 실시간 네비게이션 데이터베이스를 통해 제1 경로 정보를 생성할 수 있다.Specifically, the server 200 may generate first route information through a real-time navigation database using the current location of the safety manager and the location of the region.

S704 단계에서, 서버(200)는 지역에 위치한 센서의 센서 값이 목표 값보다 높은 센서들의 분포 정도를 생성할 수 있다. 여기서, 목표 값은 미리 설정된 값으로 실시 예에 따라 달라질 수 있다.In step S704, the server 200 may generate a distribution degree of sensors located in the area where the sensor values are higher than the target value. Here, the target value is a preset value and may vary according to embodiments.

구체적으로, 서버(200)는 지역에 위치한 센서의 센서 값을 확인하여, 목표 값보다 높은 센서 값을 갖는 센서의 위치를 파악하여 분포 정도를 생성할 수 있다. In detail, the server 200 may check the sensor values of sensors located in the area, determine the location of the sensor having a higher sensor value than the target value, and generate the degree of distribution.

S705 단계에서, 서버(200)는 생성된 분포 정도를 이용하여 제1 경로 정보를 제2 경로 정보로 수정할 수 있다.In step S705, the server 200 may modify the first route information into second route information using the generated distribution level.

구체적으로, 서버(200)는 생성된 분포 정도를 이용하여 제1 경로 정보에 센서 값이 목표 값보다 큰 센서가 임계 개수보다 많은 위치가 포함되어 있다고 확인되면, 서버(200)는 해당 위치를 회피하는 제2 경로 정보를 생성할 수 있다.Specifically, if the server 200 determines that the first route information includes more than a threshold number of sensors having a sensor value greater than the target value in the first route information using the generated distribution, the server 200 may generate second route information avoiding the corresponding location.

S706 단계에서, 서버(200)는 제2 경로 정보를 안전 관리자의 단말(310)로 전송할 수 있다.In step S706, the server 200 may transmit second path information to the terminal 310 of the safety manager.

구체적으로, 서버(200)는 제1 경로 정보에 센서 값이 목표 값보다 큰 센서가 임계 개수보다 많은 위치가 포함되어 있다고 확인되면, 해당 위치를 회피하는 제2 경로 정보를 생성할 수 있고, 생성된 제2 경로 정보를 안전 관리자의 단말(310)로 전송할 수 있다.Specifically, if the server 200 determines that the first route information includes more than a threshold number of locations where the sensor value is greater than the target value, the server 200 may generate second route information for avoiding the corresponding location, and transmit the generated second route information to the terminal 310 of the safety manager.

한편, 서버(200)는 센서 값이 목표 값보다 큰 센서가 임계 개수보다 많은 위치를 표시하는 맵 데이터를 생성할 수 있으며, 생성된 맵 데이터를 사용자의 단말(330)과 공유할 수 있다. 여기서, 사용자의 단말은 현장 데이터를 전송한 센서와 미리 설정된 거리 이내에 포함되어 서버(200)로부터 인식된 단말일 수 있다.Meanwhile, the server 200 may generate map data indicating locations in which sensors having a sensor value greater than a target value are greater than a threshold number, and may share the generated map data with the user's terminal 330 . Here, the user's terminal may be a terminal recognized by the server 200 included within a preset distance from a sensor that transmits field data.

이로 인해, 서버(200)는 안전 관리자의 단말로 센서 값이 목표 값보다 큰 센서가 임계 개수보다 많은 위치를 회피하는 제2 경로 정보를 제공함으로써 안전 관리자가 더 신속하고 안전하게 재난이 발생한 지역에 도착하여 피해 복구를 수행할 수 있도록 하는 효과가 있다.For this reason, the server 200 provides the safety manager's terminal with second route information in which a sensor whose sensor value is greater than the target value avoids more than a threshold number of locations, thereby enabling the safety manager to more quickly and safely arrive at an area where a disaster has occurred and perform damage recovery.

도 8은 일실시예에 따른 열화상 카메라를 기반으로 한 화재 발생 위험 여부를 판단하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of determining whether there is a risk of fire based on a thermal imaging camera according to an exemplary embodiment.

구체적으로, 서버(200)는 지역에 설치된 열화상 카메라와 유무선으로 통신하고, 열화상 카메라를 제어 및 열화상 카메라로부터 열화상 영상을 수신할 수 있으며, 이때, 열화상 카메라는, 적외선을 기반으로 촬영 대상 공간의 온도를 소정의 색상(고온 영역이 적색/황색, 저온 영역이 자색, 중앙 영역이 청녹색)으로 표기하는 카메라일 수 있다. 이 때, 상기 적외선 측정/촬영 범위는 780nm 내지 14㎛일 수 있다.Specifically, the server 200 may communicate with a thermal imaging camera installed in a region by wire or wirelessly, control the thermal imaging camera, and receive a thermal image from the thermal imaging camera. At this time, the thermal imaging camera may be a camera that displays the temperature of a space to be captured in a predetermined color (red/yellow for a high-temperature region, purple for a low-temperature region, and blue-green for a central region) based on infrared rays. In this case, the infrared measurement/photography range may be 780 nm to 14 μm.

이어서, 열화상 영상을 기반으로 화재 발생 위험 여부를 판단하는 단계의 세부 단계들을 설명한다.Next, detailed steps of determining whether there is a risk of fire based on the thermal image will be described.

도 8을 참조하면, 먼저, S801 단계에서, 서버(200)는 제1 열화상 영상의 제1 시점에서 제1 이미지를 추출할 수 있다.Referring to FIG. 8 , first, in step S801, the server 200 may extract a first image from a first viewpoint of a first thermal image.

구체적으로, 서버(200)는 지역에 설치된 열화상 카메라를 통해 지역의 제1 열화상 영상이 촬영되도록 제어할 수 있고, 제1 열화상 영상을 실시간으로 수신하여 시간에 따라 측정된 제1 열화상 영상(동영상)의 어느 한 시점(제1 시점)에서의 이미지인 제1 이미지를 캡쳐하여 정지 화상인 이미지로써 추출할 수 있다.Specifically, the server 200 may control a first thermal image of the region to be captured through a thermal imaging camera installed in the region, receive the first thermal image in real time, capture the first image, which is an image at any one time point (first time point) of the first thermal image (video) measured according to time, and extract the image as a still image.

S802 단계에서, 서버(200)는 상기 제1 열화상 영상의 제1 시점으로부터 소정의 시간이 경과한 제2 시점에서 제2 이미지를 추출할 수 있다.In step S802, the server 200 may extract a second image at a second viewpoint after a predetermined time has elapsed from the first viewpoint of the first thermal image.

구체적으로, 서버(200)는 제1 시점보다 더 뒤의 시점인 제2 시점에서, 제1 이미지를 추출하는 방식과 동일한 방식으로 제2 이미지를 추출할 수 있다. Specifically, the server 200 may extract the second image at a second point of view that is later than the first point of view in the same manner as the method of extracting the first image.

이 때, 제1 시점과 제2 시점 사이에서 제1 열화상 카메라의 촬영범위는 조절되지 않도록 고정될 수 있으며, 다시말해, 제1 이미지 및 제2 이미지는 온도가 나타난 색상 이외의 모든 형상이 동일하게 표기된다.In this case, the shooting range of the first thermal imaging camera may be fixed so as not to be adjusted between the first viewpoint and the second viewpoint. In other words, the first image and the second image are identically displayed in all shapes other than the color in which the temperature appears.

S803 단계에서, 서버(200)는 제2 이미지로부터, 상기 제2 이미지에서 나타나는 최저 온도부터 최고 온도까지의 색상 스펙트럼을 생성할 수 있다.In step S803, the server 200 may generate a color spectrum from the second image from the lowest temperature to the highest temperature appearing in the second image.

구체적으로, 서버(200)는 제2 이미지에서 나타나는 온도 색상을 기반으로, 가장 낮은 온도의 색상인 보라색으로부터 가장 높은 온도의 색상인 빨간색까지 색상 변화가 연속되는 색상 스펙트럼 막대를 생성할 수 있다.Specifically, the server 200 may generate a color spectrum bar in which the color changes continuously from purple, which is the lowest temperature color, to red, which is the highest temperature color, based on the temperature color appearing in the second image.

상기와 같이 생성된 색상 스펙트럼이 도 9 (a)에 도시되어 있다.The color spectrum generated as described above is shown in FIG. 9(a).

S804 단계에서, 서버(200)는 색상 스펙트럼을 기반으로, 제2 이미지에서 나타나는 최저 온도부터 최고 온도까지의 색상을 적어도 5개 이상의 등급으로 구분할 수 있다.In step S804, the server 200 may classify colors from the lowest temperature to the highest temperature appearing in the second image into at least five grades based on the color spectrum.

구체적으로, 서버(200)는 색상 변화가 '연속되는' 색상 스펙트럼 막대를 상기 등급의 개수만큼의 색상으로 변환할 수 있다.Specifically, the server 200 may convert color spectrum bars of 'continuous' color changes into as many colors as the number of levels.

도 9 (b)에는 상기 도 9 (a)를 5개의 등급으로 구분한 형태의 스펙트럼 막대가 도시되어 있다.FIG. 9 (b) shows spectrum bars in the form of dividing the FIG. 9 (a) into five levels.

S805 단계에서, 서버(200)는 등급을 기반으로, 제1 이미지 및 제2 이미지에 나타나는 제1 색상(C1)들을 각 등급에 따라 제2 색상(C2)으로 변환할 수 있다.In step S805, the server 200 may convert the first color C1 appearing in the first image and the second image into a second color C2 according to each grade based on the rank.

구체적으로 서버(200)는 제1 이미지 및 제2 이미지에 나타난 빨-주-노-초-파-남-보 등 다양한 색상들을 등급별 색상으로 변환할 수 있다. 따라서, 변환된 최종 제1 이미지 및 제2 이미지에서는 총 5개(상기 등급의 개수만큼)의 색상만이 표기될 수 있다.Specifically, the server 200 may convert various colors such as red-week-yellow-second-blue-south-violet appearing in the first image and the second image into colors for each grade. Therefore, only a total of 5 colors (as many as the number of the ratings) may be displayed in the converted final first image and second image.

S806 단계에서, 서버(200)는 제2 색상(C2)들이 제1 이미지 내에서 나타나는 제1 픽셀 수들을 각 제2 색상(C2)마다 카운트할 수 있다.In step S806, the server 200 may count the number of first pixels in which the second colors C2 appear in the first image for each second color C2.

S807 단계에서, 서버(200)는 제2 색상(C2)들이 제2 이미지 내에서 나타나는 제2 픽셀 수들을 각 제2 색상(C2)마다 카운트할 수 있다. In step S807, the server 200 may count the number of second pixels in which the second colors C2 appear in the second image for each second color C2.

S808 단계에서, 서버(200)는 제1 이미지의 총 픽셀 수인 제3 픽셀 수를 카운트할 수 있다.In step S808, the server 200 may count the number of third pixels that is the total number of pixels of the first image.

구체적으로, 서버(200)는 제1 이미지 및 제2 이미지를 구성하는 픽셀(Pixel) 수를 카운트할 수 있다.Specifically, the server 200 may count the number of pixels constituting the first image and the second image.

예를 들어, 제1 이미지 및 제2 이미지의 크기가 '1080*760'이라면, 서버(200)는 제3 픽셀 수로 '1080*760 = 820,800'개를 카운트할 수 있다.For example, if the sizes of the first image and the second image are '1080*760', the server 200 may count '1080*760 = 820,800' as the third pixel number.

여기서, 제1 픽셀 수 및 제2 픽셀 수는 아래 표 1과 같이 카운트될 수 있다.Here, the first pixel number and the second pixel number may be counted as shown in Table 1 below.

제2 색상(등급)Secondary Color (Rating) 1One 22 33 44 55 계(제3 픽셀 수)Total (number of third pixels) 제1 픽셀 수first number of pixels 205167205167 246130246130 246129246129 8193281932 4144241442 820800820800 제2 픽셀 수Second number of pixels 123481123481 123013123013 205121205121 205025205025 164160164160 820800820800

상기 표 1에서, 등급이 높을수록(1에서 5로 갈수록) 높은 온도를 나타내는 색상(빨간색)을 의미할 수 있다. 예를 들어, 도 9 (b)의 예시에서, 보라색이 1등급, 청록색이 2등급, 초록색이 3등급, 노란색이 4등급, 빨간색이 5등급을 나타낼 수 있다.S809 단계에서, 서버(200)는 [제1 픽셀 수 / 제3 픽셀 수 = 제1 비율] 및 [제2 픽셀 수 / 제3 픽셀 수 = 제2 비율]을 상기 각 제2 색상마다 산출할 수 있다.In Table 1, a higher grade (from 1 to 5) may mean a color (red) representing a higher temperature. For example, in the example of FIG. 9 (b), purple may indicate a first grade, cyan a second grade, green a third grade, yellow a fourth grade, and red a fifth grade. In step S809, the server 200 may calculate [the number of first pixels / the number of third pixels = a first ratio] and [the number of second pixels / the number of third pixels = a second ratio] for each second color.

즉, 서버(200)는 제1 이미지 및 제2 이미지 각각에서 각 제2 색상들이 얼마만큼의 비율을 차지하는지를 산출할 수 있다.That is, the server 200 may calculate how much each second color occupies in each of the first image and the second image.

상기 표 1의 예시에 따라 제1 비율 및 제2 비율을 산출한 예시는 표 2와 같다.An example of calculating the first ratio and the second ratio according to the example of Table 1 is shown in Table 2.

등급(제2 색상)Grade (Second Color) 1One 22 33 44 55 total 제1 비율first rate 0.249960.24996 0.2998660.299866 0.2998650.299865 0.099820.09982 0.050490.05049 1One 제2 비율second rate 0.150440.15044 0.149870.14987 0.2499040.249904 0.2497870.249787 0.20.2 1One

상기 표 2에서와 같이, 제1 비율들의 합 및 제2 비율들의 합은 각각 1이 된다.S810 단계에서, 서버(200)는 제2 색상(C2) 중, 적어도 네 등급 이상 차이나는 제2 색상(C2)들의 조합인 점검군을 적어도 하나 추출할 수 있다.As shown in Table 2, the sum of the first ratios and the sum of the second ratios each become 1. In step S810, the server 200 may extract at least one check group that is a combination of second colors C2 that differ by at least four degrees or more from among the second colors C2.

즉, 서버(200)는 등급이 네 등급 이상 차이나는 제2 색상(C2)들의 조합을 추출할 수 있다.That is, the server 200 may extract a combination of second colors C2 whose grades differ by four or more grades.

상기 표 2의 예시에서는, 등급이 1에서 5까지 5단계이므로 상기 점검군은 1등급 및 5등급의 한 쌍만이 추출될 수 있다.In the example of Table 2, since the grades are 5 steps from 1 to 5, only one pair of grades 1 and 5 can be extracted from the inspection group.

다른 예시로, 등급이 1에서 6까지 6단계인 경우에는 여섯 개 중 두 개를 추출하는 6C2의 조합 중 등급이 네 등급 이상 차이나는 조합인 3개[(1, 5), (1, 6), (2, 6)]가 점검군으로 추출될 수 있다.As another example, if the ratings are 6 steps from 1 to 6, three combinations [(1, 5), (1, 6), (2, 6)], which are combinations whose grades differ by more than four grades among the combinations of 6C2 that extract two out of six, can be extracted as a check group.

S811 단계에서, 서버(200)는 점검군마다, [점검군 중 상대적으로 낮은 등급의 제2 색상(C2)인 제3 색상]의 [(제1 비율 - 제2 비율) / 제1 비율 = 제1 증감율]을 산출할 수 있다.In step S811, the server 200 may calculate [(first ratio - second ratio) / first ratio = first change rate] of [the third color that is the second color (C2) of the relatively low grade in the check group] for each inspection group.

즉, 서버(200)는 점검군들의 각 조합별로 제1 증감율을 산출할 수 있다.That is, the server 200 may calculate the first increase/decrease rate for each combination of check groups.

예를 들어, 서버(200)는 [(1, 5), (1, 6), (2, 6)]가 점검군인 경우, 세 점검군 각각에서 상대적으로 낮은 등급의 제2 색상(C2)인 1, 1, 2가 제3 색상으로 지정되고, 1, 1, 2에 대해 제1 증감율을 산출할 수 있다.For example, if [(1, 5), (1, 6), (2, 6)] is the check group, the server 200 may designate 1, 1, 2, which is the second color C2 of a relatively low grade in each of the three check groups, as the third color, and calculate the first increase/decrease rate for 1, 1, 2.

등급 1에 대한 제1 증감율은, 표 2를 기준으로 '(0.24996 - 0.15044) / 0.24996 = 0.3981'로 산출될 수 있다.The first change rate for grade 1 may be calculated as '(0.24996 - 0.15044) / 0.24996 = 0.3981' based on Table 2.

S812 단계에서, 서버(200)는 점검군마다, [점검군 중 상대적으로 높은 등급의 제2 색상(C2)인 제4 색상]의 [(제2 비율 - 제1 비율) / 제1 비율 = 제2 증감율]을 산출할 수 있다.In step S812, the server 200 may calculate [(second ratio - first ratio) / first ratio = second change rate] of [the fourth color that is the second color (C2) of a relatively high grade in the check group] for each inspection group.

구체적으로, 서버(200)는 제1 증감율 산출 과정과 동일한 방식으로 제2 증감율을 산출하되, 세 점검군 각각에서 상대적으로 높은 등급의 제2 색상(C2)을 기준으로 제2 증감율을 산출할 수 있다.Specifically, the server 200 calculates the second change rate in the same manner as the first change rate calculation process, but calculates the second change rate based on the relatively high grade of the second color C2 in each of the three inspection groups.

예를 들어, 서버(200)는 [(1, 5), (1, 6), (2, 6)]가 점검군인 경우, 세 점검군 각각에서 상대적으로 높은 등급의 제2 색상(C2)인 5, 6, 6이 제4 색상으로 지정되고, 5, 6, 6에 대해 제2 증감율을 산출할 수 있다.For example, if [(1, 5), (1, 6), (2, 6)] is the check group, the server 200 may designate 5, 6, and 6, which are the second colors (C2) of a relatively high rank in each of the three check groups, as the fourth color, and calculate the second change rate for 5, 6, and 6.

등급 5에 대한 제2 증감율은, 표 2를 기준으로 '(0.20000 - 0.05049) / 0.20000 = 2.961'로 산출될 수 있다.The second increase/decrease rate for grade 5 may be calculated as '(0.20000 - 0.05049) / 0.20000 = 2.961' based on Table 2.

S813 단계에서, 서버(200)는 점검군마다, [(제2 증감율 - 제1 증감율) * 제2 색상(C2)간 등급 차이 = 제1 증가 지수]를 산출할 수 있다.In step S813, the server 200 may calculate [(second increase/decrease rate - first increase/decrease rate) * grade difference between the second colors C2 = first increase index] for each inspection group.

즉, 서버(200)는 산출된 제1 증감율 및 제2 증감율을 기반으로, 제2 색상(C2)간 등급 차이를 반영하여 제1 증가 지수를 산출할 수 있다.That is, the server 200 may calculate the first increase factor by reflecting the grade difference between the second colors C2 based on the calculated first increase and decrease rates and the second increase and decrease rates.

상기 표 2를 기준으로, 제1 증감율은 0.3981, 제2 증감율은 2.961이고, 제2 색상(C2)간 등급 차이(제3 색상 및 제4 색상간 등급 차이)는 4이므로, 서버(200)는 제1 증가 지수로 (2.961 - 0.3981) * 4 = 10.2516를 산출할 수 있다.Based on Table 2, since the first change rate is 0.3981, the second change rate is 2.961, and the grade difference between the second colors C2 (the grade difference between the third color and the fourth color) is 4, the server 200 can calculate (2.961 - 0.3981) * 4 = 10.2516 as the first increase factor.

또한, 점검군이 여러 조합인 경우, 서버(200)는 제1 증가 지수를 여러개 산출할 수 있다.In addition, when there are several combinations of check groups, the server 200 may calculate several first increase indices.

S814 단계에서, 서버(200)는 점검군이 하나인 경우 제1 증가 지수를 제2 증가 지수로 반환하고, 점검군이 둘 이상인 경우, 점검군들의 제1 증가 지수의 평균값을 제2 증가 지수로 반환할 수 있다.In step S814, the server 200 may return the first incremental factor as a second incremental factor when there is one inspection group, and may return the average value of the first incremental factors of the inspection groups as the second incremental factor when there are two or more inspection groups.

즉, 서버(200)는 제1 증가 지수(들)을 기반으로 최종값인 제2 증가 지수를 산출할 수 있다.That is, the server 200 may calculate the second increment factor as the final value based on the first increment factor(s).

예를 들어, 서버(200)는 제1 증가 지수가 10.2516 하나인 경우, 10.2516를 제2 증가 지수로 산출(반환)하고, 서버(200)는 제2 증가 지수가 10.2516, 12.4518로 두 개인 경우, 그 평균값인 11.3517로 제2 증가지수로 산출할 수 있다.For example, when the first incremental index is 10.2516, the server 200 calculates (returns) 10.2516 as the second incremental index, and the server 200 calculates (returns) 10.2516 and 12.4518 as the second incremental index.

또한, 서버(200)는 제2 증가 지수가 소정의 수치 이상인 경우, 화재 발생 위험이 있는 것으로 판단할 수 있으며, 이로 인해, 서버(200)는 제1 열화상 영상을 기반으로 화재 발생 위험 여부를 판단할 수 있다In addition, the server 200 may determine that there is a risk of fire when the second increase factor is greater than or equal to a predetermined value, and accordingly, the server 200 may determine whether there is a risk of fire based on the first thermal image.

예를 들어, 서버(200)는 상기 제2 증가 지수가 15 이상인 경우를 화재 발생 위험이 있는 것으로 지정하여, 온도 변화가 급격할 때 화재 발생 위험이 있는 것으로 판단할 수 있다.For example, the server 200 may determine that there is a risk of fire when the temperature change is rapid by designating a case where the second increase factor is 15 or more as a risk of fire.

도 10은 일실시예에 따른 서버의 구성의 예시도이다.10 is an exemplary diagram of a configuration of a server according to an embodiment.

일실시예에 따른 서버(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 서버들을 포함하거나, 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 서버(200)를 이용하는 자 또는 단체는 도 1 내지 도 9를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.Server 200 according to an embodiment includes a processor 210 and a memory 220. The processor 210 may include at least one server described above with reference to FIGS. 1 to 9 or may perform at least one method described above with reference to FIGS. 1 to 9 . A person or organization using the server 200 may provide services related to some or all of the methods described above with reference to FIGS. 1 to 9 .

메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 220 may store information related to the methods described above or may store a program in which the methods described below are implemented. Memory 220 may be volatile memory or non-volatile memory.

프로세서(210)는 프로그램을 실행하고, 서버(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 서버(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 210 may execute a program and control the server 200 . Program codes executed by the processor 210 may be stored in the memory 220 . The server 200 may be connected to an external device (eg, a personal computer or network) through an input/output device (not shown) and exchange data through wired/wireless communication.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented using one or more general purpose or special purpose computers, such as, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor, microcomputer, field programmable gate array (FPGA), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will recognize that the processing device may include a plurality of processing elements and/or multiple types of processing elements. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program instructions such as ROM, RAM, and flash memory. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, and may configure a processing device to operate as desired, or may independently or collectively direct a processing device. Software and/or data may be permanently or temporarily embodied in any tangible machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal wave, to be interpreted by, or to provide instructions or data to, a processing device. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, even if the described techniques are performed in an order different from the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or replaced or substituted by other components or equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (3)

재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법에 있어서,
센서가 센서의 감지 및 센서 값에 의해 재난이 감지되었다고 판단하면, 서버로 감지 데이터, 위치 데이터를 포함하는 현장 데이터를 전송하는 단계;
상기 서버가 상기 센서로부터 현장 데이터를 수신하면, 상기 위치 데이터를 통해 상기 센서가 설치된 지역을 확인하고, 상기 지역에 설치된 카메라를 통해 이미지 데이터를 획득하는 단계;
상기 서버가 상기 획득한 이미지 데이터를 분석하여 재난이 발생하였는지 여부를 판단하는 단계;
재난이 발생하였다고 확인되면, 상기 서버가 상기 지역에 매칭된 안전 관리자의 단말로 상기 지역의 출동을 요청하는 메시지를 전송하는 단계; 및
재난이 발생하지 않았다고 확인되면, 상기 서버가 상기 센서의 오류 가능성을 고려하여 지역 관리자의 단말로 상기 센서를 확인하라는 메시지를 전송하는 단계를 포함하고,
재난이 발생하였다고 확인되면, 상기 지역에 매칭된 안전 관리자의 단말로 상기 지역의 출동을 요청하는 메시지를 전송하는 단계는,
상기 현장 데이터를 통해 재난의 종류를 확인하는 단계,
상기 이미지 데이터를 통해 상기 이미지 데이터 내에 사람이 포함되었는지 여부를 판단하는 단계,
상기 이미지 데이터 내에 사람이 포함되었다고 확인되면, 상기 지역에 매칭된 안전 관리자 중 상기 재난의 종류 및 인명 구조와 관련된 안전 관리자를 후보 안전 관리자로 선정하는 단계,
상기 이미지 내에 사람이 포함되지 않았다고 확인되면, 상기 지역에 매칭된 안전 관리자 중 상기 재난의 종류와 관련된 안전 관리자를 후보 안전 관리자로 선정하는 단계,
상기 이미지 데이터 및 상기 현장 데이터를 통해 상기 재난의 위급도를 생성하는 단계,
상기 현장 데이터를 전송한 센서의 범위를 통해 상기 재난의 확산도를 생성하는 단계,
상기 재난의 위급도 및 상기 재난의 확산도를 통해 재난의 규모를 예측하는 단계,
상기 후보 안전 관리자 중 상기 재난의 규모에 대응하는 수의 안전 관리자를 추출하여 최종 안전 관리자를 선정하는 단계, 및
상기 최종 안전 관리자의 단말로 상기 지역의 출동을 요청하는 메시지를 전송하는 단계를 포함하고,
상기 이미지 데이터 및 상기 현장 데이터를 통해 상기 재난의 위급도를 생성하는 단계,는
상기 이미지 데이터 내에 사람이 포함되었다고 판단하면, 상기 센서의 민감도를 높이는 단계,
상기 이미지 데이터 내에 사람이 포함되지 않았다고 판단하면, 상기 센서의 민감도를 유지하는 단계,
상기 센서로부터 현장 데이터가 전송되는 주기를 확인하는 단계,
상기 주기가 미리 설정된 기준 주기보다 짧은지 여부를 판단하는 단계,
상기 주기가 상기 기준 주기보다 짧다고 판단되면, 상기 재난의 위급도를 높음으로 생성하는 단계,
상기 주기가 상기 기준 주기보다 짧지 않다고 판단되면, 상기 재난의 위급도를 낮음으로 생성하는 단계,를 포함하고,
상기 현장 데이터를 전송한 센서의 범위를 통해 상기 재난의 확산도를 생성하는 단계는,
상기 현장 데이터를 전송한 센서가 모두 미리 설정된 제1 범위 이내에 포함되는지 여부를 판단하는 단계,
상기 현장 데이터를 전송한 센서가 모두 상기 제1 범위 이내에 포함되었다고 확인되면, 상기 재난의 확산도를 낮음으로 생성하는 단계,
상기 현장 데이터를 전송한 센서 중 적어도 하나 이상이 상기 제1 범위 이내에 포함되어 있지 않다고 확인되면, 상기 현장 데이터를 전송한 센서가 모두 미리 설정된 제2 범위 이내에 포함되는지 여부를 판단하는 단계,
상기 현장 데이터를 전송한 센서가 모두 상기 제2 범위 이내에 포함되었다고 확인되면, 상기 재난의 확산도를 보통으로 생성하는 단계, 및
상기 현장 데이터를 전송한 센서 중 적어도 하나 이상이 상기 제2 범위 이내에 포함되어 있지 않다고 확인되면, 상기 재난의 확산도를 높음으로 생성하는 단계를 포함하는,
재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법.
In the image and video data processing and utilization method generated at the disaster site,
Transmitting field data including detection data and location data to a server when the sensor determines that a disaster has been detected by the detection of the sensor and the sensor value;
when the server receives field data from the sensor, identifying an area where the sensor is installed through the location data, and acquiring image data through a camera installed in the area;
determining, by the server, whether a disaster has occurred by analyzing the acquired image data;
If it is confirmed that a disaster has occurred, the server transmitting a message requesting dispatch to the region to a terminal of a safety manager matched to the region; and
When it is confirmed that no disaster has occurred, the server sending a message requesting confirmation of the sensor to a terminal of a regional manager in consideration of a possibility of error of the sensor,
If it is confirmed that a disaster has occurred, the step of transmitting a message requesting dispatch to the area to the terminal of the safety manager matched to the area,
Confirming the type of disaster through the field data;
Determining whether a person is included in the image data through the image data;
If it is confirmed that a person is included in the image data, selecting a safety manager related to the type of disaster and lifesaving among safety managers matched to the region as a candidate safety manager;
If it is confirmed that no person is included in the image, selecting a safety manager related to the type of disaster among safety managers matched to the region as a candidate safety manager;
Generating the urgency of the disaster through the image data and the field data;
Generating the spread of the disaster through the range of the sensor that transmitted the field data;
Predicting the scale of the disaster through the urgency of the disaster and the spread of the disaster;
Selecting a final safety manager by extracting the number of safety managers corresponding to the scale of the disaster from among the candidate safety managers; and
Transmitting a message requesting dispatch to the area to a terminal of the final safety manager,
Generating the urgency of the disaster through the image data and the field data,
If it is determined that a person is included in the image data, increasing the sensitivity of the sensor;
If it is determined that a person is not included in the image data, maintaining the sensitivity of the sensor;
Checking a cycle in which field data is transmitted from the sensor;
Determining whether the period is shorter than a preset reference period;
If it is determined that the period is shorter than the reference period, generating the emergency of the disaster as high;
If it is determined that the period is not shorter than the reference period, generating the emergency of the disaster as low,
Generating the spread of the disaster through the range of the sensor that transmitted the field data,
Determining whether all sensors transmitting the field data are included within a preset first range;
When it is confirmed that all the sensors transmitting the field data are included within the first range, generating a low spread of the disaster;
When it is determined that at least one of the sensors transmitting the field data is not included within the first range, determining whether all of the sensors transmitting the field data are included within a preset second range;
If it is confirmed that all sensors that have transmitted the field data are included within the second range, generating a normal spread of the disaster; and
When it is determined that at least one of the sensors transmitting the field data is not included within the second range, generating a high spread of the disaster,
How to process and utilize images and video data generated at disaster sites.
삭제delete 제1항에 있어서,
재난이 발생하기 전 미리 설정된 설정 시간동안 획득된 현장 데이터를 기초로, 센서 값 변화 정보를 생성하는 단계;
재난이 발생하기 전 상기 설정 시간동안 촬영된 이미지 데이터를 기초로, 이미지 변화 정보를 생성하는 단계;
상기 센서 값 변화 정보 및 상기 이미지 변화 정보를 기초로, 입력 신호를 생성하는 단계;
상기 입력 신호를 인공신경망에 적용하여 출력 신호를 획득하는 단계;
상기 출력 신호를 기초로, 재난 발생 패턴을 확인하는 단계;
상기 센서로부터 획득한 현장 데이터 또는 상기 카메라를 통해 획득한 이미지 데이터를 상기 재난 발생 패턴과 비교하여 일치하는 패턴이 존재하는지 여부를 판단하는 단계; 및
상기 재난 발생 패턴과 일치하는 패턴이 존재한다고 확인되면, 상기 센서로부터 수신된 현장 데이터의 변화를 추적하고, 해당 지역에 위치한 사용자의 단말로 재난 예방 대응을 요청하는 메시지를 전송하는 단계를 포함하는,
재난 현장에서 생성한 이미지 및 영상 데이터 처리 및 활용 방법.
According to claim 1,
Generating sensor value change information based on field data obtained for a preset time before a disaster occurs;
generating image change information based on image data captured during the set time period before a disaster occurs;
generating an input signal based on the sensor value change information and the image change information;
obtaining an output signal by applying the input signal to an artificial neural network;
Confirming a disaster occurrence pattern based on the output signal;
Comparing field data obtained from the sensor or image data acquired through the camera with the disaster occurrence pattern to determine whether a matching pattern exists; and
When it is confirmed that a pattern matching the disaster occurrence pattern exists, tracking a change in field data received from the sensor and transmitting a message requesting a disaster prevention response to a terminal of a user located in the corresponding area,
How to process and utilize images and video data generated at disaster sites.
KR1020230053408A 2023-04-24 2023-04-24 Method, device and system for processing and utilizing images and video data generated at disaster sites KR102559307B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230053408A KR102559307B1 (en) 2023-04-24 2023-04-24 Method, device and system for processing and utilizing images and video data generated at disaster sites

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230053408A KR102559307B1 (en) 2023-04-24 2023-04-24 Method, device and system for processing and utilizing images and video data generated at disaster sites

Publications (1)

Publication Number Publication Date
KR102559307B1 true KR102559307B1 (en) 2023-07-25

Family

ID=87428581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230053408A KR102559307B1 (en) 2023-04-24 2023-04-24 Method, device and system for processing and utilizing images and video data generated at disaster sites

Country Status (1)

Country Link
KR (1) KR102559307B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809433A (en) * 2023-08-31 2024-04-02 应急管理部大数据中心 Internet of things equipment-closing processing method and system supporting accurate fusion early warning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150030015A (en) * 2013-09-11 2015-03-19 (주)유엔이 Disaster detection system and providing method thereof
KR101732819B1 (en) 2015-12-07 2017-05-08 이동규 Disaster predicting platform system based on big data and methd thereof
KR20190060650A (en) * 2017-11-24 2019-06-03 한국전자통신연구원 Scenario based Disaster Prediction System and the Method
KR102284747B1 (en) 2020-11-11 2021-08-03 주식회사 에이이 System for disaster monitoring and disaster response
KR20210155217A (en) * 2020-06-15 2021-12-22 한국전력공사 System for predicting and preventing disaster for electric power facilities and operation method thereof
KR102485227B1 (en) 2022-04-22 2023-01-06 주재넷(주) Artificial intelligence-based flood forecasting system and flood forecasting method using the same
KR102490062B1 (en) 2022-03-10 2023-01-18 (주)큐브더모먼트 Method, apparatus and computer program of AI-based user-tailored disaster threat prediction and safety management

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150030015A (en) * 2013-09-11 2015-03-19 (주)유엔이 Disaster detection system and providing method thereof
KR101732819B1 (en) 2015-12-07 2017-05-08 이동규 Disaster predicting platform system based on big data and methd thereof
KR20190060650A (en) * 2017-11-24 2019-06-03 한국전자통신연구원 Scenario based Disaster Prediction System and the Method
KR20210155217A (en) * 2020-06-15 2021-12-22 한국전력공사 System for predicting and preventing disaster for electric power facilities and operation method thereof
KR102284747B1 (en) 2020-11-11 2021-08-03 주식회사 에이이 System for disaster monitoring and disaster response
KR102490062B1 (en) 2022-03-10 2023-01-18 (주)큐브더모먼트 Method, apparatus and computer program of AI-based user-tailored disaster threat prediction and safety management
KR102485227B1 (en) 2022-04-22 2023-01-06 주재넷(주) Artificial intelligence-based flood forecasting system and flood forecasting method using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117809433A (en) * 2023-08-31 2024-04-02 应急管理部大数据中心 Internet of things equipment-closing processing method and system supporting accurate fusion early warning
CN117809433B (en) * 2023-08-31 2024-05-28 应急管理部大数据中心 Internet of things equipment-closing processing method and system supporting accurate fusion early warning

Similar Documents

Publication Publication Date Title
US20210279603A1 (en) Security systems and methods
Lujak et al. A distributed architecture for real-time evacuation guidance in large smart buildings
KR102559307B1 (en) Method, device and system for processing and utilizing images and video data generated at disaster sites
KR102553041B1 (en) Method, device and system for providing matching platform service between user and interior supplier based on artificial intelligence model
KR102490062B1 (en) Method, apparatus and computer program of AI-based user-tailored disaster threat prediction and safety management
WO2023273629A1 (en) System and apparatus for configuring neural network model in edge server
KR102539679B1 (en) Method, device and system for recommending places tailored to the user based on the user's route
Asgary et al. Modeling the risk of structural fire incidents using a self-organizing map
KR20220059210A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
KR102508648B1 (en) Emergency monitoring method, device and system based on malfunction judgment of electric and firefighting equipment
KR102502922B1 (en) Method, device and system for alarming and monitoring of emergency situation
KR102551298B1 (en) Manpower assignment automation method and evaluation method, device and system for building management
Liu et al. Role-based user allocation driven by criticality in edge computing
KR102463875B1 (en) Method, device and system for providing personalized psychotherapy content using big data
KR102564996B1 (en) Method, device and system for providing user customized health functional food curation service based on artificial intelligence
KR102474974B1 (en) Method, device and system for analyzing brand based on artificial intelligence
CN113762648B (en) Method, device, equipment and medium for predicting male Wei Heitian goose event
KR102256714B1 (en) System for auxiliary signaling of intersection
KR20220063865A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
KR102563687B1 (en) Method, device and system for providing hearing aid management platform service for hearing aid user and guardian
KR102500172B1 (en) Method, control device and system for synchronizing memory between device
KR102676906B1 (en) Method for monitoring wind power generator based on artificial intelligence using sound, vibration information and drond shooting photo
KR102676337B1 (en) Method, device and system for notificating of emergency situation and critical situation in parking lot based on closed circuit television image processing
KR102300101B1 (en) Apparatus and system for fire detection and ventilation of road tunnels
KR102559969B1 (en) Method, device and system for providing user location-based toilet use and payment service

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant