KR101951361B1 - Method for managing crime prevention and disaster prevention using artificial intelligence - Google Patents

Method for managing crime prevention and disaster prevention using artificial intelligence Download PDF

Info

Publication number
KR101951361B1
KR101951361B1 KR1020170118830A KR20170118830A KR101951361B1 KR 101951361 B1 KR101951361 B1 KR 101951361B1 KR 1020170118830 A KR1020170118830 A KR 1020170118830A KR 20170118830 A KR20170118830 A KR 20170118830A KR 101951361 B1 KR101951361 B1 KR 101951361B1
Authority
KR
South Korea
Prior art keywords
sensor
web
remote
security
crime prevention
Prior art date
Application number
KR1020170118830A
Other languages
Korean (ko)
Inventor
김동권
장석수
김석직
Original Assignee
김동권
장석수
김석직
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김동권, 장석수, 김석직 filed Critical 김동권
Priority to KR1020170118830A priority Critical patent/KR101951361B1/en
Application granted granted Critical
Publication of KR101951361B1 publication Critical patent/KR101951361B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/1966Wireless systems, other than telephone systems, used to communicate with a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to an artificial intelligence crime prevention management method. More specifically, the present invention relates to an artificial intelligence crime prevention management method which can generate a crime prevention situation model capable of accurately predicting a crime prevention status of a crime prevention zone by machine-learning a situation weighted value determined by characteristics of the crime prevention zone as well as sensor information of a crime prevention detection sensor or a crime prevention image sensor arranged in the crime prevention zone, can accurately determine an event generated in the crime prevention zone according to the generated crime prevention situation model, and can provide a stationary image of the crime prevention zone to an administrator by periodically photographing the stationary image of the crime prevention zone when satisfying a warning condition in which the crime prevention status of the crime prevention zone determined from the crime prevention situation model is set.

Description

인공지능 방범 관리 방법{Method for managing crime prevention and disaster prevention using artificial intelligence}A method for managing crime prevention and disaster prevention using artificial intelligence

본 발명은 인공지능 방범 관리 방법에 관한 것으로, 보다 구체적으로 방범지역에 배치되어 있는 방범 감지 센서 또는 방범 영상 센서의 센서 정보뿐만 아니라 방범 지역의 특성에 따라 결정한 상황 가중치를 기계학습시켜 방범 지역의 방범 상태를 정확하게 예측할 수 있는 방범 상황 모델을 생성하며, 생성한 방범 상황 모델에 따라 방범 지역에서 발생한 이벤트를 정확하게 판단할 수 있으며, 방범 상황 모델로부터 판단된 방범 지역의 방범 상태가 설정된 경고 조건을 만족하는 경우 방범 지역의 정지화상(snap shot)을 주기적으로 촬영하여 관리인에 제공할 수 있는 인공지능 방범 관리 방법에 관한 것이다.More particularly, the present invention relates to an artificial intelligence security management method, and more particularly, to a system for learning security of a crime prevention area by mechanically learning a state weight determined according to characteristics of a crime prevention area as well as sensor information of a crime prevention sensor or a crime prevention image sensor disposed in a crime prevention area A crime scene model capable of accurately predicting the state can be generated and an event occurring in the crime scene can be accurately determined according to the crime scene model generated and the crime scene of the crime scene judged from the crime scene model satisfies the set warning condition The present invention relates to an artificial intelligence security management method capable of periodically photographing a snapshot of a crime prevention area and providing it to a manager.

사용자는 출동 방범 서비스를 청약하여 요구되는 지역의 방범을 수행하는데, 도 1의 종래 출동 방범 시스템을 참고로 살펴보면 방범이 요구되는 다수의 장소(R1, R2, R3)에 각각 적외선 센서, 열 센서, 문 열림 감지 센서 등의 다양한 종류의 방범 센서를 설치한다. 이러한 방범 센서들은 그 동작에 따라 센서 정보를 생성하고 생성한 센서 정보를 네트워크(10)를 통해 관제 센터(11)로 송신한다. Referring to FIG. 1, the user is provided with a crime prevention service and performs crime prevention in a required area. Referring to the conventional crime prevention crime prevention system of FIG. 1, infrared sensors, heat sensors, Various types of security sensors such as door open detection sensors are installed. These crime prevention sensors generate sensor information according to the operation and transmit the generated sensor information to the control center 11 through the network 10. [

여기서 센서 정보는 방범 센서의 동작 여부를 나타내는 정보, 동작에 따른 활성화 여부를 나타내는 정보로 관제 센터는 방범 센서로부터 수신한 센서 정보에 기초하여 해당 장소에서의 불법적인 외부인 침입, 화재 등의 방범, 방재 상태를 모니터링한다. 여기서 활성화 여부는 방범 센서의 종류에 따른 감지 여부를 나타내는 것으로, 예를 들어 문 열림 센서의 경우 문 열림이 감지되지 않은 경우 불활성화 상태이며 문 열림이 감지되는 경우 활성화 상태로 변경된다. 예를 들어, 문 열림 감지 센서가 불활성화 상태인 경우 '0'의 센서 정보를 생성하고 활성화 상태인 경우 '1'의 센서 정보를 생성하여 네트워크(10)를 통해 관제 센터(11)로 송신한다. Here, the sensor information is information indicating whether the crime prevention sensor is operating or not and information indicating whether the crime prevention sensor is activated according to the operation. Based on the sensor information received from the crime prevention sensor, the control center performs illegal crime such as intrusion, fire, Monitor the status. Here, the activation state indicates whether or not the door open sensor is detected according to the type of the security sensor. For example, in the case of the door open sensor, the door open state is inactivated when door open is not detected. For example, when the door open detection sensor is in an inactivated state, it generates sensor information of '0', generates sensor information of '1' when it is active, and transmits sensor information to the control center 11 through the network 10 .

관제 센터(11)는 센서 정보에 기초하여 외부인 침입 또는 화재가 발생한 장소로 관리인을 출동시켜 방범을 수행한다. Based on the sensor information, the control center 11 sends a manager to a place where an intruder or a fire occurs, and carries out crime prevention.

그러나 관제 센터는 해당 지역에 설치된 방범 센서의 활성화 여부를 나타내는 센서 정보(0, 1)에만 근거하여 해당 지역의 방범 상태를 모니터링하기 때문에, 방범 센서의 오동작으로 인하여 외부인 침입 또는 화재로 오판하거나 정당한 사용자 또는 직원 등이 출입하는 경우 외부인 침입으로 판단하여 해당 장소로 관리인을 출동시키는 비율이 전체 출동 비율의 대부분을 차지한다. However, since the control center monitors the crime prevention status based on only the sensor information (0, 1) indicating whether the crime prevention sensor installed in the corresponding area is activated, it is possible that the crime prevention center mis- Or employees, the percentage of people who are determined to be an intruder and who dispatches the manager to the place is the majority of the overall dispatch rate.

관제 센터에서 관리인이 출동할 때마다 출동 횟수에 비례하여 사용자에 관리 비용을 청구하는데, 방범 센서의 오동작 또는 오판으로 인한 출동 횟수가 증가할수록 사용자는 더 많은 비용을 지불하여야 한다는 문제점을 가진다. The control center charges the management cost to the user in proportion to the number of times of dispatch every time the controller is dispatched. However, the user has to pay a higher cost as the number of dispatch due to the malfunction or misidentification of the crime sensor increases.

이러한 오동작 또는 오판을 방지하기 위하여 해당 장소에 CCTV 카메라 등 방범 영상 센서를 방범 감지 센서와 함께 설치하고 CCTV 영상을 이용하여 관리인의 출동 전 방범 감지 센서의 오동작 또는 오판을 확인할 수 있으나, 출동 방범 시스템의 경우 개인정보보호차원에서 CCTV 영상을 관제 센터에서 이용할 수 없다. In order to prevent such a malfunction or misjudgment, it is possible to install a security image sensor such as a CCTV camera together with a security sensor in the corresponding place, and to check the malfunction or misidentification of the security sensor before the dispatch of the manager by using the CCTV image. CCTV images can not be used in the control center to protect personal information.

출동 방범 시스템과는 별개로 사용자는 스스로 CCTV 방범 시스템을 구축하여 이용할 수 있는데, 도 2를 참고로 종래 CCTV 방범 시스템에 대해 살펴보면, 서로 다른 물리적인 장소마다 범죄예방 또는 방재예방을 위해서 방범 감지 센서와 CCTV 카메라 등의 방범 영상 센서가 설치되고, 방범 감지 센서 또는 방범 영상 센서의 동작을 제어하는 주방범 장치도 해당 장소마다 함께 설치된다.As shown in FIG. 2, the conventional CCTV crime prevention system is different from the moving crime prevention system in that a user himself can build and use a CCTV crime prevention system. In the conventional CCTV crime prevention system, a crime prevention sensor or a crime prevention sensor A CCTV camera and the like, and a kitchen apparatus for controlling the operation of a crime prevention sensor or a crime prevention image sensor are installed together at each place.

여기서 주방범 장치는 방범 센서의 동작에 따라 경고(alarm)를 발생하거나 설정된 외부(경찰서, 사용자 단말기 등)로 네트워크(10)를 통해 경고 메시지를 전송하며, 방범 영상 센서에서 촬영된 동영상을 녹화하고 사용자 단말기(30)의 요청이 있는 경우 녹화된 영상을 사용자 단말기로 송신하는 기능을 수행한다.Here, the kitchen apparatus generates an alarm according to the operation of the security sensor or transmits a warning message to the outside (police station, user terminal, etc.) through the network 10, records the moving image photographed by the security image sensor And transmits the recorded image to the user terminal when the user terminal 30 makes a request.

서로 다른 물리적인 장소에 거주 또는 근무하는 사람들이 밀접한 관계를 가진 경우에도, 예를 들어 사용자와 사용자 부모님과 같이 서로 가족 관계의 밀접한 관계인 경우에도, 사용자 집과 사용자 부모님의 집마다 각각 주방범 장치를 설치하여야 하므로, 각각의 공간에서 방범 시스템의 구축 비용이 별개로 소요된다는 문제점이 발생한다.Even if the people who live or work in different physical places are closely related, even if they are closely related to each other, such as the user and the user's parents, There is a problem that the cost of constructing a security system is separately required in each space.

더욱이 사용자는 각 장소의 주방범 장치가 제공하는 영상을 확인하기 위해 각 주방범 장치별로 제공하는 영상 웹(web1 내지 web4)에 각각 접속하여 해당 장소의 방범 영상을 확인하여야 하는 불편함이 있다. 또한, 각 장소의 주방범 장치별로 방범 센서의 센서 정보에 기초한 외부인 침입, 화재 발생 등의 이벤트 발생 여부를 확인한 경우, 방범 센서의 오동작 또는 오판을 확인하기 위하여 다시 영상 웹에 접속하여 이벤트를 재확인하여야 하는 불편함이 있다.Furthermore, the user has to connect to the image webs web1 to web4 provided for each kitchen device to check the images provided by the kitchen devices of the respective places, and check the crime scenes of the places. In addition, if it is confirmed whether an event such as an intruder or a fire occurs based on the sensor information of the security sensor for each kitchen device in each place, the user should check the event again by connecting to the image web in order to check the malfunction or misidentification of the security sensor There is an inconvenience.

즉, 앞서 설명한 종래 방범 시스템의 경우 실제 외부인의 침입 또는 화재 등의 경고 상태가 발생하지 않은 경우에도 방범 감지 센서의 오동작으로 인하여 관리인이 출동하거나, 방범 감지 센서의 활성화/비활성화 정보에 의해서만 방범 상황을 판단하기 때문에 실제 외부인의 침입 또는 화재 등의 경고 상태가 발생하지 않더라도 다수의 방범 감지 센서 중 일부 방범 감지 센서가 활성화되는 경우 무조건 관리인이 출동하는 문제점을 가지며, 또한 방범이 필요한 영역마다 각각 주방범 장치를 설치하여 관리하기 때문에 방범에 따른 비용이 증가하고 다수 방범 영역을 용이하게 관리하기 곤란하다는 문제점을 가진다. That is, in the case of the conventional crime prevention system described above, even when a warning state such as intrusion or fire does not actually occur, the caretaker may be sent out due to a malfunction of the crime prevention sensor, or the crime scene may be detected only by the activation / deactivation information of the crime prevention sensor Therefore, even if a warning state such as intrusion or fire does not actually occur, there is a problem that uncontrollable manager is dispatched when some of the crime prevention sensors are activated. In addition, There is a problem that it is difficult to easily manage a large number of crime prevention areas.

본 발명은 위에서 언급한 종래 방범 관리 방법이 가지는 문제점을 해결하기 위한 것으로 본 발명이 이루고자 하는 목적은 방범 지역의 방범 상태를 판단할 방범 상황 모델을 생성하며, 방범 상황 모델에 기초하여 방범 지역의 방범 상태를 정확하게 예측할 수 있는 인공지능 방범 관리 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the problems of the conventional security management method described above, and it is an object of the present invention to provide a security model for determining a security state of a security area, The present invention provides an artificial intelligence security management method capable of accurately predicting a state of an artificial intelligence.

본 발명이 이루고자 하는 다른 목적은 방범 지역에 배치되어 있는 방범 감지 센서 또는 방범 영상 센서의 센서 정보뿐만 아니라 방범 지역의 특성에 따라 결정한 상황 가중치를 기계학습시켜 방범 지역의 방범 상태를 정확하게 예측할 수 있는 방범 상황 모델을 생성할 수 있는 인공지능 방범 관리 방법을 제공하는 것이다.Another object to be achieved by the present invention is to provide a security system capable of accurately predicting the crime prevention state of a crime prevention area by machine learning of the state weights determined according to characteristics of a crime prevention area as well as sensor information of a crime detection sensor or a crime prevention image sensor disposed in a crime prevention area The present invention provides an artificial intelligence security management method capable of generating a situation model.

본 발명이 이루고자 하는 또 다른 목적은 방범 상황 모델로부터 판단된 방범 지역의 방범 상태가 설정된 경고 조건을 만족하는 경우, 방범 지역의 정지화상을 주기적으로 촬영하여 관리인에 제공할 수 있는 인공지능 방범 관리 방법을 제공하는 것이다.It is another object of the present invention to provide an artificial intelligence security management method capable of periodically photographing a still image of a crime prevention area and providing it to a manager when the security condition of the crime prevention area determined from the security situation model satisfies the set warning condition .

본 발명이 이루고자 하는 또 다른 목적은 로컬지역 또는 원격지역에 설치되어 있는 방범 감지 센서로부터 수신한 센서 정보를 통합하여 방범 감지 센서의 동작 상태를 나타내는 센서 웹을 생성하고, 생성한 센서 웹에서 로컬지역 또는 원격지역별로 설치된 방범 감지 센서의 동작 상태만을 구분하여 나타내는 센서 웹을 방범 영상과 연동하여 연동 웹을 생성함으로써, 연동 웹을 통해 각 장소의 방범 감지 센서의 동작 상태와 방범 영상을 동시에 확인할 수 있는 인공지능 방범 관리 방법을 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for generating a sensor web representing an operation state of a security detection sensor by integrating sensor information received from a security detection sensor installed in a local area or a remote area, Or remote area, it is possible to simultaneously detect the operation status and the security image of the crime prevention sensor at each place through the interlocking web, Thereby providing an artificial intelligence security management method.

본 발명이 이루고자 하는 또 다른 목적은 로컬지역 또는 원격지역의 연동 웹을 통합한 통합 웹을 생성하여 각 지역의 방범 영상 웹에 개별적으로 접속할 필요없이 통합 웹을 통해 다양한 장소의 방범 영상을 동시에 확인할 수 있는 인공지능 방범 관리 방법을 제공하는 것이다.Another object of the present invention is to create an integrated web incorporating interlocking webs of a local area or a remote area and to simultaneously detect crime scenes of various places through an integrated web without having to individually access the respective crime prevention image webs Which is an artificial intelligence security management method.

본 발명의 목적을 달성하기 위하여, 본 발명에 따른 인공지능 방범 관리 방법은 센서 정보와 각 센서 정보에 대한 상황 가중치로 이루어진 학습데이터를 머신러닝하여 센서 정보와 상황 가중치로부터 방범 상황 모델을 생성하는 단계와, 방범 지역에 설치되어 있는 방범 센서로부터 수신한 신규 센서 정보에 기초하여 신규 센서 정보에 대한 신규 상황 가중치를 판단하는 단계와, 신규 센서 정보와 신규 상황 가중치를 방범 상황 모델에 적용하여 방범 지역의 방범 상태를 판단하고 판단한 방범 상태에 대한 정보를 설정된 모니터링 단말기로 송신하는 단계를 포함하는 것을 특징으로 한다.In order to accomplish the object of the present invention, an artificial intelligence security management method according to the present invention includes a step of generating a security situation model from sensor information and a state weight by machine learning the sensor information and learning data consisting of context weights for each sensor information Determining a new situation weight for new sensor information based on the new sensor information received from the crime prevention sensor installed in the crime prevention area, applying the new sensor information and the new situation weight to the crime scene model, And transmitting the information on the determined crime prevention state to the set monitoring terminal.

여기서 본 발명에 따른 인공지능 방범 관리 방법은 로컬지역에 설치되어 있는 방범 센서로부터 로컬 신규 센서 정보를 수신하여 로컬 신규 센서 정보에 대한 로컬 신규 상황 가중치를 판단하거나, 원격지역에 설치되어 있는 방범 센서로부터 원격 신규 센서 정보를 수신하여 원격 신규 센서 정보에 대한 원격 신규 상황 가중치를 판단하는 것을 특징으로 한다.Here, the artificial intelligence security management method according to the present invention is a method for managing local security by receiving local new sensor information from a security sensor installed in a local area and determining a local new situation weight for local new sensor information, The remote new sensor information is received and the remote new situation weight for the remote new sensor information is determined.

바람직하게, 본 발명의 일 실시예에 따른 인공지능 방범 관리 방법은 로컬 신규 센서 정보와 로컬 신규 상황 가중치를 주기적으로 저장하거나 원격 신규 센서 정보와 원격 신규 상황 가중치를 주기적으로 저장하며, 저장한 로컬 신규 센서 정보와 로컬 신규 상황 가중치를 상황 모델에 적용하거나 저장한 원격 신규 센서 정보와 원격 신규 상황 가중치를 상기 상황 모델에 적용하여 상황 모델을 주기적으로 갱신하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the artificial intelligence security management method according to an embodiment of the present invention periodically stores local new sensor information and local new situation weights or periodically stores remote new sensor information and remote new situation weights, The method further includes the step of periodically updating the situation model by applying the remote new sensor information and the remote new situation weight applied to the situation model or the sensor information and the local new situation weight to the situation model.

바람직하게, 본 발명의 일 실시예에 따른 인공지능 방범 관리 방법은 로컬지역 또는 원격지역에 설치되어 있는 방범 감지 센서로부터 수신되는 디지털 센서 정보를 통합하여 로컬지역 또는 원격지역의 방범 센서의 동작 상태를 나타내는 센서 웹을 생성하는 단계와, 센서 웹에서 로컬지역에 설치된 방범 센서의 동작 상태만을 활성화한 로컬 센서웹을 로컬지역으로부터 수신되는 방범 영상 센서의 영상 웹과 연동하거나, 센서 웹에서 원격지역에 설치된 방범 센서의 동작 상태만을 활성화한 원격 센서웹을 원격지역으로부터 수신되는 방범 영상 센서의 영상 웹과 연동하여 연동 웹을 생성하는 단계와, 다수의 원격지역 각각에 대해 생성한 연동 웹 또는 로컬지역에 대해 생성한 연동 웹을 다수의 영상 채널 중 서로 다른 영상 채널에 할당하고 각 영상 채널에 할당된 연동 웹을 통합하여 통합 웹으로 생성하는 단계를 포함하는 것을 특징으로 한다.Preferably, the artificial intelligence security management method according to an embodiment of the present invention integrates digital sensor information received from a security sensor installed in a local area or a remote area to detect an operation state of a security sensor in a local area or a remote area The local sensor web that activates only the operation state of the security sensor installed in the local area in the sensor web is interlocked with the image web of the security image sensor received from the local area, A step of generating an interworking web by interfacing a remote sensor web activated only the operation state of a security sensor with a video web of a security image sensor received from a remote area, The generated interworking web is assigned to different image channels among a plurality of image channels, Integrating the web assigned to the interlocking will be characterized in that it comprises the step of generating the integrated web.

여기서 본 발명에 따른 인공지능 방범 관리 방법은 로컬지역의 방범 상태에 대한 정보 또는 상기 원격지역의 방범 상태에 대한 정보를 연동 웹 중 일부에 표시하는 것을 특징으로 한다. Here, the artificial intelligence security management method according to the present invention is characterized by displaying information on the security status of the local area or information on security status of the remote area on a part of the interworking web.

여기서 본 발명에 따른 인공지능 방범 관리 방법에서 센서 정보는 방범 감지 센서 또는 방범 영상 센서로부터 수신되는 정보이며, 각 센서 정보에 대한 상황 가중치는 각 센서 정보가 가질 수 있는 레벨을 방범 상황에 따라 서로 상이하게 할당한 상황 가중치인 것을 특징으로 한다.In the artificial intelligence security management method according to the present invention, the sensor information is information received from the crime prevention sensor or the crime prevention image sensor, and the state weight for each sensor information is set such that the level that each sensor information can have is different And a state weighting unit.

바람직하게, 본 발명에서 통합 웹을 생성하는 단계는 센서 웹에서 로컬지역에 설치된 방범 감지 센서를 식별하고 로컬지역에 설치된 방범 감지 센서의 동작 상태만을 나타내는 로컬 센서 웹을 상기 센서 웹으로부터 생성하는 단계와, 센서 웹에서 원격지역별로 설치된 방범 센서를 식별하고 원격지역별로 원격지역에 설치된 방범 센서의 동작 상태만을 나타내는 원격 센서 웹을 센서 웹으로부터 생성하는 단계와, 로컬 센서 웹을 로컬지역의 방범 영상 웹과 연동하여 로컬지역의 연동 웹을 생성하거나 원격 센서 웹을 원격지역의 방범 영상 웹과 연동하여 원격지역의 연동 웹을 생성하는 단계를 포함하며, 다수의 원격지역 중 동일한 원격지역의 방범 센서로부터 수신되는 센서 정보는 서로 동일한 IP 주소로 식별하며, 센서 웹에서 서로 동일한 IP 주소를 가지는 방범 센서의 동작 상태만을 활성화하여 원격 센서 웹을 생성하는 것을 특징으로 한다.Preferably, the step of generating an integrated web in the present invention includes the steps of generating a local sensor web from the sensor web, identifying a crime prevention sensor installed in a local area in the sensor web and indicating only the operation state of the crime prevention sensor installed in the local area, Generating a remote sensor web from the sensor web, identifying a security sensor installed in each remote region in the sensor web and indicating only the operation state of the security sensor installed in the remote region in each remote region, Generating an interworking web in a local area by interlocking with the remote sensor web or generating an interworking web in a remote area by interlocking the remote sensor web with a remote sensing web in a remote area, The sensor information is identified by the same IP address. And activates only the operation state of the crime prevention sensor to generate the remote sensor web.

바람직하게, 본 발명에 따른 인공지능 방범 관리 방법은 설정한 방범 상태 조건을 만족하는 로컬지역 또는 원격지역에서 영상촬영부를 통해 주기적으로 정지화상을 촬영하는 단계와, 방범 상태 조건에 대한 정보 및 정지화상을 사용자 단말기 또는 관제 센터 서버로 송신하는 단계와, 사용자 단말기로부터 출동 요청 명령을 수신하는 경우 관제 센터 서버로 출동을 요청하는 출동 요청 메시지를 송신하는 단계를 더 포함하는 것을 특징으로 한다. Preferably, the artificial intelligence security management method according to the present invention includes the steps of periodically capturing a still image through a video image pickup unit in a local area or a remote area satisfying a set security condition condition, And transmitting a dispatch request message for requesting dispatch to the control center server when the dispatch request command is received from the user terminal.

본 발명에 따른 인공지능 방범 관리 방법은 다음과 같은 다양한 효과를 가진다.The artificial intelligence security management method according to the present invention has various effects as follows.

첫째, 본 발명에 따른 인공지능 방범 관리 방법은 방범 지역의 방범 데이터를 기계학습시켜 방범 지역의 방범 상태를 판단할 방범 상황 모델을 생성하고 생성한 방범 상황 모델에 기초하여 방범 지역의 방범 상태를 판단함으로써, 방범 지역의 방범 상태를 정확하게 예측할 수 있다.First, the artificial intelligence security management method according to the present invention generates a security situation model for judging the security state of a crime prevention area by machine learning of crime prevention data in a crime prevention area and judges the crime prevention state of the crime prevention area based on the generated security situation model The crime prevention state of the crime prevention area can be accurately predicted.

둘째, 본 발명에 따른 인공지능 방범 관리 방법은 방범 지역에 배치되어 있는 방범 감지 센서 또는 방범 영상 센서의 센서 정보뿐만 아니라 방범 지역의 특성에 따라 결정한 상황 가중치를 기계학습시켜 방범 상황 모델을 생성함으로써, 방범 지역에 특성화된, 방범 지역의 방범 상태를 정확하게 예측할 수 있는 방범 상황 모델을 생성할 수 있다.Second, the artificial intelligence security management method according to the present invention generates a security situation model by machine learning of the state weights determined according to characteristics of a crime prevention area as well as sensor information of a crime prevention sensor or a crime prevention image sensor disposed in a crime prevention area, It is possible to generate a crime scene model that can accurately predict the crime scene of a crime scene, which is characterized in a crime scene.

셋째, 본 발명에 따른 인공지능 방범 관리 방법은 방범 상황 모델로부터 판단된 방범 지역의 방범 상태가 설정된 경고 조건을 만족하는 경우 방범 지역의 정지화상을 주기적으로 촬영함으로써, 관리인에게 방범 지역의 정지화상을 제공하여 관리인은 방범 상태를 보다 정확하게 판단할 수 있다.Thirdly, the artificial intelligent security management method according to the present invention periodically captures a still image of a crime prevention area when a crime prevention condition of a crime prevention area determined from a crime scene model satisfies a set warning condition, So that the manager can judge the crime state more accurately.

넷째, 본 발명에 따른 인공지능 방범 관리 방법은 로컬지역 또는 원격지역별로 설치된 방범 감지 센서의 동작 상태만을 구분하여 나타내는 로컬 센서 웹 또는 원격 센서 웹을 방범 영상과 연동하여 연동 웹을 생성함으로써, 연동 웹을 통해 각 장소의 방범 감지 센서의 동작 상태와 방범 영상 센서의 영상을 동시에 확인할 수 있다.Fourth, the artificial intelligent security management method according to the present invention generates an interworking web by linking a local sensor web or a remote sensor web, which separately displays only the operation state of a crime prevention sensor installed for each local region or a remote region, The operation status of the crime prevention sensor of each place and the image of the crime prevention image sensor can be confirmed at the same time.

도 1은 종래 출동 방범 시스템을 설명하기 위한 도면이다.
도 2는 종래 CCTV 자가 방범 시스템을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 자가 통합 방범 관리 시스템을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 통합 방범 서버 장치를 설명하기 위한 기능 블록도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능 방범 관리 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명에 따른 상황 가중치의 일 예를 설명하고 있다.
도 7은 본 발명에 따른 인공지능 방범 관리 방법에서 학습데이터를 기계학습하여 방범 상황 모델을 생성하는데 사용되는 신경망 모델을 도시하고 있다.
도 8은 본 발명에 따른 인공지능 방범 관리 방법에서 통합 웹을 생성하는 단계를 설명하기 위한 흐름도이다.
도 9는 본 발명에 따른 연동 웹의 일 예를 도시하고 있다.
도 10은 본 발명에 따른 통합 웹의 일 예를 도시하고 있다.
도 11은 본 발명에 따른 통합 웹의 다른 예를 도시하고 있다.
1 is a view for explaining a conventional on-coming crime prevention system.
2 is a view for explaining a conventional CCTV self-crime prevention system.
3 is a view for explaining a self-integrated crime prevention management system according to the present invention.
4 is a functional block diagram illustrating an integrated security server apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating an artificial intelligence security management method according to an embodiment of the present invention.
FIG. 6 illustrates an example of the context weight according to the present invention.
FIG. 7 shows a neural network model used for generating a crime scene model by learning machine learning data in the artificial intelligence security management method according to the present invention.
FIG. 8 is a flowchart illustrating a step of generating an integrated web in the artificial intelligence security management method according to the present invention.
9 shows an example of an interlocking web according to the present invention.
FIG. 10 illustrates an example of an integrated web according to the present invention.
11 shows another example of an integrated web according to the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms can be understood by those skilled in the art.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as " comprising " or " comprising " and the like should not be construed as encompassing various elements or various steps of the invention, Or may further include additional components or steps.

또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

이하 첨부한 도면을 참고로 본 발명에 따른 인공지능 방범 관리 방법에 대해 보다 구체적으로 설명한다.Hereinafter, an artificial intelligence security management method according to the present invention will be described in more detail with reference to the accompanying drawings.

도 3은 본 발명에 따른 인공지능 방범 관리 시스템을 설명하기 위한 도면이다.3 is a view for explaining an artificial intelligence security management system according to the present invention.

도 3을 참고로 보다 구체적으로 살펴보면, 네트워크(10)에는 통합 방범 서버 장치(100)와 사용자 단말기(30) 및 관제 센터(51), 경찰서(53) 등의 출동 센터(50)의 서버가 접속되어 있다.3, a server of the dispatch center 50 such as the integrated crime prevention server apparatus 100, the user terminal 30, the control center 51, and the police station 53 is connected to the network 10 .

한편, 다수의 원격지역(R1, R2, R3)과 로컬지역(L)에는 다수의 감지 센서가 설치되어 있는데, 예를 들어 다수의 원격지역(R1, R2, R3)과 로컬지역(L)에는 각각 적외선 센서, 열감지 센서, 문 열림 감지 센서 등의 방범 감지 센서 등이 설치되거나 CCTV 카메라, 웹 카메라 등의 방범 영상 센서가 설치되어 있다. 통합 방범 서버 장치(100)는 네트워크(10)를 통해 각 원격지역으로부터 방범 감지 센서의 센서 정보 또는 방범 영상 센서의 방범 영상을 센서 정보로 수신한다. 여기서 원격지역에 설치되어 있는 방범 감지 센서(S)는 설치된 장소에서 활성화 여부에 따라 서로 상이한 센서 정보(0 또는 1)를 생성하고 생성한 센서 정보를 게이트웨이 또는 허브 등을 통해 통합 방범 서버 장치(100)로 송신하며 로컬지역에 설치되어 있는 방범 감지 센서는 설치된 장소에서 활성화 여부에 따라 서로 상이한 센서 정보(0 또는 1)를 생성하고 생성한 센서 정보를 통합 방범 서버 장치(100)로 송신한다. A plurality of remote sensors R1, R2 and R3 and a local sensor L are installed in a plurality of remote areas R1, R2 and R3 and a local area L. For example, Security sensors such as infrared sensors, heat sensors, and door opening sensors are installed, and security video sensors such as CCTV cameras and web cameras are installed. The integrated security server device 100 receives sensor information of the security detection sensor or security image of the security image sensor from each remote area via the network 10 as sensor information. Here, the security detection sensor S installed in the remote area generates sensor information (0 or 1) different from each other depending on whether the security detection sensor S is activated or not, and transmits the generated sensor information to the integrated security server device 100 The crime prevention sensor installed in the local area generates sensor information (0 or 1) different from each other depending on whether the crime prevention sensor is activated or not, and transmits the generated sensor information to the integrated crime prevention server device 100.

통합 방범 서버 장치(100)는 원격지역에 설치된 방범 감지 센서 또는 방범 영상 센서의 설치 현황에 따라 원격지역의 방범 감지 센서의 활성화/비활성화 정보, 방범 영상 센서의 센서 정보 및 원격지역의 특성, 예를 들어 원격지역이 회사인 경우 근무시간, 근무자, 출퇴근 시간, 회사의 환경 정보 등을 고려한 상황 가중치에 따른 방범 상태(침입, 비침입, 화재 등)를 학습하여 원격지역의 방범 상태를 판단하기 위한 방범 상황 모델을 생성한다. 또한 통합 방범 서버 장치(100)는 로컬지역에 설치된 방범 감지 센서 또는 방범 영상 센서의 설치 현황에 따라 로컬지역의 방범 감지 센서의 활성화/비활성화 정보, 방범 영상 센서의 센서 정보 및 로컬지역의 특성, 예를 들어 로컬지역이 회사인 경우 근무시간, 근무자, 출퇴근 시간, 회사의 환경 정보 등을 고려한 상황 가중치에 따른 방범 상태(침입, 비침입, 화재 등)를 학습하여 로컬지역의 방범 상태를 판단하기 위한 방범 상황 모델을 생성한다.The integrated security server device 100 may include information on activation / deactivation of a security sensor in a remote area, sensor information of a security image sensor, characteristics of a remote area, and the like, according to the installation status of a security sensor or a security image sensor installed in a remote area For example, if the remote area is a company, security measures are taken to determine the crime prevention status of the remote area by learning security conditions (intrusion, non-intrusion, fire, etc.) according to the situation weight considering the working time, worker, commute time, Create a situation model. In addition, the integrated security server device 100 may include information on activation / deactivation of a security sensor in a local area, sensor information of a security image sensor, characteristics of a local area, and the like, according to the installation status of a security sensor or a security image sensor installed in a local area (Intrusion, non-intrusion, fire, etc.) according to the situation weight in consideration of working time, worker, commute time, company environmental information and the like in case that the local area is a company. Creates a crime scene model.

통합 방범 서버 장치(100)는 다수의 원격지역에 설치된 방범 감지 센서로부터 수신한 센서 정보와 로컬지역에 설치된 방범 감지 센서로부터 수신한 센서 정보를 통합하여 로컬지역 또는 원격지역의 방범 감지 센서의 동작 상태를 나타내는 센서 웹을 생성한다. 통합 방범 서버 장치(100)는 센서 웹에서 로컬지역에 설치된 방범 감지 센서의 동작 상태만을 나타내는 로컬 센서 웹을 생성하며 로컬 센서 웹과 로컬지역에 설치된 방범 영상 센서의 방범 영상 웹을 연동하거나, 센서 웹에서 원격지역별로 설치된 방범 감지 센서의 동작 상태만을 나타내는 원격 센서 웹을 생성하며 원격 센서 웹과 원격지역에 설치된 방범 영상 센서의 방범 영상 웹을 연동하여 연동 웹을 생성한다. The integrated security server device 100 integrates the sensor information received from the security detection sensors installed in a plurality of remote areas and the sensor information received from the security detection sensors installed in the local area to detect the operation state of the security detection sensor in the local area or remote area Lt; / RTI > The integrated security server device 100 generates a local sensor web, which represents only the operation state of the security sensor installed in the local area in the sensor web, and links the local sensor web with the security image web of the security image sensor installed in the local area, A remote sensor web is generated which represents only the operation state of a security sensor installed in each remote region and an interlocking web is created by linking the remote sensor web and the security image web of the security image sensor installed in the remote area.

한편, 통합 방범 서버 장치(100)는 다수의 원격지역의 연동 웹과 로컬지역의 연동 웹을 통합 방범 서버 장치(100)가 제공하는 다수의 영상 채널 중 서로 다른 영상 채널에 할당하여 각 영상 채널에 할당된 연동 웹을 통합한 통합 웹을 생성한다.Meanwhile, the integrated security server device 100 allocates the interworking webs of a plurality of remote areas and the interlocking web of the local area to different image channels among a plurality of image channels provided by the integrated security server device 100, Create an integrated web that integrates the assigned interworking webs.

통합 방범 서버 장치(100)는 통합 웹을 제공하는데, 사용자 단말기(30)는 통합 웹에 접속하여 통합 웹을 통해 다수의 원격지역과 로컬지역의 방범 영상과 방범 센서의 동작 상태를 동시에 모니터링할 수 있다. 따라서 사용자 단말기(30)는 각 원격지역의 방범 영상을 확인하기 위하여 각 원격지역의 방범 영상 웹 별로 접속할 필요가 없으며, 통합 웹에만 접속하여 다수의 원격지역과 로컬지역의 방범 영상을 모두 확인할 수 있고 더욱이 통합 방범 서버 장치(100)를 통해 원격지역의 방범 영상을 저장 관리함으로써 원격지역별로 주방범 장치를 설치할 필요가 없어 방범 설비를 설치하는데 소요되는 비용도 줄이 수 있다.The integrated security server device 100 provides an integrated web. The user terminal 30 accesses the integrated web and simultaneously monitors the operation states of the security cameras and the security sensors in a plurality of remote areas and local areas through the integrated web have. Therefore, the user terminal 30 does not have to access the security image webs of each remote area in order to check the security images of the remote areas, and can access all of the remote areas and local areas by accessing only the integrated web Furthermore, since the security image of the remote area is stored and managed through the integrated security server device 100, it is not necessary to install the kitchen security device for each remote area, thereby reducing the cost of installing the security device.

한편, 통합 방범 서버 장치(100)는 원격지역의 방범 센서 또는 로컬지역의 방범 센서로부터 수신한 센서 정보를 생성한 방범 상황 모델에 적용하여 원격지역 또는 로컬지역의 방범 상태를 판단하며, 판단한 방범 상태에 대한 정보가 통합 웹에 표시되도록 제어하거나 판단한 방범 상태가 설정 조건을 만족하는 경우 출동 센터(50)의 서버나 사용자 단말기로 알림 메시지를 송신 제어한다.Meanwhile, the integrated security server device 100 determines the security state of the remote area or the local area by applying the sensor information received from the security sensor of the remote area or the security sensor of the local area to the generated security situation model, Or controls the transmission of the notification message to the server or the user terminal of the dispatch center 50 when the determined crime prevention condition satisfies the set condition.

도 4는 본 발명의 일 실시예에 따른 통합 방범 서버 장치를 설명하기 위한 기능 블록도이다.4 is a functional block diagram illustrating an integrated security server apparatus according to an embodiment of the present invention.

도 4를 참고로 보다 구체적으로 살펴보면, 통신부(110)는 네트워크를 통해 로컬지역 또는 원격지역의 방범 감지 센서로부터 센서 정보를 수신하거나 방범 영상 센서로부터 영상 센서 정보를 수신한다..4, the communication unit 110 receives sensor information from a crime detection sensor in a local area or a remote area through a network or receives image sensor information from a crime prevention image sensor.

센서 웹 생성부(120)는 로컬지역에 설치된 방범 감지 센서로부터 수신한 센서 정보 또는 원격지역에 설치된 방범 감지 센서로부터 수신한 센서 정보를 모두 통합하여 로컬지역의 방범 감지 센서 또는 원격지역의 방범 감지 센서의 동작 상태를 나타내는 센서 웹을 생성한다. 여기서 센서 웹 생성부(120)는 센서 정보를 수신하는 IP 주소에 기초하여 동일한 IP 주소를 가지는 센서 정보를 동일한 원격지역에 배치된 방범 감지 센서로부터 수신되는 센서 정보로 판단한다. 예를 들어, 원격지역(R1)에 방범 감지센서1, 방범 감지센서2, 방범 감지센서3이 설치되어 있는 경우 방범 감지센서1, 방범 감지센서2, 방범 감지센서3의 센서 정보는 원격지역(R1)에 할당된 동일한 제1 IP주소로 수신되며, 원격지역(R2)에 방범 감지센서4, 방범 감지센서5가 설치되어 있는 경우 방범 감지센서4 및 방범 감지센서5의 센서 정보는 원격지역(R2)에 할당된 동일한 제2 IP주소로 수신된다.The sensor web generating unit 120 integrates sensor information received from the crime prevention sensor installed in the local area or sensor information received from the crime prevention sensor installed in the remote area and transmits the sensor information to the security detection sensor in the local area or the security detection sensor in the remote area And generates a sensor web representing the operation state of the sensor web. Here, the sensor web generating unit 120 determines the sensor information having the same IP address based on the IP address receiving the sensor information as the sensor information received from the crime prevention sensor disposed in the same remote region. For example, when the crime prevention sensor 1, the crime prevention sensor 2, and the crime prevention sensor 3 are installed in the remote area R1, the sensor information of the crime prevention sensor 1, the crime prevention sensor 2, R1), and when the crime prevention sensor 4 and the crime prevention sensor 5 are installed in the remote area R2, the sensor information of the crime prevention sensor 4 and the crime prevention sensor 5 is transmitted to the remote area R2 Lt; RTI ID = 0.0 > R2). ≪ / RTI >

연동 웹 생성부(130)는 센서 웹에서 로컬지역에 설치된 방범 감지 센서의 동작 상태만을 활성화한 로컬 센서 웹을 생성하고 생성한 로컬 센서 웹과 로컬지역에 설치된 방범 영상 센서로부터 수신한 센서 정보, 예를 들어 방범 영상 웹을 연동하거나, 센서 웹에서 원격지역에 설치된 방범 센서의 동작 상태만을 활성화한 원격 센서 웹을 원격지역별로 생성하고 원격 센서 웹과 원격지역에 설치된 방범 영상 센서로부터 수신한 센서 정보, 예를 들어 방범 영상 웹을 연동하여 연동 웹을 생성한다. 연동 웹 생성부(130)는 동일한 IP주소로부터 수신한 방범 감지 센서의 동작 상태만을 나타내는 원격 센서 웹을 생성하고 생성한 원격 센서 웹을 동일한 IP주소로부터 수신한 방범 영상 웹에 합하여 원격지역별로 연동 웹을 생성한다. The interworking web generating unit 130 generates a local sensor web that activates only the operation state of the crime prevention sensor installed in the local area in the sensor web, generates sensor information received from the local sensor web and the security image sensor installed in the local area, The remote sensor web is generated for each remote region by activating only the operation state of the security sensors installed in the remote area in the sensor web, and the sensor information, For example, an interlocking web is created by linking a security video web. The interworking web generating unit 130 generates a remote sensor web representing only the operation state of the security detection sensor received from the same IP address and adds the generated remote sensor web to the security image web received from the same IP address, .

본원발명에서는 로컬 센서 웹과 방범 영상 웹 또는 원격 센서 웹과 방범 영상 웹을 통합하여 1개의 연동 웹으로 생성하며 연동 웹을 통해 원격지역 또는 로컬지역의 방범 영상과 방범 감지 센서의 동작 상태를 동시에 확인 가능하다.In the present invention, the local sensor web, the security image web, or the remote sensor web and the security image web are integrated into one interlocking web, and the operation state of the security detection sensor and the security image of the remote area or the local area are checked simultaneously It is possible.

통합 웹 생성부(140)는 원격지역 또는 로컬지역의 연동 웹을 다수의 영상 채널 중 서로 다른 영상 채널에 할당하고, 각 영상 채널에 할당된 원격지역의 연동 웹 또는 로컬지역의 연동 웹을 통합하여 통합 웹을 생성한다. 예를 들어, 통합 방범 장치가 4개의 영상 채널을 지원하는 경우 4개의 영상 채널 중 서로 다른 영상 채널에 원격지역의 연동 웹 또는 로컬지역의 연동 웹을 할당하여 통합 웹을 생성한다. 웹 제공부(160)는 사용자 단말기로부터 요청이 있는 경우, 생성한 통합 웹을 통신부(110)를 통해 사용자 단말기로 제공한다. The integrated web generating unit 140 assigns the interworking webs of the remote region or the local region to different ones of the plurality of image channels and integrates the interworking webs of the remote regions allocated to the respective image channels or the interworking webs of the local region Create an integrated Web. For example, if the integrated security device supports four video channels, an interworking web of a remote area or an interworking web of a local area is allocated to different video channels among four video channels to generate an integrated web. The web providing unit 160 provides the generated integrated web to the user terminal through the communication unit 110 when there is a request from the user terminal.

여기서 웹 편집부(150)는 사용자 명령에 따라 연동 웹에서 방범 감지 센서의 식별자 또는 방범 영상 센서의 식별자 등을 편집하거나 사용자 명령에 따라 영상 채널 중 각 영상 채널에 할당되는 연동 웹을 편집하는데, 연동 웹 생성부(130) 또는 통합 웹 생성부(140)는 웹 편집부(150)의 제어에 따라 연동 웹 또는 통합 웹을 생성한다.Here, the web editing unit 150 edits an identifier of a security detection sensor or an identifier of a security image sensor in an interworking web according to a user command, or edits an interworking web allocated to each image channel in a video channel according to a user command, The generating unit 130 or the integrated web generating unit 140 generates an interworking web or an integrated web under the control of the web editing unit 150. [

한편, 머신 러닝부(170)는 각 원격지역에 설치된 방범 감지 센서의 종류와 방범 영상 센서의 종류, 방범 감지 센서의 활성화/비활성화 정보, 방범 영상 센서의 영상 정보 및 각 원격지역의 특성을 고려한 상황 가중치에 따른 원격지역의 방범 상태 등을 구비하는 학습 데이터로부터 각 원격지역의 방범 상태를 판단하기 위한 각 원격지역의 방범 상황 모델을 생성하거나, 머신 러닝부(170)는 로컬지역에 설치된 방범 감지 센서의 종류와 방범 영상 센서의 종류, 방범 감지 센서의 활성화/비활성화 정보, 방범 영상 센서의 영상 정보 및 로컬지역의 특성을 고려한 상황 가중치에 따른 로컬지역의 방범 상태 등을 구비하는 학습 데이터로부터 로컬지역의 방범 상태를 판단하기 위한 로컬지역의 방범 상황 모델을 생성한다.Meanwhile, the machine learning unit 170 determines the type of the crime prevention sensor installed in each remote area, the type of the crime prevention image sensor, the activation / deactivation information of the crime prevention sensor, the image information of the crime prevention image sensor, And the machine learning unit 170 generates a crime scene model for each remote area to determine the crime scene state of each remote area from the learning data including the crime scene of the remote area according to the weight, From the learning data including the type of the security image sensor, the type of the security image sensor, the activation / deactivation information of the security sensor, the image information of the security image sensor, and the security status of the local area according to the situation weight considering the characteristics of the local area, And creates a local situation crime scene model for judging the crime scene.

상황 판단부(190)는 통신부(110)를 통해 원격지역 또는 로컬지역으로부터 신규 센서 정보를 수신하는 경우 신규 센서 정보에 대한 신규 상황 가중치를 판단하며, 신규 센서 정보와 신규 상황 가중치를 원격지역 또는 로컬지역의 해당하는 방범 상황 모델에 적용하여 원격지역 또는 로컬지역의 방범 상태를 판단한다.When receiving the new sensor information from the remote region or the local region through the communication unit 110, the situation determination unit 190 determines the new situation weight for the new sensor information, and transmits the new sensor information and the new situation weight to the remote region or local It is applied to the corresponding crime scene model of the region to determine the crime scene of the remote area or local area.

센서 정보 데이터베이스(180)에 원격지역별 또는 로컬지역으로 구분하여 신규 상황 정보, 신규 상황 가중치 및 실제 방범 상태에 대한 정보가 주기적으로 저장되며, 머신 러닝부(170)는 센서 정보 데이터베이스에 저장된 신규 상황 정보, 신규 상황 가중치 및 실제 방범 상태 정보를 생성된 방범 상황 모델에 기계학습시켜 원격지역 또는 로컬지역에 대한 방범 상황 모델을 갱신할 수 있으며, 상황 판단부(190)는 갱신한 방범 상황 모델을 통해 원격지역 또는 로컬지역의 방범 상태를 판단할 수 있다.Information about the new situation information, the new situation weight, and the actual crime prevention status is periodically stored in the sensor information database 180 by the remote region or the local region, and the machine running unit 170 reads the new situation information The new situation weight and the actual crime state information to the generated crime scene model to update the crime scene model for the remote area or the local area, and the situation judgment unit 190 can update the crime scene model using the updated crime scene model It is possible to determine the crime prevention status of a local area or a local area.

경고 제어부(195)는 상황 판단부(190)에서 판단한 로컬지역 또는 원격지역의 방범 상태 정보가 설정한 경고 조건을 만족하는지 판단하며, 통합 웹에서 경고 조건을 만족하는 원격지역 또는 로컬지역의 연동 웹을 경고 활성화 제어한다. 또한 경고 제어부(195)는 경고 조건이 발생하는 경우 통신부(110)를 통해 사용자 단말기 또는 관제 센터로 경고 조건이 발생한 원격지역 또는 로컬지역의 위치 정보와 경고 조건을 구비하는 알림 메시지를 송신 제어한다.The warning control unit 195 determines whether the security condition information of the local area or the remote area determined by the situation determination unit 190 satisfies the warning condition set by the security determination unit 190, To activate the warning. In addition, when a warning condition occurs, the warning control unit 195 controls the communication unit 110 to transmit a notification message including the location information and the warning condition of the remote area or the local area where the warning condition occurs to the user terminal or the control center.

도 5는 본 발명의 일 실시예에 따른 인공지능 방범 관리 방법을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating an artificial intelligence security management method according to an embodiment of the present invention.

도 5를 참고로 보다 구체적으로 살펴보면, 방범 상태 판단을 위한 정보를 구비하고 있는 데이터베이스에서 학습데이터와 테스트데이터를 추출한다(S110). 로컬지역에 설치되어 있는 방범 감지 센서와 방범 영상 센서, 로컬지역의 특성을 고려한 방범 감지 센서와 방범 영상 센서의 센서 정보에 대한 상황 가중치, 센서 정보와 상황 가중치에 해당하는 실제 방범 상태 정보가 데이터베이스에 저장되어 있으며, 데이터베이스에서 일부를 로컬지역에 대한 학습데이터로 추출하고 나머지 일부를 테스트데이터로 추출한다. 또한 원격지역에 설치되어 있는 방범 감지 센서와 방범 영상 센서, 원격지역의 특성을 고려한 방범 감지 센서와 방범 영상 센서의 센서 정보에 대한 상황 가중치, 센서 정보와 상황 가중치에 해당하는 실제 방범 상태 정보가 데이터베이스에 저장되어 있으며, 데이터베이스에서 일부를 원격지역에 대한 학습데이터로 추출하고 나머지 일부를 테스트데이터로 추출한다.5, learning data and test data are extracted from a database having information for determining the crime prevention status (S110). The crime scenes, the sensor information and the actual crime prevention status information corresponding to the sensor weight of the sensor information of the crime prevention sensor and the crime prevention image sensor, which are installed in the local area, and the crime prevention image sensor, And extracts a part of the database as learning data for the local area and extracts the remaining part as test data. In addition, the actual situation of crime scenes corresponding to sensor weight, sensor information and situation weight for sensor information of the crime prevention sensor and the crime image sensor installed in the remote area, the crime prevention sensor considering the characteristics of the remote area and the crime prevention image sensor, And extracts a part of the database as learning data for the remote area and extracts the remaining part as test data.

추출한 로컬지역의 학습데이터와 테스트데이터로부터 로컬지역의 방범 상태를 판단하기 위한 방범 상황 모델을 생성하며, 추출한 원격지역의 학습데이터와 테스트데이터로부터 원격지역의 방범 상태를 판단하기 위한 방범 상황 모델을 생성한다(S120). 본 발명에서 방범 상황 모델을 생성시 원격지역 또는 로컬지역에 설치된 방범 감지 센서 또는 방범 영상 센서의 배치 현황을 고려하며, 추가적으로 방범 감지 센서의 활성화/비활성화 정보, 방범 영상 센서의 영상 정보 및 방범 지역의 특성, 예를 들어 방범지역이 회사인 경우 근무시간, 근무자, 출퇴근 시간, 회사의 환경 정보 등을 고려한 상황 가중치에 따른 실제 방범 상태(침입, 비침입, 화재 등)를 학습하여 로컬지역 또는 원격지역에 특화되어 방범 상태를 정확하게 판단할 수 있는 방범 상황 모델을 생성한다.From the extracted learning data and test data of the local area, a crime scenarios model for deciding the crime prevention status of the local area is generated, and a crime scene model for determining the crime prevention status of the remote area is generated from the extracted learning data and test data of the remote area (S120). In the present invention, when creating a crime scenarios model, consideration is given to the deployment status of a crime prevention sensor or a crime prevention image sensor installed in a remote area or a local area. In addition, activation / deactivation information of a crime prevention sensor, image information of a crime prevention image sensor, (Eg, intrusion, non-intrusion, fire, etc.) according to the situation weights in consideration of working time, worker, commute time, company environmental information, And generates a crime scene model that can accurately determine crime scenes.

로컬지역 또는 원격지역에 설치된 방범 센서로부터 신규 센서 정보를 수신하는 경우(S130), 신규 센서 정보에 대한 신규 상황 가중치를 판단한다(S150). 여기서 신규 상황 가중치는 센서의 종류에 따라 판단기준을 달리하여 각 센서 정보가 가질 수 있는 레벨을 방범 상황에 따라 서로 상이하게 구분하여 할당한 가중치 값을 의미한다. 즉, 센서 정보는 0/1의 디지털 값 중 어느 하나의 값을 가지는데, 센서의 종류에 따라 판단기준인 상황 종류를 달리하여 각 센서 정보가 가질 수 있는 레벨에 따라 서로 상이한 가중치 값으로 할당하여 방범하고자 하는 지역의 특성을 고려할 수 있다.If the new sensor information is received from the security sensor installed in the local area or the remote area (S130), the new situation weight is determined for the new sensor information (S150). Here, the new situation weight value is a weight value that is assigned differently according to the crime scene according to the level of the sensor information, which is different according to the type of the sensor, and the sensor information. That is, the sensor information has a value of 0/1 digital value. Depending on the type of the sensor, the sensor information may be assigned a different weight value depending on the level that each sensor information can have, The characteristics of the area to be crushed can be considered.

도 6은 본 발명에 따른 상황 가중치의 일 예를 설명하고 있는데, 도 6에 도시되어 있는 바와 같이 출입문 센서로부터 수신되는 센서정보는 0/1 중 어느 하나의 값만을 가지지만, 방범 지역이 회사인 경우 업무 시간을 판단기준인 상황 종류로 하여, 업무 시간으로 침입자를 판단한다는 상황 종류에 따라 업무 시간으로 판단되는 시간 레벨에 출입문 센서가 활성화되는 경우 낮은 상황 가중치를 할당하고 업무 시간이라고 판단될 수 없는 시간 레벨에 출입문 센서가 활성화되는 경우 높은 상황 가중치를 할당한다.
한편, 영상센서로부터 이전 시간에 없던 새로운 객체가 존재하는지 여부에 따라 영상센서로부터 획득되는 센서정보는 0/1 중 어느 하나의 값만을 가지지만, 새로운 객체의 면적을 판단기준인 상황 종류로 하여, 새로운 객체의 면적으로 침입자를 판단한다는 상황 종류에 따라 객체의 면적 크기가 사람으로 판단될 수 없는 면적 레벨에는 낮은 상황 가중치를 할당하고 사람으로 판단될 수 있는 면적 레벨에는 높은 상황 가중치를 할당한다. 이와 같이 상황 가중치를 방범 지역의 특성에 따라 상이하게 할당함으로써, 보다 정확하게 방범 지역의 방범 상태를 판단할 수 있는 방범 상황 모델을 생성할 수 있다.
바람직하게, 영상센서로부터 수신한 신규 영상과 이전 영상을 비교하여 신규 영상에 새로운 객체가 존재하는지 여부를 판단하며, 전체 영상에서 객체가 차지하는 면적을 계산하여 객체 면적 크기를 계산할 수 있다.
FIG. 6 illustrates an example of the context weight according to the present invention. As shown in FIG. 6, the sensor information received from the door sensor has only one value of 0/1, In the case where the door sensor is activated at a time level determined as business hours according to the type of the situation in which the business hours are judged as the criterion for determining the intruder in the business hours, a low situation weight is assigned, When a door sensor is activated at a time level, a high context weight is assigned.
Meanwhile, the sensor information acquired from the image sensor according to whether a new object not present at the previous time exists from the image sensor has only one value of 0/1, According to the type of situation in which an intruder is judged by the area of a new object, a low context weight is assigned to an area level where the area size of the object can not be judged as a person, and a high context weight is assigned to an area level that can be judged as a human. By assigning the context weights differently according to the characteristics of the crime prevention area, it is possible to generate a crime scene model that can more accurately determine the crime prevention state of the crime prevention area.
Preferably, the new image received from the image sensor is compared with the previous image to determine whether a new object exists in the new image, and the area occupied by the object in the entire image is calculated to calculate the object area size.

여기서 상황 가중치는 원격지역 또는 로컬지역의 특성에 따라 관리자가 기설정하여 등록 저장할 수 있다.Here, the status weight can be registered and stored by the administrator according to the characteristics of the remote area or the local area.

다시 도 5를 참고로 살펴보면, 로컬지역 또는 원격지역으로부터 수신한 신규 센서 정보 및 신규 센서 정보에 대한 신규 상황 가중치를 방범 상황 모델에 적용하여 원격지역 또는 로컬지역의 방범 상태를 판단한다(S170). 판단한 원격지역 또는 로컬지역의 방범 상태에 기초하여 설정한 경고 상황(예를 들어 원격지역 또는 로컬지역에 침입자가 들어온 것으로 판단되거나 원격지역 또는 로컬지역에 화재가 발생한 것으로 판단되는 경우)이 발생하였는지 판단하며(S180), 설정한 경고 상황이 발생한 경우 사용자 단말기로 경고 알림 서비스를 제공하거나 경찰서, 관제 센터 등의 출동 센터 서버로 경고 알림 서비스를 제공한다(S190).Referring to FIG. 5, a new situation weight for new sensor information and new sensor information received from a local area or a remote area is applied to the security situation model to determine the security status of a remote area or a local area (S170). (For example, when it is judged that an intruder has entered a remote area or a local area, or a fire has occurred in a remote area or a local area) based on the security status of the determined remote area or local area (S180). When the set warning condition occurs, the user terminal provides an alert notification service or provides an alert notification service to a dispatch center server such as a police station or a control center (S190).

바람직하게, 판단한 원격지역 또는 로컬지역의 방범 상태에 기초하여, 원격지역 또는 로컬지역에 경고 상황이 발생한 것으로 판단되는 경우, 원격지역 또는 로컬지역의 방범 영상으로부터 주기적으로 정지 화상을 생성하며, 생성한 정지 화상을 사용자 단말기 또는 출동 센터 서버로 제공할 수 있다. Preferably, when it is determined that a warning situation has occurred in the remote area or the local area based on the determined security state of the remote area or the local area, a still image is periodically generated from the security image in the remote area or the local area, The still image can be provided to the user terminal or the dispatch center server.

도 7은 본 발명에 따른 인공지능 방범 관리 방법에서 학습데이터를 기계학습하여 방범 상황 모델을 생성하는데 사용되는 신경망 모델을 도시하고 있다.FIG. 7 shows a neural network model used for generating a crime scene model by learning machine learning data in the artificial intelligence security management method according to the present invention.

도 7을 참고로 살펴보면, 입력층으로 방범 감지 센서 및 방범 영상 센서로부터 수신한 센서 정보가 입력되며, 센서 정보와 상황 가중치는 은닉층1로 입력되어 설정된 함수(∫)에 의해 예측값을 생성한다. 생성한 예측값은 다시 다음 은닉층으로 입력되고 최종적으로 출력층을 통해 출력값(Y)을 출력한다. 출력값은 방범 지역에서 침입, 화재 등의 이벤트가 발생할 확률로 출력될 수 있는데, 출력된 확률에 기초하여 방범 지역에서 침입, 화재 등의 이벤트 발생 여부를 판단할 수 있다.7, the sensor information received from the crime prevention sensor and the crime prevention image sensor is input to the input layer, and the sensor information and the state weight are input to the hidden layer 1 and a predicted value is generated according to the set function (). The generated prediction value is input again to the next hidden layer, and finally outputs the output value Y through the output layer. The output value can be output as a probability of occurrence of an event such as an intrusion or a fire in a crime prevention area. Based on the output probability, it is possible to determine whether an event such as an intrusion or a fire occurs in a crime prevention area.

본 발명이 적용되는 분야에 따라 학습 데이터를 기계학습하는데 결정트리모델 등 다양한 모델이 사용될 수 있으며, 이는 본 발명의 범위에 속한다.Depending on the field to which the present invention is applied, various models such as a decision tree model can be used for machine learning of learning data, and this is within the scope of the present invention.

도 8은 본 발명에 따른 인공지능 방범 관리 방법에서 통합 웹을 생성하는 단계를 설명하기 위한 흐름도이다. FIG. 8 is a flowchart illustrating a step of generating an integrated web in the artificial intelligence security management method according to the present invention.

도 8을 참고로 보다 구체적으로 살펴보면, 로컬지역에 설치된 방범 감지 센서 또는 원격지역에 설치된 방범 감지 센서로부터 센서 정보를 수신하는 경우, 로컬지역에 설치된 방범 감지 센서의 센서 정보와 원격지역에 설치된 방범 감지 센서의 센서 정보를 통합하여 로컬지역의 방범 감지 센서 또는 원격지역의 방범 감지 센서의 동작 상태를 나타내는 1개의 센서 웹을 생성한다(S210). 8, when sensor information is received from a security sensor installed in a local area or a security sensor installed in a remote area, sensor information of a security sensor installed in a local area and security information The sensor information of the sensor is integrated to generate one sensor web indicating the operation state of the crime detection sensor in the local area or the crime prevention sensor in the remote area in step S210.

로컬지역으로부터 수신되는 방범 영상 센서의 영상 웹과 로컬지역에 설치된 방범 감지 센서의 동작 상태만을 나타내는 로컬 센서 웹을 연동하거나, 원격지역으로부터 수신되는 방범 영상 센서의 영상 웹과 원격지역에 설치된 방범 감지 센서의 동작 상태만을 나타내는 원격 센서 웹을 연동하여 연동 웹을 생성한다(S230). A web image of a security image sensor received from a local area and a local sensor web that only displays the operation status of a security sensor installed in a local area, or a security image sensor installed in a remote area (Step S230). ≪ RTI ID = 0.0 > [0031] < / RTI >

도 9는 본 발명에 따른 연동 웹의 일 예를 도시하고 있는데, 도 9를 참고로 살펴보면 연동 웹은 센서 웹(web1)과 방범 영상 웹(web2)으로 이루어지며 바람직하게 연동 웹은 방범 영상 웹(web2)에 센서 웹(web1)을 오버레이하여 생성되는 것을 특징으로 한다. 여기서 센서 웹(web1)은 로컬 센서 웹 또는 원격 센서 웹이며 방범 영상 웹(web2)는 로컬지역의 방범 영상 웹이거나 원격지역의 방범 영상 웹이다. 한편, 센서 웹(web1)은 바탕화면이 투명하거나 불투명하게 제작될 수 있다.Referring to FIG. 9, the interlocking web is composed of a sensor web web1 and a security image web web2. Preferably, the interlocking web is a security image web and the sensor web web1 is overlaid on the sensor web web2. Here, the sensor web (web1) is a local sensor web or a remote sensor web, and the security image web (web2) is a security image web of a local area or a security image web of a remote area. On the other hand, the sensor web web 1 can be made transparent or opaque.

연동 웹을 통해 사용자는 로컬지역 또는 원격지역에 설치된 방범 감지 센서의 동작 상태와 방범 영상을 동시에 확인 가능한데, 연동 웹에는 로컬지역 또는 원격지역의 식별자, 방범 감지 센서의 식별자, 방범 영상의 촬영 시각 등이 표시되며 방범 감지 센서1과 방범 감지 센서2의 동작 상태에 따라 서로 다른 색상으로 활성화된다. 예를 들어, 방범 감지 센서1이 움직임 감지 센서이고 방범 감지 센서2가 문 열림 감지 센서인 경우 방범 감지 센서1에서 움직임이 감지되지 않거나 방범 감지 센서2에서 문 열림이 감지되지 않는 경우 초록색으로 활성화되며, 움직임이 감지되거나 문 열림이 감지되는 경우 빨간색으로 활성화된다. 바람직하게, 로컬지역 또는 원격지역의 식별자, 방범 감지 센서의 식별자는 입력된 사용자 명령에 따라 웹 편집부에서 편집되는 것을 특징으로 한다.Through the interworking web, the user can simultaneously check the operation status and the security image of the security detection sensor installed in the local area or the remote area. In the interlocking web, the identifier of the local area or remote area, the identifier of the security detection sensor, And is activated in different colors according to the operation states of the crime prevention sensor 1 and the crime prevention sensor 2. For example, if the crime detection sensor 1 is a motion detection sensor and the crime prevention sensor 2 is a door open detection sensor, it is activated in green when no motion is detected by the crime prevention sensor 1 or when a door open is not detected by the crime prevention sensor 2 , It is activated in red when motion is detected or door open is detected. Preferably, the identifier of the local area or the remote area and the identifier of the security detection sensor are edited in the web editing unit according to the inputted user command.

다시 도 8을 참고로 살펴보면, 원격지역 또는 로컬지역의 연동 웹을 다수의 영상 채널 중 서로 다른 영상 채널에 할당하며 각 영상 채널에 할당된 연동 웹을 통합하여 통합 웹을 생성한다(S250). 사용자 단말기가 통합 웹에 접속하는 경우, 통합 웹의 컨텐츠를 사용자 단말기로 제공한다(S270). Referring again to FIG. 8, an interworking web of a remote region or a local region is allocated to different image channels among a plurality of image channels, and an integrated web allocated to each image channel is integrated to generate an integrated web (S250). When the user terminal accesses the integrated web, the contents of the integrated web are provided to the user terminal (S270).

도 10은 본 발명에 따른 통합 웹의 일 예를 도시하고 있는데, 도 10을 참고로 보다 구체적으로 살펴보면 영상 채널이 4개인 경우 로컬지역(L)의 연동 웹은 제1 영상 채널에 할당되고, 원격지역(R1)의 연동 웹은 제2 영상 채널에 할당되고, 원격지역(R2)의 연동 웹은 제3 영상 채널에 할당되고, 원격지역(R3)의 연동 웹은 제4 영상 채널에 할당되어 4개의 연동 웹을 통합한 통합 웹을 생성한다. 사용자는 통합 웹에 접속하여 로컬지역과 다수의 원격지역의 방범 감지 센서의 동작 상태 및 방범 영상을 동시에 확인 가능하다. 바람직하게, 다수의 영상 채널 중 서로 다른 영상 채널에 할당되는 연동 웹은 입력된 사용자 명령에 따라 웹 편집부에서 편집되는 것을 특징으로 한다.FIG. 10 illustrates an example of an integrated web according to the present invention. Referring to FIG. 10, when there are four video channels, the interworking web of the local area L is allocated to the first video channel, The interworking web of the region R1 is assigned to the second image channel and the interworking web of the remote region R2 is assigned to the third image channel and the interworking web of the remote region R3 is assigned to the fourth image channel 4 To create an integrated web that integrates a number of interworking webs. The user can access the integrated web and simultaneously check the operation status and security image of the crime prevention sensor in the local area and a plurality of remote areas. Preferably, the interworking web allocated to the different image channels among the plurality of image channels is edited in the web editing unit according to the inputted user command.

도 10에 도시되어 있는 바와 같이, 원격지역(R2)에서 수신한 신규 센서 정보와 신규 센서 정보에 대한 상황 가중치를 방범 상황 모델에 적용하여 원격지역(R2)에서 설정한 방범 상태(예를 들어, 침입, 화재 등)가 발생한 경우 원격지역(R2)의 센서 웹은 다른 색으로 활성화되어 원격지역(R2)에서 방범 상태가 발생함을 사용자 또는 관리자에 알려준다.As shown in FIG. 10, the context weights for the new sensor information and the new sensor information received in the remote region R2 are applied to the crime scene model, and the crime scenes set in the remote region R2 (for example, Intrusion, fire, etc.) occurs, the sensor web of the remote area (R2) is activated in a different color to inform the user or manager that a security condition occurs in the remote area (R2).

도 11은 본 발명에 따른 통합 웹의 다른 예를 도시하고 있는데, 도 11을 참고로 보다 구체적으로 살펴보면 영상 채널이 4개인 경우 로컬지역(L)의 연동 웹은 제1 영상 채널에 할당되고, 원격지역(R1)의 연동 웹은 제2 영상 채널에 할당되고, 원격지역(R2)의 연동 웹은 제3 영상 채널에 할당되고, 원격지역(R3)의 연동 웹은 제4 영상 채널에 할당되어 4개의 연동 웹을 통합한 통합 웹을 생성한다. 11, the interworking web of the local area L is allocated to the first video channel, and the remote web of the local area L is allocated to the first video channel. In other words, The interworking web of the region R1 is assigned to the second image channel and the interworking web of the remote region R2 is assigned to the third image channel and the interworking web of the remote region R3 is assigned to the fourth image channel 4 To create an integrated web that integrates a number of interworking webs.

도 11에 도시되어 있는 바와 같이, 원격지역(R1)에서 수신한 신규 센서 정보와 신규 센서 정보에 대한 상황 가중치를 방범 상황 모델에 적용하여 원격지역(R1)에서 화재가 발생한 것으로 판단되거나, 원격지역(R2)에서 수신한 신규 센서 정보와 신규 센서 정보에 대한 상황 가중치를 방범 상황 모델에 적용하여 원격지역(R2)에서 침입이 발생한 것으로 판단되는 경우 원격지역(R1) 또는 원격지역(R2)의 연동 웹 중 일부에 발생한 방범 상태, 예를 들어 화재, 침입이라는 알림 메시지를 표시한다. As shown in Fig. 11, the situation weight for the new sensor information and the new sensor information received in the remote region R1 is applied to the crime scene model to determine that a fire has occurred in the remote region R1, The state weight of the new sensor information and the new sensor information received from the remote area R2 is applied to the security situation model and the interlocking of the remote area R1 or the remote area R2 when it is determined that the intrusion has occurred in the remote area R2 It displays a warning message that some of the webs have crime, for example, fire or intrusion.

한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.The above-described embodiments of the present invention can be embodied in a general-purpose digital computer that can be embodied as a program that can be executed by a computer and operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.The computer-readable recording medium may be a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), an optical reading medium (e.g. CD ROM, Lt; / RTI > transmission).

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100: 통합 방범 장치
110: 통신부 120: 센서 웹 생성부
130: 연동 웹 생성부 140: 통합 웹 생성부
150: 웹 편집부 160: 웹 제공부
170: 머신 러닝부 180: 센서 정보 DB
190: 상황 판단부 195: 경고 제어부
100: Integrated security device
110: communication unit 120: sensor web generation unit
130: interworking web generating unit 140: integrated web generating unit
150: Web editing unit 160: Web providing service
170: Machine learning unit 180: Sensor information DB
190: situation determination unit 195: warning control unit

Claims (8)

센서 정보, 각 센서 정보에 대한 상황 가중치 및 해당 센서 정보와 센서 정보에 대한 상황 가중치에 상응하는 실제 방범 상태로 이루어진 학습데이터를 머신러닝하여 상기 센서 정보, 상황 가중치 및 실제 방범 상태로부터 방범 상황 모델을 생성하는 단계;
방범 지역에 설치되어 있는 방범 센서로부터 수신한 신규 센서 정보에 기초하여 상기 신규 센서 정보에 대한 신규 상황 가중치를 판단하는 단계; 및
상기 신규 센서 정보와 신규 상황 가중치를 상기 방범 상황 모델에 적용하여 상기 방범 지역의 방범 상태를 판단하고 판단한 방범 상태에 대한 정보를 설정된 모니터링 단말기로 송신하는 단계를 포함하며,
상기 상황 가중치는 센서의 종류에 따라 판단기준인 상황 종류를 달리하여 각 센서 정보가 가질 수 있는 레벨을 상황 종류에 따라 서로 상이하게 구분하여 할당한 가중치 값이며,
상기 신규 상황 가중치는 센서의 종류에 따라 판단기준인 상황 종류를 달리하여 각 신규 센서 정보가 가질 수 있는 레벨을 상황 종류에 따라 서로 상이하게 구분하여 할당한 가중치 값이며,
상기 신규 센서 정보는 영상 정보를 포함하는데, 상기 영상 정보에서 신규 객체가 감지되는 경우 상기 신규 객체의 면적 크기가 사람으로 판단되는지 여부에 따라 상기 신규 센서 정보에 상이한 상황 가중치를 할당하는 것을 특징으로 하는 인공지능 방범 관리 방법.
Learning data consisting of sensor information, a state weight for each sensor information, and actual security state corresponding to the state weight for the sensor information and the sensor information is machine-operated to detect a security situation model from the sensor information, the state weight, ;
Determining a new situation weight for the new sensor information based on new sensor information received from a security sensor installed in a crime prevention area; And
Applying the new sensor information and the new situation weight to the crime scene model to judge the crime scene of the crime scene and transmitting information on the determined crime scene to the set monitoring terminal,
The context weight is a weight value assigned differently according to the type of the situation, the levels that each sensor information can have,
The new situation weight is a weight value that is differentiated according to the type of the situation, and the level that each new sensor information can have,
Wherein the new sensor information includes image information, and when a new object is detected in the image information, a different status weight is assigned to the new sensor information according to whether an area size of the new object is determined as a person Artificial intelligence security management method.
제 1 항에 있어서, 상기 인공지능 방범 관리 방법은
로컬지역에 설치되어 있는 방범 센서로부터 로컬 신규 센서 정보를 수신하여 로컬 신규 센서 정보에 대한 로컬 신규 상황 가중치를 판단하거나,
원격지역에 설치되어 있는 방범 센서로부터 원격 신규 센서 정보를 수신하여 원격 신규 센서 정보에 대한 원격 신규 상황 가중치를 판단하는 것을 특징으로 하는 인공지능 방범 관리 방법.
The method according to claim 1, wherein the artificial intelligence security management method
The local new sensor information is received from the security sensor installed in the local area to determine the local new situation weight for the local new sensor information,
Wherein the remote new sensor information is received from the security sensor installed in the remote area to determine the remote new situation weight for the remote new sensor information.
제 2 항에 있어서, 상기 인공지능 방범 관리 방법은
상기 로컬 신규 센서 정보와 상기 로컬 신규 상황 가중치를 주기적으로 저장하거나 상기 원격 신규 센서 정보와 상기 원격 신규 상황 가중치를 주기적으로 저장하며,
저장한 상기 로컬 신규 센서 정보와 상기 로컬 신규 상황 가중치를 상기 상황 모델에 적용하거나 저장한 상기 원격 신규 센서 정보와 상기 원격 신규 상황 가중치를 상기 상황 모델에 적용하여 상기 상황 모델을 주기적으로 갱신하는 단계를 더 포함하는 것을 특징으로 하는 인공지능 방범 관리 방법.
The method according to claim 2, wherein the artificial intelligence security management method
Periodically storing the local new sensor information and the local new situation weight or periodically storing the remote new sensor information and the remote new situation weight,
And periodically updating the situation model by applying the stored new local sensor information and the local new situation weight to the situation model and applying the remote new sensor information and the remote new situation weight to the situation model The method comprising the steps of:
제 2 항에 있어서, 상기 인공지능 방범 관리 방법은
로컬지역 또는 원격지역에 설치되어 있는 방범 감지 센서로부터 수신되는 디지털 센서 정보를 통합하여 상기 로컬지역 또는 상기 원격지역의 방범 센서의 동작 상태를 나타내는 센서 웹을 생성하는 단계;
상기 센서 웹에서 상기 로컬지역에 설치된 방범 센서의 동작 상태만을 활성화한 로컬 센서웹을 상기 로컬지역으로부터 수신되는 방범 영상 센서의 영상 웹과 연동하거나, 상기 센서 웹에서 상기 원격지역에 설치된 방범 센서의 동작 상태만을 활성화한 원격 센서웹을 상기 원격지역으로부터 수신되는 방범 영상 센서의 영상 웹과 연동하여 연동 웹을 생성하는 단계; 및
다수의 원격지역 각각에 대해 생성한 연동 웹 또는 로컬지역에 대해 생성한 연동 웹을 다수의 영상 채널 중 서로 다른 영상 채널에 할당하고, 각 영상 채널에 할당된 연동 웹을 통합하여 통합 웹으로 생성하는 단계를 포함하는 것을 특징으로 하는 인공지능 방범 관리 방법.
The method according to claim 2, wherein the artificial intelligence security management method
The method comprising the steps of: integrating digital sensor information received from a crime prevention sensor installed in a local area or a remote area to generate a sensor web representing an operation state of the crime prevention sensor in the local area or the remote area;
The local sensor web activated only the operation state of the security sensor installed in the local area in the sensor web is interlocked with the image web of the security image sensor received from the local area or the operation of the security sensor installed in the remote area Generating an interworking web by interfacing a remote sensor web having only a status activated with a video web of a security image sensor received from the remote area; And
An interworking web generated for each of a plurality of remote regions and an interworking web generated for a local region are allocated to different image channels among a plurality of image channels and an interworking web allocated to each image channel is integrated into an integrated web The method comprising the steps of:
제 4 항에 있어서, 상기 인공지능 방범 관리 방법은
상기 로컬지역의 방범 상태에 대한 정보 또는 상기 원격지역의 방범 상태에 대한 정보를 상기 연동 웹 중 일부에 표시하는 것을 특징으로 하는 인공지능 방범 관리 방법.
The method of claim 4, wherein the artificial intelligence security management method
Wherein the information about the security state of the local area or the security state of the remote area is displayed on a part of the interworking web.
삭제delete 제 4 항에 있어서, 상기 연동 웹을 생성하는 단계는
상기 센서 웹에서 상기 로컬지역에 설치된 방범 감지 센서를 식별하고 상기 로컬지역에 설치된 방범 감지 센서의 동작 상태만을 나타내는 로컬 센서 웹을 상기 센서 웹으로부터 생성하는 단계;
상기 센서 웹에서 원격지역별로 설치된 방범 센서를 식별하고, 원격지역별로 원격지역에 설치된 방범 센서의 동작 상태만을 나타내는 원격 센서 웹을 상기 센서 웹으로부터 생성하는 단계; 및
상기 로컬 센서 웹을 상기 로컬지역의 방범 영상 웹과 연동하여 상기 로컬지역의 연동 웹을 생성하거나 상기 원격 센서 웹을 상기 원격지역의 방범 영상 웹과 연동하여 상기 원격지역의 연동 웹을 생성하는 단계를 포함하며,
상기 다수의 원격지역 중 동일한 원격지역의 방범 센서로부터 수신되는 센서 정보는 서로 동일한 IP 주소로 식별하며,
상기 센서 웹에서 서로 동일한 IP 주소를 가지는 방범 센서의 동작 상태만을 활성화하여 원격 센서 웹을 생성하는 것을 특징으로 하는 인공지능 방범 관리 방법.
5. The method of claim 4, wherein generating the interlocking web
Identifying a crime prevention sensor installed in the local area in the sensor web and generating a local sensor web from the sensor web that indicates only the operation state of the crime detection sensor installed in the local area;
Generating a remote sensor web from the sensor web by identifying a security sensor installed in each remote region in the sensor web and showing only the operation state of a security sensor installed in a remote region in each remote region; And
Generating an interworking web of the local area by interfacing the local sensor web with a crime prevention image web of the local area or interworking the remote sensor web with a crime prevention image web of the remote area to generate an interworking web of the remote area ≪ / RTI &
The sensor information received from the security sensors in the same remote area among the plurality of remote areas is identified by the same IP address,
And activating only the operation states of the security sensors having the same IP address in the sensor web to generate the remote sensor web.
제 3 항 또는 제 4 항에 있어서, 상기 인공지능 방범 관리 방법은
설정한 방범 상태 조건을 만족하는 로컬지역 또는 원격지역에서 영상촬영부를 통해 주기적으로 정지화상을 촬영하는 단계;
상기 방범 상태 조건에 대한 정보 및 정지화상을 사용자 단말기 또는 관제 센터 서버로 송신하는 단계; 및
사용자 단말기로부터 출동 요청 명령을 수신하는 경우, 관제 센터 서버로 출동을 요청하는 출동 요청 메시지를 송신하는 단계를 더 포함하는 것을 특징으로 하는 인공지능 방범 관리 방법.
The method of claim 3 or 4, wherein the artificial intelligence security management method
Capturing a still image periodically through an image capturing unit in a local area or a remote area that satisfies the set crime prevention condition;
Transmitting information on the crime prevention condition and a still image to a user terminal or a control center server; And
Further comprising the step of transmitting a dispatch request message for requesting dispatch to the control center server when the dispatch request command is received from the user terminal.
KR1020170118830A 2017-09-15 2017-09-15 Method for managing crime prevention and disaster prevention using artificial intelligence KR101951361B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170118830A KR101951361B1 (en) 2017-09-15 2017-09-15 Method for managing crime prevention and disaster prevention using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170118830A KR101951361B1 (en) 2017-09-15 2017-09-15 Method for managing crime prevention and disaster prevention using artificial intelligence

Publications (1)

Publication Number Publication Date
KR101951361B1 true KR101951361B1 (en) 2019-02-22

Family

ID=65584686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170118830A KR101951361B1 (en) 2017-09-15 2017-09-15 Method for managing crime prevention and disaster prevention using artificial intelligence

Country Status (1)

Country Link
KR (1) KR101951361B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117642A1 (en) * 2019-12-13 2021-06-17 Sony Semiconductor Solutions Corporation Ebs/tof/rgb camera for smart surveillance and intruder detection
KR20210133503A (en) * 2020-04-29 2021-11-08 주식회사 디케이아이테크놀로지 AI Type Total Security And Monitoring Service System
KR102398010B1 (en) 2021-10-06 2022-05-12 김기설 Method for intrusion prediction using artificial intelligence algorithm and computer program thereof
US11895413B2 (en) 2019-12-13 2024-02-06 Sony Semiconductor Solutions Corporation Dynamic region of interest and frame rate for event based sensor and imaging camera

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113411A (en) * 2009-11-27 2011-06-09 Sogo Keibi Hosho Co Ltd Security device and estimation method of sensor reaction factor
KR101083811B1 (en) * 2010-11-08 2011-11-22 주식회사 에스원 Method for detecting intruder and security robot using the same
KR20120118339A (en) * 2011-04-18 2012-10-26 한국전자통신연구원 Method for unmanned surveillance services
KR101498701B1 (en) * 2014-05-23 2015-03-05 주식회사 대성정보통신기술 Remote multi-channel monitoring and control apparatus
KR20150074893A (en) * 2013-12-24 2015-07-02 동명대학교산학협력단 Method and apparatus for detecting fire using fire detection sensor and camera
KR20160080159A (en) * 2014-12-29 2016-07-07 오세동 Integrated Security Remote monitoring System and its method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113411A (en) * 2009-11-27 2011-06-09 Sogo Keibi Hosho Co Ltd Security device and estimation method of sensor reaction factor
KR101083811B1 (en) * 2010-11-08 2011-11-22 주식회사 에스원 Method for detecting intruder and security robot using the same
KR20120118339A (en) * 2011-04-18 2012-10-26 한국전자통신연구원 Method for unmanned surveillance services
KR20150074893A (en) * 2013-12-24 2015-07-02 동명대학교산학협력단 Method and apparatus for detecting fire using fire detection sensor and camera
KR101498701B1 (en) * 2014-05-23 2015-03-05 주식회사 대성정보통신기술 Remote multi-channel monitoring and control apparatus
KR20160080159A (en) * 2014-12-29 2016-07-07 오세동 Integrated Security Remote monitoring System and its method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117642A1 (en) * 2019-12-13 2021-06-17 Sony Semiconductor Solutions Corporation Ebs/tof/rgb camera for smart surveillance and intruder detection
US11895413B2 (en) 2019-12-13 2024-02-06 Sony Semiconductor Solutions Corporation Dynamic region of interest and frame rate for event based sensor and imaging camera
KR20210133503A (en) * 2020-04-29 2021-11-08 주식회사 디케이아이테크놀로지 AI Type Total Security And Monitoring Service System
KR102340644B1 (en) * 2020-04-29 2021-12-20 주식회사 디케이아이테크놀로지 AI Type Total Security And Monitoring Service System
KR102398010B1 (en) 2021-10-06 2022-05-12 김기설 Method for intrusion prediction using artificial intelligence algorithm and computer program thereof
KR102412861B1 (en) 2021-10-06 2022-06-23 김기설 Control device using artificial intelligence control device
KR102412862B1 (en) 2021-10-06 2022-06-24 김기설 Intrusion alert system
KR102498352B1 (en) 2021-10-06 2023-02-08 김기설 Control device using artificial intelligence control device and intrusion alert systme including the same
KR102509570B1 (en) 2021-10-06 2023-03-13 김기설 Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same
KR20230050277A (en) 2021-10-06 2023-04-14 김기설 Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same

Similar Documents

Publication Publication Date Title
US11527149B2 (en) Emergency alert system
KR101951361B1 (en) Method for managing crime prevention and disaster prevention using artificial intelligence
US10854058B2 (en) Emergency alert system
US20030117280A1 (en) Security communication and remote monitoring/response system
KR101178539B1 (en) Intelligent video surveillance system and method using integrated platform architecture
CN103384321A (en) System and method of post event/alarm analysis in cctv and integrated security systems
JP2004096694A (en) Monitoring system and monitoring method
KR102467814B1 (en) Integrated security system for apartment complexes based on artificial intelligence image analysis
KR101466004B1 (en) An intelligent triplex system integrating crime and disaster prevention and their post treatments and the control method thereof
KR101726315B1 (en) Network based monitoring system and network based monitoring camera having event notifying function
KR100853744B1 (en) Image supervision unit and the method for detect circumstance change
KR102438433B1 (en) Control system capable of 3d visualization based on data and the method thereof
CN117912186A (en) Intelligent security linkage early warning system based on big data service
KR20180094430A (en) Method for managing crime prevention and disaster prevention
WO2019224116A2 (en) Fire alarm system integration
JP3843733B2 (en) Security monitoring system using communication network
KR102596695B1 (en) Unmanned store operation system and unmanned store management method
KR101594053B1 (en) Security System Through Convergence Solutions
KR20220004399A (en) A recorded program media for providing a security surveillance service based on user involvement
KR100335837B1 (en) Intelligent prevention system
KR102286418B1 (en) An apparatus for providing a security surveillance service based on user involvement and a method for operating it
KR102326193B1 (en) CCTV-integrated security system for emergency door
KR102643497B1 (en) Remote fire control system and method
KR102266884B1 (en) Home monitoring system and method using digital photo frame and sensors recognizing human motions
KR101564046B1 (en) Apparatus, method and computer readable recording medium for controlling entry by a board to board communication

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant