KR102531272B1 - Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same - Google Patents

Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same Download PDF

Info

Publication number
KR102531272B1
KR102531272B1 KR1020230014886A KR20230014886A KR102531272B1 KR 102531272 B1 KR102531272 B1 KR 102531272B1 KR 1020230014886 A KR1020230014886 A KR 1020230014886A KR 20230014886 A KR20230014886 A KR 20230014886A KR 102531272 B1 KR102531272 B1 KR 102531272B1
Authority
KR
South Korea
Prior art keywords
learning data
artificial intelligence
vibration
destination
signal learning
Prior art date
Application number
KR1020230014886A
Other languages
Korean (ko)
Other versions
KR20230050277A (en
Inventor
김기설
Original Assignee
김기설
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김기설 filed Critical 김기설
Priority to KR1020230014886A priority Critical patent/KR102531272B1/en
Publication of KR20230050277A publication Critical patent/KR20230050277A/en
Application granted granted Critical
Publication of KR102531272B1 publication Critical patent/KR102531272B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/19Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

인공지능을 이용한 제어 장치는 데이터베이스와, 센서 인터페이스와, 촬영 장치 인터페이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고, 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고, 상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고, 상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고, 상기 촬영 장치 인터페이스는 상기 촬영 장치를 제어하기 위한 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송한다.A control device using artificial intelligence includes a database, a sensor interface, a photographing device interface, and a processor, wherein the processor learns sample images using an artificial intelligence algorithm to generate image signal learning data and the image signal learning data stored in the database, generating vibration signal learning data by learning sample vibration signals using the artificial intelligence algorithm, storing the vibration signal learning data in the database, and receiving a first captured image transmitted from a photographing device. and identifies an object included in the first captured image using the image signal learning data, receives a second captured image transmitted from the photographing device, and learns the object included in the second captured image as the image signal. It identifies using data, receives vibration signals output from a sensor that senses vibration through the sensor interface, determines whether the vibration signals are artificial vibration signals using the vibration signal learning data, and determines whether the vibration signals are artificial vibration signals. When the artificial vibration signals are determined, the object is determined as an intruder through the fence, and when the object is determined to be the intruder, the movement of the object identified in each of the first captured image and the second captured image is determined. By analyzing the image signal learning data, a movement method, movement speed, and a movement direction including bearing and angular range of the object are obtained, and the movement direction is analyzed using the image signal learning data so that the object is Predicting which one of a plurality of moving routes will go to the destination, and predicting the time the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data generating prediction information including the destination and a time to reach the destination, receiving and interpreting the vibration signals from the sensor interface, and generating a control signal for controlling the photographing device according to an analysis result; The photographing device interface receives the control signal for controlling the photographing device from the processor and transmits it to the photographing device.

Description

영상들과 진동들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템{CONTROL DEVICE USING ARTIFICIAL INTELLIGENCE LEARNING IMAGES AND VIBRATIONS AND INTRUSION ALERT SYSTME INCLUDING THE SAME}A control device using artificial intelligence learning images and vibrations and an intrusion alert system including the same

본 발명은 인공지능 알고리즘을 이용한 침입 경계(또는 침입 예측) 방법에 관한 것으로, 특히 경계지역에서 발생할 수 있는 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상 신호들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 이를 상기 학습 데이터를 이용하여 분석하고, 분석의 결과에 따라 침입자의 목적지, 및 상기 목적지에 도달할 시간 등을 예측할 수 있는 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템에 관한 것이다.The present invention relates to an intrusion boundary (or intrusion prediction) method using an artificial intelligence algorithm. In particular, a plurality of samples that may occur in a boundary area are learned by using the artificial intelligence algorithm to generate learning data, video signals, A method capable of receiving at least one of sound signals, electrical signals, and vibration signals, analyzing it using the learning data, and predicting the intruder's destination and the time to reach the destination according to the result of the analysis. , a computer program stored in a storage medium for performing the method, and an intrusion detection system for performing the method.

주요한 경계지역의 시설물과 상기 시설물에 근무하는 사람들이나 이용자들을 보호하기 위해, 상기 시설물의 주변 및 상기 시설물에 대한 접근을 제한하는 울타리의 주변에는 센서들, 상기 센서들과 연동하여 작동하는 CCTV 카메라들, 및 상기 센서들과 상기 CCTV 카메라들을 제어하는 제어 장치들을 포함하는 경계 시스템이 설치되어 운용되고 있다.In order to protect the facilities in the main boundary area and the people working or users of the facilities, sensors around the facilities and around the fences that restrict access to the facilities, CCTV cameras operating in conjunction with the sensors , and a boundary system including control devices for controlling the sensors and the CCTV cameras is installed and operated.

이러한 경계 시스템은 침입자에 대한 사후적 대응 방법으로 최근에 발생하는 지능적 침입 행위에는 대처하기 어렵다.This alert system is a reactive response method for intruders, and it is difficult to cope with recently occurring intelligent intrusions.

등록특허공보: 등록번호 10-2021441(2019.11.04.공고)Registered Patent Publication: Registration No. 10-2021441 (2019.11.04. Notice) 등록특허공보: 등록번호 10-1934700(2019.01.03.공고)Registered Patent Publication: Registration No. 10-1934700 (2019.01.03. Notice) 등록특허공보: 등록번호 10-2126498(2020.06.25.공고)Registered Patent Publication: Registration No. 10-2126498 (2020.06.25. Notice) 등록특허공보: 등록번호 10-1951361(2019.02.22.공고)Registered Patent Publication: Registration No. 10-1951361 (2019.02.22. Notice)

침입자에 대한 사후적 대응 방법을 해결하기 위해 안출된 본 발명이 이루고자 하는 기술적인 과제는 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상 신호들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 수신된 신호를 상기 학습 데이터를 이용하여 분석하고, 분석 결과에 따라 몇 명의 침입자가 언제, 어디로, 무엇을 소지하고 침입하는지를 예측할 수 있는 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템을 제공하는 것이다.The technical problem to be achieved by the present invention, which was devised to solve a post-reaction method for an intruder, is to generate learning data by learning a plurality of samples using the artificial intelligence algorithm, and to generate video signals, sound signals, and electricity. A method for receiving at least one of signals and vibration signals, analyzing the received signal using the learning data, and predicting how many intruders invade when, where, and with what they possess according to the analysis result, the method described above It is to provide a computer program stored in a storage medium for performing a method, and an intrusion deterrent system for performing the method.

본 발명의 실시 예에 따른 침입 경계 시스템은 촬영 장치와, 진동을 감지하는 센서와, 인공 지능을 이용한 제어 장치를 포함하고, 상기 인공 지능을 이용한 제어 장치는 데이터베이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고, 상기 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 센서로부터 출력된 진동 신호들을 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고, 상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성한다.An intrusion detection system according to an embodiment of the present invention includes a photographing device, a sensor for detecting vibration, and a control device using artificial intelligence, wherein the control device using artificial intelligence includes a database and a processor, and the processor Learning sample images using an artificial intelligence algorithm to generate image signal learning data, storing the image signal learning data in the database, learning sample signals using the artificial intelligence algorithm to generate vibration signal learning data, The vibration signal learning data is stored in the database, a first captured image transmitted from the photographing device is received, an object included in the first captured image is identified using the image signal learning data, The transmitted second captured image is received, the object included in the second captured image is identified using the image signal learning data, vibration signals output from the sensor are received, and whether the vibration signals are artificial vibration signals is determined. is determined using the vibration signal learning data, and when the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence, and when the object is determined to be the intruder, the first captured image is determined. and analyzing the movement of the object identified in each of the second captured images using the image signal learning data to obtain a movement method, movement speed, and a movement direction including azimuth and angular range of the object, and the movement The direction is analyzed using the video signal learning data to predict whether the object will go to its destination through which one of the plurality of moving paths it will go to, and the moving method and the moving speed are determined by using the video signal learning data. The object is analyzed to predict the time at which the object will arrive at the destination, and generates prediction information including the destination and the time at which the object is to be reached.

본 발명의 실시 예에 따라 인공지능을 이용한 제어 장치는 데이터베이스와, 센서 인터페이스와, 촬영 장치 인터페이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고, 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고, 상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고, 상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고, 상기 촬영 장치 인터페이스는 상기 촬영 장치를 제어하기 위한 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송한다.According to an embodiment of the present invention, a control device using artificial intelligence includes a database, a sensor interface, a photographing device interface, and a processor, and the processor learns sample images using an artificial intelligence algorithm to generate image signal learning data. generating and storing the image signal learning data in the database, learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data, storing the vibration signal learning data in the database, and transmitting from the photographing device A first captured image is received, an object included in the first captured image is identified using the image signal learning data, a second captured image transmitted from the photographing device is received, and an object included in the first captured image is identified. The object is identified using the image signal learning data, vibration signals output from a sensor for detecting vibration are received through the sensor interface, and whether the vibration signals are artificial vibration signals is determined using the vibration signal learning data. and when the vibration signals are determined to be the artificial vibration signals, the object is determined to be an intruder through the fence, and when the object is determined to be the intruder, in each of the first captured image and the second captured image. The movement of the identified object is analyzed using the video signal learning data to obtain a movement method, movement speed, and a movement direction including bearing and angular range of the object, and the movement direction is determined by using the video signal learning data. It predicts whether the object will go to the destination through which one of the plurality of movement routes it will go to, and analyzes the movement method and the movement speed using the video signal learning data so that the object can predicting a time to reach a destination, generating prediction information including the destination and a time to reach the destination, receiving and interpreting the vibration signals from the sensor interface, and controlling the photographing device according to the analysis result and the photographing device interface receives the control signal for controlling the photographing device from the processor and transmits the control signal to the photographing device.

침입자에 대한 사후적 대응 방법을 해결하기 위해 안출된 본 발명의 실시 예에 따른 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템은 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 수신된 신호를 상기 학습 데이터를 이용하여 분석하고, 분석 결과에 따라 몇 명의 침입자가 언제, 어디로, 무엇을 소지하고 침입하는지를 예측할 수 있는 효과가 있다.A method according to an embodiment of the present invention, a computer program stored in a storage medium for performing the method, and an intrusion alert system for performing the method according to an embodiment of the present invention devised to solve a post-reaction method for an intruder, Learning using an intelligent algorithm to generate learning data, receiving at least one of images, sound signals, electrical signals, and vibration signals, analyzing the received signal using the learning data, and It has the effect of predicting how many intruders will invade when, where, and with what they possess.

이에 따라 상기 방법, 상기 컴퓨터 프로그램, 및 상기 침입 경계 시스템은 울타리 및 시설물에 대한 침입자의 침입을 예방하고, 상기 침입자의 침입 경로 또는 도주 경로에 미리 도착하여 상기 침입자에 대한 빠른 조치를 취할 수 있는 효과가 있다.Accordingly, the method, the computer program, and the intrusion detection system prevent an intruder from entering a fence or facility, arrive at an intrusion route or an escape route of the intruder in advance, and take quick action against the intruder. there is

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 인공지능을 이용한 침입 경계 시스템의 블록도이다.
도 2는 도 1에 도시된 인공지능을 이용한 제어 장치의 블록도이다.
도 3은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이다.
도 4는 인공지능 알고리즘을 이용하여 학습 데이터를 생성하는 과정을 설명하는 도면이다.
도 5는 촬영 영상들을 이용하여 객체의 이동 방법, 이동 속도, 및 이동 방향을 획득하는 방법을 설명하는 도면이다.
도 6은 객체가 침입자로 판단될 때 침입 경계 시스템의 작동을 설명하는 플로우차트이다.
도 7은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이다.
A detailed description of each drawing is provided in order to more fully understand the drawings cited in the detailed description of the present invention.
1 is a block diagram of an intrusion detection system using artificial intelligence according to an embodiment of the present invention.
FIG. 2 is a block diagram of a control device using artificial intelligence shown in FIG. 1 .
FIG. 3 is a flowchart illustrating an embodiment of an operating method of the intrusion detection system shown in FIG. 1 .
4 is a diagram illustrating a process of generating learning data using an artificial intelligence algorithm.
5 is a diagram for explaining a method of acquiring a moving method, a moving speed, and a moving direction of an object using captured images.
6 is a flowchart illustrating the operation of an intrusion deterrent system when an object is determined to be an intruder.
FIG. 7 is a flowchart illustrating an embodiment of an operating method of the intrusion detection system shown in FIG. 1 .

도 1은 본 발명의 실시 예에 따른 인공지능을 이용한 침입 경계 시스템의 블록도이다.1 is a block diagram of an intrusion detection system using artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 인공지능(artificial intelligence(AI))을 이용하여 울타리(400) 또는 시설물(410)에 대한 침입자(500)의 침입 경로 및/또는 도주 경로를 실시간으로 예측하고, 예측의 결과에 따라 예측 정보(IF)를 생성할 수 있는 침입 경계(이를 '침입 감시', 또는 '침입 예측'이라고도 한다.) 시스템(100)은 인공지능 (또는 인공지능 프로그램)을 이용한 제어 장치(이를 '인공지능 제어 장치'라 한다. 200), 복수 개의 센서들(311, 321, 331, 341, 351, 361, 371, 381, 및 391), 복수개의 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393), 울타리 (400), 시설물(410), 제1객체(500), 및 단말기(600)를 포함하고, 실시 예들에 따라 침입 경계 시스템(100)은 카메라가 장착된 드론(700)을 더 포함할 수 있다.Referring to FIG. 1, an intrusion route and/or an escape route of an intruder 500 to a fence 400 or facility 410 is predicted in real time using artificial intelligence (AI), and the result of the prediction An intrusion boundary capable of generating predictive information (IF) according to (this is also referred to as 'intrusion monitoring' or 'intrusion prediction'). The system 100 is a control device using artificial intelligence (or an artificial intelligence program) (this ' 200), a plurality of sensors (311, 321, 331, 341, 351, 361, 371, 381, and 391), a plurality of photographing devices (313, 323, 333, 343, 353, 363, 373, 383, and 393), a fence 400, a facility 410, a first object 500, and a terminal 600, and according to embodiments, the intrusion boundary system 100 includes a camera May further include a drone 700 equipped with.

침입 경계 시스템(100)은 (i) 제1객체(500)의 행위에 관련된 입력 신호(예를 들면, 영상 신호(IM), 소리 신호(SS), 전기 신호(ES), 및 진동 신호(VS) 중에서 적어도 하나), 또는 (ⅱ) 상기 입력 신호와 제1객체(500)가 이동하는 지역의 지형지물 정보를 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체 (500)가 제1위치(P1)로부터 언제(예를 들면, 년월일시분초), 어디로(예를 들면, 울타리(400)의 어느 부분(DT1, DT2, 또는 DT3), 또는 경계 내부 공간의 어느 부분(예를 들면, DT4 또는 DT5)), 및 어떤 경로(예를 들면, PA1, PA2, PA3, PB1, PB2, 및 PC1))를 통해 울타리(400) 또는 시설물(410)에 무단 침입하고, 그후 언제(예를 들면, 년월일시분초), 어디로(예를 들면, 울타리(400)의 어느 부분(DT6, 또는 DT7)), 및 어떤 경로(예를 들면, PD1, PD2, 및 PE1))를 통해 도주할지를 실시간으로 예측하고, 예측의 결과(IF)를 단말기(600)로 통보하여 제1객체(500)의 침입을 예방하거나 제1객체(500)에 대한 빠른 조치를 취하도록 하는 시스템이다.The intrusion detection system 100 includes (i) an input signal related to the behavior of the first object 500 (eg, a video signal IM, a sound signal SS, an electrical signal ES, and a vibration signal VS). ), or (ii) analyzing the input signal and feature information of the area where the first object 500 moves using the learning data 241, and according to the result of the analysis, the first object 500 ) is from the first position P1 when (eg, year, month, hour, minute, second), where (eg, a certain part (DT1, DT2, or DT3) of the fence 400, or a certain part of the space inside the boundary ( For example, DT4 or DT5)), and through any path (eg, PA1, PA2, PA3, PB1, PB2, and PC1)) trespassing into the fence 400 or facility 410, and then when (e.g. year month date hour minute second) where (e.g. which part of fence 400 (DT6 or DT7)), and by which route (e.g. PD1, PD2, and PE1) escapes It is a system that predicts what to do in real time and notifies the result of the prediction (IF) to the terminal 600 to prevent intrusion of the first object 500 or to take quick action on the first object 500 .

인공지능 제어 장치(200)는 신경망((Neural Networks) 알고리즘, 머신 러닝 (Machine Learning) 알고리즘, 또는 딥러닝(Deep Learning) 알고리즘 등을 이용하여 학습을 위한 다양한 샘플들(예를 들면, 샘플 영상 신호들, 샘플 소리 신호들, 샘플 전기 신호들, 및 샘플 진동 신호들 중에서 적어도 하나)을 학습(예를 들면, 다중 인스턴스 학습(multi-instance learning))하여 학습 데이터(241, 이를 '빅 데이터(bigdata)'라고도 한다.)를 생성하고, 학습 데이터(241)를 데이터베이스(240)에 저장한다.The artificial intelligence control device 200 uses a neural network (Neural Networks) algorithm, a machine learning (Machine Learning) algorithm, or a deep learning (Deep Learning) algorithm, etc. , sample sound signals, sample electrical signals, and sample vibration signals) by learning (eg, multi-instance learning) to obtain learning data 241, which is referred to as 'big data'. )') is generated, and the learning data 241 is stored in the database 240.

실시 예에 따라 인공지능 프로그램(212)이 학습을 위한 다양한 샘플들은 데이터 라벨링된 데이터일 수 있다. 데이터 라벨링은 수많은 비정형 데이터를 인공지능이 학습할 수 있도록 샘플들(또는 원천 데이터)에 이름(또는 라벨)을 붙이는 작업을 말한다.According to an embodiment, various samples for learning by the artificial intelligence program 212 may be data labeled data. Data labeling refers to the task of attaching names (or labels) to samples (or source data) so that artificial intelligence can learn a lot of unstructured data.

인공지능 제어 장치(200)는 센서들(311, 321, 331, 341, 351, 361, 371, 381, 및 391) 중에서 적어도 하나로부터 감지 신호(SS, ES, 및 VS 중에서 적어도 하나, 이를 'SS, ES, 및/또는 VS'라 한다.)를 수신하여 분석하고, 분석의 결과에 따라 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 작동을 제어할 수 있다.The artificial intelligence control device 200 receives a detection signal from at least one of the sensors 311, 321, 331, 341, 351, 361, 371, 381, and 391 (at least one of SS, ES, and VS, which is 'SS' , ES, and/or VS') is received and analyzed, and according to the result of the analysis, at least one of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 operation can be controlled.

각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)는 제1객체(500)의 침입 또는 움직임을 감지하기 위한 센서이다. 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)의 타입(type)은 적외선을 감지하는 센서, 레이저를 감지하는 센서, 전파를 감지하는 센서, 열을 감지하는 센서, 움직임을 감지하는 센서, 빛을 감지하는 광 센서, 압력을 감지하는 센서, 소리를 감지하는 센서, 전기 신호를 감지하는 센서, 진동을 감지하는 센서, 가스를 감지하는 센서, 기상을 감지하는 센서, 및 피사체 이미지 센서 등을 포함한다. 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)의 주위에는 스피커 또는 사이렌이 설치될 수 있다.Each of the sensors 311 , 321 , 331 , 341 , 351 , 361 , 371 , 381 , and 391 is a sensor for detecting an intrusion or movement of the first object 500 . The type of each sensor 311, 321, 331, 341, 351, 361, 371, 381, and 391 is a sensor that detects infrared rays, a sensor that detects laser, a sensor that detects radio waves, and a sensor that detects heat. sensor, motion sensor, light sensor, pressure sensor, sound sensor, electrical signal sensor, vibration sensor, gas sensor, weather sensor A sensor, and an object image sensor, and the like. Speakers or sirens may be installed around each of the sensors 311 , 321 , 331 , 341 , 351 , 361 , 371 , 381 , and 391 .

본 명세서에서 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)는 앞에 열거된 기능들을 수행하는 센서들 중에서 적어도 하나를 포함하는 센서를 통칭한다.In this specification, each of the sensors 311, 321, 331, 341, 351, 361, 371, 381, and 391 collectively refers to a sensor including at least one of the sensors performing the functions listed above.

촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나는 CCTV 카메라, 네트워크 카메라, 팬-틸트-줌 카메라(pan-tilt-zoom(PTZ) camera), 열화상 카메라(thermographic camera), 또는 열상 감시 장비(Thermal Observation Device)일 수 있으나 이에 한정되는 것은 아니다. 열화상 카메라는 적외선 복사를 사용하여 영상을 생성하는 장치로서, 적외선 카메라(infrared camera), 열 영상 카메라 (thermal imaging camera) 또는 열 이미저(thermal imager)라고도 불린다.At least one of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 is a CCTV camera, a network camera, or a pan-tilt-zoom (PTZ) camera. , a thermal imaging camera, or a thermal observation device, but is not limited thereto. A thermal imaging camera is a device that generates an image using infrared radiation, and is also called an infrared camera, a thermal imaging camera, or a thermal imager.

쌍을 이루는 센서와 촬영 장치(311과 313, 321과 323, 내지 391과 393)는 연동하여 작동할 수 있다.The paired sensors and photographing devices 311 and 313 , 321 and 323 , to 391 and 393 may operate in conjunction with each other.

시설물(410)은 국가 중요 시설(예를 들면, 공공 기관, 공항, 항만, 원자력 발전소, 또는 전력 시설, 등), 군사 시설물, 공공 시설물, 또는 개인 시설물 등과 같이 울타리(400)에 둘러싸여 경계(또는 경비)가 필요한 시설물을 의미한다.The facility 410 is surrounded by a fence 400 and borders (or Expenses) means facilities that require

시설물(410)에 접근을 위한 각 이동 경로(PA1, PA2, PA3, PB1, PB2, PB3, 및 PC1)는 침입 경로라 할 수 있고, 시설물(410)로부터 도주를 위한 각 이동 경로 (PD1, PD2, 및 PE1)은 도주 경로라 할 수 있다.Each movement path (PA1, PA2, PA3, PB1, PB2, PB3, and PC1) for access to the facility 410 may be referred to as an intrusion route, and each movement route (PD1, PD2) for escape from the facility 410 , and PE1) can be referred to as escape routes.

도 1에서는 시설물(410)을 에워싸는 하나의 울타리(400)가 도시되어 있으나, 실시 예들에 따라 시설물(410)을 에워싸는 울타리(400)의 개수는 2개 이상일 수 있다.Although one fence 400 surrounding the facility 410 is shown in FIG. 1 , the number of fences 400 surrounding the facility 410 may be two or more according to embodiments.

제1객체(500)는 움직이는 사람 또는 움직이는 야생 동물일 수 있으나, 본 명세서에서 제1객체(500)는 사람(또는 침입자)이라고 가정한다.The first object 500 may be a moving person or a moving wild animal, but in this specification, it is assumed that the first object 500 is a person (or an intruder).

단말기(600)는 인공지능 제어 장치(200)로부터 예측 정보(IF, 예를 들면, 예측된 목적지와 예측된 도달 시간 등을 포함하는 정보)를 수신할 수 있는 통신 장치를 의미한다.The terminal 600 refers to a communication device capable of receiving prediction information (IF, eg, information including a predicted destination and a predicted arrival time) from the artificial intelligence control device 200 .

단말기(600)의 예들은 울타리(400)와 시설물(410)의 경계(또는 경비)를 담당하는 담당자(예를 들면, 경비원, 군인, 청원 경찰, 및/또는 경찰)이 소지하고 있는 통신 장치, 경계 회사의 통신 장치, 군부대의 통신 장치, 경찰서의 통신 장치, 또는 소방서의 통신 장치를 의미하나 이에 한정되는 것은 아니다.Examples of the terminal 600 include a communication device possessed by a person in charge of guarding (or guarding) the fence 400 and the facility 410 (eg, security guards, soldiers, police officers, and/or police); A communication device of a border company, a communication device of a military base, a communication device of a police station, or a communication device of a fire department, but is not limited thereto.

단말기(600)가 인공지능 제어 장치(200)로부터 예측 정보(IF)를 수신하면, 울타리(400)를 경계하는 담당자는 예측 정보(IF)를 이용하여 제1객체(500)보다 해당 위치(DT1 ~ DT8 중에서 적어도 하나)에 먼저 도착하여 제1객체(500)의 침입을 예방하거나 제1객체(500)의 침입에 대한 빠른 조치(예를 들면, 체포 등)를 취할 수 있는 효과가 있다.When the terminal 600 receives the prediction information (IF) from the artificial intelligence control device 200, the person in charge of guarding the fence 400 uses the prediction information (IF) to locate the first object 500 (DT1). At least one of ~ DT8) has an effect of preventing intrusion of the first object 500 or taking quick measures (eg, arrest, etc.) against intrusion of the first object 500 .

카메라가 장착된 드론(700)은, 인공지능 제어 장치(200) 또는 인공지능 제어 장치(200)의 관리자의 제어에 따라, 제1객체(500)의 영상을 실시간으로 촬영하고, 촬영된 영상들을 인공지능 제어 장치(200)로 무선 통신으로 실시간으로 전송할 수 있다.The drone 700 equipped with a camera captures an image of the first object 500 in real time under the control of the artificial intelligence control device 200 or the manager of the artificial intelligence control device 200, and displays the captured images. It can be transmitted in real time through wireless communication to the artificial intelligence control device 200.

도 2는 도 1에 도시된 인공지능을 이용한 제어 장치의 블록도이다.FIG. 2 is a block diagram of a control device using artificial intelligence shown in FIG. 1 .

도 1과 도 2를 참조하면, 인공지능 제어 장치(200)는 입력 장치(205), 인공지능 알고리즘에 따라 작동하는 인공지능 프로그램(212)을 실행하는 프로세서 (210, 이를 '서버'라고도 한다.), 메모리 장치(215), 센서 인터페이스(220), 촬영 장치 인터페이스(230), 데이터베이스(240), 통신 장치(250), 디스플레이 장치 (270), 및 경보 장치(280)를 포함하고, 실시 예들에 따라 인공지능 제어 장치(200)는 드론 제어 장치(260)을 더 포함할 수 있다.Referring to FIGS. 1 and 2 , the artificial intelligence control device 200 includes an input device 205 and a processor 210 that executes an artificial intelligence program 212 that operates according to an artificial intelligence algorithm 210, which is also referred to as a 'server'. ), a memory device 215, a sensor interface 220, a photographing device interface 230, a database 240, a communication device 250, a display device 270, and an alarm device 280, Accordingly, the artificial intelligence control device 200 may further include a drone control device 260.

하드웨어와 결합되어 본 명세서에서 설명되는 인공지능 알고리즘을 이용한 침입 예측 방법을 수행하는 인공지능 프로그램(212)은 프로세서(210)에 의해 액세스가능한 저장 매체(예를 들면, 메모리 장치(215))에 저장되고, 프로세서(210)에 의해 실행된다.The artificial intelligence program 212 combined with hardware to perform the intrusion prediction method using the artificial intelligence algorithm described herein is stored in a storage medium accessible by the processor 210 (e.g., memory device 215). and is executed by the processor 210.

센서 인터페이스(220)는 해당 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)를 수신하고, 감지 신호 (SS, ES, 및/또는 VS)를 인공지능 프로그램(212)으로 전송한다.The sensor interface 220 receives detection signals SS, ES, and/or VS output from the corresponding sensors 311, 321, 331, 341, 351, 361, 371, 381, and 391, and receives the detection signal ( SS, ES, and/or VS) to the artificial intelligence program 212.

인공지능 프로그램(212)은 감지 신호(SS, ES, 및/또는 VS)를 수신하여 해석하고, 해석 결과에 따라 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 촬영 장치를 제어(예를 들면, 해당 촬영 장치가 PTZ 카메라일 때, 상기 PTZ 카메라의 팬, 틸트, 및 줌 중에서 적어도 하나를 제어)하기 위한 제어 신호(CTL)를 생성하고, 제어 신호(CTL)를 촬영 장치 인터페이스(230)를 통해 상기 적어도 하나의 촬영 장치로 전송한다.The artificial intelligence program 212 receives and analyzes the detection signals (SS, ES, and/or VS), and according to the interpretation result, the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393) to generate a control signal (CTL) for controlling at least one photographing device (for example, when the corresponding photographing device is a PTZ camera, controlling at least one of pan, tilt, and zoom of the PTZ camera); , The control signal CTL is transmitted to the at least one photographing device through the photographing device interface 230 .

인공지능 프로그램(212)은 상기 적어도 하나의 촬영 장치로부터 촬영 영상들을 촬영 장치 인터페이스(230)를 통해 수신하고, 도 3, 도 5, 도 6, 및 도 7을 참조하여 설명될 단계들(또는 작동들)을 수행한다.The artificial intelligence program 212 receives the captured images from the at least one photographing device through the photographing device interface 230, and performs the steps (or operations) to be described with reference to FIGS. 3, 5, 6, and 7 s) are performed.

예를 들면, 제1위치(P1)에 설치된 센서(311)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 응답하여 제어 신호(CTR)를 생성하고, 제어 신호(CTR)를 촬영 장치 인터페이스(230)를 통해 제1위치(P1)에 설치된 촬영 장치(313)로 전송한다.For example, when the first object 500 is detected by the sensor 311 installed at the first location P1, the artificial intelligence program 212 outputs the detection signals SS, ES, and A control signal CTR is generated in response to / or VS, and the control signal CTR is transmitted to the photographing device 313 installed at the first position P1 through the photographing device interface 230.

촬영 장치(313)가 PTZ 카메라일 때 촬영 장치(313)는 제어 신호(CTR)에 응답하여 제1객체(500)를 촬영하기 위해 팬, 틸트, 및 줌 중에서 적어도 하나를 제어하고, 제1객체(500)에 대한 촬영 영상들을 촬영 장치 인터페이스(230)를 통해 인공지능 프로그램(212)로 전송한다.When the photographing device 313 is a PTZ camera, the photographing device 313 controls at least one of pan, tilt, and zoom to capture the first object 500 in response to the control signal CTR, and The photographed images of 500 are transmitted to the artificial intelligence program 212 through the photographing device interface 230 .

또한, 해당 센서(321, 331, 341, 351, 361, 371, 381, 및 391)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 해당 촬영 장치(323, 333, 343, 353, 363, 373, 383, 및 393)를 제어하기 위한 제어 신호(CTR)를 생성하고, 제어 신호(CTR)를 해당 촬영 장치(323, 333, 343, 353, 363, 373, 383, 및 393)로 전송한다.In addition, when the first object 500 is detected by the corresponding sensors 321, 331, 341, 351, 361, 371, 381, and 391, the artificial intelligence program 212 sends the corresponding photographing device 323, 333, 343 , 353, 363, 373, 383, and 393) to generate a control signal (CTR), and transmit the control signal (CTR) to the corresponding photographing devices (323, 333, 343, 353, 363, 373, 383, and 393).

실시 예들에 따라, 해당 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)는 제1객체(500)의 특징(예를 들면, 제1객체(500)의 머리, 얼굴, 또는 발 등)을 실시간으로 트래킹(tracking)하면서 촬영 영상들을 생성할 수 있다.According to embodiments, the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 may have characteristics of the first object 500 (eg, the head of the first object 500). , face, or feet) may be tracked in real time to generate captured images.

또한, 제1위치(P1)에 설치된 센서(311)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 응답하여 두 개의 촬영 장치들(313과 343) 각각을 제어할 수 있는 제어 신호(CTR)을 생성하도 제어 신호(CTR)를 촬영 장치들(313과 343)로 전송할 수 있다. 이에 따라, 촬영 장치들(313과 343) 모두는 제1객체(500)가 존재하는 제3위치(P3)를 포커싱(또는 촬영)할 수 있다.In addition, when the first object 500 is detected by the sensor 311 installed at the first location P1, the artificial intelligence program 212 outputs the detection signal (SS, ES, and/or When a control signal CTR capable of controlling each of the two photographing devices 313 and 343 is generated in response to VS, the control signal CTR may be transmitted to the photographing devices 313 and 343. Accordingly, both of the photographing devices 313 and 343 may focus (or photograph) the third position P3 where the first object 500 exists.

데이터베이스(240)는 도 3과 도 4를 참조하여 설명될 학습 데이터(241)와 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)가 설치된 위치(또는 지역)에 대한 지형지물 정보(243)를 저장할 수 있다. 실시 예들에 따라, 데이터베이스(240)는 정보(241과 243)를 저장하는 데이터 저장 장치, 또는 상기 데이터 저장 장치에 저장된 정보를 의미할 수 있다.The database 240 is the location (or region) where the learning data 241 to be described with reference to FIGS. 3 and 4 and each of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 are installed. The feature information 243 for ) may be stored. According to embodiments, the database 240 may refer to a data storage device that stores information 241 and 243 or information stored in the data storage device.

도 2에 도시된 바와 같이 지형지물 정보(243)는 ID(ID1~ID9)별로 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)에 대한 센서 정보(311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, 및 391I), 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)에 대한 촬영 장치 정보(313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, 및 393I), 위치 정보(PI1~PI9), 지형 정보(TG1~TG9), 및 지물 정보(FI1~FI9)를 포함한다.As shown in FIG. 2, feature information 243 is sensor information 311I, 321I for sensors 311, 321, 331, 341, 351, 361, 371, 381, and 391 for each ID (ID1 to ID9). , 331I, 341I, 351I, 361I, 371I, 381I, and 391I, and imaging device information (313I, 323I, and 333I for the imaging devices 313, 323, 333, 343, 353, 363, 373, 383, and 393) , 343I, 353I, 363I, 373I, 383I, and 393I), location information (PI1 to PI9), terrain information (TG1 to TG9), and feature information (FI1 to FI9).

각 센서 정보(311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, 및 391I)는 해당 센서의 타입에 대한 정보이고, 각 촬영 장치 정보(313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, 및 393I)는 해당 촬영 장치의 타입에 대한 정보이고, 각 위치 정보(PI1~PI9)는 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)가 설치된 위치 정보이고, 예를 들면 GPS(global positioning system) 좌표들일 수 있다.Each sensor information (311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, and 391I) is information on the type of the corresponding sensor, and each photographing device information (313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, and 393I) is information about the type of the corresponding photographing device, and each position information (PI1 to PI9) is information about the photographing device 313, 323, 333, 343, 353, 363, 373, 383, and 393 is installed location information, and may be, for example, global positioning system (GPS) coordinates.

지형은 땅의 생긴 모양이나 형세를 의미하므로, 지형 정보(TG1~TG9)는 땅이 평지인지, 산지인지, 얼마의 경사도를 갖는 경사지인지, 습지인지, 기암절벽 지역인지 등에 대한 정보를 포함한다.Since topography refers to the shape or shape of the land, the topography information (TG1 to TG9) includes information on whether the land is flat, mountainous, sloped, wetland, or an area with oddly shaped cliffs.

지물은 땅 위에 존재하는 천연 또는 인공의 모든 물체를 의미하므로, 지물 정보(FI1~FI9)는 수목, 바위, 가옥, 하천, 계곡, 및 도로 등에 대한 정보를 포함한다.Since features refer to all natural or artificial objects existing on the ground, feature information (FI1 to FI9) includes information on trees, rocks, houses, rivers, valleys, and roads.

실시 예들에 따라, 인공지능 프로그램(212)은 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 어떤 촬영 장치로부터 촬영 영상들이 수신되었는지를 판단할 수 있으므로, 제1객체(500)의 목적지와 상기 목적지에 도달할 시간을 예측할 때 지형지물 정보(243)를 활용할 수 있다.According to embodiments, the artificial intelligence program 212 may determine from which of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 the captured images are received. , When predicting the destination of the first object 500 and the time to reach the destination, the feature information 243 can be utilized.

실시 예들에 따라, 인공지능 프로그램(212)은 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 어떤 촬영 장치로부터 촬영 영상들이 수신되었는지를 판단할 수 있으므로, 제1객체(500)의 목적지와 상기 목적지에 도달할 시간을 예측할 때 지형지물 학습 데이터(241E)와 지형지물 정보(243) 중에서 적어도 하나를 활용할 수 있다.According to embodiments, the artificial intelligence program 212 may determine from which of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 the captured images are received. , At least one of the feature learning data 241E and the feature information 243 may be used when predicting the destination of the first object 500 and the time to reach the destination.

실시 예들에 따라, 인공지능 프로그램(212)은 샘플 영상들(SPI) 각각에 포함된 지형 및/또는 지물을 인공지능 알고리즘을 이용하여 학습하고, 학습 결과에 따라 지형지물 학습 데이터(241E)를 생성하고, 지형지물 학습 데이터(241E)를 데이터베이스(240)에 저장할 수 있다.According to embodiments, the artificial intelligence program 212 learns the terrain and/or features included in each of the sample images (SPI) using an artificial intelligence algorithm, and generates feature learning data 241E according to the learning result. And, the feature learning data 241E may be stored in the database 240 .

통신 장치(250)는 단말기(600) 또는 드론(700)과의 통신을 위한 장치이다.The communication device 250 is a device for communication with the terminal 600 or the drone 700.

인공지능 프로그램(212)에 제어에 따라 디스플레이 장치(또는 모니터, 270)는 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 촬영 장치로부터 전송된 촬영 영상들을 수신하여 디스플레이할 수 있다.Under the control of the artificial intelligence program 212, the display device (or monitor, 270) is transmitted from at least one of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393. The captured images may be received and displayed.

예를 들면, 촬영 장치 인터페이스(230)가 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)와 서로 다른 통신 채널을 통해 통신하고, 촬영 장치 (313)와 쌍을 이루는 센서(311)에 의해 제1객체(500)가 감지될 때, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 기초하여 촬영 장치 인터페이스(230)와 촬영 장치(313) 사이의 통신 채널을 자동으로 연결한다.For example, the photographing device interface 230 communicates with each of the photographing devices 313, 323, 333, 343, 353, 363, 373, 383, and 393 through different communication channels, and communicates with the photographing device 313. When the first object 500 is detected by the paired sensors 311, the artificial intelligence program 212 takes pictures based on the detection signals SS, ES, and/or VS output from the sensor 311. A communication channel between the device interface 230 and the photographing device 313 is automatically connected.

이에 따라, 디스플레이 장치(270)는, 인공지능 프로그램(212)의 제어에 따라, 촬영 장치(313)로부터 출력된 촬영 영상들을 수신하여 디스플레이 장치(270)에서 디스플레이할 수 있다.Accordingly, the display device 270 may receive captured images output from the photographing device 313 and display them on the display device 270 under the control of the artificial intelligence program 212 .

인공지능 프로그램(212)에 의해 제1객체(500)가 침입자로 판단될 때, 인공지능 프로그램(212)는 경보 신호를 경보 장치(280)로 출력한다. 경보 장치(280)는 청각적 경보 장치, 시각적 경보, 또는 시청각적 경보 장치일 수 있다.When the artificial intelligence program 212 determines that the first object 500 is an intruder, the artificial intelligence program 212 outputs an alarm signal to the alarm device 280 . Alert device 280 may be an audible alert device, a visual alert device, or an audible alert device.

드론 제어 장치(260)는 드론(700)의 작동을 제어할 수 있다. 인공지능 프로그램(212)에 의해 제1객체(500)가 침입자로 판단될 때, 인공지능 프로그램(212)은 드론 제어 신호를 생성하여 드론 제어 장치(260)로 출력하면, 상기 드론 제어 신호는 통신 장치(250)를 통해 드론(700)으로 전송된다.The drone control device 260 may control the operation of the drone 700 . When the artificial intelligence program 212 determines that the first object 500 is an intruder, the artificial intelligence program 212 generates a drone control signal and outputs it to the drone control device 260, the drone control signal communicates with It is transmitted to the drone 700 through the device 250 .

인공지능 프로그램(212)이 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS) 또는 촬영 장치(313)로부터 출력된 촬영 영상(IM)에 기초하여 드론 제어 신호를 생성할 때, 상기 드론 제어 신호는 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)를 포함한다.When the artificial intelligence program 212 generates a drone control signal based on the detection signal (SS, ES, and/or VS) output from the sensor 311 or the captured image (IM) output from the photographing device 313 , The drone control signal includes the location information PI1 of the sensor 311 or the location information PI1 of the photographing device 313.

따라서, 드론(700)은 인공지능 제어 장치(200)로부터 전송된 드론 제어 신호에 응답하여 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)에 해당하는 위치로 자동으로 날아가 제1객체(500)를 추적하면서 제1객체(500)의 영상을 촬영하고 촬영된 영상을 통신 장치(250)로 전송한다. 인공지능 프로그램(212)은 드론(700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상을 통신 장치(250)를 통해 수신하여 디스플레이 장치(270)로 전송한다.Therefore, the drone 700 moves to a location corresponding to the location information PI1 of the sensor 311 or the location information PI1 of the photographing device 313 in response to the drone control signal transmitted from the artificial intelligence control device 200. It flies automatically and captures an image of the first object 500 while tracking the first object 500 and transmits the captured image to the communication device 250 . The artificial intelligence program 212 receives the captured image of the first object 500 captured by the drone 700 through the communication device 250 and transmits it to the display device 270 .

다른 실시 예에 따라, 인공지능 프로그램(212)이 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS) 또는 촬영 장치(313)로부터 출력된 촬영 영상(IM)에 기초하여 제1객체(500)를 침입자로 판단할 때, 인공지능 제어 장치(200)의 관리자는 드론 제어 장치(260)를 조작하여 드론(700)을 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)에 해당하는 위치로 비행시켜 제1객체(500)를 실시간으로 추적할 수 있다.According to another embodiment, the artificial intelligence program 212 controls the detection signal SS, ES, and/or VS output from the sensor 311 or the photographed image IM output from the photographing device 313. 1 When determining the object 500 as an intruder, the manager of the artificial intelligence control device 200 manipulates the drone control device 260 to send the drone 700 to the location information (PI1) of the sensor 311 or the shooting device ( 313), the first object 500 can be tracked in real time by flying to a location corresponding to the location information PI1.

드론(700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상은 통신 장치(250)를 통해 인공지능 프로그램(212)으로 전송되고, 인공지능 프로그램(212)은 드론 (700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상을 수신하여 디스플레이 장치 (270)로 전송한다.The captured image of the first object 500 photographed by the drone 700 is transmitted to the artificial intelligence program 212 through the communication device 250, and the artificial intelligence program 212 is photographed by the drone 700. A photographed image of the first object 500 is received and transmitted to the display device 270 .

도 3은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이고, 도 4는 인공지능 알고리즘을 이용하여 학습 데이터를 생성하는 과정을 설명하는 도면이다.3 is a flowchart illustrating an embodiment of an operating method of the intrusion detection system shown in FIG. 1, and FIG. 4 is a diagram illustrating a process of generating learning data using an artificial intelligence algorithm.

도 1 내지 도 4를 참조하면, 인공지능 프로그램(212)은 각각이 적어도 하나의 객체를 포함하는 샘플 영상들(SPI), 샘플 소리 신호들(SDS), 샘플 전기 신호들 (ELS), 샘플 진동 신호들(VBS), 또는 이들(SPI, SDS, ELS, 및 VBS) 중에서 적어도 두 개의 조합을 인공지능 알고리즘을 이용하여 학습하고, 학습 결과에 따라 학습 데이터(241)를 생성하여 데이터베이스(240)에 저장한다(S110).1 to 4, the artificial intelligence program 212 includes sample images (SPI), sample sound signals (SDS), sample electrical signals (ELS), and sample vibrations, each of which includes at least one object. The signals (VBS) or a combination of at least two of these (SPI, SDS, ELS, and VBS) are learned using an artificial intelligence algorithm, and learning data 241 is generated according to the learning result and stored in the database 240. Save (S110).

인공지능 프로그램(212)에 의해 학습 데이터(241)가 생성되는 과정은 도 4를 참조하여 예시적으로 설명된다.A process of generating the learning data 241 by the artificial intelligence program 212 will be illustratively described with reference to FIG. 4 .

학습 데이터(241)는 샘플 영상들(SPI)의 학습 결과에 따라 생성된 영상 신호 학습 데이터(241A), 샘플 소리 신호들(SDS)의 학습 결과에 따라 생성된 소리 신호 학습 데이터(241B), 샘플 전기 신호들(ELS)의 학습 결과에 따라 생성된 전기 신호 학습 데이터(241C), 및 샘플 진동 신호들(VBS)의 학습 결과에 따라 생성된 진동 신호 학습 데이터(241D) 중에서 적어도 하나를 포함한다. 실시 예에 따라, 학습 데이터(241)는 지형지물 학습 데이터(241E)를 더 포함할 수 있다.The learning data 241 includes image signal learning data 241A generated according to the learning result of the sample images SPI, sound signal learning data 241B generated according to the learning result of the sample sound signals SDS, and sample It includes at least one of electrical signal learning data 241C generated according to the learning result of the electrical signals ELS and vibration signal learning data 241D generated according to the learning result of the sample vibration signals VBS. According to an embodiment, the learning data 241 may further include feature learning data 241E.

도 4에 도시된 바와 같이 학습을 위한 복수 개의 샘플들(예를 들면, 샘플 영상들(SPI), 샘플 소리 신호들(SDS), 샘플 전기 신호들(ELS), 및 샘플 진동 신호들(VBS) 중에서 적어도 하나)은 입력 장치(205)를 통해 인공지능 프로그램(212)으로 입력된다. 실시 예들에 따라, 통신 장치(250)를 통해 수신된 학습을 위한 샘플들은 인공지능 프로그램(212)으로 입력된다.As shown in FIG. 4, a plurality of samples for learning (eg, sample images (SPI), sample sound signals (SDS), sample electrical signals (ELS), and sample vibration signals (VBS)) at least one of them) is input into the artificial intelligence program 212 through the input device 205. According to embodiments, samples for learning received through the communication device 250 are input to the artificial intelligence program 212 .

인공지능 프로그램(212)은 각 샘플 영상(SPI)에 해당하는 각 영상 신호 (IMS)에 포함된 객체(또는 복수의 객체들)를 사람 요소(HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소(NSE)로 학습(또는 소팅 (sorting))한다. 도 4에 도시된 요소들(HME, ANE, NEE, ATE, 및 NSE)은 설명을 위해 예시된 것에 불과하다.The artificial intelligence program 212 sets an object (or a plurality of objects) included in each image signal (IMS) corresponding to each sample image (SPI) to a human element (HME), an animal element (ANE), and a natural environment element ( NEE), artificial component (ATE), and noise component (NSE) are trained (or sorted). The elements (HME, ANE, NEE, ATE, and NSE) shown in FIG. 4 are only illustrated for explanation.

예를 들면, 인공지능 프로그램(212)은 각 샘플 영상 신호(IMS)에 해당하는 각 샘플 영상(SPI)에 포함된 적어도 하나의 객체를 아래의 요소로 학습(또는 소팅)한다.For example, the artificial intelligence program 212 learns (or sorts) at least one object included in each sample image SPI corresponding to each sample image signal IMS into the following elements.

1. 각 샘플 영상(SPI)에 포함된 객체가 사람일 때 인공지능 프로그램(212)은 상기 객체를 사람 요소(HME)로 학습;1. When an object included in each sample image (SPI) is a human, the artificial intelligence program 212 learns the object as a human element (HME);

2. 상기 객체가 동물일 때 인공지능 프로그램(212)은 상기 객체를 동물 요소 (ANE)로 학습;2. When the object is an animal, AI program 212 learns the object as an animal element (ANE);

3. 상기 객체가 번개일 때 인공지능 프로그램(212)은 상기 객체를 자연 환경 요소(NEE)로 학습;3. When the object is lightning, artificial intelligence program 212 learns the object as a natural environment element (NEE);

4. 상기 객체가 전등 불빛 또는 울타리(400)의 철선을 도구(예를 들면, 절단기)로 자를 때 발생하는 불꽃일 때 인공지능 프로그램(212)은 상기 객체를 인위적 요소(ATE)로 학습; 및4. When the object is a light or a spark generated when cutting the wire of the fence 400 with a tool (eg, cutter), the artificial intelligence program 212 learns the object as an artificial element (ATE); and

5. 상기 객체가 산불일 때 인공지능 프로그램(212)은 상기 객체를 잡음 요소 (NSE)으로 학습.5. When the object is a forest fire, the artificial intelligence program 212 learns the object as a noise component (NSE).

또한, 인공지능 프로그램(212)은 샘플 소리 신호들(SDS) 각각을 사람 요소 (HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소 (NSE)로 학습(또는 소팅)한다.In addition, the artificial intelligence program 212 converts each of the sample sound signals SDS into a human component (HME), an animal component (ANE), a natural environment component (NEE), an artificial component (ATE), and a noise component (NSE). Learn (or sort).

예를 들면, 인공지능 프로그램(212)은 각 샘플 소리 신호(SDS)를 아래의 요소로 학습(또는 소팅)한다.For example, the artificial intelligence program 212 learns (or sorts) each sample sound signal (SDS) into the following elements.

1. 인공지능 프로그램(212)은 사람 발자국 소리에 해당하는 각 샘플 소리 신호(SDS)를 사람 요소(HME)로 학습;1. The artificial intelligence program 212 learns each sample sound signal (SDS) corresponding to the sound of human footsteps as a human element (HME);

2. 인공지능 프로그램(212)은 동물 발자국 소리에 해당하는 각 샘플 소리 신호(SDS)를 동물 요소(ANE)로 학습;2. The artificial intelligence program 212 learns each sample sound signal (SDS) corresponding to the sound of animal footsteps as an animal element (ANE);

3. 인공지능 프로그램(212)은 바람 소리, 비 소리, 파도 소리, 파도에 돌이 구르는 소리, 또는 물이 흐르는 소리에 해당하는 각 샘플 소리 신호(SDS)를 자연 환경 요소(NEE)로 학습;3. The artificial intelligence program 212 learns each sample sound signal (SDS) corresponding to the sound of wind, rain, waves, the sound of a stone rolling in waves, or the sound of flowing water as a natural environment element (NEE);

4. 인공지능 프로그램(212)은 총 소리, 차량이 이동하는 소리, 땅을 파는 소리, 사람이 울타리(400)를 기어오를 때 나는 소리, 또는 울타리(400)의 철선을 절단기로 절단할 때 나는 소리에 해당하는 각 샘플 소리 신호(SDS)를 인위적 요소 (ATE)로 학습;4. The artificial intelligence program 212 generates a gunshot sound, a moving sound of a vehicle, a sound of digging the ground, a sound of a person climbing the fence 400, or a sound of cutting the wire of the fence 400 with a cutter. Learning each sample sound signal (SDS) corresponding to a sound as an artifact (ATE);

5. 인공지능 프로그램(212)은 천둥 소리에 해당하는 각 샘플 소리 신호 (SDS)를 잡음 요소(NSE)로 학습.5. The artificial intelligence program 212 learns each sample sound signal (SDS) corresponding to thunder as a noise component (NSE).

또한, 인공지능 프로그램(212)은 샘플 전기 신호들(ELS) 각각을 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소(NSE)로 학습(또는 소팅)한다.In addition, the artificial intelligence program 212 learns (or sorts) each of the sample electrical signals ELS into a natural environment component NEE, an artificial component ATE, and a noise component NSE.

예를 들면, 인공지능 프로그램(212)은 각 샘플 전기 신호(ELS)를 아래의 요소로 학습(또는 소팅)한다.For example, the artificial intelligence program 212 learns (or sorts) each sample electrical signal (ELS) into the following elements.

1. 인공지능 프로그램(212)은 낙뢰에 의해 발생한 각 샘플 전기 신호(ELS)를 자연 환경 요소(NEE)로 학습;1. The artificial intelligence program 212 learns each sample electrical signal (ELS) generated by lightning as a natural environment element (NEE);

2. 인공지능 프로그램(212)은 울타리(400)를 절단하기 위해 가해지는 각 전기 신호(ELS), 울타리(400)의 주변에 설치된 전기선 또는 통신선을 무력화하기 위해 가해지는 각 샘플 전기 신호(ELS)를 인위적 요소(ATE)로 학습;2. The artificial intelligence program 212 generates each electrical signal (ELS) applied to cut the fence 400 and each sample electrical signal (ELS) applied to neutralize the electric line or communication line installed around the fence 400 learning with artificial elements (ATE);

3. 인공지능 프로그램(212)은 정전기에 의해 발생하는 각 샘플 전기 신호 (ELS)를 잡음 요소(NSE)로 학습.3. The artificial intelligence program 212 learns each sample electrical signal (ELS) generated by static electricity as a noise component (NSE).

또한, 인공지능 프로그램(212)은 샘플 진동 신호들(VBS) 각각을 사람 요소 (HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소 (NSE)로 학습(또는 소팅)한다.In addition, the artificial intelligence program 212 converts each of the sample vibration signals (VBS) into a human component (HME), an animal component (ANE), a natural environment component (NEE), an artificial component (ATE), and a noise component (NSE). Learn (or sort).

예를 들면, 인공지능 프로그램(212)은 각 샘플 진동 신호(VBS)를 아래의 요소로 학습(또는 소팅)한다.For example, the artificial intelligence program 212 learns (or sorts) each sample vibration signal (VBS) into the following elements.

1. 인공지능 프로그램(212)은 사람의 움직임에 의해 발생하는 각 샘플 진동 신호(VBS)를 사람 요소(HME)로 학습;1. The artificial intelligence program 212 learns each sample vibration signal (VBS) generated by human motion as a human element (HME);

2. 인공지능 프로그램(212)은 동물의 움직임에 의해 발생하는 각 샘플 진동 신호(VBS)를 동물 요소(ANE)로 학습;2. The artificial intelligence program 212 learns each sample vibration signal (VBS) generated by the animal's motion as an animal element (ANE);

3. 인공지능 프로그램(212)은 낙뢰, 구르는 구름, 또는 쓰러지는 나무에 의해 발생하는 각 샘플 진동 신호(VBS)를 자연 환경 요소(NEE)로 학습;3. The artificial intelligence program 212 learns each sampled vibration signal (VBS) generated by a lightning strike, rolling cloud, or falling tree as a natural environment element (NEE);

4. 인공지능 프로그램(212)은 폭파, 도구로 땅을 팔 때 발생하는 진동, 차량의 이동에 의해 발생하는 각 샘플 진동 신호(VBS)를 인위적 요소(ATE)로 학습;4. The artificial intelligence program 212 learns each sample vibration signal (VBS) generated by demolition, vibration generated when digging with a tool, and movement of a vehicle as an artificial factor (ATE);

5. 인공지능 프로그램(212)은 지진파에 의해 발생하는 각 샘플 진동 신호(VBS)를 잡음 요소(NSE)로 학습.5. The artificial intelligence program 212 learns each sample vibration signal (VBS) generated by the seismic wave as a noise component (NSE).

인공지능 프로그램(212)은 사람 요소(HME), 동물 요소(ANE), 자연 환경 요소 (NEE), 인위적 요소(ATE), 및 잡음 요소(NSE) 중에서 적어도 하나로 학습된 샘플들을 이용하여 객체(예를 들면, 사람 또는 동물)의 이동 방법(MM), 이동 속도(MV), 이동 방향(MD), 및 침입 유형(IT) 중에서 적어도 하나를 학습하고, 또한 상기 샘플들의 이용하여 상기 객체가 존재하는 지역의 지형지물(LM)을 학습한다.The artificial intelligence program 212 is an object (eg For example, at least one of the movement method (MM), movement speed (MV), movement direction (MD), and intrusion type (IT) of a person or animal) is learned, and the object exists using the samples. Learn local landmarks (LM).

예를 들면, 인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 방법(MM)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임을 학습하여 상기 객체의 이동 방법(MM)을 학습한다. 여기서, 이동 방법(MM)의 예들은 객체가 포복하여 이동하는지, 상기 객체가 걸어서 이동하는지, 상기 객체가 뛰어서 이동하는지, 상기 객체가 이동 수단(예를 들면, 차량 또는 보트 등)을 타고 이동하는지, 및 상기 객체가 수영하여 이동하는지를 포함한다.For example, the artificial intelligence program 212 learns an object movement method (MM) using learned samples. For example, the artificial intelligence program 212 learns the movement method (MM) of the object by learning the movement of the same object included in each of the sample images (IMS). Here, examples of the movement method (MM) include whether the object moves by crawling, whether the object moves by walking, whether the object moves by jumping, or whether the object moves by means of movement (eg, a vehicle or a boat, etc.) , and whether the object moves by swimming.

인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 속도(MV)를 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임을 학습하여 상기 객체의 이동 속도(MV)를 학습한다.The artificial intelligence program 212 learns the moving speed (MV) of the object using the learned samples. For example, the artificial intelligence program 212 learns the movement speed (MV) of the object by learning the movement of the same object included in each of the sample images (IMS).

인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 방향(MV)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임의 방향을 학습하여 상기 객체의 이동 방향(MV)을 학습한다.The artificial intelligence program 212 learns the movement direction (MV) of the object using the learned samples. For example, the artificial intelligence program 212 learns the movement direction (MV) of the object by learning the movement direction of the same object included in each of the sample images (IMS).

인공지능 프로그램(212)은 학습된 샘플들(예를 들면, 샘플들(IMS, SDS, ELS, 또는 VBS)에 대한 학습 결과들, 및 상기 학습 결과들 중에서 적어도 두 개의 조합)을 이용하여 객체의 침입 유형(IT)을 학습한다.The artificial intelligence program 212 uses learned samples (eg, learning results for the samples (IMS, SDS, ELS, or VBS), and a combination of at least two of the learning results) Learn intrusion types (IT).

예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임에 따라 상기 객체의 침입 유형(IT)을 학습한다.For example, the artificial intelligence program 212 learns the intrusion type (IT) of the object according to the movement of the same object included in each of the sample images (IMS).

침입 유형(IT)의 예들은 불법적인 침입을 목적으로 객체가 울타리(400)를 기어오르는지, 울타리(400)를 뛰어넘는지, 사다리를 이용하여 울타리(400)를 오르는지, 울타리(400)의 아래에 굴을 파는지, 울타리(400)를 넘어뜨리는지, 또는 울타리 (400)를 절단하여 구멍을 뚫는지를 학습한다.Examples of the intrusion type (IT) include whether the object climbs the fence 400, jumps over the fence 400, climbs the fence 400 using a ladder, and It learns whether to dig a hole under the burrow, knock over the fence 400, or cut a hole through the fence 400.

인공지능 프로그램(212)은 침입 유형(IT)에 대한 판단의 정확성을 높이기 위해 아래의 학습 결과들을 조합할 수 있다. 조합하는 학습 결과들이 많을 수록 침입 유형(IT)에 대한 판단의 정확성은 높아진다.The artificial intelligence program 212 may combine the following learning results in order to increase the accuracy of determining the intrusion type (IT). The more learning results to combine, the higher the accuracy of the judgment on the intrusion type (IT).

1. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 소리 신호들(SDS)에 대한 학습 결과의 조합;1. Combination of learning results for sample images (IMS) and learning results for sample sound signals (SDS);

2. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 전기 신호들(ELS)에 대한 학습 결과의 조합;2. Combination of learning results for the sample images IMS and learning results for the sample electrical signals ELS;

3. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합;3. Combination of learning results for the sample images (IMS) and learning results for the sample vibration signals (VBS);

4. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 및 샘플 전기 신호들(ELS)에 대한 학습 결과의 조합;4. A combination of the learning result of the sample images IMS, the learning result of the sample sound signals SDS, and the learning result of the sample electrical signals ELS;

5. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 및 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합;5. A combination of a learning result for sample images (IMS), a learning result for sample sound signals (SDS), and a learning result for sample vibration signals (VBS);

6. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 샘플 전기 신호들(ELS)에 대한 학습 결과, 및 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합.6. The learning results for sample images (IMS), the learning results for sample sound signals (SDS), the learning results for sample electrical signals (ELS), and the learning results for sample vibration signals (VBS) Combination.

물론, 영상 촬영 장치의 고장 또는 의도적인 고장을 대비하여, 인공지능 프로그램(212)은 아래의 예들을 이용하여 객체의 침입 유형(IT)을 학습할 수 있다.Of course, in preparation for failure or intentional failure of the image capture device, the artificial intelligence program 212 may learn the intrusion type (IT) of the object using the following examples.

(1) 샘플 소리 신호들(SDS)에 대한 학습 결과;(1) learning results for sample sound signals (SDS);

(2) 샘플 전기 신호들(ELS)에 대한 학습 결과;(2) learning results on sample electrical signals (ELS);

(3) 샘플 진동 신호들(VBS)에 대한 학습 결과;(3) learning results for the sample vibration signals (VBS);

(4) (1) 내지 (3) 중에서 적어도 두 개의 조합.(4) A combination of at least two of (1) to (3).

인공지능 프로그램(212)은 학습된 샘플들(예를 들면, 샘플들(IMS, SDS, ELS, 또는 VBS)에 대한 학습 결과들, 및 상기 학습 결과들 중에서 적어도 두 개의 조합)을 이용하여 지형지물(LM)을 학습한다.The artificial intelligence program 212 uses learned samples (eg, learning results for the samples (IMS, SDS, ELS, or VBS), and a combination of at least two of the learning results) learn (LM).

예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 객체들에 따라 지형지물(LM)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 수목의 분포, 계곡의 유무, 물이 흐르는지 유무, 비탈길의 유무, 등으로 지형지물(LM)을 학습할 수 있다.For example, the artificial intelligence program 212 learns the feature LM according to objects included in each of the sample images IMS. For example, the artificial intelligence program 212 may learn the feature LM based on the distribution of trees included in each of the sample images IMS, whether there is a valley, whether water flows, whether there is a slope, and the like. there is.

도 5는 촬영 영상들을 이용하여 객체의 이동 방법, 이동 속도, 및 이동 방향을 획득하는 방법을 설명하는 도면이다.5 is a diagram for explaining a method of acquiring a moving method, a moving speed, and a moving direction of an object using captured images.

해당 촬영 영상(FA2, FB2, 및 FC2)에서 점선으로 표시된 제1객체(500)는 이전 영상(FA1, FB1, 및 FC1)에 포함된 제1객체(500)를 의미하고, 실선으로 표시된 제1객체(500)는 해당 촬영 영상(FA2, FB2, 및 FC2)에 포함된 제1객체(500)를 의미한다.The first object 500 indicated by a dotted line in the corresponding captured images FA2, FB2, and FC2 means the first object 500 included in the previous images FA1, FB1, and FC1, and the first object 500 indicated by a solid line The object 500 refers to the first object 500 included in the corresponding captured images FA2 , FB2 , and FC2 .

본 발명에 대한 이해를 돕기 위해, 현재 촬영 영상(FA2, FB2, 및 FC2)은 이전 촬영 영상(FA1, FB1, 및 FC1)에 포함된 점선으로 표시된 제1객체(500)와, 현재 촬영 영상(FA2, FB2, 및 FC2)에 포함된 실선으로 표시된 제1객체(500)를 함께 도시한다.In order to facilitate understanding of the present invention, the currently captured images FA2, FB2, and FC2 include the first object 500 indicated by dotted lines included in the previously captured images FA1, FB1, and FC1, and the currently captured image ( The first object 500 indicated by a solid line included in FA2, FB2, and FC2) is shown together.

실시 예에 따라 경우1(CASE1)를 참조하면, 학습 데이터(241)가 생성되어 데이터베이스(240)에 저장된 후, 인공지능 프로그램(212)은 제1시점에 제1촬영 영상 (FA1)을 수신하고 제1촬영 영상(FA1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S115).Referring to case 1 (CASE1) according to an embodiment, after learning data 241 is generated and stored in the database 240, the artificial intelligence program 212 receives the first captured image FA1 at a first point in time and The first object 500 included in the first captured image FA1 is identified using the learning data 241 (S115).

그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FA2)을 수신하고 제2촬영 영상(FA2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).After that, the artificial intelligence program 212 receives the second captured image FA2 at the second time point and identifies the first object 500 included in the second captured image FA2 using the learning data 241. (S120).

예를 들면 각 단계(S115와 S120)를 수행할 때, 인공지능 프로그램(212)은 각 촬영 영상(FA1과 FA2)에 몇개의 객체들이 포함되어 있는지, 객체가 도구(예를 들면, 도검, 총기, 절단기, 또는 사다리 등)를 소지하고 있는지를 학습 데이터(241)를 이용하여 식별할 수도 있다.For example, when performing each step (S115 and S120), the artificial intelligence program 212 determines how many objects are included in each of the captured images (FA1 and FA2), and determines whether the object is a tool (eg, a sword or a gun). , a cutter, or a ladder) may be identified using the learning data 241 .

인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 제1객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체(500)의 제1이동 방법, 제1이동 속도, 및 제1이동 방향을 획득한다(S125).The artificial intelligence program 212 analyzes the movement (or change amount of the movement) of the first objects 500 identified in steps S115 and S120 using the learning data 241, and the first object 500 A first moving method, a first moving speed, and a first moving direction of are obtained (S125).

이때, 인공지능 프로그램(212)은 제1객체(500)의 특정 부분(예를 들면, 제1객체(500)의 머리, 발 또는 손 등)을 이용하여 제1객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석할 수 있다.At this time, the artificial intelligence program 212 uses a specific part of the first object 500 (eg, the head, foot, or hand of the first object 500) to move the first objects 500 ( Alternatively, the amount of change in motion) may be analyzed using the learning data 241 .

인공지능 프로그램(212)은 제1이동 방향(예를 들면, 북북동, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제1목적지(DT1)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제1이동 경로(PA1)를 통해 제1목적지(DT1)로 갈 것이라고 예측한다.The artificial intelligence program 212 predicts the first destination DT1 of the first object 500 by analyzing the first moving direction (for example, north-north-east, several degrees to several degrees) using the learning data 241. do. For example, the artificial intelligence program 212 predicts that the first object 500 will go to the first destination DT1 through the first movement path PA1.

인공지능 프로그램(212)은 제1이동 방법(예를 들면, 속보)과 제1이동 속도(분당 70미터 내지 80미터)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제1목적지(DT1)에 도달할 제1시간을 예측한다(S135). 예측된 제1시간은 제1객체 (500)가 제1위치(P1)로부터 제1이동 경로(PA1)를 통해 제1목적지(DT1)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.The artificial intelligence program 212 analyzes the first moving method (for example, trotting) and the first moving speed (70 to 80 meters per minute) using the learning data 241 so that the first object 500 is A first time to arrive at one destination (DT1) is predicted (S135). The predicted first time includes a minimum predicted time and a maximum predicted time for the first object 500 to reach the first destination DT1 from the first location P1 through the first movement path PA1.

예를 들면, 경우2(CASE2)를 참조하면 인공지능 프로그램(212)은 제1시점에 제1촬영 영상(FB1)을 수신하고 제1촬영 영상(FB1)에 포함된 제1객체(500)를 학습 데이터 (241)를 이용하여 식별한다(S115).For example, referring to case 2 (CASE2), the artificial intelligence program 212 receives the first captured image FB1 at a first point in time and displays the first object 500 included in the first captured image FB1. It is identified using the learning data 241 (S115).

그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FB2)을 수신하고 제2촬영 영상(FB2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).Then, the artificial intelligence program 212 receives the second captured image FB2 at a second time point and identifies the first object 500 included in the second captured image FB2 using the learning data 241. (S120).

인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체 (500)의 제2이동 방법, 제2이동 속도, 및 제2이동 방향을 획득한다(S125).The artificial intelligence program 212 analyzes the movement (or the amount of change in movement) of the objects 500 identified in steps S115 and S120 using the learning data 241, and the first object 500 The second movement method, the second movement speed, and the second movement direction are acquired (S125).

인공지능 프로그램(212)은 제2이동 방향(예를 들면, 서북서, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제2목적지(DT2)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제2지점(P2)을 포함하는 제2이동 경로(PA2)를 통해 제2목적지(DT2)로 갈 것이라고 예측한다.The artificial intelligence program 212 predicts the second destination DT2 of the first object 500 by analyzing the second moving direction (eg, west-northwest, several degrees to several degrees) using the learning data 241. do. For example, the artificial intelligence program 212 predicts that the first object 500 will go to the second destination DT2 through the second movement path PA2 including the second point P2.

인공지능 프로그램(212)은 제2이동 방법(예를 들면, 급보)과 제2이동 속도(예를 들면, 분당 100미터 내지 110미터)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제2지점(P2)를 경유하여 제2목적지(DT2)에 도달할 제2시간을 예측한다(S135). 예측된 제2시간은 제1객체(500)가 제1위치(P1)로부터 이동 경로들(PA2와 PB2)을 통해 제2목적지(DT2)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.The artificial intelligence program 212 analyzes the second moving method (eg, urgent report) and the second moving speed (eg, 100 to 110 meters per minute) using the learning data 241 to obtain the first object ( 500) predicts a second time to reach the second destination DT2 via the second point P2 (S135). The predicted second time includes a minimum predicted time and a maximum predicted time for the first object 500 to reach the second destination DT2 from the first location P1 through the movement paths PA2 and PB2.

예를 들면, 경우3(CASE3)를 참조하면 인공지능 프로그램(212)은 제1시점에 제1촬영 영상(FC1)을 수신하고 제1촬영 영상(FC1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S115).For example, referring to case 3 (CASE3), the artificial intelligence program 212 receives the first captured image FC1 at a first point in time and displays the first object 500 included in the first captured image FC1. It is identified using the learning data 241 (S115).

그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FC2)을 수신하고 제2촬영 영상(FC2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).Then, the artificial intelligence program 212 receives the second captured image FC2 at a second time point and identifies the first object 500 included in the second captured image FC2 using the learning data 241. (S120).

인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체(500)의 제3이동 방법, 제3이동 속도, 및 제3이동 방향을 획득한다(S125).The artificial intelligence program 212 analyzes the movement (or the amount of change in movement) of the objects 500 identified in steps S115 and S120 using the learning data 241, and the control of the first object 500 3 The movement method, the third movement speed, and the third movement direction are acquired (S125).

인공지능 프로그램(212)은 제3이동 방향(예를 들면, 동북동, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제3목적지(DT3)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제3지점(P3)를 포함하는 제3이동 경로(PA3)를 통해 제3목적지(DT3)로 갈 것이라고 예측한다.The artificial intelligence program 212 predicts the third destination DT3 of the first object 500 by analyzing the third moving direction (eg, east-north-east, several degrees to several degrees) using the learning data 241. do. For example, the artificial intelligence program 212 predicts that the first object 500 will go to the third destination DT3 through the third movement path PA3 including the third point P3.

인공지능 프로그램(212)은 제3이동 방법(예를 들면, 뛰어서)과 제3이동 속도 (예를 들면, 시속 15km 내지 18km)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제3지점(P3)를 경유하여 제3목적지(DT3)에 도달할 제3시간을 예측한다 (S135). 예측된 제3시간은 제1객체(500)가 제1위치(P1)로부터 이동 경로들(PA3와 PB3)을 통해 제3목적지(DT3)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.The artificial intelligence program 212 analyzes the third moving method (eg, jumping) and the third moving speed (eg, 15 km to 18 km per hour) using the learning data 241 to obtain the first object 500 predicts the third time to reach the third destination DT3 via the third point P3 (S135). The predicted third time includes a minimum predicted time and a maximum predicted time for the first object 500 to reach the third destination DT3 from the first location P1 through the movement paths PA3 and PB3.

도 6은 객체가 침입자로 판단될 때의 작동을 설명하는 플로우차트이다. 도 1 내지 도 6을 참조하여 인공지능 프로그램(212)이 제3목적지(DT3)에 도달한 제1객체 (500)를 침입자를 판단하는 경우들을 설명한다.Fig. 6 is a flowchart describing the operation when an object is determined to be an intruder. 1 to 6, cases in which the artificial intelligence program 212 determines the first object 500 that has reached the third destination DT3 as an intruder will be described.

센서(341)는 (i) 소리를 감지하는 센서, (ⅱ) 전기 신호를 감지하는 센서, (ⅲ) 진동을 감지하는 센서, 또는 (ⅳ) 소리, 전기 신호, 및 진동 중에서 적어도 두 개를 감지하는 센서의 집합을 통칭한다.The sensor 341 may detect at least two of (i) a sensor for detecting sound, (ii) a sensor for detecting an electrical signal, (iii) a sensor for detecting vibration, or (iv) a sensor for detecting sound, an electrical signal, and vibration. collectively refers to a set of sensors that

인공지능 프로그램(212)이 제1객체(500)를 침입자를 판단할 수 있는 예들은 아래와 같다.Examples in which the artificial intelligence program 212 can determine the first object 500 as an intruder are as follows.

(1) 촬영 장치(343)에 의해 촬영된 영상들(IM)을 이용하여 침입자로 판단;(1) Determining an intruder using the images IM captured by the photographing device 343;

(2) 소리를 감지하는 센서(341)로부터 출력된 소리 신호들(SS)을 이용하여 침입자로 판단;(2) Determining an intruder by using the sound signals SS output from the sensor 341 for detecting sound;

(3) 전기 신호를 감지하는 센서(341)로부터 출력된 전기 신호들(ES)을 이용하여 침입자로 판단;(3) determining an intruder using the electrical signals ES output from the sensor 341 that detects electrical signals;

(4) 진동을 감지하는 센서(341)로부터 출력된 진동 신호들(VS)을 이용하여 침입자로 판단;(4) determining an intruder using the vibration signals VS output from the sensor 341 that senses vibration;

(5) (1) 내지 (4) 중에서 적어도 2개를 조합하여 침입자로 판단.(5) Determined as an intruder by combining at least two of (1) to (4).

예를 들면, 인공지능 프로그램(212)은 촬영 장치(343)에 의해 촬영된 제3촬영 영상들 각각을 촬영 장치 인터페이스(230)를 통해 수신하고, 상기 제3촬영 영상들 각각에 포함된 제1객체(500)와 제2객체를 학습 데이터(241)를 이용하여 식별하고(S115와 S120), 상기 제3촬영 영상들 각각에 포함된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제4이동 방법, 제4이동 속도, 및 제4이동 방향을 획득하고(S125), 상기 제4이동 방향을 이용하여 제1객체(500)의 제4목적지(DT4)를 예측하고(S130), 상기 제4이동 방법과 상기 제4이동 속도를 이용하여 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 예측한다(S135). 예측된 제4시간은 제1객체(500)가 제3목적지(DT3)로부터 제4목적지(DT4)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.For example, the artificial intelligence program 212 receives each of the third captured images captured by the photographing device 343 through the photographing device interface 230, and receives the first captured images included in each of the third captured images. The object 500 and the second object are identified using the learning data 241 (S115 and S120), and the movement of the first object 500 included in each of the third captured images is measured using the learning data 241. The fourth movement method, the fourth movement speed, and the fourth movement direction of the first object 500 are obtained (S125), and the fourth movement direction of the first object 500 is obtained (S125). The destination DT4 is predicted (S130), and the fourth time when the first object 500 will arrive at the fourth destination DT4 is predicted using the fourth moving method and the fourth moving speed (S135). . The predicted fourth time includes a minimum predicted time and a maximum predicted time for the first object 500 to reach the fourth destination DT4 from the third destination DT3.

인공지능 프로그램(212)에 의해 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램(212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 하는지를 판단한다(S137).When the second object is identified as the fence 400 by the artificial intelligence program 212, the artificial intelligence program 212 determines whether the first object 500 is intruding through the fence 400 (S137). .

제1객체(500)가 사람(즉, 침입자)이고, 침입자(500)가 울타리(400)에 대한 침입 행위를 한다고 판단될 때(S137의 YES), 인공지능 프로그램(212)은 경보 장치 (280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지 (DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다. 단말기(600)는 예측 정보(IF)에 응답하여 단말기(600)의 경보기를 이용하여 경보(예를 들면, 시각적 경보, 청각적 경보, 또는 시청각적 경보)를 발생할 수 있다.When it is determined that the first object 500 is a person (ie, an intruder) and that the intruder 500 is trespassing on the fence 400 (YES in S137), the artificial intelligence program 212 generates an alarm device 280 ) is used to generate an alarm, and generate prediction information (IF) including the fourth destination (DT4) and the fourth time for the first object 500 to arrive at the fourth destination (DT4) so that the terminal 600 send to The terminal 600 may generate an alarm (eg, a visual alarm, an audible alarm, or an audio-visual alarm) using an alarm of the terminal 600 in response to the prediction information IF.

실시 예에 따라, 인공지능 프로그램(212)이 촬영 장치(343)에 의해 촬영된 제3촬영 영상들을 학습 데이터(241)를 이용하여 식별하고 분석하고, 분석 결과에 따라 제1객체(500)가 몇명인지, 제1객체(500)가 도구(예를 들면, 도검, 총기, 절단기 또는 사다리 등)를 소지하는지, 및 상기 도구의 종류를 판단할 수 있을 때, 인공지능 프로그램(212)은 제4목적지(DT4), 제4시간, 제1객체(500)가 몇명인지, 제1객체(500)가 도구를 소지하는지, 및 상기 도구의 종류를 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다.According to an embodiment, the artificial intelligence program 212 identifies and analyzes the third captured images captured by the photographing device 343 using the learning data 241, and according to the analysis result, the first object 500 When it is possible to determine how many people, whether the first object 500 possesses a tool (for example, a sword, gun, cutter, ladder, etc.), and the type of the tool, the artificial intelligence program 212 performs a fourth Destination DT4, 4th time, number of first objects 500, whether first object 500 has a tool, and prediction information IF including the type of the tool is generated, and the terminal 600 ) is sent to

이에 따라 단말기(600)의 담당자는 예측 정보(IF)에 따라 침입자인 제1객체 (500)의 침입을 예방 또는 제1객체(500)의 침입에 대한 조치(또는 대응 방안)을 수립할 수 있다. 조치(또는 대응 방안)은 몇명의 담당자들이 필요하고 상기 담당자들 각각이 어떤 무기를 가지고 갈지를 포함한다.Accordingly, the person in charge of the terminal 600 can prevent the intrusion of the first object 500 as an intruder or establish measures (or countermeasures) for the intrusion of the first object 500 according to the prediction information IF. . Actions (or countermeasures) include how many officers are needed and what weapons each of those officers will carry.

실시 예에 따라, 인공지능 프로그램(212)이 촬영 장치(343)에 의해 촬영된 제3촬영 영상들을 학습 데이터(241)를 이용하여 식별하고 분석하고, 분석 결과에 따라 제1객체(500)가 몇명인지, 제1객체(500)가 도구(예를 들면, 도검, 총기, 또는 절단기)를 소지하는지, 및 상기 도구의 종류를 판단할 수 있을 때, 인공지능 프로그램(212)은 제4목적지(DT4), 제4시간, 제1객체(500)가 몇명인지, 제1객체(500)가 도구를 소지하는지, 상기 도구의 종류, 및 제1객체(500)의 침입을 예방하거나 제1객체(500)를 체포하기 위해 몇 명의 담당자가 필요하고 각 담당자가 어떤 무기를 가지고 갈지를 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다.According to an embodiment, the artificial intelligence program 212 identifies and analyzes the third captured images captured by the photographing device 343 using the learning data 241, and according to the analysis result, the first object 500 When it is possible to determine how many people, whether the first object 500 possesses a tool (eg, a sword, a gun, or a cutter), and the type of the tool, the artificial intelligence program 212 determines the fourth destination ( DT4), 4th time, how many people the first object 500 has, whether the first object 500 has a tool, the type of the tool, and preventing intrusion by the first object 500 or the first object ( 500), predictive information (IF) including how many officers are needed and which weapons each officer will carry is generated and transmitted to the terminal 600.

즉, 인공지능 프로그램(212)은 침입자인 제1객체(500)에 대응하기 위한 조치 (또는 대응 방안)을 학습 데이터(241)를 이용하여 분석하고, 분석 결과에 따라 상기 조치(또는 대응 방안)을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송할 수 있다.That is, the artificial intelligence program 212 analyzes measures (or countermeasures) to respond to the intruder, the first object 500, using the learning data 241, and takes the measures (or countermeasures) according to the analysis result. Prediction information (IF) including may be generated and transmitted to the terminal 600.

제1객체(500)의 침입 행위의 예들은 제1객체(500)가 울타리(400)를 무단으로 절단하는 행위, 제1객체(500)가 울타리(400)에 생긴 구멍을 통과하는 행위, 제1객체(500)가 울타리(400)의 아래에 굴을 파는 행위, 제1객체(500)가 사다리를 타고 울타리(400)를 오르는지, 및 제1객체(500)가 울타리(400)를 넘는 행위를 포함한다.Examples of trespassing by the first object 500 include unauthorized cutting of the fence 400 by the first object 500, passing through a hole in the fence 400 by the first object 500, The act of the first object 500 digging a burrow under the fence 400, the first object 500 climbing the fence 400 on a ladder, and the first object 500 crossing the fence 400 includes action

인공지능 프로그램(212)은 제3촬영 영상들 각각에 포함된 제1객체(500)의 행위(또는 행동)을 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체(500)가 사람이지만 상기 사람이 울타리(400)에 대한 침입 행위를 하지 않는다고 판단될 때(S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 센서(341)의 주위에 설치된 스피커를 제어하여 경고 방송을 할 수 있다(S139).The artificial intelligence program 212 analyzes the behavior (or behavior) of the first object 500 included in each of the third captured images using the learning data 241, and according to the result of the analysis, the first object 500 ) is a person, but when it is determined that the person does not invade the fence 400 (NO in S137), the artificial intelligence program 212 is a speaker installed around the sensor 341 through the sensor interface 220. It is possible to broadcast a warning by controlling (S139).

실시 예에 따라 제1객체가 동물이고 상기 동물이 울타리(400)에 대한 침입 행위를 하지 않는다고 판단될 때(S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 센서(341)의 주위에 설치된 경광등을 제어하여 경고를 할 수 있다. 다른 실시 예에 따라 제1객체가 동물이고 울타리(400)가 전기 울타리일 때 (S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 전기 울타리 (400)로 전류를 흐르게 하여 상기 동물을 전기 울타리(400)로부터 퇴치할 수 있다.According to an embodiment, when it is determined that the first object is an animal and the animal does not invade the fence 400 (NO in S137), the artificial intelligence program 212 operates the sensor 341 through the sensor interface 220. ) can be warned by controlling the warning lights installed around it. According to another embodiment, when the first object is an animal and the fence 400 is an electric fence (NO in S137), the artificial intelligence program 212 causes current to flow through the sensor interface 220 to the electric fence 400 to The animal can be expelled from the electric fence 400.

실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 소리 신호들(SS)을 이용하여 판단한다(S137).According to embodiments, when the second object is identified as the fence 400, the artificial intelligence program 212 determines that the first object 500 is intruding through the fence 400 using sound signals SS It does (S137).

학습 데이터(241)는 소리 신호 학습 데이터(241B)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 소리 신호들(SS)을 센서 인터페이스(220)를 통해 수신하고, 소리 신호들(SS)이 인위적인 소리 신호인지를 소리 신호 학습 데이터(241B)를 이용하여 판단하고, 소리 신호들(SS)이 상기 인위적인 소리 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).Since the learning data 241 includes the sound signal learning data 241B, the artificial intelligence program 212 receives the sound signals SS output from the sensor 341 through the sensor interface 220, and the sound signal It is determined whether the sound signals SS are artificial sound signals using the sound signal learning data 241B, and when the sound signals SS are determined to be the artificial sound signals, the first object 500 is moved to the fence 400. Determined as an intruder through (YES in S137), generates an alarm using the alarm device 280, and the fourth destination (DT4) and the first object 500 reach the fourth destination (DT4). Prediction information (IF) including time is generated and transmitted to the terminal 600 (S140).

실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 전기 신호들(ES)을 이용하여 판단한다(S137).According to embodiments, when the second object is identified as the fence 400, the artificial intelligence program 212 determines that the first object 500 is intruding through the fence 400 using electrical signals ES. It does (S137).

학습 데이터(241)는 전기 신호 학습 데이터(241C)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 전기 신호들(ES)을 센서 인터페이스(220)를 통해 수신하고, 전기 신호들(ES)이 인위적인 전기 신호들인지를 전기 신호 학습 데이터(241C)를 이용하여 판단하고, 전기 신호들(ES)이 상기 인위적인 전기 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).Since the learning data 241 includes the electrical signal learning data 241C, the artificial intelligence program 212 receives the electrical signals ES output from the sensor 341 through the sensor interface 220, and receives the electrical signal It is determined whether the ESs are artificial electrical signals using the electrical signal learning data 241C, and when the electrical signals ES are determined to be artificial electrical signals, the first object 500 is transferred to the fence 400. Determined as an intruder through (YES in S137), generates an alarm using the alarm device 280, and the fourth destination (DT4) and the first object 500 reach the fourth destination (DT4) Prediction information (IF) including time is generated and transmitted to the terminal 600 (S140).

실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 진동 신호들(VS)을 이용하여 판단한다(S137).According to embodiments, when the second object is identified as the fence 400, the artificial intelligence program 212 determines whether the first object 500 is intruding through the fence 400 using the vibration signals VS It does (S137).

학습 데이터(241)는 진동 신호 학습 데이터(241D)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 진동 신호들(VS)을 센서 인터페이스(220)를 통해 수신하고, 진동 신호들(VS)이 인위적인 진동 신호들인지를 진동 신호 학습 데이터(241D)를 이용하여 판단하고, 진동 신호들(VS)이 상기 인위적인 진동 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 신호(IF)를 생성하여 단말기(600)로 전송한다(S140).Since the learning data 241 includes the vibration signal learning data 241D, the artificial intelligence program 212 receives the vibration signals VS output from the sensor 341 through the sensor interface 220, and the vibration signal It is determined whether VS is artificial vibration signals using the vibration signal learning data 241D, and when the vibration signals VS are determined to be the artificial vibration signals, the first object 500 is moved to the fence 400. Determined as an intruder through (YES in S137), generates an alarm using the alarm device 280, and the fourth destination (DT4) and the first object 500 reach the fourth destination (DT4). A prediction signal (IF) including time is generated and transmitted to the terminal 600 (S140).

앞의 실시 예들에서 설명한 바와 같이, 목적지와 상기 목적지에 도달할 시간이 예측된 후, 인공지능 프로그램(212)은 해당 촬영 장치(353, 363, 373, 383, 또는 393)에 의해 촬영된 영상들 각각에 포함된 제1객체(500)를 식별하고(S145), 제1객체(500)의 움직임을 분석하여 제1객체(500)의 새로운 목적지와 상기 새로운 목적지에 도달할 새로운 시간을 예측하고, 예측된 목적지와 예측된 시간을 예측된 새로운 목적지와 예측된 새로운 시간으로 실시간 업데이트하고(S150), 상기 예측된 새로운 목적지와 상기 예측된 새로운 시간을 포함하는 새로운 예측 정보(IF)를 생성하여 통신 장치(250)를 통해 단말기(600)로 전송한다(S140).As described in the previous embodiments, after the destination and the time to reach the destination are predicted, the artificial intelligence program 212 captures images captured by the corresponding photographing device 353, 363, 373, 383, or 393. The first object 500 included in each is identified (S145), and the movement of the first object 500 is analyzed to predict a new destination of the first object 500 and a new time to reach the new destination, The predicted destination and the predicted time are updated in real time with the predicted new destination and the predicted new time (S150), and new prediction information (IF) including the predicted new destination and the predicted new time is generated to communicate with the communication device. It is transmitted to the terminal 600 through (250) (S140).

인공지능 프로그램(212)이 제1객체(500)의 목적지(DT5, DT6, DT7, 또는 DT8)와 목적지(DT5, DT6, DT7, 또는 DT8)에 도달할 시간을 예측하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하는 과정은, 제1객체(500)의 목적지 (DT1, DT2, DT3, 또는 DT4)와 목적지(DT1, DT2, DT3, 또는 DT4)에 도달할 시간을 예측하고 예측된 상기 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하는 과정과 대동소이하다.The artificial intelligence program 212 predicts the destination (DT5, DT6, DT7, or DT8) and the time to reach the destination (DT5, DT6, DT7, or DT8) of the first object 500, and the predicted destination and the predicted destination The process of generating the prediction information (IF) including time includes the destination (DT1, DT2, DT3, or DT4) of the first object 500 and the time to reach the destination (DT1, DT2, DT3, or DT4). It is almost the same as the process of predicting and generating prediction information (IF) including the predicted destination and the predicted time.

도 7은 도 1에 도시된 침입 경계 시스템의 작동 방법을 설명하는 플로우차트이다.FIG. 7 is a flowchart illustrating an operation method of the intrusion detection system shown in FIG. 1 .

도 1 내지 도 7을 참조하여 인공지능 프로그램(212)이 제1객체(500)가 존재하는 위치에 대한 지형 및/또는 지물을 식별하고, 식별된 지형 지물을 이용하여 목적지와 상기 목적지에 도달할 시간을 예측하는 방법을 설명한다. 도 5의 각 촬영 영상(FA1, FA2, FB1, FB2, FC1, 및 FC2)에 포함된 객체(510)는 지형 지물에 대한 정보를 획득하기 위한 객체라고 가정한다.Referring to FIGS. 1 to 7 , the artificial intelligence program 212 identifies a terrain and/or feature for the location where the first object 500 exists, and uses the identified terrain feature to reach a destination and the destination. Describe how to predict time. It is assumed that the object 510 included in each of the captured images FA1 , FA2 , FB1 , FB2 , FC1 , and FC2 of FIG. 5 is an object for acquiring information on a terrain feature.

실시 예들에 따라, 도 5의 경우1(CASE1)를 참조하면. 인공지능 프로그램 (212)은 제1촬영 영상(FA1)에 포함된 제1객체(500)와 제2객체(510) 및 제2촬영 영상(FA2)에 포함된 제1객체(500)와 제2객체(510)를 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체(500)가 존재하는 위치의 지형 지물 정보를 식별한다(S210).According to embodiments, referring to case 1 (CASE1) of FIG. 5 . The artificial intelligence program 212 controls the first object 500 and the second object 510 included in the first captured image FA1 and the first object 500 and second object included in the second captured image FA2. The object 510 is analyzed using the learning data 241, and geographic feature information of a location where the first object 500 exists is identified according to the result of the analysis (S210).

인공지능 프로그램(212)은 제1객체(500)의 제1이동 방향과 식별된 지형 지물 (또는 지형지물 정보)를 학습 데이터(241)를 이용하여 분석하고 제1객체(500)의 제1목적지를 예측한다(S130A).The artificial intelligence program 212 analyzes the first moving direction of the first object 500 and the identified feature (or feature information) using the learning data 241 and determines the first destination of the first object 500. Predict (S130A).

인공지능 프로그램(212)은 제1이동 방법, 제1이동 속도, 및 식별된 지형 지물을 학습 데이터(214)를 이용하여 분석하고 제1객체(500)가 제1목적지에 도달할 제1시간을 예측한다(S135A).The artificial intelligence program 212 analyzes the first moving method, the first moving speed, and the identified terrain feature using the learning data 214 and determines the first time for the first object 500 to reach the first destination. Predict (S135A).

실시 예들에 따라, 제1촬영 영상(FA1)과 촬영 영상(FA2)은 동일한 촬영 장치로부터 출력되거나 서로 다른 촬영 장치로부터 출력될 수 있다.According to embodiments, the first capture image FA1 and the capture image FA2 may be output from the same capture device or from different capture devices.

실시 예들에 따라, 데이터베이스(240)는 지형 지물 정보(243)를 저장하고 있으므로, 인공지능 프로그램(212)은 제1촬영 영상(FA1)를 출력하는 제1촬영 장치 (313)의 제1위치 정보(PI1)와 제2촬영 영상(FA2)을 출력하는 제2촬영 장치(323)의 제2위치 정보(PI2)를 지형 지물 정보(243)를 이용하여 분석하고 제1객체(500)가 존재하는 지형 지물(예를 들면, 지형 정보(TG1)와 지물 정보(FI1)에 해당하는 지형 지물)를 식별한다(S210).According to embodiments, since the database 240 stores the geographic feature information 243, the artificial intelligence program 212 provides first location information of the first capturing device 313 outputting the first captured image FA1. The second location information PI2 of the second capturing device 323 outputting PI1 and the second captured image FA2 is analyzed using the terrain feature information 243 and the first object 500 exists. A terrain feature (for example, a terrain feature corresponding to the terrain information TG1 and the feature information FI1) is identified (S210).

동일한 이동 방법으로 제1객체(500)가 평지를 이동할 때의 이동 속도와 제1객체(500)가 경사가 급한 산지를 이동할 때의 이동 속도는 서로 다르다. 따라서, 인공지능 프로그램(212)이 제1객체(500)의 이동 속도를 예측할 때, 인공지능 프로그램(212)이 식별된 지형 지물 정보를 이용하면 제1객체(500)의 이동 속도를 좀 더 정확하게 예측할 수 있다.The moving speed when the first object 500 moves in a flat area and the moving speed when the first object 500 moves in a mountainous area with a steep slope in the same moving method are different from each other. Therefore, when the artificial intelligence program 212 predicts the moving speed of the first object 500, the artificial intelligence program 212 uses the identified terrain feature information to more accurately predict the moving speed of the first object 500. Predictable.

도 7의 단계들(S110~S125, 및 S140~S150)과 도 4의 단계들(S110~S125, 및 S140~S150)은 동일하므로, 단계들(S110~S125, 및 S140~S150)에 대한 설명은 생략한다. 또한 도 6의 단계들(S137과 S139)은 도 7의 단계들(S135A와 S140) 사이에 적용된다.Since the steps S110 to S125 and S140 to S150 of FIG. 7 and the steps S110 to S125 and S140 to S150 of FIG. 4 are the same, description of the steps S110 to S125 and S140 to S150 is omitted. Also, steps S137 and S139 of FIG. 6 are applied between steps S135A and S140 of FIG. 7 .

실시 예들에 따라, 제1촬영 영상(FA1)과 촬영 영상(FA2)은 동일한 촬영 장치로부터 출력되거나 서로 다른 촬영 장치로부터 출력될 수 있다. 제1촬영 영상(FA1)과 촬영 영상(FA2)은 드론(700)에 의해 촬영된 영상일 수 있다.According to embodiments, the first capture image FA1 and the capture image FA2 may be output from the same capture device or from different capture devices. The first captured image FA1 and the captured image FA2 may be images captured by the drone 700 .

인공지능 알고리즘(또는 인공지능 프로그램(212))을 이용한 침입 예측 방법은 샘플 영상들(SPI)을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터 (241)를 생성하고(S110), 제1촬영 영상(FA1, FB1, 또는 FC1)을 수신하고 제1촬영 영상(FA1, FB1, 또는 FC1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고(S115), 제2촬영 영상(FA2, FB2, 또는 FC2)을 수신하고 제2촬영 영상(FA2, FB2, 또는 FC2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고 (S120), 제1촬영 영상(FA1, FB1, 또는 FC1)과 제2촬영 영상(FA2, FB2, 또는 FC2) 각각에서 식별된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 이동 방법, 이동 속도, 및 이동 방향을 획득하고(S125), 상기 이동 방향을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측하고 (S130), 상기 이동 방법과 상기 이동 속도를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 상기 목적지에 도달할 시간을 예측한다(S135).The intrusion prediction method using an artificial intelligence algorithm (or artificial intelligence program 212) generates training data 241 by learning sample images (SPI) using the artificial intelligence algorithm (S110), and first captured images. (FA1, FB1, or FC1) is received, and the first object 500 included in the first captured image (FA1, FB1, or FC1) is identified using the learning data 241 (S115), and the second captured image Receiving the image (FA2, FB2, or FC2) and identifying the first object 500 included in the second captured image (FA2, FB2, or FC2) using the learning data 241 (S120), The movement of the first object 500 identified in each of the captured image FA1, FB1, or FC1 and the second captured image FA2, FB2, or FC2 is analyzed using the learning data 241 to determine the first object ( 500), the movement method, movement speed, and movement direction are acquired (S125), the movement direction is analyzed using the learning data 241 to predict the destination of the first object 500 (S130), and the movement The method and the moving speed are analyzed using the learning data 241 to predict the time at which the first object 500 will reach the destination (S135).

실시 예들에 따라 상기 침입 예측 방법은 제3촬영 영상들을 수신하고 상기 제3촬영 영상들 각각에 포함된 제1객체(500)와 제2객체를 학습 데이터(241)를 이용하여 식별하고, 상기 제2객체가 울타리(400)로 식별될 때 제1객체(500)가 울타리(400)를 통한 침입 행위를 하는지를 판단하고(S137), 제1객체(500)가 울타리(400)에 대한 침입 행위를 할 때 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to embodiments, the intrusion prediction method receives third captured images, identifies a first object 500 and a second object included in each of the third captured images using learning data 241, and 2 When the object is identified as the fence 400, it is determined whether the first object 500 is intruding through the fence 400 (S137), and the first object 500 is intruding into the fence 400. When it does, an alarm is generated and prediction information (IF) including the predicted destination and the predicted time is generated and transmitted to the terminal 600 (S140).

실시 예들에 따라 상기 침입 예측 방법은 샘플 소리 신호들(SDS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 소리 신호들(SS)을 수신하고 소리 신호들(SS)이 인위적인 소리 신호들인지를 학습 데이터 (241)를 이용하여 판단하고, 소리 신호들(SS)이 상기 인위적인 소리 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to embodiments, the intrusion prediction method further learns sample sound signals (SDS) using an artificial intelligence algorithm to generate learning data 241 (S110), receives sound signals (SS), and generates sound signals It is determined whether (SS) are artificial sound signals using the learning data 241, and when the sound signals (SS) are determined to be the artificial sound signals, an intruder passes through the fence 400 through the first object 500. It is determined (YES in S137), an alert is generated, and prediction information (IF) including a predicted destination and a predicted time is generated and transmitted to the terminal 600 (S140).

실시 예들에 따라 상기 침입 예측 방법은 샘플 전기 신호들(ELS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 전기 신호들(ES)을 수신하고 전기 신호들(SS)이 인위적인 전기 신호들인지를 학습 데이터 (241)를 이용하여 판단하고(S137), 전기 신호들(ES)이 상기 인위적인 전기 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to the embodiments, the intrusion prediction method further learns sample electrical signals ELS using an artificial intelligence algorithm to generate learning data 241 (S110), receives electrical signals ES, and electrical signals It is determined whether (SS) are artificial electrical signals using the learning data 241 (S137), and when the electrical signals (ES) are determined to be the artificial electrical signals, the first object 500 is placed in the fence 400 It is determined as an intruder through (YES in S137), an alarm is generated, and prediction information (IF) including a predicted destination and a predicted time is generated and transmitted to the terminal 600 (S140).

실시 예들에 따라 상기 침입 예측 방법은 샘플 진동 신호들(VBS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 진동 신호들(VS)을 수신하고 진동 신호들(VS)이 인위적인 진동 신호들인지를 학습 데이터 (241)를 이용하여 판단하고(S137), 진동 신호들(VS)이 상기 인위적인 진동 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).According to the embodiments, the intrusion prediction method further learns sample vibration signals (VBS) using an artificial intelligence algorithm to generate learning data 241 (S110), receives vibration signals (VS), and generates vibration signals It is determined whether VS is artificial vibration signals using the learning data 241 (S137), and when the vibration signals VS are determined to be the artificial vibration signals, the first object 500 is moved to the fence 400. It is determined as an intruder through (YES in S137), an alarm is generated, and prediction information (IF) including a predicted destination and a predicted time is generated and transmitted to the terminal 600 (S140).

실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)에 포함된 제2객체(510)와 제2촬영 영상(FA2, FB2, 또는 FC2)에 포함된 제2객체(510)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 존재하는 위치의 지형지물을 식별하고(S210), 획득된 제1객체(500)의 이동 방향과 식별된 지형지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다(S130A).According to an embodiment, the artificial intelligence program 212 may perform the second object 510 included in the first captured image FA1, FB1, or FC1 and the second object 510 included in the second captured image FA2, FB2, or FC2. The object 510 is analyzed using the learning data 241 to identify the feature at the location where the first object 500 exists (S210), and the moving direction of the obtained first object 500 and the identified feature The water is analyzed using the learning data 241 to predict the destination of the first object 500 (S130A).

인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).The artificial intelligence program 212 analyzes the acquired movement method, the acquired movement speed, and the identified terrain feature using the learning data 241 to predict the time for the first object 500 to reach the destination (S135A). ).

실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)과 제2촬영 영상(FA2, FB2, 또는 FC2)을 출력하는 동일한 촬영 장치가 설치된 위치 정보를 분석하여 제1객체(500)가 존재하는 위치의 지형 지물을 식별하고, 획득된 이동 방향과 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다(S130A).According to an embodiment, the artificial intelligence program 212 analyzes location information where the same photographing device outputting the first captured image (FA1, FB1, or FC1) and the second captured image (FA2, FB2, or FC2) is installed. The first object 500 is identified, and the destination of the first object 500 is predicted by analyzing the obtained movement direction and the identified feature using the learning data 241 (S130A). .

인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).The artificial intelligence program 212 analyzes the acquired movement method, the acquired movement speed, and the identified terrain feature using the learning data 241 to predict the time for the first object 500 to reach the destination (S135A). ).

실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)를 출력하는 제1촬영 장치(313)의 제1위치 정보(PI1)와 제2촬영 영상(FA2, FB2, 또는 FC2)을 출력하는 제2촬영 장치(323)의 제2위치 정보(PI2)를 분석하여 제1객체(500)가 존재하는 지형 지물을 식별하고, 획득된 이동 방향과 식별된 지형지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다 (S130A).According to an embodiment, the artificial intelligence program 212 may generate the first location information PI1 of the first capturing device 313 outputting the first captured image FA1, FB1, or FC1 and the second captured image FA2 or FB2. , or FC2) is analyzed to analyze the second location information (PI2) of the second photographing device 323 to identify the feature where the first object 500 exists, and the obtained movement direction and the identified feature are analyzed. The destination of the first object 500 is predicted by analyzing the learning data 241 (S130A).

인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).The artificial intelligence program 212 analyzes the acquired movement method, the acquired movement speed, and the identified terrain feature using the learning data 241 to predict the time for the first object 500 to reach the destination (S135A). ).

인공지능 프로그램(212)은 제3촬영 영상을 수신하고 상기 제3촬영 영상에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고(S145), 제2촬영 영상 (FA2, FB2, 또는 FC2)과 상기 제3촬영 영역 각각에서 식별된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 새로운 이동 방법, 새로운 이동 속도, 및 새로운 이동 방향을 획득하고(S145), 새로운 이동 방향을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 새로운 목적지를 예측하고 (S145), 새로운 이동 방법과 새로운 이동 속도를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 새로운 목적지에 도달할 시간을 예측한다(S145).The artificial intelligence program 212 receives the third captured image, identifies the first object 500 included in the third captured image using the learning data 241 (S145), and performs the second captured image (FA2, A new movement method of the first object 500, a new movement speed, and A new movement direction is obtained (S145), the new movement direction is analyzed using the learning data 241 to predict a new destination of the first object 500 (S145), and the new movement method and new movement speed are determined from the learning data By analyzing using step 241, the time at which the first object 500 will arrive at a new destination is predicted (S145).

인공지능 프로그램(212)은 이전 목적지를 새로운 목적지로 변경하고, 이전에 예측된 제1시간을 새롭게 예측된 시간으로 변경하고, 새로운 목적지와 상기 새로운 시간을 포함하는 예측 정보를 생성하여 단말기(600)로 전송한다(S150).The artificial intelligence program 212 changes the previous destination to a new destination, changes the previously predicted first time to the newly predicted time, and generates prediction information including the new destination and the new time, so that the terminal 600 It is transmitted to (S150).

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

100: 침입 경계 시스템
200: 인공지능을 이용한 제어 장치
311, 321, 331, 341, 351, 361, 371, 381, 391: 센서
313, 323, 333, 343, 353, 363, 373, 383, 393: 촬영 장치
400: 울타리
410: 시설물
500: 객체, 사람
100: intrusion alert system
200: control device using artificial intelligence
311, 321, 331, 341, 351, 361, 371, 381, 391: sensor
313, 323, 333, 343, 353, 363, 373, 383, 393: photographing device
400: fence
410: facility
500: object, person

Claims (6)

촬영 장치;
진동을 감지하는 센서; 및
인공 지능을 이용한 제어 장치를 포함하고,
상기 인공 지능을 이용한 제어 장치는,
데이터베이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
상기 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 센서로부터 출력된 진동 신호들을 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하는 침입 경계 시스템.
filming device;
a sensor that detects vibration; and
Including a control device using artificial intelligence,
The control device using the artificial intelligence,
database; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from the photographing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from the photographing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from the sensor, determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
An intrusion detection system for generating prediction information including the destination and a time to reach the destination.
제1항에 있어서, 상기 인공 지능을 이용한 제어 장치는,
상기 프로세서의 제어에 따라 상기 제1촬영 영상과 상기 제2촬영 영상을 수신하여 디스플레이하는 디스플레이 장치를 더 포함하는 침입 경계 시스템.
The method of claim 1, wherein the control device using artificial intelligence,
and a display device for receiving and displaying the first captured image and the second captured image under the control of the processor.
제1항에 있어서,
상기 촬영 장치는 CCTV 카메라, 네트워크 카메라, 팬-틸트-줌 카메라(pan-tilt-zoom (PTZ) camera), 열화상 카메라, 또는 열상 감시 장비인 침입 경계 시스템.
According to claim 1,
The intrusion boundary system of claim 1, wherein the photographing device is a CCTV camera, a network camera, a pan-tilt-zoom (PTZ) camera, a thermal imaging camera, or a thermal imaging monitoring device.
제1촬영 장치;
제2촬영 장치;
진동을 감지하는 센서; 및
인공 지능을 이용한 제어 장치를 포함하고,
상기 인공 지능을 이용한 제어 장치는,
데이터베이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
상기 제1촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 제2촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 센서로부터 출력된 진동 신호들을 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하는 침입 경계 시스템.
a first photographing device;
a second photographing device;
a sensor that detects vibration; and
Including a control device using artificial intelligence,
The control device using the artificial intelligence,
database; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from the first capturing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from the second capturing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from the sensor, determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
An intrusion detection system for generating prediction information including the destination and a time to reach the destination.
데이터베이스;
센서 인터페이스;
촬영 장치 인터페이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고,
상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고,
상기 촬영 장치 인터페이스는 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송하는 인공지능을 이용한 제어 장치.
database;
sensor interface;
shooting device interface; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from a photographing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from the photographing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from a sensor that detects vibration through the sensor interface, and determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
generating prediction information including the destination and a time to reach the destination;
receiving and interpreting the vibration signals from the sensor interface, and generating a control signal for controlling the photographing device according to an analysis result;
wherein the photographing device interface receives the control signal from the processor and transmits it to the photographing device.
데이터베이스;
센서 인터페이스;
촬영 장치 인터페이스; 및
프로세서를 포함하고,
상기 프로세서는,
샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
샘플 진동 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 진동 신호 학습 데이터를 생성하고 상기 진동 신호 학습 데이터를 상기 데이터베이스에 저장하고,
제1촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
제2촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
진동을 감지하는 센서로부터 출력된 진동 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 진동 신호들이 인위적인 진동 신호들인지를 상기 진동 신호 학습 데이터를 이용하여 판단하고,
상기 진동 신호들이 상기 인위적인 진동 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고,
상기 센서 인터페이스로부터 상기 진동 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 제1촬영 장치와 상기 제1촬영 장치를 제어하기 위한 제어 신호를 생성하고,
상기 촬영 장치 인터페이스는 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 제1촬영 장치와 상기 제2촬영 장치로 전송하는 인공지능을 이용한 제어 장치.
database;
sensor interface;
shooting device interface; and
contains a processor;
the processor,
Learning sample images using an artificial intelligence algorithm to generate image signal learning data and storing the image signal learning data in the database;
Learning sample vibration signals using the artificial intelligence algorithm to generate vibration signal learning data and storing the vibration signal learning data in the database;
Receiving a first captured image transmitted from a first capturing device and identifying an object included in the first captured image using the image signal learning data;
Receiving a second captured image transmitted from a second capturing device and identifying the object included in the second captured image using the image signal learning data;
Receiving vibration signals output from a sensor that detects vibration through the sensor interface, and determining whether the vibration signals are artificial vibration signals using the vibration signal learning data;
When the vibration signals are determined to be the artificial vibration signals, the object is determined as an intruder through the fence;
When the object is determined to be the intruder, the movement of the object identified in each of the first and second captured images is analyzed using the image signal learning data to determine the moving method, moving speed, and obtain a direction of movement, including an azimuth and an angular range;
Analyzing the moving direction using the video signal learning data to predict whether the object will go to a destination through one of a plurality of moving paths;
predicting a time when the object will reach the destination by analyzing the moving method and the moving speed using the video signal learning data;
generating prediction information including the destination and a time to reach the destination;
receiving and interpreting the vibration signals from the sensor interface, and generating a control signal for controlling the first photographing device and the first photographing device according to an analysis result;
wherein the photographing device interface receives the control signal from the processor and transmits the control signal to the first photographing device and the second photographing device.
KR1020230014886A 2021-10-06 2023-02-03 Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same KR102531272B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230014886A KR102531272B1 (en) 2021-10-06 2023-02-03 Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210132549A KR102398010B1 (en) 2021-10-06 2021-10-06 Method for intrusion prediction using artificial intelligence algorithm and computer program thereof
KR1020220075333A KR102498352B1 (en) 2021-10-06 2022-06-21 Control device using artificial intelligence control device and intrusion alert systme including the same
KR1020230014886A KR102531272B1 (en) 2021-10-06 2023-02-03 Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220075333A Division KR102498352B1 (en) 2021-10-06 2022-06-21 Control device using artificial intelligence control device and intrusion alert systme including the same

Publications (2)

Publication Number Publication Date
KR20230050277A KR20230050277A (en) 2023-04-14
KR102531272B1 true KR102531272B1 (en) 2023-05-11

Family

ID=81590731

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020210132549A KR102398010B1 (en) 2021-10-06 2021-10-06 Method for intrusion prediction using artificial intelligence algorithm and computer program thereof
KR1020220055616A KR102412862B1 (en) 2021-10-06 2022-05-04 Intrusion alert system
KR1020220055607A KR102412861B1 (en) 2021-10-06 2022-05-04 Control device using artificial intelligence control device
KR1020220075333A KR102498352B1 (en) 2021-10-06 2022-06-21 Control device using artificial intelligence control device and intrusion alert systme including the same
KR1020230014870A KR102509570B1 (en) 2021-10-06 2023-02-03 Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same
KR1020230014886A KR102531272B1 (en) 2021-10-06 2023-02-03 Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same

Family Applications Before (5)

Application Number Title Priority Date Filing Date
KR1020210132549A KR102398010B1 (en) 2021-10-06 2021-10-06 Method for intrusion prediction using artificial intelligence algorithm and computer program thereof
KR1020220055616A KR102412862B1 (en) 2021-10-06 2022-05-04 Intrusion alert system
KR1020220055607A KR102412861B1 (en) 2021-10-06 2022-05-04 Control device using artificial intelligence control device
KR1020220075333A KR102498352B1 (en) 2021-10-06 2022-06-21 Control device using artificial intelligence control device and intrusion alert systme including the same
KR1020230014870A KR102509570B1 (en) 2021-10-06 2023-02-03 Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same

Country Status (1)

Country Link
KR (6) KR102398010B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557342B1 (en) * 2022-06-28 2023-07-19 주식회사 시큐오션 System and method for controlling operation of sensor for detecting intruder
CN116597608B (en) * 2023-05-26 2023-12-19 江西省宏旺科技有限公司 Zoo monitoring and early warning method and device
KR102600316B1 (en) * 2023-06-19 2023-11-09 주식회사 영화키스톤건축사사무소 Electric shock accident prevention system for apartment houses using artificial intelligence
CN116866530A (en) * 2023-08-01 2023-10-10 广东省新一代通信与网络创新研究院 Security monitoring system, method and device based on 5G communication
KR102643021B1 (en) * 2023-08-18 2024-03-04 이성락 Method and system for automatically notifying unauthorized intrusion to a user terminal based on neural networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102021441B1 (en) * 2019-05-17 2019-11-04 정태웅 Method and monitoring camera for detecting intrusion in real time based image using artificial intelligence
KR102298063B1 (en) * 2021-02-17 2021-09-02 임정석 Smart security drone system linked to cctv

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101766305B1 (en) * 2015-02-23 2017-08-08 한남대학교 산학협력단 Apparatus for detecting intrusion
KR101951361B1 (en) 2017-09-15 2019-02-22 김동권 Method for managing crime prevention and disaster prevention using artificial intelligence
KR101934700B1 (en) 2018-07-12 2019-01-03 주식회사동우유니온 Early fire detection system, server and method using image processing and artificial intelligence based on deep learning
KR102126498B1 (en) 2019-11-15 2020-06-25 한국건설기술연구원 Apparatus, system and method for detecting dangerous situation based on image recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102021441B1 (en) * 2019-05-17 2019-11-04 정태웅 Method and monitoring camera for detecting intrusion in real time based image using artificial intelligence
KR102298063B1 (en) * 2021-02-17 2021-09-02 임정석 Smart security drone system linked to cctv

Also Published As

Publication number Publication date
KR102498352B1 (en) 2023-02-08
KR102412862B1 (en) 2022-06-24
KR20230050277A (en) 2023-04-14
KR102412861B1 (en) 2022-06-23
KR102509570B1 (en) 2023-03-13
KR102398010B1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
KR102531272B1 (en) Control device using artificial intelligence learning images and vibrations and intrusion alert systme including the same
CN108615321B (en) Security pre-warning system and method based on radar detecting and video image behavioural analysis
KR101644443B1 (en) Warning method and system using prompt situation information data
US20160019427A1 (en) Video surveillence system for detecting firearms
CN110133573A (en) A kind of autonomous low latitude unmanned plane system of defense based on the fusion of multielement bar information
US20070035622A1 (en) Method and apparatus for video surveillance
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
CN107360394B (en) More preset point dynamic and intelligent monitoring methods applied to frontier defense video monitoring system
JP2014194686A (en) Crime prevention system
US20220366687A1 (en) System and method for drone land condition surveillance
CN211630273U (en) Intelligent image recognition device for railway environment
CN113593161A (en) Perimeter intrusion detection method
CN116453278A (en) Intrusion monitoring method combining deep learning intelligent detection and optical fiber vibration sensing
CN114998846A (en) Method and system for realizing intelligent system of offshore drilling platform and related components
Saravanan et al. IoT alert reflexion of forbidden deforestation regions with drone observation
KR101542134B1 (en) The apparatus and method of surveillance a rock fall based on smart video analytic
CN111063148A (en) Remote night vision target video detection method
Fatima et al. Iot based border security system using machine learning
KR102440169B1 (en) Smart guard system for improving the accuracy of effective detection through multi-sensor signal fusion and AI image analysis
KR20230087008A (en) Processing apparatus for dangerous situation information using smart pole
CN111901217B (en) Key area land-air integrated warning system based on microvibration perception
JP4675217B2 (en) Tracking type monitoring system
CN101523451A (en) A method for determining sensor coverage, a design tool and a border protection system using the method
KR20160086536A (en) Warning method and system using prompt situation information data
LU500876B1 (en) Warning area intrusion detection method and device

Legal Events

Date Code Title Description
GRNT Written decision to grant