KR102509570B1 - 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템 - Google Patents

영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템 Download PDF

Info

Publication number
KR102509570B1
KR102509570B1 KR1020230014870A KR20230014870A KR102509570B1 KR 102509570 B1 KR102509570 B1 KR 102509570B1 KR 1020230014870 A KR1020230014870 A KR 1020230014870A KR 20230014870 A KR20230014870 A KR 20230014870A KR 102509570 B1 KR102509570 B1 KR 102509570B1
Authority
KR
South Korea
Prior art keywords
learning data
artificial intelligence
electrical signals
destination
signal learning
Prior art date
Application number
KR1020230014870A
Other languages
English (en)
Inventor
김기설
Original Assignee
김기설
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김기설 filed Critical 김기설
Priority to KR1020230014870A priority Critical patent/KR102509570B1/ko
Application granted granted Critical
Publication of KR102509570B1 publication Critical patent/KR102509570B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/19Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

인공지능을 이용한 제어 장치는 데이터베이스와, 센서 인터페이스와, 촬영 장치 인터페이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고, 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 전기 신호를 감지하는 센서로부터 출력된 전기 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고, 상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고, 상기 센서 인터페이스로부터 상기 전기 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고, 상기 촬영 장치 인터페이스는 상기 촬영 장치를 제어하기 위한 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송한다.

Description

영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템{CONTROL DEVICE USING ARTIFICIAL INTELLIGENCE LEARNING IMAGES AND ELECTRICAL SIGNALS AND INTRUSION ALERT SYSTME INCLUDING THE SAME}
본 발명은 인공지능 알고리즘을 이용한 침입 경계(또는 침입 예측) 방법에 관한 것으로, 특히 경계지역에서 발생할 수 있는 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상 신호들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 이를 상기 학습 데이터를 이용하여 분석하고, 분석의 결과에 따라 침입자의 목적지, 및 상기 목적지에 도달할 시간 등을 예측할 수 있는 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템에 관한 것이다.
주요한 경계지역의 시설물과 상기 시설물에 근무하는 사람들이나 이용자들을 보호하기 위해, 상기 시설물의 주변 및 상기 시설물에 대한 접근을 제한하는 울타리의 주변에는 센서들, 상기 센서들과 연동하여 작동하는 CCTV 카메라들, 및 상기 센서들과 상기 CCTV 카메라들을 제어하는 제어 장치들을 포함하는 경계 시스템이 설치되어 운용되고 있다.
이러한 경계 시스템은 침입자에 대한 사후적 대응 방법으로 최근에 발생하는 지능적 침입 행위에는 대처하기 어렵다.
등록특허공보: 등록번호 10-2021441(2019.11.04.공고) 등록특허공보: 등록번호 10-1934700(2019.01.03.공고) 등록특허공보: 등록번호 10-2126498(2020.06.25.공고) 등록특허공보: 등록번호 10-1951361(2019.02.22.공고)
침입자에 대한 사후적 대응 방법을 해결하기 위해 안출된 본 발명이 이루고자 하는 기술적인 과제는 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상 신호들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 수신된 신호를 상기 학습 데이터를 이용하여 분석하고, 분석 결과에 따라 몇 명의 침입자가 언제, 어디로, 무엇을 소지하고 침입하는지를 예측할 수 있는 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템을 제공하는 것이다.
본 발명의 실시 예에 따른 침입 경계 시스템은 촬영 장치와, 전기 신호를 감지하는 센서와, 인공 지능을 이용한 제어 장치를 포함하고, 상기 인공 지능을 이용한 제어 장치는 데이터베이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고, 상기 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 센서로부터 출력된 전기 신호들을 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고, 상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성한다.
본 발명의 실시 예에 따라 인공지능을 이용한 제어 장치는 데이터베이스와, 센서 인터페이스와, 촬영 장치 인터페이스와, 프로세서를 포함하고, 상기 프로세서는 샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고, 샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고, 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고, 전기 신호를 감지하는 센서로부터 출력된 전기 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고, 상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고, 상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고, 상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고, 상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고, 상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고, 상기 센서 인터페이스로부터 상기 전기 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고, 상기 촬영 장치 인터페이스는 상기 촬영 장치를 제어하기 위한 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송한다.
침입자에 대한 사후적 대응 방법을 해결하기 위해 안출된 본 발명의 실시 예에 따른 방법, 상기 방법을 수행하는 저장 매체에 저장된 컴퓨터 프로그램, 및 상기 방법을 수행하는 침입 경계 시스템은 복수 개의 샘플들을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터를 생성하고, 영상들, 소리 신호들, 전기 신호들, 및 진동 신호들 중에서 적어도 하나를 수신하고 수신된 신호를 상기 학습 데이터를 이용하여 분석하고, 분석 결과에 따라 몇 명의 침입자가 언제, 어디로, 무엇을 소지하고 침입하는지를 예측할 수 있는 효과가 있다.
이에 따라 상기 방법, 상기 컴퓨터 프로그램, 및 상기 침입 경계 시스템은 울타리 및 시설물에 대한 침입자의 침입을 예방하고, 상기 침입자의 침입 경로 또는 도주 경로에 미리 도착하여 상기 침입자에 대한 빠른 조치를 취할 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 인공지능을 이용한 침입 경계 시스템의 블록도이다.
도 2는 도 1에 도시된 인공지능을 이용한 제어 장치의 블록도이다.
도 3은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이다.
도 4는 인공지능 알고리즘을 이용하여 학습 데이터를 생성하는 과정을 설명하는 도면이다.
도 5는 촬영 영상들을 이용하여 객체의 이동 방법, 이동 속도, 및 이동 방향을 획득하는 방법을 설명하는 도면이다.
도 6은 객체가 침입자로 판단될 때 침입 경계 시스템의 작동을 설명하는 플로우차트이다.
도 7은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이다.
도 1은 본 발명의 실시 예에 따른 인공지능을 이용한 침입 경계 시스템의 블록도이다.
도 1을 참조하면, 인공지능(artificial intelligence(AI))을 이용하여 울타리(400) 또는 시설물(410)에 대한 침입자(500)의 침입 경로 및/또는 도주 경로를 실시간으로 예측하고, 예측의 결과에 따라 예측 정보(IF)를 생성할 수 있는 침입 경계(이를 '침입 감시', 또는 '침입 예측'이라고도 한다.) 시스템(100)은 인공지능 (또는 인공지능 프로그램)을 이용한 제어 장치(이를 '인공지능 제어 장치'라 한다. 200), 복수 개의 센서들(311, 321, 331, 341, 351, 361, 371, 381, 및 391), 복수개의 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393), 울타리 (400), 시설물(410), 제1객체(500), 및 단말기(600)를 포함하고, 실시 예들에 따라 침입 경계 시스템(100)은 카메라가 장착된 드론(700)을 더 포함할 수 있다.
침입 경계 시스템(100)은 (i) 제1객체(500)의 행위에 관련된 입력 신호(예를 들면, 영상 신호(IM), 소리 신호(SS), 전기 신호(ES), 및 진동 신호(VS) 중에서 적어도 하나), 또는 (ⅱ) 상기 입력 신호와 제1객체(500)가 이동하는 지역의 지형지물 정보를 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체 (500)가 제1위치(P1)로부터 언제(예를 들면, 년월일시분초), 어디로(예를 들면, 울타리(400)의 어느 부분(DT1, DT2, 또는 DT3), 또는 경계 내부 공간의 어느 부분(예를 들면, DT4 또는 DT5)), 및 어떤 경로(예를 들면, PA1, PA2, PA3, PB1, PB2, 및 PC1))를 통해 울타리(400) 또는 시설물(410)에 무단 침입하고, 그후 언제(예를 들면, 년월일시분초), 어디로(예를 들면, 울타리(400)의 어느 부분(DT6, 또는 DT7)), 및 어떤 경로(예를 들면, PD1, PD2, 및 PE1))를 통해 도주할지를 실시간으로 예측하고, 예측의 결과(IF)를 단말기(600)로 통보하여 제1객체(500)의 침입을 예방하거나 제1객체(500)에 대한 빠른 조치를 취하도록 하는 시스템이다.
인공지능 제어 장치(200)는 신경망((Neural Networks) 알고리즘, 머신 러닝 (Machine Learning) 알고리즘, 또는 딥러닝(Deep Learning) 알고리즘 등을 이용하여 학습을 위한 다양한 샘플들(예를 들면, 샘플 영상 신호들, 샘플 소리 신호들, 샘플 전기 신호들, 및 샘플 진동 신호들 중에서 적어도 하나)을 학습(예를 들면, 다중 인스턴스 학습(multi-instance learning))하여 학습 데이터(241, 이를 '빅 데이터(bigdata)'라고도 한다.)를 생성하고, 학습 데이터(241)를 데이터베이스(240)에 저장한다.
실시 예에 따라 인공지능 프로그램(212)이 학습을 위한 다양한 샘플들은 데이터 라벨링된 데이터일 수 있다. 데이터 라벨링은 수많은 비정형 데이터를 인공지능이 학습할 수 있도록 샘플들(또는 원천 데이터)에 이름(또는 라벨)을 붙이는 작업을 말한다.
인공지능 제어 장치(200)는 센서들(311, 321, 331, 341, 351, 361, 371, 381, 및 391) 중에서 적어도 하나로부터 감지 신호(SS, ES, 및 VS 중에서 적어도 하나, 이를 'SS, ES, 및/또는 VS'라 한다.)를 수신하여 분석하고, 분석의 결과에 따라 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 작동을 제어할 수 있다.
각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)는 제1객체(500)의 침입 또는 움직임을 감지하기 위한 센서이다. 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)의 타입(type)은 적외선을 감지하는 센서, 레이저를 감지하는 센서, 전파를 감지하는 센서, 열을 감지하는 센서, 움직임을 감지하는 센서, 빛을 감지하는 광 센서, 압력을 감지하는 센서, 소리를 감지하는 센서, 전기 신호를 감지하는 센서, 진동을 감지하는 센서, 가스를 감지하는 센서, 기상을 감지하는 센서, 및 피사체 이미지 센서 등을 포함한다. 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)의 주위에는 스피커 또는 사이렌이 설치될 수 있다.
본 명세서에서 각 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)는 앞에 열거된 기능들을 수행하는 센서들 중에서 적어도 하나를 포함하는 센서를 통칭한다.
촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나는 CCTV 카메라, 네트워크 카메라, 팬-틸트-줌 카메라(pan-tilt-zoom(PTZ) camera), 열화상 카메라(thermographic camera), 또는 열상 감시 장비(Thermal Observation Device)일 수 있으나 이에 한정되는 것은 아니다. 열화상 카메라는 적외선 복사를 사용하여 영상을 생성하는 장치로서, 적외선 카메라(infrared camera), 열 영상 카메라 (thermal imaging camera) 또는 열 이미저(thermal imager)라고도 불린다.
쌍을 이루는 센서와 촬영 장치(311과 313, 321과 323, 내지 391과 393)는 연동하여 작동할 수 있다.
시설물(410)은 국가 중요 시설(예를 들면, 공공 기관, 공항, 항만, 원자력 발전소, 또는 전력 시설, 등), 군사 시설물, 공공 시설물, 또는 개인 시설물 등과 같이 울타리(400)에 둘러싸여 경계(또는 경비)가 필요한 시설물을 의미한다.
시설물(410)에 접근을 위한 각 이동 경로(PA1, PA2, PA3, PB1, PB2, PB3, 및 PC1)는 침입 경로라 할 수 있고, 시설물(410)로부터 도주를 위한 각 이동 경로 (PD1, PD2, 및 PE1)은 도주 경로라 할 수 있다.
도 1에서는 시설물(410)을 에워싸는 하나의 울타리(400)가 도시되어 있으나, 실시 예들에 따라 시설물(410)을 에워싸는 울타리(400)의 개수는 2개 이상일 수 있다.
제1객체(500)는 움직이는 사람 또는 움직이는 야생 동물일 수 있으나, 본 명세서에서 제1객체(500)는 사람(또는 침입자)이라고 가정한다.
단말기(600)는 인공지능 제어 장치(200)로부터 예측 정보(IF, 예를 들면, 예측된 목적지와 예측된 도달 시간 등을 포함하는 정보)를 수신할 수 있는 통신 장치를 의미한다.
단말기(600)의 예들은 울타리(400)와 시설물(410)의 경계(또는 경비)를 담당하는 담당자(예를 들면, 경비원, 군인, 청원 경찰, 및/또는 경찰)이 소지하고 있는 통신 장치, 경계 회사의 통신 장치, 군부대의 통신 장치, 경찰서의 통신 장치, 또는 소방서의 통신 장치를 의미하나 이에 한정되는 것은 아니다.
단말기(600)가 인공지능 제어 장치(200)로부터 예측 정보(IF)를 수신하면, 울타리(400)를 경계하는 담당자는 예측 정보(IF)를 이용하여 제1객체(500)보다 해당 위치(DT1 ~ DT8 중에서 적어도 하나)에 먼저 도착하여 제1객체(500)의 침입을 예방하거나 제1객체(500)의 침입에 대한 빠른 조치(예를 들면, 체포 등)를 취할 수 있는 효과가 있다.
카메라가 장착된 드론(700)은, 인공지능 제어 장치(200) 또는 인공지능 제어 장치(200)의 관리자의 제어에 따라, 제1객체(500)의 영상을 실시간으로 촬영하고, 촬영된 영상들을 인공지능 제어 장치(200)로 무선 통신으로 실시간으로 전송할 수 있다.
도 2는 도 1에 도시된 인공지능을 이용한 제어 장치의 블록도이다.
도 1과 도 2를 참조하면, 인공지능 제어 장치(200)는 입력 장치(205), 인공지능 알고리즘에 따라 작동하는 인공지능 프로그램(212)을 실행하는 프로세서 (210, 이를 '서버'라고도 한다.), 메모리 장치(215), 센서 인터페이스(220), 촬영 장치 인터페이스(230), 데이터베이스(240), 통신 장치(250), 디스플레이 장치 (270), 및 경보 장치(280)를 포함하고, 실시 예들에 따라 인공지능 제어 장치(200)는 드론 제어 장치(260)을 더 포함할 수 있다.
하드웨어와 결합되어 본 명세서에서 설명되는 인공지능 알고리즘을 이용한 침입 예측 방법을 수행하는 인공지능 프로그램(212)은 프로세서(210)에 의해 액세스가능한 저장 매체(예를 들면, 메모리 장치(215))에 저장되고, 프로세서(210)에 의해 실행된다.
센서 인터페이스(220)는 해당 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)를 수신하고, 감지 신호 (SS, ES, 및/또는 VS)를 인공지능 프로그램(212)으로 전송한다.
인공지능 프로그램(212)은 감지 신호(SS, ES, 및/또는 VS)를 수신하여 해석하고, 해석 결과에 따라 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 촬영 장치를 제어(예를 들면, 해당 촬영 장치가 PTZ 카메라일 때, 상기 PTZ 카메라의 팬, 틸트, 및 줌 중에서 적어도 하나를 제어)하기 위한 제어 신호(CTL)를 생성하고, 제어 신호(CTL)를 촬영 장치 인터페이스(230)를 통해 상기 적어도 하나의 촬영 장치로 전송한다.
인공지능 프로그램(212)은 상기 적어도 하나의 촬영 장치로부터 촬영 영상들을 촬영 장치 인터페이스(230)를 통해 수신하고, 도 3, 도 5, 도 6, 및 도 7을 참조하여 설명될 단계들(또는 작동들)을 수행한다.
예를 들면, 제1위치(P1)에 설치된 센서(311)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 응답하여 제어 신호(CTR)를 생성하고, 제어 신호(CTR)를 촬영 장치 인터페이스(230)를 통해 제1위치(P1)에 설치된 촬영 장치(313)로 전송한다.
촬영 장치(313)가 PTZ 카메라일 때 촬영 장치(313)는 제어 신호(CTR)에 응답하여 제1객체(500)를 촬영하기 위해 팬, 틸트, 및 줌 중에서 적어도 하나를 제어하고, 제1객체(500)에 대한 촬영 영상들을 촬영 장치 인터페이스(230)를 통해 인공지능 프로그램(212)로 전송한다.
또한, 해당 센서(321, 331, 341, 351, 361, 371, 381, 및 391)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 해당 촬영 장치(323, 333, 343, 353, 363, 373, 383, 및 393)를 제어하기 위한 제어 신호(CTR)를 생성하고, 제어 신호(CTR)를 해당 촬영 장치(323, 333, 343, 353, 363, 373, 383, 및 393)로 전송한다.
실시 예들에 따라, 해당 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)는 제1객체(500)의 특징(예를 들면, 제1객체(500)의 머리, 얼굴, 또는 발 등)을 실시간으로 트래킹(tracking)하면서 촬영 영상들을 생성할 수 있다.
또한, 제1위치(P1)에 설치된 센서(311)에 의해 제1객체(500)가 감지되면, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 응답하여 두 개의 촬영 장치들(313과 343) 각각을 제어할 수 있는 제어 신호(CTR)을 생성하도 제어 신호(CTR)를 촬영 장치들(313과 343)로 전송할 수 있다. 이에 따라, 촬영 장치들(313과 343) 모두는 제1객체(500)가 존재하는 제3위치(P3)를 포커싱(또는 촬영)할 수 있다.
데이터베이스(240)는 도 3과 도 4를 참조하여 설명될 학습 데이터(241)와 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)가 설치된 위치(또는 지역)에 대한 지형지물 정보(243)를 저장할 수 있다. 실시 예들에 따라, 데이터베이스(240)는 정보(241과 243)를 저장하는 데이터 저장 장치, 또는 상기 데이터 저장 장치에 저장된 정보를 의미할 수 있다.
도 2에 도시된 바와 같이 지형지물 정보(243)는 ID(ID1~ID9)별로 센서(311, 321, 331, 341, 351, 361, 371, 381, 및 391)에 대한 센서 정보(311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, 및 391I), 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)에 대한 촬영 장치 정보(313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, 및 393I), 위치 정보(PI1~PI9), 지형 정보(TG1~TG9), 및 지물 정보(FI1~FI9)를 포함한다.
각 센서 정보(311I, 321I, 331I, 341I, 351I, 361I, 371I, 381I, 및 391I)는 해당 센서의 타입에 대한 정보이고, 각 촬영 장치 정보(313I, 323I, 333I, 343I, 353I, 363I, 373I, 383I, 및 393I)는 해당 촬영 장치의 타입에 대한 정보이고, 각 위치 정보(PI1~PI9)는 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)가 설치된 위치 정보이고, 예를 들면 GPS(global positioning system) 좌표들일 수 있다.
지형은 땅의 생긴 모양이나 형세를 의미하므로, 지형 정보(TG1~TG9)는 땅이 평지인지, 산지인지, 얼마의 경사도를 갖는 경사지인지, 습지인지, 기암절벽 지역인지 등에 대한 정보를 포함한다.
지물은 땅 위에 존재하는 천연 또는 인공의 모든 물체를 의미하므로, 지물 정보(FI1~FI9)는 수목, 바위, 가옥, 하천, 계곡, 및 도로 등에 대한 정보를 포함한다.
실시 예들에 따라, 인공지능 프로그램(212)은 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 어떤 촬영 장치로부터 촬영 영상들이 수신되었는지를 판단할 수 있으므로, 제1객체(500)의 목적지와 상기 목적지에 도달할 시간을 예측할 때 지형지물 정보(243)를 활용할 수 있다.
실시 예들에 따라, 인공지능 프로그램(212)은 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 어떤 촬영 장치로부터 촬영 영상들이 수신되었는지를 판단할 수 있으므로, 제1객체(500)의 목적지와 상기 목적지에 도달할 시간을 예측할 때 지형지물 학습 데이터(241E)와 지형지물 정보(243) 중에서 적어도 하나를 활용할 수 있다.
실시 예들에 따라, 인공지능 프로그램(212)은 샘플 영상들(SPI) 각각에 포함된 지형 및/또는 지물을 인공지능 알고리즘을 이용하여 학습하고, 학습 결과에 따라 지형지물 학습 데이터(241E)를 생성하고, 지형지물 학습 데이터(241E)를 데이터베이스(240)에 저장할 수 있다.
통신 장치(250)는 단말기(600) 또는 드론(700)과의 통신을 위한 장치이다.
인공지능 프로그램(212)에 제어에 따라 디스플레이 장치(또는 모니터, 270)는 촬영 장치들(313, 323, 333, 343, 353, 363, 373, 383, 및 393) 중에서 적어도 하나의 촬영 장치로부터 전송된 촬영 영상들을 수신하여 디스플레이할 수 있다.
예를 들면, 촬영 장치 인터페이스(230)가 각 촬영 장치(313, 323, 333, 343, 353, 363, 373, 383, 및 393)와 서로 다른 통신 채널을 통해 통신하고, 촬영 장치 (313)와 쌍을 이루는 센서(311)에 의해 제1객체(500)가 감지될 때, 인공지능 프로그램(212)은 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS)에 기초하여 촬영 장치 인터페이스(230)와 촬영 장치(313) 사이의 통신 채널을 자동으로 연결한다.
이에 따라, 디스플레이 장치(270)는, 인공지능 프로그램(212)의 제어에 따라, 촬영 장치(313)로부터 출력된 촬영 영상들을 수신하여 디스플레이 장치(270)에서 디스플레이할 수 있다.
인공지능 프로그램(212)에 의해 제1객체(500)가 침입자로 판단될 때, 인공지능 프로그램(212)는 경보 신호를 경보 장치(280)로 출력한다. 경보 장치(280)는 청각적 경보 장치, 시각적 경보, 또는 시청각적 경보 장치일 수 있다.
드론 제어 장치(260)는 드론(700)의 작동을 제어할 수 있다. 인공지능 프로그램(212)에 의해 제1객체(500)가 침입자로 판단될 때, 인공지능 프로그램(212)은 드론 제어 신호를 생성하여 드론 제어 장치(260)로 출력하면, 상기 드론 제어 신호는 통신 장치(250)를 통해 드론(700)으로 전송된다.
인공지능 프로그램(212)이 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS) 또는 촬영 장치(313)로부터 출력된 촬영 영상(IM)에 기초하여 드론 제어 신호를 생성할 때, 상기 드론 제어 신호는 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)를 포함한다.
따라서, 드론(700)은 인공지능 제어 장치(200)로부터 전송된 드론 제어 신호에 응답하여 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)에 해당하는 위치로 자동으로 날아가 제1객체(500)를 추적하면서 제1객체(500)의 영상을 촬영하고 촬영된 영상을 통신 장치(250)로 전송한다. 인공지능 프로그램(212)은 드론(700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상을 통신 장치(250)를 통해 수신하여 디스플레이 장치(270)로 전송한다.
다른 실시 예에 따라, 인공지능 프로그램(212)이 센서(311)로부터 출력된 감지 신호(SS, ES, 및/또는 VS) 또는 촬영 장치(313)로부터 출력된 촬영 영상(IM)에 기초하여 제1객체(500)를 침입자로 판단할 때, 인공지능 제어 장치(200)의 관리자는 드론 제어 장치(260)를 조작하여 드론(700)을 센서(311)의 위치 정보(PI1) 또는 촬영 장치(313)의 위치 정보(PI1)에 해당하는 위치로 비행시켜 제1객체(500)를 실시간으로 추적할 수 있다.
드론(700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상은 통신 장치(250)를 통해 인공지능 프로그램(212)으로 전송되고, 인공지능 프로그램(212)은 드론 (700)에 의해 촬영된 제1객체(500)에 대한 촬영 영상을 수신하여 디스플레이 장치 (270)로 전송한다.
도 3은 도 1에 도시된 침입 경계 시스템의 작동 방법의 실시 예를 설명하는 플로우차트이고, 도 4는 인공지능 알고리즘을 이용하여 학습 데이터를 생성하는 과정을 설명하는 도면이다.
도 1 내지 도 4를 참조하면, 인공지능 프로그램(212)은 각각이 적어도 하나의 객체를 포함하는 샘플 영상들(SPI), 샘플 소리 신호들(SDS), 샘플 전기 신호들 (ELS), 샘플 진동 신호들(VBS), 또는 이들(SPI, SDS, ELS, 및 VBS) 중에서 적어도 두 개의 조합을 인공지능 알고리즘을 이용하여 학습하고, 학습 결과에 따라 학습 데이터(241)를 생성하여 데이터베이스(240)에 저장한다(S110).
인공지능 프로그램(212)에 의해 학습 데이터(241)가 생성되는 과정은 도 4를 참조하여 예시적으로 설명된다.
학습 데이터(241)는 샘플 영상들(SPI)의 학습 결과에 따라 생성된 영상 신호 학습 데이터(241A), 샘플 소리 신호들(SDS)의 학습 결과에 따라 생성된 소리 신호 학습 데이터(241B), 샘플 전기 신호들(ELS)의 학습 결과에 따라 생성된 전기 신호 학습 데이터(241C), 및 샘플 진동 신호들(VBS)의 학습 결과에 따라 생성된 진동 신호 학습 데이터(241D) 중에서 적어도 하나를 포함한다. 실시 예에 따라, 학습 데이터(241)는 지형지물 학습 데이터(241E)를 더 포함할 수 있다.
도 4에 도시된 바와 같이 학습을 위한 복수 개의 샘플들(예를 들면, 샘플 영상들(SPI), 샘플 소리 신호들(SDS), 샘플 전기 신호들(ELS), 및 샘플 진동 신호들(VBS) 중에서 적어도 하나)은 입력 장치(205)를 통해 인공지능 프로그램(212)으로 입력된다. 실시 예들에 따라, 통신 장치(250)를 통해 수신된 학습을 위한 샘플들은 인공지능 프로그램(212)으로 입력된다.
인공지능 프로그램(212)은 각 샘플 영상(SPI)에 해당하는 각 영상 신호 (IMS)에 포함된 객체(또는 복수의 객체들)를 사람 요소(HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소(NSE)로 학습(또는 소팅 (sorting))한다. 도 4에 도시된 요소들(HME, ANE, NEE, ATE, 및 NSE)은 설명을 위해 예시된 것에 불과하다.
예를 들면, 인공지능 프로그램(212)은 각 샘플 영상 신호(IMS)에 해당하는 각 샘플 영상(SPI)에 포함된 적어도 하나의 객체를 아래의 요소로 학습(또는 소팅)한다.
1. 각 샘플 영상(SPI)에 포함된 객체가 사람일 때 인공지능 프로그램(212)은 상기 객체를 사람 요소(HME)로 학습;
2. 상기 객체가 동물일 때 인공지능 프로그램(212)은 상기 객체를 동물 요소 (ANE)로 학습;
3. 상기 객체가 번개일 때 인공지능 프로그램(212)은 상기 객체를 자연 환경 요소(NEE)로 학습;
4. 상기 객체가 전등 불빛 또는 울타리(400)의 철선을 도구(예를 들면, 절단기)로 자를 때 발생하는 불꽃일 때 인공지능 프로그램(212)은 상기 객체를 인위적 요소(ATE)로 학습; 및
5. 상기 객체가 산불일 때 인공지능 프로그램(212)은 상기 객체를 잡음 요소 (NSE)으로 학습.
또한, 인공지능 프로그램(212)은 샘플 소리 신호들(SDS) 각각을 사람 요소 (HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소 (NSE)로 학습(또는 소팅)한다.
예를 들면, 인공지능 프로그램(212)은 각 샘플 소리 신호(SDS)를 아래의 요소로 학습(또는 소팅)한다.
1. 인공지능 프로그램(212)은 사람 발자국 소리에 해당하는 각 샘플 소리 신호(SDS)를 사람 요소(HME)로 학습;
2. 인공지능 프로그램(212)은 동물 발자국 소리에 해당하는 각 샘플 소리 신호(SDS)를 동물 요소(ANE)로 학습;
3. 인공지능 프로그램(212)은 바람 소리, 비 소리, 파도 소리, 파도에 돌이 구르는 소리, 또는 물이 흐르는 소리에 해당하는 각 샘플 소리 신호(SDS)를 자연 환경 요소(NEE)로 학습;
4. 인공지능 프로그램(212)은 총 소리, 차량이 이동하는 소리, 땅을 파는 소리, 사람이 울타리(400)를 기어오를 때 나는 소리, 또는 울타리(400)의 철선을 절단기로 절단할 때 나는 소리에 해당하는 각 샘플 소리 신호(SDS)를 인위적 요소 (ATE)로 학습;
5. 인공지능 프로그램(212)은 천둥 소리에 해당하는 각 샘플 소리 신호 (SDS)를 잡음 요소(NSE)로 학습.
또한, 인공지능 프로그램(212)은 샘플 전기 신호들(ELS) 각각을 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소(NSE)로 학습(또는 소팅)한다.
예를 들면, 인공지능 프로그램(212)은 각 샘플 전기 신호(ELS)를 아래의 요소로 학습(또는 소팅)한다.
1. 인공지능 프로그램(212)은 낙뢰에 의해 발생한 각 샘플 전기 신호(ELS)를 자연 환경 요소(NEE)로 학습;
2. 인공지능 프로그램(212)은 울타리(400)를 절단하기 위해 가해지는 각 전기 신호(ELS), 울타리(400)의 주변에 설치된 전기선 또는 통신선을 무력화하기 위해 가해지는 각 샘플 전기 신호(ELS)를 인위적 요소(ATE)로 학습;
3. 인공지능 프로그램(212)은 정전기에 의해 발생하는 각 샘플 전기 신호 (ELS)를 잡음 요소(NSE)로 학습.
또한, 인공지능 프로그램(212)은 샘플 진동 신호들(VBS) 각각을 사람 요소 (HME), 동물 요소(ANE), 자연 환경 요소(NEE), 인위적 요소(ATE), 및 잡음 요소 (NSE)로 학습(또는 소팅)한다.
예를 들면, 인공지능 프로그램(212)은 각 샘플 진동 신호(VBS)를 아래의 요소로 학습(또는 소팅)한다.
1. 인공지능 프로그램(212)은 사람의 움직임에 의해 발생하는 각 샘플 진동 신호(VBS)를 사람 요소(HME)로 학습;
2. 인공지능 프로그램(212)은 동물의 움직임에 의해 발생하는 각 샘플 진동 신호(VBS)를 동물 요소(ANE)로 학습;
3. 인공지능 프로그램(212)은 낙뢰, 구르는 구름, 또는 쓰러지는 나무에 의해 발생하는 각 샘플 진동 신호(VBS)를 자연 환경 요소(NEE)로 학습;
4. 인공지능 프로그램(212)은 폭파, 도구로 땅을 팔 때 발생하는 진동, 차량의 이동에 의해 발생하는 각 샘플 진동 신호(VBS)를 인위적 요소(ATE)로 학습;
5. 인공지능 프로그램(212)은 지진파에 의해 발생하는 각 샘플 진동 신호(VBS)를 잡음 요소(NSE)로 학습.
인공지능 프로그램(212)은 사람 요소(HME), 동물 요소(ANE), 자연 환경 요소 (NEE), 인위적 요소(ATE), 및 잡음 요소(NSE) 중에서 적어도 하나로 학습된 샘플들을 이용하여 객체(예를 들면, 사람 또는 동물)의 이동 방법(MM), 이동 속도(MV), 이동 방향(MD), 및 침입 유형(IT) 중에서 적어도 하나를 학습하고, 또한 상기 샘플들의 이용하여 상기 객체가 존재하는 지역의 지형지물(LM)을 학습한다.
예를 들면, 인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 방법(MM)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임을 학습하여 상기 객체의 이동 방법(MM)을 학습한다. 여기서, 이동 방법(MM)의 예들은 객체가 포복하여 이동하는지, 상기 객체가 걸어서 이동하는지, 상기 객체가 뛰어서 이동하는지, 상기 객체가 이동 수단(예를 들면, 차량 또는 보트 등)을 타고 이동하는지, 및 상기 객체가 수영하여 이동하는지를 포함한다.
인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 속도(MV)를 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임을 학습하여 상기 객체의 이동 속도(MV)를 학습한다.
인공지능 프로그램(212)은 학습된 샘플들을 이용하여 객체의 이동 방향(MV)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임의 방향을 학습하여 상기 객체의 이동 방향(MV)을 학습한다.
인공지능 프로그램(212)은 학습된 샘플들(예를 들면, 샘플들(IMS, SDS, ELS, 또는 VBS)에 대한 학습 결과들, 및 상기 학습 결과들 중에서 적어도 두 개의 조합)을 이용하여 객체의 침입 유형(IT)을 학습한다.
예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 동일한 객체의 움직임에 따라 상기 객체의 침입 유형(IT)을 학습한다.
침입 유형(IT)의 예들은 불법적인 침입을 목적으로 객체가 울타리(400)를 기어오르는지, 울타리(400)를 뛰어넘는지, 사다리를 이용하여 울타리(400)를 오르는지, 울타리(400)의 아래에 굴을 파는지, 울타리(400)를 넘어뜨리는지, 또는 울타리 (400)를 절단하여 구멍을 뚫는지를 학습한다.
인공지능 프로그램(212)은 침입 유형(IT)에 대한 판단의 정확성을 높이기 위해 아래의 학습 결과들을 조합할 수 있다. 조합하는 학습 결과들이 많을 수록 침입 유형(IT)에 대한 판단의 정확성은 높아진다.
1. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 소리 신호들(SDS)에 대한 학습 결과의 조합;
2. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 전기 신호들(ELS)에 대한 학습 결과의 조합;
3. 샘플 영상들(IMS)에 대한 학습 결과와 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합;
4. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 및 샘플 전기 신호들(ELS)에 대한 학습 결과의 조합;
5. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 및 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합;
6. 샘플 영상들(IMS)에 대한 학습 결과, 샘플 소리 신호들(SDS)에 대한 학습 결과, 샘플 전기 신호들(ELS)에 대한 학습 결과, 및 샘플 진동 신호들(VBS)에 대한 학습 결과의 조합.
물론, 영상 촬영 장치의 고장 또는 의도적인 고장을 대비하여, 인공지능 프로그램(212)은 아래의 예들을 이용하여 객체의 침입 유형(IT)을 학습할 수 있다.
(1) 샘플 소리 신호들(SDS)에 대한 학습 결과;
(2) 샘플 전기 신호들(ELS)에 대한 학습 결과;
(3) 샘플 진동 신호들(VBS)에 대한 학습 결과;
(4) (1) 내지 (3) 중에서 적어도 두 개의 조합.
인공지능 프로그램(212)은 학습된 샘플들(예를 들면, 샘플들(IMS, SDS, ELS, 또는 VBS)에 대한 학습 결과들, 및 상기 학습 결과들 중에서 적어도 두 개의 조합)을 이용하여 지형지물(LM)을 학습한다.
예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 객체들에 따라 지형지물(LM)을 학습한다. 예를 들면, 인공지능 프로그램(212)은 샘플 영상들(IMS) 각각에 포함된 수목의 분포, 계곡의 유무, 물이 흐르는지 유무, 비탈길의 유무, 등으로 지형지물(LM)을 학습할 수 있다.
도 5는 촬영 영상들을 이용하여 객체의 이동 방법, 이동 속도, 및 이동 방향을 획득하는 방법을 설명하는 도면이다.
해당 촬영 영상(FA2, FB2, 및 FC2)에서 점선으로 표시된 제1객체(500)는 이전 영상(FA1, FB1, 및 FC1)에 포함된 제1객체(500)를 의미하고, 실선으로 표시된 제1객체(500)는 해당 촬영 영상(FA2, FB2, 및 FC2)에 포함된 제1객체(500)를 의미한다.
본 발명에 대한 이해를 돕기 위해, 현재 촬영 영상(FA2, FB2, 및 FC2)은 이전 촬영 영상(FA1, FB1, 및 FC1)에 포함된 점선으로 표시된 제1객체(500)와, 현재 촬영 영상(FA2, FB2, 및 FC2)에 포함된 실선으로 표시된 제1객체(500)를 함께 도시한다.
실시 예에 따라 경우1(CASE1)를 참조하면, 학습 데이터(241)가 생성되어 데이터베이스(240)에 저장된 후, 인공지능 프로그램(212)은 제1시점에 제1촬영 영상 (FA1)을 수신하고 제1촬영 영상(FA1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S115).
그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FA2)을 수신하고 제2촬영 영상(FA2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).
예를 들면 각 단계(S115와 S120)를 수행할 때, 인공지능 프로그램(212)은 각 촬영 영상(FA1과 FA2)에 몇개의 객체들이 포함되어 있는지, 객체가 도구(예를 들면, 도검, 총기, 절단기, 또는 사다리 등)를 소지하고 있는지를 학습 데이터(241)를 이용하여 식별할 수도 있다.
인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 제1객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체(500)의 제1이동 방법, 제1이동 속도, 및 제1이동 방향을 획득한다(S125).
이때, 인공지능 프로그램(212)은 제1객체(500)의 특정 부분(예를 들면, 제1객체(500)의 머리, 발 또는 손 등)을 이용하여 제1객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석할 수 있다.
인공지능 프로그램(212)은 제1이동 방향(예를 들면, 북북동, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제1목적지(DT1)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제1이동 경로(PA1)를 통해 제1목적지(DT1)로 갈 것이라고 예측한다.
인공지능 프로그램(212)은 제1이동 방법(예를 들면, 속보)과 제1이동 속도(분당 70미터 내지 80미터)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제1목적지(DT1)에 도달할 제1시간을 예측한다(S135). 예측된 제1시간은 제1객체 (500)가 제1위치(P1)로부터 제1이동 경로(PA1)를 통해 제1목적지(DT1)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.
예를 들면, 경우2(CASE2)를 참조하면 인공지능 프로그램(212)은 제1시점에 제1촬영 영상(FB1)을 수신하고 제1촬영 영상(FB1)에 포함된 제1객체(500)를 학습 데이터 (241)를 이용하여 식별한다(S115).
그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FB2)을 수신하고 제2촬영 영상(FB2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).
인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체 (500)의 제2이동 방법, 제2이동 속도, 및 제2이동 방향을 획득한다(S125).
인공지능 프로그램(212)은 제2이동 방향(예를 들면, 서북서, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제2목적지(DT2)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제2지점(P2)을 포함하는 제2이동 경로(PA2)를 통해 제2목적지(DT2)로 갈 것이라고 예측한다.
인공지능 프로그램(212)은 제2이동 방법(예를 들면, 급보)과 제2이동 속도(예를 들면, 분당 100미터 내지 110미터)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제2지점(P2)를 경유하여 제2목적지(DT2)에 도달할 제2시간을 예측한다(S135). 예측된 제2시간은 제1객체(500)가 제1위치(P1)로부터 이동 경로들(PA2와 PB2)을 통해 제2목적지(DT2)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.
예를 들면, 경우3(CASE3)를 참조하면 인공지능 프로그램(212)은 제1시점에 제1촬영 영상(FC1)을 수신하고 제1촬영 영상(FC1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S115).
그후, 인공지능 프로그램(212)은 제2시점에 제2촬영 영상(FC2)을 수신하고 제2촬영 영상(FC2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별한다(S120).
인공지능 프로그램(212)은 단계들(S115와 S120)에서 식별된 객체들(500)의 움직임(또는 움직임의 변화량)을 학습 데이터(241)를 이용하여 분석하고, 제1객체(500)의 제3이동 방법, 제3이동 속도, 및 제3이동 방향을 획득한다(S125).
인공지능 프로그램(212)은 제3이동 방향(예를 들면, 동북동, 몇도 내지 몇도)을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제3목적지(DT3)를 예측한다. 예를 들면, 인공지능 프로그램(212)은 제1객체(500)가 제3지점(P3)를 포함하는 제3이동 경로(PA3)를 통해 제3목적지(DT3)로 갈 것이라고 예측한다.
인공지능 프로그램(212)은 제3이동 방법(예를 들면, 뛰어서)과 제3이동 속도 (예를 들면, 시속 15km 내지 18km)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 제3지점(P3)를 경유하여 제3목적지(DT3)에 도달할 제3시간을 예측한다 (S135). 예측된 제3시간은 제1객체(500)가 제1위치(P1)로부터 이동 경로들(PA3와 PB3)을 통해 제3목적지(DT3)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.
도 6은 객체가 침입자로 판단될 때의 작동을 설명하는 플로우차트이다. 도 1 내지 도 6을 참조하여 인공지능 프로그램(212)이 제3목적지(DT3)에 도달한 제1객체 (500)를 침입자를 판단하는 경우들을 설명한다.
센서(341)는 (i) 소리를 감지하는 센서, (ⅱ) 전기 신호를 감지하는 센서, (ⅲ) 진동을 감지하는 센서, 또는 (ⅳ) 소리, 전기 신호, 및 진동 중에서 적어도 두 개를 감지하는 센서의 집합을 통칭한다.
인공지능 프로그램(212)이 제1객체(500)를 침입자를 판단할 수 있는 예들은 아래와 같다.
(1) 촬영 장치(343)에 의해 촬영된 영상들(IM)을 이용하여 침입자로 판단;
(2) 소리를 감지하는 센서(341)로부터 출력된 소리 신호들(SS)을 이용하여 침입자로 판단;
(3) 전기 신호를 감지하는 센서(341)로부터 출력된 전기 신호들(ES)을 이용하여 침입자로 판단;
(4) 진동을 감지하는 센서(341)로부터 출력된 진동 신호들(VS)을 이용하여 침입자로 판단;
(5) (1) 내지 (4) 중에서 적어도 2개를 조합하여 침입자로 판단.
예를 들면, 인공지능 프로그램(212)은 촬영 장치(343)에 의해 촬영된 제3촬영 영상들 각각을 촬영 장치 인터페이스(230)를 통해 수신하고, 상기 제3촬영 영상들 각각에 포함된 제1객체(500)와 제2객체를 학습 데이터(241)를 이용하여 식별하고(S115와 S120), 상기 제3촬영 영상들 각각에 포함된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 제4이동 방법, 제4이동 속도, 및 제4이동 방향을 획득하고(S125), 상기 제4이동 방향을 이용하여 제1객체(500)의 제4목적지(DT4)를 예측하고(S130), 상기 제4이동 방법과 상기 제4이동 속도를 이용하여 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 예측한다(S135). 예측된 제4시간은 제1객체(500)가 제3목적지(DT3)로부터 제4목적지(DT4)에 도달할 최소 예측 시간과 최대 예측 시간을 포함한다.
인공지능 프로그램(212)에 의해 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램(212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 하는지를 판단한다(S137).
제1객체(500)가 사람(즉, 침입자)이고, 침입자(500)가 울타리(400)에 대한 침입 행위를 한다고 판단될 때(S137의 YES), 인공지능 프로그램(212)은 경보 장치 (280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지 (DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다. 단말기(600)는 예측 정보(IF)에 응답하여 단말기(600)의 경보기를 이용하여 경보(예를 들면, 시각적 경보, 청각적 경보, 또는 시청각적 경보)를 발생할 수 있다.
실시 예에 따라, 인공지능 프로그램(212)이 촬영 장치(343)에 의해 촬영된 제3촬영 영상들을 학습 데이터(241)를 이용하여 식별하고 분석하고, 분석 결과에 따라 제1객체(500)가 몇명인지, 제1객체(500)가 도구(예를 들면, 도검, 총기, 절단기 또는 사다리 등)를 소지하는지, 및 상기 도구의 종류를 판단할 수 있을 때, 인공지능 프로그램(212)은 제4목적지(DT4), 제4시간, 제1객체(500)가 몇명인지, 제1객체(500)가 도구를 소지하는지, 및 상기 도구의 종류를 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다.
이에 따라 단말기(600)의 담당자는 예측 정보(IF)에 따라 침입자인 제1객체 (500)의 침입을 예방 또는 제1객체(500)의 침입에 대한 조치(또는 대응 방안)을 수립할 수 있다. 조치(또는 대응 방안)은 몇명의 담당자들이 필요하고 상기 담당자들 각각이 어떤 무기를 가지고 갈지를 포함한다.
실시 예에 따라, 인공지능 프로그램(212)이 촬영 장치(343)에 의해 촬영된 제3촬영 영상들을 학습 데이터(241)를 이용하여 식별하고 분석하고, 분석 결과에 따라 제1객체(500)가 몇명인지, 제1객체(500)가 도구(예를 들면, 도검, 총기, 또는 절단기)를 소지하는지, 및 상기 도구의 종류를 판단할 수 있을 때, 인공지능 프로그램(212)은 제4목적지(DT4), 제4시간, 제1객체(500)가 몇명인지, 제1객체(500)가 도구를 소지하는지, 상기 도구의 종류, 및 제1객체(500)의 침입을 예방하거나 제1객체(500)를 체포하기 위해 몇 명의 담당자가 필요하고 각 담당자가 어떤 무기를 가지고 갈지를 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다.
즉, 인공지능 프로그램(212)은 침입자인 제1객체(500)에 대응하기 위한 조치 (또는 대응 방안)을 학습 데이터(241)를 이용하여 분석하고, 분석 결과에 따라 상기 조치(또는 대응 방안)을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송할 수 있다.
제1객체(500)의 침입 행위의 예들은 제1객체(500)가 울타리(400)를 무단으로 절단하는 행위, 제1객체(500)가 울타리(400)에 생긴 구멍을 통과하는 행위, 제1객체(500)가 울타리(400)의 아래에 굴을 파는 행위, 제1객체(500)가 사다리를 타고 울타리(400)를 오르는지, 및 제1객체(500)가 울타리(400)를 넘는 행위를 포함한다.
인공지능 프로그램(212)은 제3촬영 영상들 각각에 포함된 제1객체(500)의 행위(또는 행동)을 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체(500)가 사람이지만 상기 사람이 울타리(400)에 대한 침입 행위를 하지 않는다고 판단될 때(S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 센서(341)의 주위에 설치된 스피커를 제어하여 경고 방송을 할 수 있다(S139).
실시 예에 따라 제1객체가 동물이고 상기 동물이 울타리(400)에 대한 침입 행위를 하지 않는다고 판단될 때(S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 센서(341)의 주위에 설치된 경광등을 제어하여 경고를 할 수 있다. 다른 실시 예에 따라 제1객체가 동물이고 울타리(400)가 전기 울타리일 때 (S137의 NO), 인공지능 프로그램(212)은 센서 인터페이스(220)를 통해 전기 울타리 (400)로 전류를 흐르게 하여 상기 동물을 전기 울타리(400)로부터 퇴치할 수 있다.
실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 소리 신호들(SS)을 이용하여 판단한다(S137).
학습 데이터(241)는 소리 신호 학습 데이터(241B)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 소리 신호들(SS)을 센서 인터페이스(220)를 통해 수신하고, 소리 신호들(SS)이 인위적인 소리 신호인지를 소리 신호 학습 데이터(241B)를 이용하여 판단하고, 소리 신호들(SS)이 상기 인위적인 소리 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).
실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 전기 신호들(ES)을 이용하여 판단한다(S137).
학습 데이터(241)는 전기 신호 학습 데이터(241C)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 전기 신호들(ES)을 센서 인터페이스(220)를 통해 수신하고, 전기 신호들(ES)이 인위적인 전기 신호들인지를 전기 신호 학습 데이터(241C)를 이용하여 판단하고, 전기 신호들(ES)이 상기 인위적인 전기 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).
실시 예들에 따라 제2객체가 울타리(400)로 식별될 때, 인공지능 프로그램 (212)은 제1객체(500)가 울타리(400)를 통한 침입 행위를 진동 신호들(VS)을 이용하여 판단한다(S137).
학습 데이터(241)는 진동 신호 학습 데이터(241D)를 포함하므로, 인공지능 프로그램(212)은 센서(341)로부터 출력된 진동 신호들(VS)을 센서 인터페이스(220)를 통해 수신하고, 진동 신호들(VS)이 인위적인 진동 신호들인지를 진동 신호 학습 데이터(241D)를 이용하여 판단하고, 진동 신호들(VS)이 상기 인위적인 진동 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보 장치(280)를 이용하여 경보를 발생하고, 제4목적지(DT4)와 제1객체(500)가 제4목적지(DT4)에 도달할 제4시간을 포함하는 예측 신호(IF)를 생성하여 단말기(600)로 전송한다(S140).
앞의 실시 예들에서 설명한 바와 같이, 목적지와 상기 목적지에 도달할 시간이 예측된 후, 인공지능 프로그램(212)은 해당 촬영 장치(353, 363, 373, 383, 또는 393)에 의해 촬영된 영상들 각각에 포함된 제1객체(500)를 식별하고(S145), 제1객체(500)의 움직임을 분석하여 제1객체(500)의 새로운 목적지와 상기 새로운 목적지에 도달할 새로운 시간을 예측하고, 예측된 목적지와 예측된 시간을 예측된 새로운 목적지와 예측된 새로운 시간으로 실시간 업데이트하고(S150), 상기 예측된 새로운 목적지와 상기 예측된 새로운 시간을 포함하는 새로운 예측 정보(IF)를 생성하여 통신 장치(250)를 통해 단말기(600)로 전송한다(S140).
인공지능 프로그램(212)이 제1객체(500)의 목적지(DT5, DT6, DT7, 또는 DT8)와 목적지(DT5, DT6, DT7, 또는 DT8)에 도달할 시간을 예측하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하는 과정은, 제1객체(500)의 목적지 (DT1, DT2, DT3, 또는 DT4)와 목적지(DT1, DT2, DT3, 또는 DT4)에 도달할 시간을 예측하고 예측된 상기 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하는 과정과 대동소이하다.
도 7은 도 1에 도시된 침입 경계 시스템의 작동 방법을 설명하는 플로우차트이다.
도 1 내지 도 7을 참조하여 인공지능 프로그램(212)이 제1객체(500)가 존재하는 위치에 대한 지형 및/또는 지물을 식별하고, 식별된 지형 지물을 이용하여 목적지와 상기 목적지에 도달할 시간을 예측하는 방법을 설명한다. 도 5의 각 촬영 영상(FA1, FA2, FB1, FB2, FC1, 및 FC2)에 포함된 객체(510)는 지형 지물에 대한 정보를 획득하기 위한 객체라고 가정한다.
실시 예들에 따라, 도 5의 경우1(CASE1)를 참조하면. 인공지능 프로그램 (212)은 제1촬영 영상(FA1)에 포함된 제1객체(500)와 제2객체(510) 및 제2촬영 영상(FA2)에 포함된 제1객체(500)와 제2객체(510)를 학습 데이터(241)를 이용하여 분석하고, 분석의 결과에 따라 제1객체(500)가 존재하는 위치의 지형 지물 정보를 식별한다(S210).
인공지능 프로그램(212)은 제1객체(500)의 제1이동 방향과 식별된 지형 지물 (또는 지형지물 정보)를 학습 데이터(241)를 이용하여 분석하고 제1객체(500)의 제1목적지를 예측한다(S130A).
인공지능 프로그램(212)은 제1이동 방법, 제1이동 속도, 및 식별된 지형 지물을 학습 데이터(214)를 이용하여 분석하고 제1객체(500)가 제1목적지에 도달할 제1시간을 예측한다(S135A).
실시 예들에 따라, 제1촬영 영상(FA1)과 촬영 영상(FA2)은 동일한 촬영 장치로부터 출력되거나 서로 다른 촬영 장치로부터 출력될 수 있다.
실시 예들에 따라, 데이터베이스(240)는 지형 지물 정보(243)를 저장하고 있으므로, 인공지능 프로그램(212)은 제1촬영 영상(FA1)를 출력하는 제1촬영 장치 (313)의 제1위치 정보(PI1)와 제2촬영 영상(FA2)을 출력하는 제2촬영 장치(323)의 제2위치 정보(PI2)를 지형 지물 정보(243)를 이용하여 분석하고 제1객체(500)가 존재하는 지형 지물(예를 들면, 지형 정보(TG1)와 지물 정보(FI1)에 해당하는 지형 지물)를 식별한다(S210).
동일한 이동 방법으로 제1객체(500)가 평지를 이동할 때의 이동 속도와 제1객체(500)가 경사가 급한 산지를 이동할 때의 이동 속도는 서로 다르다. 따라서, 인공지능 프로그램(212)이 제1객체(500)의 이동 속도를 예측할 때, 인공지능 프로그램(212)이 식별된 지형 지물 정보를 이용하면 제1객체(500)의 이동 속도를 좀 더 정확하게 예측할 수 있다.
도 7의 단계들(S110~S125, 및 S140~S150)과 도 4의 단계들(S110~S125, 및 S140~S150)은 동일하므로, 단계들(S110~S125, 및 S140~S150)에 대한 설명은 생략한다. 또한 도 6의 단계들(S137과 S139)은 도 7의 단계들(S135A와 S140) 사이에 적용된다.
실시 예들에 따라, 제1촬영 영상(FA1)과 촬영 영상(FA2)은 동일한 촬영 장치로부터 출력되거나 서로 다른 촬영 장치로부터 출력될 수 있다. 제1촬영 영상(FA1)과 촬영 영상(FA2)은 드론(700)에 의해 촬영된 영상일 수 있다.
인공지능 알고리즘(또는 인공지능 프로그램(212))을 이용한 침입 예측 방법은 샘플 영상들(SPI)을 상기 인공지능 알고리즘을 이용하여 학습하여 학습 데이터 (241)를 생성하고(S110), 제1촬영 영상(FA1, FB1, 또는 FC1)을 수신하고 제1촬영 영상(FA1, FB1, 또는 FC1)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고(S115), 제2촬영 영상(FA2, FB2, 또는 FC2)을 수신하고 제2촬영 영상(FA2, FB2, 또는 FC2)에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고 (S120), 제1촬영 영상(FA1, FB1, 또는 FC1)과 제2촬영 영상(FA2, FB2, 또는 FC2) 각각에서 식별된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 이동 방법, 이동 속도, 및 이동 방향을 획득하고(S125), 상기 이동 방향을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측하고 (S130), 상기 이동 방법과 상기 이동 속도를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 상기 목적지에 도달할 시간을 예측한다(S135).
실시 예들에 따라 상기 침입 예측 방법은 제3촬영 영상들을 수신하고 상기 제3촬영 영상들 각각에 포함된 제1객체(500)와 제2객체를 학습 데이터(241)를 이용하여 식별하고, 상기 제2객체가 울타리(400)로 식별될 때 제1객체(500)가 울타리(400)를 통한 침입 행위를 하는지를 판단하고(S137), 제1객체(500)가 울타리(400)에 대한 침입 행위를 할 때 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).
실시 예들에 따라 상기 침입 예측 방법은 샘플 소리 신호들(SDS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 소리 신호들(SS)을 수신하고 소리 신호들(SS)이 인위적인 소리 신호들인지를 학습 데이터 (241)를 이용하여 판단하고, 소리 신호들(SS)이 상기 인위적인 소리 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).
실시 예들에 따라 상기 침입 예측 방법은 샘플 전기 신호들(ELS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 전기 신호들(ES)을 수신하고 전기 신호들(SS)이 인위적인 전기 신호들인지를 학습 데이터 (241)를 이용하여 판단하고(S137), 전기 신호들(ES)이 상기 인위적인 전기 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).
실시 예들에 따라 상기 침입 예측 방법은 샘플 진동 신호들(VBS)을 인공지능 알고리즘을 이용하여 더 학습하여 학습 데이터(241)를 생성하고(S110), 진동 신호들(VS)을 수신하고 진동 신호들(VS)이 인위적인 진동 신호들인지를 학습 데이터 (241)를 이용하여 판단하고(S137), 진동 신호들(VS)이 상기 인위적인 진동 신호들로 판단될 때 제1객체(500)를 울타리(400)를 통한 침입자로 판단하고(S137의 YES), 경보를 발생하고 예측된 목적지와 예측된 시간을 포함하는 예측 정보(IF)를 생성하여 단말기(600)로 전송한다(S140).
실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)에 포함된 제2객체(510)와 제2촬영 영상(FA2, FB2, 또는 FC2)에 포함된 제2객체(510)를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 존재하는 위치의 지형지물을 식별하고(S210), 획득된 제1객체(500)의 이동 방향과 식별된 지형지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다(S130A).
인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).
실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)과 제2촬영 영상(FA2, FB2, 또는 FC2)을 출력하는 동일한 촬영 장치가 설치된 위치 정보를 분석하여 제1객체(500)가 존재하는 위치의 지형 지물을 식별하고, 획득된 이동 방향과 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다(S130A).
인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).
실시 예에 따라 인공지능 프로그램(212)은 제1촬영 영상(FA1, FB1, 또는 FC1)를 출력하는 제1촬영 장치(313)의 제1위치 정보(PI1)와 제2촬영 영상(FA2, FB2, 또는 FC2)을 출력하는 제2촬영 장치(323)의 제2위치 정보(PI2)를 분석하여 제1객체(500)가 존재하는 지형 지물을 식별하고, 획득된 이동 방향과 식별된 지형지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 목적지를 예측한다 (S130A).
인공지능 프로그램(212)은 획득된 이동 방법, 획득된 이동 속도, 및 식별된 지형 지물을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 목적지에 도달할 시간을 예측한다(S135A).
인공지능 프로그램(212)은 제3촬영 영상을 수신하고 상기 제3촬영 영상에 포함된 제1객체(500)를 학습 데이터(241)를 이용하여 식별하고(S145), 제2촬영 영상 (FA2, FB2, 또는 FC2)과 상기 제3촬영 영역 각각에서 식별된 제1객체(500)의 움직임을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 새로운 이동 방법, 새로운 이동 속도, 및 새로운 이동 방향을 획득하고(S145), 새로운 이동 방향을 학습 데이터(241)를 이용하여 분석하여 제1객체(500)의 새로운 목적지를 예측하고 (S145), 새로운 이동 방법과 새로운 이동 속도를 학습 데이터(241)를 이용하여 분석하여 제1객체(500)가 새로운 목적지에 도달할 시간을 예측한다(S145).
인공지능 프로그램(212)은 이전 목적지를 새로운 목적지로 변경하고, 이전에 예측된 제1시간을 새롭게 예측된 시간으로 변경하고, 새로운 목적지와 상기 새로운 시간을 포함하는 예측 정보를 생성하여 단말기(600)로 전송한다(S150).
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
100: 침입 경계 시스템
200: 인공지능을 이용한 제어 장치
311, 321, 331, 341, 351, 361, 371, 381, 391: 센서
313, 323, 333, 343, 353, 363, 373, 383, 393: 촬영 장치
400: 울타리
410: 시설물
500: 객체, 사람

Claims (6)

  1. 촬영 장치;
    전기 신호를 감지하는 센서; 및
    인공 지능을 이용한 제어 장치를 포함하고,
    상기 인공 지능을 이용한 제어 장치는,
    데이터베이스; 및
    프로세서를 포함하고,
    상기 프로세서는,
    샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    상기 촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    상기 센서로부터 출력된 전기 신호들을 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고,
    상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
    상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
    상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
    상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
    상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하는 침입 경계 시스템.
  2. 제1항에 있어서, 상기 인공 지능을 이용한 제어 장치는,
    상기 프로세서의 제어에 따라 상기 제1촬영 영상과 상기 제2촬영 영상을 수신하여 디스플레이하는 디스플레이 장치를 더 포함하는 침입 경계 시스템.
  3. 제1항에 있어서,
    상기 촬영 장치는 CCTV 카메라, 네트워크 카메라, 팬-틸트-줌 카메라(pan-tilt-zoom (PTZ) camera), 열화상 카메라, 또는 열상 감시 장비인 침입 경계 시스템.
  4. 제1촬영 장치;
    제2촬영 장치;
    전기 신호를 감지하는 센서; 및
    인공 지능을 이용한 제어 장치를 포함하고,
    상기 인공 지능을 이용한 제어 장치는,
    데이터베이스; 및
    프로세서를 포함하고,
    상기 프로세서는,
    샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    상기 제1촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    상기 제2촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    상기 센서로부터 출력된 전기 신호들을 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고,
    상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
    상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
    상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
    상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
    상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하는 침입 경계 시스템.
  5. 데이터베이스;
    센서 인터페이스;
    촬영 장치 인터페이스; 및
    프로세서를 포함하고,
    상기 프로세서는,
    샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    상기 촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    전기 신호를 감지하는 센서로부터 출력된 전기 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고,
    상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
    상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
    상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
    상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
    상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고,
    상기 센서 인터페이스로부터 상기 전기 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 촬영 장치를 제어하기 위한 제어 신호를 생성하고,
    상기 촬영 장치 인터페이스는 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 촬영 장치로 전송하는 인공지능을 이용한 제어 장치.
  6. 데이터베이스;
    센서 인터페이스;
    촬영 장치 인터페이스; 및
    프로세서를 포함하고,
    상기 프로세서는,
    샘플 영상들을 인공지능 알고리즘을 이용하여 학습하여 영상 신호 학습 데이터를 생성하고 상기 영상 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    샘플 전기 신호들을 상기 인공지능 알고리즘을 이용하여 학습하여 전기 신호 학습 데이터를 생성하고 상기 전기 신호 학습 데이터를 상기 데이터베이스에 저장하고,
    제1촬영 장치로부터 전송된 제1촬영 영상을 수신하고 상기 제1촬영 영상에 포함된 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    제2촬영 장치로부터 전송된 제2촬영 영상을 수신하고 상기 제2촬영 영상에 포함된 상기 객체를 상기 영상 신호 학습 데이터를 이용하여 식별하고,
    전기 신호를 감지하는 센서로부터 출력된 전기 신호들을 상기 센서 인터페이스를 통해 수신하고, 상기 전기 신호들이 인위적인 전기 신호들인지를 상기 전기 신호 학습 데이터를 이용하여 판단하고,
    상기 전기 신호들이 상기 인위적인 전기 신호들로 판단될 때 상기 객체를 울타리를 통한 침입자로 판단하고,
    상기 객체가 상기 침입자로 판단될 때, 상기 제1촬영 영상과 상기 제2촬영 영상 각각에서 식별된 상기 객체의 움직임을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체의 이동 방법, 이동 속도, 및 방위와 각도 범위를 포함하는 이동 방향을 획득하고,
    상기 이동 방향을 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 복수 개의 이동 경로들 중에서 어느 하나의 이동 경로를 통해 목적지로 갈 것인지를 예측하고,
    상기 이동 방법과 상기 이동 속도를 상기 영상 신호 학습 데이터를 이용하여 분석하여 상기 객체가 상기 목적지에 도달할 시간을 예측하고,
    상기 목적지와 상기 목적지에 도달할 시간을 포함하는 예측 정보를 생성하고,
    상기 센서 인터페이스로부터 상기 전기 신호들을 수신하여 해석하고, 해석 결과에 따라 상기 제1촬영 장치와 상기 제2촬영 장치를 제어하기 위한 제어 신호를 생성하고,
    상기 촬영 장치 인터페이스는 상기 제어 신호를 상기 프로세서로부터 수신하여 상기 제1촬영 장치와 상기 제1촬영 장치로 전송하는 인공지능을 이용한 제어 장치.

KR1020230014870A 2021-10-06 2023-02-03 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템 KR102509570B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230014870A KR102509570B1 (ko) 2021-10-06 2023-02-03 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210132549A KR102398010B1 (ko) 2021-10-06 2021-10-06 인공지능 알고리즘을 이용한 침입 예측 방법과 그 컴퓨터 프로그램
KR1020220075333A KR102498352B1 (ko) 2021-10-06 2022-06-21 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR1020230014870A KR102509570B1 (ko) 2021-10-06 2023-02-03 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220075333A Division KR102498352B1 (ko) 2021-10-06 2022-06-21 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템

Publications (1)

Publication Number Publication Date
KR102509570B1 true KR102509570B1 (ko) 2023-03-13

Family

ID=81590731

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020210132549A KR102398010B1 (ko) 2021-10-06 2021-10-06 인공지능 알고리즘을 이용한 침입 예측 방법과 그 컴퓨터 프로그램
KR1020220055607A KR102412861B1 (ko) 2021-10-06 2022-05-04 인공지능을 이용한 제어 장치
KR1020220055616A KR102412862B1 (ko) 2021-10-06 2022-05-04 침입 경계 시스템
KR1020220075333A KR102498352B1 (ko) 2021-10-06 2022-06-21 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR1020230014870A KR102509570B1 (ko) 2021-10-06 2023-02-03 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR1020230014886A KR102531272B1 (ko) 2021-10-06 2023-02-03 영상들과 진동들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020210132549A KR102398010B1 (ko) 2021-10-06 2021-10-06 인공지능 알고리즘을 이용한 침입 예측 방법과 그 컴퓨터 프로그램
KR1020220055607A KR102412861B1 (ko) 2021-10-06 2022-05-04 인공지능을 이용한 제어 장치
KR1020220055616A KR102412862B1 (ko) 2021-10-06 2022-05-04 침입 경계 시스템
KR1020220075333A KR102498352B1 (ko) 2021-10-06 2022-06-21 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230014886A KR102531272B1 (ko) 2021-10-06 2023-02-03 영상들과 진동들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템

Country Status (1)

Country Link
KR (6) KR102398010B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557342B1 (ko) * 2022-06-28 2023-07-19 주식회사 시큐오션 침입자 탐지를 위한 센서의 동작 제어 시스템 및 방법
CN116597608B (zh) * 2023-05-26 2023-12-19 江西省宏旺科技有限公司 动物园监控预警方法及装置
KR102600316B1 (ko) * 2023-06-19 2023-11-09 주식회사 영화키스톤건축사사무소 인공지능(ai)을 이용한 공동주택 건축물의 감전 사고 예방 시스템
CN116866530A (zh) * 2023-08-01 2023-10-10 广东省新一代通信与网络创新研究院 一种基于5g通信的安防监控系统、方法、装置
KR102643021B1 (ko) * 2023-08-18 2024-03-04 이성락 뉴럴 네트워크를 기반으로 사용자 단말에게 무단 침입을 자동으로 알리는 방법 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160102923A (ko) * 2015-02-23 2016-08-31 한남대학교 산학협력단 침입 탐지 장치
KR101934700B1 (ko) 2018-07-12 2019-01-03 주식회사동우유니온 영상처리와 딥러닝 기반의 ai를 이용한 조기 화재감지 시스템, 서버 및 방법
KR101951361B1 (ko) 2017-09-15 2019-02-22 김동권 인공지능 방범 관리 방법
KR102021441B1 (ko) 2019-05-17 2019-11-04 정태웅 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라
KR102126498B1 (ko) 2019-11-15 2020-06-25 한국건설기술연구원 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템
KR102298063B1 (ko) * 2021-02-17 2021-09-02 임정석 Cctv와 연계된 스마트 방범 드론 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160102923A (ko) * 2015-02-23 2016-08-31 한남대학교 산학협력단 침입 탐지 장치
KR101951361B1 (ko) 2017-09-15 2019-02-22 김동권 인공지능 방범 관리 방법
KR101934700B1 (ko) 2018-07-12 2019-01-03 주식회사동우유니온 영상처리와 딥러닝 기반의 ai를 이용한 조기 화재감지 시스템, 서버 및 방법
KR102021441B1 (ko) 2019-05-17 2019-11-04 정태웅 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라
KR102126498B1 (ko) 2019-11-15 2020-06-25 한국건설기술연구원 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템
KR102298063B1 (ko) * 2021-02-17 2021-09-02 임정석 Cctv와 연계된 스마트 방범 드론 시스템

Also Published As

Publication number Publication date
KR102531272B1 (ko) 2023-05-11
KR102398010B1 (ko) 2022-05-12
KR20230050277A (ko) 2023-04-14
KR102412862B1 (ko) 2022-06-24
KR102498352B1 (ko) 2023-02-08
KR102412861B1 (ko) 2022-06-23

Similar Documents

Publication Publication Date Title
KR102509570B1 (ko) 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR101644443B1 (ko) 시공적 상황데이터를 이용한 경고 방법 및 시스템
CN108615321A (zh) 基于雷达侦测及视频图像行为分析的安防预警系统及方法
US20160019427A1 (en) Video surveillence system for detecting firearms
CN110133573A (zh) 一种基于多元传感器信息融合的自主低空无人机防御系统
US20070035622A1 (en) Method and apparatus for video surveillance
KR101877294B1 (ko) 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템
CN107360394A (zh) 应用于边防视频监控系统的多预置点动态智能监测方法
CN113593161A (zh) 一种周界入侵检测方法
US20220366687A1 (en) System and method for drone land condition surveillance
CN116453278A (zh) 一种深度学习智能检测与光纤振动传感结合的入侵监测方法
CN112263803A (zh) 基于实时场景巡视和自动检测灭火的无人车智能安防系统及控制方法
CN114998846A (zh) 海上钻井平台智能化系统的实现方法、系统及相关组件
US20220070414A1 (en) System For Generating Drone Video Feed Overlays Based On Property Monitoring System Data
Saravanan et al. IoT alert reflexion of forbidden deforestation regions with drone observation
KR101542134B1 (ko) 스마트 카메라모듈을 통한 열차선로 상의 낙석·사람으로 이루어진 관심 객체 실시간 감시 장치 및 방법
CN116704411A (zh) 一种基于物联网的安防管控方法、系统及存储介质
CN111063148A (zh) 一种远距离夜视目标视频检测方法
KR102440169B1 (ko) 멀티센서 신호 융합과 ai 영상 분석을 통한 유효감지 정확도를 향상시킨 스마트 경계 시스템
KR102333955B1 (ko) 사회적 약자를 위한 안전 지역 안내 및 경로 안내를 위한 방법, 시스템 및 애플리케이션
CN115346157A (zh) 入侵检测方法、系统、设备及介质
CN111901217B (zh) 一种基于微振感知的重点区域陆空一体警戒系统
JP4675217B2 (ja) 追尾型監視システム
CN101523451A (zh) 用于确定传感器覆盖的方法,使用该方法的设计工具和边界保护系统
KR20160086536A (ko) 시공적 상황데이터를 이용한 경고 방법 및 시스템

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant