KR102439548B1 - 발전소 감시 시스템 및 방법 - Google Patents

발전소 감시 시스템 및 방법 Download PDF

Info

Publication number
KR102439548B1
KR102439548B1 KR1020200015048A KR20200015048A KR102439548B1 KR 102439548 B1 KR102439548 B1 KR 102439548B1 KR 1020200015048 A KR1020200015048 A KR 1020200015048A KR 20200015048 A KR20200015048 A KR 20200015048A KR 102439548 B1 KR102439548 B1 KR 102439548B1
Authority
KR
South Korea
Prior art keywords
power plant
dangerous state
processing unit
image data
image
Prior art date
Application number
KR1020200015048A
Other languages
English (en)
Other versions
KR20210100985A (ko
Inventor
김동우
서덕기
강기헌
이범우
김태연
Original Assignee
한전케이디엔주식회사
주식회사 휴먼아이씨티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한전케이디엔주식회사, 주식회사 휴먼아이씨티 filed Critical 한전케이디엔주식회사
Priority to KR1020200015048A priority Critical patent/KR102439548B1/ko
Publication of KR20210100985A publication Critical patent/KR20210100985A/ko
Application granted granted Critical
Publication of KR102439548B1 publication Critical patent/KR102439548B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/06Electricity, gas or water supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Abstract

실시예에 따르면, 발전소내에 설치된 촬영 장치로부터 영상 데이터를 수집하는 통신부; 발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 사육장 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함하는 제1처리부; 및 상기 객체를 검출한 영상 데이터를 입력층으로 하여, 상기 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함하는 제2처리부를 포함하는 발전소 감시 장치를 제공한다.

Description

발전소 감시 시스템 및 방법{Power plant monitoring system and method}
실시예는 발전소 감시 시스템 및 방법에 관한 것이다.
발전소내 작업자의 안전 및 설비의 사고가 반복적으로 발생되는 문제를 해소하기 위해 발전소의 안전감시 방법의 필요성이 지속적으로 요구되고 있다.
발전소내 안전 모니터링을 위해 CCTV가 다수 설치되어 있으나 상황 분석을인적 위하여 인적 모니터링에 의존하고 있다는 문제가 있다. 또한, 통상적인 방범 및 보안 기능을 제공하는 영상 감시 시스템이 제공되고 있으나, 이는 경비체계에서 인력과 병행하여 사용하는 기술을 기반으로 하고 있으며, 영상판독의 결과는 주로 저장기록 및 인위적 인지와 식별에 보조적으로 활용되고 있다.
이에 대한 연구에 따르면 20분 경과 후 비디오 모니터링에 기반한 감시관리는 전체 행동의 95%를 놓친다는 결과가 보고되어 있다.
따라서, 기존 안전관리 시스템의 한계 개선하여, 저탄장 및 운탄설비 주변에 잦은 화재 발생을 대비하여 화재사고를 조기에 감지하고 대응할 수 있는 체계가 필요하다. 또한, 발전 설비의 오동작이나 위험징후 발견시 빠르게 감지하고 대응할 수 있는 체계가 필요하다.
본 발명이 이루고자 하는 기술적 과제는 발전소 객체별 위험 상황을 판별할 수 있는 발전소 감시 장치 및 시스템을 제공하는데 있다.
또한, 객체별 위험 상황을 직관적으로 디스플레이 할 수 있는 발전소 감시 장치 및 시스템을 제공하는데 있다.
또한, 위험 상황인 발생한 객체 주변에 대한 영상 데이터를 제공할 수 있는 발전소 감시 장치 및 시스템을 제공하는데 있다.
실시예에 따르면, 발전소내에 설치된 촬영 장치로부터 영상 데이터를 수집하는 통신부; 발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 사육장 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함하는 제1처리부; 및 상기 객체를 검출한 영상 데이터를 입력층으로 하여, 상기 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함하는 제2처리부를 포함하는 발전소 감시 장치를 제공한다.
상기 제1뉴럴 네트워크는 발전소 내부 영상과 사람, 전력 설비 및 통제 지역 중 적어도 하나와의 상관관계를 학습하여 객체를 검출한 영상 데이터를 출력할 수 있다.
상기 제2뉴럴 네트워크는 상기 객체가 사람인 경우, 상기 객체와 상기 객체의 안전보호 장치 착용여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다.
상기 제2뉴럴 네트워크는 상기 객체가 전력 설비인 경우, 상기 객체와 상기 객체 및 상기 객체 주변의 화재 발생 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다.
상기 제2뉴럴 네트워크는 상기 객체가 통제 지역인 경우, 상기 객체와 상기 객체로의 접근 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다.
디스플레이 스크린; 및 객체별 위험 상태를 표시하는 상기 디스플레이 스크린에 표시하도록 제어하는 제어부를 더 포함할 수 있다.
상기 제어부는 상기 디스플레이 스크린상에 상기 발전소내에 위치한 객체 리스트를 표시하며, 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 타 객체와 구분되도록 표시하도록 제어할 수 있다.
상기 제어부는 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 촬영한 영상 데이터가 표시되도록 상기 디스플레이 스크린을 제어할 수 있다.
실시예에 따르면, 발전소 내부에 배치되어 발전소 내부 영상을 촬영하는 촬영 장치; 상기 촬영 장치로부터 영상 데이터를 수집하는 통신부; 발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 사육장 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함하는 제1처리부; 및 상기 객체를 검출한 영상 데이터를 입력층으로 하여, 상기 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함하는 제2처리부를 포함하는 발전소 감시 시스템을 제공한다.
상기 제1뉴럴 네트워크는 발전소 내부 영상과 사람, 전력 설비 및 통제 지역 중 적어도 하나와의 상관관계를 학습하여 객체를 검출한 영상 데이터를 출력할 수 있다.
상기 제2뉴럴 네트워크는 상기 객체가 사람인 경우, 상기 객체와 상기 객체의 안전보호 장치 착용여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다.
상기 제2뉴럴 네트워크는 상기 객체가 전력 설비인 경우, 상기 객체와 상기 객체 및 상기 객체 주변의 화재 발생 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다.
상기 제2뉴럴 네트워크는 상기 객체가 통제 지역인 경우, 상기 객체와 상기 객체로의 접근 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다.
디스플레이 스크린; 및 객체별 위험 상태를 표시하는 상기 디스플레이 스크린에 표시하도록 제어하는 제어부를 더 포함할 수 있다.
상기 제어부는 상기 디스플레이 스크린상에 상기 발전소내에 위치한 객체 리스트를 표시하며, 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 타 객체와 구분되도록 표시하도록 제어할 수 있다.
상기 제어부는 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 촬영한 영상 데이터가 표시되도록 상기 디스플레이 스크린을 제어할 수 있다.
본 발명인 발전소 감시 장치 및 시스템은 발전소 객체별 위험 상황을 판별할 수 있다.
또한, 객체별 위험 상황을 직관적으로 디스플레이 할 수 있다.
또한, 위험 상황인 발생한 객체 주변에 대한 영상 데이터를 제공할 수 있다.
도1은 실시예에 따른 발전소 감시 시스템의 구성 블록도이다.
도2는 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도1은 실시예에 따른 발전소 감시 시스템의 구성 블록도이다. 도1을 참조하면, 실시예에 따른 발전소 감시 시스템(1)은 촬영 장치(10) 및 발전소 감시 장치(20)를 포함할 수 있다. 또한, 실시예에 따른 발전소 감시 장치(20)는 통신부(21), 제1처리부(22), 제2처리부(23), 제어부(24), 디스플레이 스크린(25), 유저 인터페이스부(26) 및 데이터베이스(27)를 포함할 수 있다.
촬영 장치(10)는 발전소 내부에 배치되어 발전소 내부 영상을 촬영할 수 있다. 촬영장치는 CMOS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서를 포함할 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영 장치(10) 내의 CMOS 모듈 또는 CCD 모듈로 제공되고, CMOS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다.
촬영 장치(10)는 복수의 객체를 포함하는 이미지를 촬영하여 영상 데이터를 생성할 수 있다. 본 발명의 실시예에서 복수의 객체는 발전소 내부에 위치한 사람, 전력 설비 및 통제 지역 등을 포함할 수 있다. 본 발명의 실시예에서, 촬영 장치(10)에 의하여 촬영된 영상 데이터는 원본 데이터, 원본 영상, 촬영 영상 등과 혼용될 수 있다.
촬영 장치(10)는 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영 장치(10)는 복수의 객체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수의 객체를 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 각각 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영 장치(10)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.
촬영 장치(10)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬영 장치(10)가 사육장 내부의 전체 공간을 촬영하는 것도 가능하다.
또한, 촬영 장치(10)는 깊이 카메라일 수 있다. 촬영 장치(10)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영 장치(10)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영 장치(10)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(미도시)가 더 구성될 수 있다.
키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영 장치(10)는 발전소 내 공간으로 레이저 패턴을 조사하고, 객체에서 반사된 레이저 패턴을 센싱하여 객체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.
실시예에서 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다. 실시예에서 촬영 장치(10)는 발전소 상부 또는 측면 벽에서 객체를 포함하는 발전소 내부 영상을 촬영할 수 있다.
제1처리부(22)는 발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 사육장 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함할 수 있다.
제1처리부(22)는 촬영된 영상을 입력 데이터로 딥러닝이 적용된RPN(Region Proposal Network)을 이용하여 객체를 검출할 수 있다. 제1처리부(22)는 사전에 객체의 위치가 파악된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 촬영된 영상으로부터 객체를 검출할 수 있다.
제1처리부(22)는 영상 데이터에서 객체를 검출하도록 학습될 수 있다. 제1처리부(22)는 컴퓨터로 읽을 수 있는 프로그램을 포함할 수 있다. 해당 프로그램은 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다.
제1처리부(22)의 입력은 발전소 내부를 촬영한 하나 또는 복수개의 영상 데이터일 수 있으며, 제1처리부(22)의 출력은 객체가 검출된 영상 데이터일 수 있다.
제1처리부(22)는 발전소 내부의 영상을 입력층으로 하여, 발전소 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함할 수 있다.
실시예에서, 제1뉴럴 네트워크는 발전소 내부 영상과 사람, 전력 설비 및 통제 지역 중 적어도 하나와의 상관관계를 학습하여 객체를 검출한 영상 데이터를 출력할 수 있다.
제1뉴럴 네트워크는 영상 데이터상에서 객체가 위치하는 영역을 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 제1뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 영상 데이터를 입력한 후, 객체가 위치한 영역이 구별되도록 표시되어 있는 데이터를 출력하는 알고리즘일 수 있다. 이때, 발전소 내부를 촬영한 영상 데이터는 제1뉴럴 네트워크의 입력층이 되고, 제1뉴럴 네트워크는 발전소 내부 영상 데이터와 객체간의 상관관계를 학습할 수 있다. 그리고, 제1뉴럴 네트워크의 출력층은 발전소 내부를 촬영한 영상 데이터상에서 객체가 위치한 영역이 구별되도록 표시된 영상 데이터 일 수 있다.
제2처리부(23)는 객체를 검출한 영상 데이터를 입력층으로 하여, 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함할 수 있다.
제2처리부(23)는 객체가 검출된 영상을 입력 데이터로 딥러닝이 적용된 Detection Network를 이용하여 위험 상태를 판단할 수 있다. 제2처리부(23)는 사전에 객체별로 위험 상태가 판별된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 입력된 영상 데이터로부터 위험 상태를 판별할 수 있다.
제2처리부(23)는 객체가 검출된 영상 데이터에서 위험 상태를 판별하도록 학습될 수 있다. 제2처리부(23)는 컴퓨터로 읽을 수 있는 프로그램을 포함할 수 있다. 해당 프로그램은 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다.
제2처리부(23)의 입력은 객체가 검출된 발전소 내부의 영상 데이터일 수 있으며, 제2처리부(23)의 출력은 위험 상태 판단 결과일 수 있다.
제2처리부(23)는 객체가 검출된 발전소 내부의 영상을 입력층으로 하여, 객체와 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함할 수 있다.
실시예에서, 제2뉴럴 네트워크는 검출된 객체인 사람, 전력 설비 및 통제 지역 중 적어도 하나와 위험 상태간의 상관관계를 학습하여, 위험 상태를 판단한 결과를 출력할 수 있다.
제2뉴럴 네트워크는 객체가 검출된 영상 데이터상에서 객체의 위험 상태 발생 여부를 판단하도록 설계된 딥러닝 알고리즘의 한 예이다. 제2뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 객체가 검출된 영상 데이터를 입력한 후, 객체별 위험 상태 발생 여부가 표시된 데이터를 출력하는 알고리즘일 수 있다. 이때, 객체가 검출된 영상 데이터는 제2뉴럴 네트워크의 입력층이 되고, 제2뉴럴 네트워크는 각 객체와 위험 상태간의 상관관계를 학습할 수 있다. 그리고, 제2뉴럴 네트워크의 출력층은 영상 데이터상에 위치한 객체별 위험 상태 판단 결과가 표시된 영상 데이터 또는 텍스트 데이터일 수 있다.
예를 들어 제2뉴럴 네트워크는 객체가 사람인 경우, 객체와 객체의 안전보호 장치 착용여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다. 제2뉴럴 네트워크는 학습 결과에 따라 영상 데이터상의 사람이 안전보호를 착용하지 않은 것으로 판단되면 위험 상태에 있는 것으로 판단할 수 있다.
또한, 예를 들어 제2뉴럴 네트워크는 객체가 전력 설비인 경우, 객체와 객체 및 객체 주변의 화재 발생 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다. 제2뉴럴 네트워크는 학습 결과에 따라 영상 데이터상의 객체 또는 객체 주변에 화재가 발생한 것으로 판단되면 위험 상태에 있는 것으로 판단할 수 있다. 이 ‹š, 제2뉴럴 네트워크는 전력 설비 또는 전력 설비 주변에 연기가 발생한 영상 데이터를 학습함으로써 화재 발생 초기에 위험 상태에 있는 것으로 판단하도록 학습될 수 있다.
또한, 예를 들어 제2뉴럴 네트워크는 객체가 통제 지역인 경우, 객체와 객체로의 접근 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력할 수 있다. 제2뉴럴 네트워크는 학습 결과에 따라 영상 데이터상의 통제 지역 또는 통제 지역 주변으로 물체가 접근하는 경우 위험 상태에 있는 것으로 판단할 수 있다.
통신부(21)는 촬영 장치(10)로부터 영상 데이터를 수집할 수 있다.
예를 들면, 통신부(21)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.
또는 통신부(21)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.
통신부(21)는 촬영 장치(10)에서 촬영한 영상 데이터를 관리자 단말(미도시)에 전송하거나, 제어부(24)에 의하여 제어되는 디스플레이 스크린(25)의 화면을 관리자 단말에 전송하거나, 제2처리부(23)의 위험 판단 결과를 관리자 단말에 전송할 수 있다.
디스플레이 스크린(25)은 제어부(24)의 제어에 따라 다양한 화면을 표시할 수 있다.
디스플레이 스크린(25)은 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이 스크린(25)은 촬영 장치(10)에서 촬영한 영상 데이터를 화면에 출력하거나, 영상 데이터와 위험 판단 결과를 화면에 출력할 수도 있다.
또한, 디스플레이 스크린(25)은 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.
제어부(24)는 객체별 위험 상태를 표시하는 디스플레이 스크린(25)에 표시하도록 제어할 수 있다.
제어부(24)는 디스플레이 스크린(25)상에 발전소내에 위치한 객체 리스트를 표시하며, 제2처리부(23)의 판단에 따라 위험 상태에 있는 객체를 타 객체와 구분되도록 표시하도록 제어할 수 있다.
또한, 제어부(24)는 제2처리부(23)의 판단에 따라 위험 상태에 있는 객체를 촬영한 영상 데이터가 표시되도록 디스플레이 스크린(25)을 제어할 수 있다.
도2는 실시예에 따른 제어부(24)의 동작을 설명하기 위한 도면이다. 도2를 참조하면, 제어부(24)는 디스플레이 스크린(25)을 제어하여 발전소내에 위치한 모든 객체 리스트를 표시할 수 있다. 제어부(24)는 특정 객체에서 위험 상황이 발생한 것으로 판단되면, 해당 객체가 표시된 리스트의 색상을 변경하여 표시할 수 있다. 또한, 제어부(24)는 동일 화면상에 팝업 형태로 해당 객체를 촬영한 실시간 영상 데이터가 표시되도록 제어할 수 있다.
유저 인터페이스부(26)는 발전소 감시 시스템(1)의 동작 제어를 위한 입력 데이터를 발생시킬 수 있다. 유저 인터페이스부(26)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 디스플레이 스크린(25)과 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이 스크린(25)은 출력 장치 이외에 입력 장치로도 사용될 수 있다.
유저 인터페이스부(26)는 발전소 감시 시스템(1)의 동작을 위한 다양한 명령을 입력받을 수 있다.
데이터베이스(27)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 발전소 감시 시스템(1)은 인터넷(internet) 상에서 데이터베이스(27)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.
데이터베이스(27)는 촬영 장치(10)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.
또한, 데이터베이스(27)는, 발전소 감시 시스템(1)아 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다.
또한, 데이터베이스(27)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
1: 발전소 감시 시스템
10: 촬영 장치
20: 발전소 감시 장치
21: 통신부
22: 제1처리부
23: 제2처리부
24: 제어부
25: 디스플레이 스크린
26: 유저 인터페이스부
27: 데이터베이스

Claims (18)

  1. 발전소내에 설치된 촬영 장치로부터 영상 데이터를 수집하는 통신부;
    발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 발전소 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함하는 제1처리부; 및
    상기 객체를 검출한 영상 데이터를 입력층으로 하여, 상기 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함하는 제2처리부
    를 포함하고,
    상기 제1처리부는 촬영된 영상을 입력 데이터로 딥러닝이 적용된 RPN(Region Proposal Network)을 이용하여 객체를 검출하되,
    상기 제1처리부는 사전에 객체의 위치가 파악된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 촬영된 영상으로부터 객체를 검출하고,
    상기 제2처리부는 객체가 검출된 영상을 입력 데이터로 딥러닝이 적용된 디텍션 네트워크(Detection Network)를 이용하여 위험 상태를 판단하되,
    상기 제2처리부는 사전에 사람, 전력 설비 및 통제 지역을 객체로 분류하고, 상기 사람, 전력 설비 및 통제 지역별로 위험 상태가 판별된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 입력된 영상 데이터로부터 위험 상태를 판별하는 발전소 감시 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 제2뉴럴 네트워크는 상기 객체가 사람인 경우, 상기 객체와 상기 객체의 안전보호 장치 착용여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력하는 발전소 감시 장치.
  4. 제1항에 있어서,
    상기 제2뉴럴 네트워크는 상기 객체가 전력 설비인 경우, 상기 객체와 상기 객체 및 상기 객체 주변의 화재 발생 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력하는 발전소 감시 장치.
  5. 제1항에 있어서,
    상기 제2뉴럴 네트워크는 상기 객체가 통제 지역인 경우, 상기 객체와 상기 객체로의 접근 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력하는 발전소 감시 장치.
  6. 제1항에 있어서,
    디스플레이 스크린; 및
    객체별 위험 상태를 표시하는 상기 디스플레이 스크린에 표시하도록 제어하는 제어부를 더 포함하는 발전소 감시 장치.
  7. 제6항에 있어서,
    상기 제어부는 상기 디스플레이 스크린상에 상기 발전소내에 위치한 객체 리스트를 표시하며, 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 타 객체와 구분되도록 표시하도록 제어하는 발전소 감시 장치.
  8. 제6항에 있어서,
    상기 제어부는 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 촬영한 영상 데이터가 표시되도록 상기 디스플레이 스크린을 제어하는 발전소 감시 장치.
  9. 발전소 내부에 배치되어 발전소 내부 영상을 촬영하는 촬영 장치;
    상기 촬영 장치로부터 영상 데이터를 수집하는 통신부;
    발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 발전소 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함하는 제1처리부; 및
    상기 객체를 검출한 영상 데이터를 입력층으로 하여, 상기 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함하는 제2처리부
    를 포함하고,
    상기 제1처리부는 촬영된 영상을 입력 데이터로 딥러닝이 적용된 RPN(Region Proposal Network)을 이용하여 객체를 검출하되,
    상기 제1처리부는 사전에 객체의 위치가 파악된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 촬영된 영상으로부터 객체를 검출하고,
    상기 제2처리부는 객체가 검출된 영상을 입력 데이터로 딥러닝이 적용된 디텍션 네트워크(Detection Network)를 이용하여 위험 상태를 판단하되,
    상기 제2처리부는 사전에 사람, 전력 설비 및 통제 지역을 객체로 분류하고, 상기 사람, 전력 설비 및 통제 지역별로 위험 상태가 판별된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 입력된 영상 데이터로부터 위험 상태를 판별하는 발전소 감시 시스템.
  10. 삭제
  11. 제9항에 있어서,
    상기 제2뉴럴 네트워크는 상기 객체가 사람인 경우, 상기 객체와 상기 객체의 안전보호 장치 착용여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력하는 발전소 감시 시스템.
  12. 제9항에 있어서,
    상기 제2뉴럴 네트워크는 상기 객체가 전력 설비인 경우, 상기 객체와 상기 객체 및 상기 객체 주변의 화재 발생 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력하는 발전소 감시 시스템.
  13. 제9항에 있어서,
    상기 제2뉴럴 네트워크는 상기 객체가 통제 지역인 경우, 상기 객체와 상기 객체로의 접근 여부간의 상관관계를 학습하여 위험 상태 판단 결과를 출력하는 발전소 감시 시스템.
  14. 제9항에 있어서,
    디스플레이 스크린; 및
    객체별 위험 상태를 표시하는 상기 디스플레이 스크린에 표시하도록 제어하는 제어부를 더 포함하는 발전소 감시 시스템.
  15. 제14항에 있어서,
    상기 제어부는 상기 디스플레이 스크린상에 상기 발전소내에 위치한 객체 리스트를 표시하며, 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 타 객체와 구분되도록 표시하도록 제어하는 발전소 감시 시스템.
  16. 제14항에 있어서,
    상기 제어부는 상기 제2처리부의 판단에 따라 위험 상태에 있는 객체를 촬영한 영상 데이터가 표시되도록 상기 디스플레이 스크린을 제어하는 발전소 감시 시스템.
  17. 통신부가 발전소내에 설치된 촬영 장치로부터 영상 데이터를 수집하는 단계;
    제1처리부가 제1뉴럴 네트워크를 이용하여 발전소 내부를 촬영한 영상 데이터를 입력층으로 하여, 발전소 내부 영상과 객체간의 상관관계를 학습하고, 객체를 검출한 영상 데이터가 출력층이 되도록 학습하는 단계; 및
    제2처리부가 제2뉴럴 네트워크를 이용하여 상기 객체를 검출한 영상 데이터를 입력층으로 하여, 상기 객체와 객체의 위험 상태간의 상관관계를 학습하고, 위험 상태 판단 결과가 출력층이 되도록 학습하는 단계를 포함하고,
    상기 제1처리부는 촬영된 영상을 입력 데이터로 딥러닝이 적용된 RPN(Region Proposal Network)을 이용하여 객체를 검출하되,
    상기 제1처리부는 사전에 객체의 위치가 파악된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 촬영된 영상으로부터 객체를 검출하고,
    상기 제2처리부는 객체가 검출된 영상을 입력 데이터로 딥러닝이 적용된 디텍션 네트워크(Detection Network)를 이용하여 위험 상태를 판단하되,
    상기 제2처리부는 사전에 사람, 전력 설비 및 통제 지역을 객체로 분류하고, 상기 사람, 전력 설비 및 통제 지역별로 위험 상태가 판별된 영상을 학습 데이터로 하여 딥러닝 알고리즘을 수행하고, 학습된 알고리즘을 이용하여 입력된 영상 데이터로부터 위험 상태를 판별하는 발전소 감시 방법.
  18. 제17항에 따른 발전소 감시 방법을 컴퓨터에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록매체.
KR1020200015048A 2020-02-07 2020-02-07 발전소 감시 시스템 및 방법 KR102439548B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200015048A KR102439548B1 (ko) 2020-02-07 2020-02-07 발전소 감시 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200015048A KR102439548B1 (ko) 2020-02-07 2020-02-07 발전소 감시 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20210100985A KR20210100985A (ko) 2021-08-18
KR102439548B1 true KR102439548B1 (ko) 2022-09-20

Family

ID=77464503

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200015048A KR102439548B1 (ko) 2020-02-07 2020-02-07 발전소 감시 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102439548B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325164A (ja) * 2005-05-20 2006-11-30 Sumitomo Osaka Cement Co Ltd 監視装置及びソフトウエアプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3508334B2 (ja) * 1995-10-18 2004-03-22 三菱電機株式会社 物体の検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006325164A (ja) * 2005-05-20 2006-11-30 Sumitomo Osaka Cement Co Ltd 監視装置及びソフトウエアプログラム

Also Published As

Publication number Publication date
KR20210100985A (ko) 2021-08-18

Similar Documents

Publication Publication Date Title
AU2021201574A1 (en) Security system and method
US8908034B2 (en) Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area
US10546199B2 (en) Person counting area setting method, person counting area setting program, moving line analysis system, camera device, and person counting program
US20220406065A1 (en) Tracking system capable of tracking a movement path of an object
US20160019427A1 (en) Video surveillence system for detecting firearms
EP3051810B1 (en) Surveillance
WO2006137072A2 (en) Wide area security system and method
US10187611B2 (en) Video surveillance system with aerial camera device
US11281900B2 (en) Devices, methods, and systems for occupancy detection
US11037013B2 (en) Camera and image processing method of camera
EP3051510A1 (en) Improved alarm routing in integrated security system based on security guard s real-time location information in the premises for faster alarm response
JP2018085597A (ja) 人物行動監視装置および人物行動監視システム
US20210241597A1 (en) Smart surveillance system for swimming pools
CN107122743A (zh) 安防监控方法、装置和电子设备
CN108206931A (zh) 一种遗留物监测分析系统
KR20220061312A (ko) 레일로봇장치가 구비된 딥러닝 기반의 건물 관리 시스템
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
William et al. Software reliability analysis with various metrics using ensembling machine learning approach
KR102439548B1 (ko) 발전소 감시 시스템 및 방법
KR20200009530A (ko) 이상 개체 검출 시스템 및 방법
KR101695127B1 (ko) 영상을 이용한 집단 행동 분석 방법
KR101656642B1 (ko) 영상을 이용한 집단 행동 분석 방법
JP2023109757A (ja) 監視システム、監視装置、監視方法、及びプログラム
JP2022526071A (ja) 状況認識監視
KR20210042591A (ko) 감시 카메라 시스템 및 그 동작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)