KR102616921B1 - Ai를 기반으로 하는 위험 상황 예측 방법 및 그 시스템 - Google Patents

Ai를 기반으로 하는 위험 상황 예측 방법 및 그 시스템 Download PDF

Info

Publication number
KR102616921B1
KR102616921B1 KR1020230084776A KR20230084776A KR102616921B1 KR 102616921 B1 KR102616921 B1 KR 102616921B1 KR 1020230084776 A KR1020230084776 A KR 1020230084776A KR 20230084776 A KR20230084776 A KR 20230084776A KR 102616921 B1 KR102616921 B1 KR 102616921B1
Authority
KR
South Korea
Prior art keywords
information
dangerous situation
learning model
weather
occurrence
Prior art date
Application number
KR1020230084776A
Other languages
English (en)
Inventor
한주환
최병진
명성원
Original Assignee
주식회사 베스트디지탈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 베스트디지탈 filed Critical 주식회사 베스트디지탈
Priority to JP2023199528A priority Critical patent/JP2024094253A/ja
Application granted granted Critical
Publication of KR102616921B1 publication Critical patent/KR102616921B1/ko

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

본 발명은 AI를 기반으로 하는 위험 상황 예측 방법 및 그 시스템에 관한 것이다. 본 발명의 실시예에 따르면, AI를 기반으로 하는 위험 상황 예측 시스템을 이용한 위험 상황 예측 방법에 있어서, 감시 지역에 설치된 카메라로부터 영상을 입력받는 단계; 상기 입력받은 영상으로부터 하나 이상의 객체를 인식하는 단계; 상기 인식된 객체의 이동 정보 또는 움직임 정보를 추출하는 단계; 상기 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측하는 단계; 상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 단계; 상기 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정하는 단계; 상기 제1 학습모델로부터 예측된 위험 상황 발생 확률과 상기 임계 값을 비교하여 위험 상황 발생을 판단하는 단계; 그리고 상기 예측된 위험 상황 발생 확률이 상기 임계 값 보다 높은 경우 알람 신호를 발생시키는 단계를 포함한다.

Description

AI를 기반으로 하는 위험 상황 예측 방법 및 그 시스템{METHOD FOR PREDICTING DANGEROUS SITUATION BASED ON AI AND SYSTEM THEREOF}
본 발명은 AI를 기반으로 하는 위험 상황 예측 방법 및 그 시스템에 관한 것으로, 더욱 상세하게는 주변 상황에 따라 임계 값을 결정하여 위험 상황 발생 확률을 예측하는 위험 상황 예측 방법 및 그 시스템에 관한 것이다.
범죄 사고뿐만 아니라 안전 사고가 증가함에 따라 따라 범죄 사고 및 안전 사고를 사전 예방하거나 신속한 대응을 위해서 다양한 장소에서 CCTV가 설치되고 있다.
현재, 범죄의 사전 예방과 대응에 있어서 CCTV의 활용은 위험 상황이 발생한 이후에 해당 현장을 촬영한 CCTV 영상(서버나 특정 저장 공간에 저장됨)을 검색하고 위험 상황이 발생한 구간을 확인하고 있는 것이 일반적이다.
따라서, 현재의 방식으로는 CCTV 영상을 이용하여 위험 상황의 발생을 실시간으로 파악할 수 없는 한계가 있다.
뿐만 아니라 CCTV 영상을 일정 기간 보관하기 위해 CCTV 영상 자체를 서버로 전송하기 때문에 상대적으로 높은 대역폭(Bandwidth)을 차지하며 서버 또한 높은 연산량을 필요로 한다.
또한, CCTV 영상이 서버에 그대로 저장되므로 CCTV 영상을 확인 시 개인의 신상 정보(얼굴 등) 등이 그대로 노출되어, 프라이버시가 침해되는 문제가 발생할 수 있다.
이에, CCTV의 실시간 영상을 이용하여 위험 상황의 발생을 실시간으로 파악하되, 개인 정보의 보호뿐만 아니라 데이터 전송과 저장에 있어서도 부담이 적은 새로운 방안이 요구되고 있다.
또한, CCTV가 설치된 환경에 따라 적응적으로 위험 상황 발생을 알리는 기술 방안이 필요하다.
본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제10-2490062호(2023.01.12. 공고)에 개시되어 있다.
본 발명은 영상으로부터 정보를 추출하고, 정보를 이용하여 위험 상황 발생 확률을 예측하고, 실시간으로 획득한 정보를 이용하여 위험 상황 인식 판단할 수 있는 임계값을 결정하여 위험 상황을 예측하기 위한 AI를 기반으로 하는 위험 상황 예측 방법 및 시스템을 제공하는데 목적이 있다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, AI를 기반으로 하는 위험 상황 예측 시스템을 이용한 위험 상황 예측 방법에 있어서, 감시 지역에 설치된 카메라로부터 영상을 입력받는 단계; 상기 입력받은 영상으로부터 하나 이상의 객체를 인식하는 단계; 상기 인식된 객체의 이동 정보 또는 움직임 정보를 추출하는 단계; 상기 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측하는 단계; 상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 단계; 상기 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정하는 단계; 상기 제1 학습모델로부터 예측된 위험 상황 발생 확률과 상기 임계 값을 비교하여 위험 상황 발생을 판단하는 단계; 그리고 상기 위험 상황 발생 확률이 상기 임계 값 보다 높은 경우 알람 신호를 발생시키는 단계를 포함한다.
상기 객체의 이동 정보 및 움직임 정보를 입력데이터로 설정하고, 외부인 침입, 납치, 배회, 쓰러짐, 싸움, 방화 및 익수 중에서 적어도 하나를 포함하는 위험 상황을 출력데이터로 설정하여 상기 제1 학습모델을 학습시키는 단계를 더 포함할 수 있다.
상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 단계는; 상기 영상으로부터 통행량 정보 및 검출된 객체 밀집도를 포함하는 객체 밀집도 정보를 획득하는 단계; 일출 및 일몰시간, 최저 기온 및 최고 기온의 차이, 날씨 및 풍속을 포함하는 기상 정보를 획득하는 단계; 그리고 조도 정보, 시간, 카메라의 설치 위치를 포함하는 환경 정보를 획득하는 단계를 포함할 수 있다.
삭제
상기 획득된 객체 밀집도 정보, 기상 정보 및 환경 정보를 입력데이터로 설정하고, 임계 값을 출력데이터로 설정하여 상기 제2 학습모델을 학습시키는 단계를 더 포함할 수 있다.
상기 제2 학습모델을 학습시키는 단계는, 상기 객체 밀집도가 낮을수록, 일몰 시간에 가까울수록, 기온차가 클수록, 기상상태가 악천후일수록, 풍속이 클수록, 조도가 낮을수록, 카메라의 설치위치가 주변부에 위치할수록, 밤에 가까울수록 알람신호를 발생을 위한 상기 임계 값이 낮아지도록 학습할 수 있다.
본 발명의 다른 실시예에 따르면, AI를 기반으로 하는 위험 상황 예측 시스템에 있어서, 감시 지역에 설치된 카메라로부터 영상을 입력받는 영상 획득부; 상기 입력받은 영상으로부터 하나 이상의 객체를 인식하는 객체 인식부; 상기 인식된 객체의 이동 정보 또는 움직임 정보를 추출하는 전처리부; 상기 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측하는 학습부; 상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 정보 획득부; 상기 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정하는 제어부; 상기 제1 학습모델로부터 예측된 위험 상황 발생 확률과 상기 임계 값을 비교하여 위험 상황 발생을 판단하는 판단부; 그리고 상기 위험 상황 발생 확률이 상기 임계 값 보다 높은 경우 알람 신호를 발생시키는 알람부를 포함한다.
이와 같이 본 발명에 따르면, 주변 상황에 따라 임계값이 결정되고, 위험 상황을 인식하여 알람을 제공함으로써, 알람의 오경보를 감소시킬 수 있으며, 긴급 상황에 대하여 신속하게 대응할 수 있다.
또한, CCTV 영상과 다양한 센서를 통해 수신되는 다양한 정보의 확률적 오류를 최소화하면서 사회의 다양한 업종 및 다양한 계층의 사용자들의 현재의 위험 상황 및 미래의 위험 상황을 예측하여 미리 예방함으로써 사용자의 신변 보호를 확실하게 보장할 수 있다.
도 1은 본 발명의 실시예에 따른 AI를 기반으로 하는 위험 상황 예측 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 위험 상황 예측 시스템을 이용한 AI를 기반으로 하는 위험 상황 예측 방법의 순서도이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
이하에서는 도 1을 통해 본 발명의 실시예에 따른 위험 상황 예측 시스템에 대해 살펴보도록 한다.
도 1은 본 발명의 실시예에 따른 AI를 기반으로 하는 위험 상황 예측 시스템의 구성도이다.
도 1에서 보는 바와 같이, 본 발명의 실시예에 따른 위험 상황 예측 시스템(100)은 영상 획득부(110), 객체 인식부(120), 전처리부(130), 학습부(140), 정보 획득부(150), 제어부(160), 판단부(170) 및 알람부(180)를 포함한다.
먼저 영상 획득부(110)는 감시 지역에 설치된 카메라로부터 실시간으로 영상을 입력 받을 수 있다.
이때, 영상 획득부(110)는 실시간으로 2차원의 RGB 영상을 획득할 수 있다.
그리고 객체 인식부(120)는 입력받은 영상으로부터 하나 이상의 객체를 인식한다.
객체 인식부(120)는 영상 획득부(110)를 통해 입력받은 영상에서 인물의 영역과 해당 인물이 소지하고 있는 개체의 영역을 인식하고 분리할 수 있다.
즉, 객체 인식부(120)는 인물과 개체에 대한 인식을 통해 추출되는 특징 정보의 정확도를 향상시켜 인물과 개체를 정확하게 구분할 수 있다.
그리고 전처리부(130)는 인식된 객체의 이동 정보 또는 움직임 정보를 추출한다.
전처리부(130)는 영상으로부터 객체의 이동 경로를 포함하는 객체의 이동 정보(배회, 출입 등)를 추출하고, 인물 또는 동물의 행동인식 정보(걷기, 달리기, 쓰러짐 등)를 포함하는 움직임 정보를 추출한다.
그리고 학습부(140)는 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측한다.
학습부(140)는 인식된 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측한다.
이때 제1 학습모델은 객체의 이동 정보 및 움직임 정보를 입력데이터로 설정하고, 외부인의 침입, 납치, 배회, 쓰러짐, 싸움, 방화 및 익수 중에서 적어도 하나를 포함하는 위험 상황을 출력데이터로 설정하여 학습된다.
그리고 정보 획득부(150)는 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득한다.
정보 획득부(150)는 기상청 서버, 카메라, 복수의 센서 및 사용자 단말기로부터 객체 밀집도 정보, 기상 정보 및 환경 정보를 실시간으로 획득할 수 있다.
그리고 제어부(160)는 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정한다.
즉, 제어부(160)는 실시간으로 획득된 감시 지역의 정보를 고려하여 적응되는 임계 값을 결정한다.
그리고 판단부(170)는 제1 학습모델로부터 예측된 위험 상황 발생 확률과 임계 값을 비교하여 위험 상황 발생 여부를 판단한다.
알람부(180)는 위험 상황 발생 확률이 임계 값보다 높은 경우 알람 신호를 발생시킨다.
알람부(180)는 알람 신호를 발생시켜 사용자 단말기를 통해 사용자에게 위험을 알릴 수 있다.
사용자 단말기는 PC(Personal Computer), 노트북(notebook), 스마트 폰(Smart Phone)등과 같이 네트워크 연결 가능한 단말기를 포함한다.
이하에서는 도 2를 통하여 본 발명의 실시예에 따른 AI를 기반으로 하는 위험 상황 예측 시스템을 이용한 위험 상황 예측 방법에 대하여 설명한다.
도 2는 본 발명의 실시예에 따른 AI를 기반으로 하는 위험 상황 예측 방법의 순서도이다.
먼저 도 2에서 보는 바와 같이 영상 획득부(110)는 감시 지역에 설치된 카메라로부터 영상을 입력받는다(S210).
그리고 객체 인식부(120)는 입력받은 영상으로부터 하나 이상의 객체를 인식한다(S220).
객체 인식부(120)는 딥러닝을 이용한 학습 시 의미론적 영역 분할(semantic segmentation) 및 의미론적 관심 영역 분할(semantic segmentation for Region of Interest)을 이용하여 인물 영역 및 개체 영역을 각각 분할할 수 있다.
그리고 전처리부(130)는 객체 인식부(120)로부터 인식된 객체의 이동 정보 또는 움직임 정보를 추출한다(S230).
예를 들면, 객체 인식부(120)는 등산로에 설치된 감시 카메라로부터 영상을 입력받으면 등산로 배경(나무, 돌 등)과 인물을 인식할 수 있다. 그리고 전처리부(130)는 이동 정보로는 인물의 이동 방향과 속도 정보를 추출할 수 있고, 움직임 정보(앉기, 걷기, 달리기, 넘어짐 등)를 추출할 수 있다.
그리고 학습부(140)는 전처리부(130)로부터 추출된 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측한다(S240).
그리고 정보 획득부(150)는 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득한다(S250).
정보 획득부(150)는 카메라, 복수의 센서 및 사용자 단말기 중에서 적어도 하나 이상으로부터 통행량 정보, 객체 밀집도 정보, 조도 정보, 시간, 카메라의 설치 위치(주택가, 번화가, 공원 등)를 포함하는 환경 정보를 획득할 수 있다.
정보 획득부(150)는 일출시간 및 일몰시간, 최저 기온 및 최고 기온의 차이, 날씨(맑음, 흐림, 비, 눈 등) 및 풍속을 포함하는 기상 정보를 기상청 서버로부터 획득할 수 있다.
그리고 제어부(160)는 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정한다(S260).
제어부(160)는 객체 밀집도 정보, 기상 정보 및 환경 정보를 입력데이터로 설정하고, 임계 값을 출력데이터로 설정하여 제2 학습모델을 학습시킨다.
제2 학습모델은 객체 밀집도가 낮을수록, 일몰 시간에 가까울수록, 기온차가 클수록, 기상상태가 악천후일수록, 풍속이 클수록, 조도가 낮을수록, 카메라의 설치위치가 주변부에 위치할수록, 밤에 가까울수록 알람 신호를 발생을 위한 임계 값을 낮게 결정하도록 학습된다.
그리고 판단부(170)는 위험 상황 발생 확률과 상기 임계 값을 비교하여 위험 상황 발생 여부를 판단한다(S270).
판단부(170)는 위험 상황 발생 확률이 임계 값 보다 높은 경우에는 위험 상황이 발생했다고 판단하고, 위험 상황 발생 확률이 임계 값 보다 낮은 경우에는 위험 상황이 발생하지 않았다고 판단할 수 있다.
판단부(170)에서 위험 상황이 발생하지 않았다고 판단한 경우에는 S210단계를 반복하여 위험 상황 발생 여부를 판단한다.
그리고 알람부(180)는 판단부(170)로부터 감시 지역에서 위험 상황이 발생되었다고 판단되면, 알람 신호를 발생시킨다(S280).
알람부(180)는 알람 신호를 발생시켜 사용자 단말기를 통해 사용자에게 위험 상황 발생 여부를 알릴 수 있다.
이와 같이 본 발명에 따르면, 주변 상황에 따라 임계값이 결정되고, 위험 상황을 인식하여 알람을 제공함으로써, 알람의 오경보를 감소시킬 수 있으며, 긴급 상황에 대하여 신속하게 대응할 수 있다.
또한, CCTV 영상과 다양한 센서를 통해 수신되는 다양한 정보의 확률적 오류를 최소화하면서 사회의 다양한 업종 및 다양한 계층의 사용자들의 현재의 위험 상황 및 미래의 위험 상황을 예측하여 미리 예방함으로써 사용자의 신변 보호를 확실하게 보장할 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 위험 상황 예측 시스템 110: 영상 획득부
120: 객체 인식부 130: 전처리부
140: 학습부 150: 정보 획득부
160: 제어부 170: 판단부
180: 알람부

Claims (10)

  1. AI를 기반으로 하는 위험 상황 예측 시스템을 이용한 위험 상황 예측 방법에 있어서,
    감시 지역에 설치된 카메라로부터 영상을 입력받는 단계;
    상기 입력받은 영상으로부터 하나 이상의 객체를 인식하는 단계;
    상기 인식된 객체의 이동 정보 또는 움직임 정보를 추출하는 단계;
    상기 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측하는 단계;
    상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 단계;
    상기 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정하는 단계;
    상기 제1 학습모델로부터 예측된 위험 상황 발생 확률과 상기 임계 값을 비교하여 위험 상황 발생을 판단하는 단계; 그리고
    상기 위험 상황 발생 확률이 상기 임계 값 보다 높은 경우 알람 신호를 발생시키는 단계를 포함하는 위험 상황 예측 방법.
  2. 제1항에 있어서,
    상기 객체의 이동 정보 및 움직임 정보를 입력데이터로 설정하고, 외부인 침입, 납치, 배회, 쓰러짐, 싸움, 방화 및 익수 중에서 적어도 하나를 포함하는 위험 상황을 출력데이터로 설정하여 상기 제1 학습모델을 학습시키는 단계를 더 포함하는 위험 상황 예측 방법.
  3. 제1항에 있어서,
    상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 단계는;
    상기 영상으로부터 통행량 정보 및 검출된 객체 밀집도를 포함하는 객체 밀집도 정보를 획득하는 단계;
    일출 및 일몰시간, 최저 기온 및 최고 기온의 차이, 날씨 및 풍속을 포함하는 기상 정보를 획득하는 단계; 그리고
    조도 정보, 시간, 카메라의 설치 위치를 포함하는 환경 정보를 획득하는 단계를 포함하는 위험 상황 예측 방법.
  4. 제1항에 있어서,
    상기 획득된 객체 밀집도 정보, 기상 정보 및 환경 정보를 입력데이터로 설정하고, 임계 값을 출력데이터로 설정하여 상기 제2 학습모델을 학습시키는 단계를 더 포함하는 위험 상황 예측 방법.
  5. 제4항에 있어서,
    상기 제2 학습모델을 학습시키는 단계는,
    상기 객체 밀집도가 낮을수록, 일몰 시간에 가까울수록, 기온차가 클수록, 기상상태가 악천후일수록, 풍속이 클수록, 조도가 낮을수록, 카메라의 설치위치가 주변부에 위치할수록, 밤에 가까울수록 알람신호를 발생을 위한 상기 임계 값이 낮아지도록 학습하는 위험 상황 예측 방법.
  6. AI를 기반으로 하는 위험 상황 예측 시스템에 있어서,
    감시 지역에 설치된 카메라로부터 영상을 입력받는 영상 획득부;
    상기 입력받은 영상으로부터 하나 이상의 객체를 인식하는 객체 인식부;
    상기 인식된 객체의 이동 정보 또는 움직임 정보를 추출하는 전처리부;
    상기 객체의 이동 정보 또는 움직임 정보를 기 학습된 제1 학습모델에 적용하여 위험 상황 발생 확률을 예측하는 학습부;
    상기 감시 지역에 대한 객체 밀집도 정보, 기상 정보 및 환경 정보를 획득하는 정보 획득부;
    상기 객체 밀집도 정보, 기상 정보 및 환경 정보를 기 학습된 제2 학습모델에 적용하여 임계 값을 결정하는 제어부;
    상기 제1 학습모델로부터 예측된 위험 상황 발생 확률과 상기 임계 값을 비교하여 위험 상황 발생을 판단하는 판단부; 그리고
    상기 위험 상황 발생 확률이 상기 임계 값 보다 높은 경우 알람 신호를 발생시키는 알람부를 포함하는 위험 상황 예측 시스템.
  7. 제6항에 있어서,
    상기 학습부는,
    상기 객체의 이동 정보 및 움직임 정보를 입력데이터로 설정하고, 외부인 침입, 납치, 배회, 쓰러짐, 싸움, 방화 및 익수 중에서 적어도 하나를 포함하는 위험 상황을 출력데이터로 설정하여 상기 제1 학습모델을 학습시키는 위험 상황 예측 시스템.
  8. 제6항에 있어서,
    상기 정보 획득부는,
    상기 영상으로부터 통행량 정보 및 검출된 객체 밀집도를 포함하는 객체 밀집도 정보를 획득하고,
    일출 및 일몰시간, 최저 기온 및 최고 기온의 차이, 날씨 및 풍속을 포함하는 기상 정보를 획득하고,
    조도 정보, 시간, 카메라의 설치 위치를 포함하는 환경 정보를 획득하는 위험 상황 예측 시스템.
  9. 제6항에 있어서,
    상기 제어부는,
    상기 획득된 객체 밀집도 정보, 기상 정보 및 환경 정보를 입력데이터로 설정하고, 임계 값을 출력데이터로 설정하여 상기 제2 학습모델을 학습시키는 위험 상황 예측 시스템.
  10. 제9항에 있어서,
    상기 제2 학습모델은,
    상기 객체 밀집도가 낮을수록, 일몰 시간에 가까울수록, 기온차가 클수록, 기상상태가 악천후일수록, 풍속이 클수록, 조도가 낮을수록, 카메라의 설치위치가 주변부에 위치할수록, 밤에 가까울수록 알람 신호를 발생을 위한 상기 임계 값이 낮아지도록 더 학습하는 위험 상황 예측 시스템.
KR1020230084776A 2022-12-27 2023-06-30 Ai를 기반으로 하는 위험 상황 예측 방법 및 그 시스템 KR102616921B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023199528A JP2024094253A (ja) 2022-12-27 2023-11-27 Aiを基盤とする危険状況予測方法及びそのシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220185816 2022-12-27
KR1020220185816 2022-12-27

Publications (1)

Publication Number Publication Date
KR102616921B1 true KR102616921B1 (ko) 2023-12-27

Family

ID=89377526

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230084776A KR102616921B1 (ko) 2022-12-27 2023-06-30 Ai를 기반으로 하는 위험 상황 예측 방법 및 그 시스템

Country Status (2)

Country Link
JP (1) JP2024094253A (ko)
KR (1) KR102616921B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102060567B1 (ko) * 2019-05-13 2019-12-30 호서대학교 산학협력단 심층신경망을 이용한 선박 주변 객체 인식 방법 및 시스템
KR20200103194A (ko) * 2019-02-18 2020-09-02 세종대학교산학협력단 영상 기반 비정상 상황 모니터링 방법 및 시스템
KR102292473B1 (ko) * 2020-10-15 2021-08-23 (주)아스크스토리 행동패턴 분석을 통한 사고방지 시스템 및 그 방법
KR20220040934A (ko) * 2020-09-24 2022-03-31 건양대학교산학협력단 개인정보 보호 기능을 갖는 인공지능 생활 모니터링 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200103194A (ko) * 2019-02-18 2020-09-02 세종대학교산학협력단 영상 기반 비정상 상황 모니터링 방법 및 시스템
KR102060567B1 (ko) * 2019-05-13 2019-12-30 호서대학교 산학협력단 심층신경망을 이용한 선박 주변 객체 인식 방법 및 시스템
KR20220040934A (ko) * 2020-09-24 2022-03-31 건양대학교산학협력단 개인정보 보호 기능을 갖는 인공지능 생활 모니터링 시스템
KR102292473B1 (ko) * 2020-10-15 2021-08-23 (주)아스크스토리 행동패턴 분석을 통한 사고방지 시스템 및 그 방법

Also Published As

Publication number Publication date
JP2024094253A (ja) 2024-07-09

Similar Documents

Publication Publication Date Title
US10296793B2 (en) Deep 3D attention long short-term memory for video-based action recognition
WO2020073505A1 (zh) 基于图像识别的图像处理方法、装置、设备及存储介质
US20190278976A1 (en) Security system with face recognition
KR102397837B1 (ko) 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법
Pundir et al. Deep belief network for smoke detection
KR102310192B1 (ko) 객체 인식률 및 감시 정확성을 높인 융복합 카메라 및 이를 이용한 경계 감시시스템
KR102131437B1 (ko) 적응형 영상 감시 시스템 및 방법
KR20220000226A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 시스템
KR102366544B1 (ko) 딥러닝을 활용한 영상 기반의 강수 정보 제공 시스템 및 방법
KR102233679B1 (ko) Ess 침입자 및 화재 감지 장치 및 방법
Gayathri et al. Intelligent smart home security system: A deep learning approach
KR102616921B1 (ko) Ai를 기반으로 하는 위험 상황 예측 방법 및 그 시스템
Khodadin et al. An intelligent camera surveillance system with effective notification features
KR101046819B1 (ko) 소프트웨어 휀스에 의한 침입감시방법 및 침입감시시스템
KR102421043B1 (ko) 영상처리장치 및 그 장치의 구동방법
Nazir et al. Person detection with deep learning and IOT for Smart Home Security on Amazon Cloud
Ng et al. Surveillance system with motion and face detection using histograms of oriented gradients
KR101088153B1 (ko) 콤보형 영상 감시 시스템 및 영상 감시 방법
KR102397839B1 (ko) Ai 영상 자율 센서의 영상 분석 기반 캡션 센서 장치 및 그 동작 방법
KR20230070700A (ko) 인공지능 감시카메라를 이용한 이벤트 발생 감지
KR20220000209A (ko) 딥러닝 분산 처리 기반 지능형 보안 감시 장치의 동작 프로그램이 기록된 기록매체
KR20220064213A (ko) 보안 감시 장치의 동작 프로그램
KR20220000221A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 카메라 장치
KR20220000424A (ko) 엣지 컴퓨팅 기반 지능형 보안 감시 카메라 시스템
CN111225178A (zh) 基于对象检测的视频监控方法及其系统

Legal Events

Date Code Title Description
GRNT Written decision to grant