KR20180118979A - 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치 - Google Patents
다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치 Download PDFInfo
- Publication number
- KR20180118979A KR20180118979A KR1020170052357A KR20170052357A KR20180118979A KR 20180118979 A KR20180118979 A KR 20180118979A KR 1020170052357 A KR1020170052357 A KR 1020170052357A KR 20170052357 A KR20170052357 A KR 20170052357A KR 20180118979 A KR20180118979 A KR 20180118979A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- risk
- situation
- public safety
- interest
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title abstract description 21
- 238000000034 method Methods 0.000 title description 35
- 230000004044 response Effects 0.000 claims abstract description 26
- 238000013480 data collection Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 abstract description 11
- 238000012544 monitoring process Methods 0.000 abstract description 5
- 238000004458 analytical method Methods 0.000 description 15
- 230000006399 behavior Effects 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 11
- 238000007726 management method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 238000012502 risk assessment Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000013523 data management Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 206010000117 Abnormal behaviour Diseases 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000013058 risk prediction model Methods 0.000 description 1
- 231100000279 safety data Toxicity 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Signal Processing (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- Educational Administration (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Development Economics (AREA)
- Multimedia (AREA)
- Alarm Systems (AREA)
Abstract
본 발명은 다양한 영상정보를 획득할 수 있는 공공인프라의 영상감시장비, 개인휴대단말, 각종 IoT센서 등의 이종데이터소스로부터 데이터를 수집·누적하여 로그데이터로 저장하여, 관심대상의 시간의 변화에 따른 실시간 위험 요소 추출, 위험 감지 및 예측, 그리고 이에 대한 대응 수행을 목적으로 한다. 본 발명의 한 특징에 따른 시스템은, 다양한 형태의 CCTV, 개인휴대단말, IoT센서, 기존에 구축되어 운영되는 데이터 수집플랫폼 등을 포함하는 이종데이터소스 인프라; 이종데이터소스 인프라로부터 네트워크를 통해 수신한 데이터를 기반으로 위험상황 인지 및 상황 대응을 위한 이종데이터소스로부터의 대용량 데이터 기반 공공안전 및 상황대응 플랫폼 역할을 하는 통합관제센터; 위험발생 가능성이 높은 지역의 관제 화면을 우선순위를 높게 하여 관제하기 위한 관제모니터 화면; 위험 발생시 빠른 대응을 위한 관계부처 시스템; 관심대상을 보호하기 위한 보호 관찰자 사용자 단말로 구성된다.
Description
본 발명은 공공안전 서비스 제공에 관한 것으로, 좀더 구체적으로는 집 안팎에 설치된 CCTV나 개인휴대 단말기 등으로부터 전송되는 영상, 음성, 및 데이터, 최근의 다양한 IoT 센서에서 발생하는 센서 데이터, 또는 공공기관에서 개방하고 있는 데이터 등, 이종데이터소스로부터 수집된 다중로그 데이터에 기반하여, 공공안전을 위한 개인, 사물, 그리고 장소에서 위험상황을 감지/예측하고 이에 대해 신속하게 대응할 수 있도록 하는 기술에 관한 것이다.
증가하는 범죄로부터의 불안감을 해소하고 범죄를 예방하기 위해 방범용 CCTV를 지자체는 물론 민간 개개인들까지 많이 설치하여 운영하고 있다. 경찰청이 발간한 2016년 치안전망에 따르면, 올해 방범용 CCTV는 전국에 약 3,000여개가 증설될 것이고 지능형 CCTV 개발을 위한 예산과 기술발전이 급속히 증대할 것이라 전망했다(행정자치부가 지난 2015년 5월 조사한 자료에 따르면, 지자체 CCTV는 총 12만 5608대이며 이 중 72%인 9만 411대가 방범용 CCTV이다). 또한 'CCTV 구축 가이드라인', '안전 재난 관련 국내표준', '장비 및 솔루션의 시험·인증' 등 CCTV 운영 및 관리에 관한 제도를 정착시키고 안전산업화가 빠른 속도로 진행될 것으로 전망된다. CCTV 이외에 개인휴대단말을 이용하여 현재 관심대상자의 위치 추적을 확인하기 위해서 GPS와 같은 위치 추적 기법을 이용하여 안전보호 서비스 개념이 제공되고 있다.
현재 대부분의 지능형 통합관제시스템은 사람의 행동패턴 인식, 차량번호의 자동 감지 및 추적 등 컴퓨터 비전기술을 통합관제에 활용한 수배 차량 검거나, 노약자에 발생할 수 있는 위험행동(학교 울타리 침입, 배회, 불법 주/정차)등이 CCTV에 감지되면 관제모니터에 위험 경보를 알리고, 통합관제센터에 24시간 상주하고 있는 경찰관이나 관련기관이 대응할 수 있도록 하고 있다. 하지만, 현재의 지능형 통합관제는 관심대상을 지속적으로 보호 관찰해 주기 보다는 임의 장소에서 발생한 특정 사건에 대해서 위험 발생 여부를 확인할 수 있기 때문에 적극적인 위험 대응과는 거리가 있다.
현재 공공안전을 위한 대표적인 기술로 지능형 영상 분석 시스템이 있다. 이는 영상 데이터 분석을 통해 상황 인지 역량을 강화하고 교통, 방범 등 각 분야별 사고에 신속하게 대응하는 것은 물론 위험 상황에 선제적으로 대응하여 사고를 예방할 것을 목적으로 한다. 즉, 사람의 개입을 최소화 하도록 CCTV 등을 통해 들어오는 영상을 사람이 모니터링하는 것이 아니라 시스템이 자동으로 이상 상황의 발생을 판단할 수 있도록 하는 것이다. 예를 들어, CCTV 영상을 통해 감지된 것을 이해하는 능력, 영상 속 객체의 움직이는 행위의 의미와 연속적으로 움직이는 객체 추적, 그리고 동일한 장소에서 영상의 변화에 따른 위험 발생 여부 파악 등이 해당될 수 있다.
하지만 국내의 경우 지능형 영상 분석 시스템의 대부분이 아직은 초기 단계에 있으며, 정확한 위험 감지가 어려워 오보 발생률이 높아 실제 업무에서 활용률은 아주 낮은 실정이다. 즉, 부정확한 시스템에 대한 낮은 신뢰도로 인해 인력의 개입을 배제하지 못하는 상황이 발생하고 있다.
이러한 현재 지능형 CCTV의 한계를 극복하고 연속적으로 관심대상을 따라다니며 위험 상황을 단순히 모니터링 하는 것을 넘어, 대용량 데이터를 효과적으로 관리하여 지능정보 기반의 사전 위험 감지 및 대응 개념의 고차원적 공공안전 보호 서비스 제공이 필요하다.
본 발명은 다양한 영상정보를 획득할 수 있는 공공인프라의 영상감시장비, 개인휴대단말, 각종 IoT센서 등의 이종데이터소스로부터 데이터를 수집·누적하여 로그데이터로 저장하여, 관심대상의 시간의 변화에 따른 실시간 위험 요소 추출, 위험 감지 및 예측, 그리고 이에 대한 대응 수행을 목적으로 한다. 이를 위해 본 발명은 위험 감지에 따라 관심대상을 위험으로부터 보호하기 위해서 고속으로 위험상황에 대응하기 위해 위험 종류별 대응 시나리오를 제공하고 위험종류, 위험도를 고려하여 실시간 대응 처리 및 지능적 관제를 통해 공공안전을 제공하기 위한 방법 및 장치를 제공한다.
상기 목적을 달성하기 위해서, 본 발명은 이종데이터소스로부터 다양한 데이터를 수집, 기록하여 누적 기록된 로그데이터를 기반으로 위험 평가 모델에 따라 분류, 저장하고 위험을 관리하기 위한 메타데이터 구조를 정의한다.
또한, 위험감지 및 예측을 위한 분석의 정확성을 보장하기 위하여 수집된 데이터에 대하여 각종 노이즈를 제거하고, 의미 없는 데이터를 제거하는 과정을 통해 데이터 저장기간을 증가시킴에 따라 관제인프라 투자비용을 절감시키고, 관심대상의 시간의 변화 및 이동에 따른 위험 상황을 이해하기 위한 딥러닝 기반 분석, 그리고 다양한 데이터에서 연관정보를 획득하기 위한 특징 및 의미 기반 검색, 공공인프라 및 개인휴대단말 등을 이용하여 선제적으로 관심대상을 위험으로부터 보호할 수 있는 기술을 제시한다.
본 발명은 공공안전을 위한 관심대상에 대한 정보 수집 매체를 CCTV 이외에, 개인휴대단말, 공공 개방형 데이터를 제공하는 시스템으로 확장하여 공공장소에 설치된 CCTV 영상, 개인 휴대단말에서 전송할 수 있는 영상, 음성, 데이터(GPS신호, 비콘신호, 기지국과의 통신 신호 및 사용자가 입력하는 데이터 등) 및 공공안전을 위한 개방된 공공 데이터(사고, 공사, 도로상황 정보 등 안전정보)를 대상으로 한다. 이러한 다양한 이종데이터를 입력 소스로 활용하여 관심대상이 장소를 변경하여 움직임에 따라 예전에 발생한 위험과 현재 벌어지고 있는 상황을 종합적으로 분석하여 관심대상에게 통보해 줄 수 있도록 한다.
본 발명의 한 특징에 따른 시스템은, 다양한 형태의 CCTV, 개인휴대단말, IoT센서, 기존에 구축되어 운영되는 데이터 수집플랫폼 등을 포함하는 이종데이터소스 인프라; 이종데이터소스 인프라로부터 네트워크를 통해 수신한 데이터를 기반으로 위험상황 인지 및 상황 대응을 위한 이종데이터소스로부터의 대용량 데이터 기반 공공안전 및 상황대응 플랫폼 역할을 하는 통합관제센터; 위험발생 가능성이 높은 지역의 관제 화면을 우선순위를 높게 하여 관제하기 위한 관제모니터 화면; 위험 발생시 빠른 대응을 위한 관계부처 시스템; 관심대상을 보호하기 위한 보호 관찰자 사용자 단말로 구성된다.
본 발명의 다른 특징에 따른 통합관제센터는 상기 시스템에 포함된 이종데이터소스의 대용량 데이터 기반 공공안전 및 상황대응 플랫폼 기능을 수행하는 것으로서, 이종데이터소스 인프라로부터의 데이터를 실시간 수집하는 수단; 수집되는 데이터가 영상인 경우, 관심대상만을 고유하게 그리고 관심대상을 정확히 식별하기 위해 영상 저조도, 안개 제거, 빛에 의한 굴절 또는 역광에 대한 왜곡의 처리를 수행하여 인식률을 높이는 과정을 수행하고, 수집되는 데이터가 텍스트나 오디오인 경우, 불필요한 데이터를 제거하는 과정을 거쳐 대용량 데이터분석을 수행하는 정제/전처리 및 분류 수단; 이렇게 수집되는 데이터로, 데이터가 사람인 경우에는 식별에 의한 범죄자 추출, 위험 행동이 포착된 경우에는 싸움, 배회, 또는 군집 내 이상행동 패턴 등의 위험 행동을 추출하는 등, 위험 행동 메타데이터를 구축하는 수단, 또는, 수집되는 데이터가 자동차 또는 자전거와 같이 움직이는 사물인 경우에는 차량번호 식별, 이상행동 패턴 변화(예: 역주행, 고속 질주, 규정선 위반 등) 등을 추출하여 위험 행동 메타데이터를 객체의 특징, 시간, 장소 등에 따라 구축하는 수단; 이렇게 통합 구축된 메타데이터를 장소별 위험 분류 또는 앞으로의 위험 발생 가능성 등으로 시각화하여 제공하는 수단을 포함한다.
데이터소스 인프라로부터 수집되는 다양한 정보는, 단일 데이터를 통해 위험을 분석하기 어려운 경우에는 데이터 융합을 통하여 또는 딥러닝 기반의 멀티모달(multi-modal) 데이터 위험 분석을 통하여 위험 감지 및 예측의 정확도를 높일 수 있다.
본 발명의 또다른 특징에 따르면, 이종데이터소스의 데이터를 수집, 분류, 관심대상 고유 식별, 위험 감지하는 일련의 방법이 제공된다. 이 방법은, 이종데이터소스로부터 영상, 음성, 센서 데이터, 공공 데이터 등의 데이터를 수집하는 절차; 수집된 데이터소스를 통해 관심대상(객체)별 장소의 이동 및 시간의 변화에 따라 발생한 데이터를 추출하는 절차; 수집된 영상, 음성, 또는 센싱 데이터와 공공 데이터 등으로부터 위험 여부를 감지하는 절차; 위험감지 결과를 위험운영 DB에 위험 감지결과로 기록하여, 추후 해당장소에서 발생할 수 있는 위험을 예측하기 위한 분석용 데이터로 활용하는 절차; 위험 감지 과정에서 수행된 영상, 음성, 및 데이터에 대해 각각 추출된 메타데이터를 위험운영 DB에 저장하여 특징에 기반한 빠른 의미검색, 데이터 공유를 위한 교환 모델 제공, 및 위험 예측을 위한 데이터 분류항목 등의 지표로서 활용될 수 있도록 하는 절차를 포함한다.
이상 소개한 본 발명의 구성 및 작용은 이후에 도면을 통해 설명하는 구체적인 실시 사례를 통해 더욱 명확해질 것이다.
본 발명은 종래의 지능형 영상감시 기술의 높은 오탐률, 통합관제센터와의 호환성 부족 등의 문제점을 해결하기 위해 다양한 수집 데이터를 통합하고 메타데이터를 구축하여 위험정보를 용이하게 관리하며, 정확한 위험감지, 위험 예방, 그리고 상황대응을 위한 방법 및 장치로서, 위험이 발생한 경우에 한해 위험 상황을 판단하기 위해 사용된 기존 통계·확률적 기계학습법이 아닌, 이종데이터소스로부터 수집·누적된 다중로그를 활용하여 딥러닝에 기반하여 위험이 발생할 수 있는 상황을 예측할 수 있는 기술 확보가 가능하고, 이종데이터소스로부터 수집·누적된 다중로그의 메타데이터 구축을 통해 정보의 공유가 용이하고, 정확한 위험 감지·예측에 따른 신속한 대응 기술 확보가 가능한 장점이 있다.
본 발명에 따르면 하드웨어의 성능이 좋지 않은 저사양의 CCTV에서부터 최신 첨단 기술이 탑재된 지능형 CCTV에 이르기까지 동작 기능에 따라 PTZ 형태, 스피드돔 형태의 다양한 영상정보를 획득할 수 있는 공공인프라자원 뿐 아니라, 개인휴대단말을 이용해서 발생하는 영상, 음성, 및 데이터 정보를 소스 데이터로 활용하고, 이러한 데이터 속에서 유의미한 데이터를 추출하여 관심대상자의 이동경로에 따른 실시간 위험 요소를 인지하고 위험 발생 전 또는 후에 사용자(위험 상황을 직면한 자 또는 그를 모니터링 하고 싶은 보호자)에게 위험 가능성 및 상황대응을 위한 방법을 신속하게 알려줄 수 있도록 한다. 또한, 위험을 지능적으로 관제할 수 있도록 위험종류, 위험도를 고려하여 관제센터의 운용 요원에 의해서가 아니라 시스템이 자동으로 관제 모니터의 채널을 재배치할 수 있게 한다.
도 1: 이종데이터소스로부터 수집된 다중로그기반 위험 감지 및 상황대응 플랫폼 구조도
도 2: 이종데이터소스의 데이터 수집, 분류 및 관심대상 고유 식별 및 위험 감지 처리의 흐름도
도 3: 위험도에 따른 대용량 데이터의 선택적 유지 개념도
도 4: 로그데이터 관리 구조 설계안 - 위험관리를 위한 관심대상 고유번호별 로그 데이터 관리 구조도
도 5: 위험상황 메타데이터 구축을 위한 데이터 스키마 구조도
도 6: 데이터융합분석을 통한 딥러닝 기반 위험 예측을 위한 처리 과정 흐름도
도 7: 도 6에서 딥러닝을 어떻게 진행하는지에 대한 설명을 위한 시스템 구성도
도 2: 이종데이터소스의 데이터 수집, 분류 및 관심대상 고유 식별 및 위험 감지 처리의 흐름도
도 3: 위험도에 따른 대용량 데이터의 선택적 유지 개념도
도 4: 로그데이터 관리 구조 설계안 - 위험관리를 위한 관심대상 고유번호별 로그 데이터 관리 구조도
도 5: 위험상황 메타데이터 구축을 위한 데이터 스키마 구조도
도 6: 데이터융합분석을 통한 딥러닝 기반 위험 예측을 위한 처리 과정 흐름도
도 7: 도 6에서 딥러닝을 어떻게 진행하는지에 대한 설명을 위한 시스템 구성도
본 발명을 실시하기 위한 구체적인 실시예의 시스템 구성은 도 1과 같이, 다양한 형태의 CCTV, 개인휴대단말, IoT센서, 기타 기존 구축되어 운영되는 데이터 수집플랫폼 등을 포함하는 이종데이터소스 인프라(101); 이종데이터소스 인프라(101)로부터 네트워크(106)를 통해 수신한 데이터를 기반으로 위험상황 인지 및 상황 대응을 위한 이종데이터소스로부터의 대용량 데이터 기반 공공안전 및 상황대응 플랫폼 역할을 하는 통합관제센터(102); 위험발생 가능성이 높은 지역의 관제 화면을 우선순위를 높게 하여 관제하기 위한 관제모니터 화면(103); 위험 발생시 빠른 대응을 위한 관계부처 시스템(104); 관심대상을 보호하기 위한 보호 관찰자 사용자 단말(105)로 구성된다.
이종데이터소스 인프라(101)의 저사양 CCTV에는 해상도가 낮고 자동 위험 요소 감지 기능이 탑재되어 있지 않은 CCTV, 고급 사양으로 분류된 위험을 감지하여 영상 및 분석결과 정보를 전송할 수 있는 CCTV, 단순히 영상을 취득하여 네트워크로 전송하는 IP기반 CCTV 등이 포함된다. 또한, CCTV뿐만 아니라 센서 및 네트워크 기능이 탑재된 스마트디바이스로부터 획득한 영상, 음성, 또는 데이터도 이종데이터소스 인프라(101)의 영역에 포함된다. 따라서, 스마트디바이스를 이용함에 따라 GPS, 비콘 신호 등과 같은 위치기반 정보와 CCTV를 연계하여 더 정밀하게 관심대상을 식별하고 관심대상의 움직임에 따라 이동 정보에 따른 영상, 음성, 데이터를 일관적으로 유지할 수 있다.
한편, 도 1의 시스템에서 이종데이터소스의 대용량 데이터 기반 공공안전 및 상황대응 플랫폼 역할을 하는 통합관제센터(102)에 대해서 구체적으로 설명하면, 먼저, 이종데이터소스 인프라(101)로부터의 데이터가 실시간 수집(102-1)되고, 수집되는 데이터가 영상인 경우, 관심대상만을 고유하게 그리고 관심대상을 정확히 식별하기 위해 영상 저조도, 안개 제거, 빛에 의한 굴절 또는 역광에 대한 왜곡의 처리를 수행하여 인식률을 높이는 과정을 수행하고, 수집되는 데이터가 텍스트나 오디오인 경우, 불필요한 데이터를 제거하는 과정을 거쳐 대용량 데이터분석을 위한 정제/전처리 및 분류 과정을 거친다(102-2). 수집되는 데이터는 수집 데이터 DB에 저장된다(102-4).
이렇게 수집되는 데이터로 위험 행동 메타데이터를 구축하는데, 사람인 경우에는 식별에 의한 범죄자 추출, 위험 행동이 포착된 경우에는 싸움, 배회, 또는 군집 내 이상행동 패턴 등의 위험 행동을 추출하는 등, 위험 행동 메타데이터를 구축하게 된다(102-6). 만약 수집되는 데이터가 자동차 또는 자전거와 같이 움직이는 사물인 경우에는 차량번호 식별, 이상행동 패턴 변화(예: 역주행, 고속 질주, 규정선 위반 등) 등을 추출하여 위험 행동 메타데이터를 객체의 특징, 시간, 장소 등에 따라 구축한다. 이외에, 이종데이터소스 인프라(101)로부터 수집된, 지능형 CCTV에서 감지한 위험의 경우에 영상과 함께 전송되는 메타데이터, 표준 IoT/클라우드 시스템으로부터 수집되는 데이터에 대한 메타데이터, 개인 스마트디바이스로부터 수집되는 데이터에 대한 메타데이터를 통합 메타데이터로 활용하면(102-5), 메타데이터를 활용한 빠른 특징기반 검색, 메타데이터 기반의 데이터 교환 모델 정의를 통한 데이터 공유의 용이성, 정확한 위험 분석 및 예측을 위한 분석데이터 활용의 용이성을 얻을 수 있다.
이렇게 통합 구축된 메타데이터는 장소별 위험 분류 또는 앞으로의 위험 발생 가능성 등으로 시각화되어 제공된다(102-3).
데이터소스 인프라로부터 수집되는 다양한 정보는, 단일 데이터를 통해 위험을 분석하기 어려운 경우에는 데이터 융합을 통하여 또는 딥러닝 기반의 멀티모달(multi-modal) 데이터 위험 분석을 통하여 위험 감지 및 예측의 정확도를 높인다(102-5, 102-11).
관심객체에 따른 위험 분석 결과에 따라 현재 어떤 장소의 위험도가 가장 높은지 판단할 수 있으며, 그 결과 원격으로 공공인프라(영상감시장비, 스피커, IoT센서 등)를 제어하거나, 개인휴대단말에 설치된 응용프로그램과 통신하여 실시간 상황 대응을 지원할 수 있다.
한편, 실시간 상황대응은 위험 종류에 따라 사전 정의된 시나리오(위험 대응 시나리오 DB에 저장됨(102-8))와 함께 실시간으로 관제모니터화면(103), 관계부처 시스템(104), 및/또는 사용자 단말(105)로 시스템에 의해 자동 선택되어 전송된다(102-12).
또한, 딥러닝 기반 멀티모달 데이터 위험 분석(102-11)의 결과에 의한 위험도에 따라 관제모니터화면(103)은 시스템에 의해 자동으로 배치된다(102-10). 따라서 관제 요원이 놓칠 수 있는 위험 사각지대를 제거할 수 있다. '102-11' 블록에서, 이종데이터소스로부터 수집된 대용량의 데이터로그로부터 특징 추출(Feature extraction) 과정을 통해 생성되는 특징벡터는 위험 분류, 요약, 검색 또는 분석을 위한 정보로 사용되며, 특징의 중요성을 나타내는 위험 발생 위치, 발생한 횟수 등에 기반하여 대용량 데이터에서 불필요한 데이터는 제거하고, 저장기간을 증가시킬 필요가 있는 데이터는 생명 주기를 늘릴 수 있는 기능을 제공한다.
위험 예측을 위한 방안으로는 '사례기반 추론'과 같이 어떤 새로운 문제의 해결책을 찾아야 할 때 과거 사례들을 기반으로 해결하는 방법, 위험종류별로 연관규칙을 생성한 후 연관성 분석을 통한 방법 등이 이용되며, 이를 위해 위험운영 DB(102-9)를 통해 위험 발생 가능성을 추정하기 위해 수집된 데이터를 일정한 기준에 따라 분류할 수 있는 메타데이터 기반의 동적으로 확장이 용이한 위험정보 분류 체계가 필요하다.
본 발명에서 제공하는 위험 감지 및 상황대응 플랫폼의 기능에 대해서 보다 더 자세히 설명하면 다음과 같다. 각각의 기능에 대한 세부 동작을 도 2 ~ 도 6에 나타내었다.
도 2는 이종데이터소스의 데이터를 수집, 분류, 관심대상 고유 식별, 위험 감지하는 일련의 과정을 순서도로 표현한 것이다.
이종데이터소스로부터 영상, 음성, 센서 데이터, 공공 데이터 등의 데이터를 수집하는 단계(201)는 다양한 영상감시장비, 개인휴대단말, 웨어러블 장비를 포함한 IoT 센서로부터의 데이터 및 그 밖의 공공데이터 등을 수집하며, 이미 구축되어 운영중인 표준을 준용하는 ICBM(IoT/Cloud/BigData/Mobile) 플랫폼의 데이터도 수집 대상에 포함된다.
수집된 데이터소스를 통해 관심대상(객체)별 장소의 이동 및 시간의 변화에 따라 발생한 데이터를 추출하게 된다(202). 즉, 영상과 개인 식별 센싱정보를 통한 관심대상의 고유번호를 추출한다. 영상감시장비를 통해서 관심대상을 실외에서 정확하게 식별하기 어려운 경우, 관심대상이 전송하는 위치기반 센싱 정보(GPS, 비콘 등)를 통해 영상감시장비와 연계하여 관심대상을 더 정확하게 식별하게 된다.
수집된 영상, 음성, 또는 센싱 데이터와 공공 데이터 등으로부터 위험 여부를 감지한다(203, 204, 205). 이를 위해서는 통계/확률 기반의 머신러닝 또는 관련 시스템이 스스로 학습하여 위험 감지율을 향상시킬 수 있는 딥러닝 등 기반의 분석 기법을 이용할 수 있다. 또한, 위치기반 센싱 데이터가 수집되기 때문에, 이 위치정보를 기반으로 과거에 발생했던 위험사건을 참고하여 현재 상황과의 연관성을 통해 특징 융합에 기반하여 위험 여부를 알 수 있다(206).
이러한 위험감지 결과는 위험운영 DB(도 1의 102-9)에 위험 감지결과로 기록되어(207), 추후 해당장소에서 발생할 수 있는 위험을 예측하기 위한 분석용 데이터로 활용된다.
또한, 위험 감지 과정에서 수행된 영상, 음성, 및 데이터에 대해 각각 추출된 메타데이터를 위험운영 DB(102-9)에 저장(208)하여 특징에 기반한 빠른 의미검색, 데이터 공유를 위한 교환 모델 제공, 및 위험 예측을 위한 데이터 분류항목 등의 지표로서 활용될 수 있도록 한다.
대용량의 데이터를 수집하여 저장하면서 발생하는 데이터 관리 문제를 해결하기 위한 방법으로 도 3과 같은 방법을 제시한다. 도 3은 위험도에 따른 대용량 데이터의 선택적 유지 개념을 설명하기 위한 것이다. 일반적으로 수집되는 대용량의 영상 데이터가 모두 지능형 CCTV를 대상으로 하고 있는 것은 아니기 때문에, 단순 모니터링용 CCTV로부터 수신되는 데이터의 관리는 더욱 중요해진다.
도 3의 (a)에 나타낸 것과 같이, 수신되는 영상 데이터(301)는 위험이벤트가 감지된 컷(프레임)과 위험이벤트가 없는 컷이 혼합된 여러 프레임을 통해 영상을 표현하는데, 이 중에서 위험 요소가 아닌 단순하게 수집되는 데이터는 장기간 관리할 필요가 없을 수 있다(여기서 '장면(scene)'은 하나의 이벤트(사건)가 마무리되는 논리적인 단위를 의미하고 '샷'은 카메라의 편집 단위를 의미함). 도 3의 (b)에 나타낸 것과 같이 위험이벤트가 감지된 컷에서 식별된 관심객체(관심대상) A, B의 위치 및 그에 대한 IoT기기를 통한 센싱 데이터(302)로부터 얻은 (c)(d)와 같은 객체 A의 위험 분석을 위한 음원 데이터(303)와 객체 B의 위험 분석을 위한 음원 데이터(304)에서 위험이벤트가 감지된 음원과 위험이벤트가 없는 음원을 구별해낸다.
이러한 방식으로 관심대상(객체)을 식별하고 해당 관심대상의 영상정보 중 위험요소가 없는 단순 모니터링 영상 또는 묵음으로 기록된 음성 데이터 등을 선별적으로 제거하여 관심대상의 객체 ID와 매칭하여 정보를 관리하게 되는 것이다.
도 3에 나타낸 개념의 이해를 위하여 간략한 배경 지식을 설명한다. CCTV로 수신되는 영상 데이터를 구성하는 프레임 내의 객체를 인식하거나 이벤트를 감지하기 위해서는 특징(feature)을 추출해야 한다. 이렇게 영상 프레임 내 관심객체나 특정 이벤트를 추출하기 위해 과거에는 특징 추출 알고리즘(예: SIFT, HOG, Harris 등)을 이용하여 영상으로부터 추출된 값이 의미를 갖는지(예: 사람의 얼굴인지, 담벼락을 넘어가는 행위인지 등) 계산하는 특징 추출 과정을 거쳤다. 정확한 특징을 추출하기 위해서 많은 CPU 연산처리가 필요하고 그에 따라 처리시간도 오래 걸렸지만, 최근에는 딥러닝 기술이 대중화되면서, 많은 영상파일 DB를 사전에 준비해 두고 이를 컴퓨터를 통해 사전 학습시킴에 따라(참고: "고양이 사진은 '고양이'로 분류되어야 하고, 강아지 사진은 '강아지'로 분류되어야 한다"라는 규칙하에 컴퓨터가 여러 번의 특징점 추출 과정을 통해 파일을 자동 분류해 나가는 과정이 '학습'임) 임의의 자료가 입력되었을 때 사전 학습된 알고리즘을 토대로 자동으로 분류해 나가는 과정을 거치게 된다. 본 발명과 관련하여 좀 더 구체적으로 말하면, 플랫폼이 자동차 접촉사고를 '위험'으로 인식하는 경우라면, 먼저 자동차가 부딪혀 찌그러진 영상과 그렇지 않은 영상을 각각 수천장(가능한한 많이) 준비하고, 각각의 영상 파일에 대해서 자동차가 부딪힌 영상에 대해서는 "위험", 그렇지 않은 영상은 "비위험"으로 구분해 둔다. 이후, 이러한 사전 준비된 파일들을 이용하여 특징 추출(딥러닝 개발 프로그램은 특징을 자동 추출해주는 라이브러리를 제공해 줌)에 대해 여러 단계의 과정을 반복 수행함으로써, 자동차가 부딪힌 영상의 특징은 예를 들어 "AAABBBCCC"를 갖고 있고 그렇지 않은 영상의 특징은 "XXXOOOYYY"를 갖는다는 것을 컴퓨터가 인식할 수 있는 알고리즘('지능')을 갖게 된다. 따라서, 학습 과정 이후 플랫폼에 수신되는 영상의 기계학습을 통해 획득된 특징이 "AAABBBCCC" 형태(또는 이와 유사한 "AAABBBCCOO")를 갖게 되면, "위험" 영상으로 판단하게 된다.
이러한 원리를 적용한 본 발명에서의 영상 데이터로부터의 위험 분석을 위해서, 도 3의 CCTV로부터 플랫폼에 수신되는 영상(301) 내 프레임 속의 객체 A, 객체 B가 위험 영상(예: A와 B가 각각 차량이고 서로 부딪힌 장면)인지 분석하기 전에 플랫폼(102)에 수신되는 영상(301)과 유사한 다양한 영상을 수집하여 사전 학습하는 과정이 필요하다. 즉, 위험영상 DB를 구축하고 이를 기계학습 기반 위험영상 DB에 대한 특징을 사전 학습시킴으로써, 이후 실시간으로 입력되는 다양한 CCTV 영상이 위험한 특징을 갖고 있는 영상인지 확인함으로써 위험 여부를 판단할 수 있다.
본 발명의 CCTV를 통해 획득되는 영상 속 프레임(301)에 포함된 관심대상 A, B는 사전에 플랫폼에서 기계학습에 따라 학습시킨 결과에 따라 고유하게 A, B를 인식하게 된다. 각 관심대상 A, B는 개인휴대단말 등을 통해 현재 존재하는 곳의 위치정보(예: GPS, 비콘신호 등)를 플랫폼으로 전송하며, 플랫폼은 현재 관심대상 A, B의 현재 위치가 과거에 범죄, 사고 등이 발생한 곳인지 또는 현재의 위험한 상황인지 여부를 확인하게 된다. 과거에 범죄, 사고 등이 발생한 곳인지 확인하기 위해서는 국민안전처에서 공개하고 있는 생활안전 공공데이터 또는 경찰청 시스템과 연계하여 활용할 수 있는 지리/통계정보를 이용할 수 있으며, 현재 위험한 상황인지 여부를 확인하기 위해서는 지방자치단체에서 제공하는 실시간 지역정보를 이용할 수 있다. 즉, 관심대상 A가 현재 위치하는 곳은 과거 범죄자가 자주 출몰하는 장소이며, 관심대상 A의 인근에 위치한 또 다른 관심대상 B는 관심대상 A의 주변을 계속 배회 또는 미행하는 행동 패턴을 보인다고 할 때, 플랫폼, 즉, 통합관제센터(102)는 위험 장소에서 관심대상 A가 '미행' 또는 '배회'와 관련된 위험이벤트에 관련되어 있고, 그 시점에 관심대상 A가 발생하는 사운드(303)가 위험과 관련된 특징이 포함된 사운드(예: 비명소리, 싸움소리 등)로 취득된 경우, 관심대상은 '위험 상황에 직면'한 것으로 판단하고 이에 대한 상황 대응을 위해 경찰청, 관심대상의 보호자 등에게 즉시 해당 상황을 알리게 된다. 전술한 위험과 관련된 특징이 포함된 사운드(음원)가 발생했음을 통합관제센터(102)에서 판단하기 위해서는, 통합관제센터(102)가 사전에 위험이라고 판단할 수 있는 특징(예: 비명, 폭력, 차량충돌, 욕설, 군중 집회 등)이 포함된 음원 데이터 DB를 구축하고, 위험과 관련된 특징이 포함된 음원파일별로 '비명', '폭력', '차량충돌', '욕설', '군중집회'가 판단된 경우에 각 경우를 '위험' 범주로 분류할 수 있는 인식 알고리즘을 보유하고 있어야 한다.
이상에서와 같이 관리되는 데이터에 대한 메타데이터는 지속적으로 위험을 관리하기 위한 데이터로 활용된다.
한편, 실생활에서의 위험 뿐만 아니라 미래에 발생할 수 있는 새로운 유형의 위험도 수용하여 관리하는 것이 바람직하다. 이를 위해 도 4와 같이 위험관리를 위한 관심대상의 고유번호별 로그데이터 관리 구조를 설계한다.
도 4의 로그데이터 관리 구조 설계안에 따르면 관심대상을 식별하고 위험을 추출한 결과 객체별 상세정보(대상분류, 시간, 위치, 위험종류, 위험도 등)가 생성된다(401). 이 상세정보의 항목들 중 위험종류 또는 위험도에 대해서 위험정보를 관리할 수 있도록 한다(402). 객체별 상세정보(401)에서, 관심객체가 어떤 위치(위치주소)에, 어떤 위험종류를, 언제(어느 시간에) 직면하고 있는지 확인할 수 있다. 객체별 상세정보(401)의 정보는 위험감지 처리 이후 생성된 정보로, 관심대상과 연관된 또 다른 객체의 연관정보를 획득할 수 있으며, 관련된 정보가 플랫폼의 어느 저장위치에 기록(연관정보)되어 있는지 확인할 수 있다.
여기서 관심객체가 직면한 위험 종류는 기계학습을 통해 플랫폼이 이미 학습한 위험의 종류이며(402), 위험종류별로 상황에 대응하기 위한 시나리오가 연관되어 있어(403), 특정 위험에 직면한 관심객체에게 신속하게 위험에 대응할 수 있는 시나리오를 제공하고, 처리 여부를 관리한다.
본 발명에서의 위험상황 관리, 관심객체별 특징기반 검색, 위험정보 공유를 위한 메타데이터 구조는 도 5와 같다. 도 5는 위험상황 메타데이터 구축을 위한 데이터 스키마 구조도의 예시도이다. 메타데이터를 구축하기 위한 데이터 스키마는 XML DTD 이외에, XML 스키마나 그 밖에 다른 방법에 의해 표현할 수 있으며, 본 발명에서와 같이 관심객체별 수집된 영상, 음성, 및 센싱데이터의 분석 결과에 따른 특징을 표현하기 위한 엘리먼트(element)를 정의한다.
관심객체 고유번호별로 도 5와 같이 수집 및 분석된 영상 데이터에 대해서는 날짜, 시간, 수집위치, 수집된 CCTV의 사용용도, 분석 결과에 따른 영상의 위험등급, 영상 재생 포맷, 위험등급에 따른 영상의 저장기간, 관련된 객체 수 등이 메타데이터 엘리먼트로 생성되고 해당 정보가 관리된다(501).
수집 분석된 데이터가 영상인 경우(502), 날짜, 시간, 수집위치, 사용용도, 위험등급, 재생포맷, 저장위치, 저장기간, 객체 수를 메타데이터 엘리먼트로 생성하고 해당 정보를 관리한다.
수집 분석된 데이터가 음성인 경우(503), 저장된 음성파일에서 재생시작시간 및 종료시간을 명시하고, 위험등급, 음성파일의 재생 포맷, 저장위치, 위험 등급에 따른 저장기간, 음성의 내용요약, 관심대상과 관련된 객체의 수를 메타데이터 엘리먼트로 생성하고 해당 정보를 관리한다.
또한, 수집 분석된 데이터가 관심객체의 센서 데이터인 경우(504), 수집위치, 수집시간, 센서 종류, 위험등급, 재생 포맷, 저장위치, 저장기간, 및 내용요약에 대해 메타데이터 엘리먼트를 생성하고 해당 정보를 관리한다.
이와 같이 수집 및 분석되어 구축된 메타데이터는 플랫폼에서 관리하는 도 4의 관심대상별 로그데이터 정보와 유기적으로 연관되어 관리되고, 위험정보가 추가 생성될 때마다 관심대상자가 위험에 대응하기 위한 종류가 증가하기 때문에 위험을 선제적으로 대응하기 용이하다. 또한, 도 4 및 도 5와 같이 구축된 로그데이터 정보를 기반으로 누적된 데이터의 정상/비정상 패턴을 쉽게 구별할 수 있어서, 미래에 발생하는 위험상황을 누적된 로그 패턴과의 비교, 관심대상의 위치 기반 공공데이터를 참고하여 과거에 발생한 범죄, 사고 등과 관련하여 예측함으로써 위험에 선제적으로 대응할 수 있게 된다.
도 5의 위험상황 메타데이터 구축을 위한 데이터 스키마는 관심대상별 수집된 위험정보를 토대로 위험 상황을 표현하기 위한 최소한의 메타데이터를 구축하기 위한 엘리먼트 정의로서, 향후에 좀더 위험상황을 자세하게 표현하기 위해 필요한 메타데이터 엘리먼트에 대해서는 추가 확장을 용이하게 할 수 있다.
전술한 도 5의 위험상황 메타데이터 구축을 위한 데이터 스키마는 관심객체별 고유번호를 할당하고, 특정 시간 및 장소에서 발생한 사건에 대해 기록된 영상감시장비를 통한 영상이나, 센서를 통한 음성이나 데이터에 대하여 '위험 DB'의 엘리먼트를 정의하고, 각각(영상, 음성, 데이터)에 대한 하위 엘리먼트를 정의하고 시간, 위치, 위험등급, 세부 정보 등을 기술함으로써 특징기반 검색, 데이터 교환을 통한 위험정보 공유, 분석을 위한 정보 분류 기능을 제공함으로써 위험정보 관리에 효과적이며, 위험 발생시 빠른 상황 대응이 가능해진다.
또한, 본 발명은 이종데이터소스로부터 수집/누적된 정보를 관심객체별로 분류하고, 정의한 위험 종류 항목과 관련하여 실시간으로 어떤 관심객체가 위험에 직면하게 될지를 예측하는 기능을 제공한다. 이러한 기능이 정확하게 제공되기 위해서는 도 6(데이터 융합 분석을 통한 딥러닝 기반 위험 예측을 위한 처리 과정)에서와 같이 수집/누적된 대용량 로그데이터를 영상, 음성, 센서 데이터로 구분하여 각각의 위험 특징 요소를 추출하고, 상황에 따라(위험을 확신할 수 없는 경우) 추출된 위험 특징을 결합하여 머신러닝(특히, 딥러닝)을 통해 위험발생 가능성을 추론한다.
도 6에서와 같이, 영상데이터소스 중 수집된 데이터 형태가 영상인 경우의 위험 추출 단계에서는, 이종데이터소스를 통해(예를 들어 영상감시장치를 통해) 수집한 영상 데이터에서 관심객체 A와 관심객체 B를 식별하여 위험요소를 취득(601, 602)하고, 관심객체 A와 관심객체 B간의 행동 패턴의 변화 등을 통한 위험 특징 요소 추출(603, 604) 과정이 이루어진다. 이어서 다수의 위험 특징 요소들을 결합하는 단계(605)가 뒤따른다.
한편, 영상데이터소스 중 수집된 데이터 형태가 음성 데이터인 경우에는, 관심대상 A, B의 식별(606, 607)에 의한 위험 요소 감지, 그리고 이 606, 607 데이터의 누적된 로그 속에서 위험 특징을 추출(608, 609) 과정을 통해 위험 상황이 발생했음을 인식하게 된다. 다수의 위험 특징 요소들을 결합하는 단계(610)도 필요하다.
만약 영상을 통해 추출한 위험(605)과 음성을 통해 추출한 위험(610)이 위험 상황인지 정확하게 판단하기 어려운 경우에는, 이들 두 가지 특징(605, 610)을 결합하거나, 관심대상이 위치하고 있거나 이동하고자 하는 위치에 대해서 과거에 발생한 사고, 범죄 등 안전을 위협하는 데이터를 기반으로 현재 또는 미래에 발생할 수 있는 위험을 예측한다. 도 6을 통해 예측할 수 있는 위험의 종류(613)는 도 4를 통해 관리되는 위험정보를 기반으로 분류되기 때문에, 도 4의 관리되는 위험의 종류가 늘어나면 도 6을 통해 분류될 수 있는 위험의 종류도 늘어나게 된다. 분류된 위험종류에 대한 가중치 값에 따라 관심대상이 직면할 수 있는 위험의 종류가 선택되고, 해당 위험에 대한 상황 대응 시나리오가 추천되어 관심대상은 위험 상황을 모면할 수 있다.
도 6에서 딥러닝을 어떻게 진행하는지에 대해서 더 구체적으로 설명하면 다음과 같다.
본 발명에서 제안하는 딥러닝 기반 위험 예측은 다양한 형태의 데이터 입력을 분석하는 것을 기반으로 하고 있다. 데이터의 속성이 영상, 센서 데이터, 음성 데이터, 과거 기록된 통계 데이터에 대해 각각에 대한 딥러닝을 통한 분석이 아니라, 각각의 데이터에 대해 특징을 추출하는 과정은 별개로 수행하지만 최종 의사를 결정하기 위한 분류과정에서는 별개로 수행되었던 특징을 융합하는 과정을 추가함으로써 기존에 개별적으로 수행했던 딥러닝 기반 위험 분석보다 정확성을 높일 수 있는 방법을 제공하는 것이다.
이와 관련하여 본 발명의 도 7에서와 같이, 영상, 음성, 텍스트 등과 같은 이질적인 속성을 갖는 데이터(701)가 실시간으로 위험 예측 엔진이 탑재된 플랫폼 즉 통합관제센터(도 1의 102)로 수신되면, 위험 예측 학습 DB(702)를 기반으로 어떤 상황이 위험으로 발생하게 될 상황인지 사전에 정의한 각종 위험에 대한 예측 모델(703)에 따라 위험 발생 가능성을 예측한다. 이때 사용되는 위험 예측 모델은 달성하고자 하는 '위험'의 정의에 따라 모델링(사용되는 데이터와 알고리즘)이 상이해 질 수 있다. 예를 들어, 예측하고자 하는 '위험1'이 사용자가 절도를 당할 가능성, '위험2'는 차량 이동 중 뺑소니 차량을 만날 가능성 등과 같이 도출하고자 하는 목표가 상이한 경우, 예측 결과를 획득하기 위해 사용되는 데이터 및 알고리즘(예, CNN, RNN, 베이지안 네트워크 등 다양한 기법들이 존재함)도 상이하게 된다. 결과적으로 목표로 획득하고자 하는 위험 종류, 사용되는 데이터의 속성(영상, 사운드, 센서 데이터 또는 지리 통계 데이터 등)에 따라서 각각 별개의 특징 추출 방법과 별개의 분류 방법이 적용된다. 이러한 경우 복합적인 추출 및 분류 방법에 따라 위험 여부를 판단하기 위한 정확도가 떨어지게 되므로, 본 발명에서는 데이터의 속성에 따라 개별적으로 추출된 특징을 융합한 별도의 처리 모듈인 특징 융합 레이어(704-a)를 추가하여 추출된 각각의 특징을 하나의 공통 특징 벡터 데이터로 관리하여, 위험 예측을 수행하기 위한 정확도를 향상시킬 수 있다.
Claims (1)
- 공공안전 위험상황을 감지, 예측하고 대응하는 시스템으로서,
다양한 형태의 CCTV, 개인휴대단말, IoT센서, 기존에 구축되어 운영되는 데이터 수집플랫폼 등을 포함하는 이종데이터소스 인프라;
이종데이터소스 인프라로부터 네트워크를 통해 수신한 데이터를 기반으로 위험상황 인지 및 상황 대응을 위한 이종데이터소스로부터의 대용량 데이터 기반 공공안전 및 상황대응 플랫폼 역할을 하는 통합관제센터;
위험발생 가능성이 높은 지역의 관제 화면을 우선순위를 높게 하여 관제하기 위한 관제모니터 화면; 위험 발생시 빠른 대응을 위한 관계부처 시스템;
관심대상을 보호하기 위한 보호 관찰자 사용자 단말을 포함하는, 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170052357A KR102356666B1 (ko) | 2017-04-24 | 2017-04-24 | 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170052357A KR102356666B1 (ko) | 2017-04-24 | 2017-04-24 | 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180118979A true KR20180118979A (ko) | 2018-11-01 |
KR102356666B1 KR102356666B1 (ko) | 2022-01-28 |
Family
ID=64398471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170052357A KR102356666B1 (ko) | 2017-04-24 | 2017-04-24 | 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102356666B1 (ko) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102247188B1 (ko) * | 2019-12-30 | 2021-05-04 | 가천대학교 산학협력단 | 상황인식 및 퍼지이론 기반의 해수욕장 위험도 평가 시스템 및 방법과, 이를 위한 컴퓨터 프로그램 |
KR102275567B1 (ko) | 2020-09-25 | 2021-07-09 | 한국산업기술시험원 | 공공 데이터 활용 및 데이터 증식을 통한 이상치 탐색이 가능한 딥러닝 기반 공공장소 관제 및 방재 시스템 |
KR102411081B1 (ko) | 2021-08-05 | 2022-06-22 | 주식회사 와이즈넛 | 유사도 기반의 연관 데이터 추천 시스템 및 그 방법 |
WO2022177268A1 (ko) * | 2021-02-18 | 2022-08-25 | 한국전자기술연구원 | 파편적 데이터 통합 장치 및 방법 |
CN115186881A (zh) * | 2022-06-27 | 2022-10-14 | 红豆电信有限公司 | 一种基于大数据的城市安全预测管理方法及系统 |
KR102480449B1 (ko) * | 2022-10-07 | 2022-12-23 | (주)바이브컴퍼니 | 이기종 다중센서 기반의 재난 상황 예측 및 진단 방법 |
KR102538548B1 (ko) * | 2022-10-17 | 2023-05-31 | 김형주 | 딥러닝 기반의 객체 인식 및 모니터링 시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070081612A (ko) * | 2006-02-13 | 2007-08-17 | 주식회사 케이티 | 유비쿼터스 도시 통합 관제 플랫폼의 정보 수집 장치 |
KR20100087986A (ko) * | 2009-01-29 | 2010-08-06 | 서현구 | 비상 통합 관제 시스템 |
KR20150042918A (ko) * | 2013-10-14 | 2015-04-22 | 에스케이텔링크 주식회사 | 피보호자의 안전 관리를 위한 피보호자용 단말, 클라우드 서버, 보호자용 단말, 이들의 작동방법 및 기록매체 |
-
2017
- 2017-04-24 KR KR1020170052357A patent/KR102356666B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070081612A (ko) * | 2006-02-13 | 2007-08-17 | 주식회사 케이티 | 유비쿼터스 도시 통합 관제 플랫폼의 정보 수집 장치 |
KR20100087986A (ko) * | 2009-01-29 | 2010-08-06 | 서현구 | 비상 통합 관제 시스템 |
KR20150042918A (ko) * | 2013-10-14 | 2015-04-22 | 에스케이텔링크 주식회사 | 피보호자의 안전 관리를 위한 피보호자용 단말, 클라우드 서버, 보호자용 단말, 이들의 작동방법 및 기록매체 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102247188B1 (ko) * | 2019-12-30 | 2021-05-04 | 가천대학교 산학협력단 | 상황인식 및 퍼지이론 기반의 해수욕장 위험도 평가 시스템 및 방법과, 이를 위한 컴퓨터 프로그램 |
KR102275567B1 (ko) | 2020-09-25 | 2021-07-09 | 한국산업기술시험원 | 공공 데이터 활용 및 데이터 증식을 통한 이상치 탐색이 가능한 딥러닝 기반 공공장소 관제 및 방재 시스템 |
WO2022177268A1 (ko) * | 2021-02-18 | 2022-08-25 | 한국전자기술연구원 | 파편적 데이터 통합 장치 및 방법 |
KR102411081B1 (ko) | 2021-08-05 | 2022-06-22 | 주식회사 와이즈넛 | 유사도 기반의 연관 데이터 추천 시스템 및 그 방법 |
CN115186881A (zh) * | 2022-06-27 | 2022-10-14 | 红豆电信有限公司 | 一种基于大数据的城市安全预测管理方法及系统 |
KR102480449B1 (ko) * | 2022-10-07 | 2022-12-23 | (주)바이브컴퍼니 | 이기종 다중센서 기반의 재난 상황 예측 및 진단 방법 |
KR102538548B1 (ko) * | 2022-10-17 | 2023-05-31 | 김형주 | 딥러닝 기반의 객체 인식 및 모니터링 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR102356666B1 (ko) | 2022-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Laufs et al. | Security and the smart city: A systematic review | |
KR102356666B1 (ko) | 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치 | |
Zhang et al. | Urban anomaly analytics: Description, detection, and prediction | |
JP5560397B2 (ja) | 自律型防犯警戒システム及び自律型防犯警戒方法 | |
AU2014214545B2 (en) | A surveillance system | |
KR101765722B1 (ko) | 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템 및 방법 | |
CN106251568A (zh) | 一种基于紫外与图像检测技术的火灾报警安防系统及方法 | |
JP2007048277A (ja) | バックトラック及び行動解析を用いる自動非対称性脅威検出 | |
CN118072255B (zh) | 一种智慧园区多源数据动态监控和实时分析系统及方法 | |
US9622048B2 (en) | SNS based incident management | |
Bang et al. | AR/VR based smart policing for fast response to crimes in safe city | |
US20180253814A1 (en) | System and method for incident validation and ranking using human and non-human data sources | |
KR20200052418A (ko) | 딥러닝 기반의 자동 폭력 감지 시스템 | |
CN118486152B (zh) | 安防告警信息数据交互系统及方法 | |
CN112580470A (zh) | 城市视觉感知方法、装置、电子设备和存储介质 | |
Momynkulov et al. | Fast Detection and Classification of Dangerous Urban Sounds Using Deep Learning | |
CN117746338B (zh) | 基于人工智能的物业园区安全管理方法及系统 | |
KR102328199B1 (ko) | 추적 가능한 비식별화 방법, 장치 및 시스템 | |
KR102397839B1 (ko) | Ai 영상 자율 센서의 영상 분석 기반 캡션 센서 장치 및 그 동작 방법 | |
Zamri et al. | Snatch Theft Detection Using Deep Learning Models | |
Mahmood Ali et al. | Strategies and tools for effective suspicious event detection from video: a survey perspective (COVID-19) | |
KR20220031258A (ko) | 상담 이벤트에 대응되는 학습 데이터 기반 능동형 보안관제 서비스 제공 방법 | |
Park et al. | Danger detection technology based on multimodal and multilog data for public safety services | |
Amingad et al. | Enhancing Public Safety with AI-Powered Intelligent Surveillance: An Examination of Immediate Incident Detection and Rapid Response in Urban Settings | |
Kapoor et al. | Real-Time Casualty Detection System Using CCTV Surveillance: A Deep Learning Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |