KR20170019108A - 인식 능력 기반의 카메라 검색 방법 및 장치 - Google Patents

인식 능력 기반의 카메라 검색 방법 및 장치 Download PDF

Info

Publication number
KR20170019108A
KR20170019108A KR1020150113053A KR20150113053A KR20170019108A KR 20170019108 A KR20170019108 A KR 20170019108A KR 1020150113053 A KR1020150113053 A KR 1020150113053A KR 20150113053 A KR20150113053 A KR 20150113053A KR 20170019108 A KR20170019108 A KR 20170019108A
Authority
KR
South Korea
Prior art keywords
camera
information
recognition
recognition capability
area
Prior art date
Application number
KR1020150113053A
Other languages
English (en)
Inventor
최성훈
김주동
최진환
이태웅
송지은
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020150113053A priority Critical patent/KR20170019108A/ko
Publication of KR20170019108A publication Critical patent/KR20170019108A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • G06F17/30
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • H04N5/225

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명의 일 실시예에 따른, 서비스 서버가 수행하는 인식 능력 기반의 카메라 검색 방법은 요구 인식 능력에 대한 정보 및 검색 영역에 대한 정보를 포함하는 입력을 수신하는 단계와 상기 수신된 입력에 대응하여, 기 저장된 카메라 설치 정보를 기초로 상기 검색 영역에 설치된 카메라 중 상기 요구 인식 능력을 가지는 카메라를 선정하는 단계와 상기 선정된 카메라의 위치가 상기 검색 영역의 지도 상에 디스플레이된 지도 데이터를 생성 하는 단계와 상기 생성된 지도 데이터를 사용자 단말에 송신하는 단계를 포함한다.

Description

인식 능력 기반의 카메라 검색 방법 및 장치{Method and apparatus for retrieving camera based on recognition ability}
본 발명은 카메라의 인식 능력을 기초로 설치된 카메라를 검색하는 방법 및 장치에 관한 것이다. 보다 자세하게는, 소정의 영역에 설치된 카메라 중, 특정 인식 능력을 가지는 카메라를 검색하는 방법 및 그 장치에 관한 것이다.
소정의 영역에 대한 방범, 교통 상황 분석 등의 다양한 목적을 위하여 건물 외벽, 신호등 등의 위치에 카메라가 설치된다. 특정 사건이 발생한 경우, 설치된 카메라를 통해 촬영된 영상은 사건에 대한 증거 자료로 이용되고, 사건에 대한 원인 분석에도 이용될 수 있다.
소정의 영역에서 특정 사건이 발생한 경우, 사용자는 설치된 카메라로부터 촬영된 영상을 분석할 수 있다. 이 경우, 사용자는 사건과 관련된 영상을 획득하기 위하여, 소정의 영역 내에 설치된 다수의 카메라로부터 촬영된 영상을 모두 조회해야 한다. 사용자는 설치된 카메라의 사양 정보 및 설치 각도에 대한 정보를 보유하고 있더라도, 설치된 카메라를 통해 실제로 목적하는 영상이 촬영되었는지 여부는 알 수 없다.
목적하는 영상이 촬영되었는지 여부를 확인하기 위하여, 사용자는 결국, 설치된 다수의 카메라로부터 촬영된 방대한 분량의 영상 정보를 분석해야 한다. 이는 발생한 사건 해결의 지연을 초래한다.
이 같은 문제점에도 소정의 영역 내에 설치된 카메라 중 목적하는 영상을 촬영할 수 있는 카메라만을 검색할 수 있는 방법이 제공되지 않고 있다.
또한, 목적하는 영상을 촬영할 수 있는 카메라만을 검색하기 위하여, 카메라의 인식 능력을 항목으로 지정하여 저장하는 방법이 제공되지 않고 있다. 또한, 목적하는 영상을 촬영할 수 있는 카메라만을 검색하기 위하여, 설치된 카메라의 설치 상태 변경 여부를 모니터링하는 방법 역시 제공되지 않고 있다.
본 발명이 해결하고자 하는 기술적 과제는, 목적하는 영상 정보를 획득하기 위하여, 카메라를 인식 능력에 기반하여 검색하는 방법 및 장치를 제공하는 것이다.
구체적으로, 본 발명의 기술적 과제는 소정의 영역에 설치된 카메라 중, 요구되는 인식 능력 정보에 매칭되는 인식 능력을 가지는 카메라만을 검색하는 방법 및 장치를 제공하는 것이다.
또한, 본 발명의 기술적 과제는 설치된 카메라가 촬영할 수 있는 영상을 기준으로 카메라에 대한 설치 정보를 저장하는 방법 및 장치를 제공하는 것이다.
또한, 본 발명의 기술적 과제는 설치된 카메라를 통해 목적하는 영상 정보를 획득할 수 있는지 판별하기 위하여, 카메라 설치 상태에 대하여 모니터링을 수행하는 방법 및 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 서비스 서버가 수행하는 인식 능력 기반의 카메라 검색 방법은 요구 인식 능력에 대한 정보 및 검색 영역에 대한 정보를 포함하는 입력을 수신하는 단계와 상기 수신된 입력에 대응하여, 기 저장된 카메라 설치 정보를 기초로 상기 검색 영역에 설치된 카메라 중 상기 요구 인식 능력을 가지는 카메라를 선정하는 단계와 상기 선정된 카메라의 위치가 상기 검색 영역의 지도 상에 디스플레이된 지도 데이터를 생성 하는 단계와 상기 생성된 지도 데이터를 사용자 단말에 송신하는 단계를 포함할 수 있다.
또한, 상기 기술적 과제를 해결하기 위한, 서비스 서버가 수행하는 카메라의 인식 능력 정보 저장 방법은 소정의 영역 상에 설치된 카메라로부터 촬영된 영상 정보를 수신하는 단계와 상기 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행하는 단계와 상기 영상 분석의 결과를 기초로, 상기 설치된 카메라에 대하여 기 설정된 인식 능력의 등급을 결정하는 단계와 상기 결정된 등급을 상기 설치된 카메라의 설치 정보에 매칭하여 저장하는 단계를 포함할 수 있다.
또한, 상기 기술적 과제를 해결하기 위한, 서비스 서버가 수행하는 카메라의 인식 능력 모니터링 방법은 소정의 영역 상에 설치된 카메라로부터 촬영된 영상 정보를 기 설정된 주기 마다 수신하는 단계와 상기 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행하는 단계와 상기 영상 분석의 결과가 상기 기 설정된 인식 능력 항목 별 등급 조건을 만족하는지 판단하는 단계와 상기 판단 결과, 상기 영상 분석의 결과가 상기 등급 조건을 만족하지 않는 경우, 상기 설치된 카메라의 레퍼런스 설치 정보 및 상기 수신한 영상 정보를 기초로 상기 설치된 카메라의 현재 설치 상태 정보를 생성하는 단계를 포함할 수 있다.
본 발명에 따르면, 소정의 영역에 설치된 카메라 중, 목적하는 영상을 촬영할 수 있는 카메라만을 검색할 수 있다.
구체적으로, 요구되는 인식 능력을 가지는 카메라로부터 촬영된 영상만을 분석함으로써, 목적하는 영상을 획득하기 위한 영상 분석량을 최소화할 수 있는 효과가 있다.
또한, 본 발명에 따르면, 촬영된 영상을 통해 획득할 수 있는 구체적인 정보를 카메라의 설치 정보에 매칭하여 저장함으로써 사용자가 목적하는 영상을 제공하는 카메라에 손쉽게 접근할 수 있는 장점이 있다.
또한, 본 발명에 따르면, 촬영되는 영상의 통계 분석을 통해 설치된 카메라가 촬영할 수 있는 영상을 사용자가 사전에 알 수 있는 효과가 있다.
또한, 본 발명은 카메라 설치 상태에 대하여 모니터링을 수행함으로써, 사건의 발생 전에 설치된 카메라가 목적하는 영상을 촬영할 수 있도록, 사용자에게 카메라의 설치 상태를 보정할 수 있는 기회를 제공한다. 또한, 사건의 발생 후에는 카메라 설치 상태를 고려하여, 카메라의 검색 범위를 좁힐 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 인식 능력 기반의 카메라 검색 시스템의 구성도이다.
도 2는 본 발명의 다른 실시예에 따른 인식 능력 기반의 카메라 검색 방법을 수행하는 서비스 서버의 블록도이다.
도 3은 본 발명의 또 다른 실시예에 따른 인식 능력 기반의 카메라 검색 방법의 순서도이다.
도 4는 본 발명의 몇몇 실시예들에서 참조되는 지도 데이터의 예시이다.
도 5는 본 발명의 몇몇 실시예들에서 참조되는 요구 인식 능력에 대한 정보에 대응하는 영역을 설명하기 위한 예시도이다.
도 6은 본 발명의 몇몇 실시예들에서 참조되는 지도 데이터 상의 카메라 설치 경로를 설명하기 위한 예시도이다.
도 7은 본 발명의 또 다른 실시예에 따른 카메라 설치 경로 상의 신규 설치 카메라 후보지를 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 검색 영역과 인접한 영역을 설명하기 위한 예시도이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는 지도 데이터 상의 선정된 카메라로 형성된 영역을 설명하는 예시도이다.
도 10은 본 발명의 또 다른 실시예에 따른 선정된 카메라로 형성된 영역과 관련된 영역을 설명하는 예시도이다.
도 11은 본 발명의 또 다른 실시예 따른 서비스 서버의 카메라 인식 능력 정보 저장 방법을 설명하는 순서도이다.
도 12는 본 발명의 몇몇 실시예들에서 참조되는 인식 능력 항목을 설정하는 방법을 설명하는 예시도이다.
도 13은 본 발명의 몇몇 실시예들에서 참조되는 인식 능력 항목의 등급을 설명하기 위한 예시도이다.
도 14는 본 발명의 몇몇 실시예들에서 참조되는 저장된 카메라 인식 능력 정보에 대한 일예이다.
도 15는 본 발명의 또 다른 실시예에 따른 카메라 인식 능력 모니터링 방법의 순서도이다.
도 16은 본 발명의 몇몇 실시예들에서 참조되는 카메라의 변경된 설치 상태의 일 예이다.
도 17은 본 발명의 몇몇 실시예들에서 참조되는 모니터링된 카메라 인식 능력 정보에 대한 일 예이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 명세서에서 카메라의 인식 능력이란, 카메라가 실제로 특정 영상 정보를 촬영할 수 있는 능력을 의미한다. 여기에서, 카메라의 인식 능력이란 카메라의 사양과 구별되는 의미일 수 있다. 즉, 사용자는 카메라의 촬영 거리, 해상도 등의 카메라 사양을 알더라도 실제로 촬영되는 영상을 예측할 수 없지만, 카메라의 인식 능력을 알면 설치된 카메라를 통해 실제로 촬영되는 특정 영상을 미리 알 수 있다.
예를 들어, 카메라를 통해 소정의 거리에 위치한 사람의 얼굴을 촬영할 수 있으면, 카메라는 소정의 거리에서 사람의 얼굴에 대한 인식 능력을 가진다.
이하, 도 1을 참조하여 본 발명의 일 실시예에 따른 인식 능력 기반의 카메라 검색 시스템의 구성 및 동작을 설명한다.
도 1을 참조하면, 상기 인식 능력 기반의 카메라 검색 시스템은 인식 능력 기반의 카메라 검색 방법을 제공하는 서비스 서버(100)와 사용자 단말(200), GIS(Geographic Information System)(300) 및 소정의 영역을 촬영하는 카메라 집합(350)으로 구성될 수 있다. 이하, 설명의 편의를 위해, 상기 인식 능력 기반의 카메라 검색 시스템은 시스템이라고 칭하고, 인식 능력 기반의 카메라 검색 방법을 제공하는 서비스 서버(100)는 서비스 서버(100)라 칭하기로 한다.
서비스 서버(100)는 사용자 단말(200)에 본 발명의 상기 시스템이 제공하는 서비스를 구현하는데 필요한 모든 사용자 인터페이스(User Interface, UI)(이하, 인터페이스)를 제공할 수 있다. 또한, 사용자 단말(200)은 서비스 서버(100)와 인터넷 통신이 가능한 유무선의 컴퓨팅 장치이다. 사용자 단말(200)은 서비스 서버(100)로부터 각종 정보를 수신할 수 있고, 수신한 정보를 디스플레이부를 통해 디스플레이할 수 있다. 상기 컴퓨팅 장치는 데스크톱 PC, 태블릿 PC 및 스마트 폰 등, 유무선의 단말 중 어느 하나일 수 있다. 이에 대한 설명은 본 발명의 요지를 흐리지 않기 위하여 생략한다.
GIS(300)는 지도 정보를 컴퓨터를 이용해 작성·관리하는 시스템을 의미한다. 상기 지도 정보는 위성 사진으로부터 생성될 수 있다. GIS(300)는 지도 정보를 기초로 데이터를 수집, 분석 및·가공하여 지형과 관련되는 모든 분야에 적용하기 위해 설계된 종합 정보 시스템이다. GIS(300)는 지도 정보를 서비스 서버(100)로 송신할 수 있다. 상기 지도 정보는 지리 정보뿐만 아니라, 해당 지역의 건물, 구조물, 도로, 인도, 설치된 카메라의 위치 등 다양한 정보를 포함할 수 있다.
소정의 영역을 촬영하는 카메라 집합(350)은 소정의 영역에 설치된 적어도 하나의 카메라로 이뤄진다. 상기 카메라 집합(350)은 소정의 영역을 촬영하고, 이에 대한 정보를 서비스 서버(100)로 송신할 수 있다. 또한, 상기 카메라 집합(350)은 소정의 영역을 촬영하여 촬영된 영상 정보를 GIS(300)로 송신할 수 있다. GIS(300)는 수신한 영상 정보를 토대로 지도 정보를 가공할 수도 있다.
서비스 서버(100)는 요구 인식 능력에 대한 정보 및 검색 영역에 대한 정보를 포함하는 입력을 수신할 수 있다. 이때, 상기 입력은 사용자 단말(200)로부터 수신될 수 있다. 또는, 서비스 서버(100)의 관리자로부터 직접 입력될 수도 있다.
서비스 서버(100)는 수신된 입력에 대응하여, 기 저장된 카메라의 설치 정보를 기초로 상기 검색 영역에 설치된 카메라 중 상기 요구 인식 능력을 가지는 카메라를 선정할 수 있다. 상기 기 저장된 카메라의 설치 정보는 GIS(300)로부터 수신한 것일 수 있다. 또한 상기 기 저장된 카메라의 설치 정보는 관리자에 의해 서비스 서버(100)에 자체적으로 입력된 정보일 수도 있다.
서비스 서버(100)는 상기 검색 영역에 대하여, 상기 선정된 카메라를 디스플레이하는 지도 데이터를 생성할 수 있다. 또한, 서비스 서버(100)는 상기 생성된 지도 데이터를 사용자 단말(200)로 송신할 수 있다.
서비스 서버(100)는 설치된 카메라 집합(350)으로부터 촬영된 영상 정보를 수신할 수 있다. 또한, 서비스 서버(100)는 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행할 수 있다.
서비스 서버(100)는 상기 영상 분석의 결과를 기초로 상기 설치된 카메라 집합(350)을 구성하는 카메라에 대하여 기 설정된 인식 능력 항목의 등급을 결정할 수도 있다. 또한, 서비스 서버(100)는 결정된 등급을 카메라의 설치 정보에 매칭하여 저장할 수도 있다.
서비스 서버(100)는 소정의 영역 상에 설치된 카메라 집합(350)으로부터 촬영된 영상 정보를 기 설정된 주기 마다 수신할 수 있다. 또한, 서비스 서버(100)는 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행할 수 있다. 서비스 서버(100)는 영상 분석의 결과가 상기 기 설정된 인식 능력 항목 별 등급 조건을 만족하는지 판단할 수 있다.
상기 판단 결과, 영상 분석의 결과가 상기 등급 조건을 만족하지 않는 경우, 서비스 서버(100)는 설치된 카메라 집합(350)을 구성하는 카메라의 레퍼런스 설치 정보 및 상기 수신한 영상 정보를 기초로 상기 설치된 카메라 집합(350)을 구성하는 카메라의 현재 설치 상태 정보를 생성할 수 있다.
도 2를 참조하여 서비스 서버(100)에 대하여 보다 구체적으로 설명하도록 한다. 서비스 서버(100)는 인터넷에 연결된 컴퓨팅 장치로서 통신부(110), 저장부(120), 입출력부(130) 및 제어부(140)로 구성될 수 있다.
통신부(110)는 서비스 서버(100)의 유무선 인터넷 통신을 지원하며, 사용자 단말(200)과 각종 정보를 송수신할 수 있다. 또한, 통신부(110)는 카메라 집합(350) 또는 카메라 집합(350)을 구성하는 카메라와 각종 정보를 송수신할 수도 있다. 또한, 통신부(110)는 서비스 서버(100)가 제공하는 각종 인터페이스, 지도 데이터 및 카메라 설치 상태에 대한 솔루션을 사용자 단말(200)에 송신할 수도 있다.
저장부(120)는 각종 데이터, 명령 및/또는 정보를 저장한다. 저장부(120)는, 본 발명의 인식 능력 기반의 카메라 검색 방법, 카메라 인식 능력 정보 저장 방법 및 카메라 인식 능력 모니터링 방법을 수행하기 위한 하나 이상의 애플리케이션을 저장할 수 있다. 또한, 저장부(120)는 카메라의 설치 정보를 저장할 수 있다.
저장부(120)는 서비스 서버(100)에 전달된 데이터 등을 임시적으로 또는 비임시적으로 저장할 수 있다. 저장부(120)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
입출력부(130)는 서비스 서버(100)의 관리자로부터 각종 데이터, 명령 및/또는 정보를 입력 받고 통보한다. 특히, 입출력부(120)는 서비스 서버(100)의 관리자로부터 요구 인식 능력에 대한 정보, 검색 영역에 대한 정보 및 카메라 설치 정보를 입력 받을 수 있다. 입출력부(130)는 디스플레이 모듈을 포함할 수 있다. 디스플레이 모듈은 각종 데이터 등을 디스플레이할 수 있다. 특히, 디스플레이 모듈은 지도 데이터, 저장된 카메라의 인식 능력 정보 및 카메라 설치 상태 정보를 디스플레이할 수 있다.
입출력부(120)는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 입출력 수단을 포함하여 구성될 수 있다.
제어부(140)은 서비스 서버(100)의 각 구성의 전반적인 동작을 제어한다. 제어부(150)은 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 제어부(140)는 본 발명의 일 실시예에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램을 저장할 수 있다.
도 1의 시스템 구현을 위하여 서비스 서버(100)는 상기 구성 외에 다양한 구성을 추가로 포함할 수 있다. 상기 서비스 서버(100)에 포함된 통신부(110), 저장부(120), 입출력부(130) 및 제어부(140)는 별개 구성 요소로 도시하였으나, 이는 예시에 불과하다. 상기 각 구성 요소는 서비스 서버(100)의 동작을 수행하는데 있어 필요한 어떠한 단위로도 존재할 수도 있으며, 다른 구성과 결합될 수도 있다.
이하, 상술한 도 1 및 도 2에 대한 설명을 바탕으로, 본 발명의 실시예를 서비스 서버(100)가 수행하는 방법에 따라 세 개의 실시예로 구분하여 구체적으로 설명하도록 한다. 그러나, 본 발명의 실시예는 상기 구분으로 제한되지 않으며 상기 실시예들은 서로 결합되어 실시될 수 있다. 또한, 상기 실시예들의 각각의 구성 및 단계는 서로 결합될 수 있음을 유의하여야 한다.
인식 능력 기반의 카메라 검색 방법
본 발명의 서비스 서버(100)는 인식 능력 기반의 카메라 검색 방법을 수행한다.
도 3은 서비스 서버(100)가 수행하는 인식 능력 기반의 카메라 검색 방법의 순서도이다. 도 3을 참조하면, 서비스 서버(100)는 요구 인식 능력에 대한 정보 및 검색 영역에 대한 정보를 포함하는 입력을 수신할 수 있다(S10).
상기 입력은 사용자 단말(200)로부터 수신되거나, 서비스 서버(100)의 관리자에 의해 입력될 수 있다.
여기에서 카메라 검색 목적은 사용자 또는 관리자가 촬영되는 영상으로부터 영상 분석(Video Analytics, VA)을 수행하기 위한 목적을 의미한다. 요구 인식 능력에 대한 정보는 구체적인 목적을 나타내는 정보일 수 있다. 예를 들어, 요구 인식 능력에 대한 정보는 촬영되는 사람에 대한 계수, 사람 인식, 사물 인식, 이동하는 객체 확인 중 어느 하나일 수 있다.
서비스 서버(100)는 사용자 단말(200)에 복수의 요구 인식 능력에 대한 정보 중, 어느 하나를 선택하도록 하는 인터페이스를 제공할 수 있다. 또는, 서비스 서버(100)는 서비스 서버(100)의 입출력부(130)를 통해, 상기 인터페이스를 디스플레이할 수도 있다.
여기에서, 검색 영역이란, 사용자 또는 관리자가 설치된 카메라를 통해 목적하는 영상을 수집하고자 하는 영역을 의미한다. 예를 들어, 특정 사건이 발생한 경우, 사용자 또는 관리자는 특정 사건을 촬영한 영상 분석을 희망할 수 있다. 이때, 검색 영역은 특정 사건을 촬영한 카메라가 설치된 영역을 포함하는 영역일 수 있다.
검색 영역에 대한 정보는 행정 구역 단위일 수 있다. 서비스 서버(100)는 사용자 단말(200) 또는 관리자에게 행정 구역을 선택하거나, 입력하기 위한 인터페이스를 제공할 수 있다. 이때, 상기 인터페이스는 행정 구역을 시, 군, 구, 동 등의 단위로 세분화하여 제공할 수 있다.
서비스 서버(100)는 상기 요구 인식 능력에 대한 정보 및 검색 영역에 대한 정보 등의 입력이 수신되면, 상기 검색 영역에 설치된 카메라 중 상기 요구 인식 능력을 가지는 카메라를 선정할 수 있다(S20). 이때, 서비스 서버(100)는 기 저장된 카메라의 설치 정보를 기초로 검색 영역에 설치된 카메라의 위치 정보를 판단할 수 있다. 또한 서비스 서버(100)는 카메라의 설치 정보를 이용하여 각 카메라를 식별할 수도 있다. 상기 카메라의 설치 정보는 카메라의 설치 위치, 카메라의 사양 및 카메라의 설치 각도에 대한 정보를 포함할 수 있다.
다음으로, 서비스 서버(100)는 상기 검색 영역에 대한 지도 상에, 상기 선정된 카메라가 디스플레이된 지도 데이터를 생성할 수 있다(S30). 이를 위해 서비스 서버(100)는 검색 영역을 포함하는 영역에 대한 지도 정보를 미리 저장할 수 있다. 서비스 서버(100)는 상기 생성된 지도 데이터를 사용자 단말(200)에 송신할 수 있다(S40).
도 4는 본 발명의 몇몇 실시예들에서 참조되는 지도 데이터의 예시이다. 단계(S10)에서 도 4에 도시된 소정의 영역에 대한 주소가 검색 영역에 대한 정보로 입력된 것으로 가정한다.
도 4를 참조하면, 지도 데이터(400)는 카메라 인식 능력 정보(410, 425, 430, 440) 및 지도 정보에 기초한 검색 영역의 구조를 포함할 수 있다. 상기 지도 정보는 서비스 서버(100)가 GIS(300)수신한 것일 수 있다. 상기 검색 영역은 복수의 영역(401, 403, 405)을 포함할 수 있다. 영역(401)은 인도 영역이고, 영역(403)은 차도 영역이며, 영역(405)는 횡단 보도이므로, 인도 영역과 차도 영역 모두에 해당한다.
또한, 지도 데이터(400)는 선정된 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421, 422, 423, 424, 431, 441)를 포함할 수 있다.
단계(S20)에서 선정된 카메라는 입력된 요구 인식 능력에 따라 분류될 수 있다. 즉, 선정된 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421)는 요구 인식 능력이 사람인식(410) 카메라 검색인 경우에 이에 매칭하는 인식 능력을 가진 카메라이다. 선정된 카메라(422, 423, 424)는 요구 인식 능력이 차량인식(425) 카메라 검색인 경우에 이에 매칭하는 인식 능력을 가지는 카메라이다. 또한, 선정된 카메라(431)은 요구 인식 능력에 대한 정보가 기타 객체인식(430) 카메라 검색인 경우, 선정된 카메라(441)은 요구 인식 능력이 범용(440) 카메라 검색인 경우에 이에 매칭하는 인식 능력을 가지는 카메라이다.
도 4에서, 선정된 카메라가 모두 각각의 요구 인식 능력에 매칭하는 인식 능력을 가지는 경우가 예로써 도시되었다. 서비스 서버(100)는 요구 인식 능력(410, 425, 430, 440)가 모두 활성화된 경우에 지도 데이터(400)와 같은 정보를 생성할 수 있다. 이는, 사용자 단말(200) 또는 관리자로부터 상기 요구 인식 능력(410, 425, 430, 440) 전부가 입력된 경우일 수 있다.
예를 들어, 요구 인식 능력 중 사람인식(410)만 입력된 경우, 지도 데이터(400)는 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421)만 포함할 수 있다. 이 경우, 서비스 서버(100)는 사람인식(410)용 카메라이지만, 상기 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421) 외의 나머지 카메라를 카메라 설치 정보(400)에 포함하지 않을 수 있다. 또는. 서비스 서버(100)는 나머지 카메라를 별도의 식별처리 하여 지도 데이터(400)에 포함할 수도 있다.
상기 나머지 카메라는 소정의 영역에 설치되었으나 요구 인식 능력(410)에 매칭하는 인식 능력을 가지고 있지 않는 카메라이다. 서비스 서버(100)는, 소정의 영역에 설치되어 있으나, 카메라 검색 목적에 매칭하는 인식 능력을 발휘하지 못하는 카메라를 단계(S20)에서 선정하지 않을 수 있다. 또는, 서비스 서버(100)는 단계(S20)에서 선정되지 않은 카메라라도 별도의 식별 처리하여 지도 데이터(400)에 포함할 수도 있다.
상기 지도 데이터(400)는 서비스 서버(100)의 입출력부(130)를 통해 디스플레이될 수 있다. 또는 지도 데이터(400)는 단계(S40)에서 서비스 서버(100)로부터 사용자 단말(200)에 송신되어 사용자 단말(200)을 통해 디스플레이될 수도 있다.
도 5는 본 발명의 몇몇 실시예들에서 참조되는 요구 인식 능력에 대한 정보에 대응하는 영역을 설명하기 위한 예시도이다. 도 5를 참조하면, 단계(S20)에서 서비스 서버(100)는 기 저장된 카메라의 설치 정보를 기초로, 검색 영역 중 상기 요구 인식 능력에 대응하는 영역을 추출할 수 있다.
서비스 서버(100)는 도 4의 지도 데이터(400)를 생성하기에 앞서, 요구 인식 능력에 대응하는 영역을 추출할 수 있다. 이어서, 서비스 서버(100)는 상기 추출된 영역 상에 설치된 카메라 중, 상기 요구 인식 능력에 매칭되는 인식 능력을 가지는 카메라를 선정할 수 있다.
단계(S10)에서 요구 인식 능력에 대한 정보로 차량인식(425)이 입력되고, 도 4의 지도 데이터(400)와 동일한 검색 영역에 대한 정보가 입력된 것으로 가정한다.
서비스 서버(100)의 제어부(140)는 영역(401, 403, 405) 중 차량이 운행되는 영역인 차도 영역(403)과 횡단 보도 영역(405)를 추출할 수 있다. 이때 제어부(140)는 기 저장된 카메라의 설치 정보를 이용할 수 있다. 즉, 카메라의 설치 정보는 카메라가 인도 상에 설치되었는지 차도 상에 설치되었는지 등의 정보를 포함할 수 있다.
또한, 제어부(140)는 상기 영역(401, 403, 405) 추출을 위해 지도 정보를 이용할 수도 있다. 이를 위해, 서비스 서버(100)는 통신부(110)를 통해 GIS(300)으로부터 지도 정보를 수신하여 저장부(120)에 저장할 수 있다.
또는, 서비스 서버(100)는 설치된 카메라 집합(350)으로부터 동일한 영역에 대하여 촬영된 영상을 수집하여 특정 영역을 분류하여 인식할 수도 있다. 즉, 제어부(140)는 누적된 데이터를 바탕으로 영역별 특징점을 추출함으로써 해당 영역이 차도인지 인도인지 등을 판단할 수도 있다. 이를 위해, 서비스 서버(100)의 저장부(120)는 주기적으로 수집한 촬영 영상을 저장할 수 있다. 이에 대한 자세한 설명은 카메라의 인식 능력 정보 저장 방법에 대한 실시예를 설명하는 도 12를 참조하여 후술하기로 한다.
제어부(140)는 추출된 차도 영역(403)과 횡단 보도 영역(405)에 설치된 카메라 중, 요구 인식 능력에 매칭되는 인식 능력을 가진 카메라(422, 423, 424)를 선정할 수 있다. 서비스 서버(100)는 검색 영역 상에 설치된 차량인식 용 카메라 중 일부 카메라(422, 423, 424)만을 선정하였다. 이는, 나머지 선정되지 않은 카메라가 차량인식 용도를 가짐에도, 설치 상태 변경 또는 설비의 노후화로 인하여 요구 인식 능력을 발휘하지 못하는 경우일 수 있다. 서비스 서버(100)는 카메라 선정에 앞서 설치 상태 변경 또는 설비 노후화 등의 이유로 요구 인식 능력을 발휘 못하는 카메라를 인식할 수 있다. 이에 대한 구체적인 설명은 카메라의 인식 능력 모니터링 방법에 대한 실시예에서 후술하기로 한다.
다음으로, 도 3의 단계(S30)에서 설명된 바와 같이 서비스 서버(100)는 제어부(140)를 통하여 지도 데이터(500)를 생성할 수 있다.
도 6은 지도 데이터가 카메라 설치 경로를 포함하는 경우를 설명하기 위한 예시도이다. 도 6을 참조하면, 도 3의 단계(S30)에서 서비스 서버(100)는 요구 인식 능력에 대한 정보를 기초로, 선정된 카메라의 설치 위치를 포함하는 상기 검색 영역 상의 적어도 하나의 경로를 생성할 수 있다.
특히, 요구 인식 능력에 대한 정보가 사람인식(410)인 경우를 예로 들어 설명한다. 제어부(140)는 사람인식(410)을 위해 검색 영역 중, 인도 영역(401)을 추출할 수 있다. 이때, 제어부(140)는 소정의 영역에 설치된 사람인식(410)용 카메라 중 인도 영역(401)에 설치된 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421)를 선정할 수 있다.
제어부(140)는 상기 선정된 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421)를 이용하여 적어도 하나의 경로를 생성할 수 있다. 지도 데이터(600)는 경로(601, 602,603, 604, 605)가 포함하는 경우가 예로써 도시되었다. 제어부(140)는 선정된 카메라의 설치 위치를 연결함으로써 상기 적어도 하나의 경로를 생성할 수 있다.
예를 들어, 검색 영역에 범죄가 발생하여, 범인을 추적하기 위해 사람인식(410)이 요구되는 경우를 가정한다. 이때, 사용자 또는 관리자는 상기 경로 상의 카메라(411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421)로부터 촬영된 영상만을 검색할 수 있다. 즉, 검색 영역 상에서 다른 카메라는 사람인식(410)의 요구 인식 능력을 발휘하지 못하기 때문에, 다른 카메라로부터 촬영된 영상은 범인 추적에 무의미하다. 본 발명의 일 실시예에 따른 지도 데이터(600)는 범인을 인식할 수 있는 인식 능력을 가진 카메라만을 사용자 단말(200) 또는 관리자에게 제공함으로써, 사용자 또는 관리자의 영상 분석 부담을 줄일 수 있다.
상기 경로(601, 602,603, 604, 605)는, 범인의 추적 경로 예측에도 이용될 수 있다. 즉, 사람인식 용 카메라는 주로 인도 영역(401) 상에 설치되고, 사람은 인도 영역(401)을 통해 이동하는 경우가 일반적이다. 따라서, 범인이 차도를 통해 통행하지 않는 한, 인도 영역(401)는 범인의 도주 경로를 포함할 수 있다. 따라서, 인도 영역(401) 상의 카메라로부터 촬영된 영상을 분석하는 것이 카메라 검색 목적 달성에 있어 효과적일 수 있다.
한편, 범인이 인도 영역(401) 통행 도중에 차도 영역(403)에서 차량을 이용하여 도주하는 경우가 발생할 수 있다. 이때 상기 카메라411, 412, 413, 414, 415, 416, 417, 418, 419, 420, 421) 중 어느 하나를 통해, 범인의 차량 이용 도주 장면이 촬영된 경우를 가정하도록 한다. 사용자 또는 관리자는 촬영된 영상을 분석하여 범인이 차도 영역(403)에서 차량을 이용하는 것을 확인할 수 있다. 사용자 또는 관리자는 요구 인식 능력에 대한 정보로 차량인식(425)을 입력함으로써, 차도 영역(403)을 통해 도주하는 범인의 차량을 촬영한 카메라를 검색할 수 있다.
도 7은 본 발명의 또 다른 실시예에 따른 카메라 설치 경로 상의 신규 설치 카메라 후보지를 설명하기 위한 도면이다. 도 7에서 요구 인식 능력에 대한 정보로 사람인식(410)이 입력되고, 지도 데이터(700)에 대응되는 소정의 영역의 주소가 검색 영역에 대한 정보로 입력된 것으로 가정한다.
서비스 서버(100)의 제어부(140)는 사람인식(410)의 인식 능력을 가지는 카메라(701, 703, 705)를 선정할 수 있다. 또한, 제어부(140)는 상기 카메라(701, 703, 705)의 설치 위치를 포함하는 경로(710)를 생성할 수 있다. 제어부(140)는 경로(710) 상에서 카메라 신규 설치 후보지(711, 713)를 결정할 수도 있다.
소정의 영역에 설치된 카메라 중, 요구 인식 능력에 매칭하는 인식 능력을 가진 카메라의 설치 대수가 부족한 경우를 가정하도록 한다. 이 같은 경우에 해당 카메라 검색 목적을 달성하기 위해서는 카메라의 추가 설치가 필요하다.
예를 들어, 소정의 영역에 범죄가 발생하여, 사용자 또는 관리자가 범인이 도주한 경로를 추적하는 경우를 가정한다. 또한, 카메라(703)와 카메라(705) 사이에 다른 카메라가 설치되지 않았고, 카메라(703, 705)의 사양으로, 카메라(703)와 카메라(705) 사이의 영역을 촬영할 수 없는 경우를 가정하도록 한다.
서비스 서버(100)는 기 저장된 카메라 설치 정보를 통해 설치된 카메라의 사양을 판단할 수 있다. 사람인식에 해당하는 인식 능력을 가지는 카메라(703)와 카메라(705) 사이에 다른 카메라가 설치되지 않은 경우, 제어부(140)는 상기 카메라(703, 705)의 사양을 기초로 카메라 신규 설치 후보지를 결정할 수 있다. 제어부(140)는 카메라 신규 설치 시, 카메라(703, 705)의 촬영 영역을 커버할 수 있는 위치를 카메라 신규 설치 후보지(711, 713)로 결정할 수 있다.
한편, 제어부(140)가 카메라 신규 설치 후보지를 결정하는 경우로, 상기 카메라(703) 및 카메라(705) 사이에 다른 카메라가 설치되지 않은 경우를 예로 들어 설명하였다. 그러나, 카메라(703) 및 카메라(705) 사이에 다른 카메라가 설치되었으나, 설치된 다른 카메라가 사람인식의 인식 능력을 가지지 못하는 경우에도 상기 실시예가 적용될 수 있다.
제어부(140)는 경로(710) 생성 시에, 상기 카메라 신규 설치 후보지 및 상기 선정된 카메라 설치 위치를 포함하는 경로가 생성되도록 제어할 수 있다. 제어부(140)는 지도 데이터(700)를 생성 시에, 카메라 신규 설치 후보지(711, 713) 중, 경로(710)이 카메라 신규 설치 후보지(711)을 포함하도록 제어할 수 있다.
예를 들어, 제어부(140)는 기존의 카메라(703, 705)의 설치 위치를 고려하여, 이동 중인 사람의 인식에 더욱 효과적인 위치를 카메라 신규 설치 후보지(711)로 결정할 수 있다. 이에 따라 제어부(140)는 경로(710)가 카메라 신규 설치 후보지(711)을 포함하도록 제어할 수도 있다. 또는 제어부(140)는 기 저장된 카메라의 설치 정보를 기초로 카메라 신규 설치 후보지(711, 713) 중 촬영 영역이 더 넓은 위치를 판단하여, 상기 경로(710)에 포함되도록 제어할 수도 있다.
사용자 또는 관리자는 상기 경로(710) 상의 카메라 신규 설치 후보지(711)를 확인하여 사람인식(410)을 위하여 카메라의 추가 설치를 고려할 수 있다.
도 8은 본 발명의 검색 영역과 인접한 영역에 설치된 카메라를 선정하는 경우를 설명하기 위한 예시도이다. 도 8에서 요구 인식 능력에 대한 정보가 차량인식(425)인 경우가 예로써 도시되었다. 서비스 서버(100)에 검색 영역(810)에 대한 주소가 입력되었다고 가정한다.
서비스 서버(100)는 검색 영역(810)에 설치된 차량인식(425)의 인식 능력을 가지는 카메라(811, 813, 815)를 선정할 수 있다. 또한, 서비스 서버(100)는 상기 카메라(811, 813)의 설치 위치를 포함하는 경로(817)을 생성할 수 있다.
이때, 서비스 서버(100)는 검색 영역(810)의 인접 영역(820, 830)에 설치된 카메라 중 차량인식(425)의 인식 능력을 가지는 카메라(815, 821, 822, 832, 833)를 추가로 선정할 수 있다.
이를 위해, 서비스 서버(100)의 제어부(140)는 기 저장된 카메라의 설치 정보를 토대로, 검색 영역(810)에 대한 인접 영역(820, 830)을 결정할 수 있다. 이를 위해, 카메라의 설치 정보는 설치된 카메라의 행정 구역 정보를 포함할 있다. 또는, 인접 영역(820, 830) 결정을 위해 서비스 서버(100)는 GIS(300)로부터 수신한 지도 정보를 이용할 수도 있다.
또한, 검색 영역에 다수의 인접 영역이 존재하는 경우, 제어부(140)는 요구 인식 능력에 대한 정보를 기초로, 다수의 인접 영역 중, 일부 인접 영역을 선택할 수 있다. 즉, 요구 인식 능력에 대한 정보가 차량인식(425)인 경우, 제어부(140)는 경로(817)에 연결된 차도를 기초로 인접 영역(820, 830)을 결정할 수 있다.
제어부(140)는 카메라(815, 821, 822, 832, 833)를 추가로 선정한 후, 이를 기초로, 추가로 선정된 카메라를 지나는 경로를 추가로 생성할 수 있다. 예를 들어, 제어부(140)는 카메라(815), 카메라(821) 및 카메라(822)가 설치된 위치를 포함하는 경로(827)을 생성할 수 있다. 또한, 제어부(140)는 카메라(831) 및 카메라(832)가 설치된 위치를 포함하는 경로(837)을 생성할 수도 있다. 이때, 제어부(140)는 기 저장된 카메라 설치 정보를 이용하여, 인접 영역(820, 830) 별로 경로(827, 837)가 생성되도록 제어할 수 있다.
서비스 서버(100)는 상기 과정을 통해 검색 영역(810) 및 인접 영역(820, 830)에 대한 지도 데이터(800)를 생성할 수 있다. 이때, 지도 데이터(800)는 경로(817, 827, 837)을 포함할 수 있다. 또한, 지도 데이터(800)에서 경로(817)은 경로(827) 및 경로(837) 중 적어도 하나와 연결되어 디스플레이될 수 있다.
예를 들어, 경로(817)에서 추적 중인 차량이 촬영된 경우, 사용자 또는 관리자는 상기 지도 데이터(800)를 참조하여, 경로(827) 및 경로(837) 중 어느 하나의 경로 상에 선정된 카메라를 검색할 수 있다. 이를 통해 사용자 또는 관리자는 영역(810)에 인접한 영역 중, 영역(820, 830)을 제외한 다수의 영역에 설치된 카메라를 검색하지 않을 수 있다. 영역(820, 830) 외의 다수의 영역에 설치된 카메라를 통해 촬영된 영상은 카메라가 차량을 인식할 수 없기 때문이다. 또한, 상기 영역(820, 830) 외의 다수의 영역은 영역(810)으로부터 차도가 이어지지 않기 때문에 차량 인식 목적을 달성할 수 없다.
따라서, 사용자 또는 관리자는 상기 지도 데이터(800)를 이용하여 방대한 량의 영상 분석을 피할 수 있다.
도 9는 본 발명의 몇몇 실시예에서 참조되는 지도 데이터 상의 설치된 카메라로 형성된 영역을 설명하는 예시도이다. 특히, 도 9에서 요구 인식 능력에 대한 정보가 정지 중인 사람인식(410)인 경우가 예로써 도시되었다. 또한, 단계(S10)에서 검색 영역에 대한 정보로 지도 데이터(900)에 대응하는 소정의 영역의 주소가 입력되었다고 가정한다.
도 9를 참조하면, 단계(S20)에서 서비스 서버(100)는 사람인식(410)의 인식 능력을 가진 카메라(901, 903, 905, 907, 931, 933, 935)를 선정할 수 있다. 여기에서, 요구 인식 능력이 사람인식 중에서도 특정 집회, 응원 등을 위하여 소정의 영역에 모인 인원에 대한 분석인 경우를 가정하도록 한다.
서비스 서버(100)는 검색 영역 중 영역(910)을 추출할 수 있다. 서비스 서버(100)는 요구 인식 능력에 대한 정보가 사람인식인 경우라도, 인도 영역이 아닌 영역(910)을 추출할 수도 있다. 즉, 요구 인식 능력에 대한 정보가 집회나 응원 등의 차도 진입이 허용되는 이벤트에 대한 영상 분석을 위한 것이라면, 제어부(140)는 입력된 요구 인식 능력에 대한 정보를 기초로 해당 상기 영역(910)을 요구 인식 능력에 대한 정보에 대응하는 영역으로 추출할 수 있다.
제어부(140)는 영역(910) 상의 카메라(901, 903, 905, 907, 931, 933, 935)의 설치 위치를 포함하는 적어도 하나의 영역(920, 930)을 생성할 수 있다. 또한, 제어부(140)는 적어도 하나의 영역(920, 930)을 포함하는 지도 데이터(900)를 생성할 수 있다.
제어부(140)는 카메라(901,903,905,907)이 설치된 위치를 포함하도록 영역(920)을 생성할 수 있다. 또한, 제어부(140)는 카메라(907, 931, 933, 935)의 설치 위치를 포함하는 영역(930)을 생성할 수도 있다.
사용자 또는 관리자는 상기 영역(920, 930)을 구성하는 카메라로부터 촬영된 영상을 분석함으로써, 집회 또는 응원 중인 사람에 대한 계수, 집단의 동태 등을 파악할 수 있다. 또한, 상기 집회나 응원 과정에서 범죄가 발생한 경우, 상기 영역(920, 930)을 구성하는 카메라(901, 903, 905, 907, 931, 933, 935)를 통해 촬영된 영상만을 분석함으로써 범죄 상황 판단 및 범인 추적이 가능하다. 또한, 사용자 또는 관리자는 영역(920)과 영역(930)에 대한 영상을 분석함으로써 인원의 유입이나 이동을 추적할 수도 있다.
한편, 제어부(140)는 요구 인식 능력에 대한 정보를 기초로, 적어도 하나의 영역(920, 930) 상의 카메라 신규 설치 후보지(940)를 결정할 수도 있다. 제어부(140)는 지도 데이터(900)가 카메라 신규 설치 후보지(940)를 포함하도록 제어할 수 있다. 또한, 제어부(140)는 영역(920)이 카메라(901, 903, 905, 907)와 카메라 신규 설치 후보지(940)가 설치된 위치를 포함하여 생성되도록 제어할 수도 있다. 이에 대한 자세한 설명은 도 7에 대한 설명에서 상술한 내용과 중복되므로 생략한다.
도 10은 본 발명의 또 다른 실시예에 따른 설치된 카메라로 형성된 영역과 관련된 영역을 설명하는 예시도이다. 도 10에서 요구 인식 능력에 대한 정보가 정지 중인 사람인식(410)인 경우가 예로써 도시되었다. 구체적으로, 요구 인식 능력에 대한 정보가 사람인식(410) 중 이벤트에 참여하는 다수의 인원에 대한 판단인 경우를 가정한다. 예를 들어, 상기 이벤트는 전국적인 범위에서 발생한 집회 또는 응원일 수 있다.
사용자 또는 관리자가 상기 이벤트에 대하여 A 구역 및 B 구역의 영상 정보를 분석하고자 하는 경우를 가정한다. 단계(S10)에서 검색 영역에 대한 정보로 지도 데이터(1000)에 대응하는 소정의 영역(1010, 1020)의 주소가 입력되었다고 가정한다.
단계(S10)에서 서비스 서버(100)는 검색 영역(1010) 및 추가 검색 영역(1020)을 포함하는 입력을 수신할 수 있다.
서비스 서버(100)는 검색 영역(1010)에 설치된 카메라 중, 사람인식의 인식 능력을 가지는 카메라를 선정할 수 있다. 또한, 사람인식 중에서도 상기 이벤트에 대하여 A 구역에 대한 영상 분석이 필요한 경우, 제어부(140)는 검색 영역(1010) 상의 영역(1030)을 생성할 수 있다. 영역(1030)은 A 구역을 에워싸는 영역일 수 있다.
제어부(140)는 추가 검색 영역(1020)에 설치된 카메라 중 사람인식에 매칭되는 인식 능력을 가지는 카메라를 추가로 선정할 수 있다. 또한, 상기 이벤트에 대하여 B 구역에 대한 영상 분석이 필요한 경우, 제어부(140)는 추가 검색 영역(1020) 상의 영역(1040)을 생성할 수도 있다. 상기 영역(1040)는 상기 선정된 카메라의 설치 위치를 포함한다. 또한, 영역(1040)은 B 구역을 에워싸는 영역일 수 있다.
영역(1030) 및 영역(1040)을 생성한 후, 서비스 서버(100는 상기 영역(1030) 및 영역(1040)을 포함하는 지도 데이터(1000)를 생성할 수 있다.
카메라의 인식 능력 정보 저장 방법
본 발명의 서비스 서버(100)는 카메라의 인식 능력 정보 저장 방법을 수행한다.
상술한 인식 능력 기반의 카메라 검색 수행 방법을 수행하기 위하여, 서비스 서버(100)는 설치된 카메라에 대한 정보를 인식 능력 정보에 매칭하여 저장할 필요가 있다. 이하, 도 11을 참조하여 자세히 설명한다. 상술한 인식 능력 기반의 카메라 검색 방법에서 설명된 내용과 중복되는 설명은 생략하도록 한다.
도 11은 서비스 서버(100)의 카메라 인식 능력 정보 저장 방법을 설명하는 순서도이다. 서비스 서버(100)는 카메라 설치 정보를 포함하는 지도 정보를 저장할 수 있다. 지도 정보는 통신부(110)를 통해 지도 정보가 수신되거나, 입출력부(130)를 통해 입력될 수 있다. 제어부(140)는 저장부(120)에 상기 지도 정보가 저장되도록 제어할 수 있다.
서비스 서버(100)는 소정의 영역 상에 설치된 카메라로부터 촬영된 영상 정보를 수신할 수 있다(S1101). 즉, 서비스 서버(100)는 소정의 영역에 설치된 카메라로부터 촬영된 영상 정보를 수신할 수 있다.
다음으로, 서비스 서버(100)는 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행할 수 있다(S1102).
기 설정된 인식 능력 항목이란, 사용자 또는 관리자로부터 설정된 인식 능력 항목일 수 있다. 예를 들어, 도 4에서 설명된 바와 같이 사람인식(410), 차량인식(425), 기타 객체인식(430) 및 범용(440) 등이 인식 능력 항목일 수 있다. 또한, 인식 능력 항목은 수신한 영상 정보에 대한 제어부(140)의 영상 분석에 의해 자동으로 결정될 수도 있다. 이에 대한 설명은 도 12에서 후술한다.
한편, 제어부(140)는 기 설정된 인식 능력 항목 외에 새로운 인식 능력 항목에 대한 입력이 통신부(110)를 통해 수신되도록 제어할 수 있다. 즉, 사용자는 목적하는 영상을 촬영할 수 있는 카메라를 검색하기 위하여, 새로운 인식 능력 항목에 대하여 설정할 수 있다. 예를 들어, 카메라에 기 설정된 인식 능력 항목이 사람인식(410)인 경우, 사용자 단말(200)로부터 상기 차량인식(425) 설정에 대한 입력을 수신할 수 있다. 또는 관리자로부터 입출력부(130)를 통해 차량인식(425)을 새로운 인식 능력 항목으로 입력 받을 수 있다.
서비스 서버(100)가 새로운 인식 능력 항목을 설정하는 입력을 수신하면, 제어부(140)는 수신한 영상 정보에 대하여, 새로운 인식 능력 항목을 기초로 영상 분석을 수행할 수도 있다. 예를 들어, 기 설정된 인식 능력 항목이 사람인식(410)인 경우, 제어부(140)는 수신한 영상에 대하여 사람인식(410)의 영상 분석을 수행한다. 이때, 새로운 인식 능력 항목인 차량인식(425)이 설정되면, 제어부(140)는 수신한 영상에 대하여 사람인식(410)에 대한 영상 분석뿐만 아니라 차량인식(425)의 영상 분석도 수행할 수 있다. 서비스 서버(100)는 저장부(120)를 통해 새로운 인식 능력 항목을 설치된 카메라의 설치 정보와 매칭하여 저장할 수 있다.
다시, 단계(S1102)에서의 영상 분석의 결과를 기초로, 서비스 서버(100)는 설치된 카메라에 대하여 기 설정된 인식 능력 항목의 등급을 결정할 수 있다(S1103). 예를 들어, 기 설정된 인식 능력 항목이 사람인식(410), 차량인식(425), 기타 객체인식(430) 및 범용(440)인 경우를 가정한다.
사람인식(410) 인식 능력 항목의 등급은, 성별, 연령 인식, 사람의 동작 인식, 얼굴 인식의 등급을 포함할 수 있다.
차량인식(425) 인식 능력 항목의 등급은, 차종인식, 운행 속도 인식, 번호판 인식의 등급을 포함할 수 있다.
기타 객체인식(430) 인식 능력 항목의 등급은 객체의 종류인식, 객체의 이동 속도 인식의 등급을 포함할 수 있다.
범용(440) 인식 능력 항목의 등급은, 구체적인 촬영 가능 대상과 관련된 등을 포함하지 않을 수 있다. 범용 카메라의 경우, 특정 인식 능력을 위한 것이 아니라 다목적으로 설치되는 경우가 많기 때문이다. 예를 들어, 범용(440) 카메라의 인식 능력 항목 등급은 야간 촬영 가능과 같이 촬영 가능 시간을 등급으로 포함할 수 있다.
서비스 서버(100)는 결정된 등급을 상기 설치된 카메라의 설치 정보에 매칭하여 저장할 수 있다(S1104).
한편, 서비스 서버(100)가 새로운 인식 능력 항목을 설정하는 입력을 수신하면, 단계(S1103)에서 제어부(140)는 새로운 인식 능력 항목에 대한 영상 분석의 결과를 기초로, 상기 설치된 카메라에 대하여 새로운 인식 능력 항목의 등급을 결정할 수 있다.
예를 들어, 기 설정된 인식 능력 항목이 사람인식(410)이고, 새로운 인식 능력 항목을 차량인식(425)이 설정된 경우를 가정한다. 또한, 사람인식(410) 항목에 대한 등급이 얼굴인식인 경우를 가정한다. 제어부(140)는 수신한 영상에 대하여 사람인식(410)의 영상 분석과 차량인식(425)의 영상 분석을 병행하여 수행한다. 이때, 수신한 영상을 분석한 결과, 차량의 차종만 인식할 수 있는 경우, 제어부(140)는 차량인식(425) 항목에 대하여, 차종인식을 등급으로 결정할 수 있다. 이 경우, 설치된 카메라의 인식 능력 항목은 사람인식(410) 및 차량인식(425)이고, 각각의 등급은 얼굴인식 및 차종인식이다.
서비스 서버(100)는 새로운 인식 능력 항목에 대하여 결정된 등급을 기 설정된 인식 능력 항목에 대한 등급과 함께 설치된 카메라의 설치 정보에 매칭하여 저장할 수 있다.
도 12는 상기 기 설정된 인식 능력 항목을 구체적으로 설정하는 방법을 설명하는 예시도이다.
도 11 및 도 12를 참조하면, 서비스 서버(100)는 소정의 위치에 설치된 카메라가 촬영한 영상(1200)을 수신할 수 있다(S1102). 상기 영상(1200)은 인도(1201)를 걷는 사람(1203)과 차도(1205)에서 운행 중인 차량(1207)을 포함한다. 사람(1203)의 성별은 남성이고, 차량(1207)은 승용차이다. 상기 카메라는 고정된 위치에서 상기 소정의 위치를 촬영하기 때문에 촬영되는 배경은 동일하다. 즉, 인도(1201)와 차도(1205)가 지속적으로 촬영된다.
제어부(140)는 고정된 위치에서 지속적으로 촬영되는 배경을 구분할 수 있다. 일정 시간대에 사람이나 차량이 배경(인도 및 차도)를 지나지만, 야간 등의 다른 시간대에는 카메라가 배경만을 촬영할 수 있다. 이와 같이 누적되어 촬영된 영상을 분석하여, 제어부(140)는 객체와 배경 지역을 구분하여 인식할 수 있다.
서비스 서버(100)는 상기 카메라로부터 촬영된 다른 영상(1210)을 수신할 수 있다. 영상(1210)은 성별이 여자인 사람(1213)이 인도(1201)를 걷는 영상을 포함한다. 또한, 서비스 서버(100)는 카메라로부터 촬영된 또 다른 영상(1240)을 수신할 수도 있다. 영상(1240)은 차도(1205) 상에 운행 중인 화물차(1247)을 포함한다.
이때, 제어부(140)는 반복되어 수신된 영상을 분석하여, 상기 소정의 위치가 인도(1201)와 차도(1205) 구분되는 것을 판단할 수 있다. 즉, 인도(1201) 상에서 촬영되는 이동 객체는 사람이고 차도(1205) 상에서 촬영되는 이동 객체는 차량으로 서로 다르다. 카메라가 이를 반복적으로 촬영하고, 서비스 서버(100)는 반복된 촬영 영상을 수신할 수 있다. 이에 따라, 제어부(140)는 반복된 촬영 영상을 분석하여, 인도 영역(1201)과 차도 영역(1205)을 구분할 수 있다.
특히, 제어부(140)는 촬영된 영상에서 객체가 특정 영역 상에서 이동 중인 경우, 이동 중인 객체의 궤적을 분석할 수 있다. 제어부(140)는 촬영된 영상을 소정의 격자 셀 단위로 구분한 후, 각 셀에서의 객체의 이동 궤적을 분석할 수 있다. 이를 위해, 제어부(140)는 각 셀 단위 별로 이전에 이동한 객체의 궤적과 현재 이동 중인 객체의 궤적의 방향이 비슷한 경우, 이전 궤적의 시작점과 현대 궤적의 종점을 합치는 평활화 작업을 수행할 수 있다. 제어부(140)는 궤적이 각 셀을 통과하는 횟수를 카운트하여 해당 지역이 이동 영역인지 정지 영역인지 분석할 수 있다. 또한, 제어부(140)는 이동 객체의 형상 및 속도를 구분하여 해당 객체가 사람인지 차량인지를 구분할 수도 있다.
단계(S1102)에서, 서비스 서버(100)의 제어부(140)는 수신한 영상 정보 상의 객체에 대한 특징점을 추출할 수 있다. 제어부(140)는 수신한 다수의 영상에 포함된 특징점을 추출하여, 각 특징점에 대한 통계분석을 수행할 수 있다. 이를 통해, 제어부(140)는 추출된 특징점의 평균값을 산출할 수 있다. 제어부(140)는 상기 평균값을 이용하여 해당 객체를 인식할 수 있다.
예를 들어, 서비스 서버(100)가 카메라로부터 영상(1200) 및 영상(1210)을 수신한 경우, 제어부(140)는 객체(1203, 1213)가 이동하는 인도 영역(1201)의 특징점을 추출할 수 있다. 이를 통해, 제어부(140)는 인도 영역(1201)에 대응되는 소정의 영역(1221)을 추출할 수 있다. 또한, 제어부(140)는 객체(1203, 1213)의 특징점으로 사람의 형상(1223)을 추출할 수 있다.
제어부(140)는 영역(1221) 상의 객체(1223)로 사람을 인식할 수 있다. 즉, 제어부(140)는 인도(1201)에 객체가 이동 중인 경우, 누적된 특징점의 평균값과 매칭하는 정도를 판단하여, 기 설정된 매칭 수준 이상인 경우, 해당 객체를 사람으로 인식할 수 있다.
또한, 서비스 서버(100)가 카메라로부터 영상(1200) 및 영상(1240)을 수신한 경우, 제어부(140)는 객체(1207, 1247)가 이동하는 차도 영역(1205)의 특징점을 추출할 수 있다. 이를 통해, 제어부(140)는 차도 영역(1205)에 대응되는 소정의 영역(1255)을 추출할 수 있다. 또한, 제어부(140)는 객체(1207, 1247)의 특징점으로 차량의 형상(1257)을 추출할 수 있다.
제어부(140)는 영역(1255) 상의 객체(1257)로 차량을 인식할 수 있다. 즉, 제어부(140)는 차도(1205)에 객체가 이동 중인 경우, 누적된 특징점의 평균값과 매칭하는 정도를 판단하여, 기 설정된 매칭 수준 이상인 경우, 해당 객체를 차량으로 인식할 수 있다.
제어부(140)는 촬영된 영상의 누적된 데이터를 통해 상기와 같이 사람 인식 또는 차량 인식을 수행할 수 있게 된다. 제어부(140)는 상기 사람인식 또는 차량인식과 같은 인식 능력을 각각 영상을 촬영한 카메라의 인식 능력 항목으로 설정할 수 있다. 즉, 인식 능력 항목은 사용자 입력 등에 따라 설정될 수도 있으나, 상술한 실시예에 따라 제어부(140)가 자동으로 설정할 수도 있다. 제어부(140)는 상기 설정된 인식 능력 항목을 영상을 촬영한 카메라의 설치 정보에 매칭하여 저장부(140)에 저장되도록 제어할 수 있다.
도 13은 본 발명의 몇몇 실시예들에서 참조되는 성능 항목의 등급을 설명하기 위한 예시도이다. 도 11 및 도 13을 참조하면, 제어부(140)는 설치된 카메라로부터 촬영된 영상(1200)을 수신할 수 있다.
단계(S1102)에서 제어부(140)는 기 설정된 인식 능력 항목에 대응하는 영상 분석 대상을 결정할 수 있다.
카메라의 영상 인식 능력이 사람인식(410)인 경우를 예로 들어 설명한다. 이 경우, 제어부(140)는 영상(1200) 중 사람(1203)을 인식할 수 있다. 제어부(140)는 영상(1200) 상의 사람(1203)을 인식함에 따라, 인식된 사람(1203)을 영상 분석 대상으로 결정할 수 있다.
다음으로, 제어부(140)는 수신한 영상 정보(1200) 중, 상기 영상 분석 대상(1203)을 포함하는 영상 정보(1310)를 추출할 수 있다. 즉, 제어부(140)는 영상(1200)으로부터 인식된 사람(1203)을 포함하는 영상 정보(1310)를 추출할 수 있다. 추출된 영상 정보(1310)는 인식 능력 항목과 관련된 특정 정보를 포함할 수 있다.
즉, 영상 정보(1310)는 사람의 성별, 연령대, 인종, 얼굴 등을 인식할 수 있는 정보를 포함할 수 있다. 특히, 영상 정보(1310)는 얼굴인식을 위하여 얼굴 형상 및 눈, 코, 입의 배치 정보 등을 포함할 수도 있다.
제어부(140)는 기 설정된 인식 능력 항목에 따라 상기 영상 정보(1310)에 대한 영상 분석을 수행할 수 있다. 예를 들어, 제어부(140)는 영상 정보(1310)에 포함된 얼굴 형상 및 눈, 코, 입의 배치 정보를 이용하여 수신 영상을 분석할 수 있다.
한편, 카메라의 영상 인식 능력이 차량인식(425)인 경우, 제어부(140)는 영상(1200) 중, 차량(1207)을 인식할 수 있다. 제어부(140)는 인식된 차량(1207)을 영상 분석 대상으로 결정할 수 있다. 또한, 제어부(140)는 차량(1207)을 포함하는 영상 정보(1320)을 추출할 수 있다. 추출된 영상 정보(1320)는 인식 능력 항목과 관련된 특정 정보를 포함할 수 있다.
즉, 영상 정보(1320)은 차량의 차종, 운행 속도, 번호판 등을 인식할 수 있는 정보를 포함할 수 있다. 특히, 영상 정보(1320)는 번호판 인식을 위한 번호판의 윤곽 및 번호판 내부의 번호의 형상 정보 등을 포함할 수도 있다.
제어부(140)는 기 설정된 인식 능력 항목에 따라 상기 영상 정보(1320)에 대한 영상 분석을 수행할 수 있다. 예를 들어, 제어부(140)는 영상 정보(1320)에 포함된 번호판의 윤곽 및 번호의 형상 정보를 이용하여 수신 영상을 분석할 수 있다.
제어부(140)는 추출한 영상 정보가 각 등급의 기준 항목을 포함하는지 판단할 수 있다. 여기에서 기준 항목이란, 설치된 카메라가 특정 인식 능력의 등급에 해당하는 것으로 인정받기 위하여, 촬영된 영상이 포함해야 하는 항목을 의미한다.
예를 들어, 기 설정된 인식 능력 항목이 사람인식(410)인 경우, 인식 능력 항목은 성별인식 등급, 연령인식 등급 및 얼굴인식의 등급을 가질 수 있다. 성별인식 등급의 기준 항목은 성별 구별을 위한, 머리카락의 길이, 얼굴 크기, 얼굴 형의 항목을 포함할 수 있다. 또한, 연령인식 등급의 기준 항목은 연령 구별을 위한, 머리카락의 색상, 얼굴 주름 등의 항목을 포함할 수 있다. 얼굴인식 등급의 기준 항목은 얼굴 인식을 위한, 얼굴 형상, 눈, 코, 입의 배치 정보의 항목을 포함할 수 있다.
또한, 기 설정된 인식 능력 항목이 차량인식(425)인 경우, 인식 능력 항목은 차종인식, 운행속도 인식 및 번호판인식의 등급을 가질 수 있다. 차종인식 등급의 기준 항목은 차종인식을 위한, 차량의 윤곽 정보, 차량의 색상 정보의 항목을 포함할 수 있다. 또한, 운행속도 인식 등급의 기준 항목은 운행속도 인식을 위한, 촬영 영상 내에서 시간당 이동 거리의 항목을 포함할 수 있다. 번호판 인식 등급의 기준 항목은 번호판 인식을 위한, 번호판 윤곽, 문자 및 번호 형상의 항목을 포함할 수 있다.
제어부(140)는 영상 정보(1320)에 대한 영상 분석을 통해, 상기 영상 정보(1320)가 상기 항목에 대한 정보를 포함하는지 판단할 수 있다. 제어부(140)는 영상 정보(1320)가 특정 항목을 포함하는 경우, 설치된 카메라가 상기 특정 항목에 대응하는 등급에 해당하는 것으로 판단할 수 있다.
예를 들어, 영상 정보(1310)에 대한 분석 결과(1330), 영상 정보(1310)가 얼굴형, 눈, 코, 입의 배치 정보(1315)를 포함하는 경우, 제어부(140)는 상기 영상(1200)를 촬영한 카메라의 등급을 얼굴인식 등급으로 결정할 수 있다. 또한, 영상 정보(1320)에 대한, 분석 결과(1340), 영상 정보(1320)가 번호판 윤곽, 문자 및 번호 형상(1325)을 포함하는 경우, 제어부(140)는 상기 영상(1200)을 촬영한 카메라의 등급을 번호판인식의 등급으로 결정할 수 있다.
도 14는 본 발명의 몇몇 실시예들에서 참조되는 저장된 카메라의 인식 능력 정보에 대한 일 예이다. 도 14를 참조하면, 카메라의 인식 능력 정보는 설치된 카메라의 위치 정보, 카메라 식별 정보 및, 인식 능력 항목 및 지도 정보를 포함할 수 있다.
도 14에서 카메라의 위치 정보는 주소 정보로 표시되었다. 상기 지도 정보는 상기 주소 정보에 대응하는 영역의 지도, 상기 영역 상에 설치된 카메라의 위치 정보, 설치된 카메라의 인식 능력을 나타내는 기호 정보를 포함할 수 있다. 도 14에서 카메라의 인식 능력 정보가 지도 정보를 포함하는 경우로 도시되었으나, 이는 예시에 불과하며, 카메라의 인식 능력 정보는 지도 정보를 포함하지 않을 수도 있다. 또한, 카메라의 인식 능력 정보는 카메라의 설치 정보를 포함하는 정보일 수도 있다.
한편, 도 14에 도시된 카메라 인식 능력 정보는 상술한 인식 능력 기반의 카메라 검색 방법의 실시예에서, 생성되는 지도 데이터일 수 있다. 예를 들어, 사용자 단말(200)로부터 검색 영역에 대한 정보로 주소 정보 1동이 입력되고, 요구 인식 능력이 사람인식, 차량인식 및 범용으로 입력된 경우, 제어부(140)는 도 14와 같은 지도 데이터를 생성할 수도 있다.
단계(S1104)에서, 제어부(140)는 카메라의 설치 정보를 기초로, 소정의 영역 상에 설치된 카메라의 인식 능력 항목 및 등급이 디스플레이된 지도 데이터를 생성할 수 있다.
카메라의 인식 능력 모니터링 방법
본 발명의 서비스 서버(100)는 카메라의 인식 능력 모니터링 방법을 수행한다.
상술한 인식 능력 기반의 카메라 검색 방법을 실시하고자 하는 경우, 서비스 서버(100)는 상술한 카메라의 인식 능력 저장 방법에 따라 저장된 데이터를 이용할 수 있다. 그러나, 카메라의 설치 상태가 변경되는 등의 이유로 카메라의 인식 능력이 변경되는 경우가 발생할 수 있다. 이 경우, 상기 저장된 데이터에 변경된 카메라의 인식 능력을 반영하지 않는다면, 서비스 서버(100)가 실제 인식 능력을 가지지 못하는 카메라를 검색하는 경우가 발생할 수 있다. 이와 같은 문제점을 해결하기 위하여, 이하, 도 15를 참조하여, 카메라의 인식 능력을 실시간 모니터링할 수 있는 방법을 설명하도록 한다. 상술한 인식 능력 기반의 카메라 검색 방법 및 카메라 인식 능력 정보 저장 방법에서 설명된 내용과 중복되는 설명은 생략하도록 한다.
도 15를 참조하면, 서비스 서버(100)는 소정의 영역 상에 설치된 카메라로부터 촬영된 영상 정보를 기 설정된 주기마다 수신할 수 있다(S1501). 서비스 서버(100)는 영상 분석을 위하여 설치된 카메라로부터 영상을 연속적으로 수신한다. 그러나, 카메라의 인식 능력을 모니터링 하기 위해서 연속적으로 모든 촬영 영상을 수신할 필요는 없다. 즉, 설치된 카메라의 인식 능력을 모니터링 하기 위하여 서비스 서버(100)는 일정한 주기마다 설치된 카메라로부터 영상을 수신할 수 있다.
또는 서비스 서버(100)의 제어부(140)는 연속적으로 수신한 카메라의 촬영 영상 중, 일부를 기 설정된 주기마다 추출할 수도 있다.
제어부(140)는 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행할 수 있다(S1502). 제어부(140)는 상기 영상 분석의 결과가 상기 기 설정된 인식 능력 항목 별 등급 조건을 만족하는지 판단할 수 있다(S1503).
상기 판단 결과, 영상 분석의 결과가 등급 조건을 만족하지 않는 경우, 제어부(140)는 설치된 카메라의 레퍼런스 설치 정보 및 상기 수신한 영상 정보를 기초로 상기 설치된 카메라의 현재 설치 상태 정보를 생성할 수 있다(S1504).
레퍼런스 설치 정보에 대하여, 도 15을 참조하여 자세히 설명하도록 한다.
도 16은 본 발명의 몇몇 실시예들에서 참조되는 카메라의 변경된 설치 상태의 일 예이다. 레퍼런스 설치 정보는 기 설정된 인식 능력 항목 별 등급 조건을 만족시키도록 설치된 카메라의 위치 정보, 설치 각도 정보 및 인식 능력 정보를 포함할 수 있다.
예를 들어, 카메라의 인식 능력이 사람인식(410)이고, 등급이 얼굴인식인 경우를 가정한다. 도 16을 참조하면, 설치 상태(1601)은 레퍼런스 설치 정보에 따른 카메라 설치 상태의 일 예이다.
설치 상태(1601)에 따라 설치된 카메라에 의해 사람이 촬영된 경우, 서비스 서버(100)는 사람이 인식된 촬영 영상(1620)을 수신할 수 있다. 사용자 단말(200)을 통해, 사용자가 사람인식의 인식 능력을 가지고, 얼굴인식 등급을 만족하는 카메라를 검색하는 경우, 상기 설치 상태(1601)에 따라 설치된 카메라가 검색될 수 있다. 이때, 사용자 단말(200)은 상기 촬영 영상(1620)을 수신하여 디스플레이할 수 있다. 이를 통해, 사용자는 인식된 얼굴에 대한 정보(1625)를 확인할 수 있다.
이때, 레퍼런스 설치 정보는 사람인식 및 얼굴인식이 가능하도록 설치된 카메라의 설치 정보이다. 즉, 레퍼런스 설치 정보는 사람인식 및 얼굴인식 등의 인식 능력에 대한 정보와 상기 인식 능력을 발휘할 수 있도록 설치된 카메라의 위치 정보, 설치 각도 정보를 포함할 수 있다.
반면, 설치 상태(1603)은 설치된 카메라의 현재 설치 상태 정보의 일 예이다. 설치 상태(1603)에 따라 카메라에 의해 사람이 촬영된 경우, 서비스 서버(100)는 사람이 인식된 촬영 영상(1630)을 수신할 수 있다. 다만, 현재 설치 상태(1603)에 따르면, 카메라가 사람을 촬영하더라도, 얼굴 부분은 촬영이 불가능하다.
이때, 사용자 단말(200)을 통해, 사용자가 사람인식의 인식 능력을 가지고, 얼굴인식 등급을 만족하는 카메라를 검색하는 경우, 상기 설치 상태(1603)에 따라 설치된 카메라가 검색될 수 있다. 그러나, 사용자 단말(200)이 상기 촬영 영상(1630)을 수신하여 디스플레이하더라도, 이를 통해, 사용자는 인식된 얼굴에 대한 정보를 확인할 수 없다. 사용자는 얼굴을 제외한 정보(1635)만을 확인할 수 있다.
이와 같은 경우, 단계(S1503)에서 제어부(140)는 영상 분석의 결과로부터 획득한 정보가 상기 기 설정된 인식 능력 항목 별 등급 조건이 요구하는 정보에 매칭되는 정도를 판단할 수 있다. 또한, 제어부(140)는 상기 매칭되는 정도가 기 설정된 임계 값 미만인 경우, 상기 영상 분석의 결과가 상기 등급 조건을 만족하지 않는 것으로 판단할 수 있다.
예를 들어, 사람인식(410)의 얼굴인식 등급은 영상이 얼굴 형상, 눈, 코, 입의 배치 정보를 포함할 것을 요구하나, 수신 영상을 분석한 결과, 이에 대한 정보가 존재하지 않는 경우를 가정한다. 제어부(140)는 이와 같은 경우 영상 분석 결과가 등급 조건을 만족하지 않는 것으로 판단할 수 있다.
이에 따라, 제어부(140)는 단계(S1504)에서 설치된 카메라의 현재 설치 상태 정보를 생성할 수 있다. 여기에서 생성된 카메라의 현재 설치 상태 정보는 카메라의 레퍼런스 설치 정보 대비 변경된 상기 설치된 카메라의 위치 정보, 설치 각도 정보 및 인식 능력 정보 중 적어도 하나를 포함할 수 있다.
즉, 도 16에 도시된 바와 같이, 레퍼런스 설치 정보에 따라 설치된 카메라의 설치 상태(1601)가 외부 환경 영향으로 변경될 수 있다. 예를 들어, 바람 등의 영향으로, 카메라의 설치 각도 변경(1613)이 발생할 수 있다. 이에 따라 현재 설치 상태(1603)는 설치 상태(1601) 대비 변경된 각도(1613)로 대상을 촬영하게 된다. 이때, 제어부(140)는 변경된 인식 능력 정보, 예를 들어, 얼굴인식 가능에서 얼굴인식 불가능으로 변경된 인식 능력 정보를 생성할 수도 있다.
서비스 서버(100)는 카메라의 현재 설치 상태 정보를 기초로 카메라 위치 보정, 카메라 설치 각도 보정, 카메라 교체 및 카메라 정비 중 적어도 하나를 포함하는 솔루션 정보를 사용자 단말(200)에 송신할 수 있다.
이를 위해, 제어부(140)는 카메라의 현재 설치 상태 정보를 바탕으로 변경된 설치 상태를 판단할 수 있다. 즉, 수신 영상이 기 설정된 인식 능력 항목 별 등급 조건을 만족시키지 못하는 경우, 현재 설치 상태를 기초로 설치 각도의 보정 각도를 연산할 수 있다. 또는, 수신되는 영상의 수준은 유사하지만 카메라의 노후화로 인식 능력이 떨어진 경우, 제어부(140)는 이를 판단하여 카메라 정비 또는 교체를 추천하는 솔루션 정보를 생성할 수도 있다.
한편, 단계(S1503)에서 영상 분석 결과가 기 설정된 인식 능력에 대한 항목별 등급 조건을 만족하는 경우, 서비스 서버(100)는 단계(S1501)을 반복한다.
도 17은 본 발명의 몇몇 실시예들에서 참조되는 모니터링된 카메라 인식 능력 정보에 대한 일 예이다.
도 17을 참조하면, 서비스 서버(100)는 단계(S1503)에서 영상 분석 결과가 기 설정된 인식 능력에 대한 항목별 등급 조건을 만족하는지 여부에 대한 판단 결과를 저장할 수 있다. 도 17에서 등급 조건 만족여부에 대한 판단 결과를 포함하는 카메라의 인식 능력 정보가 예로써 도시되었다. 즉, 서비스 서버(100)는 도 14의 카메라 인식 능력 정보에 상기 판단 결과를 매칭하여 저장할 수 있다.
사용자가 사용자 단말(200)을 통해, 1동(1701)에 설치된 차량인식 (1703)의 인식 능력을 가지는 카메라를 검색한 경우를 가정한다.
제어부(100)는 차량인식이 가능한 카메라 가능한 카메라(1705, 1707, 1709)를 선정할 수 있다. 이때, 카메라 인식 능력 정보는 각 카메라에 대한 차량인식의 등급을 포함할 수 있다. 또한, 카메라 인식 능력 정보는 등급 조건 만족여부에 대한 판단 결과를 포함할 수도 있다. 즉, 제어부(140)는 영상 분석 결과, 카메라2(1705)는 차종인식 등급을 만족하고(1725), 카메라3(1707)는 번호판 인식 등급을 만족하지 않는 것(1727)을 판단할 수 있다. 또한, 제어부(140)는 카메라5(1709)가 번호판 인식 등급을 만족한다(1729)는 것을 판단할 수 있다.
사용자 단말(200)을 통해, 사용자가 상기 카메라 인식 능력 정보를 조회하는 경우, 사용자는 카메라3(1707)의 현재 설치 상태가 변경되어 인식 능력의 등급 조건을 만족하지 못하는 것을 확인할 수 있다. 이때, 카메라 인식 능력 정보는 지도 정보를 포함할 수 있다. 지도 정보는 차량인식이 가능한 카메라(1705, 1707, 1709)의 설치 위치에 각 카메라를 나타내는 아이콘(1735, 1737, 1739)가 디스플레이되도록 제어할 수 있다. 이때, 제어부(140)는 인식 능력이 등급 조건을 만족하지 못하는 카메라3(1707)을 나타내는 아이콘(1737)이 소정의 식별 처리되어 디스플레이되도록 제어할 수도 있다.
지금까지 첨부된 도면을 참조하여 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 코드로 구현된 컴퓨터프로그램의 실행에 의하여 수행될 수 있다. 상기 컴퓨터프로그램은 인터넷 등의 네트워크를 통하여 제1 컴퓨팅 장치로부터 제2 컴퓨팅 장치에 송신되어 상기 제2 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 제2 컴퓨팅 장치에서 사용될 수 있다. 상기 제1 컴퓨팅 장치 및 상기 제2 컴퓨팅 장치는, 서버 장치, 데스크탑 PC와 같은 고정식 컴퓨팅 장치, 노트북, 스마트폰, 태블릿 피씨와 같은 모바일 컴퓨팅 장치를 모두 포함한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.

Claims (20)

  1. 서비스 서버가 수행하는 성능 정보 기반의 카메라 검색 방법에 있어서,
    요구 인식 능력에 대한 정보 및 검색 영역에 대한 정보를 포함하는 입력을 수신하는 단계;
    상기 수신된 입력에 대응하여, 기 저장된 카메라 설치 정보를 기초로 상기 검색 영역에 설치된 카메라 중 상기 요구 인식 능력을 가지는 카메라를 선정하는 단계;
    상기 선정된 카메라의 위치가 상기 검색 영역의 지도 상에 디스플레이된 지도 데이터를 생성 하는 단계; 및
    상기 생성된 지도 데이터를 사용자 단말에 송신하는 단계를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  2. 제 1 항에 있어서,
    상기 카메라를 선정하는 단계는,
    상기 기 저장된 카메라 설치 정보를 기초로, 상기 검색 영역 중 상기 요구 인식 능력에 대한 정보에 대응하는 영역을 추출하는 단계; 및
    상기 추출된 영역 상에 설치된 카메라 중, 상기 요구 인식 능력에 대한 정보에 매칭되는 인식 능력을 가지는 카메라를 선정하는 단계를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  3. 제 1 항에 있어서,
    상기 지도 데이터를 생성하는 단계는,
    상기 요구 인식 능력에 대한 정보를 기초로, 상기 선정된 카메라의 설치 위치를 포함하는 상기 검색 영역 상의 적어도 하나의 경로를 생성하는 단계; 및
    상기 적어도 하나의 경로를 포함하는 지도 데이터를 생성하는 단계를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  4. 제 3 항에 있어서,
    상기 적어도 하나의 경로를 생성하는 단계는,
    상기 요구 인식 능력에 대한 정보를 기초로, 상기 적어도 하나의 경로 상의 카메라 신규 설치 후보지를 결정하는 단계를 포함하고,
    상기 지도 데이터를 생성하는 단계는,
    상기 적어도 하나의 경로를 포함하는 지도 데이터를 생성하는 단계를 포함하되,
    상기 적어도 하나의 경로는 상기 카메라 신규 설치 후보지 및 상기 선정된 카메라의 설치 위치를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  5. 제 3 항에 있어서,
    상기 카메라를 선정하는 단계는,
    상기 검색 영역의 인접 영역에 설치된 카메라 중 상기 요구 인식 능력에 대한 정보에 매칭되는 인식 능력을 가지는 카메라를 추가로 선정하는 단계를 더 포함하고,
    상기 적어도 하나의 경로를 생성하는 단계는,
    상기 추가로 선정된 카메라의 설치 위치를 포함하는 상기 인접 영역 상의 적어도 하나의 경로를 추가로 생성하는 단계를 더 포함하고,
    상기 지도 데이터를 생성하는 단계는,
    상기 검색 영역 상의 적어도 하나의 경로 및 상기 인접 영역 상의 적어도 하나의 경로를 포함하는 지도 데이터를 생성하는 단계를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  6. 제 1 항에 있어서,
    상기 지도 데이터를 생성하는 단계는,
    상기 요구 인식 능력에 대한 정보를 기초로, 상기 선정된 카메라의 설치 위치를 포함하는 상기 검색 영역 상의 적어도 하나의 영역을 생성하는 단계; 및
    상기 적어도 하나의 영역을 포함하는 지도 데이터를 생성하는 단계를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  7. 제 6 항에 있어서,
    상기 적어도 하나의 영역을 생성하는 단계는,
    상기 요구 인식 능력에 대한 정보를 기초로, 상기 적어도 하나의 영역 상의 카메라 신규 설치 후보지를 결정하는 단계를 포함하고,
    상기 지도 데이터를 생성하는 단계는,
    상기 적어도 하나의 영역을 포함하는 지도 데이터를 생성하는 단계를 포함하되,
    상기 적어도 하나의 영역은 상기 카메라 신규 설치 후보지 및 상기 선정된 카메라 설치 위치를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  8. 제 6 항에 있어서,
    상기 입력은 추가 검색 영역에 대한 정보를 포함하고,
    상기 카메라를 선정하는 단계는,
    상기 추가 검색 영역에 설치된 카메라 중 상기 요구 인식 능력에 대한 정보에 매칭되는 인식 능력을 가지는 카메라를 추가로 선정하는 단계를 더 포함하고,
    상기 적어도 하나의 영역을 생성하는 단계는,
    상기 추가로 선정된 카메라의 설치 위치를 포함하는 상기 추가 검색 영역 상의 적어도 하나의 영역을 추가로 생성하는 단계를 더 포함하고,
    상기 적어도 하나의 영역을 포함하는 지도 데이터를 생성하는 단계는,
    상기 검색 영역 상의 적어도 하나의 영역 및 상기 추가 검색 영역 상의 적어도 하나의 영역을 포함하는 지도 데이터를 생성하는 단계를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  9. 제 1 항에 있어서,
    상기 기 저장된 카메라 설치 정보는,
    상기 설치된 카메라의 위치 정보, 사양 정보 및 설치 각도 정보를 포함하는,
    인식 능력 기반의 카메라 검색 방법.
  10. 서비스 서버가 수행하는 카메라 인식 능력 정보 저장 방법에 있어서,
    소정의 영역 상에 설치된 카메라로부터 촬영된 영상 정보를 수신하는 단계;
    상기 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행하는 단계;
    상기 영상 분석의 결과를 기초로, 상기 설치된 카메라에 대하여 기 설정된 인식 능력의 등급을 결정하는 단계; 및
    상기 결정된 등급을 상기 설치된 카메라의 설치 정보에 매칭하여 저장하는 단계를 포함하는,
    카메라의 인식 능력 정보 저장 방법.
  11. 제 10 항에 있어서,
    상기 영상 분석을 수행하는 단계는,
    상기 수신한 영상 정보 상의 객체에 대한 특징점을 추출하는 단계;
    상기 특징점을 기초로 상기 영상 정보 상의 객체에 대응하는 적어도 하나의 인식 능력 항목을 자동으로 설정하는 단계; 및
    상기 설치된 카메라의 설치 정보에 상기 설정된 적어도 하나의 인식 능력 항목을 매칭하여 저장하는 단계를 포함하는,
    카메라의 인식 능력 정보 저장 방법.
  12. 제 10 항에 있어서,
    상기 영상 분석을 수행하는 단계는,
    상기 기 설정된 인식 능력 항목에 대응하는 영상 분석 대상을 결정하는 단계;
    상기 수신한 영상 정보 중, 상기 영상 분석 대상을 포함하는 영상 정보를 추출하는 단계; 및
    상기 추출된 영상 정보에 대하여, 상기 기 설정된 인식 능력 항목에 따른 영상 분석을 수행하는 단계를 포함하는,
    카메라의 인식 능력 정보 저장 방법.
  13. 제 12 항에 있어서,
    상기 기 설정된 인식 능력 항목에 따른 영상 분석을 수행하는 단계는,
    상기 추출한 영상 정보가 등급별 기준 항목을 포함하는지 판단하는 단계를 포함하고,
    상기 기 설정된 인식 능력의 등급을 결정하는 단계는,
    상기 수신한 영상이 포함하는 기준 항목을 기초로, 상기 설치된 카메라에 대하여 기설정된 인식 능력의 등급을 결정하는,
    카메라의 인식 능력 정보 저장 방법.
  14. 제 10 항에 있어서,
    상기 영상 분석을 수행하는 단계는,
    상기 기 설정된 인식 능력 항목 외에 새로운 인식 능력 항목에 대한 입력을 수신하는 단계; 및
    상기 수신한 영상 정보에 대하여 상기 새로운 인식 능력 항목을 기초로 영상 분석을 수행하는 단계를 더 포함하고,
    상기 기 설정된 인식 능력 항목의 등급을 결정하는 단계는
    상기 영상 분석의 결과를 기초로, 상기 설치된 카메라에 대하여 새로운 인식 능력 항목의 등급을 결정하는 단계를 포함하는,
    카메라의 인식 능력 정보 저장 방법.
  15. 제 10 항에 있어서,
    상기 결정된 등급을 상기 설치된 카메라의 설치 정보에 매칭하여 저장하는 단계는,
    상기 카메라의 설치 정보를 기초로, 상기 소정의 영역 상에 설치된 카메라의 인식 능력 항목 및 등급을 디스플레이하는 지도 데이터를 생성하는 단계를 포함하는,
    카메라 인식 능력 정보 저장 방법.
  16. 서비스 서버가 수행하는 카메라 인식 능력 모니터링 방법에 있어서,
    소정의 영역 상에 설치된 카메라로부터 촬영된 영상 정보를 기 설정된 주기 마다 수신하는 단계;
    상기 수신한 영상 정보에 대하여 기 설정된 인식 능력 항목 별 영상 분석을 수행하는 단계;
    상기 영상 분석의 결과가 상기 기 설정된 인식 능력 항목 별 등급 조건을 만족하는지 판단하는 단계; 및
    상기 판단 결과, 상기 영상 분석의 결과가 상기 등급 조건을 만족하지 않는 경우,
    상기 설치된 카메라의 레퍼런스 설치 정보 및 상기 수신한 영상 정보를 기초로 상기 설치된 카메라의 현재 설치 상태 정보를 생성하는 단계를 포함하는,
    카메라의 인식 능력 모니터링 방법.
  17. 제 16 항에 있어서,
    상기 영상 분석의 결과가 상기 기 설정된 인식 능력 항목 별 등급 조건을 만족하는지 판단하는 단계는,
    상기 영상 분석의 결과로부터 획득한 정보가 상기 기 설정된 인식 능력 항목 별 등급 조건이 요구하는 정보에 매칭되는 정도를 판단하는 단계; 및
    상기 매칭되는 정도가 기 설정된 임계 값 미만인 경우, 상기 영상 분석의 결과가 상기 등급 조건을 만족하지 않는 것으로 판단하는 단계를 포함하는,
    카메라의 인식 능력 모니터링 방법.
  18. 제 16 항에 있어서,
    상기 카메라의 레퍼런스 설치 정보는,
    상기 카메라의 레퍼런스 설치 정보는 상기 기 설정된 인식 능력 항목 별 등급 조건을 만족시키도록 설치된 카메라의 위치 정보, 설치 각도 정보 및 인식 능력 정보를 포함하는,
    카메라의 인식 능력 모니터링 방법.
  19. 제 16 항에 있어서,
    상기 설치된 카메라의 현재 설치 상태 정보는,
    상기 카메라의 레퍼런스 설치 정보 대비 변경된 상기 설치된 카메라의 위치 정보, 설치 각도 정보 및 인식 능력 정보 중 적어도 하나를 포함하는,
    카메라의 인식 능력 모니터링 방법.
  20. 제 16 항에 있어서,
    상기 설치된 카메라의 현재 설치 상태 정보를 생성하는 단계는,
    상기 생성된 카메라의 현재설치 상태 정보를 기초로 상기 카메라 위치 보정, 카메라 설치 각도 보정, 카메라 교체 및 카메라 정비 중 적어도 하나를 포함하는 솔루션 정보를 사용자 단말에 송신하는 단계를 포함하는,
    카메라의 인식 능력 모니터링 방법.
KR1020150113053A 2015-08-11 2015-08-11 인식 능력 기반의 카메라 검색 방법 및 장치 KR20170019108A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150113053A KR20170019108A (ko) 2015-08-11 2015-08-11 인식 능력 기반의 카메라 검색 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150113053A KR20170019108A (ko) 2015-08-11 2015-08-11 인식 능력 기반의 카메라 검색 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20170019108A true KR20170019108A (ko) 2017-02-21

Family

ID=58313986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150113053A KR20170019108A (ko) 2015-08-11 2015-08-11 인식 능력 기반의 카메라 검색 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20170019108A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020226221A1 (ko) * 2019-05-03 2020-11-12 한화테크윈 주식회사 감시계획장치 및 이를 이용한 보안 장치 설치 솔루션 제공 방법
WO2021020645A1 (ko) * 2019-07-26 2021-02-04 한화테크윈 주식회사 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법
KR20220007257A (ko) * 2020-07-10 2022-01-18 주식회사 에이씨스테크 카메라 영상 시인성 개선 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020226221A1 (ko) * 2019-05-03 2020-11-12 한화테크윈 주식회사 감시계획장치 및 이를 이용한 보안 장치 설치 솔루션 제공 방법
WO2021020645A1 (ko) * 2019-07-26 2021-02-04 한화테크윈 주식회사 복수의 카메라들을 포함하는 네트워크 시스템과 통신하는 컴퓨터 장치 및 그것의 동작 방법
KR20220007257A (ko) * 2020-07-10 2022-01-18 주식회사 에이씨스테크 카메라 영상 시인성 개선 시스템

Similar Documents

Publication Publication Date Title
US11328163B2 (en) Methods and apparatus for automated surveillance systems
KR102652023B1 (ko) 실시간 교통 정보 제공 방법 및 장치
US9405978B2 (en) Prioritization of facial recognition matches based on likely route
JP6203208B2 (ja) 道路構造物管理システム、及び道路構造物管理方法
KR100968433B1 (ko) 차량번호 인식정보 저장 시스템과 그 시스템을 이용한 차량 영상정보 검색 시스템
US20150338497A1 (en) Target tracking device using handover between cameras and method thereof
JP6013923B2 (ja) ビデオエピソードの閲覧及び検索のためのシステム及び方法
CN109961458B (zh) 目标对象的追踪方法、装置及计算机可读存储介质
KR101404153B1 (ko) 지능형 cctv 통합관제시스템
US20180182170A1 (en) Method and apparatus for generating a search pattern for an incident scene
KR101678004B1 (ko) 노드-링크 기반 카메라 네트워크 통합 감시 시스템 및 감시 방법
KR101645959B1 (ko) 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
CN113196331A (zh) 利用卫星影像的应用服务提供装置及方法
US20160232789A1 (en) Method of Guiding a User to a Suitable Parking Spot
KR20170019108A (ko) 인식 능력 기반의 카메라 검색 방법 및 장치
KR102181032B1 (ko) 실시간 도로교통정보 제공 서버 및 이의 동작 방법
RU120270U1 (ru) Комплекс контроля проезда пешеходных переходов
KR20220147566A (ko) 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
CN111275957A (zh) 一种交通事故信息采集方法、系统及摄像机
KR101579275B1 (ko) 위험객체 위치추적을 통한 실시간 모니터링을 이용한 방범보안 시스템
US11227007B2 (en) System, method, and computer-readable medium for managing image
Ng et al. Mobile outdoor parking space detection application
KR102030736B1 (ko) 다중 분산 영상 데이터 분석 장치
KR102099816B1 (ko) 실시간 로드 영상을 통해 유동 인구 데이터를 수집하는 방법 및 장치
EP3770855A1 (en) Information processing device, person search system, place estimation method, and non-temporary computer-readable medium in which program is stored