KR102454920B1 - 감시 시스템 및 그 동작 방법 - Google Patents

감시 시스템 및 그 동작 방법 Download PDF

Info

Publication number
KR102454920B1
KR102454920B1 KR1020180036605A KR20180036605A KR102454920B1 KR 102454920 B1 KR102454920 B1 KR 102454920B1 KR 1020180036605 A KR1020180036605 A KR 1020180036605A KR 20180036605 A KR20180036605 A KR 20180036605A KR 102454920 B1 KR102454920 B1 KR 102454920B1
Authority
KR
South Korea
Prior art keywords
cameras
camera
information
processor
images
Prior art date
Application number
KR1020180036605A
Other languages
English (en)
Other versions
KR20190114223A (ko
Inventor
이호웅
조성봉
목승준
성민석
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020180036605A priority Critical patent/KR102454920B1/ko
Publication of KR20190114223A publication Critical patent/KR20190114223A/ko
Application granted granted Critical
Publication of KR102454920B1 publication Critical patent/KR102454920B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 복수의 카메라들로부터 복수의 영상들을 수신하는 통신 인터페이스, 상기 복수의 카메라들 각각의 위치 정보를 저장하는 메모리, 상기 복수의 영상들 중 적어도 하나의 영상을 표시하는 디스플레이 모듈, 및 상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 상기 디스플레이 모듈에 표시하는 프로세서를 포함한다.

Description

감시 시스템 및 그 동작 방법{SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF}
본 발명은 복수의 영상들 중 일부 영상들을 선택적으로 제공하는 감시 시스템 및 그 동작 방법에 관한 것이다.
최근 들어, 방범, 보안, 매장 관리 등 다양한 목적으로 건물 내부나 외부, 길거리 등에 카메라를 설치하는 경우가 증가하고 있다. 이러한 카메라는 유선 또는 무선으로 네트워크를 통하여 서로 연결되어 네트워크 카메라로서의 기능을 수행할 수 있다.
또한, 카메라가 설치된 장소를 관리하는 관리자는 개인용 컴퓨터 등을 통하여 카메라에 접속하여 원격으로 건물이나 매장 등의 원격지를 관리할 수 있다.
KR 10-1594048 B1
본 발명이 해결하고자 하는 과제는 다양하게 감시 영역을 감시하는 감시 시스템 및 그 동작 방법을 제공하는 것이다.
또한, 정확하게 감시 영역을 감시하는 감시 시스템 및 그 동작 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 복수의 카메라들로부터 복수의 영상들을 수신하는 통신 인터페이스, 상기 복수의 카메라들 각각의 위치 정보를 저장하는 메모리, 상기 복수의 영상들 중 적어도 하나의 영상을 표시하는 디스플레이 모듈, 및 상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 상기 디스플레이 모듈에 표시하는 프로세서를 포함한다.
본 실시예에서, 상기 적어도 2개의 영상들은 각각 2차원 영상이고, 상기 프로세서는 상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시할 수 있다.
본 실시예에서, 상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고, 상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하고, 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하고, 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.
본 실시예에서, 상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 사용자 인터페이스를 더 포함하고, 상기 프로세서는 상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출할 수 있다.
본 실시예에서, 상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고, 상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하고, 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하고, 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.
본 실시예에서, 상기 제1 카메라는 이벤트를 감지한 카메라일 수 있다.
본 실시예에서, 상기 통신 인터페이스는 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하고, 상기 제1 카메라는 상기 GPS 정보가 상기 제1 촬영 가능 범위 정보에 속할 수 있다.
본 실시예에서, 상기 위치 정보는 GPS 정보를 나타내고, 상기 통신 인터페이스는 외부 서버로부터 상기 GPS 정보를 수신하고, 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하고, 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하고, 상기 프로세서는 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택할 수 있다.
본 실시예에서, 상기 프로세서는 카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택할 수 있다.
본 실시예에서, 상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 공통될 수 있다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템의 동작 방법은 통신 인터페이스에 의해 복수의 카메라들로부터 복수의 영상들을 수신하는 단계, 메모리에 의해 상기 복수의 카메라들 각각의 위치 정보를 저장하는 단계, 프로세서에 의해 상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하는 단계, 상기 프로세서에 의해 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈에 표시하는 단계를 포함한다.
본 실시예에서, 상기 적어도 2개의 영상들은 각각 2차원 영상이고, 상기 적어도 2개의 영상들을 처리하여 디스플레이 모듈에 표시하는 단계는, 상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시하는 단계일 수 있다.
본 실시예에서, 상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고, 상기 적어도 2개의 카메라들을 선택하는 단계는, 상기 프로세서에 의해 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하는 단계, 상기 프로세서에 의해 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하는 단계, 및 상기 프로세서에 의해 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하는 단계를 포함하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.
본 실시예에서, 사용자 인터페이스에 의해 상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 단계를 더 포함하고, 상기 제1 IP 주소 정보를 추출하는 단계는, 상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출하는 단계일 수 있다.
본 실시예에서, 상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고, 상기 적어도 2개의 카메라들을 선택하는 단계는, 상기 프로세서에 의해 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하는 단계, 상기 프로세서에 의해 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하는 단계, 및 상기 프로세서에 의해 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하는 단계를 포함하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.
본 실시예에서, 상기 제1 카메라는 이벤트를 감지한 카메라일 수 있다.
본 실시예에서, 상기 통신 인터페이스에 의해 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하는 단계를 더 포함하고, 상기 제1 촬영 가능 범위 정보를 추출하는 단계는 상기 메모리로부터 상기 GPS 정보가 속하는 상기 제1 촬영 가능 범위 정보를 추출하는 단계일 수 있다.
본 실시예에서, 상기 위치 정보는 GPS 정보를 나타내고, 상기 적어도 2개의 카메라들을 선택하는 단계는, 상기 통신 인터페이스에 의해 외부 서버로부터 상기 GPS 정보를 수신하는 단계, 상기 통신 인터페이스에 의해 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하는 단계, 상기 통신 인터페이스에 의해 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하는 단계, 및 상기 프로세서에 의해 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택하는 단계를 포함할 수 있다.
본 실시예에서, 상기 적어도 2개의 카메라들을 선택하는 단계는 카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택하는 단계일 수 있다.
본 실시예에서, 상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 소정 범위 이상일 수 있다.
본 발명의 실시예들에 따르면, 보다 다양한 방향에서 감시 영역을 감시할 수 있다.
또한, 보다 정확하게 감시 영역을 감시할 수 있다.
도 1은 일 실시예에 따른 감시 시스템 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 감시 시스템의 구성을 나타내는 블록도이다.
도 3 내지 도 8은 각각 일 실시예에 따른 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 9 내지 도 12는 각각 일 실시예에 따른 적어도 2개의 카메라들의 선택 방법을 설명하기 위한 흐름도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.
도 1은 일 실시예에 따른 감시 시스템 환경(1)을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 감시 시스템 환경(1)은 카메라(10), 게이트웨이(20), 네트워크(30), 서버(40) 및 클라이언트 단말(50)을 포함한다.
일 실시예에 따른 감시 시스템 환경(1)은 게이트웨이(20)에서 수집된 카메라 (10)의 정보가 네트워크(30)를 통해 서버(40)로 전송되는 구성을 제공할 수 있다. 관리자는 클라이언트 단말(50)을 이용하여 서버(40)에 전송된 정보를 모니터링할 수 있다.
카메라(10)는 감시 영역을 촬영하여 감시 영역에 대한 영상을 획득한다. 카메라(10)는 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다.
카메라(10)는 하나 이상 구비될 수 있다. 예를 들어, 카메라(10)는 카메라 A(11) 내지 카메라 N(1n)를 포함할 수 있다. 카메라 A(11) 내지 카메라 N(1n)는 제1 영상 내지 제n 영상을 게이트웨이(20)에 전송할 수 있다.
카메라(10)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌 배율이 조절 가능한 PTZ 카메라일 수 있다. 카메라(10)는 180도 이상의 화각을 가지는 어안 카메라(fisheye camera)일 수 있다. 카메라(10)의 설치 위치, 설치 방향, 패닝 각도, 틸팅 각도, 및 렌즈의 줌 배율 범위에 따라 촬영 가능 범위 정보가 결정될 수 있다.
카메라(10)는 배터리로 구동되는 저전력 카메라일 수 있다.
예를 들어, 저전력 카메라는 평상시 슬립 모드(sleep mode)를 유지하고, 주기적으로 깨어나(wake up) 이벤트가 발생하였는지 여부를 체크한다. 저전력 카메라는 이벤트가 발생한 경우 액티브 모드(active mode)로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀한다. 이와 같이, 저전력 카메라는 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 전력 소모를 줄일 수 있다.
예를 들어, 저전력 카메라는 스케줄에 따라 동작 모드를 변경할 수 있다. 저전력 카메라는 스케줄에 따라 액티브 모드를 유지함으로써 전력 소모를 줄일 수 있다.
카메라(10)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 게이트웨이(20)와 통신할 수 있다. 예를 들면, 카메라(10)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 게이트웨이(20)와 통신할 수 있다.
게이트웨이(20)는 카메라(10)로부터 전송된 정보에 기초하여 카메라(10)의 상태를 인식할 수 있고, 인식된 카메라(10)의 상태에 따라 서버(40)에 명령 또는 알람을 전송할 수 있다.
게이트웨이(20)는 이더넷(Ethernet), 와이파이, 블루투스 등 다양한 유무선 통신 방식을 이용하여 서버(40)에 정보를 전송할 수도 있고, 서버(40)로부터 명령을 수신할 수도 있다.
네트워크(30)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등이 될 수 있다.
서버(40)는 네트워크(30)를 통해 카메라(10)로부터 전송된 정보를 클라이언트 단말(50)에 전달할 수 있고, 클라이언트 단말(50)로부터의 사용자 입력에 기초하여 명령을 생성한 후 네트워크(30)를 통해 카메라(10)에 전송할 수 있다.
클라이언트 단말(50)은 서버(40)로부터 전송된 정보를 재생할 수 있고, 저장할 수도 있다. 예를 들어, 클라이언트 단말(50)은 서버(40)로부터 전송된 영상을 표시할 수 있다.
클라이언트 단말(50)은 사용자 입력을 수신하여 서버(40)에 전송할 수 있다. 사용자 입력은 소정의 카메라(10)를 지정하는 사용자 입력일 수 있다.
클라이언트 단말(50)은 적어도 하나 이상의 프로세서를 포함할 수 있다. 클라이언트 단말(50)은 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 클라이언트 단말(50)은 개인용 컴퓨터 또는 이동 단말일 수 있다.
도 2는 일 실시예에 따른 감시 시스템(100)의 구성을 나타내는 블록도이다.
도 2를 참조하며, 일 실시예에 따른 감시 시스템(100)은 통신 인터페이스(110), 메모리(120), 디스플레이 모듈(130), 프로세서(140), 및 사용자 인터페이스(150)를 포함한다.
통신 인터페이스(110)는 복수의 카메라들로부터 복수의 영상들을 수신한다. 복수의 카메라들은 예를 들어, 카메라 A(11) 내지 카메라 N(1n)일 수 있다.
통신 인터페이스(110)는 외부 서버(미도시)로부터 GPS(Global Positioning System) 정보를 수신할 수 있다.
외부 서버(미도시)는 경찰 서버나 날씨 서버와 같은 공공기관 서버, 방송국 서버, 교통 서버, 통신 서버 등일 수 있으며, 이에 한정하지 않는다.
GPS 정보는 이벤트 발생 위치를 좌표로 나타낼 수 있다. GPS 정보는 예를 들어, 범죄 발생 위치, 천재지변 발생 위치, 방송되는 장소의 위치, 이동 차량의 위치, 이동 단말의 위치 등일 수 있으며, 이에 한정하지 않는다.
통신 인터페이스(110)는 복수의 카메라들에 각각 GPS 정보를 전송하고, 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신할 수 있다.
촬영 가능 여부에 대한 응답은 복수의 카메라들 각각의 촬영 가능 범위에 GPS 정보가 속하는지 여부에 따라 결정될 수 있다. 예를 들어, 통신 인터페이스(110)에 의해 카메라(10)에 전송된 GPS 정보가 카메라(10)의 촬영 가능 범위에 속하는 경우, 통신 인터페이스(110)는 카메라(10)로부터 GPS 정보에 대한 촬영 가능 응답을 수신할 수 있다. 한편, 통신 인터페이스(110)에 의해 카메라(10)에 전송된 GPS 정보가 카메라(10)의 촬영 가능 범위에 속하지 않는 경우, 통신 인터페이스(110)는 카메라(10)로부터 GPS 정보에 대한 촬영 불가 응답을 수신할 수 있다.
메모리(120)는 복수의 카메라들 각각의 위치 정보를 저장한다.
위치 정보는 카메라(10)의 IP(Internet Protocol) 주소 정보, 카메라(10)의 촬영 가능 범위 정보, 또는 카메라(10)의 GPS 정보일 수 있으며, 이에 한정하지 않는다.
메모리(120)는 카메라(10)와 카메라(10)의 위치 정보를 매칭하여 저장할 수 있다.
디스플레이 모듈(130)은 복수의 영상들 중 적어도 하나의 영상을 표시할 수 있다.
예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상 중 제1 영상을 표시할 수 있다.
예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상들을 동시에 표시할 수 있다.
예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상 중 적어도 2개의 영상들을 동시에 표시할 수 있다.
예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상 중 적어도 2개의 영상들에 의한 3차원 영상을 표시할 수 있다.
프로세서(140)는 위치 정보에 기초하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈(130)에 표시한다.
영상은 2차원 영상일 수 있다. 이때, 프로세서(140)는 적어도 2개의 2차원 영상들을 축소 처리하여 디스플레이 모듈(130)에 표시할 수 있다. 프로세서(140)는 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고, 디스플레이 모듈(130)에 하나의 3차원 영상을 표시할 수도 있다.
프로세서(140)는 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택할 수 있으며, 이에 한정하지 않는다.
예를 들어, 프로세서(140)는 복수의 카메라들 중 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 공통되는 적어도 2개의 카메라들을 선택할 수 있다.
프로세서(140)는 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위의 우선 순위에 기초하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택할 수 있으며, 이에 한정하지 않는다.
예를 들어, 프로세서(140)는 복수의 카메라들 중 사양, 화질, 또는 촬영 가능 범위가 상이하더라도 소정 시점에 스케줄이 비어있는 적어도 2개의 카메라들을 선택할 수 있다.
예를 들어, 프로세서(140)는 소정 시점에 스케줄이 비어있는 카메라들 중 촬영 가능 범위가 공통된 적어도 2개의 카메라들을 선택할 수 있다.
한편, 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출하고, 메모리(120)로부터 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하고, 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택할 수 있다.
제2 카메라는 제1 카메라와 구별되는 카메라를 의미한다. 제1 카메라 및 하나 이상의 제2 카메라들은 복수의 카메라들에 포함될 수 있다.
프로세서(140)는 제1 카메라 및 하나 이상의 제2 카메라들로부터 수신한 적어도 2개의 영상들 즉, 제1 영상 및 하나 이상의 제2 영상들을 처리하여 디스플레이 모듈(130)에 표시할 수 있다.
IP 주소 정보는 카메라(10)를 구별하는 식별 정보일 수 있다. 제1 IP 주소 정보는 제1 카메라의 식별 정보일 수 있고, 제2 IP 주소 정보는 제2 카메라의 식별 정보일 수 있다. 즉, 제1 IP 주소 정보와 제2 IP 주소 정보는 구별될 수 있다.
프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력에 대응하여 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출할 수 있다.
프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라의 이벤트 감지에 대응하여 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출할 수 있다. 이벤트는 예를 들어, 카메라(10) 작동의 이상, 모션, 범죄, 천재지변, 방송되는 장소, 객체의 이동 등일 수 있으며, 이에 한정하지 않는다.
프로세서(140)는 제1 IP 주소 정보를 기준으로 하나 이상의 제2 IP 주소 정보들을 추출할 수 있다.
예를 들어, 프로세서(140)는 사용자 입력 또는 이벤트 감지에 대응하여 복수의 카메라들 중 카메라 A(11)를 선택할 수 있다. 이때, 프로세서(140)는 카메라 A(11)와 동일한 게이트웨이(20)에 접근 가능하거나, IP 주소 정보의 적어도 일부가 일치하거나, 소정의 물리적 거리에 존재하는 것으로 판단되는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.
한편, 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하고, 메모리(120)로부터 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하고, 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택할 수 있다.
촬영 가능 범위는 앞서 설명한 바와 같이, 카메라(10)의 설치 위치, 설치 방향, 패닝 각도, 틸팅 각도, 및 렌즈의 줌 배율 범위 중 적어도 하나에 기초하여 결정될 수 있다. 촬영 가능 범위는 GPS 정보로 정의될 수 있으며, 이에 한정하지 않는다.
프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력에 대응하여 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출할 수 있다.
프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라의 이벤트 감지에 대응하여 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출할 수 있다.
프로세서(140)는 예를 들어, 외부 서버(미도시)로부터 수신한 GPS 정보에 대응하여 메모리(120)로부터 GPS 정보가 속한 제1 촬영 가능 범위 정보를 추출할 수 있다.
한편, 프로세서(140)는 예를 들어, 통신 인터페이스(110)를 통해 촬영 가능 응답을 전송한 카메라(10)들 중 적어도 2개의 카메라들을 선택할 수 있다.
사용자 인터페이스(150)는 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 제1 IP 주소 정보를 포함하는 사용자 입력을 수신할 수 있다.
사용자 인터페이스(150)는 이벤트를 설정하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 GPS 정보를 전송하는 외부 서버(미도시)를 선정하는 사용자 입력을 수신할 수 있다.
사용자 인터페이스(150)는 적어도 2개의 영상들에 대한 디스플레이 모드를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 적어도 2개의 2차원 영상들을 디스플레이 모듈(130)에 동시에 표시하는 2차원 영상 디스플레이 모드를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 적어도 2개의 2차원 영상들로부터 생성된 하나의 3차원 영상을 디스플레이 모듈(130)에 표시하는 3차원 영상 디스플레이 모드를 선택하는 사용자 입력을 수신할 수 있다.
사용자 인터페이스(150)는 적어도 2개의 영상들에 대한 선택 기준을 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 적어도 2개의 영상들에 대한 선택 기준으로 선택하는 사용자 입력을 수신할 수 있다. 사용자 인터페이스(150)는 예를 들어, 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위의 우선 순위를 선택하는 사용자 입력을 수신할 수 있다.
본 발명의 실시예들에 따른 감시 시스템(100)은 하나의 물리적 장치로 구현될 수도 있고, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해 감시 시스템(100)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되거나 설치되고, 나머지 일부는 다른 물리적 장치로 구현되거나 설치될 수도 있다.
한편, 감시 시스템(100)은 게이트웨이(20), 서버(40) 또는 클라이언트 단말(50)에 내장될 수도 있고, 게이트웨이(20), 서버(40) 또는 클라이언트 단말(50)과 별개로 구비된 장치에 적용될 수도 있다.
이하에서는, 도 3 내지 도 12를 참조하여 본 발명의 실시예들에 따른 감시 시스템(100)의 동작 방법에 대하여 상세하게 설명한다. 이하에서는, 앞서 설명한 부분과 동일한 부분에 대한 설명은 생략하거나 간단히 한다.
도 3 내지 도 8은 각각 일 실시예에 따른 감시 시스템(100)의 동작 방법을 설명하기 위한 흐름도이다.
도 1 내지 도 3을 참조하면, 통신 인터페이스(110)는 복수의 카메라들로부터 복수의 영상들을 수신한다(S101).
예를 들어, 통신 인터페이스(110)는 소정 네트워크에 포함된 카메라 A(11) 내지 카메라 N(1n) 각각으로부터 영상을 수신할 수 있다.
이어서, 메모리(120)는 복수의 카메라들 각각의 위치 정보를 저장한다(S103).
예를 들어, 메모리(120)는 소정 네트워크가 구축되는 시점에 카메라 A(11) 내지 카메라 N(1n) 각각의 위치 정보를 저장할 수 있다.
예를 들어, 메모리(120)는 임의의 시점에 카메라 A(11) 내지 카메라 N(1n) 각각으로부터 전송된 위치 정보를 저장할 수 있다.
이어서, 프로세서(140)는 위치 정보에 기초하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택한다(S105).
이하에서는, 도 4 및 도 5를 참조하여 위치 정보가 IP 주소 정보를 나타내는 경우에 대하여 상세하게 설명한다.
이하의 제1 카메라 및 하나 이상의 제2 카메라들은, 도 3의 S101, S103, S105의 복수의 카메라들에 포함될 수 있으며, 도 3의 S105, S107의 적어도 2개의 카메라들에 해당될 수 있다.
도 4를 참조하면, 제1 카메라에서 이벤트가 감지되면(S201), 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출한다(S203).
프로세서(140)는 이벤트가 감지된 카메라(10)를 제1 카메라로 결정할 수 있다. 프로세서(140)는 카메라(10)로부터 수신한 영상을 분석함으로써, 카메라(10)에 의해 이벤트가 감지되는지 여부를 판단할 수 있다. 프로세서(140)는 이벤트 정보를 전송한 카메라(10)를 제1 카메라로 결정할 수도 있다.
프로세서(140)는 예를 들어, 카메라 A(11)에 의해 범죄 행위 또는 화재 발생과 같은 이벤트가 감지되면, 메모리(120)로부터 카메라 A(11)의 IP 주소 정보를 추출할 수 있다.
이어서, 프로세서(140)는 메모리(120)로부터, 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출한다(S205).
예를 들어, 프로세서(140)는 카메라 A(11)의 IP 주소 정보로부터 소정 거리 이내에 존재하는 카메라 B(12)의 IP 주소 정보 내지 카메라 N(1n)의 IP 주소 정보를 추출할 수 있다.
이때, 카메라 A(11)의 IP 주소 정보 내지 카메라 N(1n)의 IP 주소 정보는 동일한 게이트웨이(20)에 접근 가능한 IP 주소 정보이거나, IP 주소 정보의 적어도 일부가 일치하거나, 소정의 물리적 거리에 존재하는 IP 주소 정보일 수 있다.
이어서, 프로세서(140)는 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S207).
예를 들어, 프로세서(140)는 카메라 B(12)의 IP 주소 정보 내지 카메라 N(1n)의 IP 주소 정보에 대응하는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.
도 5를 참조하면, 사용자 인터페이스(150)가 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력을 수신하면(S301), 프로세서(140)는 사용자 입력에 대응하여 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출한다(S303).
예를 들어, 사용자 인터페이스(150)는 제1 카메라를 가리키는 제1 IP 주소 정보를 포함하는 사용자 입력을 수신하거나, 이벤트가 감지된 제1 카메라를 가리키는 사용자 입력을 수신할 수 있으며, 이에 한정하지 않는다.
이어서, 프로세서(140)는 메모리(120)로부터, 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출한다(S305).
이어서, 프로세서(140)는 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S307).
본 실시예들에 따르면, 소정 감시 영역이 다양한 각도에서 촬영된 영상들을 획득함으로써, 감시 대상을 보다 정확하게 파악할 수 있으며, 감시를 보다 강화할 수 있다.
본 실시예들에 따르면, IP 주소 정보라는 기존 정보를 이용함으로써, 자원을 보다 효율적으로 활용할 수 있다.
이하에서는, 도 6 내지 도 8을 참조하여 위치 정보가 카메라(10)의 촬영 가능 범위 정보를 나타내는 경우에 대하여 상세하게 설명한다. 여기서, 카메라(10)의 촬영 가능 범위 정보는 GPS 정보일 수 있으며, 이에 한정되지 않는다.
도 6을 참조하면, 제1 카메라에서 이벤트가 감지되면(S401), 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출한다(S403).
예를 들어, 프로세서(140)는 이벤트가 감지된 카메라 A(11)의 촬영 가능 범위 정보를 추출할 수 있다.
이어서, 프로세서(140)는 메모리(120)로부터 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출한다(S405).
예를 들어, 프로세서(140)는 카메라 A(11)의 촬영 가능 범위 정보와 적어도 일부가 동일한 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보를 추출할 수 있다.
이어서, 프로세서(140)는 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S407).
예를 들어, 프로세서(140)는 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보에 대응하는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.
이때, 카메라 B(12) 내지 카메라 N(1n)은 각각 카메라 A(11)와 적어도 일부의 감시 영역을 동시에 촬영할 수 있는 카메라(10)일 수 있다.
예를 들어, 카메라 B(12) 내지 카메라 N(1n)은 각각 카메라 A(11)에 의해 감지된 이벤트 발생 영역을, 카메라 A(11)와는 다른 방향에서, 카메라 A(11)와 동시에 촬영할 수 있다.
본 실시예에 따르면, 이벤트 발생 영역을 다양한 각도에서 촬영한 영상들을 획득할 수 있으므로, 이벤트 발생 상황을 보다 정확하게 파악할 수 있고, 이로 인해 사용자는 이벤트 발생 상황에 보다 적합하게 대처할 수 있다.
도 7을 참조하면, 통신 인터페이스(110)가 외부 서버(미도시)로부터 GPS 정보를 수신하면(S501), 프로세서(140)는 메모리(120)로부터 GPS정보가 속하는 제1 촬영 가능 범위 정보를 추출한다(S503).
예를 들어, 프로세서(140)는 메모리(120)에 저장된 복수의 카메라들 각각의 촬영 가능 범위 정보 중에서 GPS 정보와 동일한 값을 가지는 카메라 A(11)의 촬영 가능 범위 정보를 추출할 수 있다. 예를 들어, GPS 정보는 화재 발생 위치를 가리킬 수 있고, 프로세서(140)는 복수의 카메라들의 촬영 가능 범위 정보들 중 화재 발생 위치를 포함하는 카메라 A(11)의 촬영 가능 범위 정보를 추출할 수 있다.
이어서, 프로세서(140)는 메모리(120)로부터 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출한다(S505).
예를 들어, 프로세서(140)는 카메라 A(11)의 촬영 가능 범위 정보와 적어도 일부가 동일한 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보를 추출할 수 있다.
이때, 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보는 각각 GPS 정보를 포함할 수도 있고, GPS 정보를 포함하지 않을 수도 있다.
이어서, 프로세서(140)는 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S507).
예를 들어, 프로세서(140)는 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보에 대응하는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.
이때, 카메라 B(12) 내지 카메라 N(1n)은 각각 GPS 정보가 가리키는 위치를 촬영하는 카메라(10)일 수도 있고, GPS 정보가 가리키는 위치를 촬영하지 않는 카메라(10)일수도 있다.
예를 들어, 카메라 B(12)는 화재 발생 위치를 카메라 A(11)와 다른 각도에서 촬영할 수 있고, 카메라 D(14)는 화재 발생 위치 주변을 카메라 A(11)와 다른 각도에서 촬영할 수 있다.
본 실시예에 따르면, 메모리(120)에 미리 저장된 카메라(10)의 촬영 가능 범위 정보를 활용함으로써, 감시 시스템(100)이 감시 동작을 보다 빠르게 수행할 수 있다.
도 8을 참조하면, 감시 시스템(100)은 통신 인터페이스(110)에 의해, 외부 서버(미도시)로부터 GPS 정보를 수신한다(S601).
이어서, 감시 시스템(100)은 통신 인터페이스(110)에 의해, 카메라 A(11)에 GPS 정보를 전송하고(S602-1), 카메라 B(12)에 GPS 정보를 전송하고(S602-2), 카메라 C(13)에 GPS 정보를 전송하고(S602-3), 카메라 D(14)에 GPS 정보를 전송한다(S602-4).
즉, 통신 인터페이스(110)는 복수의 카메라들에 각각 GPS 정보를 전송할 수 있다.
이어서, 감시 시스템(100)은 통신 인터페이스(110)에 의해, 카메라 A(11)로부터 촬영 가능 응답을 수신하고(S603-1), 카메라 B(12)로부터 촬영 가능 응답을 수신하고(S603-2), 카메라 C(13)로부터 촬영 가능 응답을 수신하고(S603-3), 카메라 D(14)로부터 촬영 불가 응답을 수신한다(S603-4).
즉, 통신 인터페이스(110)는 복수의 카메라들로부터 GPS 정보에 대응하는 촬영 가능 여부에 대한 응답을 수신할 수 있다.
이어서, 감시 시스템(100)은 프로세서(140)에 의해 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 적어도 2개의 카메라들을 선택한다(S604).
예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 중 적어도 2개의 카메라들을 선택할 수 있다.
본 실시예에 따르면, 실시간으로 업데이트되는 카메라(10)의 촬영 가능 범위 정보를 활용함으로써, 감시 시스템(100)이 보다 정확하게 감시 동작을 수행할 수 있다.
본 실시예들에 따르면, 이벤트 발생 영역을 다양한 각도에서 촬영한 영상들을 획득할 수 있으므로, 사용자가 이벤트 발생 상황을 보다 정확하게 파악할 수 있다.
본 실시예들에 따르면, 이벤트 발생 영역뿐만 아니라 이벤트 발생 영역 주변을 촬영한 영상들을 동시에 획득할 수 있으므로, 사용자가 이벤트 변경 경로를 실시간으로 정확하게 파악할 수 있다.
본 실시예들에 따르면, PTZ 카메라의 패닝, 틸팅, 및 줌 배열 조절 동작에 따른 촬영 가능 범위 정보를 최대한 이용함으로써, 자원을 보다 효율적으로 활용할 수 있다.
이하에서는, 도 9 내지 도 12를 참조하여 프로세서(140)가 적어도 2개의 카메라들을 선택하기 위한 다양한 기준에 대하여 상세하게 설명한다.
도 9 내지 도 12는 각각 일 실시예에 따른 적어도 2개의 카메라들의 선택 방법을 설명하기 위한 흐름도이다.
도 9를 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 스케줄을 확인한다(S711).
예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 스케줄을 확인할 수 있다.
이어서, 프로세서(140)는 소정 시점에 스케줄이 비어있는 적어도 2개의 카메라들을 선택한다(S712).
예를 들어, 프로세서(140)는 현재 스케줄이 비어있는 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.
본 실시예에 따르면, 공백 없이 감시 영역을 감시하는 감시 시스템(100)을 제공할 수 있다.
도 10을 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 사양을 확인한다(S721).
예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 사양을 확인할 수 있다.
이어서, 프로세서(140)는 소정 사양을 만족하거나 사양이 공통된 적어도 2개의 카메라들을 선택한다(S722).
예를 들어, 프로세서(140)는 줌 배율이 동일한 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.
도 11을 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 화질을 확인한다(S731).
예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 화질을 확인할 수 있다.
이어서, 프로세서(140)는 소정 화질을 만족하거나 화질이 공통된 적어도 2개의 카메라들을 선택한다(S722).
예를 들어, 프로세서(140)는 제공하는 화질이 동일한 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.
본 실시예들에 따르면, 복수의 카메라들을 이용하는 경우라 하더라도 품질이 일정한 감시 영상을 제공하는 감시 시스템(100)을 제공할 수 있다.
도 12를 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 촬영 가능 범위를 확인한다(S721).
예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 촬영 가능 범위를 확인할 수 있다.
이어서, 프로세서(140)는 촬영 가능 범위가 소정 범위 이상인 적어도 2개의 카메라들을 선택한다(S722).
예를 들어, 프로세서(140)는 패닝 각도, 틸팅 각도, 및 줌 배율이 소정 범위 이상인 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.
본 실시예에 따르면, 복수의 카메라들을 이용하여 최대한 넓은 감시 영역을 감시할 수 있는 감시 시스템(100)을 제공할 수 있다.
다시 도 3을 참조하면, 프로세서(140)는 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈(130)에 표시한다(S107).
이때, 적어도 2개의 영상들은 각각 2차원 영상일 수 있다.
예를 들어, 프로세서(140)는 적어도 2개의 2차원 영상들을 축소 처리하여 디스플레이 모듈(130)에 동시에 표시할 수 있다.
예를 들어, 프로세서(140)는 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고, 디스플레이 모듈(130)에 하나의 3차원 영상을 표시할 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
1: 감시 시스템 환경
10: 카메라
11: 카메라 A
12: 카메라 B
13: 카메라 C
14: 카메라 D
1n: 카메라 N
20: 게이트웨이
30: 네트워크
40: 서버
50: 클라이언트 단말

Claims (20)

  1. 복수의 카메라들로부터 복수의 영상들을 수신하는 통신 인터페이스;
    상기 복수의 카메라들 각각의 위치 정보를 저장하는 메모리;
    상기 복수의 영상들 중 적어도 하나의 영상을 표시하는 디스플레이 모듈; 및
    상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 상기 디스플레이 모듈에 표시하는 프로세서;를 포함하고,
    상기 적어도 2개의 영상들은 각각 2차원 영상이고,
    상기 프로세서는 상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시하는 감시 시스템.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고,
    상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하고, 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하고, 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고,
    상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고,
    상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당되는, 감시 시스템.
  4. 청구항 3에 있어서,
    상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 사용자 인터페이스;를 더 포함하고,
    상기 프로세서는 상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출하는, 감시 시스템.
  5. 청구항 1에 있어서,
    상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고,
    상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하고, 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하고, 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고,
    상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고,
    상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당되는, 감시 시스템.
  6. 청구항 5에 있어서,
    상기 제1 카메라는 이벤트를 감지한 카메라인, 감시 시스템.
  7. 청구항 5에 있어서,
    상기 통신 인터페이스는 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하고,
    상기 제1 카메라는 상기 GPS 정보가 상기 제1 촬영 가능 범위 정보에 속하는, 감시 시스템.
  8. 청구항 1에 있어서,
    상기 위치 정보는 GPS 정보를 나타내고,
    상기 통신 인터페이스는 외부 서버로부터 상기 GPS 정보를 수신하고, 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하고, 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하고,
    상기 프로세서는 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택하는, 감시 시스템.
  9. 청구항 1에 있어서,
    상기 프로세서는 카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택하는, 감시 시스템.
  10. 청구항 9에 있어서,
    상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 공통되는, 감시 시스템.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020180036605A 2018-03-29 2018-03-29 감시 시스템 및 그 동작 방법 KR102454920B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180036605A KR102454920B1 (ko) 2018-03-29 2018-03-29 감시 시스템 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180036605A KR102454920B1 (ko) 2018-03-29 2018-03-29 감시 시스템 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20190114223A KR20190114223A (ko) 2019-10-10
KR102454920B1 true KR102454920B1 (ko) 2022-10-14

Family

ID=68206926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180036605A KR102454920B1 (ko) 2018-03-29 2018-03-29 감시 시스템 및 그 동작 방법

Country Status (1)

Country Link
KR (1) KR102454920B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111935457B (zh) * 2020-08-12 2021-04-13 创意信息技术股份有限公司 一种智能存储系统
KR102637948B1 (ko) * 2021-11-19 2024-02-19 주식회사 핀텔 정책기반 가변적 영상분석 아키택쳐 생성방법, 장치 및 이에 대한 컴퓨터 프로그램

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100861476B1 (ko) * 2004-08-18 2008-10-02 샤프 가부시키가이샤 화상 데이터 표시 장치
KR101594048B1 (ko) 2009-11-09 2016-02-15 삼성전자주식회사 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치
KR101467663B1 (ko) * 2013-01-30 2014-12-01 주식회사 엘지씨엔에스 영상 모니터링 시스템에서 영상 제공 방법 및 시스템
KR102174839B1 (ko) * 2014-12-26 2020-11-05 삼성전자주식회사 보안 시스템 및 그 운영 방법 및 장치

Also Published As

Publication number Publication date
KR20190114223A (ko) 2019-10-10

Similar Documents

Publication Publication Date Title
US10140826B2 (en) Surveillance system and method of controlling the same
US9509900B2 (en) Camera control method, and camera control device for same
US10783648B2 (en) Apparatus and method for processing image
KR101321444B1 (ko) Cctv 모니터링 시스템
JP2023014141A (ja) 監視システム、監視方法および監視プログラム
KR101722664B1 (ko) 능동형 상황 인식을 위한 다인칭 시스템, 웨어러블 카메라, cctv, 관제서버 및 방법
US10200631B2 (en) Method for configuring a camera
US11538316B2 (en) Surveillance system and control method thereof
JP2007158860A (ja) 撮影システム、撮影装置、画像切替装置、およびデータ保持装置
US10341616B2 (en) Surveillance system and method of controlling the same
US20110228086A1 (en) Method and System for Light-Based Intervention
KR102315525B1 (ko) 감시 시스템 및 그 동작 방법
KR102454920B1 (ko) 감시 시스템 및 그 동작 방법
KR102043234B1 (ko) 설비 감시 시스템 및 그 동작 방법
US20210248384A1 (en) Building evacuation method and building evacuation system
KR20110109147A (ko) 방범 시스템
Fawzi et al. Embedded real-time video surveillance system based on multi-sensor and visual tracking
US10805527B2 (en) Image processing device and method
KR102596485B1 (ko) 카메라 등록 장치 및 방법
KR101178886B1 (ko) 고해상도 디지털 ptz 카메라, 이를 포함하는 감시 시스템 및 고해상도 디지털 ptz 카메라의 데이터 전송 방법
US10736043B2 (en) Surveillance system and method of controlling the same
KR20090046128A (ko) 유비퀴터스 일체형 보안영상장치 및 시스템
KR101772391B1 (ko) 복수의 장소에 설치된 음성 분석 모듈을 이용하는 확장형 감시 장비
JP2018098574A (ja) 映像監視システム及び監視映像表示方法
US10455186B2 (en) Method and apparatus for allocating resources

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant