KR102369804B1 - 감시 시스템 및 그 동작 방법 - Google Patents

감시 시스템 및 그 동작 방법 Download PDF

Info

Publication number
KR102369804B1
KR102369804B1 KR1020170136597A KR20170136597A KR102369804B1 KR 102369804 B1 KR102369804 B1 KR 102369804B1 KR 1020170136597 A KR1020170136597 A KR 1020170136597A KR 20170136597 A KR20170136597 A KR 20170136597A KR 102369804 B1 KR102369804 B1 KR 102369804B1
Authority
KR
South Korea
Prior art keywords
camera module
image
user interface
camera
changed
Prior art date
Application number
KR1020170136597A
Other languages
English (en)
Other versions
KR20190044317A (ko
Inventor
정승원
박종찬
송병인
유정희
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020170136597A priority Critical patent/KR102369804B1/ko
Publication of KR20190044317A publication Critical patent/KR20190044317A/ko
Application granted granted Critical
Publication of KR102369804B1 publication Critical patent/KR102369804B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • H04N5/23206
    • H04N5/23216
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 카메라 모듈로부터 영상을 수신하는 통신 모듈, 상기 영상을 포함하는 제1 레이어 및 상기 카메라 모듈에 대응하는 사용자 인터페이스를 포함하는 제2 레이어를 디스플레이하는 디스플레이 모듈, 및 상기 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여, 상기 카메라 모듈의 동작 상태 및 상기 사용자 인터페이스의 표시 상태를 변경시키는 프로세서를 포함한다.

Description

감시 시스템 및 그 동작 방법{SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF}
본 발명은 하나 이상의 카메라들을 제어하기 위한 단일 사용자 인터페이스를 포함하는 감시 시스템 및 그 동작 방법에 관한 것이다.
감시 시스템이 화면을 통해 감시 영역을 촬영하는 카메라로부터 수신한 영상을 제공하면, 관제사는 사용자 인터페이스를 통해 영상을 눈으로 감지한 후 카메라의 회전 방향이나 줌 배율을 조절할 수 있다.
이때, 감시 시스템은 회전 방향이나 줌 배율이 조절되기 이전의 카메라로부터 수신한 영상과, 회전 방향이나 줌 배율이 조절된 이후의 카메라로부터 수신한 영상을 순차적으로 화면에 디스플레이할 수 있다.
이 경우, 카메라의 회전 방향이나 줌 배율이 관제사의 의도와 다르게 조절되어 관심 객체를 추적하는데 어려움을 겪을 수 있다.
KR 10-2004-0098734 A
본 발명이 해결하고자 하는 과제는 카메라의 회전 방향이나 줌 배율에 관한 정보를 실시간으로 제공하는 감시 시스템 및 그 동작 방법을 제공하는데 있다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 카메라 모듈로부터 영상을 수신하는 통신 모듈, 상기 영상을 포함하는 제1 레이어 및 상기 카메라 모듈에 대응하는 사용자 인터페이스를 포함하는 제2 레이어를 디스플레이하는 디스플레이 모듈, 및 상기 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여, 상기 카메라 모듈의 동작 상태 및 상기 사용자 인터페이스의 표시 상태를 변경시키는 프로세서를 포함한다.
본 실시예에서, 상기 사용자 인터페이스는 전체 영역 중에서 적어도 일 영역에 대응하는 적어도 하나의 도형으로 이루어지며, 상기 프로세서는 상기 사용자 입력에 대응하여, 상기 적어도 하나의 도형의 크기 및 위치 중 적어도 하나를 변경시킬 수 있다.
본 실시예에서, 상기 제2 레이어는 상기 제1 레이어의 적어도 일 영역 상에 중첩되도록 디스플레이될 수 있다.
본 실시예에서, 상기 사용자 인터페이스는 소정 간격으로 이격된 복수의 라인들 및 상기 복수의 라인들 사이에 존재하는 적어도 하나의 도형으로 이루어지며, 상기 프로세서는 상기 사용자 입력에 대응하여, 상기 복수의 라인들 사이의 간격, 상기 적어도 하나의 도형의 크기, 및 상기 적어도 하나의 도형의 위치 중 적어도 하나를 변경시킬 수 있다.
본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템 동작 방법은 통신 모듈에 의해 복수의 카메라 모듈들로부터 복수의 영상들을 수신하는 단계, 디스플레이 모듈에 의해 상기 복수의 영상들을 포함하는 제1 레이어 및 상기 복수의 카메라 모듈들에 대응하는 복수의 영역들로 이루어진 단일 사용자 인터페이스를 포함하는 제2 레이어를 디스플레이하는 단계, 프로세서에 의해 상기 단일 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여, 상기 복수의 카메라 모듈들의 동작 상태들 및 상기 단일 사용자 인터페이스의 표시 상태를 변경시키는 단계를 포함한다.
본 실시예에서, 상기 단일 사용자 인터페이스는 전체 영역 중에서 적어도 일 영역에 대응하는 적어도 하나의 도형으로 이루어지며, 상기 동작 상태들 및 상기 표시 상태를 변경시키는 단계는, 상기 적어도 하나의 도형의 크기 및 위치 중 적어도 하나를 변경시키는 단계일 수 있다.
본 실시예에서, 상기 제1 레이어 및 상기 제2 레이어를 디스플레이하는 단계는, 상기 복수의 카메라 모듈들 각각에 대응되는 영상과 영역이 중첩되도록 상기 제2 레이어를 상기 제1 레이어의 적어도 일 영역 상에 디스플레이하는 단계일 수 있다.
본 실시예에서, 상기 단일 사용자 인터페이스는 복수의 라인들로 이루어지며, 상기 동작 상태들 및 상기 표시 상태를 변경시키는 단계는, 상기 복수의 라인들 사이의 복수의 간격들을 변경시키는 단계일 수 있다.
본 실시예에서, 상기 단일 사용자 인터페이스는 소정 간격으로 이격된 복수의 라인들 및 상기 복수의 라인들 사이에 존재하는 적어도 하나의 도형으로 이루어지며, 상기 동작 상태들 및 상기 표시 상태를 변경시키는 단계는, 상기 복수의 라인들 사이의 간격, 상기 적어도 하나의 도형의 크기, 및 상기 적어도 하나의 도형의 위치 중 적어도 하나를 변경시키는 단계일 수 있다.
본 발명의 실시예들에 따르면, 관제사가 카메라의 회전 방향이나 줌 배율에 관한 정보를 직관적으로 파악할 수 있다.
또한, 카메라의 회전 방향이나 줌 배율이 관제사의 의도에 적합하게 조절될 수 있으므로, 감시 효율이 높아질 수 있다.
도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.
도 2a는 일 실시예에 따른 감시 시스템의 구성을 나타내는 블록도이다.
도 2b는 일 실시예에 따른 하나의 네트워크 카메라에 내장된 복수의 카메라 모듈들을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 네트워크 카메라의 영상 및 사용자 인터페이스를 동시에 디스플레이하는 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 5a 및 도 5b는 카메라 모듈의 줌 배율을 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 6a 및 도 6b는 카메라 모듈의 틸트 각도를 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 7a 및 도 7b는 카메라 모듈의 포커스 값을 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 8a 및 도 8b는 카메라 모듈의 회전 상태를 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 9a 및 도 9b는 카메라 모듈의 방위를 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 10 및 도 11은 각각 일 실시예에 따른 네트워크 카메라의 영상 및 사용자 인터페이스를 동시에 디스플레이하는 방법을 설명하기 위한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.
도 1은 일 실시예에 따른 감시 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 감시 시스템(100)은 네트워크 카메라(10), 게이트웨이(20), 네트워크(30), 관리 서버(40), 및 모니터링 장치(50)를 포함한다.
감시 시스템(100)은 게이트웨이(20)에서 수집된 네트워크 카메라(10)의 정보가 네트워크(30)를 통해 관리 서버(40)로 전송되면, 관리자가 모니터링 장치(50)를 이용하여 관리 서버(40)에 전송된 정보를 모니터링할 수 있는 구성을 제공할 수 있다.
네트워크 카메라(10)는 감시 영역을 촬영하여 감시 영역에 대한 영상을 획득한다. 네트워크 카메라(10)는 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다. 네트워크 카메라(10)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌 배율이 조절 가능한 PTZ 카메라일 수 있다.
네트워크 카메라(10)는 하나 이상 구비될 수 있다. 예를 들어, 네트워크 카메라(10)는 제1 네트워크 카메라(11) 내지 제n 네트워크 카메라(1n)를 포함할 수 있다. 예를 들어, 제1 네트워크 카메라(11)는 강당의 천정 중앙에 설치될 수 있고, 제n 네트워크 카메라(1n)는 복도의 천정 중앙에 설치될 수 있다.
네트워크 카메라(10)는 배터리로 구동되는 저전력 카메라일 수 있다. 저전력 카메라는 평상시 슬립 모드(sleep mode)를 유지하고, 주기적으로 깨어나(wake up) 이벤트가 발생하였는지 여부를 체크한다. 저전력 카메라는 이벤트가 발생한 경우 액티브 모드(active mode)로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀한다. 이와 같이, 저전력 카메라는 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 전력 소모를 줄일 수 있다.
네트워크 카메라(10)는 복수의 이미지 센서들을 포함할 수 있다.
예를 들어, 강당의 천정 중앙에 설치된 제1 네트워크 카메라(11)는 4개의 이미지 센서들을 포함하고, 복도의 천정 중앙에 설치된 제n 네트워크 카메라(1n)는 2개의 이미지 센서들을 포함할 수 있다. 4개의 이미지 센서들을 포함하는 제1 네트워크 카메라(11)는 강당의 중앙에서 강당을 4개의 각기 다른 방향들로 동시에 촬영함으로써 강당에 대한 4개의 영상들을 획득할 수 있다. 2개의 이미지 센서들을 포함하는 제n 네트워크 카메라(1n)는 복도의 중앙에서 복도를 반대 방향으로 동시에 촬영함으로써 복도에 대한 2개의 영상들을 획득할 수 있다.
네트워크 카메라(10)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 게이트웨이(20)와 통신할 수 있다. 예를 들면, 네트워크 카메라(10)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 게이트웨이(20)와 통신할 수 있다.
게이트웨이(20)는 네트워크(30)를 통해 네트워크 카메라(10)로부터 전송된 영상을 외부로 전달할 수 있고, 네트워크(30)를 통해 외부로부터 전송된 명령에 기초하여 네트워크 카메라(10)의 동작 상태를 변경시킬 수 있다.
게이트웨이(20)는 이더넷(Ethernet), 와이파이, 블루투스 등 다양한 유무선 통신 방식을 이용하여 관리 서버(40)에 정보를 전송할 수도 있고, 관리 서버(40)로부터 명령을 수신할 수도 있다.
네트워크(30)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등이 될 수 있다.
관리 서버(40)는 네트워크(30)를 통해 게이트웨이(20)로부터 전송된 정보를 모니터링 장치(50)에 전달할 수 있고, 모니터링 장치(50)로부터의 사용자 입력에 기초하여 명령을 생성한 후 네트워크(30)를 통해 게이트웨이(20)에 전송할 수 있다.
모니터링 장치(50)는 관리 서버(40)로부터 전송된 정보를 디스플레이할 수 있고, 저장할 수도 있다. 예를 들어, 모니터링 장치(50)는 관리 서버(40)로부터 전송된 영상을 디스플레이할 수 있다. 모니터링 장치(50)는 사용자 입력을 수신하여 관리 서버(40)에 전송할 수 있다.
모니터링 장치(50)는 적어도 하나 이상의 프로세서를 포함할 수 있다. 모니터링 장치(50)는 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 모니터링 장치(50)는 개인용 컴퓨터 또는 이동 단말일 수 있다.
이하에서는, 도 2a, 도 2b, 및 도 3을 참조하여, 카메라 모듈(110)이 복수개인 네트워크 카메라(10)를 포함하는 일 실시 예에 따른 감시 시스템(100)에 대하여 상세하게 설명한다.
도 2a는 일 실시예에 따른 감시 시스템의 구성을 나타내는 블록도이다.
도 2b는 일 실시예에 따른 하나의 네트워크 카메라에 내장된 복수의 카메라 모듈들을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 네트워크 카메라의 영상 및 사용자 인터페이스를 동시에 디스플레이하는 방법을 설명하기 위한 도면이다.
도 2a, 도 2b, 및 도 3을 참조하면, 일 실시예에 따른 감시 시스템(100)은 카메라 모듈(110), 통신 모듈(120), 디스플레이 모듈(130), 및 프로세서(140)를 포함한다.
카메라 모듈(110)은 감시 영역을 촬영하여 영상을 획득한다. 카메라 모듈(110)은 CCD(Charge-Coupled Device) 센서, CMOS(Complementary Metal-Oxide-Semiconductor) 센서 등과 같은 이미지 센서를 통해 영상을 획득할 수 있다. 영상은 실시간 영상 및/또는 녹화된 영상일 수 있다. 한편, 영상은 비디오 및/또는 스틸 이미지일 수 있다.
카메라 모듈(110)은 복수개일 수 있다. 예를 들어, 카메라 모듈(110)은 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)을 포함할 수 있다.
카메라 모듈(110)은 도 2b에 도시된 바와 같이, 원형으로 배열된 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)을 포함할 수 있다. 이때, 카메라 모듈(110)의 중앙을 기준으로 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)은 서로 직각을 이루며 배열될 수 있다.
한편, 카메라 모듈(110)은 원형으로 배열된 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114) 외에도, 카메라 모듈(110)의 중앙에 제5 카메라 모듈(115)을 추가로 포함할 수 있다. 이때, 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)은 각각 PTZ 카메라이고, 제5 카메라 모듈(115)은 광각 카메라일 수 있다. 광각 카메라는 180도 이상의 화각을 가지는 어안 카메라(fisheye camera)일 수 있다. 광각 카메라에서 촬영된 원본 영상은 광각 영상으로서 다양한 왜곡을 가질 수 있다.
이처럼 PTZ 카메라인 카메라 모듈(110)이 복수개인 감시 시스템(100)에 따르면, 감시 영역을 빠짐없이 촬영하면서도 왜곡 없는 고화질의 감시 영상을 획득할 수 있으므로, 감시를 보다 강화할 수 있다.
통신 모듈(120)은 카메라 모듈(110)로부터 영상을 수신한다.
한편, 통신 모듈(120)은 복수의 카메라 모듈(110)들로부터 복수의 영상들을 수신한다. 예를 들어, 통신 모듈(120)은 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)로부터 4개의 영상들을 수신할 수 있다.
디스플레이 모듈(130)은 도 3에 도시된 바와 같이, 영상을 포함하는 제1 레이어(1) 및 카메라 모듈(110)에 대응하는 사용자 인터페이스를 포함하는 제2 레이어(2)를 디스플레이한다.
사용자 인터페이스의 표시 상태는 카메라 모듈(110)의 동작 상태를 가리킨다. 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 틸트 각도, 팬 각도, 렌즈 줌 배율, 포커스 값, 렌즈 회전 상태, 방위 등을 의미할 수 있다.
즉, 디스플레이 모듈(130)은 화면에 제1 레이어(1) 및 제2 레이어(2)를 중첩하여 디스플레이함으로써, 카메라 모듈(110)의 영상 및 카메라 모듈(110)에 대응하는 사용자 인터페이스를 동시에 디스플레이할 수 있다. 이때, 제2 레이어(2)는 제1 레이어(1)의 적어도 일 영역 상에 중첩되도록 디스플레이될 수 있다.
한편, 디스플레이 모듈(130)은 복수의 영상들을 포함하는 제1 레이어(1) 및 복수의 카메라 모듈(110)들에 대응하는 복수의 영역들로 이루어진 단일 사용자 인터페이스를 포함하는 제2 레이어(2)를 디스플레이한다.
예를 들어, 디스플레이 모듈(130)은 제1 레이어(1)에 4개의 영상들을 포함시키고, 제2 레이어(2)에 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)에 대응하는 4개의 영역들로 이루어진 단일 사용자 인터페이스를 포함시킬 수 있다.
이때, 복수의 카메라 모듈(110)들 각각에 대응되는 영상과 단일 사용자 인터페이스의 영역이 중첩되도록 제2 레이어(2)가 제1 레이어(1)의 적어도 일 영역 상에 디스플레이될 수 있다. 즉, 디스플레이 모듈(130)은 중첩되는 제1 레이어(1)의 하나의 영상과 제2 레이어(2)의 단일 사용자 인터페이스의 일 영역이 하나의 카메라 모듈(110)에만 대응되도록, 제1 레이어(1)와 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
예를 들어, 단일 사용자 인터페이스가 제1 카메라 모듈(111)에 대응하는 제1 영역, 제2 카메라 모듈(112)에 대응하는 제2 영역, 제3 카메라 모듈(113)에 대응하는 제3 영역, 및 제4 카메라 모듈(114)에 대응하는 제4 영역을 포함하는 경우, 디스플레이 모듈(130)은 제1 레이어(1)의 제1 카메라 모듈(111)의 영상과 제2 레이어(2)의 제1 영역이 대응되고, 제1 레이어(1)의 제2 카메라 모듈(112)의 영상과 제2 레이어(2)의 제2 영역이 대응되고, 제1 레이어(1)의 제3 카메라 모듈(113)의 영상과 제2 레이어(2)의 제3 영역이 대응되고, 제1 레이어(1)의 제4 카메라 모듈(114)의 영상과 제2 레이어(2)의 제4 영역이 대응되도록, 제1 레이어(1)와 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
프로세서(140)는 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여 카메라 모듈(110)의 동작 상태 및 사용자 인터페이스의 표시 상태를 변경시킨다.
일 실시예에 따르면, 사용자 인터페이스는 복수의 라인들로 이루어지며, 프로세서(140)는 사용자 입력에 대응하여 사용자 인터페이스의 복수의 라인들 사이의 복수의 간격들을 변경시킬 수 있다.
이때, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 틸트(tilt) 각도를 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 틸트 각도 및 사용자 인터페이스의 복수의 간격들 사이의 차이를 증가시키거나, 감소시킬 수 있다.
일 실시예에 따르면, 사용자 인터페이스는 전체 영역 중에서 적어도 일 영역에 대응하는 적어도 하나의 도형으로 이루어지며, 프로세서(140)는 사용자 입력에 대응하여 사용자 인터페이스의 적어도 하나의 도형의 크기 및 위치 중 적어도 하나를 변경시킬 수 있다.
이때, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 팬(pan) 각도를 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 팬 각도 및 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다.
한편, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 렌즈 줌(zoom) 배율을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 렌즈 줌 배율 및 사용자 인터페이스의 적어도 하나의 도형의 크기를 증가시키거나, 감소시킬 수 있다.
한편, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 포커스(focus) 값을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 포커스 값 및 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다.
일 실시예에 따르면, 사용자 인터페이스는 소정 간격으로 이격된 복수의 라인들 및 복수의 라인들 사이에 존재하는 적어도 하나의 도형으로 이루어지며, 프로세서(140)는 사용자 입력에 대응하여 사용자 인터페이스의 복수의 라인들 사이의 간격, 적어도 하나의 도형의 크기, 및 적어도 하나의 도형의 위치 중 적어도 하나를 변경시킬 수 있다.
이때, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 팬(pan) 각도를 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 팬 각도 및 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다. 이때, 적어도 하나의 도형의 위치가 변경된다 하더라도 적어도 하나의 도형에 대응되는 적어도 두 개의 라인들은 동일할 수 있다.
한편, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 렌즈 줌(zoom) 배율을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 렌즈 줌 배율 및 사용자 인터페이스의 적어도 하나의 도형의 크기를 증가시키거나, 감소시킬 수 있다.
한편, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 포커스(focus) 값을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 포커스 값 및 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다. 이때, 적어도 하나의 도형의 위치가 변경되면 적어도 하나의 도형에 대응되는 적어도 하나의 라인은 변경될 수 있다.
프로세서(140)는 단일 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여 복수의 카메라 모듈(110)들의 동작 상태들 및 단일 사용자 인터페이스의 표시 상태를 변경시킨다.
일 실시예에 따르면, 단일 사용자 인터페이스는 복수의 라인들로 이루어지며, 프로세서(140)는 사용자 입력에 대응하여 단일 사용자 인터페이스의 복수의 라인들 사이의 복수의 간격들을 변경시킬 수 있다.
이때, 복수의 카메라 모듈(110)들의 동작 상태들은 복수의 카메라 모듈(110)들의 틸트(tilt) 각도들을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 복수의 카메라 모듈(110)들의 틸트 각도들 및 단일 사용자 인터페이스의 복수의 간격들 사이의 차이를 증가시키거나, 감소시킬 수 있다.
일 실시예에 따르면, 단일 사용자 인터페이스는 전체 영역 중에서 적어도 일 영역에 대응하는 적어도 하나의 도형으로 이루어지며, 프로세서(140)는 사용자 입력에 대응하여 단일 사용자 인터페이스의 적어도 하나의 도형의 크기 및 위치 중 적어도 하나를 변경시킬 수 있다.
이때, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 팬(pan) 각도를 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 팬 각도 및 단일 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다.
한편, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 렌즈 줌(zoom) 배율을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 렌즈 줌 배율 및 단일 사용자 인터페이스의 적어도 하나의 도형의 크기를 증가시키거나, 감소시킬 수 있다.
한편, 카메라 모듈(110)의 동작 상태는 카메라 모듈(110)의 포커스(focus) 값을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 카메라 모듈(110)의 포커스 값 및 단일 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다.
일 실시예에 따르면, 단일 사용자 인터페이스는 소정 간격으로 이격된 복수의 라인들 및 복수의 라인들 사이에 존재하는 적어도 하나의 도형으로 이루어지며, 프로세서(140)는 사용자 입력에 대응하여 단일 사용자 인터페이스의 복수의 라인들 사이의 간격, 적어도 하나의 도형의 크기, 및 적어도 하나의 도형의 위치 중 적어도 하나를 변경시킬 수 있다.
이때, 복수의 카메라 모듈(110)들의 동작 상태들은 복수의 카메라 모듈(110)들의 팬(pan) 각도들을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 복수의 카메라 모듈(110)들의 팬 각도들 및 단일 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다. 이때, 적어도 하나의 도형의 위치가 변경된다 하더라도 적어도 하나의 도형에 대응되는 적어도 두 개의 라인들은 동일할 수 있다.
한편, 복수의 카메라 모듈(110)들의 동작 상태들은 복수의 카메라 모듈(110)들의 렌즈 줌(zoom) 배율들을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 복수의 카메라 모듈(110)들의 렌즈 줌 배율들 및 단일 사용자 인터페이스의 적어도 하나의 도형의 크기를 증가시키거나, 감소시킬 수 있다.
한편, 복수의 카메라 모듈(110)들의 동작 상태들은 복수의 카메라 모듈(110)들의 포커스(focus) 값들을 가리키며, 프로세서(140)는 사용자 입력에 대응하여 복수의 카메라 모듈(110)들의 포커스 값들 및 단일 사용자 인터페이스의 적어도 하나의 도형의 위치를 변경시킬 수 있다. 이때, 적어도 하나의 도형의 위치가 변경되면 적어도 하나의 도형에 대응되는 적어도 하나의 라인은 변경될 수 있다.
본 발명의 실시예들에 따른 감시 시스템(100)은 하나의 물리적 장치로 구현될 수 있다.
한편, 본 발명의 실시예들에 따른 감시 시스템(100)은 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해, 감시 시스템(100)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되고, 나머지 일부는 다른 물리적 장치로 구현될 수 있다. 예를 들면, 어느 하나의 물리적 장치는 네트워크 카메라(10)일 수 있고, 다른 물리적 장치는 게이트웨이(20), 관리 서버(40), 및 모니터링 장치(50) 중 적어도 하나일 수 있다.
이하에서는, 도 4, 도 5a, 도 5b, 도 6a, 도 6b, 도 7a, 도 7b, 도 8a, 도 8b, 도 9a, 및 도 9b를 참조하여, 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)이 내장된 네트워크 카메라(10)를 포함하는 일 실시 예에 따른 감시 시스템(100)의 동작 방법에 대하여 상세하게 설명한다.
도 4는 일 실시예에 따른 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 네트워크 카메라(10)는 감시 영역을 촬영하여 감시 영역에 대한 영상을 획득한다(S101).
네트워크 카메라(10)는 감시 영역의 천정 중앙에 설치될 수 있고, 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)은 각기 다른 방향을 향하도록 배열될 수 있다.
따라서, 예를 들어, 제1 카메라 모듈(111)은 감시 영역의 북서쪽 영역을 촬영하여 제1 영상을 획득하고, 제2 카메라 모듈(112)은 감시 영역의 북동쪽 영역을 촬영하여 제2 영상을 획득하고, 제3 카메라 모듈(113)은 감시 영역의 남서쪽 영역을 촬영하여 제3 영상을 획득하고, 제4 카메라 모듈(114)은 감시 영역의 남동쪽 영역을 촬영하여 제4 영상을 획득할 수 있다.
제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)은 각각 90도 이상의 화각을 가질 수 있으며, 이에 따라, 제1 영상, 제2 영상, 제3 영상, 및 제4 영상은 감시 영역의 전 방위에 대한 영상일 수 있다.
이어서, 네트워크 카메라(10)는 제1 내지 제4 영상을 관리 서버(40)에 전송한다(S103).
즉, 관리 서버(40)는 복수의 카메라 모듈(110)들로부터 복수의 영상들을 수신할 수 있다.
관리 서버(40)는 제1 내지 제4 영상을 포함하는 제1 레이어(1) 및 단일 사용자 인터페이스를 포함하는 제2 레이어(2)를 생성하고(S105), 제1 레이어(1) 및 제2 레이어(2)를 모니터링 장치(50)에 전송한다(S106).
모니터링 장치(50)는 제1 레이어(1) 및 제2 레이어(2)를 화면에 디스플레이한다(S107).
즉, 모니터링 장치(50)는 복수의 영상들을 포함하는 제1 레이어(1) 및 복수의 카메라 모듈(110)들에 대응하는 복수의 영역들로 이루어진 단일 사용자 인터페이스를 포함하는 제2 레이어(2)를 디스플레이할 수 있다.
이때, 모니터링 장치(50)는 복수의 카메라 모듈(110)들 각각에 대응되는 영상과 단일 사용자 인터페이스의 복수의 영역들이 중첩되도록 제2 레이어(2)를 제2 레이어(2)의 적어도 일 영역 상에 디스플레이할 수 있다.
이어서, 모니터링 장치(50)는 화면에 디스플레이된 단일 사용자 인터페이스를 통해 사용자 입력을 수신할 수 있다.
사용자 입력은 단일 사용자 인터페이스의 복수의 라인들 사이의 복수의 간격들을 조절하는 입력, 단일 사용자 인터페이스의 적어도 하나의 도형의 크기 및 위치 중 적어도 하나를 변경하는 입력 등일 수 있다. 사용자 입력은 터치 스크린에 대한 터치 입력일 수도 있고, 키보드, 마우스, 조이스틱 등에 대한 조작 입력일 수도 있으며, 이에 한정하지 않는다.
관리 서버(40)는 모니터링 장치(50)로부터 사용자 입력을 수신하면(S108), 사용자 입력에 대응하여 네트워크 카메라(10)에 네트워크 카메라 동작 상태 변경 명령을 전송하고(S109), 단일 사용자 인터페이스 표시 상태를 변경한다(S111).
즉, 관리 서버(40)는 단일 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여 복수의 카메라 모듈(110)들의 동작 상태들 및 단일 사용자 인터페이스의 표시 상태를 변경시킬 수 있다.
네트워크 카메라(10)는 네트워크 카메라 동작 상태 변경 명령에 따라 카메라 모듈(110)의 동작 상태를 변경시킨다(S113).
이어서, 네트워크 카메라(10)는 변경된 동작 상태에 따라 변경된 감시 영역을 촬영하여 변경된 감시 영역에 대한 영상을 획득한다(S115).
네트워크 카메라(10)는 변경된 제1 내지 제4 영상을 관리 서버(40)에 전송한다(S117).
관리 서버(40)는 변경된 제1 내지 제4 영상을 포함하는 제1 레이어(1) 및 변경된 단일 사용자 인터페이스를 포함하는 제2 레이어(2)를 생성하고(S119), 변경된 제1 레이어(1) 및 제2 레이어(2)를 모니터링 장치(50)에 전송한다(S121).
모니터링 장치(50)는 변경된 제1 레이어(1) 및 제2 레이어(2)를 화면에 디스플레이한다(S123).
따라서, 사용자는 변경된 네트워크 카메라(10)의 동작 상태를 변경된 단일 사용자 인터페이스를 통해 즉시 시각적으로 확인할 수 있으므로, 네트워크 카메라(10)의 동작 상태에 대한 제어가 보다 정밀해질 수 있다.
또한, 사용자는 변경된 네트워크 카메라(10)에 의해 촬영된 변경된 영상을 변경된 단일 사용자 인터페이스와 함께 확인할 수 있으므로, 사용자 제어의 정확성을 보다 향상시킬 수 있다.
도 5a 및 도 5b는 카메라 모듈의 줌 배율을 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 5a를 참조하면, 모니터링 장치(50)는 화면 상에 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)을 포함하는 제1 레이어(1) 및 단일 사용자 인터페이스(u)를 포함하는 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
단일 사용자 인터페이스(u)는 소정 간격으로 이격된 복수의 라인들 및 복수의 라인들 사이에 존재하는 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)으로 이루어질 수 있다. 복수의 라인들은 크기가 서로 다른 복수의 원들일 수 있다.
도시하지 않았으나, 단일 사용자 인터페이스(u)는 복수의 라인들을 제외한 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)으로 이루어질 수 있다. 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)은 서로 동일한 도형일 수도 있고, 각각 상이한 도형일 수도 있다. 이하의 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)에 대한 설명은, 복수의 라인들을 제외하고 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)으로 이루어진 단일 사용자 인터페이스(u)에도 적용될 수 있다.
이때, 단일 사용자 인터페이스(u)는 제1 영역(111ua), 제2 영역(112ua), 제3 영역(113ua), 및 제4 영역(114ua)으로 구분될 수 있다. 제1 도형(111uf)은 제1 영역(111ua)에, 제2 도형(112uf)은 제2 영역(112ua)에, 제3 도형(113uf)은 제3 영역(113ua)에, 제4 도형(114uf)은 제4 영역(114ua)에 위치할 수 있다.
한편, 제1 레이어(1)의 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)은 제2 레이어(2)의 제1 영역(111ua), 제2 영역(112ua), 제3 영역(113ua), 및 제4 영역(114ua)과 대응될 수 있다.
단일 사용자 인터페이스(u)의 표시 상태는 복수의 라인들 사이의 복수의 간격들 사이의 차이, 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)의 크기 및 위치 등을 의미할 수 있다.
단일 사용자 인터페이스(u)의 적어도 하나의 도형의 크기는 카메라 모듈(110)의 렌즈 줌 배율을 나타낼 수 있다.
즉, 제1 도형(111uf)의 크기는 제1 카메라 모듈(111)의 렌즈 줌 배율을, 제2 도형(112uf)의 크기는 제2 카메라 모듈(112)의 렌즈 줌 배율을, 제3 도형(113uf)의 크기는 제3 카메라 모듈(113)의 렌즈 줌 배율을, 제4 도형(114uf)의 크기는 제4 카메라 모듈(114)의 렌즈 줌 배율을 나타낼 수 있다.
모니터링 장치(50)는 도 5a에 도시된 화면을 디스플레이하고, 사용자 입력에 따라 도 5a에 도시된 화면을 도 5b에 도시된 화면으로 변경할 수 있다. 이때, 관리 서버(40)는 네트워크 카메라(10)의 카메라 모듈(110)의 동작 상태를 도 5a에 도시된 화면이 가리키는 동작 상태에서 도 5b에 도시된 화면이 가리키는 동작 상태로 변경시킬 수 있다.
사용자는 도 5a에 도시된 화면을 통해 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114) 각각의 렌즈가 줌 아웃(zoom out)된 상태임을 알 수 있다. 이때, 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)은 각각 줌 아웃된 렌즈를 통해 촬영된 영상일 수 있다.
모니터링 장치(50)는 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf) 중 적어도 하나의 크기를 변경시키는 사용자 입력을 수신할 수 있다. 예를 들어, 모니터링 장치(50)는 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)의 크기를 축소시키는 사용자 입력을 수신할 수 있다.
도 5b를 참조하면, 모니터링 장치(50)는 화면 상에 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)을 포함하는 제1 레이어(1) 및 변경된 단일 사용자 인터페이스(u’)를 포함하는 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
이때, 제1 레이어(1)의 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)은 제2 레이어(2)의 제1 영역(111ua), 제2 영역(112ua), 제3 영역(113ua), 및 제4 영역(114ua)과 대응될 수 있다.
변경된 단일 사용자 인터페이스(u’)는 변경된 제1 도형(111uf’), 변경된 제2 도형(112uf’), 변경된 제3 도형(113uf’), 및 변경된 제4 도형(114uf’)을 포함할 수 있다. 이때, 변경된 제1 도형(111uf’)의 크기는 제1 카메라 모듈(111)의 변경된 렌즈 줌 배율을, 변경된 제2 도형(112uf’)의 크기는 제2 카메라 모듈(112)의 변경된 렌즈 줌 배율을, 변경된 제3 도형(113uf’)의 크기는 제3 카메라 모듈(113)의 변경된 렌즈 줌 배율을, 변경된 제4 도형(114uf’)의 크기는 제4 카메라 모듈(114)의 변경된 렌즈 줌 배율을 나타낼 수 있다.
변경된 제1 도형(111uf’), 변경된 제2 도형(112uf’), 변경된 제3 도형(113uf’), 및 변경된 제4 도형(114uf’) 각각의 크기는 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf) 각각의 크기보다 작을 수 있다.
사용자는 도 5b에 도시된 화면을 통해 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114) 각각의 렌즈가 줌 인(zoom in)된 상태임을 알 수 있다. 이때, 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)은 각각 줌 인된 렌즈를 통해 촬영된 영상일 수 있다.
이하에서는, 앞서 기재한 설명과 동일한 설명은 생략하거나 간략히 한다.
도 6a 및 도 6b는 카메라 모듈의 틸트 각도를 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 6a를 참조하면, 단일 사용자 인터페이스(u)의 복수의 라인들 사이의 복수의 간격들 사이의 차이는 카메라 모듈(110)의 틸트 각도를 나타낸다.
즉, 단일 사용자 인터페이스(u)의 제1 간격(g1), 제2 간격(g2), 제3 간격(g3), 제4 간격(g4), 및 제5 간격(g5)은 각각 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)의 틸트 각도를 나타낼 수 있다. 제1 간격(g1), 제2 간격(g2), 제3 간격(g3), 제4 간격(g4), 및 제5 간격(g5)은 서로 상이할 수 있다.
모니터링 장치(50)는 도 6a에 도시된 화면을 디스플레이하고, 사용자 입력에 따라 도 6a에 도시된 화면을 도 6b에 도시된 화면으로 변경할 수 있다. 이때, 관리 서버(40)는 네트워크 카메라(10)의 카메라 모듈(110)의 동작 상태를 도 6a에 도시된 화면이 가리키는 동작 상태에서 도 6b에 도시된 화면이 가리키는 동작 상태로 변경시킬 수 있다.
사용자는 도 6a에 도시된 화면을 통해 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)의 틸트 각도들이 모두 동일하고, 각 카메라 모듈(110)의 렌즈가 바라보는 방향이 수평보다 수직에 가까운 상태임을 알 수 있다. 이때, 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)은 각각 감시 영역의 가장자리보다 중앙에 가까운 위치가 촬영된 영상일 수 있다.
모니터링 장치(50)는 제1 간격(g1), 제2 간격(g2), 제3 간격(g3), 제4 간격(g4), 및 제5 간격(g5) 중 적어도 하나를 변경시키는 사용자 입력을 수신할 수 있다. 예를 들어, 모니터링 장치(50)는 제1 간격(g1), 제2 간격(g2), 제3 간격(g3), 제4 간격(g4), 및 제5 간격(g5)의 차이를 감소시키는 사용자 입력을 수신할 수 있다.
도 6b를 참조하면, 모니터링 장치(50)는 화면 상에 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)을 포함하는 제1 레이어(1) 및 변경된 단일 사용자 인터페이스(u’)를 포함하는 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
변경된 단일 사용자 인터페이스(u’)는 변경된 제1 간격(g1’), 변경된 제2 간격(g2’), 변경된 제3 간격(g3’), 변경된 제4 간격(g4’), 및 변경된 제5 간격(g5’)을 포함할 수 있다. 변경된 제1 간격(g1’), 변경된 제2 간격(g2’), 변경된 제3 간격(g3’), 변경된 제4 간격(g4’), 및 변경된 제5 간격(g5’)은 모두 동일할 수 있다.
사용자는 도 6b에 도시된 화면을 통해 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)의 틸트 각도들이 모두 상이하고, 각 카메라 모듈(110)의 렌즈가 바라보는 방향이 수직보다 수평에 가까운 상태임을 알 수 있다. 이때, 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)은 각각 감시 영역의 중앙보다 가장자리에 가까운 위치가 촬영된 영상일 수 있다.
도 7a 및 도 7b는 카메라 모듈의 포커스 값을 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 7a를 참조하면, 단일 사용자 인터페이스(u)의 제1 도형(111uf), 제2 도형(112uf), 제3 도형(113uf), 및 제4 도형(114uf)은 각각 동일한 2개의 라인들 사이의 제1 영역(111ua), 제2 영역(112ua), 제3 영역(113ua), 및 제4 영역(114ua)에 위치한다.
모니터링 장치(50)는 도 7a에 도시된 화면을 디스플레이하고, 사용자 입력에 따라 도 7a에 도시된 화면을 도 7b에 도시된 화면으로 변경할 수 있다. 이때, 관리 서버(40)는 네트워크 카메라(10)의 카메라 모듈(110)의 동작 상태를 도 7a에 도시된 화면이 가리키는 동작 상태에서 도 7b에 도시된 화면이 가리키는 동작 상태로 변경시킬 수 있다.
사용자는 도 7a에 도시된 화면을 통해 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114)의 포커스 값이 모두 동일함을 알 수 있다. 이때, 사용자는 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)을 통해 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 및 제4 카메라 모듈(114) 각각의 포커스 값이 적절하게 설정되었는지 여부를 시각적으로 확인할 수 있다.
모니터링 장치(50)는 제1 도형(111uf), 제3 도형(113uf), 및 제4 도형(114uf)의 위치를 변경시키는 사용자 입력을 수신할 수 있다. 그 결과, 제1 도형(111uf) 및 제4 도형(114uf)에 대응되는 하나의 라인이 변경되고, 제3 도형(113uf)에 대응되는 두 개의 라인이 변경될 수 있다.
도 7b를 참조하면, 모니터링 장치(50)는 화면 상에 변경된 제1 영상(111i’), 제2 영상(112i), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)을 포함하는 제1 레이어(1) 및 변경된 단일 사용자 인터페이스(u’)를 포함하는 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
변경된 단일 사용자 인터페이스(u’)는 변경된 제1 도형(111uf’), 제2 도형(112uf), 변경된 제3 도형(113uf’), 및 변경된 제4 도형(114uf’)을 포함할 수 있다. 변경된 제1 영상(111i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)은 각각 제1 영상(111i), 제3 영상(113i), 및 제4 영상(114i)보다 선명하게 촬영된 영상일 수 있다.
도 8a 및 도 8b는 카메라 모듈의 회전 상태를 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 8a를 참조하면, 단일 사용자 인터페이스(u)의 제2 영역(112ua)의 제2 도형(112uf) 내부에 포함된 회전 상태 표시자(ur)는 제2 카메라 모듈(112)의 렌즈의 회전 상태를 가리킨다.
모니터링 장치(50)는 도 8a에 도시된 화면을 디스플레이하고, 사용자 입력에 따라 도 8a에 도시된 화면을 도 8b에 도시된 화면으로 변경할 수 있다. 이때, 관리 서버(40)는 네트워크 카메라(10)의 카메라 모듈(110)의 동작 상태를 도 8a에 도시된 화면이 가리키는 동작 상태에서 도 8b에 도시된 화면이 가리키는 동작 상태로 변경시킬 수 있다.
모니터링 장치(50)는 제2 영역(112ua)의 제2 도형(112uf) 내부에 포함된 회전 상태 표시자(ur)의 회전 상태를 변경시키는 사용자 입력을 수신할 수 있다.
도 8b를 참조하면, 모니터링 장치(50)는 화면 상에 제1 영상(111i), 변경된 제2 영상(112i’), 제3 영상(113i), 및 제4 영상(114i)을 포함하는 제1 레이어(1) 및 변경된 단일 사용자 인터페이스(u’)를 포함하는 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
변경된 단일 사용자 인터페이스(u’)는 제1 도형(111uf), 변경된 제2 도형(112uf’), 제3 도형(113uf), 및 제4 도형(114uf)을 포함할 수 있다. 변경된 제2 영상(112i’)은 예를 들어, 감시 영역의 북동쪽 영역이 시계 방향으로 45도 회전된 영상일 수 있다.
도 9a 및 도 9b는 카메라 모듈의 방위를 나타내는 사용자 인터페이스의 표시 상태를 설명하기 위한 도면이다.
도 9a를 참조하면, 단일 사용자 인터페이스(u)의 방위 상태 표시자(ud)의 각 화살표는 복수의 카메라 모듈(110)들 각각의 렌즈가 바라보는 방향을 나타낸다. 예를 들어, 방위 상태 표시자(ud)의 각 화살표는 동서남북을 가리킬 수 있으며, 이에 한정하지 않는다. 방위 상태 표시자(ud)의 각 화살표는 소정 건물, 출입문, 비상구 등을 구체적으로 가리킬 수도 있다.
모니터링 장치(50)는 도 9a에 도시된 화면을 디스플레이하고, 사용자 입력에 따라 도 9a에 도시된 화면을 도 9b에 도시된 화면으로 변경할 수 있다. 이때, 관리 서버(40)는 네트워크 카메라(10)의 카메라 모듈(110)의 동작 상태를 도 9a에 도시된 화면이 가리키는 동작 상태에서 도 9b에 도시된 화면이 가리키는 동작 상태로 변경시킬 수 있다.
사용자는 도 9a에 도시된 화면을 통해 제1 카메라 모듈(111)은 감시 영역의 북서쪽 영역을, 제2 카메라 모듈(112)은 감시 영역의 북동쪽 영역을, 제3 카메라 모듈(113)은 감시 영역의 남서쪽 영역을, 제4 카메라 모듈(114)은 감시 영역의 남동쪽 영역을 촬영하고 있음을 알 수 있다. 이때, 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)은 각각 감시 영역의 북서쪽 영역, 북동쪽 영역, 남서쪽 영역, 및 남동쪽 영역이 촬영된 영상일 수 있다.
모니터링 장치(50)는 단일 사용자 인터페이스(u)의 십자 모양의 도형을 회전시키는 사용자 입력을 수신할 수 있다.
도 9b를 참조하면, 모니터링 장치(50)는 화면 상에 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)을 포함하는 제1 레이어(1) 및 변경된 단일 사용자 인터페이스(u’)를 포함하는 제2 레이어(2)를 중첩하여 디스플레이할 수 있다.
이때, 변경된 제1 영상(111i’), 변경된 제2 영상(112i’), 변경된 제3 영상(113i’), 및 변경된 제4 영상(114i’)은 각각 감시 영역의 북쪽 영역, 동쪽 영역, 서쪽 영역, 및 남쪽 영역이 촬영된 영상일 수 있다.
도 10 및 도 11은 각각 일 실시예에 따른 네트워크 카메라의 영상 및 사용자 인터페이스를 동시에 디스플레이하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 프로세서(140)는 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 제4 영상(114i), 및 제5 영상(115i)을 포함하는 제1 레이어(1) 및 제1 사용자 인터페이스(111u), 제2 사용자 인터페이스(112u), 제3 사용자 인터페이스(113u), 제4 사용자 인터페이스(114u), 및 제5 사용자 인터페이스(115u)를 포함하는 제2 레이어(2)를 생성할 수 있다.
이때, 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)은 PTZ 카메라에 의해 촬영된 영상이고, 제5 영상(115i)은 어안 카메라에 의해 촬영된 영상일 수 있다. 이에 따라, 제1 영상(111i), 제2 영상(112i), 제3 영상(113i), 및 제4 영상(114i)은 사각형으로, 제5 영상(115i)은 원형으로 생성될 수 있다. 한편, 제1 사용자 인터페이스(111u), 제2 사용자 인터페이스(112u), 제3 사용자 인터페이스(113u), 및 제4 사용자 인터페이스(114u)는 부채꼴로, 제5 사용자 인터페이스(115u)는 원형으로 생성될 수 있다.
제1 사용자 인터페이스(111u), 제2 사용자 인터페이스(112u), 제3 사용자 인터페이스(113u), 및 제4 사용자 인터페이스(114u), 및 제5 사용자 인터페이스(115u)는 각각 복수의 라인들 및 복수의 라인들 사이에 존재하는 적어도 하나의 도형으로 이루어질 수 있다. 이때, 프로세서(140)는 사용자 입력에 대응하여 복수의 라인들 사이의 간격, 적어도 하나의 도형의 크기, 및 적어도 하나의 도형의 위치 중 적어도 하나를 변경시키고, 제1 카메라 모듈(111), 제2 카메라 모듈(112), 제3 카메라 모듈(113), 제4 카메라 모듈(114), 및 제5 카메라 모듈(115) 중 적어도 하나의 동작 상태를 변경시킬 수 있다.
도 11을 참조하면, 프로세서(140)는 제1 영상(111i)과 제2 영상(112i)을 영상 분석하여 제1 카메라 모듈(111)과 제2 카메라 모듈(112)이 동일한 영역을 중첩하여 촬영하는지 여부를 판단할 수 있다.
한편, 프로세서(140)는 제1 카메라 모듈(111)의 PTZ 값과 제2 카메라 모듈(112)의 PTZ 값에 기초하여 제1 카메라 모듈(111)과 제2 카메라 모듈(112)이 동일한 영역을 중첩하여 촬영하는지 여부를 판단할 수도 있다. PTZ 값은 팬 각도, 틸트 각도, 및 렌즈 줌 배율 중 적어도 하나를 포함할 수 있다.
프로세서(140)는 제1 카메라 모듈(111)과 제2 카메라 모듈(112)이 동일한 영역을 중첩하여 촬영하는 경우, 제1 사용자 인터페이스(111u)와 제2 사용자 인터페이스(112u)를 중첩하여 중첩 영역(ol)으로 나타낼 수 있다.
따라서, 중첩 영역(ol)은 제1 카메라 모듈(111)의 촬영 영역과 제2 카메라 모듈(112)의 촬영 영역이 겹치는 경우, 겹치는 촬영 영역의 크기에 비례하는 크기를 갖는 중첩 영역(ol)이 표시될 수 있다. 다시 말해, 제1 카메라 모듈(111)과 제2 카메라 모듈(112)에 의해 겹치는 촬영 영역이 커질수록 중첩 영역(ol)의 크기가 커질 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
10: 네트워크 카메라
11: 제1 네트워크 카메라
1n: 제n 네트워크 카메라
20: 게이트웨이
30: 네트워크
40: 관리 서버
50: 모니터링 장치

Claims (9)

  1. 카메라 모듈로부터 영상을 수신하는 통신 모듈;
    상기 영상을 포함하는 제1 레이어 및 상기 카메라 모듈에 대응하는 사용자 인터페이스를 포함하는 제2 레이어를 디스플레이하는 디스플레이 모듈; 및
    상기 사용자 인터페이스를 통해 수신한 사용자 입력에 대응하여, 상기 카메라 모듈의 동작 상태 및 상기 사용자 인터페이스의 표시 상태를 변경시키는 프로세서;를 포함하고,
    상기 사용자 인터페이스는 소정 간격으로 이격된 복수의 라인들 및 상기 복수의 라인들 사이에 존재하는 적어도 하나의 도형으로 이루어지며,
    상기 프로세서는 상기 사용자 입력에 대응하여, 상기 사용자 인터페이스의 상기 복수의 라인들 사이의 간격, 상기 적어도 하나의 도형의 크기, 및 상기 적어도 하나의 도형의 위치 중 적어도 하나를 변경시키고, 상기 카메라 모듈의 틸트 각도, 팬 각도, 렌즈 줌 배율, 포커스 값, 렌즈 회전 상태, 및 방위 중 적어도 하나를 변경시키는, 감시 시스템.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 제2 레이어는 상기 제1 레이어의 적어도 일 영역 상에 중첩되도록 디스플레이되는, 감시 시스템.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
KR1020170136597A 2017-10-20 2017-10-20 감시 시스템 및 그 동작 방법 KR102369804B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170136597A KR102369804B1 (ko) 2017-10-20 2017-10-20 감시 시스템 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170136597A KR102369804B1 (ko) 2017-10-20 2017-10-20 감시 시스템 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20190044317A KR20190044317A (ko) 2019-04-30
KR102369804B1 true KR102369804B1 (ko) 2022-03-03

Family

ID=66285671

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170136597A KR102369804B1 (ko) 2017-10-20 2017-10-20 감시 시스템 및 그 동작 방법

Country Status (1)

Country Link
KR (1) KR102369804B1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100504133B1 (ko) 2003-05-15 2005-07-27 김윤수 감시 모니터의 화면 제어 방법
KR101703321B1 (ko) * 2015-01-09 2017-02-06 주식회사 에스티유니타스 복합 컨텐츠의 제공 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
비특허문헌1

Also Published As

Publication number Publication date
KR20190044317A (ko) 2019-04-30

Similar Documents

Publication Publication Date Title
AU2014290798B2 (en) Wireless video camera
KR100719120B1 (ko) 프라이버시영역을 마스크 처리하는 감시시스템 및 그 방법
US20040179100A1 (en) Imaging device and a monitoring system
US20150244991A1 (en) Monitoring camera system and control method of monitoring camera system
JP2016100696A (ja) 画像処理装置、画像処理方法、及び画像処理システム
US10638050B2 (en) Method for setting photographed image of PTZ camera and apparatus therefor
KR102315525B1 (ko) 감시 시스템 및 그 동작 방법
WO2016125372A1 (ja) 追尾システム、端末装置、カメラ装置、追尾撮影方法及びプログラム
WO2009082543A1 (en) Methods and apparatus for operating a video camera assembly
KR20170044451A (ko) 헤드 마운트 디스플레이를 이용한 원격지 카메라 제어 시스템 및 방법
JP2019176306A (ja) 監視システム、監視システムの制御方法及びプログラム
JP2021078124A (ja) インテリジェント撮影システムの撮影制御方法、装置、記憶媒体及びシステム
CN110351475A (zh) 摄像系统、信息处理设备及其控制方法和存储介质
WO2016152316A1 (ja) 監視システム、監視方法、監視装置および監視装置の制御プログラム
WO2020000393A1 (zh) 图像处理方法及装置、第一电子设备和图像处理系统
KR102369804B1 (ko) 감시 시스템 및 그 동작 방법
EP2672694B1 (en) Improved control of an image capturing device
JP7356293B2 (ja) 電子機器およびその制御方法
WO2019061020A1 (zh) 图像生成方法、图像生成装置和机器可读存储介质
KR101193129B1 (ko) 다자 동시 제어를 허용하는 실시간 원격 360도 전방향 영상 감시 시스템
JP6819404B2 (ja) 撮影制御装置及びプログラム
CN112887620A (zh) 视频拍摄方法、装置及电子设备
KR102333760B1 (ko) 지능형 영상 관제 방법 및 그 서버
JP7335463B1 (ja) 携帯用の撮像装置、映像処理システム、映像処理方法、及び映像処理プログラム
JP2008085607A (ja) 監視カメラシステム

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right