KR20200114350A - 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법 - Google Patents

증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법 Download PDF

Info

Publication number
KR20200114350A
KR20200114350A KR1020190035959A KR20190035959A KR20200114350A KR 20200114350 A KR20200114350 A KR 20200114350A KR 1020190035959 A KR1020190035959 A KR 1020190035959A KR 20190035959 A KR20190035959 A KR 20190035959A KR 20200114350 A KR20200114350 A KR 20200114350A
Authority
KR
South Korea
Prior art keywords
mobile device
augmented reality
surveillance
surveillance camera
reality mobile
Prior art date
Application number
KR1020190035959A
Other languages
English (en)
Inventor
임준혁
정예운
박대일
손명화
이탁기
박주원
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020190035959A priority Critical patent/KR20200114350A/ko
Publication of KR20200114350A publication Critical patent/KR20200114350A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43637Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

본 발명의 실시예에 의한 증강현실 모바일 기기를 포함한 감시 카메라 시스템은, 해당 감시 영역을 촬영하는 복수의 감시 카메라들; 상기 감시 카메라들과 근거리 통신을 수행하여 상기 각 감시 카메라들의 위치 정보를 수신하는 증강현실 모바일 기기; 상기 감시 카메라들 및 증강현실 모바일 기기와 통신망을 통해 연결되어 상기 감시 카메라들의 기본 위치 정보 및 촬영 영상 정보를 전송 받고, 상기 모바일 기기로부터의 확인 요청에 응답하여 이에 대응한 감시 카메라의 기본 위치 정보 및 촬영 영상 정보를 상기 모바일 기기로 전송하는 감시 서버를 포함하며, 상기 증강현실 모바일 기기는 인접한 감시 카메라들과의 거리를 감지하고, 상기 감지된 거리에 근거하여 모바일 기기의 표시부를 통해 상기 인접한 감시 카메라들 중 적어도 하나의 감시 카메라의 촬영 영상을 모니터링한다.

Description

증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법{Surveillance camera system including Augmented Reality mobile device and the control method thereof}
본 발명의 실시예는 감시 카메라 시스템에 관한 것으로, 보다 구체적으로는, 증강현실(Augmented Reality, AR) 글래스(glass)와 같은 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법에 관한 것이다.
최근 들어 AR 글래스 등과 같은 증강현실 모바일 기기에 대한 소비자의 요구가 점차 증가하고 있다. 일 예로, 웨어러블(wearable) 기기로서의 AR 글래스는 사용자가 용이하게 착용할 수 있고, 사용자의 시선 방향과 동일한 방향을 촬영하는 카메라를 포함하기 때문에 사용자가 바라보고 있는 영역에 대한 영상의 정보를 사용자에게 자연스럽게 제공할 수 있을 뿐 아니라, 다양한 형태의 추가 정보를 사용자에게 보여줄 수도 있다.
또한, 최근에는 방범, 보안, 매장 관리 등 다양한 목적으로 건물 내부나 외부, 길거리 등에 감시 카메라 시스템이 설치되는 것이 일반적이다. 이러한 감시 카메라 시스템의 사용이 일반화됨에 따라, 감시 카메라 모니터링 시스템의 사용도 일반화되어 사용자는 자신의 모바일 단말기를 통해 쉽게 감시 카메라의 촬영 영상을 모니터링할 수 있다. 일 예로, 사용자가 자신의 모바일 단말기를 감시 카메라 모니터링 시스템에 등록하고, 시스템에서 제공하는 계층적인(Hierarchical level) 유저 인터페이스를 이용하여 상기 감시 카메라의 촬영 영상을 확인할 수 있는 것이다.
그러나, 이와 같은 계층적인 유저 인터페이스는 AR 글래스 등과 같은 증강현실 모바일 기기를 사용자가 이용하기 어렵다는 단점이 있다. 즉, AR 글래스는 텍스트 입력 또는 포인트 앤드 클릭(point & click)과 같은 물리적 인터페이스 (예; 키보드, 마우스, 터치 등) 기반으로는 사용하기 어렵다.
따라서, AR 글래스 등과 같은 증강현실 모바일 기기를 포함하는 감시 카메라 시스템을 구현하기 위해서는 사용자의 물리적 인터페이스를 통한 입력 없이도 감시 카메라의 촬영 영상을 모니터링하고 제어할 수 있는 새로운 형태의 사용자 인터페이스, 감시 카메라 제어 시스템 및 제어 방법이 요구된다.
본 발명의 실시예는 사용자가 착용한 모바일 기기와 감시 카메라와의 거리를 감지하고, 이에 근거하여 사용자의 물리적 입력 없이 상기 모바일 기기를 착용하고 인근의 감시 카메라를 주시하는 것만으로 상기 감지된 적어도 하나의 감시 카메라의 촬영 영상을 모니터링하고 제어할 수 있는 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법을 제공한다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 의한 증강현실 모바일 기기를 포함한 감시 카메라 시스템은, 해당 감시 영역을 촬영하는 복수의 감시 카메라들; 상기 감시 카메라들과 근거리 통신을 수행하여 상기 각 감시 카메라들의 위치 정보를 수신하는 증강현실 모바일 기기; 상기 감시 카메라들 및 증강현실 모바일 기기와 통신망을 통해 연결되어 상기 감시 카메라들의 기본 위치 정보 및 촬영 영상 정보를 전송 받고, 상기 모바일 기기로부터의 확인 요청에 응답하여 이에 대응한 감시 카메라의 기본 위치 정보 및 촬영 영상 정보를 상기 모바일 기기로 전송하는 감시 서버를 포함하며, 상기 증강현실 모바일 기기는 인접한 감시 카메라들과의 거리를 감지하고, 상기 감지된 거리에 근거하여 모바일 기기의 표시부를 통해 상기 인접한 감시 카메라들 중 적어도 하나의 감시 카메라의 촬영 영상을 모니터링한다.
상기 복수의 감시 카메라들 각각은, 상기 감시 카메라에 접근하는 상기 증강현실 모바일 기기에게 소정의 정보를 브로드캐스팅하는 근거리 통신 모듈 및 상기 감시 카메라의 기본 위치를 주기적으로 센싱하는 GPS 센서를 포함하는 증강현실 모바일 기기를 포함할 수 있다.
상기 근거리 통신 모듈은 블루투스 모듈을 포함하고, 상기 블루투스 모듈은 블루투스 LE (BLE) 프로토콜을 통해 BLE 신호를 브로드캐스팅하여 상기 인접한 모바일 기기에게 상기 감시 카메라의 위치 정보를 전송하는 증강현실 모바일 기기를 포함할 수 있다.
상기 증강현실 모바일 기기는, 상기 증강현실 모바일 기기를 착용한 사용자의 시선 방향과 동일한 방향을 촬영하는 카메라와; 기 설정된 기준값 이내의 거리에 위치한 감시 카메라를 주시하면 학습된 물체로서의 상기 감시 카메라를 검출하는 영상 인식 기술을 활용한 머신러닝 모듈과; 상기 카메라가 촬영한 영상을 표시하면서, 상기 증강현실 모바일 기기에 인접한 적어도 하나의 감시 카메라들의 촬영 영상을 화면의 특정 영역에 표시하는 표시부를 포함할 수 있다.
상기 증강현실 모바일 기기는, 상기 인접한 감시 카메라에서 브로드캐스팅된 BLE 신호를 이용하여 상기 모바일 기기와 인접한 감시 카메라와의 거리를 계산하는 프로세서를 포함할 수 있다.
상기 증강현실 모바일 기기의 프로세서는, 상기 인접한 감시 카메라와의 거리가 기 설정된 기준값을 초과하는지 여부를 판단할 수 있다.
상기 감시 카메라들 및 증강현실 모바일 기기와의 거리가 기준값을 초과한 경우에는 상기 증강현실 모바일 기기에 인접한 것으로 확인된 감시 카메라들의 위치 및 거리에 대응되도록 상기 증강현실 모바일 기기의 표시부 화면 일부에 상기 감시 카메라들의 촬영 영상을 표시할 수 있다.
상기 표시부에 표시되는 감시 카메라들의 촬영 영상의 크기 및 위치는, 상기 감시 카메라들의 위치 및 증강현실 모바일 기기와의 거리에 따라 변경될 수 있다.
상기 감시 카메라들 중 적어도 하나의 감시 카메라와 증강현실 모바일 기기의 거리가 기준값 이내에 해당한 경우, 상기 기준값 이내의 거리 내에 도달한 감시 카메라의 촬영 영상을 상기 증강현실 모바일 기기의 표시부 화면 중앙에 표시할 수 있다.
상기 기준값을 초과한 거리에 해당하는 감시 카메라들의 촬영 영상은 상기 증강현실 모바일 기기의 표시부 화면에서 사라지고, 상기 감시 카메라들의 위치를 지시하는 지시자가 새롭게 생성되어 상기 표시부 화면의 대응 영역에 표시될 수 있다.
또한, 본 발명의 실시예에 의한 증강현실 모바일 기기를 포함한 감시 카메라 시스템 제어 방법은, 증강현실 모바일 기기 인근의 감시 카메라들의 위치 및 거리를 확인하는 단계; 상기 확인된 감시 카메라들과 상기 증강현실 모바일 기기의 거리가 기준값을 초과하는 단계; 상기 감시 카메라들 및 증강현실 모바일 기기와의 거리가 기준값을 초과한 경우에는 상기 증강현실 모바일 기기에 인접한 것으로 확인된 감시 카메라들의 위치 및 거리에 대응되도록 상기 증강현실 모바일 기기의 표시부 화면 일부에 상기 감시 카메라들의 촬영 영상을 표시하는 멀티뷰 기능 구현 단계: 및 상기 감시 카메라들 중 적어도 하나의 감시 카메라와 증강현실 모바일 기기의 거리가 기준값 이내에 해당한 경우, 상기 기준값 이내의 거리 내에 도달한 감시 카메라의 촬영 영상을 상기 증강현실 모바일 기기의 표시부 화면 중앙에 표시하는 싱글뷰 기능 구현 단계를 포함한다.
상기 증강현실 모바일 기기는 상기 인근의 감시 카메라들로부터 브로드캐스팅되는 신호를 수신하여 상기 증강현실 모바일 기기 인근의 감시 카메라들의 위치 및 거리를 인식할 수 있다.
상기 멀티뷰 기능 구현 단계에서, 상기 표시부에 표시되는 감시 카메라들의 촬영 영상의 크기 및 위치는, 상기 감시 카메라들의 위치 및 증강현실 모바일 기기와의 거리에 따라 변경될 수 있다.
상기 싱글뷰 기능 구현 단계에서, 기준값을 초과한 거리에 해당하는 감시 카메라들의 촬영 영상은 상기 증강현실 모바일 기기의 표시부 화면에서 사라지고, 상기 감시 카메라들의 위치를 지시하는 지시자가 새롭게 생성되어 상기 표시부 화면의 대응 영역에 표시될 수 있다.
상기 싱글뷰 기능 구현 단계는, 상기 기준값 이내의 거리에 위치한 감시 카메라를 주시하면 학습된 물체로서의 상기 감시 카메라를 검출하는 단계를 포함할 수 있다.
이와 같은 본 발명의 실시예에 의하면, 사용자가 착용한 모바일 기기와 감시 카메라와의 거리를 감지하고, 이에 근거하여 사용자의 물리적 입력 없이 상기 모바일 기기를 착용하고 인근의 감시 카메라를 주시하는 것만으로 상기 감지된 적어도 하나의 감시 카메라의 촬영 영상을 모니터링하고 제어함으로써, AR 글래스 등과 같은 증강현실 모바일 기기를 포함하는 감시 카메라 시스템을 구현할 수 있다.
도 1은 본 발명의 실시예에 의한 증강현실 모바일 기기를 포함하는 감시 카메라 시스템의 구성을 개략적으로 나타내는 블록도.
도 2는 도 1에 도시된 감시 카메라의 내부 구성을 개략적으로 나타내는 블록도.
도 3은 도 1에 도시된 감시 서버의 내부 구성을 개략적으로 나타내는 블록도.
도 4는 도 1에 도시된 모바일 기기의 내부 구성을 개략적으로 나타내는 블록도.
도 5는 본 발명의 실시예에 의한 감시 서버, 감시 카메라 및 모바일 기기의 동작의 일 예를 개략적으로 설명하는 도면.
도 6은 본 발명의 실시예에 의한 증강현실 모바일 기기를 포함하는 감시 카메라 시스템의 제어 방법을 나타내는 순서도.
도 7은 도 1에 도시된 모바일 기기와 감시 카메라들의 거리가 기준값을 초과하는 실시예를 나타내는 도면.
도 8은 도 7의 실시예에 대응하는 모바일 기기의 표시 화면의 일 예를 나타내는 도면.
도 9는 도 1에 도시된 모바일 기기와 특정 감시 카메라의 거리가 기준값 이내인 실시예를 나타내는 도면.
도 10은 도 9의 실시예에 대응하는 모바일 기기의 표시 화면의 일 예를 나타내는 도면.
위 발명의 배경이 되는 기술 란에 기재된 내용은 오직 본 발명의 기술적 사상에 대한 배경 기술의 이해를 돕기 위한 것이며, 따라서 그것은 본 발명의 기술 분야의 당업자에게 알려진 선행 기술에 해당하는 내용으로 이해될 수 없다.
아래의 서술에서, 설명의 목적으로, 다양한 실시예들의 이해를 돕기 위해 많은 구체적인 세부 내용들이 제시된다. 그러나, 다양한 실시예들이 이러한 구체적인 세부 내용들 없이 또는 하나 이상의 동등한 방식으로 실시될 수 있다는 것은 명백하다. 다른 예시들에서, 잘 알려진 구조들과 장치들은 장치는 다양한 실시예들을 불필요하게 이해하기 어렵게 하는 것을 피하기 위해 블록도로 표시된다.
첨부된 블록도의 각 블록은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록에서 설명되는 기능들을 실행하기 위한 기능을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.
즉, 도시된 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
여기에서 사용된 용어는 특정한 실시예들을 설명하는 목적이고 제한하기 위한 목적이 아니다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함한다" 고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 다른 정의가 없는 한, 여기에 사용된 용어들은 본 발명이 속하는 분야에서 통상적인 지식을 가진 자에게 일반적으로 이해되는 것과 같은 의미를 갖는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하도록 한다.
도 1은 본 발명의 실시예에 의한 증강현실 모바일 기기를 포함하는 감시 카메라 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 증강현실 모바일 기기를 포함하는 감시 카메라 제어 시스템은 복수의 감시 카메라들(100a, 100b, 100c), AR 글래스 등과 같은 증강현실 모바일 기기(200) 및 상기 복수의 감시 카메라들(100a, 100b, 100c)과 모바일 기기(200)에 통신망(400)을 통해 연결될 수 있는 감시 서버(300)를 포함할 수 있다.
도 1에는 세 개의 제 1 내지 제3 감시 카메라들(100a, 100b, 100c)이 도시되어 있으나, 본 발명은 이에 한정되지 않고, 감시 카메라 제어 시스템은 하나 이상의 임의의 개수의 감시 카메라들을 포함할 수 있다.
상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c)는 다양한 위치에 설치될 수 있으며, 특정 장소의 고정된 위치에 배치된 경우에는 상기 특정 장소의 특정 영역을 감시하는 감시 카메라로 동작할 수 있다. 또한, 상기 감시 카메라들(100a, 100b, 100c)은 팬(pan), 틸트(tilt), 및 줌(zoom) 기능을 갖는 PTZ 카메라로서, 각각의 감시 카메라가 감시하는 영역을 녹화하거나 사진을 촬영하는 기능 및/또는 각각의 감시 카메라가 감시하는 영역에서 발생하는 소리를 녹음하는 기능을 가질 수 있다.
이하에서, 상기 감시 카메라가 감시하는 영역은 감시 영역으로 지칭될 수 있다. 구체적으로, 제1 감시 카메라(100a)가 감시하는 영역은 제1 감시 영역(A), 제2 감시 카메라(100b)가 감시하는 영역은 제2 감시 영역(B) 및 제3 감시 카메라(100c)가 감시하는 영역은 제3 감시 영역(C)으로 지칭될 수 있다.
모바일 기기(200)는 AR 글래스 등과 같은 증강현실 모바일 기기(200)로 구현될 수 있다. 증강현실이란 사용자가 인식하는 실제 환경에 추가적인 정보를 사용자에게 보여줌으로써 증강된 현실을 만들어내는 것을 의미한다. 특히 안경 형태의 웨어러블(wearable) 기기로서의 AR 글래스는 사용자가 용이하게 착용할 수 있고, 사용자의 시선 방향과 동일한 방향을 촬영하는 카메라를 포함하기 때문에 사용자가 바라보고 있는 영역에 대한 영상의 정보를 사용자에게 자연스럽게 제공할 수 있을 뿐 아니라, 다양한 형태의 추가 정보를 사용자에게 보여줄 수도 있다는 측면에서 많은 장점이 있다.
감시 서버(300)는 상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c)를 통하여 수집된 데이터(예; 감시 데이터)의 저장을 위한 서버일 수 있다. 도 1에는 하나의 서버를 표시하였지만, 상기 데이터의 양에 따라 복수 개의 서버가 존재할 수 있다. 일 실시예로서, 상기 감시 서버(300)는 주기적으로 상기 감시 카메라들(100a, 100b, 100c)의 위치 정보를 수신하여 상기 감시 카메라들(100a, 100b, 100c)의 정확한 위치를 지속적으로 업데이트할 수 있으며, 이러한 상기 감시 카메라들의 위치 정보는 상기 모바일 기기(200)로 전송되어 상기 모바일 기기(200)는 상기 감시 카메라들(100a, 100b, 100c)의 기본적인 위치를 확인할 수 있다.
또한, 본 발명의 실시예의 경우 상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c)과 상기 모바일 기기(200)는 근거리 통신모듈(미도시)를 통해 서로 통신할 수 있으며, 이를 통해 상기 모바일 기기(200)는 감시 서버(300)로부터 제공받은 감시 카메라들의 기본적인 위치 정보 외에 상기 근거리 통신모듈을 통해 직접 상기 모바일 기기(200)에 인접한 적어도 하나의 감시 카메라들의 위치 정보를 획득할 수 있다.
통신망(400)은 상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c)과 상기 감시 서버(300)를 연결하거나, 상기 모바일 기기(200)와 상기 감시 서버(300)를 연결하는 역할을 수행할 수 있다. 즉, 통신망(400)은 상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c), 모바일 기기(200) 및 감시 서버(300) 간에 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다.
통신망(40)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2는 도 1에 도시된 감시 카메라의 내부 구성을 개략적으로 나타내는 블록도이다.
도 2를 참조하면, 감시 카메라(100)는 영상 취득부(110), 제어부(120) 및 통신부(130)를 포함한다. 도 1에 도시된 제1 내지 제3 감시 카메라들(100a, 100b, 100c) 각각은 도 2의 감시 카메라(100)의 내부 구성과 동일한 구성으로 구현될 수 있다.
영상 취득부(110)는 하나 이상의 고정된 카메라 등의 촬상 장치로부터 실시간 영상 신호를 취득한다. 영상 취득부(110)는 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 등의 이미지 센서와, 이미지 센서로 빛을 전달하는 렌즈 등으로 구성될 수 있다.
제어부(120)는 감시 카메라의 전반적인 동작을 제어하고, 영상 처리부(122), 메모리(124) 및 PTZ 제어부(126)를 포함할 수 있다.
영상 처리부(122)는 실시간 입력되는 영상 신호를 처리하여 감시 영상을 생성한다. 상기 감시 영상은 해당 카메라의 감시 영역을 촬영하는 영상으로서, 이는 상기 해당 감시 영역에 대응되는 소정의 썸네일(thumbnail) 영상 정보 및 상기 감시 영역에서 발생된 이벤트 촬영 영상 정보를 포함할 수 있다.
메모리(124)는 상기 영상 처리부(62)에서 생성된 영상 정보 및 카메라 고유의 정보 (예: 카메라 ID), 카메라 위치 정보 등을 저장 및 관리하는 역할을 수행할 수 있다.
PTZ 제어부(126)는 설정된 프리셋 정보에 따라 카메라의 PTZ 좌표를 변경하는 역할을 수행할 수 있다. 상기 프리셋 정보는 일 예로 감시 서버(300)를 통해 관리자가 설정할 수 있는 것으로 상기 관리자는 카메라의 프리셋 정보를 이용하여 PTZ 좌표를 변경함으로써, 카메라의 위치, 방향, 줌 정도 등을 제어할 수 있다.
상기 제어부(120)는 프로세서로 구현될 수 있으며, 상기 프로세서는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 상기 명령은 메모리(124)에 의해 프로세서 즉, 제어부(120)로 제공될 수 있다. 일 예로, 제어부(120)는 메모리(124)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
여기서, 상기 제어부(120)는 메모리(124)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 이 때, 제어부(120) 내의 구성요소들 즉, 영상 처리부(122) 및 PTZ 제어부(126)는 상기 메모리(124)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 제어부(120)에 의해 수행되는 서로 다른 기능들을 구분하여 표현하는 것으로 이해할 수도 있다.
통신부(130)는 통신 모듈과 안테나로 구성되며, 제어부(120)와 접속되어 영상 처리부(122)의 영상 등의 정보들을 감시 서버(300), 다른 카메라들 또는 모바일 기기(200)로 전송할 수 있다.
특히, 본 발명의 실시예는 상기 통신부(130)가 근거리 통신모듈(132) 및 GPS 센서(134)를 포함할 수 있다. 상기 근거리 통신 모듈(132)은 각종 근거리 무선 통신 방식(예컨대, 블루투스, 지그비(zigbee) 등)을 지원하는 적어도 하나의 모듈을 포함할 수 있다. 일 예로, 상기 근거리 통신 모듈(132)를 통해 감시 카메라에 접근하는 모바일 기기(도 1의 200)와 통신할 수 있다. 또한, 상기 GPS 센서(134)를 통해 감시 카메라(100)의 위치를 보다 정확히 파악할 수 있으며, 상기 GPS 센서(134)를 통해 확인된 위치 정보는 주기적으로 상기 감시 서버(300)로 전송할 수 있다.
도 3은 도 1에 도시된 감시 서버의 내부 구성을 개략적으로 나타내는 블록도이다.
도 3을 참조하면, 상기 감시 서버(300)는 메모리(310), 데이터베이스(330) 프로세서(320), 통신모듈(350) 및 입출력 인터페이스(340)을 포함한다.
메모리(310)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치를 포함할 수 있다. 상기 메모리(310)에는 도 1에 도시된 감시 카메라들(100a, 100b, 100c)로부터 전송되는 위치 정보(예: GPS 센싱값) 및 촬영된 영상 정보 등을 저장할 수 있다.
데이터베이스(330)는 도 1에 도시된 감시 카메라들 각각의 고유 정보들(예: 카메라 ID 등)을 저장 및 유지할 수 있다. 즉, 상기 감시 서버(300)와 연결되는 감시 카메라들이 추가 및/또는 변경되면 이에 대응하는 정보 역시 상기 데이터베이스(330)에 업데이트될 수 있다.
프로세서(320)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(310) 또는 통신모듈(350)에 의해 프로세서(320)로 제공될 수 있다. 일 예로, 프로세서(320)는 메모리(320)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 즉, 상기 프로세서(320)는 소프트웨어적으로 C, C++, Java, Visual Basic, Visual C 등 에 의해 구현되어 다양한 기능들을 수행하는 프로그램 모듈(Module)을 포함할 수 있다.
통신모듈(350)은 통신망(400)를 통해 감시 카메라들(100a, 100b, 100c)과 통신할 수 있도록 하는 기능을 제공할 수 있다. 일 예로, 감시 서버(300)의 프로세서(320)의 제어에 따라 제공되는 제어신호, 명령 등이 통신모듈(350)을 통해 상기 통신망(400)을 거쳐 감시 카메라들(100a, 100b, 100c)로 전송될 수 있고, 마찬가지로 상기 감시 카메라들(100a, 100b, 100c)에서 생성되는 촬영 영상 정보 및 위치 정보들은 상기 통신망(400)을 거쳐 감시 서버(300)로 전송될 수 있다.
입출력 인터페이스(340)는 키보드 또는 마우스 등으로 구현되는 입력장치 및 디스플레이 등과 같은 출력장치 간의 인터페이스를 제공하는 역할을 할 수 있다.
도 4는 도 1에 도시된 모바일 기기의 내부 구성을 개략적으로 나타내는 블록도이다.
본 발명의 실시예에 의한 모바일 기기(200)는 앞서 도 1에 도시된 바와 같이 AR 글래스 등과 같은 증강현실 모바일 기기(200)로 구현될 수 있다. 이와 같은 안경 형태의 웨어러블(wearable) 기기인 AR 글래스는 사용자가 용이하게 착용할 수 있고, 사용자의 시선 방향과 동일한 방향을 촬영하는 카메라를 포함하기 때문에 사용자가 바라보고 있는 영역에 대한 영상의 정보 및 그 외의 다양한 추가 정보를 증강현실 형태로 사용자에게 보여줄 수 있다.
도 4을 참조하면, 상기 모바일 기기(200)는 메모리(210), 카메라(230) 프로세서(220), 머신러닝 모듈(240), 네트워크 인터페이스(250), 센서(260) 및 표시부(270)을 포함한다.
메모리(210)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM, ROM 등의 휘발성 및/또는 비휘발성 메모리 소자를 포함할 수 있다. 상기 메모리(210)에는 감시 카메라들(100a, 100b, 100c) 각각의 근거리 통신모듈(도 2의 132)를 통해 브로드캐스팅되는 위치정보 신호 등을 수신하여 이를 저장할 수 있다. 또한, 메모리에는 이후 설명될 멀티뷰 모드 또는 싱글뷰 모드를 구별하여 구동할 수 있는 감시 카메라들(100a, 100b, 100c) 각각과 상기 모바일 기기(200)와의 거리 기준값 정보를 저장할 수 있다.
네트워크 인터페이스(250)는 상기 모바일 기기(200)가 감시 카메라들(100a, 100b, 100c)에서 전송되는 신호를 수신할 수 있도록 하는 역할을 수행하며, 본 발명의 실시예의 경우 상기 네트워크 인터페이스(250)는 근거리 무선 네트워크 인터페이스를 포함하여 구현될 수 있다. 또한, 상기 네트워크 인터페이스(250)는 통신망(도 1의 400)을 통해 감시 서버(도 1의 300)와 연결되어 서로 통신할 수 있다. 일 예로 상기 감시 서버(300)는 주기적으로 수신한 감시 카메라들(100a, 100b, 100c)의 GPS 위치 정보를 모바일 기기(200)로 전송할 수 있다.
프로세서(220)는 모바일 기기(200)가 메모리(210)에 저장된 컴퓨터 판독가능 명령어를 실행하여 이를 처리하도록 구성될 수 있다. 상기 프로세서(320)는 소프트웨어적으로 C, C++, Java, Visual Basic, Visual C 등 에 의해 구현되어 다양한 기능들을 수행하는 프로그램 모듈(Module)을 포함할 수 있다.
카메라(230)는 모바일 기기(200)를 착용한 사용자의 시선 방향과 동일한 방향을 촬영하는 역할을 수행하는 것으로서, 증강현실 이미지를 생성하기 위해 색 이미지 및/또는 깊이 이미지(depth image)를 캡쳐할 수 있다.
센서(260)는 모바일 기기(200)와 관련된 움직임 및/또는 방위 정보를 생성할 수 있다. 일 예로, 상기 센서(260)는 거리 측정 센서, 관성 측정 센서 등을 포함할 수 있다.
표시부(270)는 상기 카메라(230)가 촬영한 영상 즉, 사용자의 시선 방향과 동일한 방향을 촬영한 영상을 표시할 수 있으며, 이러한 표시부(270)는 비디오 시스루 디스플레이 및/또는 광학 시스루 디스플레이를 포함할 수 있다. 또한, 표시부(270)는 사용자가 바라보고 있는 영역에 대한 영상의 정보뿐 아니라 증강현실 이미지를 활용하여 다양한 형태의 추가 정보를 사용자에게 표시할 수도 있다.
본 발명의 실시예의 경우 네트워크 인터페이스(250)를 통해 감지된 상기 모바일 기기(200)에 인접한 감시 카메라들(100a, 100b, 100c)의 촬영 영상을 전송받아 이를 상기 표시부(270)의 특정영역에 표시할 수 있음을 특징으로 한다.
특히 상기 감시 카메라들(100a, 100b, 100c) 중 특정 감시 카메라가 모바일 기기(200)와 가장 근접하고, 그 거리가 기 설정된 기준값 이내에 해당할 경우에는 머신러닝 모듈(250)에 의한 영상 인식 기술을 활용하여 상기 표시부의 화면 상에 캡쳐된 학습 물체 즉, 상기 특정 카메라를 검출할 수 있으며, 이 경우 상기 해당 감시 카메라의 촬영 영상을 표시부(270)의 중앙에 메인 영상으로 표시할 수 있다.
이를 통해 사용자는 물리적 사용자 인터페이스를 이용하지 않고서도 상기 모바일 기기(200)를 착용하고 인근의 감시 카메라를 주시하는 것만으로 상기 감지된 적어도 하나의 감시 카메라의 촬영 영상을 모니터링하고 제어할 수 있다.
다시 말하면, 본 발명의 실시예에 의한 모바일 기기(200)는 메모리(210), 카메라(230), 머신러닝 모듈(240), 센서(260), 표시부(270) 및 프로세서(220)을 통해 구현되는 직관적 감시 카메라 인식 사용자 인터페이스를 제공할 수 있다.
앞서 언급한 바와 같이 본 발명의 실시예에 의한 모바일 기기(200)는 AR 글래스 등과 같은 증강현실 모바일 기기(200)로 구현될 수 있다.
또한, 상기 모바일 기기(200)는 통신망(도 1의 400)을 통해 감시 서버(도 1의 300)와 연결되어 서로 통신할 수 있다. 일 예로, 앞서 언급한 바와 같이 감시 서버(300)는 주기적으로 수신한 감시 카메라들(100a, 100b, 100c)의 위치 정보를 모바일 기기(200)로 전송할 수 있으며, 이를 통해 상기 모바일 기기(200)는 상기 감시 카메라들(100a, 100b, 100c)의 기본적인 위치를 확인할 수 있다.
즉, 본 발명의 실시예에 의한 모바일 기기(200)는 근거리 무선 네트워크 인터페이스를 통해 직접 감시 카메라들(100a, 100b, 100c)로부터 위치 정보를 수신 및/또는 통신망(400)과 감시 서버(300)를 통해 감시 카메라들(100a, 100b, 100c)의 GPS 위치 정보를 수신할 수 있다.
도 5는 본 발명의 실시예에 의한 감시 서버, 감시 카메라 및 모바일 기기의 동작의 일 예를 개략적으로 설명하는 도면이다.
도 1 내지 도 5를 참조하면, 각각의 감시 카메라들(100a, 100b, 100c)은 자체적으로 구비된 GPS 센서에 의해 센싱된 위치정보 및 각 감시 카메라의 영역별로 촬영된 영상을 주기적으로 통신망(400)을 통해 감시 서버(300)로 전송한다.
또한, 각각의 감시 카메라들(100a, 100b, 100c)은 근거리 통신모듈(132)를 통해 소정의 정보를 브로드캐스팅할 수 있다. 일 예로 상기 근거리 통신모듈(132)는 블루투스 모듈을 포함할 수 있으며, 이 경우 블루투스 LE (BLE) 프로토콜을 활용하여 상기 소정의 정보 (BLE 신호)를 브로드캐스팅할 수 있다. 즉, 블루투스 LE (BLE) 프로토콜의 어드버타이즈 모드(advertise mode)를 이용하여 저전력으로 주기적으로 위치정보와 함께 32비트 문자열을 브로드캐스팅할 수 있다.
이에 상기 적어도 하나의 감시 카메라로부터 브로드캐스팅된 BLE 신호를 수신한 모바일 기기(200)는 감시 서버(300)에 상기 BLE 신호를 통해 감지된 감시 카메라에 대한 확인을 요청할 수 있다.
이에 감시 서버(300)는 상기 확인 요청에 응답하여 데이터베이스(도 3의 330)에 저장된 각 감시 카메라의 고유 정보를 검색하고, 대응되는 감시 카메라가 확인된 경우, 상기 확인된 감시 카메라의 위치 정보 및 상기 감시 카메라를 통해 촬영된 영상 정보를 통신망(400)을 통해 상기 모바일 기기(200)로 전송할 수 있다.
본 발명의 실시예에 의한 모바일 기기(200)는 앞서 도 1에 도시된 바와 같이 AR 글래스 등과 같은 증강현실 모바일 기기(200)로 구현될 수 있으며, 이 경우 사용자의 시선 방향과 동일한 방향의 화면을 인지할 수 있음과 함께 그 외의 다양한 추가 정보를 증강현실 형태로 사용자에게 보여줄 수 있다.
도 6은 본 발명의 실시예에 의한 증강현실 모바일 기기를 포함하는 감시 카메라 시스템의 제어 방법을 나타내는 순서도이다.
도 1 및 도 6을 참조하면, 본 발명의 실시예는 상기 모바일 기기(220)를 착용한 사용자 인근에 제1 내지 제3 감시 카메라들(100a, 100b, 100c)이 위치할 경우, 상기 감시 카메라들(100a, 100b, 100c)의 위치 및 상기 모바일 기기(200)와 감시 카메라들(100a, 100b, 100c)과의 거리를 확인할 수 있다 (ST 100).
본 발명의 실시예의 경우 상기 모바일 기기(200)와 제1 내지 제3 감시 카메라들(100a, 100b, 100c) 간의 거리는 상기 각 감시 카메라들에서 브로드캐스팅되는 BLE 신호 중 "BLE proximity 값"을 이용하여 계산하거나, 또는 상기 모바일 기기(200)에 구비된 거리 측정 센서(260)에 의해 센싱된 값을 활용할 수 있다.
또한, 상기 1 내지 제3 감시 카메라들(100a, 100b, 100c)의 위치 정보는 모바일 기기(200)의 근거리 무선 네트워크 인터페이스를 통해 직접 감시 카메라들(100a, 100b, 100c)로부터 위치 정보를 수신함 및/또는 통신망(400)과 감시 서버(300)를 통해 감시 카메라들(100a, 100b, 100c)의 GPS 위치 정보를 수신할 수 있다.
앞서 도 5를 통해 설명한 바와 같이, 모바일 기기(200)는 인근의 감시 카메라들에 대한 확인을 감시 서버(300)에 요청할 수 있으며, 이에 감시 서버(300)는 상기 확인 요청에 응답하여 대응되는 감시 카메라들(100a, 100b, 100c)이 확인된 경우, 상기 확인된 감시 카메라들의 위치 정보 및 상기 감시 카메라들을 통해 촬영된 영상 정보를 상기 모바일 기기(200)로 전송할 수 있다.
이후 모바일 기기(200)는 프로세서(220)의 동작을 통해 상기 확인된 감시 카메라들(100a, 100b, 100c) 각각과 상기 모바일 기기(200)와의 거리가 기준값을 초과하는지 여부를 판단할 수 있다 (ST 110).
본 발명의 실시예는 상기 감시 카메라들(100a, 100b, 100c) 및 모바일 기기(200)와의 거리가 기준값을 초과한 경우에는 상기 모바일 기기(200)에 인접한 것으로 확인된 감시 카메라들(100a, 100b, 100c)의 위치 및 거리에 대응되도록 모바일 기기(200)의 표시부(270) 화면 일부에 상기 감시 카메라들(100a, 100b, 100c)의 촬영 영상을 표시하는 기능 (멀티뷰 기능)을 구현할 수 있다 (ST 120).
또한, 본 발명의 실시예는 상기 적어도 하나의 감시 카메라가 모바일 기기(200)로부터 상기 기준값 내의 거리에 위치한 경우에는 상기 기준값 이내의 거리 내에 도달한 감시 카메라의 촬영 영상을 모바일 기기(200)의 표시부(270) 화면 중앙에 표시하는 기능 (싱글뷰 기능)을 구현할 수 있다 (ST 130).
이를 통해 사용자는 물리적 사용자 인터페이스를 이용하지 않고서도 상기 모바일 기기(200)를 착용하고 인근의 감시 카메라를 주시하는 것만으로 상기 감지된 적어도 하나의 감시 카메라의 촬영 영상을 모니터링하고 제어할 수 있다.
상기 멀티뷰 기능 및 싱글뷰 기능의 동작에 대해서는 이하 도 7 내지 도 10을 통해 보다 상세히 설명하도록 한다.
도 7은 도 1에 도시된 모바일 기기와 감시 카메라들의 거리가 기준값을 초과하는 실시예를 나타내는 도면이다.
도 7을 참조하면, 모바일 기기(200)을 착용한 사용자 인근에 3대의 제1 내지 제3 감시 카메라들(100a, 100b, 100c)이 위치하고 있음을 그 예로 설명한다. 이 때, 상기 제1 감시 카메라(100a)와 모바일 기기(200)간 거리는 a이고, 상기 제2 감시 카메라(100b)와 모바일 기기(200)간 거리는 b이며, 상기 제3 감시 카메라(100c)와 모바일 기기(200)간 거리는 c이다.
본 발명의 실시예의 경우 상기 모바일 기기(200)와 제1 내지 제3 감시 카메라들(100a, 100b, 100c) 간의 거리는 상기 각 감시 카메라들에서 브로드캐스팅되는 BLE 신호 중 "BLE proximity 값"을 이용하여 계산하거나, 또는 상기 모바일 기기(200)에 구비된 거리 측정 센서(260)에 의해 센싱된 값을 활용할 수 있다.
또한, 상기 1 내지 제3 감시 카메라들(100a, 100b, 100c)의 위치 정보는 모바일 기기(200)의 근거리 무선 네트워크 인터페이스를 통해 직접 감시 카메라들(100a, 100b, 100c)로부터 위치 정보를 수신함 및/또는 통신망(400)과 감시 서버(300)를 통해 감시 카메라들(100a, 100b, 100c)의 GPS 위치 정보를 수신할 수 있다.
또한, 앞서 도 5를 통해 설명한 바와 같이, 상기 확인된 감시 카메라들(100a, 100b, 100c) 각각을 통해 촬영된 영상 정보는 통신망(400)을 통해 상기 모바일 기기(200)로 전송될 수 있다.
도 7에 도시된 실시예에서는 상기 모바일 기기(200)와 제1 내지 제3 감시 카메라들(100a, 100b, 100c) 간의 거리인 상기 a, b, c 모두 기 설정된 기준값을 초과하고 그 크기는 a>b>c 임을 그 예로 설명한다. 본 발명의 실시예의 경우 상기 기준값을 3m로 설정될 수 있으나, 본 발명의 실시예가 반드시 이에 한정되는 것은 아니다.
이와 같이 상기 모바일 기기(200)에 인접한 감시 카메라들로 확인된 제1 내지 제3 감시 카메라들(100a, 100b, 100c)이 상기 모바일 기기(200)와의 거리가 모두 기준값을 초과한 경우에는 상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c)의 위치 및 거리에 대응되도록 모바일 기기(200)의 표시부(270) 화면 일부에 상기 감시 카메라들(100a, 100b, 100c)의 촬영 영상을 표시하는 기능 (멀티뷰 기능)을 구현할 수 있다.
도 8은 도 7의 실시예에 대응하는 모바일 기기의 표시 화면의 일 예를 나타내는 도면이다.
도 8을 참조하면, 모바일 기기의 표시부는 비디오 시스루 디스플레이 및/또는 광학 시스루 디스플레이로 구현됨으로써, 상기 표시부에 디스플레이되는 화면(700)은 전체적으로 사용자의 시선 방향과 동일한 방향을 촬영한 영상을 표시할 수 있다. 또한, 본 발명의 실시예는 이 외에도 증강현실 이미지를 활용하여 다양한 형태의 추가 정보를 사용자에게 표시할 수 있으며, 도 7에 도시된 복수개의 비디오뷰들(70a, 70b, 70c)이 상기 표시부 화면(700)의 특정영역에 표시될 수 있다.
상기 제1 비디오뷰(70a)는 상기 제1 감시 카메라(100a)에 의해 촬영된 영상에 대응되고, 상기 제2 비디오뷰(70b)는 상기 제2 감시 카메라(100b)에 의해 촬영된 영상에 대응되며, 상기 제3 비디오뷰(70c)는 상기 제3 감시 카메라(100c)에 의해 촬영된 영상에 대응될 수 있다.
본 발명의 실시예는 상기 제1 내지 제3 비디오뷰(70a, 70b, 70c)의 크기 및 위치가 상기 제1 내지 제3 감시 카메라들(100a, 100b, 100c)의 위치 및 모바일 기기(200)와의 거리에 따라 변경됨을 특징으로 한다.
일 예로, 도 7 및 도 8을 참조하면, 상기 제1 감시 카메라(100a)에 의해 촬영된 영상에 대응되는 상기 제1 비디오뷰(70a)는 상기 제1 감시 카메라(100a)의 위치에 대응되도록 표시부 화면(700)의 좌측 상단에 위치하고, 상기 모바일 기기(200)와의 거리(a)가 가장 멀기 때문에 상대적으로 가장 작은 크기로 구현될 수 있다.
또한, 상기 제2 감시 카메라(100b)에 의해 촬영된 영상에 대응되는 상기 제2 비디오뷰(70b)는 상기 제2 감시 카메라(100b)의 위치에 대응되도록 표시부 화면(700)의 좌측 하단에 위치하고, 상기 모바일 기기(200)와의 거리(b)가 중간이므로 상대적으로 중간 크기로 구현될 수 있다.
또한, 상기 제3 감시 카메라(100c)에 의해 촬영된 영상에 대응되는 상기 제3 비디오뷰(70c)는 상기 제3 감시 카메라(100c)의 위치에 대응되도록 표시부 화면(700)의 우측 하단에 위치하고, 상기 모바일 기기(200)와의 거리(c)가 가장 가깝기 때문에 상대적으로 가장 큰 크기로 구현될 수 있다.
사용자가 도 8에 도시된 화면을 인식한 후 상기 제1 내지 제3 비디오뷰(70a, 70b, 70c) 중 어느 하나의 감시 카메라의 화면을 확인하고자 할 경우에는 그에 대응되는 비디오뷰가 위치한 방향으로 움직이고, 상기 비디오뷰와 대응되는 감시 카메라와 모바일 기기와의 거리가 기준값 이내가 되면 자동으로 상기 비디오뷰가 메일 화면으로 표시될 수 있다.
도 9은 도 1에 도시된 모바일 기기와 특정 감시 카메라의 거리가 기준값 이내인 실시예를 나타내는 도면이다.
도 9를 참조하면, 모바일 기기(200)을 착용한 사용자가 제3 감시 카메라(100c) 방향으로 이동함을 그 예로 설명한다. 이 때, 도 6에 도시된 실시예와 대비하여 변경된 상기 제1 감시 카메라(100a)와 모바일 기기(200)간 거리는 a'이고, 상기 제2 감시 카메라(100b)와 모바일 기기(200)간 거리는 b'이며, 상기 제3 감시 카메라(100c)와 모바일 기기(200)간 거리는 c'이다.
도 7에 도시된 실시예에서는 상기 모바일 기기(200)와 제3 감시 카메라들(100c) 간의 거리인 c'가 기준값 이내가 되고, 나머지 a'및 b'는 최초 거리인 a 및 b보다도 멀어지므로 상기 기준값을 초과한다.
이와 같이 상기 감시 카메라들(100a, 100b, 100c) 중 특정 감시 카메라 일 예로, 제3 감시 카메라(100c)가 모바일 기기(200)와 가장 근접하고, 그 거리가 기 설정된 기준값 이내에 해당할 경우에는 상기 모바일 기기(200)에 구비된 머신러닝 모듈(250)에 의한 영상 인식 기술을 활용하여 모바일 기기(200)를 착용한 사용자가 상기 제3 감시 카메라(100c)를 주시함에 의해 상기 표시부의 화면 상에 캡쳐된 학습 물체 즉, 상기 제3 감시 카메라(100c)를 검출할 수 있으며, 이 경우 상기 해당 감시 카메라의 촬영 영상을 표시부(270)의 중앙에 메인 영상으로 표시할 수 있다.
이와 같이 적어도 하나의 감시 카메라인 제3 감시 카메라(100c)가 모바일 기기(200)로부터 상기 기준값 내의 거리에 위치한 경우에는 상기 기준값 이내의 거리 내에 도달한 제3 감시 카메라(100c)의 촬영 영상을 모바일 기기(200)의 표시부(270) 화면 중앙에 표시하는 기능 (싱글뷰 기능)을 구현할 수 있다.
도 10은 도 9의 실시예에 대응하는 모바일 기기의 표시 화면의 일 예를 나타내는 도면이다.
도 10을 참조하면, 모바일 기기의 표시부의 화면(900)은 상기 기준값 이내에 위치한 제3 감시 카메라(100c)에 의해 촬영된 영상에 대응된 제3 비디오뷰(90c)가 메인 화면으로 디스플레이될 수 있다.
이를 통해 사용자는 물리적 사용자 인터페이스를 이용하지 않고서도 상기 모바일 기기(200)를 착용하고 인근의 감시 카메라를 주시하는 것만으로 상기 감지된 감시 카메라들 중 사용자가 확인하고자 하는 감시 카메라의 촬영 영상을 모니터링하고 제어할 수 있다.
또한, 나머지 제1 및 제2 감시 카메라들(100a, 100b)에 대응되는 제1 및 제2 비디오뷰(70a, 70b)의 표시부의 화면(900)에서 사라지고, 상기 제1 및 제2 감시 카메라들(100a, 100b)의 위치를 지시하는 삼각형 형태의 지시자(90a, 90b)가 표시부 화면(900)의 대응 영역에 표시된다.
따라서, 모바일 기기(200)를 착용한 사용자가 도 9에 도시된 바와 같이 제3 감시 카메라의 촬영 화면에 대응하는 제3 비디오뷰(90c)를 모니터링한 다음 제1 감시 카메라(100a)의 촬영 화면을 모니터링하고자 할 경우에는 상기 제1 지시자(90a)가 지시하는 방향으로 이동하고, 상기 제1 감시 카메라(100a)와 모바일 기기(200)와의 거리가 기준값 이내가 되면 상기 제1 감시 카메라(100a)를 주시하는 것만으로 상기 제1 감시 카메라(100a)의 촬영 영상을 모니터링하고 제어할 수 있게 된다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (15)

  1. 해당 감시 영역을 촬영하는 복수의 감시 카메라들;
    상기 감시 카메라들과 근거리 통신을 수행하여 상기 각 감시 카메라들의 위치 정보를 수신하는 증강현실 모바일 기기;
    상기 감시 카메라들 및 증강현실 모바일 기기와 통신망을 통해 연결되어 상기 감시 카메라들의 기본 위치 정보 및 촬영 영상 정보를 전송 받고, 상기 모바일 기기로부터의 확인 요청에 응답하여 이에 대응한 감시 카메라의 기본 위치 정보 및 촬영 영상 정보를 상기 모바일 기기로 전송하는 감시 서버를 포함하며,
    상기 증강현실 모바일 기기는 인접한 감시 카메라들과의 거리를 감지하고, 상기 감지된 거리에 근거하여 모바일 기기의 표시부를 통해 상기 인접한 감시 카메라들 중 적어도 하나의 감시 카메라의 촬영 영상을 모니터링하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  2. 제1 항에 있어서,
    상기 복수의 감시 카메라들 각각은,
    상기 감시 카메라에 접근하는 상기 증강현실 모바일 기기에게 소정의 정보를 브로드캐스팅하는 근거리 통신 모듈 및
    상기 감시 카메라의 기본 위치를 주기적으로 센싱하는 GPS 센서를 포함하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  3. 제2 항에 있어서,
    상기 근거리 통신 모듈은 블루투스 모듈을 포함하고, 상기 블루투스 모듈은 블루투스 LE (BLE) 프로토콜을 통해 BLE 신호를 브로드캐스팅하여 상기 인접한 모바일 기기에게 상기 감시 카메라의 위치 정보를 전송하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  4. 제1 항에 있어서,
    상기 증강현실 모바일 기기는,
    상기 증강현실 모바일 기기를 착용한 사용자의 시선 방향과 동일한 방향을 촬영하는 카메라와;
    기 설정된 기준값 이내의 거리에 위치한 감시 카메라를 주시하면 학습된 물체로서의 상기 감시 카메라를 검출하는 영상 인식 기술을 활용한 머신러닝 모듈과;
    상기 카메라가 촬영한 영상을 표시하면서, 상기 증강현실 모바일 기기에 인접한 적어도 하나의 감시 카메라들의 촬영 영상을 화면의 특정 영역에 표시하는 표시부를 포함하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  5. 제3 항에 있어서,
    상기 증강현실 모바일 기기는,
    상기 인접한 감시 카메라에서 브로드캐스팅된 BLE 신호를 이용하여 상기 모바일 기기와 인접한 감시 카메라와의 거리를 계산하는 프로세서를 포함하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  6. 제5 항에 있어서,
    상기 증강현실 모바일 기기의 프로세서는, 상기 인접한 감시 카메라와의 거리가 기 설정된 기준값을 초과하는지 여부를 판단하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  7. 제6 항에 있어서,
    상기 감시 카메라들 및 증강현실 모바일 기기와의 거리가 기준값을 초과한 경우에는 상기 증강현실 모바일 기기에 인접한 것으로 확인된 감시 카메라들의 위치 및 거리에 대응되도록 상기 증강현실 모바일 기기의 표시부 화면 일부에 상기 감시 카메라들의 촬영 영상을 표시하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  8. 제7 항에 있어서,
    상기 표시부에 표시되는 감시 카메라들의 촬영 영상의 크기 및 위치는, 상기 감시 카메라들의 위치 및 증강현실 모바일 기기와의 거리에 따라 변경되는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  9. 제6 항에 있어서,
    상기 감시 카메라들 중 적어도 하나의 감시 카메라와 증강현실 모바일 기기의 거리가 기준값 이내에 해당한 경우, 상기 기준값 이내의 거리 내에 도달한 감시 카메라의 촬영 영상을 상기 증강현실 모바일 기기의 표시부 화면 중앙에 표시하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  10. 제9 항에 있어서,
    상기 기준값을 초과한 거리에 해당하는 감시 카메라들의 촬영 영상은 상기 증강현실 모바일 기기의 표시부 화면에서 사라지고, 상기 감시 카메라들의 위치를 지시하는 지시자가 새롭게 생성되어 상기 표시부 화면의 대응 영역에 표시되는 증강현실 모바일 기기를 포함한 감시 카메라 시스템.
  11. 증강현실 모바일 기기 인근의 감시 카메라들의 위치 및 거리를 확인하는 단계;
    상기 확인된 감시 카메라들과 상기 증강현실 모바일 기기의 거리가 기준값을 초과하는 단계;
    상기 감시 카메라들 및 증강현실 모바일 기기와의 거리가 기준값을 초과한 경우에는 상기 증강현실 모바일 기기에 인접한 것으로 확인된 감시 카메라들의 위치 및 거리에 대응되도록 상기 증강현실 모바일 기기의 표시부 화면 일부에 상기 감시 카메라들의 촬영 영상을 표시하는 멀티뷰 기능 구현 단계: 및
    상기 감시 카메라들 중 적어도 하나의 감시 카메라와 증강현실 모바일 기기의 거리가 기준값 이내에 해당한 경우, 상기 기준값 이내의 거리 내에 도달한 감시 카메라의 촬영 영상을 상기 증강현실 모바일 기기의 표시부 화면 중앙에 표시하는 싱글뷰 기능 구현 단계를 포함하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템 제어 방법.
  12. 제11 항에 있어서,
    상기 증강현실 모바일 기기는 상기 인근의 감시 카메라들로부터 브로드캐스팅되는 신호를 수신하여 상기 증강현실 모바일 기기 인근의 감시 카메라들의 위치 및 거리를 인식하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템 제어 방법.
  13. 제11 항에 있어서,
    상기 멀티뷰 기능 구현 단계에서, 상기 표시부에 표시되는 감시 카메라들의 촬영 영상의 크기 및 위치는, 상기 감시 카메라들의 위치 및 증강현실 모바일 기기와의 거리에 따라 변경되는 증강현실 모바일 기기를 포함한 감시 카메라 시스템 제어 방법.
  14. 제11 항에 있어서,
    상기 싱글뷰 기능 구현 단계에서, 기준값을 초과한 거리에 해당하는 감시 카메라들의 촬영 영상은 상기 증강현실 모바일 기기의 표시부 화면에서 사라지고, 상기 감시 카메라들의 위치를 지시하는 지시자가 새롭게 생성되어 상기 표시부 화면의 대응 영역에 표시되는 증강현실 모바일 기기를 포함한 감시 카메라 시스템 제어 방법.
  15. 제11 항에 있어서,
    상기 싱글뷰 기능 구현 단계는, 상기 기준값 이내의 거리에 위치한 감시 카메라를 주시하면 학습된 물체로서의 상기 감시 카메라를 검출하는 단계를 포함하는 증강현실 모바일 기기를 포함한 감시 카메라 시스템 제어 방법.
KR1020190035959A 2019-03-28 2019-03-28 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법 KR20200114350A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190035959A KR20200114350A (ko) 2019-03-28 2019-03-28 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190035959A KR20200114350A (ko) 2019-03-28 2019-03-28 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20200114350A true KR20200114350A (ko) 2020-10-07

Family

ID=72884675

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190035959A KR20200114350A (ko) 2019-03-28 2019-03-28 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20200114350A (ko)

Similar Documents

Publication Publication Date Title
JP5966510B2 (ja) 情報処理システム
US9836886B2 (en) Client terminal and server to determine an overhead view image
CN103369234B (zh) 服务器、客户终端和系统
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
US11178344B2 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
WO2017051592A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2016030878A1 (en) Self-image augmentation
KR20190035116A (ko) Ar 객체를 표시하기 위한 장치 및 방법
KR20130130544A (ko) 감시 영상 표시 방법 및 시스템
JP2020005146A (ja) 出力制御装置、表示端末、情報処理装置、移動体、遠隔制御システム、出力制御方法、プログラムおよび撮影制御装置
EP3076660B1 (en) Method and apparatus for displaying framing information
WO2013118460A2 (en) Server, client terminal, system, and program
CN103312958A (zh) 客户机终端、服务器以及程序
KR101297294B1 (ko) 카메라 제어용 맵 인터페이스 시스템
JP6677684B2 (ja) 映像配信システム
JP2012119971A (ja) 監視映像表示装置
KR101672268B1 (ko) 전시공간 제어 시스템 및 전시공간 제어방법
KR101412069B1 (ko) 디지털 사이니지 전망경 및 그 제어방법
KR20200114350A (ko) 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법
KR101738514B1 (ko) 어안 열상 카메라를 채용한 감시 시스템 및 이를 이용한 감시 방법
US20200334848A1 (en) Imaging Systems Including Real-Time Target-Acquisition and Triangulation Features and Human-Machine Interfaces Therefor
JP2018074420A (ja) 表示装置、表示システム及び表示装置の制御方法
JP6208977B2 (ja) 情報処理装置、通信端末およびデータ取得方法
JP6450890B2 (ja) 画像提供システム、画像提供方法、およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal