KR102474745B1 - 모니터링 장치 및 모니터링 시스템 - Google Patents

모니터링 장치 및 모니터링 시스템 Download PDF

Info

Publication number
KR102474745B1
KR102474745B1 KR1020160069056A KR20160069056A KR102474745B1 KR 102474745 B1 KR102474745 B1 KR 102474745B1 KR 1020160069056 A KR1020160069056 A KR 1020160069056A KR 20160069056 A KR20160069056 A KR 20160069056A KR 102474745 B1 KR102474745 B1 KR 102474745B1
Authority
KR
South Korea
Prior art keywords
original image
image
displayed
corrected
monitoring device
Prior art date
Application number
KR1020160069056A
Other languages
English (en)
Other versions
KR20170136904A (ko
Inventor
차유미
정경전
김동원
전성필
송창희
최미나
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020160069056A priority Critical patent/KR102474745B1/ko
Priority to PCT/KR2016/006877 priority patent/WO2017209342A1/ko
Publication of KR20170136904A publication Critical patent/KR20170136904A/ko
Priority to US16/207,746 priority patent/US10924652B2/en
Application granted granted Critical
Publication of KR102474745B1 publication Critical patent/KR102474745B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • G06T3/047
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N5/232
    • H04N5/23267
    • H04N5/357

Abstract

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 모니터링 장치는 카메라가 획득한 원본 영상을 전송받는 통신부; 상기 원본 영상을 저장하는 저장부; 상기 원본 영상 및 상기 원본 영상을 드워프한 보정 영상을 디스플레이 하는 화면부; 및 상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되, 상기 화면부는, 상기 보정 영상의 일부에 상기 원본 영상을 나타낸 미니맵을 표시한다.

Description

모니터링 장치 및 모니터링 시스템{The Apparatus And The System For Monitoring}
본 발명은 모니터링 장치 및 모니터링 시스템에 관한 것으로서, 보다 상세하게는 보정 영상을 크게 디스플레이 하고, 사용자가 원하는 경우에 원본 영상이 미니맵으로 표시됨으로써, 보정 영상에 더욱 중점을 두고 모니터링 할 수 있는 모니터링 장치 및 모니터링 시스템에 관한 것이다.
일반적으로 은행, 백화점, 일반 주택가를 비롯한 다양한 장소에서 감시 시스템이 널리 사용되고 있다. 이러한 감시 시스템은 범죄 예방, 보안을 목적으로 사용될 수 있으나, 최근에는 실내의 애완동물 또는 어린 아이를 실시간으로 감시하기 위해서도 사용되기도 한다. 그리고 이러한 감시 시스템으로 가장 많이 사용하는 시스템은, 감시를 원하는 영역을 촬영할 수 있도록 적절한 위치에 카메라를 설치하고, 사용자는 카메라가 촬영한 영상을 모니터링 함으로써 감시할 수 있는 폐쇄회로 텔레비전(Closed Circuit Television: CCTV) 시스템이다.
그러나 일반적인 전방 카메라의 경우에는 화각의 범위가 제한되어 있어, 감시를 하려는 대상이 이동을 하여 화각을 벗어나면 감시 대상을 놓치기 쉽다. 카메라가 팬, 틸트, 줌(Pan, Tilt, Zoom: PTZ) 기능을 제공하더라도 사용자가 직접 수동으로 명령을 내려야 하거나, 카메라가 자동으로 팬, 틸트, 줌 기능을 수행하더라도 감시 대상이 빠르게 이동한다면 카메라가 이를 놓칠 가능성이 매우 높다.
따라서 최근에는 어안 카메라를 이용하여 감시를 할 수 있는 감시 시스템의 사용이 급증하고 있다. 어안 카메라는 180° 정도의 넓은 화각을 가지는 어안 렌즈를 장착한 카메라이며, 심지어 180° 보다 훨씬 넓은 화각을 가지는 어안 렌즈도 있다. 그리고 최근에는 이러한 어안 렌즈 두 개를 대향하도록 장착하여 카메라가 패닝 또는 틸팅할 필요 없이 전방위가 모두 촬영이 가능한 360°카메라도 소개되었다. 어안 렌즈를 이용하면, 카메라의 사각 지대를 감소시키고 감시 대상도 놓치지 않을 수 있어 감시 시스템에 매우 효과적이다.
어안 렌즈와 관련된 기술이 발전됨에 따라, 어안 카메라로 촬영한 영상을 모니터링하는 방법에 대하여도 사람들의 관심이 증가하고 있다. 그런데 어안 카메라로 촬영하여 획득한 어안 이미지의 원본 영상은, 넓은 화각을 가진다는 장점이 있지만, 사람의 시각 시스템에 최적화되지 않아 사용자가 모니터링하는 것이 불편하다는 단점이 있다. 이를 해소하기 위해, 원본 영상을 사람의 시각 시스템에 최적화하기 위해 드워프(Dewarp)를 수행하여 보정 영상을 생성하는 것이 필요하다.
보정 영상은 특정 영역을 자세히 나타내므로, 이벤트가 발생하면 이를 상세히 관찰하는 데에 용이하다. 그리고 원본 영상은 넓은 화각을 가지므로 상기 이벤트가 발생하면 발생 위치를 파악하는 데에 용이하다. 따라서 일반적으로 원본 영상과 보정 영상을 함께 디스플레이 하는 경우가 많다.
한국특허등록 제0991104호 일본공개공보 제2015-0046949호
본 발명이 해결하고자 하는 과제는, 어안 카메라가 촬영하여 획득한 영상을, 더욱 효과적으로 모니터링 할 수 있는 모니터링 장치를 제공하는 것이다.
또한, 사용자가 어안 이미지의 원본 영상과 보정 영상 간의 관계를 직관적으로 확인할 수 있고, 사용이 용이하여 사용자의 편의를 증대시킬 수 있는 모니터링 시스템을 제공하는데 또 다른 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 모니터링 장치는 카메라가 획득한 원본 영상을 전송받는 통신부; 상기 원본 영상을 저장하는 저장부; 상기 원본 영상 및 상기 원본 영상을 드워프한 보정 영상을 디스플레이 하는 화면부; 및 상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되, 상기 화면부는, 상기 보정 영상의 일부에 상기 원본 영상을 나타낸 미니맵을 표시한다.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 모니터링 시스템은 특정 영역을 촬영하여 원본 영상을 획득하는 어안 카메라; 상기 어안 카메라가 획득한 원본 영상을 전송받아 디스플레이하는 모니터링 장치를 포함하되, 상기 모니터링 장치는, 카메라가 획득한 원본 영상을 전송받는 통신부; 상기 원본 영상을 저장하는 저장부; 상기 원본 영상 및 상기 원본 영상을 드워프한 보정 영상을 디스플레이 하는 화면부; 및 상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하고, 상기 화면부는, 상기 보정 영상의 일부에 상기 원본 영상을 나타낸 미니맵을 표시한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.
본 발명의 실시예들에 따른 모니터링 장치 및 모니터링 시스템은, 어안 카메라가 촬영하여 획득한 원본 영상과 보정 영상 간의 관계를, 사용자가 직관적으로 확인할 수 있어, 더욱 효과적으로 모니터링 할 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1은 본 발명의 일 실시예에 따른 모니터링 시스템의 구성을 나타낸 블록도이다.
도 2는 어안 카메라(2)로 촬영한 원본 영상(111)과 보정 영상(112)이 모니터링 장치(1)의 화면부(11)를 통해 디스플레이 되는 일반적인 모습을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 원본 영상(111)만이 화면부(11)에 디스플레이 되는 모습을 나타낸 도면이다.
도 4는 도 3의 원본 영상(111)을 확대한 모습을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 보정 영상(112)만이 화면부(11)에 디스플레이 되는 모습을 나타낸 도면이다.
도 6 내지 도 9는 도 5의 복수의 보정 영상(112)들이 각각 선택되는 모습을 나타낸 도면이다.
도 10은 도 4 및 도 6 내지 도 9의 보정 영상(112)에 표시된 미니맵(113)을 자세히 나타낸 확대도이다.
도 11은 도 6 내지 도 9의 보정 영상(112) 가운데 제1 보정 영상(112a)이 풀 뷰(Full View)로 된 모습을 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른 드워핑 영역(115)이 드래그(Drag)되기 위해 선택된 도면이다.
도 13은 본 발명의 일 실시예에 따른 드워핑 영역(115)이 드래그(Drag)되는 모습을 나타낸 도면이다.
도 14는 도 13에서 드워핑 영역(115)이 드래그되어, 제1 보정 영상(112a)이 패닝(Panning) 또는 틸팅(Tilting)되는 모습을 나타낸 도면이다.
도 15는 본 발명의 일 실시예에 따른 미니맵(113)이 확대되는 모습을 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른 미니맵(113)이 축소되는 모습을 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른 미니맵(113)이 이동되는 모습을 나타낸 도면이다.
도 18은 본 발명의 일 실시예에 따른 미니맵(113)이 최소화되는 모습을 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른 보정 영상(112)들의 경계선의 교차점이 선택되는 모습을 나타낸 도면이다.
도 20은 도 19에서 보정 영상(112)들의 경계선의 교차점이 선택된 결과로서, 원본 영상(111)이 표시되는 모습을 나타낸 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 모니터링 시스템의 구성을 나타낸 블록도이다.
본 발명의 일 실시예에 따른 모니터링 시스템은, 특정 영역을 촬영하여 영상을 획득하는 카메라(2), 카메라(2)가 획득한 영상을 전송받아 디스플레이하는 모니터링 장치(1)를 포함한다. 카메라(2)와 모니터링 장치(1)는 서로 유선 또는 무선으로 연결되어, 영상 데이터 또는 신호를 송수신 할 수 있다.
본 발명의 일 실시예에 따른 카메라(2)는 어안 렌즈(20)가 장착된 어안 카메라(2)이며, 어안 카메라(2)가 획득한 영상은 원본 영상(111)이다. 여기서 원본 영상(111)이란, 어안 카메라(2)를 통해 촬영된 어안 이미지의 영상을 말한다. 원본 영상(111)은 모니터링 장치(1)에서 디스플레이 되기 위해 인코딩, 디코딩 및 렌더링 등의 영상 처리는 수행될 수 있으나, 왜곡을 보정하는 드워프 작업은 수행되지 않는다.
본 발명의 일 실시예에 따른 모니터링 장치(1)는 카메라(2)가 획득한 영상을 전송받아 디스플레이한다. 모니터링 장치(1)에서는 원본(Original) 영상과 이를 드워프(Dewarp)한 보정 영상(112)이 함께 디스플레이 될 수 있다. 이러한 모니터링 장치(1)는 스마트폰(Smartphone), 태블릿 PC(Tablet PC), 랩탑 (Laptop) 등 휴대 및 이동이 용이한 장치일 수도 있으나, 이에 제한되지 않고 데스크탑(Desktop), 비디오 월(Video Wall) 등 이동이 용이하지 않은 장치일 수도 있다.
도 1에 도시된 바와 같이, 모니터링 장치(1)는 영상을 디스플레이 하는 화면부(11), 카메라(2)로부터 영상을 전송받는 통신부(12), 상기 영상을 저장하는 저장부(13), 타 구성요소들을 제어하는 제어부(14)를 포함한다.
화면부(11)는 원본 영상(111)과 보정 영상(112)을 디스플레이 한다. 그리고 보정 영상(112)에는 원본 영상(111)을 대략적으로 나타내는 미니맵(113)을 표시하고, 보정 영상(112)과 대응되는 드워핑 영역의 폴리곤(Polygon)(116)을 미니맵(113)에 나타난 원본 영상(111)에 표시한다. 또한, 화면부(11)는 원본 영상(111)과 보정 영상(112)을 디스플레이 하기 위한 여러 뷰 모드(View Mode)를 제공한다. 미니맵(113), 폴리곤(116) 및 뷰 모드에 대한 자세한 설명은 후술한다.
모니터링 장치(1)는 터치 기능을 제공하지 않을 수도 있으며, 이 경우에는 입력부가 별도로 마련된다. 일반적으로 가장 많이 사용되는 입력부로는 마우스, 키보드, 조이스틱, 리모콘 등이 있다. 만약 터치 기능을 제공한다면 화면부(11)는 터치 입력을 감지할 수 있는 터치 센서를 포함할 수 있다. 모니터링 장치(1)가 터치 기능을 제공하더라도, 화면부(11)가 터치 센서를 포함하지 않는다면 별도의 터치 패드가 입력부로써 마련될 수도 있다. 그리고 터치는 손가락을 이용하여 수행될 수도 있으나, 이에 제한되지 않고, 미세 전류가 흐를 수 있는 팁이 장착된 스타일러스 펜 등을 이용하여 수행될 수도 있다.
통신부(12)는 카메라(2)와 유무선으로 신호 및 데이터를 송수신한다. 예를 들어, 상기 통신부(12)는 상기 제어부(14)로부터의 신호 및 데이터를 변조 및 주파수 업컨버팅하여 송신하거나, 카메라(2)로부터 수신되는 신호 및 데이터를 주파수 다운컨버팅 및 복조하여 제어부(14)로 제공한다. 이러한 과정으로, 통신부(12)는 카메라(2)로부터 영상데이터를 전송받거나 신호를 수신할 수 있고, 제어부(14)로부터 생성된 신호 및 데이터를 카메라(2)로 송신할 수도 있다.
저장부(13)는 모니터링 장치(1)의 동작들을 처리 및 제어하기 위한 프로그램과 각 프로그램 수행 중에 발생되는 각종 데이터, 그리고 카메라(2)를 통해 전송된 원본 영상(111) 및 상기 원본 영상(111)을 드워프한 보정 영상(112)을 저장한다. 저장부(13)는 모니터링 장치(1)에 내장될 수도 있으나, 네트워크 카메라 시스템의 경우에는 NVR(Network Video Recorder) 등과 같이 별도의 장치가 마련될 수도 있다.
제어부(14)는 모니터링 장치(1)의 전반적인 동작을 제어한다. 예를 들어, 제어부(14)는 통신부(12)와 카메라(2)의 신호 및 데이터 통신을 위한 처리 및 제어를 수행하고, 통신부(12)를 통해 영상이 전송되면 디코딩 및 렌더링 등 영상 처리를 수행한다. 또한, 사용자의 명령이 입력되면 이를 처리하여 화면부(11)가 미니맵(113) 및 폴리곤(116)을 표시하도록 제어하며, 저장부(13)에 영상을 저장시키고, 저장된 영상을 로딩하도록 제어한다. 본 발명의 일 실시예에 따른 제어부(14)로는 CPU(Central Processing Unit), MCU(Micro Controller Unit) 또는 DSP(Digital Signal Processor) 등을 사용하는 것이 바람직하나, 이에 제한되지 않고 다양한 논리 연산 프로세서가 사용될 수 있다.
본 발명의 일 실시예에 따른 카메라(2)는 어안 렌즈(20)를 사용하여, 원본 영상(111)이 왜곡되어 어느 정도 보정할 필요가 있다면 다양한 종류의 카메라일 수 있다.
어안 렌즈(20)를 사용하여 생성되는 영상은 넓은 화각을 제공해 주는 대신에 광축으로부터 멀어지는 영상의 가장자리 영역으로 갈수록 굴절에 의한 왜곡이 심해진다. 이러한 왜곡된 형태의 영상을 그대로 사용해도 무방한 경우가 있지만 특정 분야에서는 왜곡된 영상을 보정해서 사용해야 할 필요성이 있는 경우도 많다. 이와 같이 어안 렌즈(20)에 의해 형성된 왜곡된 형태의 원본 영상(111)을 보정하는 것을 보통 '왜곡 보정(Distortion Calibration)' 또는 '드워프(Dewarp)'라고 하며, 이러한 드워프는 어안 렌즈(20)에서 사용되는 투사 방식에 따라 어안 렌즈(20)의 초점 거리나 광중심 위치 등과 같은 파라미터(parameter)를 이용하여 적절한 수식을 통해 이루어지게 된다.
원본 영상(111)은 모니터링 장치(1)에 전송된 후 소프트웨어를 통해 보정될 수도 있으며, 어안 카메라(2) 내부의 왜곡 보정 칩(chip)에 의해 보정될 수도 있다. 상기와 같이 원본 영상(111)을 카메라(2) 자체적으로 드워프할 수 있게 되면, 카메라(2)로부터 영상을 전송받는 모니터링 장치(1)에 드워프를 위한 소프트웨어를 설치할 필요가 없다. 따라서 하나의 카메라(2)에서 여러 모니터링 장치(1)에 영상을 전송할 때에는, 모든 모니터링 장치(1)에 소프트웨어를 설치하지 않아도 드워프가 가능하므로 보정 영상(112)을 곧바로 디스플레이 할 수 있다. 본 발명의 일 실시예에 따르면, 모니터링 장치(1)에서 소프트웨어를 통해 원본 영상(111)을 보정 영상(112)으로 드워프할 수도 있으나, 카메라(2)가 자체적으로 드워프 작업을 수행할 수도 있다.
도 2는 어안 카메라(2)로 촬영한 원본 영상(111)과 보정 영상(112)이 모니터링 장치(1)의 화면부(11)를 통해 디스플레이 되는 일반적인 모습을 나타낸 도면이다.
일반적으로 화면부(11)에서 원본 영상(111)과 보정 영상(112)을 디스플레이 하기 위해, 모니터링 장치(1)에는 뷰어(Viewer) 프로그램이 설치된다. 그리고 이러한 뷰어 프로그램은 여러 가지의 뷰 모드(View Mode)를 제공한다. 뷰 모드란, 복수의 영상들을 디스플레이 할 수 있는 여러 가지 방식을 말하며, 사용자는 여러 뷰 모드 가운데 하나를 선택하여 원본 영상(111) 또는 보정 영상(112)을 시청할 수 있다.
예를 들어, 하나의 뷰 모드는 도 2에 도시된 바와 같이, 좌측에 원본 영상(111)이 디스플레이 되고, 우측에 복수의 보정 영상(112)이 디스플레이 된다. 보정 영상(112)은 원본 영상(111)에서 특정 영역이 드워프되어 디스플레이 된다. 따라서 보정 영상(112)이 복수이면, 보정 영상(112)과 대응되는 드워핑 영역(115) 또한 복수이다. 도 2에는 보정 영상(112)이 6개인, 6분할 영상으로 도시되어 있으나, 다른 뷰 모드에는 4분할, 9분할 등 다양한 개수의 보정 영상(112)이 디스플레이 될 수 있다. 또는, 또 다른 뷰 모드에서는 보정 영상(112)이 없이 원본 영상(111)만이 디스플레이 될 수도 있다. 또 다른 뷰 모드에서는 원본 영상(111)이 없이 보정 영상(112)만이 디스플레이 될 수도 있으며, 이 경우에도 4분할, 6분할, 9분할 등 다양한 개수의 보정 영상(112)이 디스플레이 될 수 있다. 즉, 뷰어 프로그램이 지원할 수 있다면, 제한되지 않고 다양한 뷰 모드가 존재할 수 있다.
보정 영상은 특정 영역을 자세히 나타내므로, 이벤트가 발생하면 이를 상세히 관찰하는 데에 용이하다. 그리고 원본 영상은 넓은 화각을 가지므로 상기 이벤트가 발생하면 발생 위치를 파악하는 데에 용이하다. 따라서 일반적으로 도 2에 도시된 바와 같이 원본 영상과 보정 영상을 함께 디스플레이 하는 경우가 많다. 그런데 이벤트가 발생하면 사용자는 원본 영상을 통해서는 발생 위치만을 파악하면 되지만, 보정 영상에 이벤트의 내용을 상세히 관찰해야 하므로, 더욱 중점을 두어 모니터링을 하게 된다. 따라서 원본 영상과 보정 영상의 중요도가 달라진다. 그러나 도 2에 도시된 뷰 모드로 사용자가 모니터링을 하게 되면, 사용자가 더 관심이 있는 보정 영상이 작게 디스플레이 되고, 원본 영상이 크게 디스플레이 된다.
그리고, 원본 영상(111)과 보정 영상(112)이 함께 디스플레이 되는 경우에는, 도 2에 도시된 바와 같이, 보정 영상(112)과 대응되는 드워핑 영역(115)을 나타내는 '폴리곤(Polygon)(116)'이 원본 영상에 표시된다. 이 때, 폴리곤(116)마다 라인의 색상을 다르게 하고, 보정 영상(112)을 둘러싸는 보더(Boader)(114)의 색상 또한 각각 다르게 구성할 수 있다. 그리고 폴리곤(116)의 색상과, 상기 폴리곤(116)이 둘러싸는 드워핑 영역(115)과 대응되는 보정 영상(112)의 보더(114)의 색상을 일치시켜 보정 영상(112)과 이에 대응되는 드워핑 영역(115)을 사용자가 용이하게 확인할 수 있다.
도 3은 본 발명의 일 실시예에 따른 원본 영상(111)만이 화면부(11)에 디스플레이 되는 모습을 나타낸 도면이다.
상기 기술한 바와 같이, 본 발명의 일 실시예에 따른 화면부(11)는 다양한 뷰 모드를 제공한다. 만약 원본 영상(111)만이 디스플레이 되는 뷰 모드라면, 화면부(11)에 도 3에 도시된 바와 같은 모습으로 디스플레이 된다.
사용자가 원본 영상(111)의 특정 영역을 자세히 모니터링 하기 위해, 원본 영상(111)을 확대할 수 있다. 사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 마우스 휠을 상방으로 스크롤(Scroll)하여 원본 영상(111)을 확대할 수 있다. 또는, 도면에는 도시되지 않았으나 별도의 여러 메뉴들이 마련되고 이들 가운데 확대 메뉴를 선택하면, 마우스를 클릭(Click)할 때마다 원본 영상(111)을 확대할 수도 있다. 원본 영상(111)을 확대할 때에는, 도 3에 도시된 바와 같이 마우스 커서가 화살표 모양이 아닌 돋보기 모양을 할 수도 있다. 현재 모니터링 장치(1)가 원본 영상(111)을 확대하는 기능을 수행하고 있다는 것을 사용자에게 알려주기 위함이다.
만약, 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 터치 입력을 수행하여 원본 영상(111)을 확대할 수 있다.
도 4는 도 3의 원본 영상(111)을 확대한 모습을 나타낸 도면이다.
본 발명의 일 실시예에 따르면, 사용자가 원본 영상(111)을 확대하면, 화면부(11)에 나타난 확대된 영역이 드워핑 영역(115)으로 된다. 드워핑 영역(115)이란, 원본 영상(111)에서 보정 영상(112)과 대응되는 영역이다. 구체적으로 설명하면, 원본 영상(111)을 드워프하여 보정 영상(112)을 생성할 때, 하나의 원본 영상(111)의 전체가 하나의 보정 영상(112)으로 생성되지 않는다. 이는 원본 영상(111)과 보정 영상(112)의 화각이 다르기 때문이다. 따라서 원본 영상(111)의 일부 영역만이 보정 영상(112)으로 생성되는데, 이러한 일부 영역을 드워핑 영역(115)이라 한다. 따라서, 사용자가 원본 영상(111)을 확대하는 행위만으로, 자동으로 드워프되어 도 4에 도시된 바와 같이 곧바로 보정 영상(112)이 된다.
한편, 보정 영상(112)의 일측 하단에는 원본 영상(111)을 대략적으로 나타낸 미니맵(113)이 표시된다. 그리고 미니맵(113)에 나타난 원본 영상(111)에는, 드워핑 영역(115)을 둘러싸도록 형성되는 폴리곤(116)이 표시될 수 있다.
따라서, 사용자는 원본 영상(111)과 보정 영상(112)을 동시에 모니터링 할 수 있다. 폴리곤(116)과 미니맵(113)에 대한 자세한 설명은 후술한다.
도 4의 보정 영상(112)은, 원본 영상(111)을 확대하여 자동으로 드워프된 영상이다. 따라서, 도면에 도시되지는 않았으나, 도 4의 보정 영상(112)을 축소한다면 다시 도 3의 원본 영상(111)으로 될 수 있다. 사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 마우스 휠을 하방으로 스크롤(Scroll)하여 보정 영상(112)을 축소할 수 있다. 또는, 별도의 여러 메뉴들이 마련되고 이들 가운데 축소 메뉴를 선택하면, 마우스를 클릭(Click)할 때마다 보정 영상(112)을 축소할 수도 있다. 보정 영상(112)을 축소할 때에는, 마우스 커서가 화살표 모양이 아닌 돋보기 모양을 할 수도 있다. 만약, 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 터치 입력을 수행하여 보정 영상(112)을 축소할 수 있다.
도 5는 본 발명의 일 실시예에 따른 보정 영상(112)만이 화면부(11)에 디스플레이 되는 모습을 나타낸 도면이다.
본 발명의 일 실시예에 따른 화면부(11)는 보정 영상(112)만이 디스플레이 되는 뷰 모드도 제공한다. 만약, 보정 영상(112)만이 디스플레이 되는 뷰 모드라면, 도 5에 도시된 바와 같이 화면부(11)에 4개의 보정 영상(112)이 디스플레이 되는, 4분할 영상이 될 수 있다. 그러나 이에 제한되지 않고, 상기 기술한 바와 같이 4분할, 6분할, 9분할 등 다양한 개수의 보정 영상(112)이 디스플레이 될 수 있다. 이하, 보정 영상(112)만이 디스플레이 되는 경우는, 4분할 영상인 것으로 설명하나, 이는 설명의 편의를 위한 것이며 권리범위를 제한하기 위함이 아니다.
도 6 내지 도 9는 도 5의 복수의 보정 영상(112)들이 각각 선택되는 모습을 나타낸 도면이다.
사용자가 복수의 보정 영상(112) 가운데, 하나의 보정 영상(112)을 선택한다면, 선택된 보정 영상(112)에는 원본 영상(111)을 대략적으로 나타낸 미니맵(113)이 표시된다. 그리고 미니맵(113)에 나타난 원본 영상(111)에는, 드워핑 영역(115)을 둘러싸도록 형성되는 폴리곤(116)이 표시될 수 있다. 따라서, 사용자는 하나의 보정 영상(112)을 선택함으로써, 선택한 보정 영상(112)과 원본 영상(111)을 동시에 모니터링 할 수 있다. 폴리곤(116)과 미니맵(113)에 대한 자세한 설명은 후술한다.
사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 단순히 마우스 오버(Mouse Over)를 통해 보정 영상(112)을 선택할 수 있다. 마우스 오버란, 마우스의 버튼을 사용하지 않고, 단순히 마우스의 커서를 특정 오브젝트에 올려두는 것을 말한다. 다만 이에 제한되지 않고, 마우스의 클릭(Click)을 통해 보정 영상(112)을 선택할 수도 있다. 만약 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 손가락으로 '탭(Tab)'을 수행하여 보정 영상(112)을 선택할 수도 있다. 여기서 '탭(Tab)'이란, 터치 제스처 중 하나로서, 화면부(11)에 짧게 터치를 한 후 즉시 터치를 해제하는 것을 말한다.
한편, 사용자가 보정 영상(112)을 선택하면, 선택된 보정 영상(112)에는 미니맵(113) 뿐만이 아니라 보더(Boader)(114)가 표시될 수도 있다. 보더(114)는 선택된 보정 영상(112)의 주위를 둘러싸도록 단일폐곡선의 형태로 형성된다. 따라서 복수의 보정 영상(112) 가운데, 사용자가 어떤 보정 영상(112)을 선택했는지를 알려준다. 그리고 도면에 도시되지는 않았으나, 보정 영상(112)을 둘러싸는 보더(114)의 색상이 다양하게 형성될 수도 있다. 나아가, 폴리곤(116)마다 라인의 색상이 각각 다르고, 폴리곤(116)의 색상과, 상기 폴리곤(116)이 둘러싸는 드워핑 영역(115)과 대응되는 보정 영상(112)의 보더(114)의 색상이 일치할 수도 있다.
도 6 내지 도 9를 참조하면, 제1 보정 영상(112a)이 선택되면 도 6에 도시된 바와 같이 제1 보정영상의 우측 하단에 제1 미니맵(113a)이 표시되고, 제1 보정 영상(112a)을 둘러싸는 제1 보더(114a)가 표시된다. 제2 보정 영상(112b)이 선택되면 도 7에 도시된 바와 같이 제2 보정영상의 좌측 하단에 제2 미니맵(113b)이 표시되고, 제2 보정 영상(112b)을 둘러싸는 제2 보더(114b)가 표시된다. 제3 보정 영상(112c)이 선택되면 도 8에 도시된 바와 같이 제3 보정영상의 우측 상단에 제3 미니맵(113c)이 표시되고, 제3 보정 영상(112c)을 둘러싸는 제3 보더(114c)가 표시된다. 제4 보정 영상(112d)이 선택되면 도 9에 도시된 바와 같이 제4 보정영상의 좌측 상단에 제4 미니맵(113d)이 표시되고, 제4 보정 영상(112d)을 둘러싸는 제4 보더(114d)가 표시된다. 즉, 전체 화면부(11)의 대략 중심 부근에 모든 미니맵(113)이 표시될 수 있다. 상기의 과정을 통해, 사용자가 보정 영상(112)과 원본 영상(111)의 모니터링을 용이하게 할 수 있다. 또한, 사용자가 선택한 보정 영상(112)에만 보더(114)가 표시되므로, 사용자는 어떤 영상이 선택되었는지를 용이하게 확인할 수 있다.
그러나, 보정 영상(112)은 도 6 내지 도 9에 도시된 바와 같이 항상 4분할 영상인 경우만 있는 것은 아니다. 즉, 보정 영상(112)은 6분할, 9분할 등 다양한 개수의 영상으로 형성될 수도 있다. 따라서, 본 발명의 다른 실시예에 따르면, 각각의 보정 영상(112)이 선택되면 미니맵(113)은 각각 보정 영상(112)에서 항상 일정한 위치에 표시된다. 예를 들어, 모든 미니맵(113)들은 각각의 보정 영상(112)의 좌측 하단에 표시될 수 있다. 그러나 이에 제한되지 않고, 미니맵(113)은 보정 영상(112)의 다양한 위치에 표시될 수 있다.
한편, 만약 하나의 보정 영상(112) 내의 영역 중 어느 영역에라도 마우스 오버를 하면 미니맵(113)이 표시되는 방식에서는, 사용자가 원본 영상(111)을 원하지 않는 경우에도 미니맵(113)이 표시될 수 있다. 따라서, 본 발명의 다른 실시예에 따르면, 하나의 보정 영상(112)에서도, 일부 영역에만 마우스 오버를 한 경우에 미니맵(113)이 표시될 수도 있다. 여기서 일부의 영역은, 바람직하게는, 미니맵(113)이 표시될 영역의 근방이며, 더욱 바람직하게는, 하나의 보정 영상(112)을 가로 2분할 및 세로 2분할, 즉 4분할하여, 미니맵(113)을 포함하는 일부 분할 영역일 수 있다.
상기의 방법으로, 보정 영상(112)의 개수가 증가하더라도, 사용자가 보정 영상(112)과 이에 대응되는 드워핑 영역(115)을 서로 용이하게 매칭할 수 있다. 또한, 보정 영상(112)의 개수가 증가하면서 폴리곤(116)의 개수도 증가하더라도, 사용자가 많은 폴리곤(116)들에 의해서 원본 영상(111)에 대한 시청을 방해 받지 않을 수도 있다.
도 10은 도 4 및 도 6 내지 도 9의 보정 영상(112)에 표시된 미니맵(113)을 자세히 나타낸 확대도이다.
상기 기술한 바와 같이, 원본 영상(111)만이 디스플레이 되는 뷰 모드에서는, 원본 영상(111)이 확대되면 보정 영상(112)으로 자동으로 드워프 되면서, 미니맵(113)이 표시된다. 그리고, 보정 영상(112)만이 디스플레이 되는 뷰 모드에서는, 복수의 보정 영상(112) 가운데 하나의 보정 영상(112)이 선택되면 선택된 보정 영상(112)에 미니맵(113)이 표시된다. 이러한 미니맵(113)을 자세히 나타내면, 도 10에 도시된 바와 같은 모습이다.
미니맵(113)은 원본 영상(111)을 대략적으로 나타낸다. 그리고 미니맵(113)에 나타난 원본 영상(111)에는, 드워핑 영역(115)을 둘러싸도록 형성되는 폴리곤(Polygon)(116)이 표시될 수 있다. 폴리곤(116)은, 원본 영상(111)에서 드워프된 드워핑 영역(115)을 둘러싸도록 단일폐곡선의 형태로 형성된다. 따라서, 사용자는 폴리곤(116)을 통해 드워핑 영역(115)의 경계 및 범위를 알 수 있다.
한편, 미니맵(113)의 원본 영상(111)에서 상기 드워핑 영역(115)을 제외한 나머지 영역은 쉐이딩 처리가 될 수 있다. 원본 영상(111)에서 쉐이딩이 되지 않는다면, 폴리곤(116)의 라인이 너무 가는 경우, 사용자가 곧바로 드워핑 영역(115)의 경계 및 범위를 파악하기 어려울 수 있다. 반면에, 폴리곤(116)의 라인이 너무 굵은 경우, 사용자가 원본 영상(111)을 시청함에 불편함을 느낄 수 있다. 그러나 도 10에 도시된 바와 같이, 선택된 드워핑 영역(115)을 제외하고 나머지 영역에 쉐이딩이 형성된다면, 사용자가 곧바로 드워핑 영역(115)의 경계 및 범위를 파악하기 용이하다. 그리고 원본 영상(111)에서 쉐이딩된 영역도 사용자가 용이하게 시청할 수 있도록, 쉐이딩은 반투명으로 되는 것이 바람직하다.
본 발명의 다른 실시예에 따르면, 선택된 드워핑 영역(115)만 원본 영상(111)을 표시하고 미니맵(113)의 나머지 영역은 반투명으로 된다. 또는, 원본 영상 (111) 자체가 반투명으로 되고, 드워핑 영역(115)은 폴리곤에 의해 사용자가 구별할 수도 있다. 따라서, 미니맵(113)에 의해 가려지는 보정 영상(112)의 일부분도, 사용자가 모니터링을 할 수 있다.
나아가, 도 10에 도시된 바와 같이 미니맵(113)의 아웃라인은 사각형의 모양을 가지고, 미니맵(113)에 나타난 원본 영상(111)은 원형의 모양을 가진다. 따라서, 두 모양이 정확히 일치하지 않으므로 미니맵(113)의 아웃라인과 원본 영상(111) 사이에 일정한 공간이 발생할 수 있다. 본 발명의 또 다른 실시예에 따르면, 이러한 일정한 공간도 투명 또는 반투명하게 형성되어, 사용자의 보정 영상(112)에 대한 시야를 더욱 확보할 수 있다.
도 11은 도 6 내지 도 9의 보정 영상(112) 가운데 제1 보정 영상(112a)이 풀 뷰(Full View)로 된 모습을 나타낸 도면이다.
상기 기술한 바와 같이, 이벤트가 발생하면 사용자는 보정 영상(112)에 더욱 중점을 두어 모니터링을 하게 된다. 특히, 복수의 보정 영상(112)이 존재하는 경우, 사용자는 이벤트가 발생한 모습을 디스플레이 하는 일부 보정 영상(112)에 더욱 중점을 두어 모니터링을 한다. 따라서, 일부 보정 영상(112)의 사이즈가 확대되어 디스플레이 될 필요가 있다.
사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 마우스를 이용하여 복수의 보정 영상(112) 가운데 제1 보정 영상(112a)을 더블 클릭(Double Click)한다. 그러면, 도 11에 도시된 바와 같이 제1 보정 영상(112a)이 화면부(11) 전체에서 풀 뷰(Full View)가 되도록 사이즈가 확대될 수 있다. 만약, 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 손가락으로 제1 보정 영상(112a)에 '더블 탭(Double Tab)'을 수행함으로써, 도 11에 도시된 바와 같이 제1 보정 영상(112a)이 화면부(11) 전체에서 풀 뷰(Full View)가 되도록 사이즈가 확대될 수도 있다. 여기서 '더블 탭(Double Tab)'이란, 터치 제스처 중 하나로서, 화면부(11)에 짧게 터치를 한 후 즉시 터치를 해제하는 '탭(Tab)'을 빠르게 두 번 반복하는 것을 말한다.
한편, 만약 풀 뷰(Full View)가 된 제1 보정 영상(112a) 내의 영역 중 어느 영역에라도 마우스 오버를 하면 미니맵(113)이 표시되는 방식에서는, 사용자가 원본 영상(111)을 원하지 않는 경우에도 미니맵(113)이 표시될 수 있다. 따라서, 본 발명의 다른 실시예에 따르면, 풀 뷰(Full View)가 된 제1 보정 영상(112a)에서도, 일부 영역에만 마우스 오버를 한 경우에 미니맵(113)이 표시될 수도 있다. 여기서 일부의 영역은, 바람직하게는, 미니맵(113)이 표시될 영역의 근방이며, 더욱 바람직하게는, 풀 뷰(Full View)가 된 제1 보정 영상(112)을 가로 2분할 및 세로 2분할, 즉 4분할하여, 미니맵(113)을 포함하는 일부 분할 영역일 수 있다.
도 12는 본 발명의 일 실시예에 따른 드워핑 영역(115)이 드래그(Drag)되기 위해 선택된 도면이다.
드래그(Drag)란, 화면 상에서 특정 오브젝트를 이동시키기 위해, 일 지점으로부터 타 지점까지 상기 특정 오브젝트를 끌어오는 것을 말한다.
드워핑 영역(115)을 드래그하기 위해서는, 도 12에 도시된 바와 같이 드워핑 영역(115)에 대하여 마우스의 '클릭(Click)'을 수행하거나, 손가락 등의 '터치(Touch)'를 수행한다. 상기 기술한 바와 같이, 폴리곤(116)은 드워핑 영역(115)을 둘러싸도록 형성됨으로써, 사용자는 드워핑 영역(115)의 범위 및 경계를 알 수 있다.
도 13은 본 발명의 일 실시예에 따른 드워핑 영역(115)이 드래그(Drag)되는 모습을 나타낸 도면이고, 도 14는 도 13에서 드워핑 영역(115)이 드래그되어, 제1 보정 영상(112a)이 패닝(Panning) 또는 틸팅(Tilting)되는 모습을 나타낸 도면이다.
사용자는 드워핑 영역(115)에 대하여 수행한 마우스의 '클릭(Click)' 또는 손가락 등의 '터치(Touch)'를 모두 '홀드(Hold)'한다. 그리고 도 13에 도시된 바와 같이, 드워핑 영역(115)을 일 지점으로부터 타 지점으로 끌어온다. 드워핑 영역(115)은 보정 영상(112)과 대응되므로, 드워핑 영역(115)이 드래그되면 이에 대응되는 보정 영상(112)도 패닝(Panning) 또는 틸팅(Tilting)된다. 따라서, 도 6에 도시된 제1 보정 영상(112a)은, 사용자의 드워핑 영역(115)에 대한 드래그에 의해 도 14에 도시된 제1 보정 영상(112a)으로 패닝된다.
한편, 도면에 도시되지는 않았으나, 사용자는 보정 영상(112)을 '줌 인(Zoom In)' 또는 '줌 아웃(Zoom Out)'과 같이 배율을 변경할 수 있다.
사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 마우스를 이용하여 마우스 커서를 복수의 보정 영상(112) 가운데 하나의 보정 영상(112)에 마우스 오버(Mouse Over)하고, 마우스 휠을 상방 또는 하방으로 스크롤(Scroll)하여 보정 영상(112)을 '줌 인(Zoom In)' 하거나 '줌 아웃(Zoom Out)' 할 수도 있다. 또는, 별도의 여러 메뉴들이 마련되고 이들 가운데 확대 또는 축소 메뉴를 선택하면, 마우스를 클릭(Click)할 때마다 보정 영상(112)을 '줌 인(Zoom In)' 하거나 '줌 아웃(Zoom Out)' 할 수도 있다.
만약, 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 터치 입력을 수행하여 줌 인(Zoom In) 하거나 '줌 아웃(Zoom Out)' 할 수 있다.
한편, 드워핑 영역(115)의 넓이는, 보정 영상(112)의 배율, 즉 줌 값에 따라 달라진다. 보정 영상(112)이 줌 인(Zoom In) 될수록, 드워핑 영역(115)의 넓이는 좁아지고, 보정 영상(112)이 줌 아웃(Zoom Out) 될수록, 드워핑 영역(115)의 넓이는 넓어진다.
도 15는 본 발명의 일 실시예에 따른 미니맵(113)이 확대되는 모습을 나타낸 도면이고, 도 16은 본 발명의 일 실시예에 따른 미니맵(113)이 축소되는 모습을 나타낸 도면이다.
상기 기술한 바와 같이, 원본 영상(111)은 넓은 화각을 가지므로 상기 이벤트가 발생하면 발생 위치를 파악하는 데에 용이하다. 따라서, 이벤트가 발생하면 사용자가 오히려 보정 영상(112)보다 원본 영상(111)에 더욱 중점을 두어 모니터링을 할 경우도 있다. 따라서, 이러한 경우에는 원본 영상(111)을 나타내는 미니맵(113)의 사이즈가 확대되어 디스플레이 될 필요가 있다. 또한, 사용자가 미니맵(113)의 사이즈를 확대하여 원본 영상(111)을 자세히 모니터링한 후, 다시 보정 영상(112)을 모니터링 하기 위해서는 미니맵(113)의 사이즈를 다시 축소할 필요도 있다.
사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 사용자가 마우스 커서를 미니맵(113)의 경계에 마우스 오버를 하고 이를 드래그 함으로써, 미니맵(113)의 사이즈가 도 15에 도시된 바와 같이 확대되거나, 도 16에 도시된 바와 같이 축소될 수 있다. 또는, 마우스를 이용하여 미니맵(113)을 더블 클릭(Double Click) 함으로써, 미니맵(113)의 사이즈가 확대 또는 축소될 수 있다.
만약, 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 미니맵(113)에 '더블 탭(Double Tab)'을 수행함으로써, 미니맵(113)의 사이즈가 확대 또는 축소될 수도 있다. 이 때, 마우스를 이용한 더블 클릭(Double Click) 또는 터치를 이용한 더블 탭(Double Tab)은, 사용자가 원하는 정확한 사이즈로 조절하는 것이 어렵다. 이 때에는, 미니맵(113)이 미리 설정된 배율로 확대되는 것이 바람직하다.
이 때, 마우스를 이용한 더블 클릭(Double Click) 또는 터치를 이용한 더블 탭(Double Tab)은, 사용자가 원하는 정확한 사이즈로 조절하는 것이 어렵다. 이 때에는, 미니맵(113)이 미리 설정된 배율로 축소되는 것이 바람직하다.
미니맵(113)이 현재 축소된 모습인 경우에 더블 클릭 또는 더블 탭을 수행하면, 도 15에 도시된 바와 같이 미니맵(113)은 미리 설정된 배율로 확대된다. 그리고 미니맵(113)이 현재 확대된 모습인 경우에 더블 클릭 또는 더블 탭을 수행하면, 도 16에 도시된 바와 같이 미니맵(113)은 다시 미리 설정된 배율로 축소된다. 따라서, 이러한 경우에 배율은 확대 배율과 축소 배율로 두 가지가 미리 설정되어 있어야 한다.
도 17은 본 발명의 일 실시예에 따른 미니맵(113)이 이동되는 모습을 나타낸 도면이다.
미니맵(113)은 원본 영상(111)을 나타내나, 보정 영상(112)의 일부에 표시되므로 보정 영상(112)의 시야를 방해할 수도 있다. 미니맵(113)의 원본 영상(111)이 반투명으로 형성되더라도, 완벽히 시야의 방해를 제거하는 것은 어렵다. 따라서, 사용자는 미니맵(113)을 드래그 함으로써, 미니맵(113)을 상기 보정 영상(112) 내에서 이동시킬 수도 있다.
사용자가 미니맵(113)을 드래그하기 위해서는, 마우스의 '클릭(Click)'을 수행하거나, 손가락 등의 '터치(Touch)'를 수행한다. 그리고 미니맵(113)에 대하여 수행한 마우스의 '클릭(Click)' 또는 손가락 등의 '터치(Touch)'를 모두 '홀드(Hold)'한다. 그리고 도 17에 도시된 바와 같이, 미니맵(113)을 일 지점으로부터 타 지점으로 끌어온다. 미니맵(113)이 드래그되면 도 17에 도시된 바와 같이, 미니맵(113)은 보정 영상(112) 내에서 이동된다.
다만, 사용자가 미니맵(113)을 이동시킬 때, 미니맵(113)의 원본 영상(111)에 나타난 드워핑 영역(115)이 아닌 부분을 드래그해야 한다. 만약, 드워핑 영역(115)을 드래그하게 되면, 상기 기술한 바와 같이, 드워핑 영역(115)이 이동하여 보정 영상(112)이 패닝(Panning) 또는 틸팅(Tilting)되기 때문이다.
도 18은 본 발명의 일 실시예에 따른 미니맵(113)이 최소화되는 모습을 나타낸 도면이다.
이벤트가 발생하면 사용자는 원본 영상(111)을 통해서는 발생 위치를 파악한다. 따라서, 사용자가 원본 영상(111)을 이미 확인하여 이벤트 발생 위치를 파악한 후에는, 사용자는 미니맵(113)의 표시가 필요하지 않을 수 있다.
상기 도 16에 대한 설명에 기술한 바와 같이, 사용자가 마우스 커서를 미니맵(113)의 경계에 마우스 오버를 하고 이를 드래그 함으로써, 미니맵(113)의 사이즈가 축소될 수 있다. 이 때 본 발명의 일 실시예에 따르면, 미니맵(113)의 사이즈가 특정 사이즈 이하로 축소하게 되면, 자동으로 미니맵(113)은 최소화가 된다. 미니맵(113)의 사이즈가 특정 사이즈 보다 작아지면, 사용자가 미니맵(113)이 존재하더라도 원본 영상(111)을 육안으로 모니터링하는 것이 사실상 불가능하다. 따라서, 사용자가 미니맵(113)의 사이즈를 특정 사이즈 이하로 축소시키는 경우, 모니터링 장치(1)는 사용자가 미니맵(113)을 원하지 않는 것으로 판단하고 미니맵(113)을 최소화한다. 미니맵(113)이 최소화 되면, 도 18에 도시된 바와 같이 최소화 아이콘(1131)이 형성된다. 이를 통해, 사용자는 미니맵(113)이 최소화 되었다는 사실을 알 수 있다.
최소화 아이콘(1131)은, 사용자가 미니맵(113)을 원하지 않고 보정 영상(112)만을 모니터링 하기 원할 때에 생성되는 것이다. 따라서, 최소화 아이콘(1131)은 사용자가 보정 영상(112)을 모니터링 하는데 시야를 방해하지 않도록 크기가 매우 작은 것이 바람직하다.
사용자가 미니맵(113)을 최소화한 후, 다시 미니맵(113)을 통해 원본 영상(111)을 모니터링 하기 원할 수도 있다. 따라서, 최소화 된 미니맵(113)을 다시 표시하기 위해, 사용자는 최소화 아이콘(1131)에 더블 클릭(Double Click)을 수행한다. 그러면, 미니맵(113)은 최소화 하기 바로 이전의 사이즈로 되돌아간다.
도 19는 본 발명의 일 실시예에 따른 보정 영상(112)들의 경계선의 교차점이 선택되는 모습을 나타낸 도면이고, 도 20은 도 19에서 보정 영상(112)들의 경계선의 교차점이 선택된 결과로서, 원본 영상(111)이 표시되는 모습을 나타낸 도면이다.
미니맵(113)은 원본 영상(111)을 나타내나, 미니맵(113)에 나타난 원본 영상(111)에는 쉐이딩 처리가 되어 있으므로 원본 영상(111)의 시야를 방해할 수도 있다. 쉐이딩이 반투명으로 형성되더라도, 완벽히 시야의 방해를 제거하는 것은 어렵다. 따라서, 쉐이딩이 존재하지 않는 원본 영상(111)이 디스플레이 될 필요성이 있다.
만약, 보정 영상(112)만이 디스플레이 되는 뷰 모드라면, 다양한 개수의 보정 영상(112)이 디스플레이 될 수 있다. 그리고 이러한 보정 영상(112)들이 만나면 경계선들이 형성되며, 경계선들이 서로 교차하는 점들도 존재할 수 있다.
우선, 사용자는 각 보정 영상(112)들의 경계선의 교차점을 선택할 수 있다. 사용자가 모니터링 장치(1)에 마우스를 통해 명령을 입력할 수 있다면, 교차점은 마우스 오버(Mouse Over)를 통해 선택하는 것이 바람직하다. 만약 모니터링 장치(1)가 터치 기능을 제공한다면, 사용자는 손가락으로 '탭(Tab)'을 수행하여 교차점을 선택할 수도 있다. 교차점이 선택되면, 도 20에 도시된 바와 같이, 원본 영상(111)이 복수의 보정 영상(112)들의 위에 표시될 수 있다. 여기서 표시되는 원본 영상(111)은, 미니맵(113)에 나타난 원본 영상(111)보다 사이즈도 더 크며 쉐이딩 및 폴리곤(116)도 표시되지 않아, 사용자의 시야를 확보하는 것이 용이하다.
상기 기술한 바와 같이, 보정 영상(112)은 항상 4분할 영상인 경우만 있는 것은 아니다. 즉, 보정 영상(112)은 6분할, 9분할 등 다양한 개수의 영상으로 형성될 수도 있다. 그리고 일반적으로 4개의 인접한 보정 영상(112)들이 만나 하나의 교차점을 형성한다. 4분할 영상인 경우에, 4개의 보정 영상(112)이 가로 2개, 세로 2개로 배열된다면, 도 19에 도시된 바와 같이 보정 영상(112)들의 경계선의 교차점이 하나가 형성된다. 그런데, 6분할 영상인 경우에, 6개의 보정 영상(112)이 가로 3개, 세로 2개로 배열된다면, 보정 영상(112)들의 경계선의 교차점이 두 개가 형성된다. 이와 같이 교차점이 복수로 형성되면, 어느 교차점을 선택하더라도 원본 영상(111)이 표시되는 것이 바람직하다.
한편, 상기 표시된 원본 영상(111)에는, 교차점을 형성하는 인접한 4개의 보정 영상(112)에 대한 가이드 아이콘(117)이 표시될 수도 있다. 가이드 아이콘(117)은 드워핑 영역(115)의 대략 중심에 위치한다. 드워핑 영역(115)의 중심이 되는 좌표는, 드워핑 영역(115)이 형성된 모양에 따라 그 너비와 높이 등을 이용하여 대략 계산함으로써 구할 수 있다.
가이드 아이콘(117)이 드워핑 영역(115)에 위치함으로써, 사용자는 보정 영상(112)이 원본 영상(111)에서 어느 영역을 디스플레이 하는 것인지 알 수 있다. 다만, 폴리곤(116)이 원본 영상(111)에서 표시되지 않았으므로, 대략적인 드워핑 영역(115)의 위치만을 알 수 있을 뿐이며, 사용자는 드워핑 영역(115)의 정확한 경계 또는 범위를 알 수는 없다.
보정 영상(112)의 개수와 드워핑 영역(115)의 개수는 동일하므로, 가이드 아이콘(117)의 개수 또한 보정 영상(112)의 개수와 동일하다. 그리고 가이드 아이콘(117)의 사이즈는, 가이드 아이콘(117)이 복수로 형성되어도 원본 영상(111)에 대한 사용자의 시야를 방해하지 않도록, 도 20에 도시된 바와 같이 사이즈가 매우 작은 것이 바람직하다.
상기 기술한 바와 같이, 교차점이 복수로 형성되면, 어느 교차점을 선택하더라도 원본 영상(111)이 표시될 수 있다. 그러나, 각각의 교차점을 형성하도록 인접한 보정 영상(112)들이 서로 다르다. 그리고 가이드 아이콘(117)은 드워핑 영역(115)을 나타내므로, 각각 보정 영상(112)과 대응된다. 따라서, 교차점이 복수인 경우, 각각의 교차점을 선택하여 표시되는 원본 영상(111)들은, 가이드 아이콘(117)이 서로 다른 위치에 표시될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
1: 모니터링 장치 2: 어안 카메라
11: 화면부 12: 통신부
13: 저장부 14: 제어부
111: 원본 영상 112: 보정 영상
113: 미니맵 114: 보더
115: 드워핑 영역 116: 폴리곤
117: 가이드 아이콘 1131: 최소화 아이콘

Claims (11)

  1. 카메라가 획득한 원본 영상을 전송받는 통신부;
    상기 원본 영상을 저장하는 저장부;
    상기 원본 영상 및 상기 원본 영상을 드워프한 보정 영상을 디스플레이 하는 화면부; 및
    상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되,
    상기 화면부는,
    상기 보정 영상만이 디스플레이 되는 뷰 모드에서,
    상기 보정 영상의 영역 내에 상기 원본 영상이 축소된 형태로 제공되는 미니맵을 표시하는, 모니터링 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 보정 영상만이 디스플레이 되는 뷰 모드는,
    상기 보정 영상이 복수로 형성되어 디스플레이 되는 다분할 뷰 모드인, 모니터링 장치.
  4. 제3항에 있어서,
    상기 화면부는,
    상기 복수의 보정 영상의 경계선의 교차점이 선택되면, 상기 원본 영상을 표시하는, 모니터링 장치.
  5. 1항에 있어서,
    상기 화면부는,
    상기 미니맵에 나타난 상기 원본 영상에, 상기 보정 영상으로 드워프된 드워핑 영역을 나타내는 폴리곤을 표시하는, 모니터링 장치.
  6. 특정 영역을 촬영하여 원본 영상을 획득하는 어안 카메라;
    상기 어안 카메라가 획득한 원본 영상을 전송받아 디스플레이하는 모니터링 장치를 포함하되,
    상기 모니터링 장치는,
    상기 어안 카메라가 획득한 원본 영상을 전송받는 통신부;
    상기 원본 영상을 저장하는 저장부;
    상기 원본 영상 및 상기 원본 영상을 드워프한 보정 영상을 디스플레이 하는 화면부; 및
    상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하고,
    상기 화면부는,
    상기 보정 영상만이 디스플레이 되는 뷰 모드에서,
    상기 보정 영상의 영역 내에 상기 원본 영상이 축소된 형태로 제공되는 미니맵을 표시하는, 모니터링 시스템.
  7. 카메라가 획득한 원본 영상을 전송받는 통신부;
    상기 원본 영상을 저장하는 저장부;
    상기 원본 영상 및 상기 원본 영상을 드워프한 보정 영상을 디스플레이 하는 화면부; 및
    상기 통신부, 상기 저장부 및 상기 화면부의 동작을 제어하는 제어부를 포함하되,
    상기 화면부는,
    상기 원본 영상만이 디스플레이 되는 뷰 모드에서 상기 원본 영상이 선택되는 경우 상기 원본 영상의 일부 영역을 확대하면서 드워프 시켜 상기 보정 영상을 생성하는, 모니터링 장치.
  8. 제7항에 있어서,
    상기 원본 영상의 일부 영역은 드래그에 의해 이동 가능한, 모니터링 장치.
  9. 제8항에 있어서,
    상기 원본 영상의 일부 영역이 드래그되면 이에 대응되는 보정 영상이 패닝 또는 틸팅되는, 모니터링 장치.
  10. 제7항에 있어서,
    상기 보정 영상은 줌 인(Zoom In) 또는 줌 아웃(Zoom Out) 가능한, 모니터링 장치.
  11. 제7항에 있어서,
    상기 원본 영상은 어안 카메라를 통하여 촬영된 어안 이미지의 영상을 포함하는, 모니터링 장치.
KR1020160069056A 2016-06-02 2016-06-02 모니터링 장치 및 모니터링 시스템 KR102474745B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160069056A KR102474745B1 (ko) 2016-06-02 2016-06-02 모니터링 장치 및 모니터링 시스템
PCT/KR2016/006877 WO2017209342A1 (ko) 2016-06-02 2016-06-28 모니터링 장치 및 모니터링 시스템
US16/207,746 US10924652B2 (en) 2016-06-02 2018-12-03 Monitoring apparatus and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160069056A KR102474745B1 (ko) 2016-06-02 2016-06-02 모니터링 장치 및 모니터링 시스템

Publications (2)

Publication Number Publication Date
KR20170136904A KR20170136904A (ko) 2017-12-12
KR102474745B1 true KR102474745B1 (ko) 2022-12-05

Family

ID=60478679

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160069056A KR102474745B1 (ko) 2016-06-02 2016-06-02 모니터링 장치 및 모니터링 시스템

Country Status (3)

Country Link
US (1) US10924652B2 (ko)
KR (1) KR102474745B1 (ko)
WO (1) WO2017209342A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6968610B2 (ja) * 2017-08-01 2021-11-17 キヤノン株式会社 撮像装置、情報処理方法及びプログラム
US11831855B2 (en) 2018-06-22 2023-11-28 Lg Electronics Inc. Method for transmitting 360-degree video, method for providing a user interface for 360-degree video, apparatus for transmitting 360-degree video, and apparatus for providing a user interface for 360-degree video
US20220345619A1 (en) * 2019-09-27 2022-10-27 Ricoh Company, Ltd. Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
US11380024B1 (en) * 2019-10-02 2022-07-05 Vr Rehab, Inc. Instant situational awareness visualization module process and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020063802A1 (en) 1994-05-27 2002-05-30 Be Here Corporation Wide-angle dewarping method and apparatus
US20060158462A1 (en) 2003-11-14 2006-07-20 Microsoft Corporation High dynamic range image viewing on low dynamic range displays
US20060274067A1 (en) 2001-09-14 2006-12-07 Hideo Hidai Image processing apparatus, display apparatus with touch panel, image processing method and computer program
WO2010114337A2 (ko) 2009-04-03 2010-10-07 주식회사 다림비젼 3차원 멀티뷰 장치, 제공방법 및 기록매체
US20140184646A1 (en) 2013-01-02 2014-07-03 Vivotek Inc. Image processor and fisheye image display method thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7171622B2 (en) * 2002-07-18 2007-01-30 International Business Machines Corporation Method, apparatus and computer program product for projecting objects in a display unit
JP2005086279A (ja) 2003-09-04 2005-03-31 Equos Research Co Ltd 撮像装置、及び撮像装置を備えた車両
US7768545B2 (en) * 2007-03-06 2010-08-03 Otto Gregory Glatt Panoramic image management system and method
KR101103161B1 (ko) * 2010-02-03 2012-01-04 주식회사 팬택 터치 스크린 입력을 이용해서 화면을 제어하는 방법 및 장치
KR100991104B1 (ko) 2010-03-23 2010-11-01 주식회사 넥스파시스템 투광 세기를 조절할 수 있는 발광다이오드가 구비된 전방위 방범 시스템 및 이를 이용한 전방위 방범 방법
JP5578011B2 (ja) 2010-10-14 2014-08-27 大日本印刷株式会社 広角撮影画像へのスーパーインポーズ方法および装置
JP5742210B2 (ja) * 2010-12-22 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、画像処理方法およびプログラム
JP5678324B2 (ja) * 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 表示装置、コンピュータプログラム、及び表示方法
US9256983B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. On demand image overlay
JP6167703B2 (ja) * 2013-07-08 2017-07-26 株式会社リコー 表示制御装置、プログラム及び記録媒体
US20160119551A1 (en) * 2014-10-22 2016-04-28 Sentry360 Optimized 360 Degree De-Warping with Virtual Cameras
JP5919570B2 (ja) 2014-12-11 2016-05-18 パナソニックIpマネジメント株式会社 画像表示装置及び画像表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020063802A1 (en) 1994-05-27 2002-05-30 Be Here Corporation Wide-angle dewarping method and apparatus
US20060274067A1 (en) 2001-09-14 2006-12-07 Hideo Hidai Image processing apparatus, display apparatus with touch panel, image processing method and computer program
US20060158462A1 (en) 2003-11-14 2006-07-20 Microsoft Corporation High dynamic range image viewing on low dynamic range displays
WO2010114337A2 (ko) 2009-04-03 2010-10-07 주식회사 다림비젼 3차원 멀티뷰 장치, 제공방법 및 기록매체
US20140184646A1 (en) 2013-01-02 2014-07-03 Vivotek Inc. Image processor and fisheye image display method thereof

Also Published As

Publication number Publication date
US10924652B2 (en) 2021-02-16
WO2017209342A1 (ko) 2017-12-07
US20190104254A1 (en) 2019-04-04
KR20170136904A (ko) 2017-12-12

Similar Documents

Publication Publication Date Title
RU2528566C2 (ru) Устройство управления, система камеры и программа
US8532346B2 (en) Device, method and computer program product
US10924652B2 (en) Monitoring apparatus and monitoring system
JP5678324B2 (ja) 表示装置、コンピュータプログラム、及び表示方法
US10791258B2 (en) Monitoring apparatus and system
US20040179121A1 (en) System and method for displaying captured images according to imaging device position
KR102644782B1 (ko) 모니터링 장치 및 시스템
JPH09289607A (ja) カメラ制御システム
KR20110004674A (ko) 감시 카메라들의 제어 방법 및 이를 사용한 제어 장치
KR20050000276A (ko) 감시 카메라 제어용 가상 조이스틱 시스템 및 제어 방법
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
JP2011053587A (ja) 画像処理装置
JP6145738B2 (ja) 表示装置及びコンピュータプログラム
KR101990366B1 (ko) 네트워크 카메라 제어 방법
KR102507239B1 (ko) 검색 장치
KR102575254B1 (ko) 모니터링 장치 및 시스템
JP6543108B2 (ja) 情報処理装置およびその制御方法、並びにプログラム
KR102518855B1 (ko) 모니터링 장치 및 모니터링 시스템
JP6614516B2 (ja) 表示装置及びコンピュータプログラム
KR20070106209A (ko) 팬틸트 카메라의 제어장치 및 그 기록매체
JP2005339224A (ja) 監視装置
JP2023173764A (ja) 情報処理装置、情報処理方法
JP2017184237A (ja) 表示装置及びコンピュータプログラム

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant