KR101297294B1 - 카메라 제어용 맵 인터페이스 시스템 - Google Patents
카메라 제어용 맵 인터페이스 시스템 Download PDFInfo
- Publication number
- KR101297294B1 KR101297294B1 KR1020130067574A KR20130067574A KR101297294B1 KR 101297294 B1 KR101297294 B1 KR 101297294B1 KR 1020130067574 A KR1020130067574 A KR 1020130067574A KR 20130067574 A KR20130067574 A KR 20130067574A KR 101297294 B1 KR101297294 B1 KR 101297294B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- displayed
- map interface
- map
- icon
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 맵 인터페이스에서 카메라가 촬영하는 방향 및 지역을 용이하게 인지할 수 있으며, 카메라가 촬영된 영상의 주변지역을 용이하게 파악하고, 촬영지역 및 사각지역 등 전체적인 방범 및 감시 등의 상황을 파악할 수 있으며, 촬영하고자 하는 방향으로 카메라를 빠르고 정확하게 이동하여 촬영할 수 있는 카메라 제어용 맵 인터페이스에 관한 것이다. 이를 위해 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템은 카메라의 자세에 대한 자세정보와 촬영된 영상정보를 출력하는 카메라; 및 카메라가 설치된 지역의 맵(map)을 배경화면으로 표시하는 맵(map) 인터페이스에 카메라로부터 출력되는 카메라 자세정보에 근거하여 카메라의 설치 위치에 대응되는 카메라를 아이콘으로 표시하는 표시장치; 를 포함하는 것으로, 표시장치는 맵 인터페이스의 선택된 지점으로 카메라의 촬영방향을 제어하는 것을 특징으로 한다.
Description
본 발명은 그래픽 사용자 인터페이스 기반의 카메라를 제어할 수 있는 시스템에 관한 것이다.
더욱 상세하게는, 맵 인터페이스에서 카메라가 촬영하는 방향, 각도 및 지역을 용이하게 인지할 수 있으며, 카메라가 촬영된 영상의 주변지역을 용이하게 파악하고, 촬영지역, 사각지역, 중첩지역 및 공간촬영지역 등 전체적인 방범 및 감시 등의 상황을 파악할 수 있으며, 촬영하고자 하는 방향으로 카메라를 빠르고 정확하게 이동하여 촬영할 수 있는 카메라 제어용 맵 인터페이스에 관한 것이다.
본 발명은 카메라에서 촬영되는 영상을 출력하되 카메라의 방향, 각도, 지역 등을 표시하며, 사용자 인터페이스를 통하여 카메라의 방향을 제어할 수 있는 카메라 제어용 맵 인터페이스에 관한 것이다.
특정 지역을 감시하는 폐쇄회로 텔레비전 시스템(CCTV, Closed-Circuit TeleVision)은 카메라에서 촬영된 화상정보를 소수의 특정 수신자를 대상으로 화상정보를 전송하고, 그 전송된 화상정보를 통해서 특정 소수의 사용자가 원하는 정보를 획득하고 용도에 따라 감시하고자 하는 지역을 관찰할 수 있도록 영상으로 디스플레이하는 텔레비전 방식을 말한다. CCTV 시스템은 보안 감시용, 산업용, 차량의 화상감시용 또는 교통관리용 등의 다양하고 광범위한 용도로 사용되고 있다.
이때 CCTV 시스템 등에서 사용되는 카메라는 패닝(panning), 틸팅(tilting), 줌인/아웃(zoom-in & out) 기능이 포함된다.
패닝은 좌우로 수평적으로 카메라를 이동시키는 것을 의미하고 틸팅은 상하로 움직이는 것을 의미한다. 또한 줌인/아웃은 특정 지역을 확대/축소하는 기능을 의미한다. 이러한 카메라 제어는 카메라를 상하좌우로 움직이는 구동모터(pan drive motor 및 tilt drive motor) 및 렌즈를 움직여서 초점거리를 조절하는 렌즈 구동모터를 하드웨어 또는/및 소프트웨어로 제어함으로써 이루어진다.
한편, 카메라가 어느 방향을 촬영하고 있는지 쉽게 파악하기 위한 장치로, 공개특허공보 제10-2002-0051688호에 영상 단말기의 방위 표시 장치 및 방법이 기재되었다.
위의 기술은 카메라의 촬영 방향과 일치되게 방위를 검출하는 방위센서와; 방위센서에서 출력되는 아날로그의 방위 검출신호를 디지털신호로 변환하는 A/D변환기와; 카메라에 의해 촬영되는 영상신호와 A/D변환기에서 출력되는 방위 검출신호를 부호화 및 다중화 처리하여 외부로 출력하는 다중화 처리부와; 다중화된 형태의 데이터에서 원래의 영상신호와 방위 검출신호를 분리 검출하고, 이들을 합성처리하여 화면에 디스플레이하는 방위표시 처리부로 구성된다.
즉, 위에 기재된 기술은 촬영되어 표시되는 화면에 방위를 표시하도록 하는 것으로, 카메라가 어느 방향의 방위를 촬영하고 있는지를 쉽게 파악할 수 있으나 카메라의 방향을 제어하는 기술에 대해서는 기재되어 있지 않아 이를 CCTV 시스템 등에 적용할 경우 제어하는 장치를 별도로 구비해야 하는 문제점이 있다.
카메라 제어기술은 종래의 하드웨어적 제어에서 점차 소프트웨어가 주가 되는 제어방식으로 발전하고 있다. 특히 최근에는 카메라로부터 얻어지는 화상을 디지털신호로 변환하여 모니터에 디스플레이하고 마우스 등의 포인팅 장치를 이용하여 화면상에서 GUI 방식에 의해 카메라 동작을 제어하는 기술이 개발되었다.
이러한 제어방식에 따르면 기존의 하드웨어식 조작반과 같이 복잡하고 부피가 크지 않으며 별도의 하드웨어 없이도 컴퓨터 화면에 마련된 다양한 소프트웨어 조작도구를 이용하여 원하는 대로 쉽고 편안하게 카메라를 제어할 수 있다.
이러한 시스템 중의 하나로 등록특허공보 제10-0815234호에 카메라 제어용 그래픽유저인터페이스 제어장치 및 방법이 기재되었다.
위에 기술된 카메라 제어용 그래픽 유저인터페이스 제어장치는, 카메라에 의해 촬영된 영상화면을 표시하는 카메라 영상 표시화면과, 카메라 제어시스템을 사용자가 제어할 수 있도록 표시되는 다양한 기능선택 버튼을 포함하는 인터페이스부와; 카메라 제어시스템으로부터 영상신호를 받아 처리하여 인터페이스부의 카메라영상 표시화면에 제공하는 영상처리부를 포함하고, 인터페이스부의 기능버튼에 의해 선택된 기능을 수행하여 제어신호를 발생하고 이 제어신호를 카메라 제어시스템의제어부에 전송하는 GUI 제어부를 포함하여 구성된다.
위의 기술은 그래픽 유저인터페이스를 통해 카메라의 방향(방위)을 제어하는 것으로, 하나의 화면상에 촬영 영상 및 카메라제어화면을 구비하여 카메라의 방향을 인지할 수 있음은 물론 카메라의 방향을 제어할 수 있는 특징이 있다.
그러나 상기 기술은 카메라에 의해 촬영되는 지역의 방향(방위)을 인지하고 있는 경우에 유용하다. 부연하면 표시되는 화면에서 지형지물을 확인하여 어느 방향을 촬영하고 있는지 인지한 상태에서 촬영 지역을 변경하고자 하는 경우 현재 촬영 방위각을 알고 있어야만 최소한의 동작으로 감시 대상 지역을 변경할 수 있다.
따라서 사용자는 감시 대상 지역을 인지해야 하는 불편함이 있고, 이에 더하여 어느 방향을 촬영하고 있는지를 알 수 없는 문제점이 발생된다.
본 발명은 위와 같은 문제점을 해소하기 위하여 안출된 것으로, 본 발명에서 해결하고자 하는 과제는 그래픽 유저인터페이스에 카메라를 표시하되 해당 카메라가 촬영하고 있는 방향 및 각도를 표시하고, 표시되는 맵 인터페이스에서 촬영하고자하는 지역을 선택하는 것으로 카메라의 방향을 조정하여 촬영할 수 있는 카메라 제어용 맵 인터페이스 시스템을 제공하는 데에 있다.
위와 같은 과제를 해결하기 위하여 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템은 카메라의 자세에 대한 자세정보와 촬영된 영상정보를 출력하는 카메라; 및 카메라가 설치된 지역의 맵(map)을 배경화면으로 표시하는 맵(map) 인터페이스에 카메라로부터 출력되는 카메라 자세정보에 근거하여 카메라의 설치 위치에 대응되는 카메라를 아이콘으로 표시하는 표시장치; 를 포함하는 것으로, 표시장치는 맵 인터페이스의 선택된 지점으로 카메라의 촬영방향을 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템을 제공함으로써, 기술적 과제를 해결하고자 한다.
또한 상기의 아이콘은 카메라의 촬영 방향과 동기화되어 표시되며, 아이콘 주변 또는 상기 아이콘을 선택하는 경우, 카메라의 상태정보를 나타내는 상태정보 인터페이스가 표시되며, 표시되는 상태정보 인터페이스를 조작하는 것으로 카메라의 자세를 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템을 제공함으로써, 기술적 과제를 해결하고자 한다.
또한 상기의 맵을 대신하여 전방위카메라로 촬영된 영상을 배경화면으로 표시되거나 전방위카메라로 촬영된 영상이 맵에 오버레이(over lay)될 수 있으며 또는 맵이 전방위카메라로 촬영된 영상에 오버레이(over lay)되는 카메라 제어용 맵 인터페이스 시스템을 제공함으로써, 기술적 과제를 해결하고자 한다.
본 발명에 따른 카메라 제어용 맵 인터페이스 시스템은 지형지물 맵 상에 카메라가 촬영하는 방향, 각도, 지역을 표시하고, 맵 인터페이스에 촬영하고자 하는 지점을 선택하는 것만으로도 카메라의 방향을 전환할 수 있고, 전환된 카메라의 방향에 따라 촬영된 영상을 표시할 수 있으므로, 카메라의 방향을 용이하게 전환할 수 있는 효과가 있다.
또한 해당 카메라가 어느 방향, 각도, 지역을 촬영하고 있는지를 신속히 인지할 수 있어, 주변의 지형지물을 알 수 없더라도 촬영의 사각지대에 어떤 지형지물이 있는지를 용이하게 확인할 수 있는 효과가 있다.
또한 인터페이스를 통하여 카메라의 촬영방향(팬/틸팅/줌인/줌아웃)을 제어할 수 있으므로, 조작이 용이하며 촬영되는 감시 영역을 신속히 변경할 수 있는 효과가 있다.
도 1은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템의 개략적인 구성도,
도 2 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템의 구성도,
도 3 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 일실시예의 화면,
도 3a는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 카메라의 촬영 방향을 측면에서 바라본 개념도,
도 4는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 일실시예의 화면,
도 5는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 맵 인터페이스의 선택된 지점으로 카메라를 제어하여 표시되는 일실시예를 나타낸 도면,
6은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 맵 인터페이스의 선택된 지점으로 복수 개 카메라의 촬영방향을 제어하여 표시되는 일실시예를 나타낸 도면,
도 7은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 맵 인터페이스의 일실시예 화면,
도 8은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 맵 인터페이스의 일실시예 화면,
도 9는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 3차원 맵 인터페이스의 일실시예 화면,
도 10은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 카메라의 의해 촬영지역, 사각지역, 중첩지역 및 공간촬영지역을 표시하는 인터페이스 화면,
도 11은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 카메라 아이콘의 주변에 표시되는 인터페이스의 일실시예 화면을 나타낸 것이다.
도 2 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템의 구성도,
도 3 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 일실시예의 화면,
도 3a는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 카메라의 촬영 방향을 측면에서 바라본 개념도,
도 4는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 일실시예의 화면,
도 5는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 맵 인터페이스의 선택된 지점으로 카메라를 제어하여 표시되는 일실시예를 나타낸 도면,
6은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 맵 인터페이스의 선택된 지점으로 복수 개 카메라의 촬영방향을 제어하여 표시되는 일실시예를 나타낸 도면,
도 7은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 맵 인터페이스의 일실시예 화면,
도 8은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 맵 인터페이스의 일실시예 화면,
도 9는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 3차원 맵 인터페이스의 일실시예 화면,
도 10은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 카메라의 의해 촬영지역, 사각지역, 중첩지역 및 공간촬영지역을 표시하는 인터페이스 화면,
도 11은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 카메라 아이콘의 주변에 표시되는 인터페이스의 일실시예 화면을 나타낸 것이다.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 안 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
이하, 도면을 참조하여 설명하기에 앞서, 본 발명의 요지를 드러내기 위해서 필요하지 않은 사항 즉 통상의 지식을 가진 당업자가 자명하게 부가할 수 있는 공지 구성에 대해서는 도시하지 않거나, 구체적으로 기술하지 않았음을 밝혀둔다.
본 발명은 맵 인터페이스에서 카메라가 촬영하는 방향, 긱도 및 지역을 용이하게 인지할 수 있으며, 카메라가 촬영된 영상의 주변지역을 용이하게 파악하고, 촬영지역, 사각지역, 중첩지역 및 공간촬영지역 등 전체적인 방범 및 감시 등의 상황을 파악할 수 있으며, 촬영하고자 하는 방향으로 카메라를 빠르고 정확하게 이동하여 촬영할 수 있는 카메라 제어용 맵 인터페이스에 관한 것이다.
도 1 및 도 2는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템의 개략적인 구성도를 나타낸 것으로, 도면에 도시된 바와 같이, 본 발명은 크게 카메라(100), 표시장치(200) 및 전방위 카메라(300)를 포함하여 구성된다.
카메라(100)는 카메라 자세정보와 감시 지역을 촬영하고 촬영된 영상정보를 출력하는 것으로, 촬영부(110), 자세조정부(120), 자세검출부(130), 제1통신부(140) 및 메모리부(150)를 포함한다.
촬영부(110)는 카메라(100)의 방향의 감시 영역을 촬영하는 것으로, 통상의 카메라 기능을 수행한다. 이때, 촬영부(110)에 다양한 렌즈가 장착될 수 있다.
다양한 렌즈 중에서 180° 내지 360°도 화각을 촬영할 수 있는 기능을 가지는 렌즈가 장착될 수 있다. 여기서 360°도 화각을 촬영할 수 있는 렌즈는 어안렌즈, 전방위렌즈 및 밀러형렌즈 등이 있으며, 특히 밀러형렌즈의 경우 촬영부(110)에 반사밀러를 가지고 360°파노라마 영상을 획득할 수 있다. 설계 조건에 따라 360°도 화각을 촬영할 수 있는 렌즈가 장착된 경우, 임의의 점을 기준으로 평면 영상으로 보정하는 애플리케이션이 마련되어 평면 영상으로 전환되도록 구성될 수 있다. 이때 평면 영상으로 전환하는 애플리케이션은 카메라(100)에 설치될 수 있으나, 설계 조건에 따라 후술되는 표시장치(200)에 설치될 수 있음은 당연하다.
또한 이러한 어안렌즈, 전방위렌즈 및 밀러형렌즈 등이 장착될 경우, 넓은 범위를 촬영할 수 있으므로, 설치되는 카메라의 개수가 적어져 설치비 및 유지비가 감소되는 장점이 있다.
자세조정부(120)는 촬영부(110)의 패닝, 틸팅 및 줌인/아웃을 조정한다.
패닝은 좌우로 수평적으로 카메라를 이동시키는 것을 의미하고 틸팅은 상하로 움직이는 것을 의미한다. 또한 줌인/아웃은 특정 지역을 확대/축소하는 행위를 의미한다. 이러한 카메라(100)의 자세는 카메라를 상하로 움직이는 팬구동모터(pan drive motor), 좌우로 움직이는 틸트구동모터(tilt drive motor) 및 렌즈를 움직여서 초점거리를 조절하는 렌즈 구동모터(lens drive motor)를 제어하는 것으로 이루어진다. 본 발명에서 카메라의 자세는 각각의 모터를 제어하여 패닝 각도, 틸팅 각도 및 줌인/아웃의 배율을 상태를 포함한다.
이에 더하여 자세조정부(120)는 설치 높이를 변경 가능하도록 구성될 수 있다. 즉, 설계 조건에 따라 카메라의 설치 높이를 가변할 수 있는 경우, 카메라의 설치 높이도 포함될 수 있다. 예를 들어, 카메라가 유압식 또는 기어식으로 가변되는 폴(pole)에 설치되는 경우, 유압 또는 기어를 구동하는 구동 모터를 제어하는 것으로 폴의 길이를 가변할 수 있다. 따라서 자세조정부(120)는 패닝, 틸팅 및 줌인/아웃뿐만 아니라 카메라의 설치 높이도 조정할 수 있도록 구성될 수 있다.
여기서, 카메라가 지상에 직립하여 설치되는 폴에 장착되는 경우에는 폴의 길이가 길어짐에 따라 설치 높이는 증가될 수 있고, 천장 하부에 설치되는 경우에는 폴의 길이가 길어짐에 따라 설치 높이는 감소될 수 있는 것으로, 설치 환경에 따라 그에 대응되어 설치 높이를 계산하도록 구성된다.
카메라의 자세에 따라 촬영되는 영역이 변화게 됨은 당연하다. 예를 들어, 카메라의 방향이 벽 또는 건물을 향하고 있으면, 촬영될 수 있는 지상의 면적은 감소되며, 카메라의 설치 높이가 높을수록 촬영면적은 증가된다.
자세검출부(130)는 자세조정부(120)에 의해서 조정된 카메라(100)의 패닝 각도, 틸딩 각도, 줌인/아웃의 배율 및 카메라 설치 높이를 검출하여 카메라 자세정보를 생성한다. 이때 각도 및 배율은 각각 모터의 구동량을 검출하는 가변 저항기 또는 모터에 인가되는 전류를 감지하는 전류 센서를 포함하여 각도 센서 및 기울기 센서 등을 사용하여 구성될 수 있다.
패닝 각도 및 틸딩 각도는 설정된 각도를 기준으로 회전되는 각도를 센싱하여 이루어질 수 있다. 카메라의 설치 높이는 설정된 높이를 기준으로 가변되는 폴의 길이를 가감하는 것으로 이루어질 수 있다. 또한 줌인/아웃의 배율은 촬영부의 렌즈를 움직여서 초점거리를 조절하는 렌즈 구동모터(lens drive motor)를 통하여 검출될 수 있다.
제1통신부(140)는 촬영부(110)에서 촬영된 영상과 자세검출부(130)에서 생성된 자세정보를 후술되는 표시장치(200)와 통신하여 전송한다
여기서, 표시장치(200)와의 통신은 유선 통신으로 이루어질 수 있다. 그러나 카메라(100)와 표시장치(200) 사이에 통신선로의 확보가 어렵거나 그 사이에 무선 통신에 의한 장애가 없는 경우, 제1통신부(140)와 후술되는 제2통신부(210)는 무선을 통해 통신하도록 구성될 수 있다.
제1통신부(140)와 제2통신부(210)가 무선 통신으로 이루어지는 경우 장소와 이동에 구애를 받지 않는 장점이 있다.
메모리부(150)는 카메라(100)와 관련된 정보가 저장 관리된다. 카메라와 관련된 정보로는 자세정보 및 위치정보 등으로 구성될 수 있다.
자세정보로는 현재 카메라의 패닝 각도, 틸팅 각도, 줌인/아웃의 배율, 카메라의 설치 높이 등으로 구성될 수 있으며, 각도, 배율 및 높이 등에 따른 기준값이 저장된다.
또한 카메라(100)가 최적의 방향을 바라보는 자세정보가 저장 관리된다. 이때, 최적의 방향을 바라보는 자세정보는 사용자의 조작에 의해서 결정되거나 후술되는 방향추천모듈(253)에 의해서 결정될 수 있다. 저장된 자세정보는 사용자의 의해서 변경가능하도록 구성될 수 있음은 당연하다.
설계조건에 따라 카메라(100)가 최적의 방향을 바라보는 자세정보는 표시장치(200)에 저장 관리되도록 구성될 수 있다.
위치정보는 GPS(global positioning system)에 근거한 위치가 될 수 있으며, GPS를 사용할 수 없는 경우에는 사용자가 지정한 위치로 저장 관리될 수 있도록 구성된다. 예를 들어 GPS를 이용할 수 없는 지하 또는 실내인 경우 사용자가 직접 맵에 카메라의 위치를 지정할 수 있도록 구성된다.
또한 카메라가 복수 개로 구성될 경우, 카메라 고유정보가 저장된다. 예를 들어 복수 개로 구비되는 카메라는 각각을 구분할 필요성이 있는데, 메모리부(150)는 카메라를 식별할 수 있는 아이디(ID) 또는 네트워크 번호 등과 함께 카메라의 특성을 나타낸 사양(화상 각도, 줌 배율) 등이 저장된다.
표시장치(200)는 카메라로부터 출력되는 카메라 자세정보 및 영상정보를 수신하며, 수신된 영상정보를 표시하는 제1표시장치(201)와 수신된 카메라 자세정보에 근거하여 맵(map)을 배경화면으로 하는 맵 인터페이스에 표시되는 제2표시장치(202)를 포함한다. 이때 제2표시장치(202)에 표시되는 맵 인터페이스는 카메라(100)의 설치 위치에 대응하여 카메라(100)의 상태정보를 아이콘으로 표시하며, 맵 인터페이스의 어느 한점을 선택하면 선택된 지점으로 카메라(100)의 촬영방향을 이동하도록 제어한다.
설계 조건에 따라 제1표시장치(201)는 제2표시장치(202)에 포함하여 구성될 수 있다. 제1표시장치(201)가 제2표시장치(202)에 포함될 경우, 제1표시장치(201)에 표시되는 카메라의 촬영 영상은 도 3에 도시된 바와 같이, 맵 인터페이스에 부분영상(PD, partial display)으로 표시되도록 구성될 수 있다.
또한 도 4의 (a)에 도시된 바와 같이, 카메라(100)가 복수 개로 구성될 경우, 제1표시장치(201)는 복수 개의 카메라에 대응되어 각각 촬영된 영상이 표시되도록 복수 개로 구성되고, 제2표시장치(202)에 표시되는 카메라 형상의 아이콘은 복수 개의 카메라에 대응되어 표시될 수 있다. 이 경우에도 맵 인터페이스에 부분영상(PD)이 표시되도록 구성될 수 있다. 여기서 표시되는 부분영상은 아이콘의 표시 위치에 따라 적절한 위치에 표시될 수 있도록 배치될 수 있다. 또한 표시되는 부분영상의 위치를 변경가능하도록 구성될 수 있다.
또는 도 4의 (b)에 도시된 바와 같이, 제1표시장치(201)는 1개 구성하고, 제2표시장치(202)에 표시되는 아이콘은 복수 개의 카메라에 대응되어 표시되되, 제2표시장치(202)에 표시되는 아이콘을 선택하는 경우, 제2표시장치(201)는 선택된 아이콘에 해당하는 카메라에서 촬영된 영상이 표시되도록 구성될 수 있다.
이러한 표지장치(200)의 구성을 살펴보면, 제2통신부(210), 맵저장부(220), 인터페이스부(230), 인식부(240) 및 정보처리부(250)를 포함한다.
제2통신부(210)는 카메라(100)와 통신하여 카메라 자세정보 및 촬영된 영상의 영상정보를 수신하도록 카메라와 통신한다. 이때, 제2통신부(210)는 제1통신부(140)와 연계되어 구성된다. 즉, 제1통신부(140)가 유선 또는 무선에 대응되어 제2통신부(210)도 유선 또는 무선으로 구성된다. 즉, 설계 조건에 따라 제1통신부(140)와 제2통신부(210)는 유선 또는 무선으로 통신하도록 구성될 수 있으며, 서로 통신을 통하여 데이터 및 신호를 전송할 수 있는 구성이면 충분하다.
맵저장부(220)는 지형지물 및 카메라의 위치가 저장되는 맵(map)이 저장 관리된다. 이때, 카메라의 위치는 카메라(100)의 메모리부(150)에 저장된 카메라 정보를 로딩하여 저장될 수 있으며, 위치를 포함한 카메라 정보는 편집 가능하도록 구성된다.
여기서 지형지물은 지형의 생김새와 지형의 고저 및 지상에 있는 모든 물체를 아우르는 것으로, 식재된 조경수뿐만 아니라 벽, 건물, 조형물 및 구조물 등을 포함한다.
이에 맵(map)은 2D 또는 3D 형태의 그림, 도면, 사진, 지도 및 동영상 중 1가지 이상으로 구성될 수 있다. 예를 들면, 평면도, 조감도, 배치도 및 고저가 표시되는 지형도 또는 인공위성에서 촬영한 위성도, 항공사진, 전자지도 및 3차원 지도 등이 있으며, 설계 조건에 따라 다양하게 구성될 수 있다.
또한 표시되는 지형지물은 높이를 포함하여 구성될 수 있다. 즉, 카메라의 설치 높이가 지형지물의 높이보다 높은 경우 카메라가 지형지물의 뒤 배경도 촬영할 수 있기 때문에, 지형지물의 높이와 카메라의 설치 높이를 대조하는 것으로 촬영범위를 설정할 수 있다.
또한 맵에는 위치식별부호를 포함한다. 위치식별부호는 주소, 건물명, 전화번호, 상호, 기관명 및 좌표 등으로 구성될 수 있다.
인터페이스부(230)는 제2표시장치(202)에 맵 인터페이스를 표시한다.
표시되는 맵 인터페이스는 맵을 배경으로 하여 카메라(100)에 대응하여 표시되는 아이콘(101)을 포함한다. 이때, 아이콘(101)은 카메라의 형상으로 구성된다.
또한 아이콘은 카메라의 촬영 방향 및 촬영각도와 동기화(Synchronizing)되어 표시될 수 있다. 즉, 카메라의 자세를 변경하게 되면 변경된 자세정보를 수신하고, 수신된 자세정보에 근거하여 표시되는 아이콘의 촬영방향이 변경된다.
또한 인터페이스부(230)는 아이콘(101) 주변에 카메라의 패닝, 틸팅, 줌인/아웃 및 카메라의 높이 중에서 선택된 하나 이상의 인터페이스가 표시되도록 하거나, 또는 아이콘을 선택하는 경우, 카메라의 패닝, 틸팅, 줌인/아웃 및 카메라의 높이 중에서 선택된 하나 이상의 인터페이스가 표시되도록 구성된다.
또한 맵 인터페이스에는 맵에 포함된 위치식별부호가 표시될 수 있다.
한편, 도 3 및 도 3a에 도시된 바와 같이, 맵에는 건물, 장애물 등의 유동되지 않는 물체(O, Object)가 표시되는데, 물체의 위치와 카메라(100)의 위치 및 자세정보에 근거한 촬영지역(IA, Image area)과 카메라를 패닝, 틸팅 및 줌인/아웃에 의해서 촬영할 수 없는 사각지역(BA, Blind area)이 표시된다. 이 구성으로 사각지역(BA)을 최소화하는 카메라(100)의 실제 위치를 선정할 수 있다. 이때 표시되는 촬영지역(IA)은 카메라의 패닝 각도, 틸팅 각도 및 줌인/아웃의 배율에 근거하여 변경된다. 예를 들어, 줌인/아웃의 배율을 조정하여 줌인하게 되면 촬영지역(IA)은 좁아지며, 줌아웃하게 되면 촬영지역(IA)은 넓어지게 표시된다. 이때 카메라의 패닝 각도, 틸팅 각도 및 줌인/아웃의 배율은 전송된 카메라의 위치 및 자세정보에 근거하여 이루어진다. 여기서 사각지역(BA) 및 물체가 차지하는 면적을 제외한 지역은 카메라로 촬영 가능한 지역이 된다.
또한 도 3 및 도 3a에 도시된 바와 같이, 카메라의 촬영 방향에 근거한 공간촬영지역(SA, Space area)이 표시될 수 있다. 도 3a는 카메라의 촬영 방향으로 측면에서 바라본 개념도이다.
여기서, 공간촬영지역(SA)은 카메라(100)의 촬영방향 공간의 위치하여 카메라에 의해서 촬영될 수 있는 공간을 의미한다.
이때, 공간촬영지역(SA)은 지면으로부터 높이 또는 카메라로부터 거리에 근거하여 표시되는 색의 농도를 달리하여 표시되도록 구성될 수 있다. 예를 들면, 카메라가 지면에서 이격된 높이에 설치된 경우, 카메라에 근접한 공간촬영지역(SA)은 지면으로부터 상당한 높이의 공간이다. 따라서 공간촬영지역(SA)은 카메라로부터 멀어질수록 표시되는 색의 농도를 달리하여 표시함으로써 촬영될 수 있는 상태를 가늠할 수 있도록 구성될 수 있다.
또한 맵 인터페이스에는 후술되는 전방위 카메라(300)가 제2아이콘(301)로 표시될 수 있다.
인식부(240)는 맵 인터페이스에서 이루어지는 이벤트를 검출한다. 즉, 맵 인터페이스에서 선택된 지형지물의 지점(point), 맵 인터페이스에 표시되는 아이콘(101)의 선택 유무 및 입력되는 위치식별부호 등의 입력을 검출한다.
인식부(240)에 선택된 지점을 인식시키기 위한 구성으로는 컴퓨터의 마우스 등이 더 부가될 수 있으며, 제2표시장치(202)가 터치스크린으로 구성되는 경우는 화면을 터치하는 점(point)을 선택 지점으로 인식하도록 구성될 수 있다.
또한 위치식별부호의 입력을 검출하기 위해 키보드, 스캐너 등이 구성될 수 있다. 즉, 위치식별부호를 입력받기 위해 키보드 등을 이용하여 문자 및 숫자 등을 입력할 수 있도록 구성하거나, 문자 및 숫자 등을 스캔하는 것으로 문자 및 숫자 등을 입력할 수 있도록 구성될 수 있다.
이 구성에 따라 맵 인터페이스 표시되는 아이콘(101)의 표시과정을 설명한다.
맵 인터페이스에 표시되는 아이콘은 카메라의 형상에 대응되는 형상이다. 또한 아이콘은 카메라의 촬영 방향과 동기화(Synchronizing)되어 표시된다. 즉, 카메라의 촬영 방향에 따라 아이콘의 방향이 가변된다. 따라서 카메라의 패닝 각도가 변경되면 그에 동기화되어 표시되므로, 촬영 영상과 아이콘의 표시 방향 및 촬영각도를 확인하여 맵의 어느 방향(지역)을 향하고 있는지와 어느 지역을 촬영하고 있는지를 용이하게 확인할 수 있다.
또한 표시되는 아이콘은 카메라의 상태정보에 따라 색 및 크기를 달리하여 표시되도록 구성될 수 있다. 예를 들어, 틸팅 각도가 수직면과 예각을 이룰수록 카메라의 촬영 범위는 작아지므로, 표시되는 아이콘을 3차원으로 회전하여 표시되도록 구성될 수 있다.
또는 카메라의 설치 높이가 달라지는 경우 가변되는 높이에 따라 표시되는 아이콘의 크기를 달리하여 표시되도록 구성될 수 있다.
또는 줌인/아웃이 달라지는 경우 표시되는 아이콘의 색을 가변시키거나 농도를 달리하여 표시될 수 있다.
이러한 카메라를 아이콘으로 표시함으로써, 표시되는 아이콘을 확인하는 것만으로도 카메라의 촬영 방향이 어디를 향하고 있는지, 카메라의 틸팅 각도가 어느 정도인지, 줌인/아웃의 배율이 어느 정도인지, 카메라의 설치 높이가 어느 정도인지를 용이하게 확인할 수 있는 장점이 있다.
정보처리부(250)는 인식부(240)의 조작신호에 대응하여 카메라의 자세를 제어하며, 표시되는 촬영 지역에 근거하여 카메라의 방향을 추천한다.
이러한 기능을 수행하기 위해서, 정보처리부(250)는 카메라 자세조정모듈(251), 촬영지역검출모듈(252) 및 방향추천모듈(253)을 포함한다.
카메라 자세조정모듈(251)은 인터페이스부(230)의 조작신호에 대응하여 카메라의 패닝, 틸팅, 줌인/아웃(zoom-in & out) 및 카메라의 높이를 제어한다. 즉, 인터페이스부(230)에 의해서 표시되는 인터페이스를 조작하면 이를 인식부(240)에서 인식하고, 인식된 신호를 이벤트 제어신호로 하여, 제2통신부와 제1통신부를 통해 카메라(100)의 자세조정부(120)로 전송된다. 자세조정부(120)는 수신된 제어신호에 근거하여 카메라의 패닝, 틸팅, 줌인/아웃 및 카메라의 높이를 조작된 신호에 근거하여 수행하도록 각각의 모터를 구동한다.
또한 모터의 구동에 따라 자세검출부(130)는 카메라의 자세를 검출하여 제1통신부와 제2통신부를 통해 맵 인터페이스에 변경된 카메라의 상태가 표시된다.
촬영지역 검출모듈(252)은 카메라의 촬영 방향 및 카메라의 화각 등에 근거하여 촬영 지역, 공간촬영 지역, 사각 지역 및 중첩 지역을 검출한다. 더 나아가 지형지물의 높이 및 카메라의 설치 높이에 근거하여 촬영 지역 및 사각 지역을 검출하도록 구성될 수 있다. 여기서 중첩 지역은 카메라가 복수 개로 구성되고, 각각의 카메라가 촬영하는 촬영 지역이 서로 겹치는 지역을 의미한다.
이 구성에서 촬영 지역, 사각 지역, 공간촬영 지역 및 중첩 지역은 표시되는 색을 달리하여 구성되거나 색 농도를 달리하여 구성될 수 있다.
방향추천모듈(253)은 지형지물이 표시된 맵(map)의 촬영 가능한 전체 면적을 계산하고, 계산된 면적에 근거하여 카메라(100)로 촬영되지 않는 지역을 최소화하는 카메라의 촬영 방향을 계산하여 추천한다.
이 방향추천모듈(253)은 촬영 영상을 감시하는 사용자(관리자)의 부재시 촬영되지 않는 지역을 최소화하여 자동 촬영되도록 하기 위한 것으로, 관리자 부재시 유용하게 적용될 수 있다.
표시장치(200)는 상기의 구성 이외에 영상을 저장하는 영상저장부, 외부와 통신하기 위한 통신모듈 등이 더 포함될 수 있다.
전방위 카메라(300)는 천장 또는 폴(pole)에 설치되어 지상을 촬영한다. 이 전방위 카메라는 전후좌우 사방을 동시에 촬영하는 것으로, 어안렌즈, 전방위렌즈 및 밀러형렌즈 등을 이용하여 구성될 수 있다. 이때 전방위 카메라(300)는 맵 전체를 수용할 수 있는 위치에 배치됨이 바람직하다.
전방위 카메라(300)로 촬영된 영상은 맵에 오버레이(over lay)되도록 표시된다. 즉, 배경으로 표시되는 맵(map)의 전경으로 하여 표시되도록 구성될 수 있다.
또는 전방위 카메라(300)로 촬영된 영상에 맵을 오버레이하여 되도록 구성될 수 있다. 이는 전방위 카메라(300)로 촬영된 영상 및 맵을 적절한 투명도를 설정하고 서로 겹치도록 하여 표시하는 것으로 가능하다.
또는 촬영되는 지역에 맵이 부재하는 경우 맵을 대신하여 전방의 카메라(300)로 촬영된 영상을 맵 인터페이스의 배경화면으로 대체될 수 있다.
이에 따라 전방위 카메라(300)로 촬영되는 영상이 맵 인터페이스에 표시되므로, 카메라(100)로 촬영되지 않는 구역에서 접근하는 물체를 전방위 카메라(300)에 의해서 촬영되고 이를 맵 인터페이스 표시되므로, 표시되는 맵 인터페이스 전체를 실시간으로 관찰할 수 있다.
또한 맵이 없는 곳에서는 전방위 카메라(300)로 촬영된 영상을 배경 맵으로 활용될 수 있으므로, 감시하고자 하는 전체 영역을 용이하게 관찰할 수 있고, 감시 지역에 구조물이 이동되거나 새로 설치되는 경우에도 이를 용이하게 확인할 수 있는 장점이 있다.
도 3 및 도 4는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 일실시예의 화면을 나타낸 것이다.
제1표시장치(201)는 카메라(100)에서 촬영된 영상이 표시된다. 또한 제2표시장치(202)는 맵 인터페이스가 표시된다.
맵에는 촬영되는 지역의 지형지물(O, Object)이 표시된다. 이때 표시되는 지형지물은 높이 및 형태 등을 포함하여 표시되도록 구성될 수 있다.
또한 카메라(100)에서 촬영되고 있는 촬영지역(IA), 촬영할 수 없는 사각지역(BA) 및 공간촬영지역(SA)이 표시된다.
이때 촬영지역(IA) 및 공간촬영지역(SA)는 카메라(100)의 패닝 각도, 틸팅 각도, 줌인/아웃의 배율 및 카메라의 설치 높이에 근거하여 표시된다.
예를 들어 틸팅 각도가 수직면에 예각을 이룰수록, 줌인/아웃의 배율이 높을수록 촬영지역(IA)은 좁아지므로 이들의 정보에 근거하여 표시된다.
또한 지형지물의 높이에 따라 지형지물의 후측도 촬영 범위에 포함되도록 구성될 수 있다.
이에 더하여, 표시되는 촬영 범위는 원거리로 갈수록 색의 농도를 가변하여 표시되도록 구성될 수 있다.
전방위 카메라(300)가 설치되는 경우, 전방위 카메라를 표시하는 제2아이콘(301)이 표시되며, 전방위 카메라(300)에 의해서 촬영된 영상이 맵에 오버레이 되도록 구성한다. 전방위 카메라(300)로 촬영된 영상이 맵에 오버레이 시켜서 표시하는 경우, 카메라(100)로 촬영되지 못하는 사각지역이 더욱 감소되는 효과가 있다. 즉, 카메라(100)로 촬영하지 못하는 사각지역의 일부를 전방위 카메라(300)의 촬영으로 보완할 수 있는 장점이 있다.
도 4의 (a)에 도시된 바와 같이, 카메라(100)가 복수 개로 구성되는 경우, 제1표시장치(201)는 복수 개의 카메라(100)에 대응하여 복수 개의 제1표시장치(201)로 구성될 수 있다. 또한 도 4의 (b)에 도시된 바와 같이, 카메라(100)는 복수 개 구비되나 제1표시장치(201)는 단일로 구성되고,제2표시장치(202)에 표시되는 아이콘(101)을 선택하는 경우 해당 카메라에서 촬영되는 영상이 제1표시장치(201)에 표시되도록 구성될 수 있다.
이때, 표시되는 아이콘(101)은 카메라의 촬영 방향과 동기화되어 표시된다.
또한 전방위 카메라(300)는 배경 전체를 확인할 수 있는 위치에 설치되어 카메라(100)의 주변상황을 촬영하고, 맵 인터페이스의 배경으로 사용될 수 있다.
도 5는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 맵 인터페이스의 선택된 지점으로 카메라(100)의 촬영방향을 제어하여 표시되는 일실시예를 나타낸 것이다.
도 5의 (a)에는 지형지물(O)의 의해서 촬영되지 못하는 사각지역(BA)이 표시된다. 이때, 카메라(100)가 설치된 직하방도 사각지역(BA)으로 포함된다. 또한 현재 카메라(100)의 촬영방향 및 촬영각도에 따른 촬영지역(IA)과 공간촬영지역(SA)가 표시된다.
이 상태에서 맵 인터페이스에 선택된 지점(C)이 인식되면, 인식부(240)에서 이를 인식하여 선택된 지점의 좌표를 검출한다.
검출된 좌표는 카메라자세제어모듈(251)을 통해 카메라의 패닝 각도, 틸팅 각도 및 줌인/아웃 배율을 계산하고, 계산된 값은 카메라(100)로 전송되어 자세조정부(120)에 입력된다.
자세조정부(120)는 입력된 값에 따라 카메라(100)의 자세를 변경한다.
카메라(100)의 자세가 변경되면, 자세검출부(130)는 변경된 자세에 대한 정보를 검출하여 표시장치(200)로 전송되고, 전송된 자세정보에 근거하여 아이콘(101)의 방향을 변경되면서 촬영지역(IA)과 공간촬영지역(SA)이 변경되어 표시(도 5의 (b))된다. 이때 선택된 지점(C)이 촬영지역(IA)의 중심에 위치하도록 구성될 수 있다.
이러한 과정은 선택뿐만 아니라 드래그(drag)에 의해서도 가능하다. 즉, 드래그는 선택의 연속으로 볼 수 있으므로, 맵 인터페이스에서 드래그를 수행하는 경우에도 마찬가지도 동작된다.
이에 따라 제2표시장치(202)에서 표시되는 맵 인터페이스를 통해 이동 물체를 따라 선택하거나 드래그하는 동작으로 카메라는 이동물체를 지속적으로 추적하여 촬영할 수 있다. 따라서 이동 물체의 추적에 따는 카메라의 방향 전환이 용이할 뿐만 아니라 이동 물체를 정확히 추적할 수 있는 장점이 있다.
또한 도 5에서 전방위 카메라(300)가 전방의 카메라를 표시하는 제2아이콘(301)의 위치에 설치된 경우에, 전방의 카메라(300)에 촬영된 영상이 맵에 오버레이되어 표시되므로, 사각지역(BA)은 없어진다.
만약, 사각지역(BA)으로 접근하는 물체가 있는 경우에는 전방위 카메라(300)에 의해서 맵 인터페이스에 표시된다. 이때, 선택 지점(C)을 이동 물체의 진행방향 전방에 위치하는 것으로, 카메라의 촬영방향을 변경하면, 이동 물체가 사각지역(BA)에서 촬영지역으로 진입함과 동시에 이동 물체를 카메라(100)에 의해서 촬영할 수 있다.
즉 전방의 카메라(300)에 의해서 촬영되는 물체는 인식이 어려울 수 있다. 그러나 카메라(100)로 촬영된 물체는 뚜렷이 촬영될 수 있다. 따라서 움직이는 물체를 미리 확인하여 카메라의 방향을 조정하는 것으로, 감시하고 하는 영역을 더욱 용이하게 관찰할 수 있는 장점이 있다.
또는 인터페이스에 표시되는 움직이는 물체를 따라 지속적으로 드래그하는 것으로 물체를 추적하여 촬영할 수 있다.
도 6은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 맵 인터페이스의 선택된 지점으로 복수 개 카메라의 촬영방향을 제어하여 표시되는 일실시예를 나타낸 것이다.
예를 들어, 도 6의 (a)에 도시되 바와 같이, 2대의 카메라가 촬영하는 영역이 다르고, 촬영되지 않는 방향에서 이동 물체가 포착되거나, 또는 다른 지점을 촬영하고자 촬영방향을 변경하고자 촬영될 지점을 선택(C)한다. 그러면 도 6의 (b)에 도시된 바와 같이, 선택 지점(C)과 제일 근접한 아이콘(102)에 대응되는 카메라가 선택 지점(C)으로 방향을 전환하여 촬영하도록 구성된다.
또는 도 6의 (c)에 도시되 바와 같이, 선택 지점(C)을 촬영할 수 있는 아이콘(101, 102)에 대응되는 카메라의 방향을 전환하여 촬영하도록 구성될 수 있다.
또는 맵 인터페이스에 표시되는 아이콘 중에서 1개의 아이콘을 선택하고, 맵 인터페이스에 선택 지점(C)이 인식되면, 선택된 아이콘에 해당하는 카메라를 선택된 지점을 촬영하도록 카메라의 촬영방향을 제어하게 구성될 수 있다.
이러한 구성은 카메라의 자세를 제어하는 카메라자세제어모듈(251)에 옵션을 지정하여 설정될 수 있다.
이에 따르면, 제어하고자 하는 카메라를 인위적으로 선택하거나 근접한 카메라만을 제어하여 촬영 지점을 용이하게 변경할 수 있다. 특히 선택된 지점이 복수의 카메라가 촬영가능한 지점이면 복수의 카메라가 선택된 지점을 동시에 촬영할 수 있으므로, 촬영지역을 다각도에서 촬영할 수 있는 장점이 있다.
도 7은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 일실시예의 화면이다.
제2표시장치(202)의 상단은 실내측 맵에 카메라로 표시되는 아이콘(101)과 전방위 카메라(300)가 표시되는 제2아이콘(301)으로 표시되고, 하단은 실외측 맵에 맵에 카메라로 표시되는 아이콘(101)과 전방위 카메라(300)가 표시되는 제2아이콘(301)으로 표시된다.
이때 각각의 카메라(C1, C2, C3, C4)는 실제 카메라(100)의 방향과 동기화되어 표시되는 것으로, 카메라(100)의 촬영 방향, 촬영 각도 및 지역을 맵 인터페이스를 통해 용이하게 알 수 있다. 이 상태에서 맵 인터페이스를 촬영 가능한 지점을 선택하면, 카메라는 선택된 지점을 촬영하도록 방향이 이동된다. 이때, 방향이 전환되는 카메라는 선택된 지점에서 가장 가까이 있는 카메라 또는 선택된 지점을 촬영할 수 있는 카메라가 선택된다.
이러한 구성은 실내 및 실외를 동시에 확인할 수 있는 장점이 있다.
또한 전방위 카메라(300)가 설치되어 영상을 수신하는 경우, 전방위 카메라(300)로 촬영된 영상은 맵의 전면 또는 후면에 오버레이되어 표시된다. 이에 전방위 카메라(300)로 대상 물체를 확인한 후에 카메라(100)를 선택하고, 아이콘(101)의 방향을 조정하는 것으로도 카메라(100)의 방향을 조정하여 대상 물체를 더욱 정밀하게 확인할 수 있다. 또는 전방위 카메라(300)에 의해 촬영되는 영상이 표시장치의 인터페이스에 표시되므로, 전방위 카메라(300)에 의해서 촬영되는 움직이는 물체를 따라 인터페이스에 드래그하는 것으로, 이동 물체를 따라 지속적으로 추적하여 촬영할 수 있다.
도 8은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 맵 인터페이스의 일실시예 화면으로, 맵 인터페이스에 나타나는 맵은 평면 형태의 지도이다.
이때, 도 8에서 C1, C2, …, C7은 카메라의 설치 설치위치에 대응하되 각각 카메라의 촬영방향과 동기화되어 표시되는 아이콘이며, OC1, OC2 및 OC3는 전방의 카메라(300)의 위치에 대응되어 표시되는 제2아이콘이다.
도면에 도시된 바와 같이, 맵은 각 구역별로 구분될 수 있고, OC1의 촬영 범위에 있는 구역을 제1구역, OC2의 촬영 범위에 있는 구역을 제2구역 및 OC3의 촬영 범위에 있는 구역을 제3구역이라 지정한다.
각각 지정된 구역의 제2아이콘을 선택하는 경우, 선택된 제2아이콘에 의해서 촬영 범위에 있는 아이콘에 해당되는 카메라는 활성화되어 선택되도록 구성될 수 있다. 즉, 전방위 카메라를 표시하는 제2아이콘을 선택하는 경우, 전방위 카메라의 촬영가능지역에 포함된 카메라(100)가 선택되며, 표시장치(200)는 선택된 카메라에서 촬영된 영상정보가 표시되도록 구성될 수 있다.
예를 들어, 도 8에서 전방위 카메라(OC1)측에서 보면 카메라(C1, C3)는 건물에 가려져 있어 촬영 영역의 밖에 있고, 카메라(C2, C4)는 전방위 카메라(300)의 촬영 영역에 존재한다. 따라서 전방위 카메라의 제2아이콘(301)을 선택하는 것으로 카메라(C2, C4)는 활성화되어 선택되고, 카메라(C2, C4)에서 촬영되는 영상이 제1표시장치(201)에 표시되도록 구성되거나, 또는 카메라(C2, C4)에서 촬영되는 영상이 도 4에 도시된 바와 같이 부분영상(PD)로 표시되게 구성될 수 있다.
마찬가지로 전방위 카메라(OC2)를 선택하게 되면 카메라(C1, C5, C6)는 활성화되어 선택되며, 전방위 카메라(OC3)를 선택하게 되면 카메라(C3, C7)는 활성화되어 선택된다.
이에 따라 전방위 카메라(300)로 촬영되는 영상을 간접적으로 확인하고 전방위 카메라(300)의 촬영 영역에 있는 카메라(100)들을 선택하여 감시 대상물을 더욱 효과적으로 확인하여 감시할 수 있는 장점이 있다.
도 9는 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 3차원 맵 인터페이스의 일실시예 화면이다.
도면에 도시된 바와 같이, 제2표시장치(202)에 표시되는 맵이 3차원인 경우, 전방위 카메라(300)를 표시하는 제2아이콘(301)과 카메라(100)를 표시하는 아이콘(101)이 표시된다. 맵이 3차원으로 표시되는 경우, 전방위 카메라(300)에 촬영 범위에 있는 카메라(100)가 어디에 어느 방향을 촬영하고 있는지를 입체적으로 표현할 수 있으므로, 더욱 실제에 근접한 대상 물체를 감시할 수 있다.
도 9에서, 카메라(100)로 표시되는 아이콘(101)을 선택하는 경우, 제1표시장치에 선택된 아이콘에 대응하는 카메라(100)의 촬영 영상이 표시되도록 구성될 수 있음은 물론이다.
또한 아이콘이 표시되는 맵 인터페이스의 일 지점(point)를 선택하는 것으로, 가장 근접한 카메라 또는 촬영 가능한 카메라는 촬영 방향을 선택된 지점으로 이동하여 촬영되도록 구성된다.
도 10은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 카메라의 의해 촬영지역, 사각 지역, 공간촬영지역 및 중첩 지역을 표시하는 인터페이스 화면이다.
첨부된 도면에 도시된 바와 같이, 아이콘(101)으로 표시되는 카메라(100)의 촬영 방향 및 카메라의 화각 등에 근거하여 촬영지역(IA), 촬영할 수 없는 사각지역(BA) 및 각각의 카메라의 의해 촬영지역이 겹치는 중첩지역(OA) 및 공간촬영지역(SA)이 표시된다.
이 구성에서 촬영 지역, 사각 지역 및 중첩 지역은 표시되는 색을 달리하여 구성되거나 색 농도를 달리하여 구성될 수 있음은 물론이다.
도 11은 본 발명에 따른 카메라 제어용 맵 인터페이스 시스템에서 표시장치에 표시되는 카메라 아이콘의 주변에 표시되는 상태정보 인터페이스를 나타낸 것이다.
표시되는 상태정보 인터페이스는 카메라(100)에 대응되는 아이콘(101)의 주변 또는 아이콘(101)을 선택하였을 경우 표시되도록 구성되며, 카메라의 패닝, 틸팅 및 줌인/아웃을 제어하는 인터페이스를 출력하여 표시된다.
여기서 카메라의 패닝을 조절하기 위한 인터페이스(231)는 아이콘(101)의 주변부에 화살표로 표시될 수 있으며, 틸팅을 조절하기 위한 인터페이스(232)는 아이콘(101)의 주변부에 삼각형 버튼으로 구성될 수 있고, 줌인/아웃을 조절하기 위한 인터페이스(233)은 아이콘(101)의 주변부에 +, - 버튼으로 구성될 수 있다.
또한 아이콘(101)의 주변에 방향추천모듈(253)에서 계산된 촬영되지 않는 지역을 최소화하는 촬영 방향 인터페이스(234)가 표시될 수 있다. 이에 표시되는 촬영 방향 인터페이스(234)를 인지하고 카메라의 패닝을 조절하기 위한 인터페이스(231)를 조작하는 것으로 카메라의 최적 촬영각을 조절할 수 있다. 그러나 사용자가 인위적으로 조절하는 경우 정확한 촬영각을 조절할 수 없을 수 있으므로, 최적자세변동 아이콘(237)을 구비하고, 이 최적자세변동 아이콘(237)을 선택하는 것으로 계산된 최적 자세로 카메라의 자세를 변동시키도록 구성될 수 있다.
또한 카메라의 높이를 조절하는 스크롤바(235)가 표시될 수 있다.
여기서 방향추천모듈(253)에서 계산된 카메라의 방향은 단순히 촬영 가능한 면적에 의해서 계산될 수 있다. 따라서 사용자는 임으로 카메라가 촬영되어야 하는 방향 또는 집중적으로 촬영되어야 하는 방향을 설정하도록 구성될 수 있다.
예를 들어, 사용자(관리자)가 카메라의 촬영 방향을 임의로 조정하고, 일정 시간 동안 자리를 이탈하는 경우, 방향이 전환된 카메라는 사용자가 임의로 설정된 방향을 촬영하거나 최적의 촬영 방향을 촬영하도록 설정할 필요성이 있다.
이에 인터페이스는 카메라를 초기 또는 최적의 설정자세로 복귀시키는 설정자세복귀아이콘(236)이 표시될 수 있다.
즉, 설정자세복귀아이콘(236)을 선택하는 것으로, 카메라의 초기위치(설정위치)로 촬영방향이 이동된다. 이에 따라 카메라는 초기 위치의 설정된 세팅으로 전환을 빠르게 이루어진다.
본 발명에 따른 카메라 제어용 맵 인터페이스 시스템은 지형지물 맵 상에 카메라가 촬영하는 방향, 각도, 지역을 표시함으로써, 해당 카메라가 어느 지역을 촬영하고 있는지를 신속히 인지할 수 있어, 주변의 지형지물을 알 수 없더라도 촬영의 사각지대에 어떤 지형지물이 있는지를 용이하게 확인할 수 있는 효과가 있다.
또한 맵 인터페이스를 선택하는 것만으로도 통하여 카메라의 촬영지역(팬/틸팅/줌인/줌아웃)을 제어할 수 있으므로, 조작이 용이하며 촬영되는 감시 영역을 신속히 변경할 수 있는 효과가 있다.
또한 전방의 카메라가 더 설치되는 경우 전방위 카메라로 촬영되는 영상이 맵에 오버레이 되므로, 이동 물체를 추적하면서 촬영할 수 있어 감시 영역에 대한 촬영의 신뢰성을 높일 수 있다.
한편, 상기에서 도 1 내지 도 11을 이용하여 서술한 것은, 본 발명의 주요 사항만을 서술한 것으로, 그 기술적 범위 내에서 다양한 설계가 가능한 만큼, 본 발명이 도 1 내지 도 11의 구성에 한정되는 것이 아님은 자명하다.
100: 카메라 101, 102: 아이콘
110: 촬영부 120: 자세조정부
130: 자세검출부 140: 제1통신부
150: 메모리부 200: 표시장치
201: 제1표시장치 202: 제2표시장치
210: 제2통신부 220: 맵저장부
230: 인터페이스부
231, 232, 233, 234, 235, 236, 237: 인터페이스
240: 인식부 250: 정보처리부
251: 카메라 자세조정모듈 252: 촬영지역 검출모듈
253: 방향추천모듈 300: 전방위 카메라
301: 제2아이콘
110: 촬영부 120: 자세조정부
130: 자세검출부 140: 제1통신부
150: 메모리부 200: 표시장치
201: 제1표시장치 202: 제2표시장치
210: 제2통신부 220: 맵저장부
230: 인터페이스부
231, 232, 233, 234, 235, 236, 237: 인터페이스
240: 인식부 250: 정보처리부
251: 카메라 자세조정모듈 252: 촬영지역 검출모듈
253: 방향추천모듈 300: 전방위 카메라
301: 제2아이콘
Claims (23)
- 카메라의 자세에 대한 자세정보와 촬영된 영상정보를 출력하는 카메라; 및
상기 카메라가 설치된 지역의 맵(map)을 배경화면으로 표시하는 맵(map) 인터페이스에 상기 카메라로부터 출력되는 카메라 자세정보에 근거하여 상기 카메라의 설치 위치에 대응되는 상기 카메라를 아이콘으로 표시하는 표시장치; 를 포함하는 것으로,
상기 표시장치는 상기 맵 인터페이스에 선택된 지점을 촬영하도록 상기 카메라의 촬영방향을 제어하며,
상기 아이콘은,
상기 카메라의 촬영 방향과 동기화되어 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 삭제
- 청구항 1에 있어서,
상기 아이콘은,
상기 카메라의 촬영 각도가 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 아이콘 주변 또는 상기 아이콘을 선택하는 경우,
상기 카메라의 상태정보를 나타내는 상태정보 인터페이스가 표시되며, 상기 표시되는 상태정보 인터페이스를 조작하는 것으로 상기 카메라의 자세를 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 4에 있어서,
상기 상태정보 인터페이스는,
상기 카메라의 패닝, 틸팅, 줌인/아웃(zoom-in & out) 및 카메라의 높이 중에서 선택된 하나 이상인 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 표시장치는,
상기 맵 인터페이스에 표시되는 아이콘을 선택하는 경우, 상기 아이콘 주변에 상기 카메라에서 촬영된 영상을 부분영상으로 표시하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵은,
2D 또는 3D 형태의 그림, 도면, 사진, 지도, 동영상 중에서 선택된 하나 이상인 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵에는,
위치식별부호가 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 8에 있어서,
상기 위치식별부호는,
주소, 건물명, 전화번호, 상호, 기관명 및 좌표 중에서 선택된 하나 이상인 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 8에 있어서,
상기 표시장치는 상기 위치식별부호가 입력되면, 상기 위치식별부호에 해당하는 지점을 촬영하도록 상기 카메라의 촬영방향을 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵을 대신하여 전방위카메라로 촬영된 영상을 배경화면으로 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
전방위카메라로 촬영된 영상이 맵에 오버레이(over lay)되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵이 전방위카메라로 촬영된 영상에 오버레이(over lay)되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵 인터페이스는,
상기 카메라의 위치 및 자세정보에 근거하여 촬영할 수 없는 사각지역이 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵 인터페이스는,
방향추천모듈에서 상기 카메라로 촬영 가능한 전체 면적을 계산하고, 계산된 면적에 근거하여 촬영되지 않는 지역을 최소화하는 추천된 방향으로 상기 카메라의 자세를 변동시키는 최적자세변동아이콘이 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 맵 인터페이스는,
상기 카메라를 설정자세로 자세를 복귀시키는 설정자세복귀아이콘이 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서
상기 맵 인터페이스는,
상기 카메라의 자세정보에 근거하여 촬영지역이 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서
상기 맵 인터페이스는,
상기 카메라의 자세정보에 근거하여 공간촬영지역이 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 1에 있어서,
상기 카메라는 복수 개로 구성되며,
상기 맵 인터페이스에 표시되는 아이콘은 복수 개의 상기 카메라에 대응되어 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 19에 있어서,
상기 표시장치는,
상기 맵 인터페이스가 선택되면, 상기 복수 개의 카메라 중에서 상기 선택된 지점에서 근접된 위치의 촬영 가능한 카메라를 상기 맵 인터페이스의 선택된 지점을 촬영하도록 상기 카메라의 촬영방향을 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 19에 있어서,
상기 표시장치는,
상기 맵 인터페이스가 선택되면, 상기 복수 개의 카메라 중에서 상기 선택된 지점을 촬영할 수 있는 카메라를 상기 맵 인터페이스의 선택된 지점을 촬영하도록 상기 카메라의 촬영방향을 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 19에 있어서,
상기 표시장치는,
상기 맵 인터페이스에 표시되는 아이콘을 선택하고, 상기 맵 인터페이스가 선택되면, 상기 선택된 아이콘에 해당하는 카메라를 상기 선택된 지점을 촬영하도록 상기 카메라의 촬영방향을 제어하는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
- 청구항 19에 있어서,
상기 맵 인터페이스는,
상기 카메라의 위치 및 자세정보에 근거하여 다른 카메라와 촬영지역이 겹치는 중첩지역이 표시되는 것을 특징으로 하는 카메라 제어용 맵 인터페이스 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130067574A KR101297294B1 (ko) | 2013-06-13 | 2013-06-13 | 카메라 제어용 맵 인터페이스 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130067574A KR101297294B1 (ko) | 2013-06-13 | 2013-06-13 | 카메라 제어용 맵 인터페이스 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101297294B1 true KR101297294B1 (ko) | 2013-08-14 |
Family
ID=49220681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130067574A KR101297294B1 (ko) | 2013-06-13 | 2013-06-13 | 카메라 제어용 맵 인터페이스 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101297294B1 (ko) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180013196A (ko) * | 2016-07-29 | 2018-02-07 | 한화테크윈 주식회사 | 뷰 모드를 추천하는 모니터링 시스템 |
WO2018070584A1 (ko) * | 2016-10-13 | 2018-04-19 | 한화테크윈 주식회사 | 감시 카메라의 제어 방법 및 이 방법을 채용한 감시 시스템 |
GB2560128A (en) * | 2016-02-04 | 2018-08-29 | Mitsubishi Electric Corp | Installation position determination device, installation position determination method, and installation position determination program |
KR20180096170A (ko) * | 2017-02-20 | 2018-08-29 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서 360도 영상 디스플레이 방법 |
EP3479565A4 (en) * | 2016-08-05 | 2019-07-10 | Zhejiang Dahua Technology Co., Ltd | SYSTEMS AND METHOD FOR VIDEO PROCESSING |
KR20210001318A (ko) * | 2019-06-27 | 2021-01-07 | 한국건설기술연구원 | 지능형 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체 |
EP4373078A1 (en) * | 2022-11-21 | 2024-05-22 | Fusus, LLC. | Emergency dispatch system with video security camera feeds augmented by 360-degree static images |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100815234B1 (ko) * | 2006-06-13 | 2008-03-19 | (주)남선지티엘 | 카메라 제어용 그래픽유저인터페이스 제어장치 및 방법 |
KR20110001093A (ko) * | 2009-06-29 | 2011-01-06 | 엘지전자 주식회사 | 이동 단말기의 영상 표시 방법 및 그 장치 |
-
2013
- 2013-06-13 KR KR1020130067574A patent/KR101297294B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100815234B1 (ko) * | 2006-06-13 | 2008-03-19 | (주)남선지티엘 | 카메라 제어용 그래픽유저인터페이스 제어장치 및 방법 |
KR20110001093A (ko) * | 2009-06-29 | 2011-01-06 | 엘지전자 주식회사 | 이동 단말기의 영상 표시 방법 및 그 장치 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2560128B (en) * | 2016-02-04 | 2019-12-04 | Mitsubishi Electric Corp | Installation position determining device, installation position determining method, and installation position determining program |
GB2560128A (en) * | 2016-02-04 | 2018-08-29 | Mitsubishi Electric Corp | Installation position determination device, installation position determination method, and installation position determination program |
KR102518863B1 (ko) | 2016-07-29 | 2023-04-06 | 한화비전 주식회사 | 뷰 모드를 추천하는 모니터링 시스템 |
KR20180013196A (ko) * | 2016-07-29 | 2018-02-07 | 한화테크윈 주식회사 | 뷰 모드를 추천하는 모니터링 시스템 |
US10931870B2 (en) | 2016-08-05 | 2021-02-23 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for video processing |
EP3479565A4 (en) * | 2016-08-05 | 2019-07-10 | Zhejiang Dahua Technology Co., Ltd | SYSTEMS AND METHOD FOR VIDEO PROCESSING |
CN109691081B (zh) * | 2016-10-13 | 2021-06-08 | 韩华泰科株式会社 | 用于控制监控摄像机的方法和采用该方法的监控系统 |
CN109691081A (zh) * | 2016-10-13 | 2019-04-26 | 韩华泰科株式会社 | 用于控制监控摄像机的方法和采用该方法的监控系统 |
US11140306B2 (en) | 2016-10-13 | 2021-10-05 | Hanwha Techwin Co., Ltd. | Method for controlling monitoring camera, and monitoring system employing method |
WO2018070584A1 (ko) * | 2016-10-13 | 2018-04-19 | 한화테크윈 주식회사 | 감시 카메라의 제어 방법 및 이 방법을 채용한 감시 시스템 |
KR20180096170A (ko) * | 2017-02-20 | 2018-08-29 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서 360도 영상 디스플레이 방법 |
KR102676278B1 (ko) * | 2017-02-20 | 2024-06-19 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서 360도 영상 디스플레이 방법 |
KR20210001318A (ko) * | 2019-06-27 | 2021-01-07 | 한국건설기술연구원 | 지능형 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체 |
KR102274867B1 (ko) * | 2019-06-27 | 2021-07-09 | 한국건설기술연구원 | 지능형 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체 |
EP4373078A1 (en) * | 2022-11-21 | 2024-05-22 | Fusus, LLC. | Emergency dispatch system with video security camera feeds augmented by 360-degree static images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101297294B1 (ko) | 카메라 제어용 맵 인터페이스 시스템 | |
US10237478B2 (en) | System and method for correlating camera views | |
US7750936B2 (en) | Immersive surveillance system interface | |
KR101695249B1 (ko) | 감시 영상 표시 방법 및 시스템 | |
US7551200B2 (en) | Camera controller and zoom ratio control method for the camera controller | |
US20060028550A1 (en) | Surveillance system and method | |
KR101778744B1 (ko) | 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 | |
JP2020005146A (ja) | 出力制御装置、表示端末、情報処理装置、移動体、遠隔制御システム、出力制御方法、プログラムおよび撮影制御装置 | |
US10397474B2 (en) | System and method for remote monitoring at least one observation area | |
KR20120012259A (ko) | 로드뷰 제공 장치 및 방법 | |
KR20170044451A (ko) | 헤드 마운트 디스플레이를 이용한 원격지 카메라 제어 시스템 및 방법 | |
KR101839456B1 (ko) | 사물 인터넷 기반의 실외형 자가촬영사진지원 카메라 시스템 | |
TWI556651B (zh) | 具攝影機自動調派功能之3d影像監控系統及其監控方法 | |
KR20100121086A (ko) | 음원인식을 이용한 촬영영상 추적 ptz 카메라 운용시스템 및 그 방법 | |
WO2006017402A2 (en) | Surveillance system and method | |
JP6517515B2 (ja) | 監視システム | |
KR101738514B1 (ko) | 어안 열상 카메라를 채용한 감시 시스템 및 이를 이용한 감시 방법 | |
KR20120125037A (ko) | 감시 시스템 제어 방법 | |
JP7356293B2 (ja) | 電子機器およびその制御方法 | |
KR101572800B1 (ko) | 3차원 공간 모델에 대한 카메라 제어 시스템 | |
CN106856558B (zh) | 具有摄影机自动调派功能的3d影像监控系统及其监控方法 | |
JP2020202503A (ja) | 撮像装置、コンピュータプログラムおよび記憶媒体 | |
JP6630096B2 (ja) | 表示制御装置及びその制御方法、コンピュータプログラム | |
JP2006115080A (ja) | 監視カメラ制御装置および監視カメラシステム | |
KR101048182B1 (ko) | 카메라 제어 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160627 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20181211 Year of fee payment: 10 |