KR100940142B1 - 몰입형 감시를 제공하기 위한 방법 및 장치 - Google Patents

몰입형 감시를 제공하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR100940142B1
KR100940142B1 KR1020047006666A KR20047006666A KR100940142B1 KR 100940142 B1 KR100940142 B1 KR 100940142B1 KR 1020047006666 A KR1020047006666 A KR 1020047006666A KR 20047006666 A KR20047006666 A KR 20047006666A KR 100940142 B1 KR100940142 B1 KR 100940142B1
Authority
KR
South Korea
Prior art keywords
scene
view
image
camera
model
Prior art date
Application number
KR1020047006666A
Other languages
English (en)
Other versions
KR20040053257A (ko
Inventor
아이딘 아르파
케이쓰 한나
라케쉬 쿠마르
슈펀 사마라세케라
하프리트 샤니
마노즈 애가왈
데이비드 니스터
스티븐 슈
Original Assignee
앨-쓰리 커뮤니케이션즈 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 앨-쓰리 커뮤니케이션즈 코포레이션 filed Critical 앨-쓰리 커뮤니케이션즈 코포레이션
Publication of KR20040053257A publication Critical patent/KR20040053257A/ko
Application granted granted Critical
Publication of KR100940142B1 publication Critical patent/KR100940142B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

몰입형 감시를 제공하기 위한 방법 및 장치(102)로서, 원격의 경비원(122)이 장면의 3차원 개념적 뷰를 제공하기 위하여 모델 상으로 랜더링되는 여러 이미지 소스들(108, 110, 112, 114)을 사용하여 장면을 모니터할 수 있다. 뷰 선택기(120)를 사용하여, 상기 경비원은 동적으로 개념적 모델상으로 디스플레이되어질 카메라 뷰를 선택할 수 있고, 장면의 여기저기를 돌아다닐 수 있으며, 이동하는 객체들을 식별하고 그 이동 객체들에 대한 가장 좋은 뷰를 선택할 수 있다.

Description

몰입형 감시를 제공하기 위한 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING IMMERSIVE SURVEILLANCE}
본 발명은 일반적으로 감시 시스템(surveillance system), 보다 구체적으로는 몰입형 감시를 제공하기 위한 방법 및 장치에 관한 것이다.
감시 또는 시각화 디스플레이의 목적은 통상적으로 사용자로 하여금 장면(scene)내에서 상황을 완전히 인식하면서 그 장면을 모니터하고 관찰하는 것이다. 통상적인 감시 또는 시각화 시스템들은 사용자에게 하나의 디스플레이 상에서 하나 이상의 카메라로부터의 비디오를 제공한다. 이러한 디스플레이는 사용자로 하여금 장면의 다른 부분을 관찰할 수 있게 하거나 또는 서로 다른 시점에서 장면의 동일한 부분을 관찰할 수 있게 한다. 예를 들어, 통상적인 감시 디스플레이는 모니터상에 4×4 그리드(grid)로 나타나는 장면의 16개 비디오를 갖는다. 이미지를 식별하기 위하여, 통상적으로 비디오 세그먼트 아래에 디스플레이되는 고정 텍스트 주석을 이용해 각 비디오에 라벨이 붙여진다. 예를 들어, "로비" 또는 "정문"이란 텍스트로 표시될 수 있다. 만일 주의를 끌만한 사건이 하나의 특정 비디오에서 관찰되면, 상기 라벨이 그 장면의 움직임(activity) 위치를 알아내는 데 사용될 수 있다.
감시 및 시각화를 위한 이러한 접근은 수년 동안 널리 사용되어 왔다. 그러나, 이러한 접근에 대하여는 소정의 기본적인 문제점들이 있다.
첫째로, 주의를 끌만한 사건이 하나의 특정 비디오에서 발생한 경우, 사용자는 장면의 맵 또는 3D 모델을 참조하거나 기억하지 않고서는 그 움직임이 그 장면의 다른 장소들과 어떻게 관련되는지를 알 수 없다. 예를 들어, 어떤 움직임이 "엘리베이터 1" 근처에서 관찰되고 사용자는 경비원이 현재 "계단 5"에 있음을 알고 있다면, 맵 또는 3D 모델 없이는 사용자는 경비원이 개입하기에 그 움직임으로부터 매우 가까이에 있는지 또는 멀리에 있는지 알 수 없을 것이다. 문서 또는 컴퓨터 상에서 맵 또는 3D 모델을 참조하는 과정은 카메라 뷰(view)와 관련하여 맵 또는 모델에 사람이 관여하기 때문에 통상적으로 시간 낭비적이며 에러가 생기기 쉽다. 맵 또는 3D 모델을 상기하는 과정 역시 에러가 생기기 쉬우며, 다수의 카메라가 사용되거나 현장이 넓은 경우에는 통상적으로 불가능하다.
둘째로, 만일 주의를 끌만한 사건이 어떤 비디오에서 발생한 후, 움직임이 그 비디오의 시야로부터 하나의 특정 방향으로 빠져나간다면, 사용자가 상기 움직임의 새로운 장소를 예측할 수 있는 방법은 오직 두 가지뿐이다. 첫째로, 사용자가 고정 좌표계(예를 들어, 나침반 방향(compass direction))에 대한 카메라의 방향(지시 방향)을 기억할 수 있다. 둘째로, 사용자가 비디오 내의 랜드마크(landmark)를 인식할 수 있고 장면의 맵 또는 3D 모델을 기억하거나 참조함으로써 고정 좌표계에 대한 카메라의 대략적인 방향을 결정하기 위해 그 랜드마크를 사용할 수 있다. 움직임의 새로운 장소를 예측하는 이러한 두 가지 방법들은 에러가 생기기 쉬우며, 이는 통상적으로 각 카메라가 설치시에 어떻게 장착되었는가에 따라 카메라별로 매우 다양하고 서로 다른 다수의 임의의 좌표계들에 대하여 카메라의 뷰들이 보여지기 때문이다. 보다 많은 카메라들이 시스템에 추가될수록, 사용자가 카메라들의 방향을 기억하거나 장면에서 랜드마크를 인식하기가 더욱 어려워진다. 또한, 장면들 중 소정의 부분들은 특징적인 랜드마크를 전혀 포함하지 않을 수도 있다.
셋째로, 보다 많은 비디오들이 스크린에 디스플레이될수록, 그 비디오들을 디스플레이에 맞추기 위하여 각 비디오의 해상도가 낮추어져야 한다. 이는 비디오내에서 주의를 끌만한 임의의 사건의 세부사항들을 관찰하기 어렵게 만든다. 이 문제점에 대한 현재의 해결책은 하나의 선택된 비디오를 고해상도로 보여주는 추가적인 디스플레이를 구비하거나, 또는 다수의 저해상도 비디오들을 보여주는 뷰와 고해상도로 1개의 비디오를 보여주는 뷰 사이에서 디스플레이를 전환하는 것이다. 그러나, 이러한 접근의 문제점은 비디오들이 1개의 고해상도 비디오에 집중하고 있는 동안에는 사용자가 다른 비디오들에서 발생하는 임의의 움직임을 놓칠 것이라는 점이다.
따라서, 당업계에서는 사용자에게 장면에 대한 3차원 전후관계 뷰(contextual view)를 제공하는 몰입형 감시 시스템을 제공하기 위한 방법 및 장치에 대한 요구가 있다.
본 발명은 몰입형 감시를 제공하기 위한 방법 및 장치이며, 장면에 대한 3차원 전후관계 뷰(three-dimensional contextual view)를 제공하기 위하여 3차원 모델 상에 랜더링되는(rendered) 다양한 이미지 소스들을 사용하여 원격 사용자가 장면을 모니터할 수 있다. 감시 시스템은 비디오를 제공하는 다수의 카메라 및 그 비디오를 장면에 대한 3차원(3D) 모델로 적용시키기 위한 이미지 프로세서를 포함한다. 랜더링된 모델/비디오 결합은 사용자가 몰입될 수 있는, 장면에 대한 3D 전후관계 뷰를 제공한다. 뷰 선택기(view selector)를 사용하여, 사용자는 디스플레이될 특정 뷰를 전후관계 모델로부터 동적으로 선택할 수 있으며, 장면에 대해 가상의 워크 쓰루(walk through)를 수행할 수 있으며, 이동 객체들을 식별하고 그 이동 객체들에 대한 최상의 뷰를 선택할 수 있다.
위에서 상술된 본 발명의 특징들이 얻어지고 상세하게 이해될 수 있도록 하는 방법으로서, 위에서 간략히 요약된 본 발명에 대한 보다 자세한 설명이 첨부 도면에서 도시되는 실시예들을 참조로 이루어질 것이다.
그러나, 첨부 도면은 단지 본 발명의 전형적인 실시예들만을 도시하는 것이며 따라서 본 발명의 보호범위를 제한하는 것으로 고려될 수 없고, 이는 본 발명이 균등하게 효과적인 다른 실시예들을 허용할 수 있기 때문이다.
도 1은 본 발명의 높은 레벨의 블록 다이어그램을 도시한다;
도 2는 본 발명에 따른 감시 시스템에 대한 상세한 블록 다이어그램을 도시한다;
도 3은 본 발명의 작동에 대한 플로우 차트(flow chart)를 도시한다;
도 4는 본 발명에 따라, 이동 객체들을 식별하기 위한 프로세스을 도시한다;
도 5는 본 발명에 따라, 이동 객체들에 아이콘들을 할당하기 위한 프로세스를 도시한다;
도 6은 본 발명에 따라 모니터될 수 있는 장면 내에서의 예시적인 복도구조에 대한 조감도이다;
도 7은 도 6의 복도구조 내에서 이동 객체들을 모델링하기 위하여 사용되는 디스플레이의 예들을 도시한다;
도 8은 본 발명에 의하여 식별된 이동 객체의 합성 뷰에 대한 디스플레이를 도시한다;
도 9는 본 발명의 대안적인 실시예에 대한 블록 다이어그램을 도시한다;
도 10은 도 9의 실시예의 방법에 대한 플로우 차트를 도시한다;
도 11A, 11B, 11C 그리고 11D는 도 9의 실시예의 작동예를 도시한다.
도 1은 간단한 복도 장면(100) 내의 움직임을 모니터하기 위하여 적용된 경우의 감시 시스템(102)에 대한 블록 다이어그램을 도시한다. 복도 장면(100)은 교차하여 "T"형태를 형성하는 제 1 복도(104) 및 제 2 복도(106)를 포함한다. 복도 구조(100)는 4개의 카메라들(108, 110, 112 및 114)에 의하여 모니터된다. 이러한 카메라들은 이미지 프로세서(116)에 결합된다. 그 이미지 프로세서는 이미지 디스플레이(118)(예를 들어, 비디오 모니터)상에 표시하기 위한 이미지를 생성하기 위해서 카메라들(108, 110, 112 및 114)로부터의 이미지를 프로세싱한다. 여러 카메라로부터 랜더링된 특정 뷰는 뷰 선택기(120)를 사용하여 선택가능하다. 일반적으로 사용자, 예를 들어 경비원(122)은 장면(100)을 포함하는 시설(facility)에 위치할 수도 있고 장면(100)으로부터 멀리 떨어진 곳에 위치할 수도 있다. 이하에서 설명되겠지만, 장면은 3차원 컴퓨터 모델로서 모델링되고 카메라들(108, 110, 112 및 114)로부터의 이미지는 복도 장면(100)에 대한 3차원 전후관계 뷰를 경비원(122)에게 제공하기 위하여 모델상에 오버레이(overlay)된다. 경비원은 뷰 선택기를 조정함으로써 장면에 대해 가상 순찰을 할 수 있고, 장면 내에서 이동하는 객체들을 식별하고 분리할 수 있으며, 카메라 위치들에서 또는 카메라들 사이의 가상 시점(virtual viewpoint)에서 장면을 관찰할 수 있고, 장면내에서 이동하는 객체들 또는 관찰될 다른 위치들을 식별하기 위하여 조감(bird's eye)하는 시점에서 장면을 관찰할 수 있다.
도 6은 도 1의 장면(100)에 대한 조감도를 도시한다. 장면, 특히 복도연결부가 카메라들의 다수의 뷰들에 의하여 커버되도록 카메라들이 위치된다. 각 카메라(108, 110, 112 및 114)는 각자 특정 관찰영역(602, 604, 606 및 608)을 갖는다. 이하에서 설명되겠지만, 감시 상황에 경비원을 몰입시키는, 장면의 전후관계 모델을 경비원이 관찰하도록 구조(100)에 대한 3차원 모델이 각 카메라들(108, 110, 112 및 114)로부터 수집된 이미지로 "드레이프(drape)"될 것이다. 일반적으로 카메라들(108, 110, 112 및 114)은 장면의 가능한 많은 부분을 커버하도록 위치되며, 모델이 여러 이미지들을 서로에 대해 정렬할 수 있도록 카메라 뷰들이 약간 겹친다. 그러나, 본 발명의 감시 시스템은 카메라 뷰들이 겹쳐질 필요없이 장면의 모든 이미지들을 정렬하기 위한 좌표계로서 장면 모델을 사용한다.
도 2는 본 발명의 감시 시스템(102)에 대한 블록 다이어그램을 도시한다. 시스템(102)은 카메라 어셈블리(212), 이미지 프로세서(116), 모델 업데이트 소스(model update source)(200), 뷰 선택기(120) 그리고 이미지 디스플레이(118)를 포함한다. 카메라 어셈블리는 멀티플렉서(202)에 결합된 다수의 카메라들(108, 110, 112 및 114)을 포함한다. 카메라 어셈블리(212)는 감시될 빌딩들이나 영역들 전체를 커버할 수 있도록 임의의 개수의 카메라들이 사용될 수 있으며 다수의 멀티플렉서들에 결합될 수 있다. 멀티플렉서(202)는 스크린을 4개의 사분면으로 분할하고 각 사분면에 하나의 스트림을 삽입시킴으로써, 예를 들어, 4개의 카메라로부터의 비디오 스트림(video stream)들을 결합시킨다. 비디오 프레임들의 스트림은 이미지 프로세서(116)에 결합된다. 이미지 프로세서(116)는 프레임 캡쳐 회로(frame capture circuit)(204), 프레임 스플리터(frame splitter)(206), 이미지 랜더링 프로세서(208) 및 3D 모델 생성기(210)를 포함한다. 본 발명에 따른 이미지 프로세서로 사용될 수 있는 컴퓨터 시스템의 한 예로서, 듀얼 프로세서(dual processor), 듀얼 PCI 버스, 3개의 펜티엄 4 프로세서, INVIDIA GeForce3 GPU 기반 비디오 카드 및 4개의 프레임 캡쳐 회로들를 포함하는 범용 컴퓨터 등이 있다.
프레임 캡쳐 회로(204)는 공지된 방법으로 비디오의 각 프레임을 캡쳐하고 일시적으로 메모리에 그 정보를 저장한다. 프레임 스플리터(206)는 각 카메라로부터의 비디오 신호가 독립적으로 프로세싱되고 저장될 수 있도록 비디오 스트림들을 디먹스(demux)하는 데에 사용된다. 3D 모델 생성기(210)와 이미지 랜더링 프로세서(208)는 장면에 대한 전후관계 뷰를 생성하기 위하여 협력한다. 장면(100)에 대한 3D 모델은 연역적으로 와이어 프레임(wire frame) 또는 평면 컴퓨터 모델로서 생성된다. 모델 업데이트 소스(200)는 3D 모델을 제공한다. 랜더링될 모델의 뷰는 뷰 선택기(120)에 의하여 식별된다. 통상적으로, 뷰 선택기는 경비원이 장면 내의 특정 객체들을 줌인 또는 줌아웃할 수 있을 뿐만 아니라 장면을 순찰할 수 있고, 필요하다면 장면에 대한 여러 뷰를 선택할 수 있도록 조이스틱(joy stick), 마우스 포인터(mouse pointer), 그리고 줌 콘트롤(zoom control)을 포함한다. 일단 모델의 뷰가 생성되면, 그 모델은 이미지 랜더링 프로세서에 결합되는 바, 상기 랜더링 프로세서에서는 카메라들로부터의 여러 비디오 이미지들이 상기 모델들에 정렬되도록 변형되고 상기 모델상으로 랜더링되고 드레이프(drape)된다. 상기 뷰를 포함하는 모델의 특정 뷰가 디스플레이된다.
모델의 좌표계는 비디오 이미지를 정렬하기 위하여 사용된다. 사용자가 맵 또는 장면의 3D 모델을 참조하거나 기억하지 않고도 용이하게 어떻게 어느 한 비디오에서의 움직임을 다른 비디오에서의 움직임과 관련시킬 것인가를 결정할 수 있도록 비디오 이미지들은 공통 좌표계에 밀접하게 정렬된다. 예를 들어, 주의를 끌만한 사건이 하나의 카메라 뷰로부터의 비디오에서 발생한 후, 움직임이 그 카메라의 뷰 범위에서부터 하나의 특정 방향으로 빠져나간다면, 사용자는 용이하게 다른 카메라의 뷰 내에서 움직임의 새로운 위치를 예상할 수 있다. 카메라들로부터의 모든 비디오가 정렬되기 때문에 사용자는 카메라의 방향을 기억하지 않고도 이를 행할 수 있다. 예를 들어, 움직임이 어느 한 카메라 뷰로부터 오른쪽으로 빠져나간다면, 사용자는 제 1 뷰의 오른쪽에 디스플레이되는 뷰들을 갖는 카메라들로부터 움직임이 다시 캡쳐되는 것을 보는 것을 기대할 수 있다. 3D 모델로부터 공통의 좌표계를 사용함으로써, 카메라들로부터의 비디오 이미지의 다수의, 비겹침(non overlapping) 부분들이 모델에 정렬될 수 있다. 본 발명의 감시 시스템에 의하여 사용될 수 있고 이미지를 3D 모델에 랜더링하기 위한 하나의 특정 프로세스는 2001년 3월 7일에 출원된 미국 특허출원 제09/800,550호(Attorney docket SAR 13825)에서 설명되며 참조문으로 여기에 통합된다. 이미지를 3D 모델에 랜더링하는 다른 프로세스가 사용될 수 있다.
도 3은 프로세스(300)의 플로우 다이어그램(300)을 도시하는 바, 상기 프로세스에 의하여 본 발명의 감시 시스템(102)이 작동한다. 단계(302)에서, 카메라들로부터의 입력 이미지는 이미지 프로세서에 결합된다. 단계(304)에서, 사용자는 장면의 뷰를 선택하고, 그 뷰 정보는 모델 생성 단계(306)에 결합되는데, 상기 단계(306)는 뷰 선택 단계(304)에서 선택된 위치로부터 보여지는 모델을 묘사한다. 장면에 대한 전체 모델은 연역적으로 여러 공지된 모델링 기술을 사용하여 랜더링된다. 모델 생성 단계(306)는 선택된 시점으로부터의 모델을 생성하는데 사용된다. 모델을 생성시키기 위하여, 장소 또는 빌딩의 아웃라인이 3D 디지털 포맷으로 인코딩된다. 아웃라인 모델은 장소 또는 빌딩의 경계 및 복도들, 거리들, 빌딩들 등과 같은 중요 지역의 아웃라인을 포함한다. 또한 아웃라인 모델은 방 번호들과 같은, 장소에 대한 간단한 부속물들을 포함할 수 있다. 아웃라인 모델을 위한 소스는 단순한 측정치들로부터 수동으로 기록될 수 있으며, 그 후, Alias/Wavefront OBJ, Open Inventor, VRML 등과 같은 당업계에서 공지된 3D 포맷들 중 하나로 인코딩된다.
기술자들은 장면의 아웃라인 모델 상에 각 카메라의 위치를 표시한다. 기술자는 방 번호, 빌딩 형태 또는 다른 특징적인 랜드마크들과 같은 주변 영역들로부터의 정보를 사용하여 수동으로 카메라의 위치를 아웃라인 모델에 대응시킴으로써 이 프로세스를 수행한다. 또한 기술자는 높이와 방향과 같은 카메라 파라미터(parameter)들도 정의한다. 카메라 방향은 장면에 의하여 정의되는 전체 좌표계에 대한 카메라들의 팬(pan), 틸트(tilt), 롤(roll)을 포함한다. 당업계에는 카메라의 팬, 틸트, 롤을 측정하기 위한 많은 공지된 방법들이 있는 바, 그 방법들 중 어떠한 방법도 장면에 대한 모델을 구축하는데 유효하다. 카메라 파라미터를 정의하기 위한 프로세스의 결과는, 장면에 대한 전체 아웃라인 모델에 대한 각 카메라의 위치, 높이, 팬, 틸트, 롤을 한정하는 파라미터들의 세트이다.
이어서, 장면에 대한 아웃라인 모델의 평면 표면들은 공지된 3D형 모델링 기술들을 사용하여 모델링된다. 예를 들어, 장면내에서 다면체(polygon)들을 복원하기 위한 방법은 설치 기술자가 캡쳐된 이미지와 장면의 3D 형태에 대한 지식을 사용하여 단순한 모델 구축(model building)을 실행하는 것이다. 기술자는 각 카메라 뷰로부터의 단일 이미지를 디스플레이에 부여한다. 그 후, 기술자는 벽과 같이, 장면에서 단일 평면 표면의 경계들을 규정하는, 이미지내의 한 세트의 점들을 선택한다. 표면은 전체적으로 평면일 필요는 없으며, 히터들과 같이 표면에 부착된 객체들은 단일 평면에 속하는 것으로 정의될 수 있다. 그 다음, 기술자는 평면이 대략적으로 수직인지, 수평인지 또는 미리 결정된 임의의 다른 방향인지를 기록 한다. 다음으로, 기술자는 장면에서의 다른 평면 표면들 및 각 카메라 뷰에 대하여 프로세스를 반복한다. 또한, 기술자는 여러층의 빌딩에서 각 카메라가 위치하는 층을 기록한다. 상기 프로세스의 결과는 이미지들의 좌표계에서의 한 세트의 점들, 3D에서 표면들의 방향을 정하는 한 세트의 플래그(flag)들 그리고 각 카메라가 위치하는 층을 정하는 한 세트의 숫자들이다.
다른 모델링 기술들이 장면에 대한 완전한 3D 모델을 생성시키는데 사용될 수 있다. 랜더링 프로세스 도중에 비디오로 드레이프되지 않는, 장면내의 벽들, 층들 및 다른 객체들은 사용자에게 명확한 텍스처(texture)를 가지도록 추가적인 텍스처가 3D 모델 상으로 맵핑될 수 있다.
단계(308)에서, 선택된 시점에서부터의 모델과 입력 이미지가 경비원에 의하여 지시되는 대로 장면의 뷰를 랜더링하기 위하여 결합된다. 여기에서 설명되는 예에서, 카메라 위치는 고정된 것으로 가정되었으나 다음의 설명에서부터 카메라들은 동적으로 패닝하고 틸트할 수 있으며 이미지는 팬과 틸트 동작을 반영하기 위하여 동적으로 업데이트됨이 명백할 것이다. 이 시점에서는, 랜더링된 장면의 뷰는 이동 객체들을 포함하지 않는다. 상기 랜더링 프로세스는 2001년 3월 7일에 출원된 미국 특허 출원 제09/800,550호(Attorney Docket No. SAR 13825)에서 설명된 바와 같이 또는 이와 유사한 랜더링 프로세스처럼 수행된다. 요약하면, 각 카메라부터의 비디오는 모델에 대해 정렬되고 위치내로 변형(warp)된다. 각 카메라부터의 변형된 비디오는 모델이 적용되고 장면에 대한 전후관계 뷰를 형성하기 위하여 결합된다. 이 방법으로, 장면(100)의 복도 구조는 카메라들로부터의 비디오 이미지로 표현되는 벽들을 포함할 것이다. 사용자에는 장면(100)에 대한 "실제" 3D 뷰가 제공된다.
장면내에서 이동하는 객체들은 단계(310)에서 프로세싱된다. 입력 이미지는 이동 객체들을 식별하기 위하여 프로세싱되고, 그 다음 경비원이 장면내에서의 움직임을 식별할 수 있도록 랜더링된 뷰내로 삽입되는 아이콘들을 생성한다. 움직임을 식별하기 위한 프로세스는 도 4와 관련하여 설명되며 동작을 나타내기 위한 아이콘들을 생성하기 위한 프로세스는 이하에서 도 5와 관련하여 설명된다. 단계(314)에서 아이콘들은 랜더링된 이미지내로 삽입된다. 단계(316)에서, 프로세스(300)는 랜더링된 이미지가 저장되어야 하는지에 대하여 질문한다. 만일 단계(316)에서의 질문에 대해 긍정으로 응답되면 이미지는 단계(318)에서 비디오 테이프상에 또는 디지털 메모리에 저장된다. 필요하다면 경비원에 의하여 모델과 그 구성요소인 비디오가 "되감기" 또는 "재생"되는 것을 가능하게 된다. 단계(320)에서 랜더링된 이미지와 아이콘들이 경비원을 위하여 디스플레이된다. 단계(322)에서 프로세스(300)는 경비원에 의하여 새로운 뷰가 선택되는지 여부를 질문한다. 새로운 뷰가 선택되지 않는다면, 프로세스는 단계(302)로 돌아가서 추가적으로 카메라들로부터의 비디오 스트림들을 프로세싱한다. 새로운 뷰가 선택되었다면, 새로운 이미지를 새로운 모델의 뷰에 적용할 뿐만 아니라 새로운 뷰에 대한 새로운 모델을 생성하기 위하여 프로세스는 양 단계(302 및 304)들로 돌아간다.
비디오를 생성하기 위하여 사용된 카메라들이 팬/틸트/줌(PTZ) 특징들을 갖는다면, 장면의 뷰를 랜더링할 때 이 카메라의 동작이 수용되어야 한다. 카메라의 PTZ 방향이 카메라상에서 인코더들에 의하여 캡쳐되면, 시스템은 카메라로부터 직접 이 정보를 읽을 수 있다. 그 후, 시스템은 장면의 기하구조내에서 주어진 PTZ 값에 대한 카메라의 포즈(pose)를 찾기 위하여 순람표(look-up table)를 호출한다. 상기 포즈는 디스플레이를 랜더링하는데 사용된다.
포즈 순람표를 만들기 위하여, 교정(calibration) 프로세스가 수행되어야 한다. 카메라는 장면에서의 특정 위치로 지향되며 사용자는 이미지에서의 점들과 3D 모델에서의 대응 점들을 식별한다(통상적으로 마우스 포인터를 가리키고 클릭함으로써). 그 후, 시스템은 특정 세트의 PTZ 값에 대한 포즈의 회전부분을 계산한다. 이 절차는 카메라가 여러 방향으로 지향되는 경우의 여러 이미지들에 대하여 반복된다. 캡쳐된 PTZ 값들과 각 방향에 대하여 계산된 포즈는 포즈 순람표에 저장된다. 그 후, 포즈 순람표를 완전히 채우기 위하여 보간연산(interpolation algorithm)이 측정된 값들 사이에서 PTZ 및 포즈값들을 계산한다.
앞서의 인코더 기반 접근이 비디오와 모델의 정렬을 가능하게 하는데 충분하게 정확하지 않다면, 또는 인코더들이 카메라의 PTZ값들을 생성하는데 유효하지 않다면, 모델에 대하여 매치시키고 PTZ값 없이 또는 부정확한 PTZ값들로 정렬을 획득하는 것에 대하여 이미지 정보가 사용될 수 있다.
하나의 절차가 비디오를 직접 3D 모델에 정렬시킨다. 이 절차는 2001년 3월 7일에 출원된 미국 특허 출원 제09/800,550호(Attorney Docket No. SAR 13825)에서 설명된다. 이 정렬 절차는 장면 조도(illumination)가 변할때 이미지 정렬을 향상시키기 위하여 텍스쳐 맵(texture map)들과 이미지 필터링(image filtering)를 사 용하는 1998년 5월 8일에 출원된 미국 특허 출원 제09/075,462호(Attorney Docket No. SAR 12426)의 내용으로 보강될 수 있다.
제 2 기술이 자체로 3D 모델에 정렬된(아마도 수동으로) 구형(spherical) 이미지 모자이크에 비디오를 정렬시킨다. 이는 이미지 대 모델 정렬보다는 이미지 대 이미지 정렬이 수행되기 때문에 강력한 기술이다. 구형 이미지 모자이크는 연역적으로 PTZ 특징들을 갖는 각 카메라들에 대하여 통상적인 방법으로 생성된다. 이러한 모자이크는 3D 모델에 정렬되고 저장된다. 카메라들로부터의 이후의 이미지들은 3D 모델에 대한 현재 이미지들의 정확한 정렬을 제공하기 위하여 모자이크에 정렬된다. 정렬 에러들이 장면의 조도가 변하는 동안 발생하지 않는 것을 확실히 하기 위하여, 각 카메라에 대한 다중 모자이크들이 다양한 조명도(light level)들에서 생성될 수 있거나 또는 1998년 5월 8일에 출원되었으며 본 명세서에 참조로서 통합된 미국 특허 출원 제09/075,462호(Attorney Docket No. SAR 12426)에서 개시된 기술들이 여러 조도에 대하여 이미지들을 정렬하는 데 사용될 수 있다.
도 4는 장면내에서 이동 객체들을 식별하기 위한 프로세스(401)(도 3의 단계(310)에서 수행된)를 도시한다. 단계(400)에서, 이미지 시퀀스(image sequence)가 프로세스에 입력된다. 이미지 시퀀스는 2차원(2D) 모듈(418)과 3차원(3D) 모듈(420) 모두에 의하여 프로세싱된다. 2D 모듈(418)은 고정 배경 장면으로부터 전경인 객체(foreground object)들을 분리한다. 3D 모듈(420)은 깊이(depth)와 형태(shape)의 복원을 수행하여 프로세스(401)가 장면내에 이동하는 객체의 형태를 식별하는 것을 가능하게 한다. 단계(402)에서, 전경의 동작을 비디 오 시퀀스(video sequence)로부터 제거하는 공지된 필터링 기술을 사용하여 장면내의 고정 배경 정보(기준 이미지)가 이미지 시퀀스로부터 추출된다. 그러한 방법 중 하나는 유럽 특허 공보 번호 EP 1045591에서 개시된다. 그 후, 장면에서 움직이는 각각의 객체에 대한 2차원(2D) 객체 실루엣(silhouette)을 생성시키기 위하여 기준 이미지가 단계(404)에서 최초 이미지 시퀀스에서부터 공제된다. 모든 이동 객체들은 단계(406)에서 실루엣으로서 나타날 것이다.
3D 장면에서 이동하는 객체들을 정확히 식별하기 위해서는, 실제 이동하는 객체들과 카메라 움직임, 그림자들 등에 의하여 외관상으로 이동하는 객체들을 식별하고 분리하기 위하여 3차원 정보가 필요한다. 그러한 3차원 프로세싱은 단계들(408, 410, 412 및 414)을 포함하는 3D 모듈에서 수행된다. 단계(순람표)에서, 깊이 정보가 이미지 시퀀스로부터 계산된다. 단계(410)에서 배경 깊이 정보가 계산되거나 결정되며, 단계(412)에서는, 전경인 객체의 깊이 정보만을 생성하기 위하여 이미지 시퀀스로부터 수집된 배경 깊이 정보가 공제된다. 단계(416)에서 3차원 객체 실루엣들을 생성하기 위하여 단계(414)에서는 전경 깊이 정보를 객체 실루엣 정보와 결합시킨다. 2D 및 3D 객체 실루엣 정보를 결함시킴으로써, 이제 카메라의 움직임 또는 그림자에 의하여 외관상 움직이는 전경인 객체들이 움직이지 않는 객체들로 식별가능하다. 그로써, 단계(416)에서 생성된 객체 실루엣들이 정확하게 장면내에서 움직이는 전경인 객체들을 묘사한다.
일단 전경인 객체들이 분리되고 그들의 깊이와 형태들이 복구된 후에는, 3차원에서 이러한 객체들을 모델링하는 것이 가능하다. 각 객체 실루엣이 3차원 모델 로 랜더링된다면, 그 모델이 아이콘으로서 장면에 대한 랜더링된 이미지내에 삽입될 때 전경인 객체가 여러 시점들에서부터 시각화될 수 있으며 장면내에서 기하학적으로 정확하게 나타내어질 수 있다.
도 5는 장면내에서 이동하는 객체들의 3차원 모델들인 아이콘들을 생성하기 위한 프로세스(501)(도 3의 단계(312)에서 수행된)의 플로우 다이어그램을 도시한다. 단계(500)에서, 도 4의 프로세스(401)로부터의 2D 및/또는 3D 객체 실루엣들은 프로세스(501)로 입력된다. 객체 실루엣들은 일반적으로 색채와 광도와 같은 표면정보(textual information) 뿐만 아니라 깊이 추정 모듈로부터의 깊이 및/또는 형태 정보 양자 모두를 포함한다. 예를 들어, 현저한 깊이 불연속성들에 밀접한 현저한 표면 불연속성이 객체의 윤곽 또는 실루엣의 일부로 분류될 수 있다. 단계(502)에서 객체 실루엣이 분류된다. 이러한 분류 단계의 목적은 전경인 객체에 맞추어져야 하는 모델 유형을 식별하는 것이다. 분류는 객체의 속성들을 분석함으로써 수행된다. 속성들의 예에는 실루엣의 크기와 형태가 포함된다. 객체의 속성들을 복원할 수 있는 방법의 예가 모멘트 분석(moment analysis)이다. 전경인 객체에 대하여 계산된 제 1 및 제 2 차 모멘트들이 그 객체가 가는지(slender) 여부를 결정하는 것에 사용될 수 있다. 가는 객체는 인간으로 분류될 수 있으며, 가늘지 않은 객체는 차량과 같은 다른 유형의 객체로 분류될 수 있다. 분류에 따라서, 객체에 대한 다른 모델들이 호출(invoke)될 수 있다. 예를 들어, 단계(504)에서 인간이 한 세트의 구체(sphere)들로 모델링될 수 있으며, 단계(506)에서 차량이 상자로 모델링될 수 있다. 다른 객체들이 단계들(508, 510)에서 여러 유형들로 모델링될 것이다. 이러한 아이콘들(객체 모델들)은 위에서 설명된 바와 같이 랜더링된 이미지 내로 삽입된다.
도 7은 감시원에 의하여 관찰될 수도 있는 예시적인 디스플레이 스크린을 도시한다. 뷰 스크린(700)은 영역(710)에서 모니터된 장면의 조감도를 도시하며, 영역(712)에서 4개의 카메라들(108, 110, 112, 114) 각각으로부터의 4개의 라이브 카메라 뷰들을 도시한다. 이동 객체 검출 프로세스(401)에 의하여 식별되며 이동 객체 아이콘 생성기(501)에 의하여 아이콘으로서 랜더링되는 이동 객체들을 포함하는 도 1의 복도구조(100)에 대한 랜더링이 영역(710)내에 있다. 아이콘들(702, 704 및 706)은 일반적으로 객체의 이동을 캡쳐하는 카메라에 따라 다른 색깔의 "점들(dots)"로 도시된다. 예를 들어, 아이콘(702)은 적색으로 도시될 수 있으며 이동을 캡쳐하는 카메라(카메라(110))에 대한 아이콘(716) 역시 적색으로 도시될 것이다. 마찬가지로, 카메라 아이콘(714)이 청색으로 도시될 수 있으며 객체(704) 역시 청색일 것이다. 객체의 이동에 대한 식별을 강화하기 위하여, 객체가 장면을 통하여 이동할 때, 그 이동 객체의 이전 위치들을 도시하기 위하여 추적궤적(trailing shadow)이 사용될 수 있다. 객체 아이콘(706)은 복도(104)를 따라서 움직이는 객체의 움직임을 도시하기 위하여 궤적추적(708)을 포함한다. 그로써, 경비원은 장면을 통한 이상하고 특이한 이동으로부터 추가적인 정보를 얻을 수 있다. 경비원이 보다 근접하여 보기를 원하는 객체를 식별하자마자, 경비원이 그 객체를 선택하기 위하여 마우스 포인터를 그 객체상에 위치시킬 수 있거나 또는 더블클릭할 수 있다. 선택한 후에는, 감시 시스템은 특정 카메라 위치 또는 합성 카메라(synthetic) 위치에서부터, 장면을 관찰하는 다중 카메라들로부터 랜더링된 그 객체에 대한 뷰를 생성시킨다.
도 8은 복도(106)에서의 어떤 위치로부터 객체(702)의 합성 뷰(synthetic view)를 도시한다. 이 합성 뷰는 객체에 대하여 줌 인/아웃하는 줌 콘트롤을 사용하여 조정될 수 있으며, 또는 객체 및 그 목적지에 대한 보다 좋은 뷰를 얻기 위하여 장면내에서 움직이기 위해 조이 스틱을 사용할 수 있다. 또한, 경비원은 항상 현재 객체를 이미지화하고 있는 카메라부터 얻어지는, 장면에 대한 라이브 뷰(live view)를 선택할 수 있다. 랜더링된 뷰(702)는 복도(106)를 따라 걷고있는 사람에 대한 구체 기반 모델을 보여준다. 여러 위치로부터 생성되는 합성 뷰를 위하여 카메라 각도가 패닝되고(panned) 틸트됨(tilted)에 따라 3차원 구형 모델은 복도를 걸어가는 사람을 랜더링할 것이다. 합성 뷰가 실제의 장면에 대한 카메라 뷰같이 정확하도록 랜더링된 이미지의 벽들과 바닥들이 카메라들에 의하여 생성되는 비디오들로부터 텍스처된다. 이동 객체를 식별하고 그 후 장면내의 그 객체에 대하여 전체 장면 중 일부분의 특정 이미지를 랜더링하는 것은 "플래시라이트 모드(flashlight mode)" 작동으로 알려진다. 플래시라이트 모드 이미지를 랜더링하는데 사용되는 프로세스는 2001년 3월 7일에 출원된 미국 특허 출원 제 09/800,550호에서 설명된다.
본 시스템은 시점 및 장면에 대한 비디오 랜더링에 관하여 실질적인 융통성을 갖는다. 예를 들어, 뷰 선택기는 작동자가 정기적으로 점검하는 특정 고-투-포인츠(go to points)를 포함할 수 있다. 뷰 선택기는 경비원이 공급된 라이브 뷰들로부터 어떤 뷰들이 유용한가를 정확하게 알 수 있도록 카메라 아이콘들을 포함할 수 있다. 도 7에서 도시된 바와 같이 동작에 대한 최상위 뷰가 유용하다. 경비원은 이미지 사이를 날아다니며 원격 위치에서부터 장면 사이를 가상 산책할 수 있으며, 경비원이 장면에서 이미지의 전 해상도(full resolution) 뷰를 선택할 수 있도록 언제라도 각각의 카메라들로부터 전해상도 비디오를 얻을 수 있다.
더욱이, 장면 또는 객체 식별과 관련된 위치 정보를 보여주기 위하여 마우스 포인터가 장면내의 소정의 위치들을 가리킬 때, 이미지에는 주석이 달린다. 예를 들어, 어떤 사람이 경비 체크포인트를 통해 들어왔다면, 그 사람의 아이콘이 장면에서 식별될 때 그 사람의 이름과 ID 번호가 스크린상에 나타날 것이다. 그와 같이, 그 사람이 경비구역을 통과하여 이동하는 동안 추적된다. 또는, 어떤 사람이 특정 위치에서 관찰될 수 있고, 사용자가 식별을 요구하면 그 사람을 식별하기 위한 얼굴 인식 시스템(face recognition system)에 의하여 전 해상도가 샘플링될 수 있다. 그 후, 그 사람의 식별에 대한 주석이 장면의 3차원 전후관계 뷰 상에 나타날 수 있다. 그 후, 사용자는 그 사람이 시설을 통과하여 이동할 때 추적될 수 있다. 그 사람이 식별될 수 없다면, 그 신원이 식별되지 않은 사람을 잡기 위하여 경비원이 급파될 수 있다.
본 발명의 또하나의 실시예가 도 9에서 도시되는 바, 암시적 3D 모델(implicit 3D model)이 이미지 시퀀스들을 상호연결하는 직관적 맵(intuituve map)을 제공하기 위하여 사용된다. 시스템(900)은 다수의 비디오 시퀀스들을 생성시키는 다수의 비디오 카메라들 또는 다른 이미지 소스들(902, 904, 906 및 908)을 포함한다. 비디오 시퀀스들은 암시적 3D 모델(918)을 포함하는 이미지 프로세서(912)에 결합된다. 모델(918)은 모델 업데이트 소스(914)를 사용하여 생성될 수 있다. 뷰 선택기(910)은 이미지 프로세서(912)에 결합된다. 카메라들(902, 904, 906, 908)에 의하여 얻어진 이미지 뷰들이 이미지 디스플레이(916)상에 디스플레이되도록 사용자에 의하여 뷰 선택기(910)가 조정된다.
모델 업데이트 소스(914)는 연역적인 방법으로 암시적 3D 모델을 생성시키기 위하여 사용자에 의해 사용된다. 카메라에 의해 이미지화되는 장면을 통하여 객체가 움직일 때, 스크린상의 마우스 포인터를 사용하여 뷰를 간단히 선택하는 것으로서 선택된 이미지 영역의 가장 양호한 뷰가 자동적으로 디스플레이되도록, 본질적으로, 암시적 3D 모델이 여러 카메라들의 뷰들을 상호연결하는 맵를 생성시킨다.
맵(암시적 모델)는 비디오 시퀀스들 사이의 상호연결을 식별한다. 한 실시예에서, 맵는 각 비디오 시퀀스에 대하여 전이영역(transition region)과 그 전이영역과 관련된 비디오 시퀀스를 포함하는 순람표(look-up table)이다. 전이영역은 단일 화소(single pixel)일 수도 있고 화소 영역일 수도 있다. 각 비디오 시퀀스에는 고유 식별 번호가 주어진다. 고유 식별 번호들은 1이상의 전이영역들과 관련될 수 있다. 일단 관계가 형성되면, 사용자는 디스플레이된 비디오 시퀀스들에서 전이영역을 선택할 수 있으며 그 영역과 관련된 비디오 시퀀스가 디스플레이될 것이다.
한 예에서, 각 시퀀스는 이미지의 좌표계에 대하여 0, 90, 180, 270도에서 전이영역을 갖는다. 이러한 영역들은 이미지의 위, 아래, 좌, 우 에지들에 위치된다. 다른 위치들도 사용될 수 있다. 4개의 위치를 사용하여, 사용자는 객체에 대한 보다 적절한 뷰가 디스플레이되도록 객체가 이동해 들어가는 전이영역을 선택할 수 있다.
카메라들이 고정위치에 있다면, 암시적 맵는 단지 한번만 생성되면 된다. 맵을 생성시키기 위하여, 사용자는 카메라들에 의하여 생성되는 비디오의 겹침들만을 알 필요가 있으며, 그 후 맵은 사용자가 어느 카메라들이 다른 카메라와 서로 겹치는지 또는 서로 거의 겹치는지를 식별하도록 생성될 수 있다. 이미지들간에 명백한 겹침이 있을 필요가 없음을 주목해야 한다. 타겟이 특정 방향으로 움직이는 경우, 사용자는 단지 어느 카메라 뷰가 다음에 보여져야 할 것인지를 식별할 필요가 있다. 겹치거나 또는 거의 겹치는 각 카메라에 대하여, 사용자는 이미지내에서 직사각형 또는 다른 형태의 관심영역을 그리고, 객체가 그 영역내에서 특정 방향으로 움직이는 경우 어느 카메라가 디스플레이되어야 하는지를 입력한다.
도 11D는 3개의 카메라들(1104, 1106 및 1108)을 갖는 예시적인 장면을 도시한다. 각 이미지에 대한 좌표계는 스케일(1150)에서 도시된다. 각 카메라는 각 카메라들에 의하여 이미지화되는 특정 영역(1114, 1112 및 1110)을 커버한다. 표 1은 도 11D에서의 카메라 배열에 대한 3차원 암시적 모델(맵)을 식별한다.
카메라 1 카메라 2 카메라 3
2, 270° 1, 90° 2. 0°
3, 0° 2, 180°
3, 180°
표 1
첫번째 열에서, 카메라 1은 객체가 270도의 영역에서 움직일 때 카메라 2에 대한 단지 1개의 이용가능한 전이를 갖는다. 카메라 2는 90도에서 카메라 1로, 0도에서 카메라 3으로 그리고 180도에서도 역시 카메라 3으로 전이되고, 마지막으로 카메라 3은 0도에서 카메라 2로 그리고 180도에서도 다시 카메라 2로 전이된다.
도 11A, 11B 그리고 11C는 객체가 도 11D에서 도시된 경로(1102)를 따르는 경우 카메라들(1104, 1106 그리고 1108)로부터의 3개의 뷰들을 도시한다. 객체는 위치(1116)에서 시작되어 카메라(1104)의 뷰에서 도 11A의 오른쪽에서 왼쪽으로 이동한다. 객체가 왼쪽 측면의 영역(1118)내에 도달할 때, 커서(1120)가 새로운 뷰를 선택하기 위하여 그 객체상에 또는 영역(1118)내에 위치될 수 있다. 그 시점에서, 표 1에서 정의된 바와 같은 전이들이 270도 영역에서 객체에 대한 가장 좋은 뷰를 위한 다음 카메라로서 카메라 2를 식별할 것이다. 도 11B는 카메라 2의 뷰 내에서 왼쪽에서부터 0도 영역(1128)으로 이동하는 객체를 도시한다. 객체가 영역(1128)안으로 이동할 때, 커서(1120)가 그 영역상에 위치될 수 있고 선택될 수 있으며, 그 후, 이동 객체에 대한 가장 좋은 이미지를 위해, 장면에 대한 다음 뷰를 식별하는데 상기 표가 다시 사용된다. 객체가 위치(1130)에서 시작되어 위치(1132)로 이동할 때 제 3 카메라(1108)가 선택된다. 그 후, 객체는 위치(1130)에서 위치(1132)로 이동한다. 그 후, 객체는 장면 밖으로 전이된다. 이러한 방법으로 암시적 3D 모델이 용이하게 생성되어, 사용자로 하여금 암시적 3차원 모델을 획득하기 위하여 사용되어왔던 임의의 개수의 카메라들을 통한 장면 사이를 이동하는 객체를 신속하게 따라갈 수 있게 한다.
도 10은 본 발명의 대안적 실시예의 방법이다. 상기 방법(1000)은 단계(1002)에서 카메라들로부터의 다수의 비디오 시퀀스들의 입력으로 시작한다. 단계(1004)에서, 사용자가 전이되어질 카메라를 식별하는 영역들을 선택함으로써 정의되는 바와 같이 비디오 시퀀스들이 암시적 관계 모델(implicit relationship model)에 기록된다. 단계(1010)에서 장면의 뷰는 마우스, 트랙 패드(track pad), 트랙 볼(track ball) 등과 같은 입력 디바이스를 사용하여 선택된다. 단계(1006)에서, 위에서 설명한 바와 같이 커서의 위치에 기초하여, 단계(1010)에서 식별된 바와 같이 디스플레이되도록 시퀀스가 선택된다. 그 후, 선택된 비디오 시퀀스는 단계(1008)에서 디스플레이된다. 이러한 시스템은 사용자가 장면에서 객체를 따라가도록 하는 직관적이고 간단한 방법을 제공한다. 작동자는 특정 비디오 프레임내의 전이영역내에 커서를 위치시키고 그 영역을 선택함으로써 용이하게 장면의 여기저기를 돌아다닐 수 있다. 만일 작동자가 빌딩 모퉁이 주변을 보고싶다면, 작동자는 그 모퉁이 영역을 선택할 수 있으며 그 모퉁이 주변에 대한 가장 좋은 뷰가 디스플레이될 것이다.
앞서 본 본 발명의 실시예들에서, 뷰 선택기는 사용자가 장면의 뷰를 선택하도록 사용자에 의하여 조정되는 것으로 설명되었다. 그러나, 뷰 선택기는 자동화될 수 있다. 예를 들어, 동작이 장면내에서 검출될 때(또는 특정 유형의 동작이 검출될 때), 뷰 선택기는 그 동작을 포함하는 장면 영역을 가장 잘 디스플레이하는 뷰를 자동적으로 선택할 수 있다. 많은 다른 표준들이 뷰 선택을 자동화하는데 사용될 수 있음을 당업자는 이해할 것이다.
지금까지 본 발명의 바람직한 실시예에 대하여 설명된 반면, 본 발명의 기타 추가적인 실시예가 본 발명의 기본적인 보호범위를 벗어나지 않으면서 고안될 수 있고, 본 발명의 보호범위는 이하의 청구범위에 의하여 결정된다.

Claims (14)

  1. 장면을 모니터하기 위한 감시 시스템으로서,
    상기 장면의 적어도 각각의 부분을 캡쳐하는 각각의 비디오를 생성하는 다수의 카메라;
    상기 각각의 비디오를 상기 장면의 3차원 모델 정의 표면들의 하나 이상의 표면에 적용하고 하나 이상의 표면들에 적용된 상기 비디오로 상기 장면의 뷰(view)를 나타내는 이미지를 렌더링하는, 상기 다수의 카메라에 결합된 이미지 프로세서;
    상기 이미지 프로세서에 결합되며, 상기 이미지를 사용자에게 디스플레이하는 디스플레이; 및
    상기 이미지 프로세서에 결합되며, 디스플레이될 상기 장면의 뷰들을 선택하기 위한 뷰 제어기를 포함하는, 감시 시스템.
  2. 제 1 항에 있어서, 상기 이미지 프로세서는
    3차원 모델 생성기; 및
    이미지 랜더링 프로세서를 더 포함하는, 감시 시스템.
  3. 제 2 항에 있어서, 상기 이미지 프로세서는
    상기 각각의 비디오들에서 이동 객체들을 식별하기 위한 수단;
    상기 식별된 이동 객체들의 각각을 나타내는 아이콘을 생성하기 위한 수단;
    상기 아이콘을 상기 결합에 삽입하기 위한 수단을 더 포함하는, 감시 시스템.
  4. 제 3 항에 있어서,
    이동 객체로서의 사람을 식별하기 위한 수단; 및
    상기 디스플레이에 상기 사람에 대한 설명을 주석 붙이기 위한 수단을 더 포함하는, 감시 시스템.
  5. 장면의 감시를 제공하기 위한 방법으로서,
    상기 장면에 대한 다수의 비디오들을 생성시키는 단계;
    표면들을 정의하는 상기 장면에 대한 3차원 모델을 생성시키는 단계;
    상기 3차원 모델에 대한 시점(viewpoint)을 선택하는 단계;
    상기 3차원 모델과 상기 다수의 비디오들을 정렬시키는 단계;
    상기 비디오들이 상기 3차원 모델의 표면에 적용된 결합 뷰(combination view)를 형성하기 위하여 상기 3차원 모델상으로 상기 다수의 비디오들을 랜더링하는 단계; 및
    상기 결합 뷰를 디스플레이하는 단계를 포함하는, 장면 감시 방법.
  6. 제 5 항에 있어서, 상기 선택된 시점은 조감 시점(bird's eye view)인, 장면 감시 방법.
  7. 제 5 항에 있어서,
    상기 결합 뷰 내에서 위치를 선택하는 단계; 및
    상기 선택된 위치로부터 상기 장면의 뷰를 생성시키는 단계를 더 포함하는, 장면 감시 방법.
  8. 제 5 항에 있어서,
    상기 비디오들 내에서 이동 객체들을 식별하는 단계;
    각각의 이동 객체를 나타내는 아이콘을 생성하는 단계; 및
    상기 아이콘을 상기 결합 뷰에 삽입하는 단계를 더 포함하는, 장면 감시 방법.
  9. 제 5 항에 있어서,
    재생(replay)을 위하여 상기 결합 뷰를 저장하는 단계를 더 포함하는, 장면 감시 방법.
  10. 제 8 항에 있어서, 상기 식별단계는
    사람으로서의 상기 객체를 식별하는 단계; 및
    상기 결합 뷰에 상기 사람의 신원을 나타내는 텍스트를 주석 붙이는 단계를 더 포함하는, 장면 감시 방법.
  11. 제 1 항에 있어서,
    상기 다수의 카메라의 적어도 하나는 팬, 틸트 및 줌(PTZ) 능력을 갖는 PTZ 카메라이며, 상기 PTZ 카메라에 의해 생성된 비디오들은, PTZ 카메라의 방향을 캡쳐하는 것, 상기 장면내에서 상기 카메라의 포즈를 결정하는 것, 상기 PTZ 카메라로부터 생성된 상기 비디오를 상기 모델과 정렬시키도록 상기 포즈를 사용하는 것을 더 포함하는, 감시 시스템.
  12. 제 1 항에 있어서,
    상기 이미지 프로세서는 상기 비디오들에서 이동하는 객체들을 식별하고, 각각의 이동하는 객체를 나타내는 아이콘을 생성하고, 상기 아이콘을 상기 이미지로 삽입하는, 감시 시스템.
  13. 제 1 항에 있어서,
    상기 이미지 프로세서는 상기 비디오들에서 이동하는 객체들을 식별하고, 각각의 이동하는 객체를 나타내는 2차원 객체 실루엣을 생성하고, 상기 2차원 객체 실루엣을 상기 이미지로 삽입하는, 감시 시스템.
  14. 제 5 항에 있어서,
    상기 장면 내의 거동을 검출하는 단계 및 상기 거동을 가장 잘 디스플레이하는 상기 장면의 영역의 관점을 자동으로 선택하는 단계를 더 포함하는, 장면 감시 방법.
KR1020047006666A 2001-11-02 2002-10-31 몰입형 감시를 제공하기 위한 방법 및 장치 KR100940142B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US33972601P 2001-11-02 2001-11-02
US60/339,726 2001-11-02
US10/202,546 US7522186B2 (en) 2000-03-07 2002-07-24 Method and apparatus for providing immersive surveillance
US10/202,546 2002-07-24
PCT/US2002/034913 WO2003067537A2 (en) 2001-11-02 2002-10-31 Method and apparatus for providing immersive surveillance

Publications (2)

Publication Number Publication Date
KR20040053257A KR20040053257A (ko) 2004-06-23
KR100940142B1 true KR100940142B1 (ko) 2010-02-03

Family

ID=26897783

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020047006666A KR100940142B1 (ko) 2001-11-02 2002-10-31 몰입형 감시를 제공하기 위한 방법 및 장치

Country Status (7)

Country Link
US (2) US7522186B2 (ko)
EP (1) EP1449180A4 (ko)
JP (1) JP2005517253A (ko)
KR (1) KR100940142B1 (ko)
CA (1) CA2466085A1 (ko)
IL (1) IL161400A0 (ko)
WO (1) WO2003067537A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557087B2 (en) 2018-12-19 2023-01-17 Sony Group Corporation Image processing apparatus and image processing method for generating a strobe image using a three-dimensional model of an object

Families Citing this family (189)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US9892606B2 (en) * 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US7868912B2 (en) * 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
JP2004072349A (ja) * 2002-08-05 2004-03-04 Canon Inc 撮像装置、及びその制御方法
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
US20040075741A1 (en) * 2002-10-17 2004-04-22 Berkey Thomas F. Multiple camera image multiplexer
JP3700707B2 (ja) * 2003-03-13 2005-09-28 コニカミノルタホールディングス株式会社 計測システム
US20040223054A1 (en) * 2003-05-06 2004-11-11 Rotholtz Ben Aaron Multi-purpose video surveillance
US7577636B2 (en) * 2003-05-28 2009-08-18 Fernandez Dennis S Network-extensible reconfigurable media appliance
US7633520B2 (en) * 2003-06-19 2009-12-15 L-3 Communications Corporation Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system
US7259778B2 (en) * 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
AU2004306552A1 (en) * 2003-10-09 2005-04-21 De Beers Consolidated Mines Limited Augmented video surveillance system
ZA200602540B (en) * 2003-10-09 2007-06-27 De Beers Cons Mines Ltd Enhanced video based superveillance system
GB2408885B (en) 2003-12-03 2006-02-15 Safehouse Internat Inc Displaying graphical output
US7428314B2 (en) * 2003-12-03 2008-09-23 Safehouse International Inc. Monitoring an environment
DE10358017A1 (de) * 2003-12-11 2005-07-21 Siemens Ag 3D Kamerasteuerung
JP4424031B2 (ja) * 2004-03-30 2010-03-03 株式会社日立製作所 画像生成装置、システムまたは画像合成方法。
US7773799B2 (en) * 2004-04-02 2010-08-10 The Boeing Company Method for automatic stereo measurement of a point of interest in a scene
US8055100B2 (en) * 2004-04-02 2011-11-08 The Boeing Company Method and system for image registration quality confirmation and improvement
CA2569671A1 (en) * 2004-06-01 2006-07-06 L-3 Communications Corporation Method and system for wide area security monitoring, sensor management and situational awareness
US7813525B2 (en) * 2004-06-01 2010-10-12 Sarnoff Corporation Method and apparatus for detecting suspicious activities
US8063936B2 (en) * 2004-06-01 2011-11-22 L-3 Communications Corporation Modular immersive surveillance processing system and method
US20070226616A1 (en) * 2004-06-01 2007-09-27 L-3 Communications Corporation Method and System For Wide Area Security Monitoring, Sensor Management and Situational Awareness
US7639840B2 (en) * 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
US8289390B2 (en) * 2004-07-28 2012-10-16 Sri International Method and apparatus for total situational awareness and monitoring
JP4368767B2 (ja) * 2004-09-08 2009-11-18 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
WO2006034135A2 (en) * 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
SE528330C2 (sv) * 2004-11-11 2006-10-24 Totalfoersvarets Forskningsins Metod för övervakning av ett geografiskt område
JP2008527806A (ja) * 2005-01-03 2008-07-24 ブミー インコーポレイテッド 夜間監視のシステムおよび方法
EP1867167A4 (en) * 2005-04-03 2009-05-06 Nice Systems Ltd DEVICE AND METHOD FOR SEMI-AUTOMATIC TRACKING AND INVESTIGATION OF AN OBJECT OR EVENT AT A MONITORED LOCATION
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US7583815B2 (en) * 2005-04-05 2009-09-01 Objectvideo Inc. Wide-area site-based video surveillance system
US20060233461A1 (en) * 2005-04-19 2006-10-19 Honeywell International Inc. Systems and methods for transforming 2d image domain data into a 3d dense range map
US7945938B2 (en) * 2005-05-11 2011-05-17 Canon Kabushiki Kaisha Network camera system and control method therefore
US7720257B2 (en) * 2005-06-16 2010-05-18 Honeywell International Inc. Object tracking system
US8102390B2 (en) * 2005-09-12 2012-01-24 Carlos Tapang Frame by frame, pixel by pixel matching of model-generated graphics images to camera frames for computer vision
US20070076096A1 (en) * 2005-10-04 2007-04-05 Alexander Eugene J System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
US8848035B2 (en) * 2005-10-04 2014-09-30 Motion Analysis Corporation Device for generating three dimensional surface models of moving objects
US7702131B2 (en) * 2005-10-13 2010-04-20 Fujifilm Corporation Segmenting images and simulating motion blur using an image sequence
US7697850B2 (en) * 2005-10-31 2010-04-13 Infoprint Solutions Company, Llc Image-based printer system monitoring
EP1960941A4 (en) * 2005-11-10 2012-12-26 Motion Analysis Corp DEVICE AND METHOD FOR CALIBRATING AN IMAGING DEVICE FOR GENERATING THREE-DIMENSIONAL SURFACE MODELS OF MOBILE OBJECTS
US8949235B2 (en) 2005-11-15 2015-02-03 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Methods and systems for producing a video synopsis using clustering
EP1955205B1 (en) * 2005-11-15 2012-08-29 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for producing a video synopsis
US7768527B2 (en) * 2006-05-31 2010-08-03 Beihang University Hardware-in-the-loop simulation system and method for computer vision
WO2008094172A2 (en) * 2006-06-01 2008-08-07 University Of Florida Research Foundation, Inc. Radar microsensor for detection, tracking, and classification
JP4215781B2 (ja) * 2006-06-16 2009-01-28 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
JP4603512B2 (ja) * 2006-06-16 2010-12-22 独立行政法人産業技術総合研究所 異常領域検出装置および異常領域検出方法
JP5145664B2 (ja) * 2006-07-18 2013-02-20 富士ゼロックス株式会社 遠隔指示システム
US20080036864A1 (en) * 2006-08-09 2008-02-14 Mccubbrey David System and method for capturing and transmitting image data streams
JP4429298B2 (ja) * 2006-08-17 2010-03-10 独立行政法人産業技術総合研究所 対象個数検出装置および対象個数検出方法
US8121356B2 (en) * 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US20080074494A1 (en) * 2006-09-26 2008-03-27 Harris Corporation Video Surveillance System Providing Tracking of a Moving Object in a Geospatial Model and Related Methods
US8482609B1 (en) * 2006-11-22 2013-07-09 Sightlogix, Inc. Methods and apparatus related to surveillance system marketing, planning and/or integration
US7777783B1 (en) * 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
WO2009023044A2 (en) * 2007-04-24 2009-02-19 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
US8929645B2 (en) 2007-04-24 2015-01-06 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
ITMI20071016A1 (it) 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
US8350908B2 (en) * 2007-05-22 2013-01-08 Vidsys, Inc. Tracking people and objects using multiple live and recorded surveillance camera video feeds
US7965865B2 (en) * 2007-05-31 2011-06-21 International Business Machines Corporation Method, system, and program product for presenting electronic surveillance data
US9305401B1 (en) * 2007-06-06 2016-04-05 Cognitech, Inc. Real-time 3-D video-security
US8009178B2 (en) * 2007-06-29 2011-08-30 Microsoft Corporation Augmenting images for panoramic display
WO2009006605A2 (en) * 2007-07-03 2009-01-08 Pivotal Vision, Llc Motion-validating remote monitoring system
US20100259655A1 (en) * 2007-11-01 2010-10-14 Konica Minolta Holdings, Inc. Imaging device
RU2498408C2 (ru) * 2007-12-10 2013-11-10 Абб Рисерч Лтд Реализуемые компьютером способ и система для дистанционного контроля производственного процесса
GB2457707A (en) * 2008-02-22 2009-08-26 Crockford Christopher Neil Joh Integration of video information
FR2932351B1 (fr) * 2008-06-06 2012-12-14 Thales Sa Procede d'observation de scenes couvertes au moins partiellement par un ensemble de cameras et visualisables sur un nombre reduit d'ecrans
US8311275B1 (en) * 2008-06-10 2012-11-13 Mindmancer AB Selective viewing of a scene
TW200952486A (en) * 2008-06-13 2009-12-16 Ind Tech Res Inst Video surveillance system, module and method for annotation and de-annotation thereof
US9071626B2 (en) 2008-10-03 2015-06-30 Vidsys, Inc. Method and apparatus for surveillance system peering
US20100194861A1 (en) * 2009-01-30 2010-08-05 Reuben Hoppenstein Advance in Transmission and Display of Multi-Dimensional Images for Digital Monitors and Television Receivers using a virtual lens
JP2010206475A (ja) * 2009-03-03 2010-09-16 Fujitsu Ltd 監視支援装置、その方法、及びプログラム
US8862987B2 (en) 2009-03-31 2014-10-14 Intel Corporation Capture and display of digital images based on related metadata
WO2010116364A1 (en) * 2009-04-05 2010-10-14 Tadsec Advanced Homeland Security Technologies Ltd A security management system and method
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
US8639046B2 (en) * 2009-05-04 2014-01-28 Mamigo Inc Method and system for scalable multi-user interactive visualization
US20120188333A1 (en) * 2009-05-27 2012-07-26 The Ohio State University Spherical view point controller and method for navigating a network of sensors
US8890937B2 (en) 2009-06-01 2014-11-18 The Curators Of The University Of Missouri Anonymized video analysis methods and systems
FR2946440B1 (fr) * 2009-06-05 2012-01-13 Thales Sa Dispositif de simulation d'un environnement d'un systeme de supervision d'une infrastructure
JP5602231B2 (ja) * 2009-08-20 2014-10-08 パーデュー・リサーチ・ファウンデーション イベント駆動ワイヤレス・センサ・ネットワークのための予測的デューティ・サイクル順応方法
CN101635840B (zh) * 2009-08-26 2011-04-20 中兴通讯股份有限公司 一种视频监控场景切换方法及视频监控系统
CN102055901B (zh) * 2009-11-05 2014-01-22 鸿富锦精密工业(深圳)有限公司 Ptz摄影机及其ptz控制方法
US20110110557A1 (en) * 2009-11-06 2011-05-12 Nicholas Clark Geo-locating an Object from Images or Videos
WO2011059193A2 (en) * 2009-11-10 2011-05-19 Lg Electronics Inc. Method of recording and replaying video data, and display device using the same
EP2499827A4 (en) * 2009-11-13 2018-01-03 Pixel Velocity, Inc. Method for tracking an object through an environment across multiple cameras
KR20110079164A (ko) * 2009-12-31 2011-07-07 삼성테크윈 주식회사 촬영장치 핸드오프 방법 및 이를 적용한 감시 장치
DE102010003336A1 (de) * 2010-03-26 2011-09-29 Robert Bosch Gmbh Verfahren zur Visualisierung von Aktivitätsschwerpunkten in Überwachungsszenen
SG184520A1 (en) * 2010-03-26 2012-11-29 Fortem Solutions Inc Effortless navigation across cameras and cooperative control of cameras
CN102223473A (zh) * 2010-04-16 2011-10-19 鸿富锦精密工业(深圳)有限公司 摄像装置及利用其动态追踪特定物体的方法
US9569442B2 (en) * 2010-04-27 2017-02-14 The Radiant Group, Inc. Geo-location video archive system and method
US9635251B2 (en) * 2010-05-21 2017-04-25 Qualcomm Incorporated Visual tracking using panoramas on mobile devices
US8933986B2 (en) 2010-05-28 2015-01-13 Qualcomm Incorporated North centered orientation tracking in uninformed environments
US8531504B2 (en) 2010-06-11 2013-09-10 Intel Corporation System and method for 3D video stabilization by fusing orientation sensor readings and image alignment estimates
TW201215078A (en) * 2010-09-21 2012-04-01 Hon Hai Prec Ind Co Ltd Handheld device and method for changing an image source using the handheld device
IL208910A0 (en) * 2010-10-24 2011-02-28 Rafael Advanced Defense Sys Tracking and identification of a moving object from a moving sensor using a 3d model
US20120105581A1 (en) * 2010-10-29 2012-05-03 Sony Corporation 2d to 3d image and video conversion using gps and dsm
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
JP5883881B2 (ja) * 2010-11-17 2016-03-15 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッドOmron Scientific Technologies, Inc. ゾーンを監視する方法及び装置
KR20120065817A (ko) * 2010-12-13 2012-06-21 한국전자통신연구원 지능형 출입 감시 방법 및 시스템, 지능형 출입 감시를 위한 출입 감시 장치, 지능형 출입 감시를 위한 프로그램이 기록된 기록매체
US8971641B2 (en) * 2010-12-16 2015-03-03 Microsoft Technology Licensing, Llc Spatial image index and associated updating functionality
MY171846A (en) * 2010-12-27 2019-11-04 Mimos Berhad System and method for navigation and visualization
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
KR101302803B1 (ko) * 2011-05-26 2013-09-02 주식회사 엘지씨엔에스 네트워크 카메라를 이용한 지능형 감시 방법 및 시스템
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
FR2976107B1 (fr) * 2011-05-30 2014-01-03 Commissariat Energie Atomique Procede de localisation d'une camera et de reconstruction 3d dans un environnement partiellement connu
US8368690B1 (en) 2011-07-05 2013-02-05 3-D Virtual Lens Technologies, Inc. Calibrator for autostereoscopic image display
US8817067B1 (en) * 2011-07-29 2014-08-26 Google Inc. Interface for applying a photogrammetry algorithm to panoramic photographic images
US9129400B1 (en) * 2011-09-23 2015-09-08 Amazon Technologies, Inc. Movement prediction for image capture
US20140340404A1 (en) * 2011-12-16 2014-11-20 Thomson Licensing Method and apparatus for generating 3d free viewpoint video
US20130208123A1 (en) * 2012-02-13 2013-08-15 Honeywell International Inc. Method and System for Collecting Evidence in a Security System
US9195883B2 (en) 2012-04-09 2015-11-24 Avigilon Fortress Corporation Object tracking and best shot detection system
US9408561B2 (en) 2012-04-27 2016-08-09 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
US9597016B2 (en) 2012-04-27 2017-03-21 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9886761B2 (en) * 2012-06-08 2018-02-06 Sony Corporation Information processing to display existing position of object on map
US9087386B2 (en) 2012-11-30 2015-07-21 Vidsys, Inc. Tracking people and objects using multiple live and recorded surveillance camera video feeds
US10084994B2 (en) * 2012-12-12 2018-09-25 Verint Systems Ltd. Live streaming video over 3D
US9648075B1 (en) * 2012-12-18 2017-05-09 Google Inc. Systems and methods for providing an event map
JP6171374B2 (ja) 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR101383997B1 (ko) * 2013-03-08 2014-04-10 홍익대학교 산학협력단 실시간 동영상 합병 방법 및 시스템, 실시간 동영상 합병을 이용한 영상 감시 시스템 및 가상 영상 투어 시스템
KR101491324B1 (ko) * 2013-10-08 2015-02-06 현대자동차주식회사 차량용 영상 획득 장치
US9613448B1 (en) 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
JP6357023B2 (ja) * 2014-06-06 2018-07-11 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理装置の制御方法および情報処理システム
WO2016014233A1 (en) * 2014-07-25 2016-01-28 mindHIVE Inc. Real-time immersive mediated reality experiences
US10412594B2 (en) 2014-07-31 2019-09-10 At&T Intellectual Property I, L.P. Network planning tool support for 3D data
EP3016382B1 (en) 2014-10-27 2016-11-30 Axis AB Monitoring methods and devices
SG10201407100PA (en) 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
KR102282456B1 (ko) * 2014-12-05 2021-07-28 한화테크윈 주식회사 평면도에 히트맵을 표시하는 장치 및 방법
US10147210B1 (en) 2015-03-13 2018-12-04 Amazon Technologies, Inc. Data visualization system
US11864926B2 (en) 2015-08-28 2024-01-09 Foresite Healthcare, Llc Systems and methods for detecting attempted bed exit
US10206630B2 (en) 2015-08-28 2019-02-19 Foresite Healthcare, Llc Systems for automatic assessment of fall risk
US9681111B1 (en) 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream
US10033928B1 (en) 2015-10-29 2018-07-24 Gopro, Inc. Apparatus and methods for rolling shutter compensation for multi-camera systems
US9973696B1 (en) 2015-11-23 2018-05-15 Gopro, Inc. Apparatus and methods for image alignment
US9792709B1 (en) 2015-11-23 2017-10-17 Gopro, Inc. Apparatus and methods for image alignment
US9848132B2 (en) 2015-11-24 2017-12-19 Gopro, Inc. Multi-camera time synchronization
US9667859B1 (en) 2015-12-28 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US9922387B1 (en) 2016-01-19 2018-03-20 Gopro, Inc. Storage of metadata and images
US9967457B1 (en) 2016-01-22 2018-05-08 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US9665098B1 (en) 2016-02-16 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle
US9973746B2 (en) 2016-02-17 2018-05-15 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US9602795B1 (en) 2016-02-22 2017-03-21 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US9743060B1 (en) 2016-02-22 2017-08-22 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US10043058B2 (en) * 2016-03-09 2018-08-07 International Business Machines Corporation Face detection, representation, and recognition
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
EP3236440B1 (de) * 2016-04-18 2021-03-03 Hesotech GmbH automatisieren - visualisieren Vorrichtung, system und verfahren zur markierungsfreien hangüberwachung und/oder bauüberwachung
EP3474737A4 (en) 2016-06-28 2019-12-04 Foresite Healthcare, LLC SYSTEMS AND METHODS FOR USE IN FALL DETECTION USING THERMAL DETECTION
US9934758B1 (en) 2016-09-21 2018-04-03 Gopro, Inc. Systems and methods for simulating adaptation of eyes to changes in lighting conditions
US10268896B1 (en) 2016-10-05 2019-04-23 Gopro, Inc. Systems and methods for determining video highlight based on conveyance positions of video content capture
US9973792B1 (en) 2016-10-27 2018-05-15 Gopro, Inc. Systems and methods for presenting visual information during presentation of a video segment
KR20180092163A (ko) * 2017-02-08 2018-08-17 삼성전자주식회사 비디오 재생을 위한 전자 장치 및 서버
US10194101B1 (en) 2017-02-22 2019-01-29 Gopro, Inc. Systems and methods for rolling shutter compensation using iterative process
US10187607B1 (en) 2017-04-04 2019-01-22 Gopro, Inc. Systems and methods for using a variable capture frame rate for video capture
JP6871801B2 (ja) * 2017-05-11 2021-05-12 キヤノン株式会社 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP7119425B2 (ja) * 2018-03-01 2022-08-17 ソニーグループ株式会社 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
JP6828708B2 (ja) * 2018-03-29 2021-02-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
US10902680B2 (en) * 2018-04-03 2021-01-26 Saeed Eslami Augmented reality application system and method
US10574975B1 (en) 2018-08-08 2020-02-25 At&T Intellectual Property I, L.P. Method and apparatus for navigating through panoramic content
US11196968B1 (en) * 2018-08-08 2021-12-07 Alarm.Com Incorporated System for generating drone video feed overlays based on property monitoring system data
JP2020086700A (ja) * 2018-11-20 2020-06-04 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、表示装置
US10902685B2 (en) * 2018-12-13 2021-01-26 John T. Daly Augmented reality remote authoring and social media platform and system
US11587420B2 (en) * 2019-03-14 2023-02-21 Johnson Controls Tyco IP Holdings LLP Systems and methods of combining RFID and VMS for people tracking and intrusion detection
JP7459870B2 (ja) * 2019-04-18 2024-04-02 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
KR102152319B1 (ko) * 2019-08-09 2020-09-04 주식회사 벡터시스 3d 공간상에서 객체의 위치와 크기를 계산하는 방법 및 이를 이용한 영상관제시스템
EP3816942A1 (en) * 2019-10-29 2021-05-05 Koninklijke Philips N.V. An image processing method for setting transparency values and color values of pixels in a virtual image
TWI726536B (zh) 2019-12-16 2021-05-01 財團法人工業技術研究院 影像擷取方法及影像擷取設備
CN111526328B (zh) * 2020-03-18 2022-01-04 深圳市华橙数字科技有限公司 视频监控巡视方法、装置、终端及存储介质
DE102020213288A1 (de) * 2020-10-21 2022-04-21 Robert Bosch Gesellschaft mit beschränkter Haftung Anzeigevorrichtung für ein Videoüberwachungssystem, Videoüberwachungssystem sowie Verfahren
CN112584060A (zh) * 2020-12-15 2021-03-30 北京京航计算通讯研究所 一种视频融合系统
CN112584120A (zh) * 2020-12-15 2021-03-30 北京京航计算通讯研究所 一种视频融合方法
US11790648B2 (en) * 2021-02-25 2023-10-17 MFTB Holdco, Inc. Automated usability assessment of buildings using visual data of captured in-room images
US20240171709A1 (en) * 2022-11-21 2024-05-23 Fusus, Inc. Emergency dispatch system with video security camera feeds augmented by 360-degree static images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289275A1 (en) * 2004-06-25 2005-12-29 Jung Edward K Frequency reuse techniques in mote-appropriate networks

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US529471A (en) * 1894-11-20 Filter
US526785A (en) * 1894-10-02 Theodore g
US3018349A (en) * 1960-04-08 1962-01-23 Rt & E Corp Fuse construction
KR920010745B1 (ko) 1989-11-21 1992-12-14 주식회사 금성사 부재중 비상사태 원격감시시스템 및 화상 송,수신 처리방법
US5276785A (en) 1990-08-02 1994-01-04 Xerox Corporation Moving viewpoint with respect to a target in a three-dimensional workspace
US5182641A (en) 1991-06-17 1993-01-26 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Composite video and graphics display for camera viewing systems in robotics and teleoperation
US5289275A (en) 1991-07-12 1994-02-22 Hochiki Kabushiki Kaisha Surveillance monitor system using image processing for monitoring fires and thefts
JPH0628132A (ja) 1992-07-09 1994-02-04 Mitsubishi Heavy Ind Ltd 監視装置
JPH07325934A (ja) * 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
CA2195415A1 (en) 1994-07-26 1996-02-08 Scott Anthony Rhodes A video security system
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
WO1996022588A1 (en) 1995-01-17 1996-07-25 David Sarnoff Research Center, Inc. Method and apparatus for detecting object movement within an image sequence
JPH08287288A (ja) * 1995-03-24 1996-11-01 Internatl Business Mach Corp <Ibm> 対話式三次元グラフィックスにおける複数側面アノテーション及びホットリンク
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
DE69635347T2 (de) 1995-07-10 2006-07-13 Sarnoff Corp. Verfahren und system zum wiedergeben und kombinieren von bildern
JP3365182B2 (ja) 1995-12-27 2003-01-08 三菱電機株式会社 映像監視装置
AU2545797A (en) 1996-03-29 1997-10-22 D. Mark Brian Surveillance system having graphic video integration controller and full motion video switcher
US5850469A (en) 1996-07-09 1998-12-15 General Electric Company Real time tracking of camera pose
US6031573A (en) 1996-10-31 2000-02-29 Sensormatic Electronics Corporation Intelligent video information management system performing multiple functions in parallel
JP3718579B2 (ja) * 1996-11-19 2005-11-24 住友電気工業株式会社 映像監視システム
JPH10188183A (ja) 1996-12-26 1998-07-21 Matsushita Electric Works Ltd 自火報設備用表示操作装置
JPH10210546A (ja) 1997-01-17 1998-08-07 Sony Corp 無線通信システム及び固定局装置並びに移動局装置
JPH10240908A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 映像合成方法
US6512857B1 (en) 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US6009190A (en) * 1997-08-01 1999-12-28 Microsoft Corporation Texture map construction method and apparatus for displaying panoramic image mosaics
US6018349A (en) 1997-08-01 2000-01-25 Microsoft Corporation Patch-based alignment method and apparatus for construction of image mosaics
DE69823116D1 (de) 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
US6108437A (en) 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
US6144375A (en) 1998-08-14 2000-11-07 Praja Inc. Multi-perspective viewer for content-based interactivity
EP1112549A4 (en) 1998-09-10 2004-03-17 Mate Media Access Technologies METHOD FOR INDEXING FACES FOR NAVIGATION AND EFFECTIVE SEARCHING OF PEOPLE IN VIDEO IMAGES
US7124427B1 (en) 1999-04-30 2006-10-17 Touch Technologies, Inc. Method and apparatus for surveillance using an image server
US6424370B1 (en) 1999-10-08 2002-07-23 Texas Instruments Incorporated Motion based event detection system and method
JP2001202531A (ja) * 1999-10-15 2001-07-27 Hitachi Kokusai Electric Inc 動画像編集方法
JP4564117B2 (ja) 1999-10-20 2010-10-20 綜合警備保障株式会社 警備システム
US7522186B2 (en) 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
EP1297691A2 (en) 2000-03-07 2003-04-02 Sarnoff Corporation Camera pose estimation
IL136080A0 (en) 2000-05-11 2001-05-20 Yeda Res & Dev Sequence-to-sequence alignment
WO2002015454A2 (en) 2000-08-16 2002-02-21 Sagarmatha Ltd. Method and system for automatically producing optimized personalized offers
US20020097798A1 (en) 2000-11-17 2002-07-25 Yehuda Manor System and method for coding and decoding
IL156250A0 (en) 2000-12-05 2004-01-04 Yeda Res & Dev Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
US6987512B2 (en) 2001-03-29 2006-01-17 Microsoft Corporation 3D navigation techniques
EP1410621A1 (en) 2001-06-28 2004-04-21 Omnivee Inc. Method and apparatus for control and processing of video images
US7509241B2 (en) 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US6989745B1 (en) 2001-09-06 2006-01-24 Vistascape Security Systems Corp. Sensor device for use in surveillance system
AU2002366985A1 (en) 2001-12-26 2003-07-30 Yeda Research And Development Co.Ltd. A system and method for increasing space or time resolution in video
US20040240562A1 (en) 2003-05-28 2004-12-02 Microsoft Corporation Process and system for identifying a position in video using content-based video timelines
US7633520B2 (en) 2003-06-19 2009-12-15 L-3 Communications Corporation Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system
US20060007308A1 (en) 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289275A1 (en) * 2004-06-25 2005-12-29 Jung Edward K Frequency reuse techniques in mote-appropriate networks

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557087B2 (en) 2018-12-19 2023-01-17 Sony Group Corporation Image processing apparatus and image processing method for generating a strobe image using a three-dimensional model of an object

Also Published As

Publication number Publication date
WO2003067537A2 (en) 2003-08-14
US20090237508A1 (en) 2009-09-24
JP2005517253A (ja) 2005-06-09
KR20040053257A (ko) 2004-06-23
WO2003067537A3 (en) 2003-11-20
US7522186B2 (en) 2009-04-21
EP1449180A4 (en) 2008-05-14
EP1449180A2 (en) 2004-08-25
CA2466085A1 (en) 2003-08-14
IL161400A0 (en) 2004-09-27
US20030085992A1 (en) 2003-05-08

Similar Documents

Publication Publication Date Title
KR100940142B1 (ko) 몰입형 감시를 제공하기 위한 방법 및 장치
KR100271384B1 (ko) 패턴 키 삽입 기법을 이용하는 비디오 합성방법 및 장치
CN101542538B (zh) 用来对光进行建模的方法与系统
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
US20050275723A1 (en) Virtual mask for use in autotracking video camera images
US20120033083A1 (en) Verfahren zur videoanalyse
US9648271B2 (en) System for filming a video movie
JP2002259976A (ja) 特定点検出方法及び装置
JP2010504711A (ja) 地理空間モデルにおいて移動しているオブジェクトを追跡する映像監視システム及びその方法
JP2004525437A (ja) 一群の実際のビデオおよび/または静止画像から新規ビデオおよび/または静止画像を合成する方法および装置
CA2534747A1 (en) Method and apparatus for placing sensors using 3d models
US9008361B2 (en) Method for visualizing zones of higher activity in surveillance scenes
Côté et al. Live mobile panoramic high accuracy augmented reality for engineering and construction
TWI821220B (zh) 影像擷取之設備及方法
KR101073432B1 (ko) 3차원 공간정보를 통합한 도시 관리 시스템 구축장치 및 방법
Böhm Multi-image fusion for occlusion-free façade texturing
CN102957895A (zh) 一种基于卫星图的全局拼接型视频监控显示方法
JP5213883B2 (ja) 合成表示装置
JP2003319388A (ja) 画像処理方法及び装置
WO2021160476A1 (en) A camera system with multiple cameras
JP2004030408A (ja) 三次元画像表示装置及び表示方法
JP7479793B2 (ja) 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
GB2352899A (en) Tracking moving objects
Chen et al. A 3-D surveillance system using multiple integrated cameras
Chen et al. Integration of multiple views for a 3-d indoor surveillance system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130125

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140121

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141114

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee