KR20160031464A - 비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템 - Google Patents

비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템 Download PDF

Info

Publication number
KR20160031464A
KR20160031464A KR1020157036849A KR20157036849A KR20160031464A KR 20160031464 A KR20160031464 A KR 20160031464A KR 1020157036849 A KR1020157036849 A KR 1020157036849A KR 20157036849 A KR20157036849 A KR 20157036849A KR 20160031464 A KR20160031464 A KR 20160031464A
Authority
KR
South Korea
Prior art keywords
camera
sensor
computerized
data
module
Prior art date
Application number
KR1020157036849A
Other languages
English (en)
Inventor
이삭 파르토쉬
쟌-프랑수아 스즐라프카
로버트-엠마뉴엘 리노
Original Assignee
솔리다님
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 솔리다님 filed Critical 솔리다님
Publication of KR20160031464A publication Critical patent/KR20160031464A/ko

Links

Images

Classifications

    • H04N5/232
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/253Picture signal generating by scanning motion picture films or slide opaques, e.g. for telecine

Abstract

본 발명은 필름 촬영 시스템에 관한 것으로, 이는 카메라(3); 광학 모드에서 데이터를 기록하도록 된 적어도 하나의 광 센서를 포함하는 제 1 광 센서 시스템(9) 및 데이터를 기록하도록 된 적어도 하나의 센서를 포함하는 제 2 센서 시스템(10)을 포함하는 센서 시스템(7); 제 1 센서 시스템의 적어도 하나의 센서로부터 및 제 2 시스템의 적어도 하나의 센서로부터의 데이터를 통합하며 그리고 상기 데이터로부터 카메라의 위치 데이터를 판별하도록 된 컴퓨터화된 추적 모듈(8); 광학 모드 및 제 2 모드에서 판별된 위치 데이터 둘다로부터 카메라(3)의 위치 데이터를 반복적으로 판별하도록 된 컴퓨터화된 결합 모듈(21)을 포함한다.

Description

비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템{SYSTEM FOR TRACKING THE POSITION OF THE SHOOTING CAMERA FOR SHOOTING VIDEO FILMS}
본 발명은 비디오를 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템에 관한 발명이다.
비디오를 촬영할 때, 촬영 카메라의 위치 및 방위를 실시간으로 모니터링하는 것은 매우 유용할 수 있다.
실제로, 특히 증대된 리얼리티 시퀀스(reality sequence)를 갖는 비디오의 경우, 실제 및 가상 장면들이 병합되는 경우에 이들이 동일한 관점(point of view)에서 촬영되었다라는 인상을 주도록 컴퓨터 프로그램의 가상 카메라 상에서 이를 동일하게 재현하기 위해서는 촬영 동안의 카메라의 움직임을 알고 있어야 한다. 또한, 이러한 정보는 예컨대, 시퀀스가 누락(missing)되었거나 또는 양호하게 촬영되지 못한 경우에 이미지를 재건하는데 있어 매우 유용하다.
광학 센서들을 통해 촬영 동안에 이용되는 공간적 추적 시스템(spatial tracking system)을 갖는 디바이스들이 공지되어 있다.
이러한 시스템에서, 센서는 천장(ceiling) 상에 배치된 패턴들을 매우 정확하게 캡춰한다. 하지만, 촬영 카메라의 위치를 더 유연하게 결정할 수 있는 것이 바람직하다.
이를 위하여, 본 발명은 실제 기준 프레임에서 정의되는 실제 공간에서 비디오를 촬영하기 위한 시스템에 관한 것이며, 상기 시스템은, 복수의 개별 시간 프레임들에 대해 실제 이미지를 기록하도록 된 촬영 카메라; 적어도 하나의 광 센서를 포함하며 그리고 광학 모드에서 데이터를 기록하도록 된 제 1 광 센서 시스템과 그리고 데이터를 기록하도록 된 적어도 하나의 센서를 포함하는 제 2 센서 시스템(10)을 포함하는 센서 시스템; 제 1 광 센서 시스템의 적어도 하나의 센서로부터의 데이터를 통합하며 그리고 이들 데이터에 기초하여 실제 공간에서 촬영 카메라의 위치 데이터를 판별하도록 된 컴퓨터화된 추적 모듈, 상기 컴퓨터화된 추적 모듈은 상기 제 2 센서 시스템의 적어도 하나의 센서로부터의 데이터를 통합하고 그리고 이들 데이터로부터 실제 공간에서 촬영 카메라의 위치 데이터를 판별하며; 광학 모드에서 판별된 위치 데이터 및 제 2 모드에서 판별된 위치 데이터 둘다에 기초하여 촬영 카메라의 실제 기준 프레임에서의 위치 데이터를 반복적으로 판별하도록 된 컴퓨터화된 결합 모듈을 포함한다.
이들 피처들은 매우 큰 정확도를 가지고 촬영 카메라의 위치를 핀포인팅할 수 있게하며, 그리고 광 센서들의 단일 시스템을 이용하는 경우에 발생할 수 있는 촬영 카메라의 위치에 관한 정보를 손실하는 문제들을 경감할 수 있다. 광 센서들의 제 1 시스템과 제 2 시스템을 결합하여 사용하는 것은, 매우 다른 유형들의 데이터에 대해서, 촬영 카메라 추적 시스템의 전체적인 강건성(robustness)을 개선시킬 수 있다.
본 발명의 선호되는 실시예들에서, 다음의 구성들 중 하나 이상이 사용될 수 있다.
- 컴퓨터화된 결합 모듈은 제 1 추적 시스템에 의해서 판별된 위치, 제 2 추적 시스템에 의해서 판별된 위치 및 C = aA + (1-a)B 로부터 획득된 가중화 계수를 결합함으로써, 상기 촬영 카메라의 위치를 판별하며, 상기 가중화 계수는 0 이상 1 이하의 값을 가질 수 있다.
- 컴퓨터화된 결합 모듈은, 광학 모드에서 획득된 위치 데이터와 제 2 모드에서 획득된 위치 데이터 사이의 차이를 판별하여 결과 함수를 생성하도록 된 컴퓨터를 포함하며, 그리고 컴퓨터화된 결합 모듈은 또한 상기 결과 함수를 임계값과 비교하여 비교 함수를 생성하도록 된 비교기를 포함하며, 상기 비교 함수는 값들의 리스트 중에서 하나의 값을 취하며, 그리고 상기 컴퓨터화된 결합 모듈은, 상기 비교 함수를 입력으로서 수신하고 상기 비교 함수의 값들에 각각 대응하는 상기 광학 모드와 상기 제 2 모드를 적어도 포함하는 리스트로부터 모드 선택 신호를 출력하는 선택기를 또한 포함하며, 상기 가중화 계수는 0 또는 1 값을 각각 취한다.
- 상기 시스템은 리스트로부터 모드를 기계적으로 선택하도록 된 버튼을 포함한다.
- 제 1 광 센서 시스템은, 상기 광 센서에 의해서 검출된 자연적인 지형 정보의 다수의 검출가능한 포인트들을 평가하는 평가기와, 상기 평가기로부터의 데이터를 통합하고 그리고 광학 모드에서 기록된 데이터에 대한 신뢰도 계수를 출력하여 상기 광 센서 및 센서로부터의 위치 데이터에 대해 가중화 계수를 판별할 수 있는 신뢰성 모듈을 포함한다.
- 상기 선택기는 또한, 상기 신뢰도 계수를 입력 신호로서 수신한다.
- 상기 제 2 센서 시스템은, 촬영 카메라의 시야의 변화를 야기하는 기계적인 움직임을 판별하고 그리고 기계적 모드에서 시야 변화 데이터를 기록하도록 된 적어도 하나의 시야 방위 센서(field-of-view orientation sensor)를 포함한다.
- 상기 촬영 카메라의 공간적인 제 1 광 센서 시스템은, 각각의 시간 프레임에 대해 알려진 상기 촬영 카메라에 관한 위치 데이터를 제공하는 적어도 하나의 광 센서를 포함하며, 그리고 상기 적어도 하나의 광 센서는 상기 광 센서에 의해서 검출된 자연적인 지형 정보를 상기 컴퓨터화된 추적 모듈로 전송하도록 구성된다.
- 상기 컴퓨터화된 추적 모듈은, 상기 광 센서에 의해서 검출된 자연적인 지형 정보를 실제 공간에 대한 기결정된 3차원 모델과 비교한다.
- 상기 추적 시스템은 실제 공간에 대한 기결정된 3차원 모델을 생성하도록 된 컴퓨터화된 생성 모듈을 포함하며, 상기 광 센서는 상기 광 센서에 의해서 검출된 지형 정보를 상기 컴퓨터화된 생성 모듈로 전송한다.
- 상기 광 센서는 상기 광 센서에 의해서 검출된 자연적인 지형 정보를 상기 컴퓨터화된 추적 모듈 및 상기 컴퓨터화된 생성 모듈로 동시에 전송하도록 구성되며, 그리고 상기 컴퓨터화된 생성 모듈은 상기 광 센서에 의해서 검출된 자연적인 지형 정보에 따라, 상기 실제 공간에 대한 기결정된 3차원 모델을 증강한다.
- 촬영 설정에서, 상기 촬영 카메라와 광 센서는 서로 고정되게 부착된다.
- 상기 시야 방위 센서는 상기 촬영 카메라에 합체된 관성 센서이며 그리고 상기 촬영 카메라의 위치 변화들에 관한 데이터를 기록한다.
- 상기 관성 센서는 자이로스코프 혹은 관성 큐브를 포함한다.
- 상기 촬영 카메라는 베이스 상의 이동가능한 지지대에 의해서 운반되며, 그리고 상기 시야 방위 센서는 상기 촬영 카메라를 위한 상기 지지대에 고정되며 상기 촬영 카메라를 위한 상기 지지대의 위치에 있어서의 변화들에 관한 기록 데이터를 기록하도록 된 기계적인 인코더를 포함한다.
- 상기 시스템은 상기 카메라의 상기 내부 캡춰 파라미터들에 대한 외부 기계적 인코더(external mechanical encoder)를 포함하며, 외부 기계적 인코더는 줌(zoom), 조리개(diaphram), 초점 길이(focus length)와 같은 카메라의 내부 캡춰 파라미터들의 변화들에 관한 데이터를 기록하도록 구성된다.
- 상기 카메라의 내부 캡춰 파라미터들의 변화들에 관한 데이터는, 상기 컴퓨터화된 추적 모듈로의 데이터 입력에 통합된다.
- 컴퓨터화된 촬영 모듈은 촬영 카메라의 신호로부터의 데이터와 상기 촬영 카메라의 내부 캡춰 파라미터들을 통합시키도록 구성된다.
- 상기 시스템은 시야의 임의의 왜곡을 보정하도록 된 디바이스를 포함하며, 상기 디바이스는 카메라 데이터를 통합하며 그리고 상기 카메라 데이터를 상기 컴퓨터화된 촬영 모듈로 출력하도록 구성된다.
본 발명의 다른 피처들 및 장점들은 첨부된 도면들을 참조하여 비-제한적인 일례로서 제공되는 본 발명의 실시예들에 대한 다음의 설명으로부터 명백해질 것이다.
도1은 실제 공간(real space)을 도시한다.
도2는 촬영 시스템을 도시한다.
도3은 2개의 센서 시스템들을 도시한다.
도4는 촬영 시스템의 플로우 다이어그램이다.
도5는 광학 센서 시스템의 동작을 도시한다.
도6은 컴퓨터화된(computerized) 결합 모듈의 플로우 다이어그램이다.
도7은 촬영 시스템의 플로우 다이어그램이다.
다양한 도면들에서 동일한 참조번호들은 동일하거나 유사한 구성요소들을 나타낸다.
이제, 도1을 참조하여, 실제 공간(real space)(1)을 고려하자. 실제 공간(1)은 자연적인 지형 정보(natural topographical information)(2)를 갖는다. 이러한 정보는 예컨대, 포인트들, 라인들(lines), 표면들, 및/또는 체적들(volumes) 등과 같은, 실제 공간(1)의 기하학적 객체들(geometric objects)에 관한 것이다. 예를 들어, 우리는 구조물의 에지들을 라인들로서 인식할 수 있으며, 이러한 에지들 2개의 교차점들을 포인트들로 인식할 수 있다. 표면의 경우, 우리는 예를 들어 자동차의 후드(hood) 등과 같은 단단한 표면(solid surface)을 고려할 수 있다. 체적들의 경우, 우리는 예를 들어, 자동차 혹은 실제 공간(1) 내에 제공되는 몇몇 다른 객체들 등의 객체들을 참조할 수 있다. 실제 기준(1') 프레임(real frame of reference 1')은 실제 공간(1) 내의 로케이션들(locations)을 식별하기 위한 시스템이다.
이제, 촬영 설정(shooting configuration)에서 일실시예에 따라 비디오를 촬영하기 위한 시스템을 설명한다. 비디오는 빠른 주파수로 관찰자에게 보여지는 이미지들(프레임들)의 시퀀스이다(초당 다수의 프레임들, 예컨대, 초당 24 프레임(영화), 25 프레임(PAL), 30 프레임(NTSC)). 이미지들의 이러한 시퀀스를 예컨대, 극장 영화, TV 영화, 정보 메시지, 비디오 게임, 혹은 몇몇 다른 형태로 상영되거나 배포된다. 특히, 이러한 상영이나 배포는 촬영보다 나중에 일어날 수 있다. 이미지들의 시퀀스는 실제 공간(1)에서 발생하는 이벤트를 리카운트(recount)한다.
이러한 장면을 통상적으로 촬영하기에 적절한 임의 유형의 촬영 카메라(3)가 이러한 목적으로 이용된다. 특히, 초당 다수의 이미지들(예컨대, 초당 24 이미지들(프레임들))을 캡춰할 수 있는 디지털 카메라가 이용된다.
도2에 도시된 바와 같이, 카메라(3)는 렌즈를 포함하며, 렌즈는 시야(field of view)(4)에 있는 이미지들을 캡춰할 수 있으며 그리고 컴퓨터화된 촬영 모듈(shooting module)(40)에 연결된다. 이러한 연결은 예컨대, 적절한 케이블로 또는 무선으로(예를 들면 무선 전송 혹은 다른 수단들을 통해) 이루어질 수 있다. 촬영 카메라(shooting camera)(3)는 임의의 적절한 유형이 될 수 있지만, 본 발명에서는 촬영할 때에 시야(4)를 변경할 수 있는 것이 특히 바람직하다. 특히, 상기 시야(4)는 실제 공간(1) 내에서 촬영 카메라(3)를 이동시킴으로써 변할 수 있다.
다음과 같은 경우가 가능한바, 예를 들어, 1, 2, 혹은 3 자유도(degree of freedom)를 갖도록 레일(50) 혹은 지지대(4''') 상에 힌지되는 암(arm)(4'')을 갖는 크레인(52) 상에 마운트됨으로써 그리고 촬영 카메라(3)에 대한 가능한 위치들 중 하나를 정의함으로써, 촬영 카메라(3)는 실제 공간(1) 내에서 움직이도록 유도될 수 있다. 대안적으로는, 촬영 카메라(3)를 운반하는 조작자에 의해서 실제 공간(1) 내에서 움직일 수 있을 정도로 충분히 컴팩트한 촬영 카메라(3)가 이용될 수 있다.
본 발명의 일실시예에 따르면, 촬영 카메라(3)는 카메라(3)의 보디에 마운트된 모니터를 포함하며 그리고 카메라에 의해서 캡춰되는 시야(4)를 디스플레이하는, 촬영 조작자에게 보여지는 제어 스크린(6)을 갖는다(도2에서는 닫혀진 것으로 도시됨).
촬영 카메라는 또한, 도3에 표시된 바와 같이, 실제 공간(1)에서 촬영 카메라(3)를 감지하기 위한 센서 시스템(7)을 포함한다. 센서 시스템(7)은 2개의 센서 시스템들(9, 10)을 포함한다.
예컨대, 도3에 도시된 바와 같이, 제 1 광 센서 시스템(9)은 광 카메라인 광 센서(11)를 포함한다.
광 센서(11)는 촬영 카메라(3)에 대한 로케이션(location)을 제공하는 능력을 갖는데, 이는 항상 알려져 있다. 본 명세서에서 로케이션(location)은 촬영 카메라(3)에 대한 광 센서(11)의 위치(position) 및 방위(orientation)가 항상 알려져 있음을 의미하는 것으로 이해된다. 특히, 이것은 광 센서(11) 및 카메라(3)의 획득 시스템들의 상대적인 위치들 및 방위들에 관한 것이다(카메라의 경우 CCD 어레이). 이것은, 예를 들면 클램프 혹은 다른 임의의 적절한 기계적 시스템에 의해서 광 센서(11)를 촬영 카메라(3)에 단단하게 부착시킴으로써 매우 간단하게 성취될 수 있다.
광 센서(11)는 특히, 캡춰 필드(field of capture)(13)에 의해서 특징지워질 수 있다. 예를 들어, 촬영 카메라(3)의 그 어떤 부분도 임의의 캡춰 필드(13)를 가로막지 않으며 그리고 광 센서(11)의 그 어떤 부분도 임의의 시야(4)를 가로막지 않도록, 광 센서(11)를 배치하는 것이 가능하다.
특정 실시예에서, 추적(tracking)에 특히 전용되며 그리고 촬영 카메라(3)와는 구별되는 획득 특성들을 갖는 광 센서(11)가 이용된다. 따라서, 촬영 카메라(3)는 자신의 임무(촬영하는 것)에 전용될 수 있으며, 그리고 광 센서(11)는 자신의 임무(위치 찾기)에 전용될 수 있다.
광 센서(11)가 촬영 카메라에 부착된다면, 작은 치수의 광학 카메라가 광 센서(11)를 위해 제공될 수 있는데 특히, 체적에 있어서 상기 촬영 카메라(3)의 적어도 1/2 인 광학 카메라가 제공될 수 있다. 따라서, 조작자는 최소한의 불편함을 경할 것이다.
특히, 실제 공간(1) 내에서 촬영 카메라의 위치를 획득하는데 특별히 전용되며 그리고 촬영 카메라(3) 보다 적어도 2배의 캡춰 속도(예컨대, 초당 100 프레임)를 갖는 광학 카메라가 선택될 수 있는바, 따라서 매 타임 프레임 마다 실제 공간(1) 내의 촬영 카메라의 위치를 계산함으로써 데이터를 스무딩(smoothing)할 수 있다. 특히, 실제 공간에서 캡춰되는 정보를 최대화하고 그리고 촬영 카메라의 위치를 계산하는데 유용하도록, 촬영 카메라의 시야(4) 보다 20배 만큼 큰 시야(시야의 입체각: solid angle of the field of view)를 갖는 광학 카메라를 또한 선택할 수 있다. 따라서, 160도를 초과하는 캡춰 각도를 제공하는 예컨대, 광각 렌즈(어안 렌즈: fish eye lens)가 사용될 수 있다.
실제 공간(1) 내에서 광 센서(11)의 위치를 결정할 수 있도록, 광 센서(11)는 실제 공간(1)에 관한 정보를 캡춰하기에 적합하다.
이러한 추적 시스템의 대안으로서, 제 1 광 센서 시스템(9)은 연속적으로 혹은 동시에 사용되는 복수의 광 센서들을 포함할 수 있다.
촬영 시스템은 또한, 컴퓨터화된(computerized) 추적 모듈(8)을 포함한다. 컴퓨터화된 추적 모듈(8)은, 도4에 도시된 바와 같이 센서 시스템(7)의 다양한 센서들로부터의 로케이션 데이터에 기초하여, 촬영 카메라(3)의 실제 기준(1') 프레임(real frame of reference 1') 내의 로케이션 데이터를 판별하는데 적합하다.
컴퓨터화된 추적 모듈(8)은 센서로부터 발생된 신호를 입력으로 수신하며 그리고 촬영 카메라(3)의 위치에 관한 정보를 출력으로 생성한다. 컴퓨터화된 추적 모듈(8)은 케이블 혹은 무선에 의해서 센서에 연결된다. 대안적으로, 컴퓨터화된 추적 모듈(8)은 다른 센서들로부터 데이터를 동시에 수신할 수도 있다.
특정 실시예에서, 컴퓨터화된 추적 모듈(8)은 제 1 광학 센서 시스템(9)의 광 센서(11)로부터 발생된 로케이션 데이터(11')를 수신한다.
컴퓨터화된 추적 모듈(8)은 다수의 광 센서들로부터 발생된 로케이션 데이터를 연속으로 혹은 동시에 수신할 수 있다.
특히, 촬영 설정에서, 이것은 실제 공간(1) 내의 로케이션 데이터가 광 센서(11)에 의해서 캡춰되도록 배치될 수 있으며, 따라서 컴퓨터화된 추적 모듈(8)은, 광 센서(11)에 의해서 수행된 캡춰에 대하여, 실제 공간(1)에 대한 기결정된 3 차원 모델(14)을 이용하여, 실제 공간(1) 내의 광 센서(11)의 위치(도5 참조)를 판별할 수 있다. 따라서, 컴퓨터화된 추적 모듈(8)은 실제 공간 내의 광 센서(11)의 가장 개연성있는(probable) 위치를 판별할 것이며, 이는 광 센서(11)에 의해서 캡춰된 데이터와 실제 공간(1)의 기결정된 3 차원 모델를 매칭하는 것을 가능케한다(도5에 도시된 바와 같이).
실제 공간(1) 내의 광 센서(11)의 위치를 알고 있으며 그리고 촬영 카메라(3)와 광 센서(11)의 상대적인 위치를 알고 있으므로, 컴퓨터화된 추적 모듈(8)은 실제 기준(1') 프레임(real frame of reference 1') 내에서 촬영 카메라(3)의 로케이션 데이터를 판별할 수 있다.
대안적으로, 촬영 카메라(3)의 위치는 광 센서(11)의 위치에 대한 명확한 판별이 없이, 직접 판별된다.
실제 공간(1)에 대한 기결정된 3 차원 모델(14)은 예를 들어, 실제 공간(1)은 자연적인 지형 정보(natural topographical information)(2)를 포함한다. 이것은 예를 들어, 적절한 수단에 의해서 이용가능해질 수 있다.
도5에 도시된 바와 같이, 3-차원 모델(14)은 컴퓨터화된 생성 모듈(33)에 의해서 학습 단계(learning phase) 동안에 생성된다. 상기 단계는 예를 들어, 촬영 전에 짧게 수행되며, 따라서 촬영시의 실제 공간(1)은 상기 기결정된 모델에 대응한다.
특정 일실시예에서, 촬영 카메라(3)의 위치를 식별하기 위하여, 이와 같이 생성된 3차원 모델이 컴퓨터화된 추적 모듈(8) 내에 도입되며, 그리고 상기 모듈은 도5에 도시된 바와 같이, 촬영 설정(shooting configuration)에서, 실제 공간(1) 내의 촬영 카메라(3)의 실제 위치를 항상 추적하기 위하여, 광 센서(11)에 의해서 검출된 자연적인 지형 정보(2)와 실제 공간(1)의 상기 기결정된 3차원 모델을 비교한다.
대안적으로, 광 센서(11)는, 광 센서(11)에 의해서 검출된 지형 정보(2)를 컴퓨터화된 생성 모듈(33)로 전송한다.
전용 광 센서(1)를 이용하여, 촬영 카메라(3)의 위치를 판별하기 위한 특정한 일실시예가 방금 서술되었다. 상기 센서는 촬영 카메라(3)에 의해서 촬영되는 실제 공간(1)를 향하여 지향될 수 있다(oriented). 또한, 다양한 방위들(orientations)을 갖는 다양한 광 센서들(11)이 이용될 수도 있다. 대안적으로, 광 센서(11)는 촬영 카메라(3)와 동일할 수도 있다. 이 경우, 자연적인 지형 정보(2)에 기초하여 자신의 위치를 판별하는데 촬영 카메라(3) 그 자체가 이용된다.
대안적으로, 자연적인 지형 정보 대신에, 교정 마커들(calibrated markers)이 이용된다. 이들 마커들은 촬영 카메라(3)의 시야(4)의 바깥에 배치될 수 있으며 그리고 전용 광 센서가 이들을 검출하는데 이용된다. 컴퓨터화된 추적 모듈(8)은 각각의 마커의 신원 및 형상과 실제 공간(1) 내에서의 마커의 위치를 메모리에 저장한다. 컴퓨터화된 추적 모듈(8)은, 상기 마커의 캡춰된 이미지, 메모리의 데이터, 광 센서(11) 및 촬영 카메라(3)의 각각의 위치에 기초하여, 촬영 카메라(3)의 위치를 판별한다.
촬영 카메라(3)에 대해서 판별된 위치 데이터는 6개의 변수들을 포함할 수 있으며 그리고 예를 들어, A = (x, y, z, u, v, w) 라는 형태로 기입될 수 있는데, 여기서 x, y, z 는 실제 기준(1') 프레임 내의 촬영 카메라(3)의 기준 포인트(reference point)의 위치에 대응하며, 그리고 u, v, w 는 실제 기준(1)' 프레임 내의 촬영 카메라(3)의 방위에 대응한다.
일실시예에 따르면, 제 2 센서 시스템(10)은 도3에 도시된 바와 같은, 시야 방위 센서(field-of-view orientation sensor)(12)를 포함한다.
이러한 시야 방위 센서(12)는 촬영 카메라(3)의 움직임을 판별하는 것을 허용한다.
시야 방위 센서(12)는 예를 들어, 관성 큐브(inertia cube) 혹은 자이로스코프 등과 같은 관성 센서(15)일 수 있다. 특정 일실시예에서, 관성 센서(15)는 도2에 도시된 바와 같이 촬영 카메라(3)에 부착된다.
또는 이것은 도2에 도시된 바와 같은 힌지된 암(hinged arm)(4'') 등의 촬영 카메라(3)의 지지대에 고정되는 기계적인 인코더(16)일 수도 있다. 이러한 인코더는 베이스에 대한, 촬영 카메라(3)의 지지대의 위치에 있어서의 변화들에 관한 데이터를 기록한다. 따라서, 상기 모드는 "기계적인 모드"라고 아래에서 지칭된다.
이러한 식별 시스템의 변형예로서, 제 2 센서 시스템(10)은 연속적으로 혹은 동시에 이용되는 복수의 시야 방위 센서들(12)을 포함할 수 있다.
예를 들어, 촬영 카메라(3)는 도2에 도시된 바와 같이, 복수의 힌지들을 가지며 그리고 레일(50) 상에서 슬라이딩되는 크레인(52) 상에 마운트되는 지지대에 의해서 운반된다. 컴퓨터화된 추적 모듈(8)은 각각의 자유도에 대하여 기계적인 인코더(16)에 의해서 제공되는 정보 및 시스템 설정(예를 들면, 힌지 암의 길이, 혹은 크레인의 피봇 포인트와 촬영 카메라의 기준 포인트 사이의 거리)을 이용하여, 촬영 카메라의 위치를 계산할 수 있다.
이러한 실시예에서, 제 2 센서 시스템의 경우, 카메라(3)의 물리적인 움직임에 관련된 시야 방위 센서(12)로부터의 데이터는 촬영 카메라(3)의 위치를 찾아내기 위하여, 컴퓨터화된 추적 모듈(8)로의 데이터 입력에 직접 합체된다.
제 2 센서 시스템(10)에 대한 변형예로서, 컴퓨터화된 추적 모듈(8)는 복수의 시야 방위 센서들로부터 로케이션 데이터를 연속적으로 혹은 동시에 수신할 수 있다.
기계적인 센서와도 함께 동작하는 것의 장점은, 가령, 사막 등과 같이 지형적 랜드마크가 없는 공간에서 광 센서의 효율이 낮다는 점이다.
따라서, 제 2 추적 시스템에 의해서 검출된 데이터로부터 판별된, 촬영 카메라(3)의 위치는, 예를 들어, B = (x2, y2, z2, u2, v2, w2) 라는 형태로 기입될 수 있다.
특정 일실시예에서, 상기 정보는 컴퓨터화된 추적 모듈(8)에 입력으로서 전송되며 그리고 도4에 도시된 바와 같이, 촬영 카메라(3)의 위치를 식별하기 위한 절차 내에 통합된다.
따라서, 이들 2개의 센서 시스템들(9, 10)은 대안적인 사용예에 전용된다.
실제 공간(1)에서 촬영 카메라(3)의 위치를 언제라도 판별하는 것을 허용하도록, 컴퓨터화된 추적 모듈(8)은 여러 옵션들을 제공할 수도 있다. 예를 들어, 컴퓨터화된 추적 모듈(8)이, 실제 공간(1) 내의 촬영 카메라(3)의 위치를 확실성을 가지고 판별하기에 충분한 지형 정보(2)를 식별할 수 없는 경우, 디폴트로(by default) 촬영 카메라(3)는 그 시점에서 움직이지 않은 것으로 간주된다. 만일, 광 센서(11)가 지형 정보(2)를 판별할 수 없다면, 이는 매우 가까이 있는 실제 객체에 의해서 촬영 카메라(3)의 시야(4)가 아마도 차단(block)됨을 의미한다. 충분한 지형 정보(2)를 광 센서(11)가 판별할 수 있는 다음 시간 프레임에서, 3차원 공간에서의 촬영 카메라(3)의 위치는 다시 판별될 수 있다.
실패하는 경우, 시야 방위 센서(12)가 광 센서(11)를 대신할 수 있으며(fill in) 그리고 촬영 카메라(3)의 위치에 대한 정보를 제공할 수 있다.
비디오 촬영 시스템(video shooting system)은 컴퓨터화된 결합 모듈(computerized combining module)(21)을 포함하며, 이는 도4에 도시된 바와 같이, 제 1 광 센서 시스템(9)으로부터 제 2 광 센서 시스템(10)으로 변경하는 것 또는 2개의 추적 시스템들을 동시에 결합하는 것을 허용한다.
도6에 도시된 일 실시예에서, 광학 모드에서 제 1 광 센서 시스템(9)을 이용하여 획득된 위치 데이터와 컴퓨터화된 추적 모듈(8)을 통해 기계적 모드에서 제 2 광 센서 시스템(10)을 이용하여 획득된 위치 데이터는, 컴퓨터화된 결합 모듈(21)에서 통합된다.
컴퓨터화된 결합 모듈(21)은 컴퓨터(19)를 포함한다. 상기 컴퓨터는 이들 2개의 모드들에서 획득된 위치 데이터를 컴퓨터화된 추적 모듈(8)로부터 입력으로서 수신하며 그리고 차이를 결과 함수(result function)(20)로서 결정한다.
이러한 결과 함수(20)는 컴퓨터화된 결합 모듈(21)에 통합된 비교기(21)를 통하여, 임계값(23)과 비교된다. 광학 및 기계적 센서들에 의해서 식별된 데이터 사이의 차이를 평가하는 비교 함수(24)는 비교기(22)에 의해서 생성되며 그리고 2 개의 값들의 리스트로부터 값이 주어지는바, 각각의 값은 각각의 센서에 할당된다.
컴퓨터화된 결합 모듈(21)에 또한 통합되는 선택기(25)는 비교 함수(24)를 입력으로서 취하며 그리고 광학 모드와 기계적 모드 중에서 선택된 모드에 대한 선택 신호(26)를 출력한다. 예를 들어, 만일, 2개의 모드들로부터의 위치 데이터가 매우 가깝다면, 광학 모드를 사용하는 것이 바람직할 수 있다 (2개의 모드들의 최적 성능에서 이것이 더 양호한 정확도를 제공함이 알려져 있다면). 만일, 2개의 모드들로부터의 위치 데이터가 매우 다르다면, 기계적 모드를 선택하는 것이 바람직할 수 있다(상기 모드가 오류 결과를 제공할 확률이 낮다는 점이 알려져 있다면).
대안적으로, 사용자는 제 1 광 센서 시스템(9)으로부터 제 2 광 센서 시스템(10)으로 수동으로(manually) 스위치할 수 있으며, 그 반대의 경우도 가능하다.
도7에 도시된 특정 실시예에서, 제 1 광 센서 시스템(9)은 자연적인 지형 정보(2) 내의 검출가능한 포인트들의 개수를 평가하도록 구성된 평가기(evaluator)(42)(도5에 도시됨)를 포함하며, 그리고 평가기(42)로부터의 데이터를 통합하고, 광학 모드에서 기록된 데이터에 대한 신뢰도 계수(46)를 출력하도록 구성된 신뢰성 모듈(44)을 포함할 수 있다.
컴퓨터화된 결합 모듈(21)은 광학 모드와 기계적인 모드의 조합을 선택하도록 구성될 수 있으며, 그리고 도4에 도시된 바와 같은 가중화 유닛(48)을 포함하는데, 가중화 유닛(48)은 촬영 카메라(3)의 위치를 판별하는 프로세스에서 광 센서(11)와 시야 방위 센서(12)로부터의 데이터를 가중화하도록 구성된다.
따라서, 촬영 카메라에 대한 위치 데이터는 다음과 같이 쓰여질 수 있는바, C = (x3, y3, z3; u3, v3, w3) = aA + (1-a)B, 여기서, "a" 는 0 과 1 사이의 실제 가중화 계수이다(0 및 1을 포함). 다음을 유의해야 하는 바, 서로 다른 가중화 계수들이 각각의 필드들 x; y; z; u; v; w 에 이용될 수도 있다. 가중화 계수 "a" 는, 사용자 선택에 의하여, 혹은 광 센서(11)에 의해서 획득된 이미지를 프로세싱함으로써, 또는 획득된 위치 데이터(전술한 일례 참조)의 2개의 세트들 간의 차이에 기초하여, 또는 소정의 다른 방법에 의해서, 결정될 수 있다.
가중화 계수 "a" 는 바람직하다면, 시간에 대하여 수정(modify)될 수 있으며 혹은 예를 들어, 각각의 시간 프레임에 대하여, 또는 각각의 촬영(shoot)에 대하여 수정될 수 있다.
센서 데이터를 수신하고 프로세싱하는 컴퓨터화된 추적 모듈(8)은 도7에 도시된 바와 같이, 촬영 카메라(3)의 위치에 대한 정보를 컴퓨터화된 촬영 모듈(shooting module)(40)에 제공하여, 촬영 카메라(3)에 의한 테이크(take) 전체에 걸쳐서 촬영 카메라(3)의 위치를 추적할 수 있게 한다. 컴퓨터화된 추적 모듈(8)은 유선 혹은 무선으로 컴퓨터화된 촬영 모듈(40)과 통신한다.
상기 시스템은 도4에 도시된 바와 같이, 외부 기계적 인코더(external mechanical encoder)(17)를 포함할 수 있으며, 이는 가령, 줌(zoom), 조리개(diaphram), 초점(focus) 등의 카메라의 내부 캡춰 파라미터들(18)의 변화들에 관한 데이터를 기록한다.
특정한 일실시예에서, 상기 시스템은, 카메라에 의해서 지원되는 줌 렌즈 상에 외부 기계적 인코더(17)를 배치함으로써, 예를 들어, 촬영 카메라(3)의 렌즈 초점 길이에서의 변화를 고려하는(taking into account) 수단(means)을 포함할 수 있는데, 이는 줌 링(zoom ring)의 회전 각도를 검출할 수 있으며, 따라서 컴퓨터화된 추적 모듈(8)은 만일, 촬영 카메라(3)가 광 센서(11)로서 사용된다면, 외부 기계적 인코더(17)에 의해서 전송된 데이터로부터 판별되는 배율(magnification)의 레벨을 고려할 수 있다.
따라서, 컴퓨터화된 촬영 모듈(40)은, 촬영 카메라(3)에 의해서 그리고 컴퓨터화된 추적 모듈(8)에 의해서 기록되는 데이터를 입력으로서 수신한다.
컴퓨터화된 촬영 모듈(40)은 또한, 내부 캡춰 파라미터들(18)을 통합할 수 있다.
이들 내부 캡춰 파라미터들은 촬영 카메라(3)의 광 센서 양상(aspect)을 특징화한다. 이들은 촬영 카메라(3)의 소정의 광학 설정(optical configuration)을 위해서 이용될 수 있다. 이들은 예를 들어, 촬영 카메라(3)로부터의 비디오 스트림으로 다중화되는(multiplexed) 메타데이터로서 제공된다.
상기 촬영 시스템은 또한, 시야의 임의의 왜곡(distortion)을 보정하기에 적합한 디바이스(30)를 포함하며, 이 디바이스는 카메라(3)의 데이터를 통합하기에 적합하며 그리고 카메라(3)의 데이터를 컴퓨터화된 촬영 모듈(40)로 출력하기에 적합하다.
대안적으로, 컴퓨터화된 촬영 모듈(40)은 또한 컴퓨터화된 애니메이션(animation) 모듈(27)을 포함한다. 컴퓨터화된 애니메이션 모듈(27)은 예를 들어, 하나 이상의 가상(virtual) 애니메이션들(29)을 포함하고 있는 애니메이션 데이터베이스(28)를 포함할 수 있다. 예를 들어, 각각의 애니메이션은, 촬영될 비디오의 지속기간(duration)의 전부 또는 일부에 대응하는 타임 프레임들의 세트 내의 각각의 타임 프레임에 대하여, 가상 기준 프레임(virtual frame of reference)에 표현되는 3차원 객체들의 특징들(포인트, 라인, 표면, 체적, 텍스처, 등등)을 포함한다. 각각의 애니메이션은 예를 들어, 증강된 가상 현실 이벤트를 나타낸다. 예를 들어, 상기 애니메이션 데이터베이스는, 아마도 움직일 수 있는 3차원 가상 캐릭터, 특수 효과(비, 폭발, 등등)를 나타내는 애니메이션들 혹은 몇몇 다른 애니메이션을 제공할 수 있다.
컴퓨터화된 촬영 모듈(40)은 컴포지션(composition) 모듈(30)을 포함한다. 컴포지션 모듈(30)은 컴퓨터화된 애니메이션 모듈(27)로부터 애니메이션(29)을 링크(30)를 통해 입력받는다.
다음으로, 컴퓨터화된 컴포지션 모듈은 문제의(in question) 시간 프레임에 대하여, 촬영 카메라(3)에 의해서 캡춰된 실제 이미지에 대한 합성(composite) 이미지(31)를 생성하고, 그리고 동일한 시간 프레임에 대하여 가상 객체(31)에 대응하는 가상 이미지(32)의 프로젝션(projection)을 생성하는바, 상기 프로젝션은 촬영 카메라(3)의 기준(1')의 실제 프레임 내의 위치 데이터에 기초하여 생성된다. 따라서, 상기 합성 이미지(31)는 마치, 가상 이미지(32)가 상기 시간 프레임에 대하여 촬영 카메라(3)에 의해서 캡춰된 실제 공간(1) 내의 객체의 이미지였던 것처럼, 중첩된 실제 이미지 및 가상 이미지(32)를 포함한다. 이후, 합성 이미지(31)는 콘트롤 스크린 상에 디스플레이된다. 따라서, 촬영을 하고 있는 오퍼레이터는 각각의 시간 프레임에 대하여 그리고 그의 특정한 시야각에 대하여, 실제 공간(1) 내의 가상 객체의 위치 및 방위를 콘트롤 스크린(6) 상에서 볼 수 있다(마치, 상기 가상 객체가 그 또는 그녀 앞에 존재했었던 것 처럼). 필요하다면, 상기 오퍼레이터는 객체들에 대하여, 촬영 카메라(3)의 위치를 조절할 수 있다.
다른 실시예에서는, 누락 시퀀스(missing sequence)의 시간 직전 및 이후에 촬영된 장면(footage)에 기초하여, 그리고 촬영 카메라(3)의 정확한 위치에 기초하여, 누락 시퀀스들이 재건된다.

Claims (19)

  1. 실제 기준(1') 프레임(real frame of reference (1'))에서 정의되는 실제 공간(1)에서 비디오를 촬영하기 위한 시스템으로서,
    복수의 개별 시간 프레임들에 대해 실제 이미지를 기록하도록 된 촬영 카메라(3);
    센서 시스템(7), 상기 센서 시스템(7)은,
    - 상기 촬영 카메라(3)와 구별되며 그리고 광학 모드에서 데이터를 기록하도록 된 적어도 하나의 광 센서(11)를 포함하는 제 1 광 센서 시스템(9),
    - 데이터를 기록하도록 된 적어도 하나의 센서(12``)를 포함하는 제 2 센서 시스템(10)을 포함하며;
    상기 제 1 광 센서 시스템(9)의 적어도 하나의 센서로부터의 데이터를 통합하며 그리고 이들 데이터에 기초하여 실제 공간(1)에서 촬영 카메라(3)의 위치 데이터(A)를 판별하도록 된 컴퓨터화된 추적 모듈(8), 상기 컴퓨터화된 추적 모듈(8)은 상기 제 2 센서 시스템(10)의 적어도 하나의 센서로부터의 데이터를 통합하고 그리고 이들 데이터로부터 실제 공간(1)에서 촬영 카메라(3)의 위치 데이터(B)를 판별하며,
    광학 모드에서 판별된 위치 데이터(A) 및 제 2 모드에서 판별된 위치 데이터(B) 둘다에 기초하여 촬영 카메라(3)의 실제 기준(1') 프레임에서의 위치 데이터(C)를 반복적으로 판별하도록 된 컴퓨터화된 결합 모듈(21)
    을 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  2. 제1항에 있어서,
    상기 컴퓨터화된 결합 모듈(21)은 제 1 추적 시스템에 의해서 판별된 위치(A), 제 2 추적 시스템에 의해서 판별된 위치(B), 및 C = aA + (1-a)B 로부터 획득된 가중화 계수(a)를 결합함으로써, 상기 촬영 카메라의 위치(C)를 판별하며, 상기 가중화 계수(a)는 0 이상 1 이하의 값을 가질 수 있는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  3. 제2항에 있어서,
    상기 컴퓨터화된 결합 모듈(21)은, 상기 광학 모드에서 획득된 위치 데이터와 상기 제 2 모드에서 획득된 위치 데이터 사이의 차이를 판별하여 결과 함수(20)를 생성하도록 된 컴퓨터(19)를 포함하며, 그리고 상기 컴퓨터화된 결합 모듈(21)은, 상기 결과 함수를 임계값(23)과 비교하여 비교 함수(24)를 생성하도록 된 비교기(22)를 또한 포함하며, 상기 비교 함수(24)는 값들의 리스트 중에서 하나의 값을 취하며, 그리고 상기 컴퓨터화된 결합 모듈(21)은, 상기 비교 함수(24)를 입력으로서 수신하고 상기 비교 함수의 값들에 각각 대응하는 상기 광학 모드와 상기 제 2 모드를 적어도 포함하는 리스트(60)로부터 모드 선택 신호(26)를 출력하는 선택기(25)를 또한 포함하며, 상기 가중화 계수는 0 또는 1 값을 각각 취하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 리스트(60)로부터 모드를 기계적으로 선택하도록 된 버튼을 더 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제 1 광 센서 시스템(9)은, 상기 광 센서에 의해서 검출된 자연적인 지형 정보(natural topographical information)(2)의 다수의 검출가능한 포인트들을 평가하는 평가기(42)와, 상기 평가기(42)로부터의 데이터를 통합하고 그리고 광학 모드에서 기록된 데이터에 대한 신뢰도 계수(46)를 출력하여 상기 광 센서(11) 및 센서(12'')로부터의 위치 데이터에 대해 가중화 계수(48)를 판별할 수 있는 신뢰성 모듈(44)을 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  6. 제3항 및 제5항에 있어서,
    상기 선택기(25)는 또한, 상기 신뢰도 계수(46)를 입력 신호로서 수신하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제 2 센서 시스템(10)은, 촬영 카메라(3)의 시야(4)의 변화를 야기하는 기계적인 움직임을 판별하고 그리고 기계적 모드에서 시야 변화 데이터를 기록하도록 된 적어도 하나의 시야 방위 센서(field-of-view orientation sensor)(12)를 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  8. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 촬영 카메라(3)의 공간적인 제 1 광 센서 시스템(9)은, 각각의 시간 프레임에 대해 알려진 상기 촬영 카메라(3)에 관한 위치 데이터를 제공하는 적어도 하나의 광 센서(11)를 포함하며, 그리고 상기 적어도 하나의 광 센서(11)는 상기 광 센서(11)에 의해서 검출된 자연적인 지형 정보(2)를 상기 컴퓨터화된 추적 모듈(8)로 전송하도록 된 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  9. 제7항에 있어서,
    상기 컴퓨터화된 추적 모듈(8)은, 상기 광 센서(11)에 의해서 검출된 자연적인 지형 정보(2)를 실제 공간(1)에 대한 기결정된 3차원 모델(14)과 비교하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 추적 시스템은 실제 공간(1)에 대한 기결정된 3차원 모델(14)을 생성하도록 된 컴퓨터화된 생성 모듈(33)을 포함하며, 상기 광 센서(11)는 상기 광 센서(11)에 의해서 검출된 지형 정보(2)를 상기 컴퓨터화된 생성 모듈(33)로 전송하도록 된 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  11. 제10항 및 제7항 내지 제8항 중 어느 한 항에 있어서,
    상기 광 센서(11)는 상기 광 센서(11)에 의해서 검출된 자연적인 지형 정보(2)를 상기 컴퓨터화된 추적 모듈(8) 및 상기 컴퓨터화된 생성 모듈(33)로 동시에 전송하도록 구성되며, 그리고 상기 컴퓨터화된 생성 모듈(33)은 상기 광 센서(11)에 의해서 검출된 자연적인 지형 정보(2)에 따라, 상기 실제 공간(1)에 대한 기결정된 3차원 모델(14)을 증강하도록 된 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    촬영 설정에서, 상기 촬영 카메라(3)와 광 센서(11)는 서로 고정되게 부착되는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  13. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 시야 방위 센서(12)는 상기 촬영 카메라(3)에 합체된 관성 센서(15)이며 그리고 상기 촬영 카메라(3)의 위치 변화들에 관한 데이터를 기록하도록 된 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  14. 제13항에 있어서,
    상기 관성 센서(15)는 자이로스코프 혹은 관성 큐브(inertia cube)를 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  15. 제1항 내지 제14항 중 어느 한 항에 있어서,
    상기 촬영 카메라(3)는 베이스 상의 이동가능한 지지대에 의해서 운반되며, 그리고 상기 시야 방위 센서(12)는 상기 촬영 카메라(3)를 위한 상기 지지대에 고정되며 상기 촬영 카메라(3)를 위한 상기 지지대의 위치에 있어서의 변화들에 관한 기록 데이터를 기록하도록 된 기계적인 인코더(16)를 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  16. 제1항 내지 제15항 중 어느 한 항에 있어서,
    줌(zoom), 조리개(diaphram), 초점 길이(focus length)와 같은 카메라(3)의 내부 캡춰 파라미터들(18)의 변화들에 관한 데이터를 기록하도록 된, 상기 카메라(3)의 상기 내부 캡춰 파라미터들(18)에 대한 외부 기계적 인코더(external mechanical encoder)(17)를 더 포함하는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  17. 제16항에 있어서,
    상기 카메라(3)의 내부 캡춰 파라미터들(18)의 변화들에 관한 데이터는, 상기 컴퓨터화된 추적 모듈(8)로의 데이터 입력에 통합되는 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서,
    컴퓨터화된 촬영 모듈(40)은 상기 촬영 카메라(3)의 신호로부터의 데이터(3')와 상기 촬영 카메라(3)의 내부 캡춰 파라미터들(18)을 통합시키도록 된 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
  19. 제1항 내지 제18항 중 어느 한 항에 있어서,
    시야의 임의의 왜곡을 보정하도록 된 디바이스(30)를 더 포함하며, 상기 디바이스는 카메라 데이터(3')를 통합하며 그리고 상기 카메라 데이터(3')를 상기 컴퓨터화된 촬영 모듈(40)로 출력하도록 된 것을 특징으로 하는 비디오를 촬영하기 위한 시스템.
KR1020157036849A 2013-06-13 2014-06-12 비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템 KR20160031464A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1355510A FR3007175B1 (fr) 2013-06-13 2013-06-13 Systemes de reperage de la position de la camera de tournage pour le tournage de films video
FR1355510 2013-06-13
PCT/FR2014/051423 WO2014199085A1 (fr) 2013-06-13 2014-06-12 Systemes de reperage de la position de la camera de tournage pour le tournage de films video

Publications (1)

Publication Number Publication Date
KR20160031464A true KR20160031464A (ko) 2016-03-22

Family

ID=49876721

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157036849A KR20160031464A (ko) 2013-06-13 2014-06-12 비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템

Country Status (8)

Country Link
US (1) US20160127617A1 (ko)
EP (1) EP3008693A1 (ko)
KR (1) KR20160031464A (ko)
CN (1) CN105637558A (ko)
AU (1) AU2014279956A1 (ko)
CA (1) CA2914360A1 (ko)
FR (1) FR3007175B1 (ko)
WO (1) WO2014199085A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3007175B1 (fr) * 2013-06-13 2016-12-09 Solidanim Systemes de reperage de la position de la camera de tournage pour le tournage de films video
US10432915B2 (en) * 2016-03-22 2019-10-01 The Sanborn Map Company, Inc. Systems, methods, and devices for generating three-dimensional models
US11032480B2 (en) * 2017-01-31 2021-06-08 Hewlett-Packard Development Company, L.P. Video zoom controls based on received information
CN108171749A (zh) * 2018-02-12 2018-06-15 中南大学湘雅二医院 一种基于陀螺仪的机械手臂热源追踪辅助系统及其方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US6922632B2 (en) * 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
FR3007175B1 (fr) * 2013-06-13 2016-12-09 Solidanim Systemes de reperage de la position de la camera de tournage pour le tournage de films video

Also Published As

Publication number Publication date
FR3007175B1 (fr) 2016-12-09
AU2014279956A1 (en) 2015-12-24
CA2914360A1 (fr) 2014-12-18
CN105637558A (zh) 2016-06-01
US20160127617A1 (en) 2016-05-05
WO2014199085A1 (fr) 2014-12-18
EP3008693A1 (fr) 2016-04-20
FR3007175A1 (fr) 2014-12-19

Similar Documents

Publication Publication Date Title
JP3876275B2 (ja) 多視点ビデオキャプチャシステム
CN102959943B (zh) 立体全景图像合成装置和方法、以及图像捕获装置
US9602700B2 (en) Method and system of simultaneously displaying multiple views for video surveillance
JP5659305B2 (ja) 画像生成装置および画像生成方法
US9648271B2 (en) System for filming a video movie
JP5769813B2 (ja) 画像生成装置および画像生成方法
JP5865388B2 (ja) 画像生成装置および画像生成方法
US20100141767A1 (en) Semi-Automatic Relative Calibration Method for Master Slave Camera Control
KR101695249B1 (ko) 감시 영상 표시 방법 및 시스템
CN103595979A (zh) 图像处理设备、图像拍摄设备及图像处理方法
KR20060120052A (ko) 파노라마 또는 모자이크 기능을 구비한 디지털 카메라
CN106023241A (zh) 影像处理装置、影像处理方法及影像处理系统
JPWO2013069047A1 (ja) 画像生成装置および画像生成方法
JP2005167517A (ja) 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
JP2008538474A (ja) 自動化監視システム
JP2004531113A (ja) 注釈記入による全方位性3次元イメージデータ獲得装置、その方法及び感光範囲の拡大方法
JP4692849B2 (ja) 立体画像記録装置および立体画像記録方法
EP1494476A1 (en) Image processing method and apparatus
KR20160031464A (ko) 비디오 필름을 촬영하기 위한 촬영 카메라의 위치를 추적하는 시스템
JP2004072349A (ja) 撮像装置、及びその制御方法
KR20150003576A (ko) 삼차원 영상 생성 또는 재생을 위한 장치 및 방법
JP2011108028A (ja) 画像再生装置、撮像装置、画像再生方法
JP6257260B2 (ja) 撮像装置及びその制御方法
JP2002101408A (ja) 監視カメラシステム
JP2004088558A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid