JP2016522598A - 画像キャプチャに関する装置を制御するシステムおよび方法 - Google Patents

画像キャプチャに関する装置を制御するシステムおよび方法 Download PDF

Info

Publication number
JP2016522598A
JP2016522598A JP2016505667A JP2016505667A JP2016522598A JP 2016522598 A JP2016522598 A JP 2016522598A JP 2016505667 A JP2016505667 A JP 2016505667A JP 2016505667 A JP2016505667 A JP 2016505667A JP 2016522598 A JP2016522598 A JP 2016522598A
Authority
JP
Japan
Prior art keywords
camera
data
node
setting
settings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016505667A
Other languages
English (en)
Other versions
JP6551392B2 (ja
Inventor
アントニ フィッシャー
アントニ フィッシャー
ミカエル マクドナルド
ミカエル マクドナルド
ジュリアン テイラー
ジュリアン テイラー
ジェフリー レビ
ジェフリー レビ
Original Assignee
アンドラ モーション テクノロジーズ インク.
アンドラ モーション テクノロジーズ インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アンドラ モーション テクノロジーズ インク., アンドラ モーション テクノロジーズ インク. filed Critical アンドラ モーション テクノロジーズ インク.
Publication of JP2016522598A publication Critical patent/JP2016522598A/ja
Application granted granted Critical
Publication of JP6551392B2 publication Critical patent/JP6551392B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/563Camera grips, handles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Accessories Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

画像キャプチャに関する装置の設定を制御するための方法およびシステムは、感知デバイスの位置データおよび方位データを捕捉するステップと、該感知デバイスの位置データおよび方位データに対して、装置によって取り扱われる関心領域(すなわちノード)の位置情報を算定するステップと、関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するステップと、を含む。【選択図】図1A

Description

本発明は、カメラ使用環境における動き追跡の分野に関する。さらに具体的には、本発明は、カメラまたは関連する装置の設定の制御のためのシステムおよび方法に関する。
カメラ環境(例えば、フィルム、テレビジョン、ライブエンターテインメント、スポーツ)では、カメラ、照明、および音響の機能性を操作するための多種多様な装置が存在する。これらの機能の制御および相互関係が、観客に知覚される最終的な画像および音声の質を決める。かかる機能の一つがカメラの焦点である。「焦点プル」または「ピント送り」は、移動する被写体の焦点面からの物理的距離に対応して、レンズの焦点距離の設定を変える行動を言う。例えば、俳優が或るショット内で焦点面から8メートルの距離から3メートルの距離に動くと、フォーカスプラーが、俳優の変化した位置に正確に対応して、そのテイクの間にレンズに設定された距離を変化させることになる。さらに、フォーカスプラーは、構図の特定の美学的要件の指定に応じて、フレーム内の一つの被写体から別の被写体に焦点を移すことができる。
焦点調整のこのプロセスは、「ファーストアシスタントカメラ(first AC: First Assistant Camera)(第一AC)」または「フォーカスプラー」によって手動で行われる。
所与のショットのパラメータにもよるが、多くの場合、エラーを許す余地はほとんどない。そのため、映画製作の分野で、フォーカスプラーの役割は非常に重要であり、「ソフト」な画像は、かかるエラーを撮影後に修正する方法がないのでほとんどの状況では使用不可能と見なされことになる。また、俳優が後のテイクで自己の最善の演技を再現できない可能性も考慮しなければならず、したがってフォーカスプラーはあらゆるテイクにおいて完璧に実施するよう期待される。これらの要因のため、一部のプロダクション関係者は、フォーカスプラーがセットにおいて最も難しい仕事をしていると考えている。
フォーカスプラーが非常な熟達者であっても、現在の処理法ではこの仕事の複雑さおよび困難さによって製作が遅延する。
現在の映画製作では、ブロッキングリハーサルから開始され、この中で様々な俳優の位置が定められる。このリハーサルの間、撮影助手は、俳優が移動を止めるすべての点の床上にテープマークを付す。その後俳優らはヘアやメークアップを行うために去り、代役が来て、照明、フレーミング、焦点マーク設定のため、これら様々な位置においてその位置につく。
撮影監督およびカメラオペレータによってカメラ位置が確立されたならば、第一ACは、諸俳優のマークとカメラの焦点面との間の様々な距離の測定を開始する。これらの距離は、レンズのフォーカスバレル上の油性鉛筆/ペンの一連のマーク、および/または焦点追跡デバイスのマーキングディスクで記録される。代役を用い、ファインダおよび/または内蔵のモニタを通してこれらのマークの正確さが確認される。望ましい特定のフレーミングを設けるためにマークが再位置付けされると、これに応じ、第一ACは自分のマークを再測定/再設定しなければならない。さらに、第一ACは、焦点を正しい中間距離に正確に合わせるのを助力するために、テイク時に俳優が彼らのマークの間を移動する際の参照用に、床上に特定の距離マークを設けることがある。
俳優がセットに戻ったとき、通常、カメラのためのリハーサルが行われ、この中でフォーカスプラーおよびオペレータはショットを実践し、すべてが適切にセットアップされていることを確実にする。テイク中に、フォーカスプラーは、台詞、俳優または被写体の動き、カメラの移動に基づいて焦点を修正し、俳優のマークの喪失または何らかの予測されない動きをその場で補正する。或る障害によって、フォーカスプラーが、自分のマークの全てを見ることを妨げられた場合、彼はショット中に双方向無線を介して、第二ACに頼んで自分のマークを告げてもらうことができる。長焦点レンズ、大口径、至近距離、またはこれら3つのどれかの組み合わせなど、一部の状況では、数ミリメートルの被写体の動きですら、即時の極めて正確な焦点の修正を必要とし得る。
テイクの後、フォーカスプラーが、タイミングエラーであれ、マークミスであれ、またはテイクの「ソフト」の或る部分を生じさせた可能性のある何らかの他の問題であれ、自分がミスをおかしたと感じた場合、該プーラーは、通常、それをオペレータ(ファインダ中のエラーに最も気付き易い人)または撮影監督に報告することになり、再度のテイクが既に計画されているのでなければ、それを要請することになり得る。
フォーカスプラーの主要なツールには、視覚、反射神経、および直感を保持することに加え、布または繊維ガラスのテープ手段、スチールテープ手段、レーザ距離計、および、或る場合には、マットボックスまたはカメラ本体の側部に搭載され、リアルタイムで距離の読み取りを提供するカメラ内蔵超音波距離計がある。ステディカムまたはクレーンショットなど、フォーカスプラーがカメラに触ることができないカメラ位置においては、フォーカスプラーは遠隔追従フォーカスシステムを用いることになるが、但し、一部のフォーカスプラーは、何時においても遠隔システムを使うことを好む。前述のいずれの場合においても、フォーカスプラーは、ショットの過程において手動で焦点を合わせることをなお必要とする。
現在のアプローチは、手間がかかり、難しくて非常に間違え易い。このことは、映画動画製作における長い間の技術的障害であり、映画監督に創作上の大きな制約を課すのみならず、使用できないショット、時間のかかるセットアップ、および高い熟練度の高給のフォーカスプラーの必要性による製作コストの増大をもたらしている。
本出願人の知る範囲に、レーザ、ソナー、および顔/物体認識追跡に基づく半自動焦点調節システムがある。
これらの方法は基本的には同じアプローチの変形で、これらの各々は、画像の「二次元面」を感知し、その面上の任意の所与の領域またはピクセルに対する深さおよび距離の情報を捕捉する。最も進んだシステムでは、システムのオペレータがこのとき該二次元画像上の或るポイントを選択することができ、その時点で当該ポイントに対する距離データがモータに入力され、モータがリアルタイムで焦点の調節を制御することになる。
これらの既存の方法にはいくつかの制限がある。具体的には、これらのシステムは全て「視線」である。これらは、「二次元面」中で現在可視でない対象体には焦点を合わせることができない。レーザシステムは、所望の被写体上にレーザの狙いを付けるため追加のオペレータを必要とする。顔認識システムは、対象体が急速に回ったり、フレームから外れたり、または別の被写体または対象体の後ろに消えたりすると当該対象体への追跡を失うことになる。
おそらく最も重要なのは、これらシステムのいずれもが、最も難度の高い焦点調節タスク、すなわち、被写体が高速で移動しているときの大口径による長い焦点距離で、且つ被写体の焦点ポイントが極めて特定的、例えば目であるといったタスクに必要な非常に厳しい正確さに対する真の対応力がないことにある。というのは、LIDaR(Light Detection and Ranging(光検知測距))およびレーザシステムの両方とも、人間のオペレータが、画面上でカーソルを移動するか、もしくは実際のレーザで狙うかして、リアルタイムで目の追跡を保つ必要があるからである。また、レーザを人の目の中に照らすのは望ましくないことにも留意すべきであろう。顔認識システムは、原理上目を追跡し、さらに高いレベルの精度および確度を備える必要がある。
本出願人の知る範囲に、米国特許第5,930,740号(MATHISEN)、第8,448,056号(PULSIPHER)、および第8,562,433号(LARSEN);以下の公開番号の米国特許出願第2008/0312866号(SHIMOMURA)、第2010/0194879号(PASVEER)、第2013/0188067号(KOIVUKANGAS)、第2013/0222565号(GUERIN)、第2013/0229528号(TAYLOR)、および第2013/0324254号(HUANG)、並びに特開2008−011212号(KONDO)がある。
したがって、前述を考慮すれば、設計および構成要素によって、上記の従来技術の懸案事項の一部を克服することが可能な改良されたシステムが必要とされている。
本発明の目的は、設計および構成要素によって前述の必要性の一部を満たし、しかして、従来技術で知られた他の関連システムおよび/または方法を改良するシステムを提供することである。
本発明の目的は、画像キャプチャに関する装置の設定を制御するためのシステムおよび方法を提供することである。かかる装置には、カメラを含み得、設定は、例えば、カメラの焦点設定、ズーム設定、口径設定、オキュラー間レンズ角度設定、および/または制御パン設定、傾斜設定、回転設定、および/またはカメラの位置設定、および/または照明設備の設定、および/または音響設備の設定などの場合もある。
本発明の或る態様によれば、画像キャプチャに関する装置の設定を制御する方法が提供され、本方法は、
a)感知デバイスにおいて位置データおよび方位データを捕捉するステップと、
b)プロセッサによって、捕捉された位置データおよび方位データから装置によって取り扱われる関心領域の位置情報を算定するステップと、
c)関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、プロセッサの出力ポートを介し装置に向けて制御信号を出力するステップと、
を含む。
この「装置」は、被写体の画像(写真もしくはビデオ画像)をキャプチャするためのカメラなどの画像キャプチャ装置を含むことができ、および/または、この装置は、照明設備、音声キャプチャ設備など、画像キャプチャ装置と協働する装置を含んでもよい。
本発明の別の態様によれば、画像キャプチャに関する装置の設定を制御するためのシステムが提供され、本システムは、
− 位置データおよび方位データを捕捉するよう構成された感知デバイスと、
− 感知デバイスと通信しているプロセッサであって、該プロセッサは、該位置データおよび方位データから、装置によって取り扱われる関心領域の位置情報を算定するよう構成されている、該プロセッサと、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するよう構成された、プロセッサ中に組み込まれた出力ポートと、
を含む。
本発明の別の態様によれば、コンピュータによって実行するためのデータおよび命令を格納して有する非一時的コンピュータ可読ストレージが提供され、前記データおよび命令は、
− 感知デバイスの位置データおよび方位データを受信するためのコード手段と、
− 該位置データおよび方位データから、装置によって取り扱われる関心領域の位置情報を算定するためのコード手段と、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するためのコード手段と、
を含む。
本発明の別の態様によれば、画像キャプチャに関する装置の設定を制御する方法が提供され、本方法は、
a)各識別子が装置によって取り扱われる所定の関心領域に関連付けられている、一つ以上の識別子をメモリに格納し且つ対応する位置情報を格納するステップと、
b)プロセッサにおいて、前記一つ以上の識別子の選択を受信するステップと、
c)前記一つ以上の所定の関心領域の選択された一つの位置情報に基づいて装置の設定をリアルタイムで制御するために、プロセッサの出力ポートを介し装置に向けて制御信号を出力するステップと、
を含む。
本発明の別の態様によれば、画像キャプチャに関する装置の設定を制御するためのシステムが提供され、本システムは、
− 装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納するよう構成されたメモリと、
− 該メモリと通信していて、前記一つ以上の識別子の選択を受信するよう構成されたプロセッサと、
− 前記一つ以上の所定の関心領域の選択された一つの位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するよう構成された、プロセッサと一体化された出力ポートと、
を含む。
諸実施形態によれば、上記システムの構成要素は、中央デバイス(例えばコンピュータ)中に設けられており、本システムは、ユーザのコマンドを受信するための一つ以上のユーザデバイス(例えばコンピュータ、これはタッチスクリーン付きのタブレットコンピュータであってよい)をさらに含み、このユーザデバイスは中央デバイスと通信している。さらに具体的には、このユーザデバイスは、グラフィカルユーザインターフェースを介し、ユーザに一つ以上の所定の関心領域を提示し、ユーザから、前記一つ以上の関心領域の選択を受信し、そして前記一つ以上の関心領域への参照を中央デバイスに送信するよう構成することができる。
本発明の別の態様によれば、装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納して有する非一時的コンピュータ可読ストレージが提供され、該コンピュータ可読ストレージは、プロセッサによって実行するためのデータおよび命令をさらに含み、前記データおよび命令は、
− 前記一つ以上の識別子の選択を受信するためのコード手段と、
− 前記一つ以上の所定の関心領域の選択された一つの位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するためのコード手段と、
を含む。
本発明の別の態様によれば、画像キャプチャに関する装置の設定を制御する方法が提供され、本方法は、
a)視認に依存しない感知デバイスによって、該感知デバイスにおいて位置データを捕捉するステップと、
b)プロセッサによって、該位置データから、装置によって取り扱われる関心領域の位置情報を算定するステップと、
c)プロセッサの出力ポートによって、関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するステップと、
を含む。
本発明の別の態様によれば、画像キャプチャに関する装置の設定を制御するためのシステムが提供され、本システムは、
− 位置データを捕捉するよう構成された視認に依存しない感知デバイスと、
− 感知デバイスと通信しているプロセッサであって、該プロセッサは、位置および方位データに基づいて、装置によって取り扱われる関心領域の位置情報を算定するよう構成される、該プロセッサと、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するよう構成された、プロセッサと一体化された出力ポートと、
を含む。
諸実施形態によれば、本システムは、出力ポートと通信していて、前記制御信号によって装置の設定を制御するよう構成されているコントローラをさらに含む。
諸実施形態によれば、この設定は、カメラの焦点設定、カメラのズーム設定、カメラの口径設定、カメラのオキュラー間レンズ角度設定、カメラのパン設定、カメラの傾斜設定、カメラの回転設定、カメラの位置設定、照明設備制御の設定、および/または音響設備の設定を含み得る
本発明の別の態様によれば、視認に依存しない感知デバイスから位置データを受信するための入力ポートを有するコンピュータによって実行するための、データおよび命令を格納して有する非一時的コンピュータ可読ストレージが提供され、前記データおよび命令は、
− 位置データおよび方位データに基づいて、装置により取り扱われる関心領域の位置情報を算定するためのコード手段と、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するためのコード手段と、
を含む。
本発明の別の態様によれば、画像キャプチャに関する装置の設定を制御するためのシステムが提供され、本システムは、
a)三次元の位置データを捕捉するようになされ、カメラによりキャプチャされる被写体に取り付けられるセンサと、
b)位置データを受信し該位置データに基づいて制御信号を生成するため、センサと通信するようになされたプロセッサと、
c)制御信号に応じて装置の設定を制御するため、プロセッサと通信するようになされたコントローラと、
を含む。
特定の諸実施形態において、この設定は、焦点設定、ズーム設定、口径設定、オキュラー間レンズ角度設定、および/または制御パン設定、傾斜設定、カメラの回転設定、カメラの位置設定、照明設備の設定、音響設備の設定および/またはこれらの任意の組み合わせを含み得る。
特定の諸実施形態において、センサデバイスにより、例えばアジマス、エレベーション、およびロール(A、E、R:azimuth、elevation and roll)のオイラー角における全3つの自由度で方位データが捕捉される。かかる実施形態で、プロセッサは、焦点のポイントの位置、またはセンサデバイスの場所を表す位置および方位データに関連させた「ノード」を計算するようになされる。このプロセッサは、しかして、該ノードの位置に基づいて制御信号を生成するようになされる。
「焦点のポイント」または「ノード」とは、制御対象の装置の設定(例えば、焦点、ズーム、口径、照明、音響など)の基となる、被写体上の特定のポイントまたは関心領域を意味する。この「ノード」は、場合によって動き追跡システムにおける「先端オフセット」とも言われ、例えば、該ノードがセンサと同一の座標軸を持たないが、センサと一定の距離にあるような一部の状況において位置および方位の両方を提供する。例えば、位置および方位データが、センサが配置された人頭の後部に対応するものであっても、ノードは人の目に対応することができる。しかして、焦点、ズーム、口径、オキュラー間角度、制御パン、傾斜、カメラの回転、カメラの位置、照明設備、および/または音響設備は、センサの位置および方位からの計算を通して、人物の目の特定な配置に基づいて設定することができる。
特定の諸実施形態において、本システムは、具体的にはキャプチャ対象の被写体に対しカメラが移動する場合のために、カメラに搭載されるセンサをさらに含む。
本発明のさらに別の態様によれば、画像キャプチャに関する装置の設定を制御する方法が提供され、本方法は、
− カメラにキャプチャされる対象の被写体に関する三次元位置データを捕捉するステップと、
− 該位置データに基づいて制御信号を生成するステップと、
− 制御信号に応じて装置の設定を制御するステップと、
を含む。
本発明のさらに別の態様によれば、画像キャプチャに関する装置の設定を制御するための非一時的プロセッサ可読ストレージ媒体が提供され、本ストレージ媒体は、プロセッサによって下記を実行するためのデータおよび命令を含む:
− カメラにキャプチャされる対象の被写体に関する三次元位置データを受信し、
− 該位置データに基づいて制御信号を生成し、
− 装置の設定を制御するためにコントローラに制御信号を送信する。
本発明のさらに別の態様によれば、画像キャプチャに関する装置の設定を制御するためのシステムが提供され、本システムは、
位置および/または方位データを捕捉するようになされ、カメラによるキャプチャ対象の被写体に取り付けられるセンサおよび送信器と、
位置データを受信し前記位置および/または方位データに基づいて制御信号を送信するため、センサの送信器と通信するようになされたプロセッサと、
制御信号を受信し該制御信号に応じて装置の設定を制御するため、プロセッサと通信するようになされたコントローラと、
を含む。
さらなる別の態様によれば、前述のシステムに関連する方法が提供される。
さらなる別の態様によれば、前述のシステムに関連する方法を実行するためのデータおよび命令を含む非一時的プロセッサ可読ストレージ媒体が提供される。
本発明の諸実施形態は、三次元空間中に所定の位置および方向を持つ複数の「ノード」を生成するための極めて具体的な特性を用いた動き追跡データを使って、多種多様な動きおよび静止写真環境において、増強されたレベルの装置制御と自動化とを達成可能にする点において、有益である。
本発明の諸実施形態は、これらが、ユーザとのやりとりの有無を問わず、三次元空間中の複数の所定の静止または移動ポイント(ノード)からのリアルタイムの追跡および/または選択と、ソフトウェアインターフェースまたは機械的ダイアルもしくは他の機械的入力デバイスを使い、いかなる追加の手作業の介在なくして、何時でもこれらノードの任意のものを選択することとを可能にする点において、有益である。焦点制御の或る例において、ユーザが所望のノードを選択すると、本システムは自動的にそのノードに焦点を合わせ、たとえ該ノードおよびカメラが動いていてもそのノードへの焦点を維持する。また、本システムは、現在の視野に入っていないノードへの焦点合わせを可能にし、対象体が構図に入ったまたは他の対象体(出入り口、壁、自動車など)の後ろから出現した瞬間にそれらに焦点が合うようにすることが可能になる。
本発明の目的、利点、および特徴は、添付の図面を参照しながら、例示のためだけに示す以下の本発明の好適な実施形態の非限定的な説明を読めばさらに明らかになろう。
本発明の或る実施形態による、カメラの設定を制御するためのシステムのブロック図である。 本発明の或る実施形態による、図1A中に示されたシステムによって実行される方法のステップを表すフローチャートである。 本発明の或る実施形態による、図1A中に示されたシステムによって実行される方法を表すシーケンス図である。 本発明の別の実施形態による、複数のカメラ設定およびカメラ操作を同時に制御するためのシステムのブロック図を示す。 本発明の別の実施形態による、複数のカメラ設定およびカメラ操作を同時に制御するためのシステムのブロック図を示す。 或る実施形態による、図1A中に示されたシステムとともに使用されるシングルまたはダブルブームポールの感知源の取り付け具を示す概略図である。 或る実施形態による、図1A中に示されたシステムとともに使用されるカメラアームの感知源の取り付け具を示す概略図である。 図5は、或る実施形態による、図1A中に示されたシステムとともに使用されるカメラセンサ取り付け具を示す概略図であり、本カメラセンサ取り付け具は、ロッドおよびロッドの各端部に取り付けられた感知源容器を含む。図5Aは、図5中に示されたカメラセンサ取り付け具の感知源容器の透視図である。図5Bは、図5中に示されたロッドの一部の側面図であり、ロッドの端部とそこから延びる取り付けシャフトとを示す。図5Cは、図5A中に示された感知源ケースの取り付け穴の側面像であり、これは、図5B中に示されたロッドの端部を受けるように構成される。 或る実施形態による、図1A中に示されたシステムとともに使用されるモジュール式感知源取り付けシステムを示す概略図である。 図1Aに示されたシステム中のユーザデバイスのグラフィカルユーザインターフェース(GUI:graphical user interface)上に表示されたホーム画面を示す。 図7中に示されたGUIのノード生成/修正ウィンドウを示す。 図7中に示されたホーム画面の一部、具体的には、様々なノードを定義するノードアレイを示す。 図9中に示されたノードアレイの或る特定のノードボタンを示す。 図9中に示されたノードアレイの選択されたノードボタンを示す。 図7中に示されたホーム画面の一部、具体的には、シーケンサの構成要素を示す。 図7中に示されたホーム画面の別の部分、具体的には、コーナーダイアル制御インターフェースを示す。 図7中に示されたホーム画面のさらに別の部分、具体的には、別のコーナーダイアル制御インターフェースを示す。 或る実施形態による、制御対象のカメラを定義するため、図1A中に示されたシステムのユーザデバイス上に表示されるディスプレイ画面を示す。 或る実施形態による、制御対象のカメラのレンズを補正するため、図1A中に示されたシステムのユーザデバイス上に表示される別のディスプレイ画面を示す。 或る実施形態による、センサデバイスの構成を選択するため、図1A中に示されたシステムのユーザデバイス上に表示される別のディスプレイ画面を示す。 或る実施形態による、ノードアレイおよびシーケンサの構成をメモリ中に記録するため、図1A中に示されたシステムのユーザデバイス上に表示される別のディスプレイ画面を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイス上に表示される、ノードデータに適用すべき待ち時間/遅延の補正の量を調整するためのコーナコントローラを含む、ディスプレイ画面の一部を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイス上に表示される、線形シーケンサ機能に関する相互作用のグラフ表現を含む、別の制御ディスプレイ画面を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイス上に表示される、カスタムシーケンサ機能に関する相互作用のグラフ表現を含む、別の制御ディスプレイ画面を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイス上に表示される、フリーシーケンシング機能に関する相互作用のグラフ表現を含む、別の制御ディスプレイ画面を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイス上に表示される、フリーシーケンシング機能に関する相互作用のグラフ表現を含む、別の制御ディスプレイ画面を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイスのグラフィカルユーザインターフェース(GUI)上に表示されるホーム画面の一部、具体的には、4ノード幾何配置コントローラ機能を示す。 或る実施形態による、図1A中に示されたシステムのユーザデバイスのグラフィカルユーザインターフェース(GUI)上に表示されるホーム画面の一部、具体的には、3ノード幾何配置コントローラ機能を示す。
以降の説明において、同じ参照番号は類似の要素を表す。これらの図面に示された、または本説明に記載された、言及される諸実施形態および/または幾何的構成および寸法は、単に例示目的のためだけに提供される本発明の実施形態である。
広義に述べれば、或る特定の実施形態によれば、カメラの設定を制御するための本システムおよび方法は、三次元の位置および方位データを生成するために、動きキャプチャまたは全体的な(またはローカルの)位置決めシステムを用いる。このデータは、所望の被写体とカメラとの間の相対的な距離データを含む他の寸法計算とともに、三次元空間における位置および方位をリアルタイムで計算するソフトウェアによって処理される。次いで、このデータは、レンズの焦点、レンズの口径、カメラのリモートヘッドなど、カメラ関連の装置を操作するためのサーボモータなどの装置を制御するために、全てリアルタイムで用いられる。
さらに具体的には、或る特定の実施形態によれば、本発明は焦点および構図の制御に関し、三次元空間中に所定のポイント、以降「ノード」と言う、を生成することを含む。ノードは、花瓶など室内の固定されたノードであってもよいし、あるいは、人や動物など動くノードであってもよい。カメラが動いていない場合またはカメラがセンサを有する場合、固定されたノードにはセンサは必要ない。動くノードおよび動くカメラにはセンサが必要である。動き追跡システムは、基本的には、所与の三次元空間中に無限数の定義ポイントを取り出す可能性を生成するので、このデータと連動させることで、はるかに複雑で、創造的且つ実用的な可能性を解放することができる。このシステムで定義され用いられる「ノード」の一つの重要な特徴は、これらノードが位置および方位両方のデータを保有することであり、このことは、左目と右目との間で自動的に焦点をプルするなどインテリジェントな動作を可能にする−本文書後部の「自動プロファイリング」を参照のこと。
しかして、ここで図1を参照すると、カメラ12など、画像キャプチャに関する装置112の設定を制御するためのシステム10が提示されている。システム10は、感知(検知)デバイスで位置データおよび方位データを捕捉するよう構成された、センサ14などの一つ以上の感知デバイス114を含む。システム10は、データ処理デバイス28(本明細書では「データ処理ユニット」とも言う)中に内蔵されたプロセッサ16をさらに含む。プロセッサ16は、感知デバイス114と通信しており、位置および方位データに基づいて、装置112によって取り扱われる関心領域の位置情報を算定するよう構成される。プロセッサ16は、関心領域の前記位置情報に基づいて装置112の設定をリアルタイムで制御するために、装置112に向けて制御信号を出力するよう構成された出力ポート43をさらに含む。
システム10は、出力ポート43と通信しており制御信号を使い装置112の設定を制御するよう構成されているコントローラ118、をさらに含む。システム10は、位置データおよび方位データを格納するため、RAM32などのメモリ132をさらに含む。システム10は装置112をさらに含む。本実施形態によれば、感知デバイス114は、視認に依存せず(すなわち非視線センサ)そして送信器22を含む。システム10は、送信器22とプロセッサ16との間で通信している受信器26をさらに含む。システム10は、ユーザインターフェース42を含み、ワイヤレス通信ネットワーク39を介してデータ処理デバイス28と通信しているユーザデバイス40をさらに含む。
さらに具体的には、図1は、カメラ12の設定の制御のためのシステム10を示す。システム10は、各々がカメラ12によるキャプチャ対象の被写体に取り付けられ、各々が各センサ14の場所に基づいて三次元の位置データを捕捉するようになされた、センサ群14を含む。システム10は、位置データを受信し、該位置データに基づく制御信号を送信するためセンサ14と通信するようになされた、プロセッサ16をさらに含む。システム10は、制御信号に応じてカメラ12の設定を制御するためプロセッサ16と通信するようになされた、コントローラ18をさらに含む。
また図1に示されるように、センサ14は、各々がハブ/送信器22に配線で接続される。ハブ/送信器22は、ワイヤレス無線周波(RF(radio frequency)リンク)通信手段24を介してユニバーサル・シリアル・バス(USB:Universal Serial Bus)受信器26と通信し、その受信器は、USB接続27を介して、内蔵プロセッサ16を有するデータ処理デバイス28につながれている。
データ処理デバイス28は、電源30およびDDR3ランダムアクセスメモリ(RAM:random access memory)32をさらに含み、フラッシュ不揮発性コンピュータストレージ34を内蔵する。データ処理デバイス28は、WiFi通信モジュール36、およびワイヤレスデータネットワーク39を介してユーザデバイス40と通信するためのZigbee(商標)ワイヤレス通信モジュール38をさらに含み、本例におけるユーザデバイスはiPad(商標)でありユーザインターフェース42を含む。当然ながら、このiPad(商標)は、例えばAndroid(商標)タブレットコンピュータなど任意の他の適切なコンピュータデバイスと置き換えまたは組み合わせることが可能である。
コントローラ18は、ハードワイヤ44を介してデータ処理デバイス28に接続される。コントローラ18は、カメラ12のエリア中に取り付けられ、Cypress PSOC(商標)5 LPマイクロコントローラユニット(MCU:micro−controller unit)46および電源48を含む。Hブリッジ50、52、54は、コントローラ18を、それぞれサーボモータ56、58、60に接続し、これらモータは、カメラ12の特定の設定、すなわち、それぞれ焦点、絞り、およびズームを自動的に操作する。
なお、別の実施形態によれば、前述の構成要素は、任意の適切な方法で、任意の適切な通信手段を介して相互接続することができる。
実際には、例えば、図2Aおよび2Bに示された実施形態では、複数のカメラ12がシステム10’に制御されている。各カメラ12は、「スレーブ」データ処理デバイス28bに接続され、該処理デバイスは、ユーザデバイス40の対応するユーザインターフェースを介して操作可能である。「スレーブ」データ処理デバイス28bは、「マスタ」データ処理デバイス28aと通信している。
図2Aおよび2Bの残りの構成要素は図1中に示された類似の構成要素に該当する。
図1および2に示された実施形態において、センサシステムは、磁気動き追跡システムを使って設けられている。さらに具体的には、センサ14は、誘導コイルを使って設けられ、システム10、10’は、交流(AC:alternating current)磁気源ジェネレータ(図3参照)をさらに含む。ハブ22は、センサ14に電力を供給し、データを解釈し、無線周波24を介して位置データを送信する。
望ましくは、磁気源は、基板上電源とともに、カスタムの延伸可能ポールの取り付け具上に搭載される。
随意的に、動きキャプチャシステムから送られるデータ送信の範囲を拡大するために、無線周波中継器を設けてもよい。USB RF受信器は、センサからデータを取得して、それをカメラに送信する必要がある。カメラとセンサとの間の距離が非常に大きい場合(例えば、自動車のコマーシャルなどのため2000mmまたは200mmレンズを使う場合)、送信範囲を拡大する必要があり得る。同様に随意的に、動きキャプチャシステムから送られるデータ送信の範囲を拡大するために、USB中継器を設けることができる。
各ユーザデバイス40、すなわちiPad(商標)のユーザインターフェース42はタッチスクリーンを含み、ユーザデバイス40は、中央コントローラ(群)28、28a、28bと通信するインターフェースソフトウェアを実行するようになされる。
随意的に、このソフトウェアに追加制御機能を加えるため、アナログ/デジタルインターフェースとして作動させるための機械的入力デバイス(例えば、焦点制御ダイアルまたはスライダ)を設けることも可能である。例えば、図2Aおよび2Bに示されるように、ユーザデバイス40の一つは、焦点プルつまみ62を含む、ユーザインターフェース42を有する。
中央データ処理デバイス28は、Linux(商標)オペレーションシステムを用いて動作し、サーボモータ(群)56、58、60を制御するための処理の多くを遂行する。
前述したように、サーボモータ56、58、60は、例えば、焦点、ズーム、口径およびまたは制御パン、傾斜、回転などのカメラの設定を機械的に調整する。
なお、特定の実施形態によっては、この設定は、カメラの焦点設定、カメラのズーム設定、カメラの口径設定、カメラのオキュラー間レンズ角度設定、カメラのパン設定、カメラの傾斜設定、カメラの回転設定、カメラの位置設定、照明設備制御の設定、音響設備の設定などの任意の一つまたはこれらの組み合わせを含み得る。
本発明の説明の文脈において、用語「プロセッサ(processor)」とは、中央処理装置(CPU:central processing unit)、マイクロプロセッサ、コントローラなど、コンピュータ命令を実行するよう構成された電子回路構成を言う。当業者なら理解できるように、本発明の諸実施形態によれば、複数のかかるプロセッサを設けることができる。該プロセッサは、例えば一つ以上の汎用コンピュータ内および/または任意の他の適切なコンピューティングデバイス内に設ければよい。
さらに本発明の説明の文脈において、用語「ストレージ(storage)」とは、例えば、ランダムアクセスメモリ(RAM)またはダイナミックRAMなどの一時的ストレージユニット、ハードディスクなどの恒久的ストレージ、CDまたはDVD(再書込み可能、または一度限り/読み取り専用)などの光ストレージデバイス、フラッシュメモリ等を含む、任意のコンピュータデータストレージデバイスまたはかかるデバイスのアセンブリを言う。当業者なら理解できるように、複数のかかるストレージデバイスを設けることができる。
さらに、「コンピュータ可読ストレージ(computer−readable storage)」とは、任意の適切な非一時的プロセッサ可読ストレージ媒体またはコンピュータ製品を言う。
前述のシステム10、10’とともに使用可能な他の構成要素には、
− 感知源配置のための非金属ポール取り付け具のカスタムのモジュール式システム、具体的には、3つ以上の感知源を使用する場合に迅速且つ容易にセットアップできるように、既定のサイズを備えた炭素繊維保持リグなど、
− カメラ、被写体、および対象体にセンサおよび磁気源を取り付けるための様々なクリップおよびブラケット、並びに
− ノードのオフセットおよび配置、並びに感知源の場所の容易な測定を可能にするための様々な器具、
が含まれる。
具体的には、図3は、一実施形態による、本システムとともに使用されるシングルまたはダブルブームポール感知源の取り付け具を示す。さらに、図4は、一実施形態によって、本システムとともに使用されるカメラアーム感知源の取り付け具を示す。さらに、図5は、一実施形態による、本システムとともに使用されるカメラセンサ取り付け具を示し、その部分が図5A〜5Cに示されている。さらに、図6は、一実施形態による、本システムとともに使用されるモジュール式感知源取り付けシステムを示す。
システムの作動
前述のように、本発明の諸実施形態は、焦点および構図の制御を可能にし、三次元空間中に、本明細書では「ノード」と言う位置および方位データ両方を有する所定のポイントを生成することを含む。ノードは、花瓶など室内の固定されたノードであってもよいし、あるいは、人や動物など動くノードであってもよい。カメラが動いていない場合、またはカメラがセンサを有する場合、固定されているノードにはセンサは必要ない。動くノードおよび動くカメラにはセンサが必要である。
図1を参照すると、作動において、センサ14は、その物理的場所を表す座標、例えば、センサの方位を表すデカルト座標系のX,Y,Z座標および/またはアジマス、エレベーション、およびロール(A,E,R)を生成する。例えば、センサ14が、カメラ12によってキャプチャされる人の頭の後部に配置されている場合、センサによって生成される情報は、該センサの場所およびその人の頭が前に向いているか後ろに向いているかなどを示すことになる。
プロセッサ16は、その位置および方位情報を受信し当該「ノード」の位置を計算する。例えば、センサ14が人の頭の後部に配置されている場合に、或る「ノード」がその人の目の一つに対応することが可能である。すなわち、プロセッサ16は、センサ14に対するその人の目の既定の位置を求め、受信された場所および方位情報に基づいて、目の場所すなわち焦点のポイントを計算する。次いで、プロセッサは、カメラ12と焦点のポイントとの間の距離を計算する。計算された距離に基づいて、プロセッサ16は、カメラ12の設定を制御するために制御信号を出力する。
しかして、図1Aをさらに参照しつつ、図1Bにより良く示されているように、装置112の設定を制御する方法200が提供される。方法200は、感知デバイス114によって、感知デバイス114の三次元の位置データおよび方位データを捕捉するステップ210と、その位置データおよび方位データをメモリ132に格納するステップ212とを含む。位置データおよび方位データが、感知デバイスによって捕捉され、感知デバイス114は該デバイスの物理的場所および方位を表す特性を表現する座標を生成する。方法200は、プロセッサ16により、三次元の位置データおよび方位データに基づいて、装置によって取り扱われる関心領域すなわち「ノード」の位置情報を算定するステップ214をさらに含む。ノードおよび感知デバイス114は、通常、いろいろな場所に配置される。プロセッサ16は、しかしてノードの位置情報を算定し216、装置112と当該ノードとの間の距離をさらに計算する218。
本方法は、計算された距離に基づいて、出力ポート43を介し装置112に向けて制御信号を出力するステップ220をさらに含む。
さらに具体的には、ピタゴラスの定理から「距離の公式」が導出され、三次元ユークリッド空間における(x,y,z)と(x,y,z)との2点間の距離が計算される。2つのノードの正確な位置が算定されたならば、距離の公式を用いてこれらのノードの間の距離も計算することができる。カメラの焦点調節の例を挙げれば、これらノードの一つがカメラの焦点面の中央にある場合、対象体に焦点を合わせるために、外部のフォーカスリングまたは内部のレンズの電子焦点調節メカニズムをその距離に設定することが可能である。
さらに具体的には、コンピューティングステップ216における各ノードの位置情報は、ノード(x,y,z)のユークリッド空間座標を含み、計算ステップ218は、
− ユークリッド空間座標(x,y,z)における装置の位置情報を受信するステップ222と、
− 下記のピタゴラスの原理から装置の位置情報とノードの位置情報との間の距離を計算するステップ224と、
を含む。
Figure 2016522598
位置および方位の両方を測定する動き追跡センサに対しては、ベクトル数学を用い、センサの場所に対する「先端オフセット」を適用することができる。例えば、或る俳優がセンサを自分の頭蓋の後部に付けている場合、先端オフセットによって、俳優の左目の表面に対するセンサの場所を見積もり、実効的に俳優の眼上にバーチャルセンサを生成することができよう。剛性の被写体/対象体に対して、先端オフセットの適用は、ノードをその被写体/対象体の内部または表面のどこにでも定義することを可能にする。同様に、3D空間中のどこにでも先端オフセット(ノード)を生成することができる。すなわち、これらノードは、センサの位置および方位に対する場所座標を表す対象体の外側に存在することが可能である。しかして、算定ステップ216は、そのノードの位置情報を計算するために、捕捉ステップ210の感知デバイス114の位置データおよび方位データからの先端オフセットを適用するステップ226を含む。
この先端オフセット(ノード)見積もりを実施するための一つの方法は、センサによって定義される軸システムに対する、センサの起点から目へのX、Y、およびZオフセットの測定値を利用することである。この目の例に対し、このオフセットが、センサのローカル座標系に対しX方向に10cm、Y方向に0cm、およびZ方向に8cmであるとしよう。これらのオフセットを用い、回転マトリックスおよび/または四元数を使って、動き追跡システムの座標系における、俳優の眼の絶対位置(Χ,Y,Ζ)および方位(ヨー、ロール、ピッチ)を計算することができる。以下の数式は、この先端オフセット問題を解くのに、標準的回転マトリックスアプローチを用いている(http://www.flipcode.eom/documents/matrfaq.html#Q36参照)。
しかして、この実施形態において、先端オフセットを適用するステップ226(図1B参照)は、感知デバイス114により定義される軸システム内で、感知デバイス114の三次元の位置データおよび方位データに対するノードの相対的座標を得るステップを含む。この場合、算定ステップ216は、装置112に対するノードの絶対位置の値を求めるステップを含む。
ノードの絶対位置の値は、次のように求められる:
回転マトリックスM=X.Y.Zが用いられ、以下の式のMは最終回転マトリックスであり、X、Y、Zは個別の回転マトリックスである。
Figure 2016522598
前式において:
A、Bはそれぞれ、X軸回転軸すなわちロールのコサイン(cosine)およびサイン(sine)であり;
C、Dはそれぞれ、Y軸回転軸すなわち傾斜のコサイン(cosine)およびサイン(sine)であり;
E、Fはそれぞれ、Z軸回転軸すなわちパンのコサイン(cosine)およびサイン(sine)であり;
=X+X*M(1,1)+Y*M(2,1)+Z*M(3,1);
=Y+X*M(1,2)+Y*M(2,2)+Z*M(3,2);
=Z+X*M(1,3)+Y*M(2,3)+Z*M(3,3):
前式において:
、Y、Zは、ノードの絶対(または最終的)座標であり;
、Y、Zは、感知デバイスのセンターの座標であり;
Χ、Y、Ζは、感知デバイスのセンターに対する先端オフセットの座標に対応し;
M(行,列)は、それぞれ、行および列に関する回転マトリックスの要素であって、要素「行」はマトリックス内の行の番号を表し、要素「列」はマトリックス内の列の番号を表す。
「先端オフセット」の測定は、別の方法によって容易化することが可能である。例えば、俳優の頭蓋の後部に初期の方位を有するセンサがあり、これはオイラー角または四元数によってあらわすことができる。ユーザはその俳優の左目上のノードを定義したいと望む。(例えば、テープメージャーを使う代わりに)別の動き追跡センサを俳優の眼に対して配置し、X、Y、およびZオフセットを計算することができる。一つの解決法は、この初期時点での「先端オフセット」および方位を測定することである。位置Pのベースセンサおよび所望のノードポイントPのセンサを所与とすれば、「先端オフセット」V1は、P−Pである。初期方位は、X、Y、ZおよびW属性を用いて四元数Qとして定義することができる。任意の他の時点において、新規の方位Qが生ずることになる。
しかして、この実施形態において、先端オフセットを適用するステップ226は、ベース感知デバイス位置に配置された前記感知デバイスの位置および方位に対する、或るノードの位置に配置されたノード感知用デバイスの位置によって前もって計算された先端オフセットを得るステップを含む。前述のように、初期方位は、X、Y、ZおよびW属性を用いる四元数Qとして定義され、捕捉ステップの方位データはQとして定義される。ノードの位置情報は、
+(q)P(q
によって算定され、この式において、
は、方位qのセンサからのオフセットであり;
は、センサの現在位置であり;
は、Pが計算されたときのセンサの方位であり;
は、該センサの現在の方位であり;
およびqは単位四元数である。
位置および/または方位データによって様々な先進的システム機能を実施するために、様々な他のアプローチおよび/または方法が実行可能である。一例には、動きキャプチャ座標系の起点に対する、動きキャプチャ「磁気源」の位置および方位を計算するため四元数を使用することがあろう。撮影チームのメンバーが感知源をランダムな位置および方位に配置した場合、このランダム感知源の範囲中で、動きセンサを、既知の位置および方位のセンサまたは感知源並びにレーザテープメージャーなどの距離測定デバイスからのデータと併せて使うことによって、該ランダム感知源の正確な位置および方位を算定することができる。簡単なアクセサリツールおよびソフトウェアによって、この例示のプロセスを極めて迅速で簡単に実行することが可能である。
図1Aおよび1Bに示された実施形態に戻って参照すると、方法200は、コントローラ118(これは装置112中に内蔵されている)によって、前記制御信号を用いて装置112の設定を制御するステップ228をさらに含む。
ノードがセンサからオフセットされている場合、その方位データは、たとえセンサが回転している場合にあっても、オフセットの位置もセンサとともに回転するので、ノードの位置決めを有利に可能にする。例えば、センサを刀の柄に取り付けることも可能で、焦点ポイントを刀の先端に固定し、どのように刀が動かされ回転されても高い精度で追跡することができよう。
方位データの使用のさらなる利点は、「補正オフセット」機能に関する。方位データを用い、第二センサを使って、焦点ノードの所望のオフセット位置を瞬時に計算することが可能である。例えば、演技者の首の後部にセンサを配置し、第二の「補正用センサ」を演技者の目の上に配置することは、ノードを生成するための迅速で有力な方法である。このやり方については以降でもっと十分に説明する。
方位データの使用のさらなる利点は「迅速設定」機能に関し、これは補正オフセット機能の特別な場合である。迅速設定機能は、カメラおよび被写体の両方にセンサを取り付けられており、カメラが被写体に向けられており、センサが視界の外、例えば背中に配置されているときに有用である。このとき、カメラの焦点は、被写体の所望の部分、例えばその目に焦点が合うまで調節がされる。また、被写体からおよびカメラからの方位データの双方を用い、さらにレンズによって示される距離データを用いて、焦点ノードの迅速で適切な精度のセットアップを得ることが可能である。
本発明の特定の諸実施形態による、様々な機能上の特徴および態様を以下に説明する。
図1Aをさらに参照しつつ、図1C中に示された実施形態によれば、画像キャプチャに関する装置の設定を制御する方法300が示されている。方法300は、装置112によって取り扱われる所定の関心領域(すなわち「ノード」)の一つ以上の識別子、および対応する位置情報(すなわち、装置に対しての三次元座標)を、メモリ132中に格納するステップ314を含む。この位置情報は、感知デバイス114で位置データおよび方位データを捕捉するステップ310と、該感知デバイス114の位置および方位データから、装置112によって取り扱われる関心領域の位置情報を算定するステップ312とによって得られる。方法300は、プロセッサ16で一つ以上の識別子の選択を受信するステップ316をさらに含む。方法300は、選択された関心領域の位置情報に基づいて装置112の設定をリアルタイムで制御する320ために、出力ポート43によって、装置112に向けて制御信号を出力するステップ318をさらに含む。
ノードアレイ:
(静止している、または動く)ノードを前もって定義することによって、インターフェース中に所望のノードのアレイを生成することが可能である。単にノードを選択するだけで、レンズが瞬時に焦点を合わせ、および/またはカメラがそのノードをポイントし(そのノードの方を向き)視野の中に組み込むことになる。これは、その場でのインプロビゼーション、多数の被写体/対象体の間での極めて迅速なラックフォーカス(ピント送り)、および、手動の測定または手動の焦点ダイアルの調節による一切の処置、あるいはカメラの作動の場合には、カメラ自体の一切の手動調節の必要なくして2つの移動する被写体/対象体の間で正確に調整を行う能力、を可能にする。しかして、この場合、図1C中に示された方法300の受信ステップ316は、既定の順序付けされたノードの選択を受信するステップを含み、該方法は、該順序付けされたノードの選択に従って、複数のノードに対し順々に装置112の設定を自動的に制御する320ために、選択された各ノードに対して出力するステップ318を繰り返す。
ノードシーケンサ:
また、ノードの所定シーケンスを生成することが可能で、これは、映画監督が被写体の順序を前もって知っている現在の映画製作のパラダイムに適している。このように、所望のノードを事前ロードすることによって、単に「次へ」のボタンをクリックすることによって、またはダイアル(リアルまたはバーチャル)を前後に回すことによって、一つの被写体/対象体から次に簡単にシフトすることが可能であり、ユーザは任意の所望の瞬間に2つの被写体の間で切り替えができるばかりでなく、被写体間で焦点が調節される速度(焦点プルの速度)を指定することもできる。しかして、入力ポート41を介したユーザの入力のコマンドの受信を受けて、(図1Aを参照しつつ)図1C中に示された前述のステップ318、320の繰り返しが促される。あるいは、ステップ318、320は、メモリ132に格納された既定のスケジュールに基づいて繰り返される。
幾何的スライダ:
また、ノード(またはノードのアレイ)のグラフィカル表現を、幾何的な(三角形および正方形)またはランダムなパターン(ジグザグ線、曲線など)でタッチスクリーンデバイス上に配列することが可能であり、ユーザは、各ノードの間で指をスライドすることによって、被写体間で「プルフォーカス」をできることになり、これも同様に、プルの速度に対する制御を有し、同様に、被写体またはカメラの移動に関係なく、実際の焦点距離を測定または調節する必要はない。
しかして、(図1Aを参照しつつ)図1C中に示された方法300は、2つの隣接するノードの間の変位に対応する、タッチスクリーン上のスライディング動作によるユーザ入力のコマンドを、入力ポート41を介して受信するステップをさらに含み、受信ステップ316の選択は隣接するノードの識別子を含む。方法300は、変位に従って隣接するノードの間の中間位置を相関させるステップをさらに含み、前記中間位置の各々に対して出力するステップ318が繰り返される。
インターフェースモード:
ノードアレイ、シーケンサ、幾何的スライダ、およびハードウェアダイアル、または他の入力デバイスを使って、焦点調節の2つの基本モードの間で選択をすることが可能である。
一つのモードは、ユーザが、ノードを選択、またはノードのシーケンス中で次の既定のノードに進むため、単にボタン(バーチャルなまたは物理的入力デバイス)をタップするだけの「タップ焦点調節」である。また、このモードでは、次のノードが、選好を事前設定しておくか、またはバーチャル「速度ダイアル」もしくはアナログ入力デバイスを調整するかして選択されるとき、焦点が調節される速度をあらかじめ決めることが可能なことに留意すべきである。
第二のモードは、ユーザが次のノードを選択するだけでなく、幾何的スライダ、バーチャルダイアル、またはアナログ入力デバイスを使って、次のノードを選択し、リアルタイムで焦点を調節する速度を実現する「スライド焦点調節」である。これは、所望の被写体への焦点を失ういかなる危険も引き入れることなしに、フォーカスプラーが調節の速度を制御している現行のフォーカスプルのパラダイムに匹敵する。
単一センサからの先端オフセットおよび複数ノード:
リアルタイムの位置および方位データを提供するセンサを用いて、同一のセンサを使って複数のノードを生成することが可能である。これは、Χ,Y,Ζ位置座標および関連するアジマス、エレベーション、ロール座標を用いた「オフセット値」を入力することによって実現される。したがって、被写体の頭の後部に取り付けられたセンサは、頭が剛性対象体なのでこれに関連付けられるいくつかのノードを有することができる。目、鼻の先、耳などは、全てこの技法を用いる、単一のセンサからのノードとして定義することが可能である。
先端オフセットの微調整:
三次元空間における正確なオフセットを測定することが困難であり得る状況において、2つの自動化技法が提供される。
− センサが俳優の首の後部に配置され、所望のノードが実際は目であるとすれば、第二センサを一時的に目の上に配置することができる。この第二センサからのデータを用いて、「先端オフセット」データが自動的に計算でき、当該ノードに適用することが可能である。
− 先端オフセットは、被写体をカメラの視野に立たせることによって手動で調整することができ、次いでフォーカスプラーが、所望のノード(大抵は目)に焦点が合うまで焦点を調節することができる。このシステムは、当該センサの方位を知っており、センサのデータに対してどのくらい離れて焦点が調節されたかを知ることになるので、それ自体の先端オフセットを近似的に補正する能力がある。
自動プロファイリング:
ユーザが演技者の身体の他の箇所に隠されたセンサを用い、ノードを目として定義する場合、このノードが実際は「2つのノード」、左目および右目であるとシステムに通知しておくことが可能である。システムは、常に、どこにカメラがあるか、どこに被写体があるか、および被写体がカメラに対しどのように方向づけられているかを知っているので、システムは、例えば、顔の左側がカメラに向いているとき左目に焦点を合わせ、顔の右側がカメラに向いているとき右目に焦点を合わせることができる。しかして、(図1Aを参照しつつ)図1C中に示された方法300は、ステップ316で受信したノードの選定の間で、所与の条件を満たすノード(関心領域)を判定するステップをさらに含む。ステップ318の信号は、しかして、所与の条件を満たすノードに基づいて生成される。
同様に、どの回転する被写体または対象体も、その被写体または対象体が回転するとトリガが可能な、自体に関連付けられたいくつかの「自動プロファイリング」ノードを持つことができよう。
ズーム制御:
焦点をプルするのと同様に、位置および方位データは、ズームを調整するためにも用いることができる。例えば、被写体の距離に関わらず、フレーム中で或る被写体をぴったりと同じサイズに保つことが望まれる場合、システムは、レンズパラメータを入力することによって、被写体または対象体が移動するのに応じて自動ズームインまたはズームアウトをすることが可能である。注記:この効果は、時として「ドリーズーム」または「トリプルリバースズーム」とも称され、現在では、非常に安定したカメラ移動、および何回ものリハーサルの実施を必要とする。本システムは、ハンドヘルドショットで、ランダムな演技者およびカメラの動きに対しこの効果を生成することを可能にする。
ミラーモード:
また、例えば、鏡の中の反射像を撮影するため必要になることがあるように、バーチャルな距離および/または角度を計算するための機能を拡張することも可能である。カメラと鏡の中に反射している被写体との間の焦点距離は、カメラから鏡への距離プラス鏡から被写体への距離に等しいが、鏡と被写体とに(および動いている場合、カメラにも)センサを配置することによって、本システムは、必要な場合に反射像に焦点を合わせるための正確なバーチャル距離を迅速に計算することができる。
2つのノードの間または2つのオフセットノードの間の最適な焦点面に基づく焦点調節:
例えば、各々がセンサを着けている2つの被写体に焦点を合わせることが必要なことがある。このとき、中間の点ならば焦点面が各被写体に対し中間にあることになり、該焦点面は被写界深度のほぼ中間点になり、両方の被写体が取り得る最善の焦点を可能にすることになるので、選択されたレンズが被写体の両方が焦点内にあることを可能にするように、中間点を選択すればよい。オペレータは、特に、2つの被写体の一方に優先権が与えられ、他方の被写体が被写界深度の範囲から外れた場合にあっても前の一方が必ず焦点内にあるのを確実にすることを望む場合などは、2つの被写体の間の任意の点を選択することができよう。
3D撮影のためのオキュラー間角度調整:
一部の三次元撮影セットアップでは、オキュラー間角度(inter ocular angle)のリアルタイムの調整が必要である。本システムは、この角度を選択された被写体/対象体に連結することによって、この調整を自動化することができる。
口径制御:
一部の状況では、例えば、単一のショットの間に明るい戸外の場所から暗い屋内に移動するときなどに、レンズに入りこむ光の量を調整するために「口径をプルする」ことが必要なことがある。カメラ位置を口径調整に結び付けることによって、既定の場所の範囲に対し口径調整を自動的に行うことができる。さらに、カメラに対する方位データが利用可能なので、単にカメラの方向に基づくだけで口径を調整することができ、セットまたはロケーションを複数の「主光線」で照らすことが可能となり口径が常にこれらの露光量の間でスムーズに調整されることになるという、現在では不可能なシナリオが可能になる。
セットアップの保存:
本システムを用いて、非常に複雑なショットまたはシーンを事前にプランし、「ノード」および任意のシーケンスに関する必要な全てのデータをインターフェースソフトウェア上のファイル中に入力することが可能である。「シーン」のこの保存は、設定の効率を大幅に向上し、また、製作者に現在の技術では不可能な高度に複雑なショットを計画し用意する能力を付与する。
距離の表示:
本システムでは、何時でも被写体とカメラとの間の相対的距離を計算し、何時でもそれを所望の任意の読み取り装置上に距離データとして表示することが可能である。例えば、選択された「ノード」の距離データを、ソフトウェアインターフェースの主制御画面上に常に表示することができる。さらに、「サテライトデバイス」をこの距離データに連結することが可能で、ユーザは何時でも任意のノードを選択してデータを判定することができる。
例えば、フォーカスプラーはリハーサルの過程で俳優Aに焦点を合わせているかもしれないが、撮影技師は、映画監督に要求された被写界深度を生成するために必要な光源レベルを見積もるため、俳優Bがどのくらい離れているかを知りたいと望むかもしれない。たとえ俳優Aに焦点が合っている場合にあっても、撮影技師は、iPod Touch(商標)またはスマートフォンなどのハンドヘルドデバイスを使って、俳優Bに対する距離データにリアルタイムでアクセスすることができよう。
マルチカメラサポート:
本システムは、ユーザが、限定できる上限なく一つ以上のカメラをセットアップし、複数のカメラを同一の対象体に向ける、または各カメラを別々の対象体に向けることを可能にする。
他のリアルタイムデータの表示:
リアルタイムデータへのアクセスを有することは、他のリアルタイム計算および表示も可能にする:
− 任意の所与の時間における任意の所与のノードに対する被写界深度。
− 最小焦点距離ウォーニング−例:所定の近接距離に到達したときにオレンジ色で、被写体が実際の最小焦点距離に到達したときには点滅する赤色で、距離を表示することができる。
手動オーバーライドおよび自動ハンドオフ:
システムの効率性に関係なく、いずれかのフォーカスプラーまたはカメラオペレータがいずれかの時に手動で焦点を制御したいと望むことがあり得るので、本システムでは、自動と手動との間で、即時の手動または自動による完全切り替えが可能である。これらは、現在のシステムでも利用可能な方法である。
− デジタル微調「ダイアル」は、フォーカスプラーに対し恒久的に利用可能である。単にこの微調を調整するだけで、フォーカスプラーは、いくらでも自動焦点設定をオーバーライドすることができる。
− 「スレートモード」。ボタンを選択することによって、自動システムが即時に完全手動に切り替わる。
− 「自動ハンドオフ」。このモードは、ユーザが、ノード、被写体または対象体が自動から手動におよびその逆に切り替わるポイントを前もって定義することを可能にする。これは、遠距離を進む被写体に非常に長焦点のレンズを用いる場合に有用であり得、およびまたはデータ中の望ましくないばらつきを避けるための方法でもあり得る。
ブームに搭載された感知源:
映画産業は、長い張り出しポール−「ブームポール」と呼ばれる−の上にマイクロフォンを搭載する処理に既に慣れているので、本システムの一つのユニークな実装は、磁気源をブームポールの上に搭載することで、これを、マイクロフォンが最も近い便利な場所の演技エリアの上に配置されるのと全く同じ方法で、最も近い便利な場所の演技エリアの上に配置することができる。被写体およびカメラの両方がセンサを備えていれば、複数のノードに対しても完全な焦点データを収集することが可能である。但し、この方法は、カメラのオペレーションまたはセンサと関連付けられていない固定ノードの使用には使えない。
二重(および多重)の感知源のブーム:
単一の感知源をブームポールに搭載する基本アイデアを拡張すれば、範囲を拡大するために、ブームポールの両端に1つずつ2つの感知源を搭載することも可能である。同様に、例えば、三角形または正方形の他のハンドヘルド構成も範囲を拡大し、これら感知源の相対的位置はセットアップソフトウェア中に事前設定しておくことが可能なので、セット現場での補正の必要もなく迅速なセットアップが可能になる。
カメラに搭載の感知源:
感知源を直接カメラ上に搭載し、ソフトウェアを用いて該感知源に対するカメラの相対的位置を補正して、カメラ上にセンサなしでシステムを作動することが可能である。これは、シャープな焦点調節のため最も必要とされる近距離での高い精度を提供する、迅速なセットアップ「単一感知源システム」を可能にする。
モジュール式システム:
複数の感知源(理論的には上限はない)は、既定の構成でまたはランダムに配置することができる。既定の構成(10ftの辺を有する等辺三角形など)は、迅速なセットアップを可能にし、大きな領域をカバーすることができる。ランダム構成は、ソフトウェアにおいていくつかの手動セットアップを必要とするが、システムによってカバーする対象の形状および領域に高いフレキシビリティを可能にする
カメラに搭載の感知源
静止磁気源(または光センサ)の補正:
本システムは複数の磁気源(または赤外線の場合は複数のカメラ)およびシステム中に入力する必要のある各感知源のΧ,Y,ΖおよびA,E,Rを用いるので、システムにはこのデータを入力するための簡単なインターフェースが含まれている。
予測(またはカルマン)フィルタリング:
どの自動化システムもリアルタイムでデータを見るので、常に過去を調べている。本システムは極めて高速ではあるが、極度に高い難度の状況、すなわち、高速で移動する被写体と低い光度での非常に長い焦点のレンズ、ではマイクロセカンドの遅延ですら目に見える影響をもたらしかねない。現在映画製作者および撮影技師はこういった高い難度の状況を避け、実際上これらを克服するために巨額の資金を費やしており、中でも注目すべきは、5.6の平均絞り値を維持するための非常に高価な照明パッケージのレンタルである。予測アルゴリズムをシステムに加えることによって、カメラに向かって来るまたは去って行く被写体の動きの速度に対して一定の割合で焦点位置を調節して、焦点位置中の一切の遅延に対する補正をすることによって、データ中の一切の軽微な遅延を克服するのは極めて容易である。この機能を加えることによって、最も高い難度の状況下においてもほとんどの焦点確保は比較的簡単になる。
本システムの全ての機能を使えば、ユーザは望むだけ多くのまたは少ない自動化を加えることによってこれを補正することができる。例えば、高度に積極的な設定をすれば、たとえ非常な高速で移動している対象体であっても緻密な焦点を生成することができよう。より低度に積極性な設定では、より自然的な遅延が生成され、これは一部の創造的な目標にはより適していよう。
データの記録:
前述したように、本システムの位置および方位データはリアルタイムで記録することができ(すなわち、メモリ132に格納される−図1A参照)、後で撮影後の他の計画で用いることができる。
強化されたカメラ制御:
位置および方位データを使って、カメラの動作、およびドリーおよびまたはジブアームもしくはカメラクレーンの動きを完全に自動化することが可能である。但し、カメラオペレータおよび撮影技師は、最終構図の機微の完全な統御を行うことを欲する。本システムの一つの特徴は、カメラ制御の複雑な作業を完全に自動化し、オペレータが、タッチスクリーン機能を備えたビデオ再生スクリーン上で自分の指を動かすだけで、構図を調整できるようにすることである。例えば、この自動化システムは、演技者をフレームの真ん中に保持することができるが、オペレータは演技者をフレームの左方に置きたいと望む。ビデオ画像上の任意のポイントから左方に指をドラッグするだけで、本システムは、フレーム中の演技者の位置を所望の構図に補正し調整することになる。このように、急速に動く対象体のフレーム構成が、静止した対象体をフレーム構成するかのように簡単になることになる。これと同じ調整を、現在、標準的遠隔カメラ操作のために使われているジョイスティック制御でも行うことができ、これも現行技術に対する大きな改良となろう。また一方、このタッチスクリーンのドラッグ機能はより直感的で訓練を必要としない。
赤外線LED:
前述したシステムは、AC磁気動きキャプチャシステムを用いる。また一方、同じように実行可能な別システムがあり、これはより大きなスタジオ構成に適用することができ、同じデータを捕捉するために赤外線LED動き追跡システムを用いる。赤外線はセンサカメラへの視線であるが、当システムはカメラと被写体との間の視線を必要としない。小さな赤外線LEDを衣服、髪、および他の物体に隠しておくことが可能で、これらはカメラには見えない。また、中に縫い付けられた、赤外線パターンを有する「スマート布地」を生成することも可能で、これらも同じデータを提供することができる。
ディファレンシャルグローバル(およびローカル)測位システム:
ディファレンシャルGPSは、本システムを作動するため必要な相対的位置データのほとんど全てを提供する。処理時間を加速することによってGPSを増補し、方位データを提供する追加の感知能力を「結び付け」、加えることによって、本システムは、世界中のほとんどどの屋外ロケーションにおいても十分に機能することになる。屋内スタジオでの応用は、「ローカル測位システム」の開発と使用によって増補することができ、これはディファレンシャルGPSと同じ原理で動作するがずっと小さなスケールであり、「サテライト」を静止することが可能なので、非常に高い正確さを達成することができる。
照明および他の設備の制御:
諸ノードが定義されたならば、正確なポインティング、追従、またはターゲッティング、および照明ビームの幅などの他の質的調整を必要とする、任意の数の補助制御システムに対してデータを利用させることができる。
スポーツトレーニング:
本システムをスポーツトレーニングに適応させるのは比較的簡単なことである。例えば、テニスボールマシンを選手の正確な位置を知るソフトウェアインターフェースに結び付けることによって、該マシンが常に選手の弱み(バックハンド)にプレイし、およびまたは任意の速度または角度でボールを打ち出すマシンの能力を使ってさらに挑戦的なバーチャルな対戦相手を創り出すことが可能である。
視覚障害状況への応用:
本システムの別の応用は、低光量の状況または視覚障害者のための使用とすることができよう。例えば、或る環境をノード群としてマップすることが可能で、視覚障害者は、自分の位置および方位、並びに室内の物体および人々の位置および方位に関する様々な種類のフィードバック受け取ることができよう。別の例は、どの人も自分の周りが見えないような極めて暗い室内など、低光量の状況におけるものであろう。
次いで図7〜25を参照しながら、グラフィカルユーザインターフェース(GUI)64の構成要素を説明することにする。ユーザが、システム10(図1、2A、および2B参照)を作動できるようにするためのGUI64が、ユーザデバイス40のユーザインターフェースデバイス42を介して表示されている。
図7は、GUI64のホーム画面66を示す。
図8は、ノード生成/修正ウィンドウ68を示す。
図9は、図7のホーム画面66の一部、具体的にはノードアレイ70を示し、この図ではユーザはアレイ70内に様々なノード72を生成している。
図10は、図9のノードアレイ70の一部、さらに具体的にはノード72の一例を示す。
図11は、図9のノードアレイ70の別の部分、さらに具体的には、ユーザにノード上をタップされて選択されたことを表している、ハイライトされたノード72を示す。ノードは、ユーザに様々な情報を示すことができる(例えば、センサに関連付けられているか、センサがオンラインかどうかなど)。
図12は、図7のホーム画面66の一部、具体的にはシーケンサ74を示す。ユーザは、様々なノードを特定の順序でシーケンサ74に記録している。
図13は、図7のホーム画面66の別の部分を示し、具体的にはコーナーダイアル制御インターフェース76を例示している。この実施形態において、該ダイアルは、レンズの焦点距離を微調するのに使用される。
図14は、図7のホーム画面66のさらに別の部分を示し、具体的には別のコーナーダイアル制御インターフェース78を例示している。この実施形態において、該ダイアルは、レンズが一つのノードから別のノードに焦点をプルする速度を制御するのに使用される。
図15は、カメラを定義するための、GUI64のウィンドウ80を示す。
図16は、レンズを補正し、どのレンズをカメラ上に置くかを選択するための、GUI64のウィンドウ82を示す。
図17は、動き追跡システムのセットアップを選択するための、GUI64のウィンドウ84を示す。
図18は、ノードアレイ70およびシーケンサ74を含め、アプリケーションの現在状態をメモリに保存するための、GUI64のウィンドウ86を示す。
図19は、ユーザが、システムがノードデータに適用する待ち時間/遅延の補正の量を調整することを可能にするコーナコントローラ88を含む、GUIウィンドウ64の一部を示す。
図20は、シーケンサの機能の相互作用のグラフィカル表現を可能にする、GUI64の別の制御ウィンドウ90(「全機能ジェオメトリリニア」)を示す。ユーザは、指を一つのポイント(各ポイントはノードを表す)から次にスライドするだけで焦点をプル(または他の自動調整を)することができる。ユーザが一つのポイントから別のポイントに指を動かす速度によって、行われる焦点の(または他の)調整の速度が制御される。
図21は、シーケンサの機能の相互作用のグラフィカル表現を可能にする、GUI64の別の制御ウィンドウ92(「全機能ジェオメトリカスタム」)を示す。ユーザは、画面上のポイント(各ポイントはノードを表す)の正確な数および位置を決定し、その後、指を一つのノードから次にスライドするだけで焦点をプルする(または他の自動調整を行う)ことができる。ユーザが一つのポイントから別のポイントに指を動かす速度によって、行われる焦点の(または他の)調整の速度が制御される。
図22は、任意の6つのポイントの間の相互作用調整を可能にする、GUI64の別の制御ウィンドウ94(「全機能ジェオメトリ6ノード」)を示し、各ポイントはノードを表す。この構成の利点は、既定のシーケンスが必要ないことである。ユーザが一つのポイントから別のポイントに指を動かす速度によって、行われる焦点の(または他の)調整の速度が制御される。
図23は、任意の5つのポイントの間の相互作用調整を可能にする、GUI64の別の制御ウィンドウ96(「全機能ジェオメトリ5ノード」)を示し、各ポイントはノードを表す。この構成の利点は、既定のシーケンスが必要ないことである。ユーザが一つのポイントから別のポイントに指を動かす速度によって、行われる焦点の(または他の)調整の速度が制御される。
図24は、複数の機能を有するGUI64上の主制御ウィンドウの中の、図19のコーナコントローラ88の細部98(「コーナージェオメトリ4ノード」)を示す。この機能は、4つのノードが使われるとき、容易に制御されるグラフィカル表現として、どのようにそれが使用できるかを示す。これは、4つのポイントの間での相互作用の調整を可能にする。この構成の利点は、既定のシーケンスが必要なく、且つGUI 64の主ウィンドウ中で右(または左)親指によって容易に操作されることである。ユーザが一つのポイントから別のポイントに指を動かす速度によって、行われる焦点の(または他の)調整の速度が制御される。
図25は、複数の機能を有するGUI 64上の主制御ウィンドウの中の、コーナコントローラ88の細部100(「コーナージェオメトリ3ノード」)を示す。この機能は、3つのノードが使われるとき、容易に制御されるグラフィカル表現として、どのようにそれが使用できるかを示す。これは、3つのポイントの間での相互作用の調整を可能にする。この構成の利点は、既定のシーケンスが必要なく、且つGUI 64の主ウィンドウ中で右(または左)親指によって容易に操作されることである。ユーザが一つのポイントから別のポイントに指を動かす速度によって、行われる焦点の(または他の)調整の速度が制御される。
以下のリストは、本発明の諸実施形態による、さらなる特徴、構成要素、用途などを提示する:
− 本システムのデータストリームおよび特徴は撮影後の使用に適している。全てのデータおよびビデオのフィードは、(例えば、映画セットの各「テイク」について)格納して即座に再生し、および/または撮影後のために(例えばCGIに使用)格納することができる。これは、カメラの動き/方位、ノードの動き/方位、および装置の制御を含む。
− 本システムのデータストリームおよび特徴は、バーチャルおよび拡張現実環境における使用に適している。全てのデータおよびビデオのフィードは、送信し、格納し、そして即時に再生することができる。
− 本システムのデータストリームおよび特徴は、様々なハードウェアの相互作動に適している。例えば、絞りおよび減光操作を相互にリンクさせ、被写界深度を変えるため絞りを調整する際に、観客が明かりの変化を体感することなく被写界深度の変化を体感するよう、照明を自動的に同時に減光または増光することができるように、あらかじめプログラムしておくことが可能である。かかる相互作動性は、制限なく全ての装置に適用される。
− 諸実施形態によれば、本システム設計は、アプリケーションを実行し、全ての装置の種類を制御している複数のオペレータインターフェースデバイス(例えば、iPad、iPhone、Ipodタッチ)の相互作動に適している。この相互作動性と併せ、各インターフェースデバイスは互いにデータを送信および受信することができる。例えば、或るオペレータが、自分のカメラを一つの対象体に焦点を合わせるためにノードをタップすると、その焦点調節の決定は、別のカメラを制御している別のフォーカスプラーのデバイス上、および、映画監督およびプロデューサを含む様々な他のチームメンバーのデバイス上にも直ちに表示することができる。
− 諸実施形態によれば、本システム設計は、極めてフレキシブルなマルチカム機能に適している。焦点調節の例において、一つのiPadが複数のカメラを制御することが可能で、複数のiPadが同時に複数のカメラを制御することも可能である。ノードをタップすることによって、一つのiPadが複数のカメラを同時に制御することができ、これらカメラを選択して個別制御することもできる。また、一つ以上の補助カメラを恒久的ノードアレイと同時に制御するため、シーケンサグラフィックを一時的にノードアレイの第二コピーに置き換えることが可能である。アプリケーションのビデオフィードセクションは、全ての焦点調節活動をモニタするために、分割スクリーン(例えば、2つのカメラに対する分割スクリーン、または4つのカメラに対する4方式分割スクリーン)に切り替えるように製作することができる。
− 高度なハードウェアおよびソフトウェア設計は、システムの待ち時間をミリセカンドのオーダーまで最小化すること(例えば、インタラプト、マルチコア、マルチスレッドソフトウェアなど)に焦点を合わせている。
− 本システムの低遅延および応答性によって、過剰に「ロボット的」に見えないように、機能は、オペレータが自動焦点調節応答性を実際上遅くすることを可能にできる。
− 機械的入力デバイス(例えば、iPadに取り付けられたデジタル追跡焦点ダイアル)を、ソフトウェアのグラフィカルユーザインターフェースの任意の要素(例えばシーケンサ)にリンクすることが可能である。
− 電気的変化を介して、スクリーン表面に手触り感、溝形状などを生成可能な「展性のある」タッチスクリーンが本システムに適している。例えば、「幾何的スライダ」機能中のグラフィカルラインおよびノードは、タッチスクリーンの観察へのオペレータの依存を低減することを含めて操作性の改善のため、溝形状に変換することができよう。
− 内蔵のビデオフィードディスプレイの記録および再生は、フォーカスプラー、撮影監督・映画監督などの両方にとって極めて有用である。例えば、フォーカスプラーは、最新の「テイク」または「ショット」の終了時やその日の終わりに焦点合わせの品質に容易にアクセスができよう。
− ビデオフィードの領域にタッチすることによって、焦点調節するノードを選択、および/または、遠隔ヘッド位置決め、照明などといった、他の設備の機能の制御をすることができる。
− センサと送信器とを自由な対象体の内側に配置することが可能である。例えば、バスケットボールゲームの間、ボールに焦点を合わせるために、ボールの質量または質量中心に影響がないようにして、センサと送信器とを特製のバスケットボールの中に配置することができよう。
− アプリケーションの状態を保存する「シーン保存」機能と併せ、ノードマネージャは、オペレータが類似のノードの群を保存することを可能にできる(例えば、或る自動車の全ての部分をノードとして定義し、将来の何時においても、同じ自動車を再使用する、または新しい自動車に対するノードの生成を容易にするため再ロードすることができる)。
− 座標のノードの位置に基づいて、装置制御イベントをトリガすることができる(ハードウェアおよび/またはソフトウェアのトリガ)。
− ノードデータの多くの「インテリジェント」な使用が可能である。例えば、或るノードがカメラの視野(フレーム)に近付きつつあるかまたは入ったとき、表示をしてオペレータに警告をすることができる。この例では、ノードがフレームに入ったとき、自動的にぴったり焦点に入るようにそのノードを前もってプログラムすることができよう。
− 動き追跡データストリームは、多くの数学的アプローチを使ってフィルタすることができる。例えば、データが信用できないかまたは使用できなくなったとき、データストリーム中のノイズを数量化して判定することが可能である。このデータは「手動オーバーライドおよび自動ハンドオフ」ソフトウェア機能にフィードすることができる。また、減衰のレベルなどを制御するために、多くのフィルタをデータストリームに適用することが可能である。
− ノードシーケンサが「中立」である場合、2(線)、3(三角形)または4(正方形)の幾何的ノードは全て緑色に設定される。このように、シーケンサが「前進」または「逆行」状態になったとき、次のノードは、2、3、または4グループから外れ、シーケンス中の次の論理ノードが唯一の緑ノードになることになる。
− ソフトウェア機能は、オペレータが、カメラを通してノードを見、ノードがシャープに焦点調節されるまで焦点微調機能を操作することにより、ノードの先端オフセット中の軽微な誤差を素早く修正することを可能にすることができる。この瞬間に、オペレータは、システムをトリガして、該ノードの先端オフセットを(四元数計算を介して)自動的に再計算することができる。
− 前もって記録された動きをたどるために、前もって記録された動き追跡データ(例えば地震の揺動)をシステム中にフィードしてカメラおよび装置を動かすことが可能である。この技法は、観客の「自然な体験」(例えば、地震の揺動、起伏の多い地形での自動車など)を向上することができる。
− 特定の(そして難しい)所定装置動作(例えば、ハンドヘルドカメラを使ったヒチコックズーム、カメラがブランコ曲芸師と同期して回転するなど)は、自動化および/または容易化することができる。
− フィードバックループを含む、音楽コンテンツに関連させた効果(例えば、実演を含め、歌のビートに合わせて焦点を合わせたり外したり、またはビートに関連させたカメラの位置/ポインティング)が可能である。
− ソフトウェアとユーザとの任意の相互作用を記録し自動化できるように、システム全体を「スクリプト可能」にすることができる。
− 対象体へのセンサの配置のために様々なアクセサリを使うことができる。例えば、センサを、俳優に着用させるストラップ中に配置することができ、容易な配置/取り付けのため様々な搭載箇所に移し替えることが可能である。
− 感知源セットアップ機能には、モジュール式ポール接続感知源システムアクセサリを用いるセットアップのための3Dモジュール式感知源構築機能を含めることができる。この機能において、オペレータは、彼らが手動で構築していた3D表現のモジュール式セットアップを素早く構築することができる。その後は、モジュール式感知源システムアクセサリの物理的設計によって、ポールの長さおよび感知源の角度が前もって定義されているので、ソフトウェアが、全ての感知源の位置および方位を瞬時に計算することが可能である。
− モジュール式感知源システムでは、接続ポールは、セットアップの後、感知源を移動せずに片づけることができる。これは、感知源に位置または方位は、iPadアプリケーションの3Dモジュール式感知源構築機能で計算されるので、それらを測定する必要がなく、迅速で束縛されない感知源配置を可能にする。
− 特定のカメラレンズの内部電子装置にアクセスし、焦点、口径、ズームを直接制御して、レンズリングのサーボモータ制御とともにこれらのサーボモータの必要性を排除することも可能である。
− 本システムのソフトウェアは、動き追跡システム設定の完全な制御を可能にする。
− 或るアクセサリは、正確な測定のための、カメラのレンズ取り付け具上にフィットするようなセンサ補正「蓋体」ツールである。これは、カメラデータを「結節状」にするので、視覚効果作業のために重要である、焦点面センターの非常に正確な測定を可能にする。
本発明の諸実施形態は、レンズ機能、構図、カメラ位置、照明、および音響を調整するために、三次元の位置および方位データのリアルタイムストリームを用いることにより、映画製作者、並びに動画および/または静止画コンテンツ作成者に利用可能な機能を大幅に容易化し拡張する、という点で有益である。
本発明の諸実施形態によれば、映画制御に関連したこのノード群の使用は、以下を含む数多くの利点を提供する:
1)本ノードシステムは、複数の移動するノードを前もって定義することを可能にする(他のほとんど全てのカメラ/焦点システムはしていないが、Pictorvision Eclipseは、目の粗いアプリケーションのためGPSを使っているhttp://www.pictorvision.com/aerial−products/eclipse/)。
2)本ノードシステムは、複数の移動するノードの真の自動追跡を可能にする(おそらく他のすべてのカメラ/焦点システムはしていない;一部は、人に追跡をさせることによって試みている;Pictorvision Eclipseは一つだけの移動ノードを持つことができる;照明に対する「真の自動追跡装置」の一例はhttp://www.tfwm.com/news−0310precisionかも知れない)。
3)本ノードシステムは(他の全てのシステムと違って、使い物にならないような距離ではない)三次元位置データを提供する。
4)使われるノードの特性は、位置および方位であり、おおまかな「領域」の代わりに被写体/対象体上のポイントを定義することを可能にする(おそらく、ノードの無い他の全てのカメラ/焦点システムとは違う;他のシステムは、対象体上のどの箇所にでも(例えば、目の上へ焦点を合わせる)ノードを定義するためにオフセットを適用することはできない)。
5)位置および方位は、被写体/対象体の角度を制御する試み、例えば、俳優の頭がカメラに対し或る特定の角度のとき、俳優の右目からその左目に切り替えるなど、を可能にする(どの他のシステムもこのようなことはできない)。
6)本ノードシステムは、おそらく他の全ての自動追跡システムと違って(増強されたレベルの制御/焦点調節を提供する方位およびオフセットのおかげで)、極めて高い(多くの状況では、1cmを下回る)精度を提供する。
7)本ノードシステムは、おそらくは他の全ての自動追跡システムと違って極めて高い周波数(120Hz)をさらに提供する(例えば、gpsシステム、アクティブ顔検出などは、このような周波数を備えていそうにない)。
8)本ノードシステムは、低い待ち時間(10ms)をさらに提供する。このレベルの待ち時間は、ほとんどの場合において「映画製作上」の制御を妨げない(これも多くのシステムに欠けている)。
9)本ノードシステムは、予測/補正機能を提供し、待ち時間を大幅に低減する。
10)本ノードシステムは、「直視線」要件を必要としない。すなわち、ノードは俳優/対象体の上に配置されたセンサを使うので、レーザまたは音波が俳優を外れることはない。顔の認識も明らかに直視線を必要とする。この点に関し、センサの別の利点は持続的なノードのデータである。例えば、俳優がやぶの陰から飛び出した場合、俳優の新たな出現に対応する必要のある直視線システムと違って、瞬時にして既に俳優に焦点に合わされている。
11)本ノードシステムは、動いている環境の中で継続して機能する。例えば、感知源がハンドヘルドカメラシステムに搭載されている(または感知源ブームポールアクセサリを用いて使われている)場合、本システムは、カメラオペレータがどこを歩いていようとも該オペレータの周辺で継続して機能する。同様に、本システムは移動する車両の中、例えば移動する列車上でも機能する。
12)さらに、本ノードシステムは携帯型システムである。
前述の諸実施形態は、あらゆる点で例示のためだけのものであって限定するものではないと見なされており、本出願は、当業者には明らかなように、これら実施形態の一切の翻案または変形をも網羅することが意図されている。当然のことながら、前述の実施形態には、当業者には明らかなように、本発明の範囲から逸脱することなく数多くの他の修改を加えることができよう。

Claims (39)

  1. 画像キャプチャに関する装置の設定を制御する方法であって、前記方法は、
    a)感知デバイスにおいて三次元の位置データおよび方位データを捕捉するステップと、
    b)捕捉された前記位置データおよび方位データから前記装置によって取り扱われる関心領域の位置情報をプロセッサによって算定するステップと、
    c)前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記プロセッサの出力ポートを介し前記装置に向けて制御信号を出力するステップと、
    を含む、方法。
  2. d)コントローラによって、前記制御信号により前記装置の前記設定を制御するステップ、
    をさらに含む、請求項1に記載の方法。
  3. − 前記位置データおよび方位データをメモリに格納するステップ、
    をさらに含む、請求項1に記載の方法。
  4. 前記設定が、カメラの焦点設定、前記カメラのズーム設定、前記カメラの口径設定、前記カメラのオキュラー間レンズ角度設定、前記カメラのパン設定、前記カメラの傾斜設定、前記カメラの回転設定、前記カメラの位置設定、前記カメラの位置設定、照明設備制御の設定、および音響設備の設定、のうちの少なくとも一つを含む、請求項1〜3のいずれか1項に記載の方法。
  5. 前記捕捉ステップが、物理的場所を表す座標と前記感知デバイスの前記方位を表す特性とを生成するステップを含む、請求項1〜4のいずれか1項に記載の方法。
  6. 前記算定ステップ(b)の前記関心領域が一つ以上のノードを含み、前記算定ステップ(b)は、各ノードに対し、
    i)前記ノードの位置情報を算定するステップと、
    ii)前記装置と前記ノードとの間の距離を計算するステップを含み、
    前記出力ステップ(c)の前記制御信号は、ステップ(b)で計算された前記距離に基づいて生成されることを特徴とする請求項1〜5のいずれか1項に記載の方法。
  7. 前記算定ステップ(b)(i)における各ノードの前記位置情報は、ノード(x,y,z)のユークリッド空間を含み、
    前記計算ステップ(b)(ii)が、
    − ユークリッド空間座標(x,y,z)中の前記装置の位置情報を受信するステップと、
    − 次のピタゴラスの定理:
    Figure 2016522598
    から、前記装置の前記位置情報と前記ノードの前記位置情報との間の前記距離を計算するステップと、
    を含む、請求項6に記載の方法。
  8. 前記算定ステップ(b)(i)が、前記ノードの前記位置情報を計算するために、前記捕捉ステップ(a)の前記感知デバイスの前記位置データおよび方位データからの先端オフセットを適用するステップを含む、請求項6または7に記載の方法。
  9. 前記先端オフセットの適用ステップが、
    − 前記感知デバイスによって定義された軸システム内で、前記感知デバイスの前記位置データおよび方位データに対する前記ノードの相対座標を取得することを含み、
    前記算定ステップ(b)(i)が、前記装置に対する前記ノードの絶対位置の値を求めるステップをさらに含む、
    請求項8に記載の方法。
  10. 前記ノードの前記絶対位置の値が次の式により求められ、
    Figure 2016522598
    前式において:
    回転マトリックスM=X.Y.Zで、Mは最終回転であり;
    マトリックスX、Y、Zは個別の回転マトリックスであり;
    A、Bはそれぞれ、X軸回転軸すなわちロールのコサインおよびサインであり;
    C、Dはそれぞれ、Y軸回転軸すなわち傾斜のコサインおよびサインであり;
    E、Fはそれぞれ、Z軸回転軸すなわちパンのコサインおよびサインであり;
    =X+X*M(1,1)+Y*M(2,1)+Z*M(3,1);
    =Y+X*M(1,2)+Y*M(2,2)+Z*M(3,2);
    =Z+X*M(1,3)+Y*M(2,3)+Z*M(3,3):
    前式において:
    、Y、Zは、前記ノードの絶対(または「最終的」)座標であり;
    、Y、Zは、前記感知デバイスのセンターの座標であり;
    Χ、Y、Ζは、前記感知デバイスのセンターに対する前記先端オフセットの座標に対応し;
    M(行,列)は、それぞれ、行および列に関する前記回転マトリックスの要素である;
    請求項9に記載の方法。
  11. 前記先端オフセットの適用ステップは、感知デバイス位置に所在するベース感知デバイスの位置および方位に対する、ノード位置に所在するノード感知デバイスの位置を測定することによってあらかじめ計算されている先端オフセットを取得することを含む、請求項8に記載の方法。
  12. 初期方位は、X、Y、Z、およびWを属性として四元数Qとして定義され、前記捕捉ステップの前記方位データはQとして定義され、前記ノードの前記位置情報は
    +(q)P(q
    によって算定され、この式において、
    は、方位qの前記センサからの前記オフセットであり;
    は、前記センサの前記現在位置であり;
    は、Pが計算されたときの前記センサの前記方位であり;
    は、前記センサの前記現在の方位であり;
    およびqは単位四元数である;
    請求項11に記載の方法。
  13. 前記関心領域および前記感知デバイスが異なる場所に所在する、請求項1〜12のいずれか1項に記載の方法。
  14. 画像キャプチャに関する装置の設定を制御するためのシステムであって、前記システムは、
    − 位置データおよび方位データを捕捉する感知デバイスと、
    − 前記感知デバイスと通信し、前記位置データおよび方位データから、前記装置によって取り扱われる関心領域の位置情報を算定するプロセッサと、
    − 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力する、前記プロセッサと一体化された出力ポートと、
    を含む、システム。
  15. − 前記出力ポートと通信し、前記制御信号によって前記装置の前記設定を制御するコントローラ、
    をさらに含む、請求項14に記載のシステム。
  16. − 前記位置データおよび方位データを格納するメモリ、
    をさらに含む、請求項14または15に記載のシステム。
  17. 前記装置をさらに含み、前記設定が、カメラの焦点設定、前記カメラのズーム設定、前記カメラの口径設定、前記カメラのオキュラー間レンズ角度設定、前記カメラのパン設定、前記カメラの傾斜設定、前記カメラの回転設定、前記カメラの位置設定、照明設備制御の設定、および音響設備の設定、のうちの少なくとも一つを含む、請求項14〜16のいずれか1項に記載のシステム。
  18. 前記感知デバイスが視認に依存しない感知デバイスである、請求項14〜17のいずれか1項に記載のシステム。
  19. 前記感知デバイスが送信器を含み、前記システムは、前記送信器と前記プロセッサとの間で通信している受信器をさらに含む、請求項14〜18のいずれか1項に記載のシステム。
  20. 前記プロセッサを内蔵するデータ処理ユニットと、前記データ処理ユニットと通信しているユーザデバイスとをさらに含み、前記ユーザデバイスがユーザインターフェースを含む、請求項14〜19のいずれか1項に記載のシステム。
  21. 前記ユーザデバイスが、ワイヤレス通信ネットワークを介し前記データ処理ユニットと通信している、請求項20に記載のシステム。
  22. コンピュータによって実行するためのデータおよび命令を格納するコンピュータ可読ストレージであって、前記データおよび命令は、
    − 感知デバイスの位置データおよび方位データを受信するコード手段と、
    − 前記位置データおよび方位データから、前記装置によって取り扱われる関心領域の位置情報を算定するコード手段と、
    − 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するコード手段と、
    を含む、コンピュータ可読ストレージ。
  23. 画像キャプチャに関する装置の設定を制御する方法であって、
    a)各識別子が前記装置によって取り扱われる所定の関心領域に関連付けられている一つ以上の識別子をメモリに格納し且つ対応する位置情報を格納するステップと、
    b)プロセッサにおいて、前記一つ以上の識別子の選択を受信するステップと、
    c)前記一つ以上の所定の関心領域のうちの前記選択された一つの前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記プロセッサの出力ポートを介し前記装置に向けて制御信号を出力するステップと、
    を含む、方法。
  24. d)コントローラによって、前記制御信号により前記装置の前記設定を制御するステップ、
    をさらに含む、請求項23に記載の方法。
  25. ステップ(a)で格納される前記位置情報が、
    − 感知デバイスにおいて位置データおよび方位データを捕捉するステップと、
    − プロセッサによって、前記感知デバイスの前記位置および方位データから、前記装置によって取り扱われる前記関心領域の位置情報を算定するステップと、
    によって得られる、請求項23または24に記載の方法。
  26. 前記所定の関心領域の各々が或るノードに対応し、前記対応する位置情報が、前記装置に対する三次元座標を含む、請求項23〜25のいずれか1項に記載の方法。
  27. 前記受信ステップ(b)が、
    − 既定の順序付けされたノードの選択を受信するステップ、
    を含み、
    前記方法は、前記順序付けされたノードの選択に従って、複数のノードに対し順々に前記装置の前記設定を自動的に制御するために、選択された各ノードに対する前記出力するステップ(c)を繰り返すことをさらに含む、
    請求項26に記載の方法。
  28. 前記ステップ(c)の繰り返しが、前記メモリに格納された既定のスケジュールに基づいて実行される、請求項27に記載の方法。
  29. 前記ステップ(c)の繰り返しが、入力ポートを介したユーザ入力のコマンドの受信を受けて促される、請求項27に記載の方法。
  30. 入力ポートを介し、2つの隣接するノードの間の変位に対応するユーザ入力のコマンドを受信するステップをさらに含み、前記受信ステップ(a)の前記選択が前記隣接するノードの前記識別子を含み、前記方法は、
    − 前記変位に従って、前記隣接するノードの間の中間位置を相関させるステップ、
    をさらに含み、前記中間位置の各々に対し前記出力ステップ(c)が繰り返される、請求項26に記載の方法。
  31. 前記ユーザ入力は、タッチスクリーンを介しスライド動作を通して入力される、請求項30に記載の方法。
  32. − 前記受信ステップ(b)の前記選択から、所与の条件を満たす一つ以上の関心領域を判定するステップ、
    をさらに含み、ステップ(c)の前記制御信号は、前記所与の条件を満たす前記一つ以上の関心領域に従って生成される、
    請求項23〜31のいずれか1項に記載の方法。
  33. 画像キャプチャに関する装置の設定を制御するためのシステムであって、前記システムは、
    − 前記装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納するメモリと、
    − 前記メモリと通信していて、前記一つ以上の識別子の選択を受信するプロセッサと、
    − 前記一つ以上の所定の関心領域のうちの前記選択された一つの前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力する、前記プロセッサと一体化された出力ポートと、
    を含むシステム。
  34. 前記装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納して有するコンピュータ可読ストレージであって、前記コンピュータ可読ストレージは、プロセッサによって実行するためのデータおよび命令をさらに含み、前記データおよび命令は、
    − 前記一つ以上の識別子の選択を受信するコード手段と、
    − 前記一つ以上の所定の関心領域の前記選択された一つの前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するコード手段と、
    を含む、コンピュータ可読ストレージ。
  35. 画像キャプチャに関する装置の設定を制御する方法であって、前記方法は、
    a)視認に依存しない感知デバイスによって、前記感知デバイスにおいて位置データを捕捉するステップと、
    b)プロセッサによって、前記位置データから、前記装置によって取り扱われる関心領域の位置情報を算定するステップと、
    c)前記プロセッサの出力ポートによって、前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するステップと、
    を含む、方法。
  36. 画像キャプチャに関する装置の設定を制御するためのシステムであって、前記システムは、
    − 位置データを捕捉する視認に依存しない感知デバイスと、
    − 前記感知デバイスと通信し、前記位置および方位データに基づいて、前記装置によって取り扱われる関心領域の位置情報を算定するプロセッサと、
    − 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力する、前記プロセッサと一体化された出力ポートと、
    を含む、システム。
  37. − 前記出力ポートと通信していて、前記制御信号によって前記装置の前記設定を制御するコントローラ、
    をさらに含む、請求項34に記載のシステム。
  38. 前記装置をさらに含み、前記設定が、カメラの焦点設定、前記カメラのズーム設定、前記カメラの口径設定、前記カメラのオキュラー間レンズ角度設定、前記カメラのパン設定、前記カメラの傾斜設定、前記カメラの回転設定、前記カメラの位置設定、照明設備制御の設定、およびまたは音響設備の設定、のうちの少なくとも一つを含む、請求項35または36に記載のシステム。
  39. 視認に依存しない感知デバイスから位置データを受信するための入力ポートを有するコンピュータによって実行するための、データおよび命令を格納して有するコンピュータ可読ストレージであって、前記データおよび命令は、
    − 前記位置データおよび方位データに基づいて、前記装置により取り扱われる関心領域の位置情報を算定するコード手段と、
    − 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するコード手段と、
    を含む、コンピュータ可読ストレージ。
JP2016505667A 2013-04-05 2014-04-04 画像キャプチャに関する装置を制御するシステムおよび方法 Active JP6551392B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361808987P 2013-04-05 2013-04-05
US61/808,987 2013-04-05
PCT/CA2014/050346 WO2014161092A1 (en) 2013-04-05 2014-04-04 System and method for controlling an equipment related to image capture

Publications (2)

Publication Number Publication Date
JP2016522598A true JP2016522598A (ja) 2016-07-28
JP6551392B2 JP6551392B2 (ja) 2019-07-31

Family

ID=51657363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016505667A Active JP6551392B2 (ja) 2013-04-05 2014-04-04 画像キャプチャに関する装置を制御するシステムおよび方法

Country Status (7)

Country Link
US (2) US9912857B2 (ja)
EP (1) EP2987026B1 (ja)
JP (1) JP6551392B2 (ja)
CN (1) CN105264436B (ja)
CA (1) CA2908719C (ja)
HK (1) HK1220512A1 (ja)
WO (1) WO2014161092A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150027934A (ko) * 2013-09-04 2015-03-13 삼성전자주식회사 다각도에서 촬영된 영상을 수신하여 파일을 생성하는 전자 장치 및 방법
US9769378B2 (en) * 2014-09-08 2017-09-19 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus that changes from highlighting a first focus frame to highlighting a second focus frame when a focus lens moves from a first focus position to a second focus position
JP2016086007A (ja) * 2014-10-23 2016-05-19 パナソニックIpマネジメント株式会社 部品実装システムにおける基板の生産管理方法
CN104730677B (zh) * 2014-12-17 2017-11-28 湖北久之洋红外系统股份有限公司 非制冷红外热像仪连续变焦及快速自动聚焦电路及方法
WO2016134031A1 (en) * 2015-02-17 2016-08-25 Alpinereplay, Inc Systems and methods to control camera operations
TWI564647B (zh) * 2015-03-27 2017-01-01 國立臺北科技大學 全景動態網路攝影機的影像轉換運算方法
WO2017099882A1 (en) * 2015-12-10 2017-06-15 Intel Corporation Accelerated touch processing at computing devices
CN105763797B (zh) * 2016-02-29 2018-05-18 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN105912749B (zh) * 2016-03-31 2019-06-04 北京润科通用技术有限公司 仿真方法和装置
US10928245B2 (en) * 2016-09-15 2021-02-23 Siteco Gmbh Light measurement using an autonomous vehicle
US11303689B2 (en) * 2017-06-06 2022-04-12 Nokia Technologies Oy Method and apparatus for updating streamed content
US10757319B1 (en) * 2017-06-15 2020-08-25 Snap Inc. Scaled perspective zoom on resource constrained devices
US10666929B2 (en) * 2017-07-06 2020-05-26 Matterport, Inc. Hardware system for inverse graphics capture
JP6977931B2 (ja) * 2017-12-28 2021-12-08 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
CN108184067B (zh) * 2018-01-18 2019-05-24 桂林智神信息技术有限公司 一种跟焦系统的工作方法
CN108696697B (zh) * 2018-07-17 2021-08-27 腾讯科技(深圳)有限公司 一种摄像装置控制方法和装置
CN109639971B (zh) * 2018-12-17 2021-01-08 维沃移动通信有限公司 一种拍摄焦距调整方法及终端设备
CN109872271A (zh) * 2019-01-28 2019-06-11 努比亚技术有限公司 一种图片处理方法、终端及计算机可读存储介质
WO2021168809A1 (zh) * 2020-02-28 2021-09-02 深圳市大疆创新科技有限公司 跟随方法、可移动平台、设备和存储介质
US11431895B2 (en) 2020-06-24 2022-08-30 International Business Machines Corporation Photography guidance based on crowdsourced photographs
CN116507970A (zh) * 2021-01-07 2023-07-28 深圳市大疆创新科技有限公司 跟焦方法、装置、拍摄设备及计算机可读存储介质
CN113422905B (zh) * 2021-06-22 2022-09-16 浙江博采传媒有限公司 跟焦器运动轨迹的自动控制方法及系统
CN115345901B (zh) * 2022-10-18 2023-01-10 成都唐米科技有限公司 一种动物运动行为预测方法、系统及摄像系统
CN116962885B (zh) * 2023-09-20 2023-11-28 成都实时技术股份有限公司 一种基于嵌入式计算机的多路视频采集合成处理系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245280A (ja) * 2000-02-29 2001-09-07 Canon Inc カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体
JP2004112615A (ja) * 2002-09-20 2004-04-08 Victor Co Of Japan Ltd 自動追尾ビデオカメラシステム
JP2005266520A (ja) * 2004-03-19 2005-09-29 Olympus Corp 撮像装置および撮像方法
JP2006025182A (ja) * 2004-07-08 2006-01-26 Matsushita Electric Ind Co Ltd 撮影装置
JP2008042522A (ja) * 2006-08-07 2008-02-21 Victor Co Of Japan Ltd 撮像システム
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
JP2011082660A (ja) * 2009-10-05 2011-04-21 Jvc Kenwood Holdings Inc 撮影制御装置、携帯装置、撮影制御方法、情報送信方法、及び、プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5930740A (en) 1997-04-04 1999-07-27 Evans & Sutherland Computer Corporation Camera/lens calibration apparatus and method
DE60143357D1 (de) * 2000-06-23 2010-12-09 Sportvision Inc Auf gps basierendes verfolgungssystem
US20020080257A1 (en) 2000-09-27 2002-06-27 Benjamin Blank Focus control system and process
US7101045B2 (en) * 2001-03-23 2006-09-05 Panavision Inc. Automatic pan and tilt compensation system for a camera support structure
WO2005026659A1 (ja) 2003-09-11 2005-03-24 Cubic, Inc. 三次元計測装置
EP2293172A3 (en) 2005-10-26 2011-04-13 Sony Computer Entertainment Inc. System and method for interfacing and computer program
US8888593B2 (en) 2005-10-26 2014-11-18 Sony Computer Entertainment Inc. Directional input for a video game
JP5111795B2 (ja) 2006-06-29 2013-01-09 三菱電機株式会社 監視装置
EP2123038A2 (en) * 2006-12-04 2009-11-25 Lynx System Developers, Inc. Autonomous systems and methods for still and moving picture production
US8049658B1 (en) * 2007-05-25 2011-11-01 Lockheed Martin Corporation Determination of the three-dimensional location of a target viewed by a camera
WO2009007917A2 (en) 2007-07-10 2009-01-15 Koninklijke Philips Electronics N.V. Object motion capturing system and method
US8803958B2 (en) * 2008-01-04 2014-08-12 3M Innovative Properties Company Global camera path optimization
US20120154593A1 (en) * 2009-08-31 2012-06-21 Trace Optics Pty Ltd method and apparatus for relative control of multiple cameras
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8550903B2 (en) * 2010-11-15 2013-10-08 Bally Gaming, Inc. System and method for bonus gaming using a mobile device
US8448056B2 (en) * 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
EP2618566A1 (en) 2012-01-23 2013-07-24 FilmMe Group Oy Controlling controllable device during performance
US20130222565A1 (en) 2012-02-28 2013-08-29 The Johns Hopkins University System and Method for Sensor Fusion of Single Range Camera Data and Inertial Measurement for Motion Capture
US8749634B2 (en) 2012-03-01 2014-06-10 H4 Engineering, Inc. Apparatus and method for automatic video recording
US9874964B2 (en) 2012-06-04 2018-01-23 Sony Interactive Entertainment Inc. Flat joystick controller

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001245280A (ja) * 2000-02-29 2001-09-07 Canon Inc カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体
JP2004112615A (ja) * 2002-09-20 2004-04-08 Victor Co Of Japan Ltd 自動追尾ビデオカメラシステム
JP2005266520A (ja) * 2004-03-19 2005-09-29 Olympus Corp 撮像装置および撮像方法
JP2006025182A (ja) * 2004-07-08 2006-01-26 Matsushita Electric Ind Co Ltd 撮影装置
JP2008042522A (ja) * 2006-08-07 2008-02-21 Victor Co Of Japan Ltd 撮像システム
JP2008227877A (ja) * 2007-03-13 2008-09-25 Hitachi Ltd 映像情報処理装置
JP2011082660A (ja) * 2009-10-05 2011-04-21 Jvc Kenwood Holdings Inc 撮影制御装置、携帯装置、撮影制御方法、情報送信方法、及び、プログラム

Also Published As

Publication number Publication date
EP2987026A1 (en) 2016-02-24
US20180176456A1 (en) 2018-06-21
CA2908719A1 (en) 2014-10-09
US10306134B2 (en) 2019-05-28
CN105264436A (zh) 2016-01-20
EP2987026A4 (en) 2016-12-14
CA2908719C (en) 2021-11-16
EP2987026B1 (en) 2020-03-25
US20160050360A1 (en) 2016-02-18
HK1220512A1 (zh) 2017-05-05
CN105264436B (zh) 2019-03-08
US9912857B2 (en) 2018-03-06
JP6551392B2 (ja) 2019-07-31
WO2014161092A1 (en) 2014-10-09

Similar Documents

Publication Publication Date Title
JP6551392B2 (ja) 画像キャプチャに関する装置を制御するシステムおよび方法
US10317775B2 (en) System and techniques for image capture
WO2021238804A1 (zh) 混合现实虚拟预演拍摄系统
US9479703B2 (en) Automatic object viewing methods and apparatus
US7027083B2 (en) System and method for servoing on a moving fixation point within a dynamic scene
US9055226B2 (en) System and method for controlling fixtures based on tracking data
US9880457B2 (en) Apparatus for the automatic positioning of coupled cameras for three-dimensional image representation
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
US20150130801A1 (en) Controlling a virtual camera
JP7059937B2 (ja) 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム
JP2017220227A (ja) 飛翔体の追随遠隔操作方法
US20180180384A1 (en) Photoelectric sighting system and calibration method thereof
US10139198B2 (en) Photoelectric sighting system and calibration method thereof
US20150109457A1 (en) Multiple means of framing a subject
CN110337621A (zh) 运动轨迹确定、延时摄影方法、设备及机器可读存储介质
EP2593197A2 (en) Improvements relating to viewing of real-time, computer-generated environments
US20150116505A1 (en) Multiple means of tracking
JP2021068330A (ja) 情報処理装置、情報処理方法、及びプログラム
US20160344946A1 (en) Screen System
CN104121892A (zh) 一种获取光枪射击的目标位置的方法、装置及系统
JP2015126402A (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
JP6073114B2 (ja) ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム
EP2753060A2 (en) System and method for controlling fixtures based on tracking data
Seko et al. A guidance technique for motion tracking with a handheld camera using auditory feedback
US20230394772A1 (en) Virtual indicator for capturing a sequence of images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R150 Certificate of patent or registration of utility model

Ref document number: 6551392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250