JP2016522598A - 画像キャプチャに関する装置を制御するシステムおよび方法 - Google Patents
画像キャプチャに関する装置を制御するシステムおよび方法 Download PDFInfo
- Publication number
- JP2016522598A JP2016522598A JP2016505667A JP2016505667A JP2016522598A JP 2016522598 A JP2016522598 A JP 2016522598A JP 2016505667 A JP2016505667 A JP 2016505667A JP 2016505667 A JP2016505667 A JP 2016505667A JP 2016522598 A JP2016522598 A JP 2016522598A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- data
- node
- setting
- settings
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000033001 locomotion Effects 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 38
- 230000003993 interaction Effects 0.000 description 12
- 210000003811 finger Anatomy 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 210000003625 skull Anatomy 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000283707 Capra Species 0.000 description 1
- 229920000049 Carbon (fiber) Polymers 0.000 description 1
- 241000218691 Cupressaceae Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 239000004917 carbon fiber Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000011152 fibreglass Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
- G03B17/561—Support related camera accessories
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
- G03B17/563—Camera grips, handles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/634—Warning indications
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Accessories Of Cameras (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
a)感知デバイスにおいて位置データおよび方位データを捕捉するステップと、
b)プロセッサによって、捕捉された位置データおよび方位データから装置によって取り扱われる関心領域の位置情報を算定するステップと、
c)関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、プロセッサの出力ポートを介し装置に向けて制御信号を出力するステップと、
を含む。
− 位置データおよび方位データを捕捉するよう構成された感知デバイスと、
− 感知デバイスと通信しているプロセッサであって、該プロセッサは、該位置データおよび方位データから、装置によって取り扱われる関心領域の位置情報を算定するよう構成されている、該プロセッサと、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するよう構成された、プロセッサ中に組み込まれた出力ポートと、
を含む。
− 感知デバイスの位置データおよび方位データを受信するためのコード手段と、
− 該位置データおよび方位データから、装置によって取り扱われる関心領域の位置情報を算定するためのコード手段と、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するためのコード手段と、
を含む。
a)各識別子が装置によって取り扱われる所定の関心領域に関連付けられている、一つ以上の識別子をメモリに格納し且つ対応する位置情報を格納するステップと、
b)プロセッサにおいて、前記一つ以上の識別子の選択を受信するステップと、
c)前記一つ以上の所定の関心領域の選択された一つの位置情報に基づいて装置の設定をリアルタイムで制御するために、プロセッサの出力ポートを介し装置に向けて制御信号を出力するステップと、
を含む。
− 装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納するよう構成されたメモリと、
− 該メモリと通信していて、前記一つ以上の識別子の選択を受信するよう構成されたプロセッサと、
− 前記一つ以上の所定の関心領域の選択された一つの位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するよう構成された、プロセッサと一体化された出力ポートと、
を含む。
− 前記一つ以上の識別子の選択を受信するためのコード手段と、
− 前記一つ以上の所定の関心領域の選択された一つの位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するためのコード手段と、
を含む。
a)視認に依存しない感知デバイスによって、該感知デバイスにおいて位置データを捕捉するステップと、
b)プロセッサによって、該位置データから、装置によって取り扱われる関心領域の位置情報を算定するステップと、
c)プロセッサの出力ポートによって、関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するステップと、
を含む。
− 位置データを捕捉するよう構成された視認に依存しない感知デバイスと、
− 感知デバイスと通信しているプロセッサであって、該プロセッサは、位置および方位データに基づいて、装置によって取り扱われる関心領域の位置情報を算定するよう構成される、該プロセッサと、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するよう構成された、プロセッサと一体化された出力ポートと、
を含む。
− 位置データおよび方位データに基づいて、装置により取り扱われる関心領域の位置情報を算定するためのコード手段と、
− 関心領域の前記位置情報に基づいて装置の設定をリアルタイムで制御するために、装置に向けて制御信号を出力するためのコード手段と、
を含む。
a)三次元の位置データを捕捉するようになされ、カメラによりキャプチャされる被写体に取り付けられるセンサと、
b)位置データを受信し該位置データに基づいて制御信号を生成するため、センサと通信するようになされたプロセッサと、
c)制御信号に応じて装置の設定を制御するため、プロセッサと通信するようになされたコントローラと、
を含む。
− カメラにキャプチャされる対象の被写体に関する三次元位置データを捕捉するステップと、
− 該位置データに基づいて制御信号を生成するステップと、
− 制御信号に応じて装置の設定を制御するステップと、
を含む。
− カメラにキャプチャされる対象の被写体に関する三次元位置データを受信し、
− 該位置データに基づいて制御信号を生成し、
− 装置の設定を制御するためにコントローラに制御信号を送信する。
位置および/または方位データを捕捉するようになされ、カメラによるキャプチャ対象の被写体に取り付けられるセンサおよび送信器と、
位置データを受信し前記位置および/または方位データに基づいて制御信号を送信するため、センサの送信器と通信するようになされたプロセッサと、
制御信号を受信し該制御信号に応じて装置の設定を制御するため、プロセッサと通信するようになされたコントローラと、
を含む。
− 感知源配置のための非金属ポール取り付け具のカスタムのモジュール式システム、具体的には、3つ以上の感知源を使用する場合に迅速且つ容易にセットアップできるように、既定のサイズを備えた炭素繊維保持リグなど、
− カメラ、被写体、および対象体にセンサおよび磁気源を取り付けるための様々なクリップおよびブラケット、並びに
− ノードのオフセットおよび配置、並びに感知源の場所の容易な測定を可能にするための様々な器具、
が含まれる。
前述のように、本発明の諸実施形態は、焦点および構図の制御を可能にし、三次元空間中に、本明細書では「ノード」と言う位置および方位データ両方を有する所定のポイントを生成することを含む。ノードは、花瓶など室内の固定されたノードであってもよいし、あるいは、人や動物など動くノードであってもよい。カメラが動いていない場合、またはカメラがセンサを有する場合、固定されているノードにはセンサは必要ない。動くノードおよび動くカメラにはセンサが必要である。
− ユークリッド空間座標(x2,y2,z2)における装置の位置情報を受信するステップ222と、
− 下記のピタゴラスの原理から装置の位置情報とノードの位置情報との間の距離を計算するステップ224と、
を含む。
回転マトリックスM=X.Y.Zが用いられ、以下の式のMは最終回転マトリックスであり、X、Y、Zは個別の回転マトリックスである。
A、Bはそれぞれ、X軸回転軸すなわちロールのコサイン(cosine)およびサイン(sine)であり;
C、Dはそれぞれ、Y軸回転軸すなわち傾斜のコサイン(cosine)およびサイン(sine)であり;
E、Fはそれぞれ、Z軸回転軸すなわちパンのコサイン(cosine)およびサイン(sine)であり;
Xf=Xs+Xt*M(1,1)+Yt*M(2,1)+Zt*M(3,1);
Yf=Ys+Xt*M(1,2)+Yt*M(2,2)+Zt*M(3,2);
Zf=Zs+Xt*M(1,3)+Yt*M(2,3)+Zt*M(3,3):
前式において:
Xf、Yf、Zfは、ノードの絶対(または最終的)座標であり;
Xs、Ys、Zsは、感知デバイスのセンターの座標であり;
Χt、Yt、Ζtは、感知デバイスのセンターに対する先端オフセットの座標に対応し;
M(行,列)は、それぞれ、行および列に関する回転マトリックスの要素であって、要素「行」はマトリックス内の行の番号を表し、要素「列」はマトリックス内の列の番号を表す。
Pn+(qiqn)Pi(qiqn)
によって算定され、この式において、
Piは、方位qのセンサからのオフセットであり;
Pnは、センサの現在位置であり;
qiは、Piが計算されたときのセンサの方位であり;
qnは、該センサの現在の方位であり;
qiおよびqnは単位四元数である。
(静止している、または動く)ノードを前もって定義することによって、インターフェース中に所望のノードのアレイを生成することが可能である。単にノードを選択するだけで、レンズが瞬時に焦点を合わせ、および/またはカメラがそのノードをポイントし(そのノードの方を向き)視野の中に組み込むことになる。これは、その場でのインプロビゼーション、多数の被写体/対象体の間での極めて迅速なラックフォーカス(ピント送り)、および、手動の測定または手動の焦点ダイアルの調節による一切の処置、あるいはカメラの作動の場合には、カメラ自体の一切の手動調節の必要なくして2つの移動する被写体/対象体の間で正確に調整を行う能力、を可能にする。しかして、この場合、図1C中に示された方法300の受信ステップ316は、既定の順序付けされたノードの選択を受信するステップを含み、該方法は、該順序付けされたノードの選択に従って、複数のノードに対し順々に装置112の設定を自動的に制御する320ために、選択された各ノードに対して出力するステップ318を繰り返す。
また、ノードの所定シーケンスを生成することが可能で、これは、映画監督が被写体の順序を前もって知っている現在の映画製作のパラダイムに適している。このように、所望のノードを事前ロードすることによって、単に「次へ」のボタンをクリックすることによって、またはダイアル(リアルまたはバーチャル)を前後に回すことによって、一つの被写体/対象体から次に簡単にシフトすることが可能であり、ユーザは任意の所望の瞬間に2つの被写体の間で切り替えができるばかりでなく、被写体間で焦点が調節される速度(焦点プルの速度)を指定することもできる。しかして、入力ポート41を介したユーザの入力のコマンドの受信を受けて、(図1Aを参照しつつ)図1C中に示された前述のステップ318、320の繰り返しが促される。あるいは、ステップ318、320は、メモリ132に格納された既定のスケジュールに基づいて繰り返される。
また、ノード(またはノードのアレイ)のグラフィカル表現を、幾何的な(三角形および正方形)またはランダムなパターン(ジグザグ線、曲線など)でタッチスクリーンデバイス上に配列することが可能であり、ユーザは、各ノードの間で指をスライドすることによって、被写体間で「プルフォーカス」をできることになり、これも同様に、プルの速度に対する制御を有し、同様に、被写体またはカメラの移動に関係なく、実際の焦点距離を測定または調節する必要はない。
ノードアレイ、シーケンサ、幾何的スライダ、およびハードウェアダイアル、または他の入力デバイスを使って、焦点調節の2つの基本モードの間で選択をすることが可能である。
リアルタイムの位置および方位データを提供するセンサを用いて、同一のセンサを使って複数のノードを生成することが可能である。これは、Χ,Y,Ζ位置座標および関連するアジマス、エレベーション、ロール座標を用いた「オフセット値」を入力することによって実現される。したがって、被写体の頭の後部に取り付けられたセンサは、頭が剛性対象体なのでこれに関連付けられるいくつかのノードを有することができる。目、鼻の先、耳などは、全てこの技法を用いる、単一のセンサからのノードとして定義することが可能である。
三次元空間における正確なオフセットを測定することが困難であり得る状況において、2つの自動化技法が提供される。
− センサが俳優の首の後部に配置され、所望のノードが実際は目であるとすれば、第二センサを一時的に目の上に配置することができる。この第二センサからのデータを用いて、「先端オフセット」データが自動的に計算でき、当該ノードに適用することが可能である。
− 先端オフセットは、被写体をカメラの視野に立たせることによって手動で調整することができ、次いでフォーカスプラーが、所望のノード(大抵は目)に焦点が合うまで焦点を調節することができる。このシステムは、当該センサの方位を知っており、センサのデータに対してどのくらい離れて焦点が調節されたかを知ることになるので、それ自体の先端オフセットを近似的に補正する能力がある。
ユーザが演技者の身体の他の箇所に隠されたセンサを用い、ノードを目として定義する場合、このノードが実際は「2つのノード」、左目および右目であるとシステムに通知しておくことが可能である。システムは、常に、どこにカメラがあるか、どこに被写体があるか、および被写体がカメラに対しどのように方向づけられているかを知っているので、システムは、例えば、顔の左側がカメラに向いているとき左目に焦点を合わせ、顔の右側がカメラに向いているとき右目に焦点を合わせることができる。しかして、(図1Aを参照しつつ)図1C中に示された方法300は、ステップ316で受信したノードの選定の間で、所与の条件を満たすノード(関心領域)を判定するステップをさらに含む。ステップ318の信号は、しかして、所与の条件を満たすノードに基づいて生成される。
焦点をプルするのと同様に、位置および方位データは、ズームを調整するためにも用いることができる。例えば、被写体の距離に関わらず、フレーム中で或る被写体をぴったりと同じサイズに保つことが望まれる場合、システムは、レンズパラメータを入力することによって、被写体または対象体が移動するのに応じて自動ズームインまたはズームアウトをすることが可能である。注記:この効果は、時として「ドリーズーム」または「トリプルリバースズーム」とも称され、現在では、非常に安定したカメラ移動、および何回ものリハーサルの実施を必要とする。本システムは、ハンドヘルドショットで、ランダムな演技者およびカメラの動きに対しこの効果を生成することを可能にする。
また、例えば、鏡の中の反射像を撮影するため必要になることがあるように、バーチャルな距離および/または角度を計算するための機能を拡張することも可能である。カメラと鏡の中に反射している被写体との間の焦点距離は、カメラから鏡への距離プラス鏡から被写体への距離に等しいが、鏡と被写体とに(および動いている場合、カメラにも)センサを配置することによって、本システムは、必要な場合に反射像に焦点を合わせるための正確なバーチャル距離を迅速に計算することができる。
例えば、各々がセンサを着けている2つの被写体に焦点を合わせることが必要なことがある。このとき、中間の点ならば焦点面が各被写体に対し中間にあることになり、該焦点面は被写界深度のほぼ中間点になり、両方の被写体が取り得る最善の焦点を可能にすることになるので、選択されたレンズが被写体の両方が焦点内にあることを可能にするように、中間点を選択すればよい。オペレータは、特に、2つの被写体の一方に優先権が与えられ、他方の被写体が被写界深度の範囲から外れた場合にあっても前の一方が必ず焦点内にあるのを確実にすることを望む場合などは、2つの被写体の間の任意の点を選択することができよう。
一部の三次元撮影セットアップでは、オキュラー間角度(inter ocular angle)のリアルタイムの調整が必要である。本システムは、この角度を選択された被写体/対象体に連結することによって、この調整を自動化することができる。
一部の状況では、例えば、単一のショットの間に明るい戸外の場所から暗い屋内に移動するときなどに、レンズに入りこむ光の量を調整するために「口径をプルする」ことが必要なことがある。カメラ位置を口径調整に結び付けることによって、既定の場所の範囲に対し口径調整を自動的に行うことができる。さらに、カメラに対する方位データが利用可能なので、単にカメラの方向に基づくだけで口径を調整することができ、セットまたはロケーションを複数の「主光線」で照らすことが可能となり口径が常にこれらの露光量の間でスムーズに調整されることになるという、現在では不可能なシナリオが可能になる。
本システムを用いて、非常に複雑なショットまたはシーンを事前にプランし、「ノード」および任意のシーケンスに関する必要な全てのデータをインターフェースソフトウェア上のファイル中に入力することが可能である。「シーン」のこの保存は、設定の効率を大幅に向上し、また、製作者に現在の技術では不可能な高度に複雑なショットを計画し用意する能力を付与する。
本システムでは、何時でも被写体とカメラとの間の相対的距離を計算し、何時でもそれを所望の任意の読み取り装置上に距離データとして表示することが可能である。例えば、選択された「ノード」の距離データを、ソフトウェアインターフェースの主制御画面上に常に表示することができる。さらに、「サテライトデバイス」をこの距離データに連結することが可能で、ユーザは何時でも任意のノードを選択してデータを判定することができる。
本システムは、ユーザが、限定できる上限なく一つ以上のカメラをセットアップし、複数のカメラを同一の対象体に向ける、または各カメラを別々の対象体に向けることを可能にする。
リアルタイムデータへのアクセスを有することは、他のリアルタイム計算および表示も可能にする:
− 任意の所与の時間における任意の所与のノードに対する被写界深度。
− 最小焦点距離ウォーニング−例:所定の近接距離に到達したときにオレンジ色で、被写体が実際の最小焦点距離に到達したときには点滅する赤色で、距離を表示することができる。
システムの効率性に関係なく、いずれかのフォーカスプラーまたはカメラオペレータがいずれかの時に手動で焦点を制御したいと望むことがあり得るので、本システムでは、自動と手動との間で、即時の手動または自動による完全切り替えが可能である。これらは、現在のシステムでも利用可能な方法である。
− デジタル微調「ダイアル」は、フォーカスプラーに対し恒久的に利用可能である。単にこの微調を調整するだけで、フォーカスプラーは、いくらでも自動焦点設定をオーバーライドすることができる。
− 「スレートモード」。ボタンを選択することによって、自動システムが即時に完全手動に切り替わる。
− 「自動ハンドオフ」。このモードは、ユーザが、ノード、被写体または対象体が自動から手動におよびその逆に切り替わるポイントを前もって定義することを可能にする。これは、遠距離を進む被写体に非常に長焦点のレンズを用いる場合に有用であり得、およびまたはデータ中の望ましくないばらつきを避けるための方法でもあり得る。
映画産業は、長い張り出しポール−「ブームポール」と呼ばれる−の上にマイクロフォンを搭載する処理に既に慣れているので、本システムの一つのユニークな実装は、磁気源をブームポールの上に搭載することで、これを、マイクロフォンが最も近い便利な場所の演技エリアの上に配置されるのと全く同じ方法で、最も近い便利な場所の演技エリアの上に配置することができる。被写体およびカメラの両方がセンサを備えていれば、複数のノードに対しても完全な焦点データを収集することが可能である。但し、この方法は、カメラのオペレーションまたはセンサと関連付けられていない固定ノードの使用には使えない。
単一の感知源をブームポールに搭載する基本アイデアを拡張すれば、範囲を拡大するために、ブームポールの両端に1つずつ2つの感知源を搭載することも可能である。同様に、例えば、三角形または正方形の他のハンドヘルド構成も範囲を拡大し、これら感知源の相対的位置はセットアップソフトウェア中に事前設定しておくことが可能なので、セット現場での補正の必要もなく迅速なセットアップが可能になる。
感知源を直接カメラ上に搭載し、ソフトウェアを用いて該感知源に対するカメラの相対的位置を補正して、カメラ上にセンサなしでシステムを作動することが可能である。これは、シャープな焦点調節のため最も必要とされる近距離での高い精度を提供する、迅速なセットアップ「単一感知源システム」を可能にする。
複数の感知源(理論的には上限はない)は、既定の構成でまたはランダムに配置することができる。既定の構成(10ftの辺を有する等辺三角形など)は、迅速なセットアップを可能にし、大きな領域をカバーすることができる。ランダム構成は、ソフトウェアにおいていくつかの手動セットアップを必要とするが、システムによってカバーする対象の形状および領域に高いフレキシビリティを可能にする
カメラに搭載の感知源
本システムは複数の磁気源(または赤外線の場合は複数のカメラ)およびシステム中に入力する必要のある各感知源のΧ,Y,ΖおよびA,E,Rを用いるので、システムにはこのデータを入力するための簡単なインターフェースが含まれている。
どの自動化システムもリアルタイムでデータを見るので、常に過去を調べている。本システムは極めて高速ではあるが、極度に高い難度の状況、すなわち、高速で移動する被写体と低い光度での非常に長い焦点のレンズ、ではマイクロセカンドの遅延ですら目に見える影響をもたらしかねない。現在映画製作者および撮影技師はこういった高い難度の状況を避け、実際上これらを克服するために巨額の資金を費やしており、中でも注目すべきは、5.6の平均絞り値を維持するための非常に高価な照明パッケージのレンタルである。予測アルゴリズムをシステムに加えることによって、カメラに向かって来るまたは去って行く被写体の動きの速度に対して一定の割合で焦点位置を調節して、焦点位置中の一切の遅延に対する補正をすることによって、データ中の一切の軽微な遅延を克服するのは極めて容易である。この機能を加えることによって、最も高い難度の状況下においてもほとんどの焦点確保は比較的簡単になる。
前述したように、本システムの位置および方位データはリアルタイムで記録することができ(すなわち、メモリ132に格納される−図1A参照)、後で撮影後の他の計画で用いることができる。
位置および方位データを使って、カメラの動作、およびドリーおよびまたはジブアームもしくはカメラクレーンの動きを完全に自動化することが可能である。但し、カメラオペレータおよび撮影技師は、最終構図の機微の完全な統御を行うことを欲する。本システムの一つの特徴は、カメラ制御の複雑な作業を完全に自動化し、オペレータが、タッチスクリーン機能を備えたビデオ再生スクリーン上で自分の指を動かすだけで、構図を調整できるようにすることである。例えば、この自動化システムは、演技者をフレームの真ん中に保持することができるが、オペレータは演技者をフレームの左方に置きたいと望む。ビデオ画像上の任意のポイントから左方に指をドラッグするだけで、本システムは、フレーム中の演技者の位置を所望の構図に補正し調整することになる。このように、急速に動く対象体のフレーム構成が、静止した対象体をフレーム構成するかのように簡単になることになる。これと同じ調整を、現在、標準的遠隔カメラ操作のために使われているジョイスティック制御でも行うことができ、これも現行技術に対する大きな改良となろう。また一方、このタッチスクリーンのドラッグ機能はより直感的で訓練を必要としない。
前述したシステムは、AC磁気動きキャプチャシステムを用いる。また一方、同じように実行可能な別システムがあり、これはより大きなスタジオ構成に適用することができ、同じデータを捕捉するために赤外線LED動き追跡システムを用いる。赤外線はセンサカメラへの視線であるが、当システムはカメラと被写体との間の視線を必要としない。小さな赤外線LEDを衣服、髪、および他の物体に隠しておくことが可能で、これらはカメラには見えない。また、中に縫い付けられた、赤外線パターンを有する「スマート布地」を生成することも可能で、これらも同じデータを提供することができる。
ディファレンシャルGPSは、本システムを作動するため必要な相対的位置データのほとんど全てを提供する。処理時間を加速することによってGPSを増補し、方位データを提供する追加の感知能力を「結び付け」、加えることによって、本システムは、世界中のほとんどどの屋外ロケーションにおいても十分に機能することになる。屋内スタジオでの応用は、「ローカル測位システム」の開発と使用によって増補することができ、これはディファレンシャルGPSと同じ原理で動作するがずっと小さなスケールであり、「サテライト」を静止することが可能なので、非常に高い正確さを達成することができる。
諸ノードが定義されたならば、正確なポインティング、追従、またはターゲッティング、および照明ビームの幅などの他の質的調整を必要とする、任意の数の補助制御システムに対してデータを利用させることができる。
本システムをスポーツトレーニングに適応させるのは比較的簡単なことである。例えば、テニスボールマシンを選手の正確な位置を知るソフトウェアインターフェースに結び付けることによって、該マシンが常に選手の弱み(バックハンド)にプレイし、およびまたは任意の速度または角度でボールを打ち出すマシンの能力を使ってさらに挑戦的なバーチャルな対戦相手を創り出すことが可能である。
本システムの別の応用は、低光量の状況または視覚障害者のための使用とすることができよう。例えば、或る環境をノード群としてマップすることが可能で、視覚障害者は、自分の位置および方位、並びに室内の物体および人々の位置および方位に関する様々な種類のフィードバック受け取ることができよう。別の例は、どの人も自分の周りが見えないような極めて暗い室内など、低光量の状況におけるものであろう。
Claims (39)
- 画像キャプチャに関する装置の設定を制御する方法であって、前記方法は、
a)感知デバイスにおいて三次元の位置データおよび方位データを捕捉するステップと、
b)捕捉された前記位置データおよび方位データから前記装置によって取り扱われる関心領域の位置情報をプロセッサによって算定するステップと、
c)前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記プロセッサの出力ポートを介し前記装置に向けて制御信号を出力するステップと、
を含む、方法。 - d)コントローラによって、前記制御信号により前記装置の前記設定を制御するステップ、
をさらに含む、請求項1に記載の方法。 - − 前記位置データおよび方位データをメモリに格納するステップ、
をさらに含む、請求項1に記載の方法。 - 前記設定が、カメラの焦点設定、前記カメラのズーム設定、前記カメラの口径設定、前記カメラのオキュラー間レンズ角度設定、前記カメラのパン設定、前記カメラの傾斜設定、前記カメラの回転設定、前記カメラの位置設定、前記カメラの位置設定、照明設備制御の設定、および音響設備の設定、のうちの少なくとも一つを含む、請求項1〜3のいずれか1項に記載の方法。
- 前記捕捉ステップが、物理的場所を表す座標と前記感知デバイスの前記方位を表す特性とを生成するステップを含む、請求項1〜4のいずれか1項に記載の方法。
- 前記算定ステップ(b)の前記関心領域が一つ以上のノードを含み、前記算定ステップ(b)は、各ノードに対し、
i)前記ノードの位置情報を算定するステップと、
ii)前記装置と前記ノードとの間の距離を計算するステップを含み、
前記出力ステップ(c)の前記制御信号は、ステップ(b)で計算された前記距離に基づいて生成されることを特徴とする請求項1〜5のいずれか1項に記載の方法。 - 前記算定ステップ(b)(i)が、前記ノードの前記位置情報を計算するために、前記捕捉ステップ(a)の前記感知デバイスの前記位置データおよび方位データからの先端オフセットを適用するステップを含む、請求項6または7に記載の方法。
- 前記先端オフセットの適用ステップが、
− 前記感知デバイスによって定義された軸システム内で、前記感知デバイスの前記位置データおよび方位データに対する前記ノードの相対座標を取得することを含み、
前記算定ステップ(b)(i)が、前記装置に対する前記ノードの絶対位置の値を求めるステップをさらに含む、
請求項8に記載の方法。 - 前記ノードの前記絶対位置の値が次の式により求められ、
回転マトリックスM=X.Y.Zで、Mは最終回転であり;
マトリックスX、Y、Zは個別の回転マトリックスであり;
A、Bはそれぞれ、X軸回転軸すなわちロールのコサインおよびサインであり;
C、Dはそれぞれ、Y軸回転軸すなわち傾斜のコサインおよびサインであり;
E、Fはそれぞれ、Z軸回転軸すなわちパンのコサインおよびサインであり;
Xf=Xs+Xt*M(1,1)+Yt*M(2,1)+Zt*M(3,1);
Yf=Ys+Xt*M(1,2)+Yt*M(2,2)+Zt*M(3,2);
Zf=Zs+Xt*M(1,3)+Yt*M(2,3)+Zt*M(3,3):
前式において:
Xf、Yf、Zfは、前記ノードの絶対(または「最終的」)座標であり;
Xs、Ys、Zsは、前記感知デバイスのセンターの座標であり;
Χt、Yt、Ζtは、前記感知デバイスのセンターに対する前記先端オフセットの座標に対応し;
M(行,列)は、それぞれ、行および列に関する前記回転マトリックスの要素である;
請求項9に記載の方法。 - 前記先端オフセットの適用ステップは、感知デバイス位置に所在するベース感知デバイスの位置および方位に対する、ノード位置に所在するノード感知デバイスの位置を測定することによってあらかじめ計算されている先端オフセットを取得することを含む、請求項8に記載の方法。
- 初期方位は、X、Y、Z、およびWを属性として四元数Q1として定義され、前記捕捉ステップの前記方位データはQ2として定義され、前記ノードの前記位置情報は
Pn+(qiqn)Pi(qiqn)
によって算定され、この式において、
Piは、方位qの前記センサからの前記オフセットであり;
Pnは、前記センサの前記現在位置であり;
qiは、Piが計算されたときの前記センサの前記方位であり;
qnは、前記センサの前記現在の方位であり;
qiおよびqnは単位四元数である;
請求項11に記載の方法。 - 前記関心領域および前記感知デバイスが異なる場所に所在する、請求項1〜12のいずれか1項に記載の方法。
- 画像キャプチャに関する装置の設定を制御するためのシステムであって、前記システムは、
− 位置データおよび方位データを捕捉する感知デバイスと、
− 前記感知デバイスと通信し、前記位置データおよび方位データから、前記装置によって取り扱われる関心領域の位置情報を算定するプロセッサと、
− 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力する、前記プロセッサと一体化された出力ポートと、
を含む、システム。 - − 前記出力ポートと通信し、前記制御信号によって前記装置の前記設定を制御するコントローラ、
をさらに含む、請求項14に記載のシステム。 - − 前記位置データおよび方位データを格納するメモリ、
をさらに含む、請求項14または15に記載のシステム。 - 前記装置をさらに含み、前記設定が、カメラの焦点設定、前記カメラのズーム設定、前記カメラの口径設定、前記カメラのオキュラー間レンズ角度設定、前記カメラのパン設定、前記カメラの傾斜設定、前記カメラの回転設定、前記カメラの位置設定、照明設備制御の設定、および音響設備の設定、のうちの少なくとも一つを含む、請求項14〜16のいずれか1項に記載のシステム。
- 前記感知デバイスが視認に依存しない感知デバイスである、請求項14〜17のいずれか1項に記載のシステム。
- 前記感知デバイスが送信器を含み、前記システムは、前記送信器と前記プロセッサとの間で通信している受信器をさらに含む、請求項14〜18のいずれか1項に記載のシステム。
- 前記プロセッサを内蔵するデータ処理ユニットと、前記データ処理ユニットと通信しているユーザデバイスとをさらに含み、前記ユーザデバイスがユーザインターフェースを含む、請求項14〜19のいずれか1項に記載のシステム。
- 前記ユーザデバイスが、ワイヤレス通信ネットワークを介し前記データ処理ユニットと通信している、請求項20に記載のシステム。
- コンピュータによって実行するためのデータおよび命令を格納するコンピュータ可読ストレージであって、前記データおよび命令は、
− 感知デバイスの位置データおよび方位データを受信するコード手段と、
− 前記位置データおよび方位データから、前記装置によって取り扱われる関心領域の位置情報を算定するコード手段と、
− 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するコード手段と、
を含む、コンピュータ可読ストレージ。 - 画像キャプチャに関する装置の設定を制御する方法であって、
a)各識別子が前記装置によって取り扱われる所定の関心領域に関連付けられている一つ以上の識別子をメモリに格納し且つ対応する位置情報を格納するステップと、
b)プロセッサにおいて、前記一つ以上の識別子の選択を受信するステップと、
c)前記一つ以上の所定の関心領域のうちの前記選択された一つの前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記プロセッサの出力ポートを介し前記装置に向けて制御信号を出力するステップと、
を含む、方法。 - d)コントローラによって、前記制御信号により前記装置の前記設定を制御するステップ、
をさらに含む、請求項23に記載の方法。 - ステップ(a)で格納される前記位置情報が、
− 感知デバイスにおいて位置データおよび方位データを捕捉するステップと、
− プロセッサによって、前記感知デバイスの前記位置および方位データから、前記装置によって取り扱われる前記関心領域の位置情報を算定するステップと、
によって得られる、請求項23または24に記載の方法。 - 前記所定の関心領域の各々が或るノードに対応し、前記対応する位置情報が、前記装置に対する三次元座標を含む、請求項23〜25のいずれか1項に記載の方法。
- 前記受信ステップ(b)が、
− 既定の順序付けされたノードの選択を受信するステップ、
を含み、
前記方法は、前記順序付けされたノードの選択に従って、複数のノードに対し順々に前記装置の前記設定を自動的に制御するために、選択された各ノードに対する前記出力するステップ(c)を繰り返すことをさらに含む、
請求項26に記載の方法。 - 前記ステップ(c)の繰り返しが、前記メモリに格納された既定のスケジュールに基づいて実行される、請求項27に記載の方法。
- 前記ステップ(c)の繰り返しが、入力ポートを介したユーザ入力のコマンドの受信を受けて促される、請求項27に記載の方法。
- 入力ポートを介し、2つの隣接するノードの間の変位に対応するユーザ入力のコマンドを受信するステップをさらに含み、前記受信ステップ(a)の前記選択が前記隣接するノードの前記識別子を含み、前記方法は、
− 前記変位に従って、前記隣接するノードの間の中間位置を相関させるステップ、
をさらに含み、前記中間位置の各々に対し前記出力ステップ(c)が繰り返される、請求項26に記載の方法。 - 前記ユーザ入力は、タッチスクリーンを介しスライド動作を通して入力される、請求項30に記載の方法。
- − 前記受信ステップ(b)の前記選択から、所与の条件を満たす一つ以上の関心領域を判定するステップ、
をさらに含み、ステップ(c)の前記制御信号は、前記所与の条件を満たす前記一つ以上の関心領域に従って生成される、
請求項23〜31のいずれか1項に記載の方法。 - 画像キャプチャに関する装置の設定を制御するためのシステムであって、前記システムは、
− 前記装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納するメモリと、
− 前記メモリと通信していて、前記一つ以上の識別子の選択を受信するプロセッサと、
− 前記一つ以上の所定の関心領域のうちの前記選択された一つの前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力する、前記プロセッサと一体化された出力ポートと、
を含むシステム。 - 前記装置によって取り扱われる所定の関心領域の一つ以上の識別子および対応する位置情報を格納して有するコンピュータ可読ストレージであって、前記コンピュータ可読ストレージは、プロセッサによって実行するためのデータおよび命令をさらに含み、前記データおよび命令は、
− 前記一つ以上の識別子の選択を受信するコード手段と、
− 前記一つ以上の所定の関心領域の前記選択された一つの前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するコード手段と、
を含む、コンピュータ可読ストレージ。 - 画像キャプチャに関する装置の設定を制御する方法であって、前記方法は、
a)視認に依存しない感知デバイスによって、前記感知デバイスにおいて位置データを捕捉するステップと、
b)プロセッサによって、前記位置データから、前記装置によって取り扱われる関心領域の位置情報を算定するステップと、
c)前記プロセッサの出力ポートによって、前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するステップと、
を含む、方法。 - 画像キャプチャに関する装置の設定を制御するためのシステムであって、前記システムは、
− 位置データを捕捉する視認に依存しない感知デバイスと、
− 前記感知デバイスと通信し、前記位置および方位データに基づいて、前記装置によって取り扱われる関心領域の位置情報を算定するプロセッサと、
− 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力する、前記プロセッサと一体化された出力ポートと、
を含む、システム。 - − 前記出力ポートと通信していて、前記制御信号によって前記装置の前記設定を制御するコントローラ、
をさらに含む、請求項34に記載のシステム。 - 前記装置をさらに含み、前記設定が、カメラの焦点設定、前記カメラのズーム設定、前記カメラの口径設定、前記カメラのオキュラー間レンズ角度設定、前記カメラのパン設定、前記カメラの傾斜設定、前記カメラの回転設定、前記カメラの位置設定、照明設備制御の設定、およびまたは音響設備の設定、のうちの少なくとも一つを含む、請求項35または36に記載のシステム。
- 視認に依存しない感知デバイスから位置データを受信するための入力ポートを有するコンピュータによって実行するための、データおよび命令を格納して有するコンピュータ可読ストレージであって、前記データおよび命令は、
− 前記位置データおよび方位データに基づいて、前記装置により取り扱われる関心領域の位置情報を算定するコード手段と、
− 前記関心領域の前記位置情報に基づいて前記装置の前記設定をリアルタイムで制御するために、前記装置に向けて制御信号を出力するコード手段と、
を含む、コンピュータ可読ストレージ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361808987P | 2013-04-05 | 2013-04-05 | |
US61/808,987 | 2013-04-05 | ||
PCT/CA2014/050346 WO2014161092A1 (en) | 2013-04-05 | 2014-04-04 | System and method for controlling an equipment related to image capture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016522598A true JP2016522598A (ja) | 2016-07-28 |
JP6551392B2 JP6551392B2 (ja) | 2019-07-31 |
Family
ID=51657363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016505667A Active JP6551392B2 (ja) | 2013-04-05 | 2014-04-04 | 画像キャプチャに関する装置を制御するシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US9912857B2 (ja) |
EP (1) | EP2987026B1 (ja) |
JP (1) | JP6551392B2 (ja) |
CN (1) | CN105264436B (ja) |
CA (1) | CA2908719C (ja) |
HK (1) | HK1220512A1 (ja) |
WO (1) | WO2014161092A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150027934A (ko) * | 2013-09-04 | 2015-03-13 | 삼성전자주식회사 | 다각도에서 촬영된 영상을 수신하여 파일을 생성하는 전자 장치 및 방법 |
US9769378B2 (en) * | 2014-09-08 | 2017-09-19 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus that changes from highlighting a first focus frame to highlighting a second focus frame when a focus lens moves from a first focus position to a second focus position |
JP2016086007A (ja) * | 2014-10-23 | 2016-05-19 | パナソニックIpマネジメント株式会社 | 部品実装システムにおける基板の生産管理方法 |
CN104730677B (zh) * | 2014-12-17 | 2017-11-28 | 湖北久之洋红外系统股份有限公司 | 非制冷红外热像仪连续变焦及快速自动聚焦电路及方法 |
WO2016134031A1 (en) * | 2015-02-17 | 2016-08-25 | Alpinereplay, Inc | Systems and methods to control camera operations |
TWI564647B (zh) * | 2015-03-27 | 2017-01-01 | 國立臺北科技大學 | 全景動態網路攝影機的影像轉換運算方法 |
WO2017099882A1 (en) * | 2015-12-10 | 2017-06-15 | Intel Corporation | Accelerated touch processing at computing devices |
CN105763797B (zh) * | 2016-02-29 | 2018-05-18 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN105912749B (zh) * | 2016-03-31 | 2019-06-04 | 北京润科通用技术有限公司 | 仿真方法和装置 |
US10928245B2 (en) * | 2016-09-15 | 2021-02-23 | Siteco Gmbh | Light measurement using an autonomous vehicle |
US11303689B2 (en) * | 2017-06-06 | 2022-04-12 | Nokia Technologies Oy | Method and apparatus for updating streamed content |
US10757319B1 (en) * | 2017-06-15 | 2020-08-25 | Snap Inc. | Scaled perspective zoom on resource constrained devices |
US10666929B2 (en) * | 2017-07-06 | 2020-05-26 | Matterport, Inc. | Hardware system for inverse graphics capture |
JP6977931B2 (ja) * | 2017-12-28 | 2021-12-08 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
CN108184067B (zh) * | 2018-01-18 | 2019-05-24 | 桂林智神信息技术有限公司 | 一种跟焦系统的工作方法 |
CN108696697B (zh) * | 2018-07-17 | 2021-08-27 | 腾讯科技(深圳)有限公司 | 一种摄像装置控制方法和装置 |
CN109639971B (zh) * | 2018-12-17 | 2021-01-08 | 维沃移动通信有限公司 | 一种拍摄焦距调整方法及终端设备 |
CN109872271A (zh) * | 2019-01-28 | 2019-06-11 | 努比亚技术有限公司 | 一种图片处理方法、终端及计算机可读存储介质 |
WO2021168809A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳市大疆创新科技有限公司 | 跟随方法、可移动平台、设备和存储介质 |
US11431895B2 (en) | 2020-06-24 | 2022-08-30 | International Business Machines Corporation | Photography guidance based on crowdsourced photographs |
CN116507970A (zh) * | 2021-01-07 | 2023-07-28 | 深圳市大疆创新科技有限公司 | 跟焦方法、装置、拍摄设备及计算机可读存储介质 |
CN113422905B (zh) * | 2021-06-22 | 2022-09-16 | 浙江博采传媒有限公司 | 跟焦器运动轨迹的自动控制方法及系统 |
CN115345901B (zh) * | 2022-10-18 | 2023-01-10 | 成都唐米科技有限公司 | 一种动物运动行为预测方法、系统及摄像系统 |
CN116962885B (zh) * | 2023-09-20 | 2023-11-28 | 成都实时技术股份有限公司 | 一种基于嵌入式计算机的多路视频采集合成处理系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245280A (ja) * | 2000-02-29 | 2001-09-07 | Canon Inc | カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
JP2004112615A (ja) * | 2002-09-20 | 2004-04-08 | Victor Co Of Japan Ltd | 自動追尾ビデオカメラシステム |
JP2005266520A (ja) * | 2004-03-19 | 2005-09-29 | Olympus Corp | 撮像装置および撮像方法 |
JP2006025182A (ja) * | 2004-07-08 | 2006-01-26 | Matsushita Electric Ind Co Ltd | 撮影装置 |
JP2008042522A (ja) * | 2006-08-07 | 2008-02-21 | Victor Co Of Japan Ltd | 撮像システム |
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP2011082660A (ja) * | 2009-10-05 | 2011-04-21 | Jvc Kenwood Holdings Inc | 撮影制御装置、携帯装置、撮影制御方法、情報送信方法、及び、プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5930740A (en) | 1997-04-04 | 1999-07-27 | Evans & Sutherland Computer Corporation | Camera/lens calibration apparatus and method |
DE60143357D1 (de) * | 2000-06-23 | 2010-12-09 | Sportvision Inc | Auf gps basierendes verfolgungssystem |
US20020080257A1 (en) | 2000-09-27 | 2002-06-27 | Benjamin Blank | Focus control system and process |
US7101045B2 (en) * | 2001-03-23 | 2006-09-05 | Panavision Inc. | Automatic pan and tilt compensation system for a camera support structure |
WO2005026659A1 (ja) | 2003-09-11 | 2005-03-24 | Cubic, Inc. | 三次元計測装置 |
EP2293172A3 (en) | 2005-10-26 | 2011-04-13 | Sony Computer Entertainment Inc. | System and method for interfacing and computer program |
US8888593B2 (en) | 2005-10-26 | 2014-11-18 | Sony Computer Entertainment Inc. | Directional input for a video game |
JP5111795B2 (ja) | 2006-06-29 | 2013-01-09 | 三菱電機株式会社 | 監視装置 |
EP2123038A2 (en) * | 2006-12-04 | 2009-11-25 | Lynx System Developers, Inc. | Autonomous systems and methods for still and moving picture production |
US8049658B1 (en) * | 2007-05-25 | 2011-11-01 | Lockheed Martin Corporation | Determination of the three-dimensional location of a target viewed by a camera |
WO2009007917A2 (en) | 2007-07-10 | 2009-01-15 | Koninklijke Philips Electronics N.V. | Object motion capturing system and method |
US8803958B2 (en) * | 2008-01-04 | 2014-08-12 | 3M Innovative Properties Company | Global camera path optimization |
US20120154593A1 (en) * | 2009-08-31 | 2012-06-21 | Trace Optics Pty Ltd | method and apparatus for relative control of multiple cameras |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8550903B2 (en) * | 2010-11-15 | 2013-10-08 | Bally Gaming, Inc. | System and method for bonus gaming using a mobile device |
US8448056B2 (en) * | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
EP2618566A1 (en) | 2012-01-23 | 2013-07-24 | FilmMe Group Oy | Controlling controllable device during performance |
US20130222565A1 (en) | 2012-02-28 | 2013-08-29 | The Johns Hopkins University | System and Method for Sensor Fusion of Single Range Camera Data and Inertial Measurement for Motion Capture |
US8749634B2 (en) | 2012-03-01 | 2014-06-10 | H4 Engineering, Inc. | Apparatus and method for automatic video recording |
US9874964B2 (en) | 2012-06-04 | 2018-01-23 | Sony Interactive Entertainment Inc. | Flat joystick controller |
-
2014
- 2014-04-04 EP EP14779154.5A patent/EP2987026B1/en active Active
- 2014-04-04 WO PCT/CA2014/050346 patent/WO2014161092A1/en active Application Filing
- 2014-04-04 US US14/782,531 patent/US9912857B2/en active Active
- 2014-04-04 CA CA2908719A patent/CA2908719C/en active Active
- 2014-04-04 JP JP2016505667A patent/JP6551392B2/ja active Active
- 2014-04-04 CN CN201480032344.9A patent/CN105264436B/zh active Active
-
2016
- 2016-07-19 HK HK16108525.9A patent/HK1220512A1/zh unknown
-
2018
- 2018-02-19 US US15/899,279 patent/US10306134B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245280A (ja) * | 2000-02-29 | 2001-09-07 | Canon Inc | カメラ制御システム、装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
JP2004112615A (ja) * | 2002-09-20 | 2004-04-08 | Victor Co Of Japan Ltd | 自動追尾ビデオカメラシステム |
JP2005266520A (ja) * | 2004-03-19 | 2005-09-29 | Olympus Corp | 撮像装置および撮像方法 |
JP2006025182A (ja) * | 2004-07-08 | 2006-01-26 | Matsushita Electric Ind Co Ltd | 撮影装置 |
JP2008042522A (ja) * | 2006-08-07 | 2008-02-21 | Victor Co Of Japan Ltd | 撮像システム |
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP2011082660A (ja) * | 2009-10-05 | 2011-04-21 | Jvc Kenwood Holdings Inc | 撮影制御装置、携帯装置、撮影制御方法、情報送信方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2987026A1 (en) | 2016-02-24 |
US20180176456A1 (en) | 2018-06-21 |
CA2908719A1 (en) | 2014-10-09 |
US10306134B2 (en) | 2019-05-28 |
CN105264436A (zh) | 2016-01-20 |
EP2987026A4 (en) | 2016-12-14 |
CA2908719C (en) | 2021-11-16 |
EP2987026B1 (en) | 2020-03-25 |
US20160050360A1 (en) | 2016-02-18 |
HK1220512A1 (zh) | 2017-05-05 |
CN105264436B (zh) | 2019-03-08 |
US9912857B2 (en) | 2018-03-06 |
JP6551392B2 (ja) | 2019-07-31 |
WO2014161092A1 (en) | 2014-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6551392B2 (ja) | 画像キャプチャに関する装置を制御するシステムおよび方法 | |
US10317775B2 (en) | System and techniques for image capture | |
WO2021238804A1 (zh) | 混合现实虚拟预演拍摄系统 | |
US9479703B2 (en) | Automatic object viewing methods and apparatus | |
US7027083B2 (en) | System and method for servoing on a moving fixation point within a dynamic scene | |
US9055226B2 (en) | System and method for controlling fixtures based on tracking data | |
US9880457B2 (en) | Apparatus for the automatic positioning of coupled cameras for three-dimensional image representation | |
US20150116502A1 (en) | Apparatus and method for dynamically selecting multiple cameras to track target object | |
US20150130801A1 (en) | Controlling a virtual camera | |
JP7059937B2 (ja) | 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム | |
JP2017220227A (ja) | 飛翔体の追随遠隔操作方法 | |
US20180180384A1 (en) | Photoelectric sighting system and calibration method thereof | |
US10139198B2 (en) | Photoelectric sighting system and calibration method thereof | |
US20150109457A1 (en) | Multiple means of framing a subject | |
CN110337621A (zh) | 运动轨迹确定、延时摄影方法、设备及机器可读存储介质 | |
EP2593197A2 (en) | Improvements relating to viewing of real-time, computer-generated environments | |
US20150116505A1 (en) | Multiple means of tracking | |
JP2021068330A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20160344946A1 (en) | Screen System | |
CN104121892A (zh) | 一种获取光枪射击的目标位置的方法、装置及系统 | |
JP2015126402A (ja) | ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム | |
JP6073114B2 (ja) | ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム | |
EP2753060A2 (en) | System and method for controlling fixtures based on tracking data | |
Seko et al. | A guidance technique for motion tracking with a handheld camera using auditory feedback | |
US20230394772A1 (en) | Virtual indicator for capturing a sequence of images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180417 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180914 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190221 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6551392 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |