JP5312676B2 - 瞳孔間距離の自動制御を有するステレオカメラ - Google Patents
瞳孔間距離の自動制御を有するステレオカメラ Download PDFInfo
- Publication number
- JP5312676B2 JP5312676B2 JP2012502089A JP2012502089A JP5312676B2 JP 5312676 B2 JP5312676 B2 JP 5312676B2 JP 2012502089 A JP2012502089 A JP 2012502089A JP 2012502089 A JP2012502089 A JP 2012502089A JP 5312676 B2 JP5312676 B2 JP 5312676B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- camera
- convergence
- stereoscopic image
- focal length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
本開示は立体視に関する。
[著作権とトレードドレスの表示]
本特許文書の開示の一部は、著作権保護の対象となるマテリアルを有している。本特許文書は、所有者のトレードドレスである、又は、トレードドレスとなりうる事項を表示、及び/又は、記載し得る。著作権及びトレードドレスの所有者は、特許商標局のファイル又は記録にあることから、本特許開示について任意の者によるファクシミリによる複製に対して拒否するものではないが、他の場合にはいかなる著作権及びトレードドレス権も全て留保する。
本特許文書の開示の一部は、著作権保護の対象となるマテリアルを有している。本特許文書は、所有者のトレードドレスである、又は、トレードドレスとなりうる事項を表示、及び/又は、記載し得る。著作権及びトレードドレスの所有者は、特許商標局のファイル又は記録にあることから、本特許開示について任意の者によるファクシミリによる複製に対して拒否するものではないが、他の場合にはいかなる著作権及びトレードドレス権も全て留保する。
人間は環境を両眼視力を用いて立体的に見る。両眼視力とは、視覚系統と分析系統の両方である。人間の脳は、距離と速度の両方を、前方を向いて、横方向に分離しているそれぞれの網膜が受ける可視光情報により行われる三角測量に基づいて部分的に認識する。2つの目は前方を向いており、それぞれの視野は重複するため、同一の領域であってもそれぞれの目が認識するパースペクティブは僅かに異なる。目に近い対象物を見ようとすると、目は近づく方向に相互に回転する。遠方の対象物を見ようとすると、目は平行視する方向に回転する。目のそれぞれの視線の間に形成される角度を一般的に輻輳角という。輻輳角は、目に近い対象物を見る場合には大きくなるが、対象物の距離が遠くなると小さくなる。遠距離の対象物を見る場合、輻輳角は略ゼロとなり得る。輻輳角が略ゼロとは、視線は略平行であることを示す。
立体画像撮像とも呼ばれる3次元撮像は、少なくとも1838年にまで遡る。歴史的には、立体画像カメラは通常、2つのレンズを有し、この2つのレンズは、平均して略65mmという人間の目の間の平均的な距離と同様の距離に横方向に離間している。効果的なレンズ間距離は、瞳孔間距離として知られている。瞳孔間距離は、立体画像の見かけの深さに強い影響を及ぼす。眼間の間隔を広げると、立体画像の見かけの深さは増加する。眼間の間隔を狭めると、立体画像の見かけの深さを減少させる影響を及ぼす。
立体画像の提示は、一般的には、左目だけで見られる第1の画像と、右目だけで見られる第2の画像を提供することによって、実現する。2つの画像の間の差違、即ち、視差は、深さを錯覚させ得る。視差を有する2つの画像は3次元として認識され得る。2つの画像、あるいは、2つの部分画像が行き過ぎた視差を示す場合、3次元として認識されず、単に重複する2つの2次元画像として認識されることもある。一般に視差限界と呼ばれる、観察者が許容可能な視差量は、観察者の間で異なる。視差限界はまた、対象物の大きさ、画像内の対象物の近さ、対象物の色、及び、画像内の対象物の運動速度などの画像内容によって異なることも知られている。観察者の目の視線の間の角度で表される視差限界は、通常の立体画像では、略12〜15分角であってもよい。
偏光、フィルタ、メガネ、プロジェクタ、シャッタを含む様々な技術が、それぞれの目に適当な画像のみが見えるように、それぞれの目を制限するために用いられている。
立体画像を表示するための一つのアプローチは、第1の偏光状態を有する光を用いて観察画面に左目画像を結像し、第1の偏光状態と直交する第2の偏光状態を有する光を用いて同一の観察画面に右目画像を結像する。これらの画像を偏光レンズを有するメガネを用いて、左目は第1の偏光状態の光のみを受けて、右目は第2の偏光状態の光のみを受けるようにして、見ることができる。この種の立体表示は、通常、共通の投影画面に二つの偏光画像を投影する。この技術は3次元動画を提示するために用いられている。
立体画像を表示するための第2のアプローチは、共通の観察画面に左目画像と右目画像を、高いレートで交互に切り替えて表示する。これらの画像は、交互に切り替わる画像と同期して右目又は左目を遮蔽するシャッタメガネを用いて見ることができる。
本明細書では、各図面の構成要素に3桁の参照番号を付番している。最上位桁の番号は図番を表し、下位2桁の番号は個別の構成要素を特定する。図面で記載されていない構成要素については、下位2桁の番号と同一の参照番号を有する既に説明した構成要素と同一の特徴及び機能を有するとみなしてもよい。左目又は右目の何れに対しても同様の機能を有する構成要素には、同一の参照番号に加えて「L」又は「R」の添え字を付けて、それぞれが左目又は右目を示すようにした。
図1に示すように、立体画像カメラ100は、左側カメラ110Lと右側カメラ110Rとを含むことができる。ここで「カメラ」とは、対象物の画像を結像するための光学システムを有する任意のデバイスと、この画像を受け、検出し、及び/又は、記録するための媒体を含むものをいう。左側カメラと右側カメラは、フィルムカメラでもよく、又は、デジタル静止画像カメラでもよく、映画撮影用フィルムカメラでもよく、又は、映画撮影用デジタルカメラでもよく、ビデオカメラでもよい。左側カメラ110Lと右側カメラ110Rは、瞳孔間距離IODで離間している。左側カメラ110Lと右側カメラ110Rの各々は、レンズ112L、112Rを含んでもよい。「レンズ」とは、任意の画像結像光学システムを含むものをいい、透明な屈折光学素子の組み合わせに限定されない。レンズは、屈折型、回折型、及び/又は、反射型光学素子を用いてもよく、これらの組み合わせを用いてもよい。各レンズは、各カメラ110L、110Rの画角中心を画定する軸115L、115Rを有してもよい。
カメラ110L、110Rは、軸115L、115Rが平行となるように、又は、2軸115L、115Rが輻輳角Θを形成するように配置することができる。カメラ110L、110Rは、軸115L、115Rがカメラからの輻輳距離CDで公差するように配置してもよい。瞳孔間距離IOD、輻輳距離CD、及び、輻輳角Θは、以下の式の関係になる。
Θ = 2ATAN(IOD/2CD) (1)、又は、
CD = IOD/[2TAN(Θ/2)] (2)
瞳孔間距離IODと輻輳距離CDは、レンズ112L、112Rの各々の内部の節点から測定することができる。かかる節点はレンズ112L、112Rの各々の内部の入射瞳の中心とすることができる。入射瞳は、レンズ112L、112Rの正面近く位置することができ、従来、瞳孔間距離IOD及び輻輳距離CDはレンズ112L、112Rの正面から測定することができる。
Θ = 2ATAN(IOD/2CD) (1)、又は、
CD = IOD/[2TAN(Θ/2)] (2)
瞳孔間距離IODと輻輳距離CDは、レンズ112L、112Rの各々の内部の節点から測定することができる。かかる節点はレンズ112L、112Rの各々の内部の入射瞳の中心とすることができる。入射瞳は、レンズ112L、112Rの正面近く位置することができ、従来、瞳孔間距離IOD及び輻輳距離CDはレンズ112L、112Rの正面から測定することができる。
立体画像カメラ100を用いてシーン105の立体画像を結像してもよい。図1の単純例では、シーン105は、例えば、人間として示される主要被写体130を含んでもよい。シーン105は、背景(主要被写体の後方)にその他の特徴物と対象物を含んでもよい。カメラ110L、110Rから、例えば、木などの最も遠い背景対象物140までの距離を、極限対象物距離EODと呼ぶ。
立体画像カメラ100などの立体画像カメラからの画像が観察画面に表示されると、輻輳距離のシーン対象物は観察画面の平面上に見ることができる。図1の例では、立体画像カメラにより近い主要被写体130などのシーン対象物は、観察画面の前方に見ることができる。立体画像カメラからより遠方の木140などのシーン対象物は、観察画面の後方に見ることができる。
レンズ112L、112Rの各々は焦点を調整可能である。立体画像カメラは、2つのレンズ112L、112Rが共通の調整可能な集束距離FDで合焦するように、2つのレンズの焦点を同期して調整する焦点調整機構を有することができる。焦点調整機構は、2つのレンズ112L、112Rの焦点を機械的に、電気的に、電気機械的に、電子的に、又はその他の連結機構によって連結することができる。集束距離FDは、手動で調整してもよく、自動で調整してもよい。カメラ110L、110Rが、主要被写体130に焦点を合わせられるように、集束距離FDを調整してもよい。集束距離は、カメラ110L、110Rから主要被写体130までの距離を決定するセンサ(図示されていない)に応じて自動的に調整してもよい。カメラ110L、110Rから主要被写体130までの距離を決定するセンサは、音響レンジファインダー、光学又はレーザレンジファインダーでもよく、あるいは、その他の距離測定装置であってもよい。カメラ110L、110Rが、デジタル静止画像カメラ、モーションピクチャカメラ、又はビデオカメラである場合、集束距離は、カメラによって検知された1枚又は2枚の画像を分析する1以上のプロセッサ(図示されてない)に応じて調整してもよい。プロセッサは、カメラの中に配置されてもよいし、又は、カメラと接続されてもよい。
輻輳距離CDと集束距離FDは共通して同一の距離に設定することができる。同一の距離とは、カメラ110L、110Rから主要被写体130までの距離でもよい。しかしながら、図1に示すように、輻輳距離CDと集束距離FDは同一の距離でなくてもよい。例えば、集束距離FDは、カメラから主要被写体までの距離に設定し、輻輳距離CDは、集束距離よりも僅かに長く設定してもよい。この場合、画像が表示される際、主要被写体は、観察画面の面の前方に見えるようになる。輻輳距離CDと集束距離FDの差異は、調整可能又は所定のオフセットとしてもよい。輻輳距離が以下の式で算出されるとした場合、このオフセットは絶対値とすることができる。
CD = FD + α (3)
ここで、αは、絶対寸法としてのオフセットである。輻輳距離が以下の式で算出されるとした場合、オフセットは相対的としてもよい。
CD = (FD)(I + β) (4)
ここでβは、FDの割合としてのオフセットである。例えば、絶対オフセットαは、1フィート又は2メートルなどの距離測定値でよく、相対オフセットβは、5%又は10%などの関係、即ち比として表すことができる。CD=FDの場合、絶対オフセットと相対オフセットはゼロとすることができる。
CD = FD + α (3)
ここで、αは、絶対寸法としてのオフセットである。輻輳距離が以下の式で算出されるとした場合、オフセットは相対的としてもよい。
CD = (FD)(I + β) (4)
ここでβは、FDの割合としてのオフセットである。例えば、絶対オフセットαは、1フィート又は2メートルなどの距離測定値でよく、相対オフセットβは、5%又は10%などの関係、即ち比として表すことができる。CD=FDの場合、絶対オフセットと相対オフセットはゼロとすることができる。
各レンズ112L、112Rはズーム機能を有してもよく、即ち、各レンズの焦点距離FLを調整可能としてもよい。立体カメラ100は、2つのレンズ112L、112Rが常時正確に同一の焦点距離を有することができるように2つのレンズの焦点距離を同期して調整する焦点距離調整機構を有することができる。2つのレンズ112L、112Rの焦点距離の調整は機械的、電気的、電子的、電気機械的、又は、その他の連結機能によって連結してもよい。一般的に、レンズ112L、112Rの焦点距離は手動で調整してもよい。2つのレンズ112L、112Rの焦点距離は、所定の状況に応じて自動で調整してもよい。
図2に示すように、立体画像カメラ200は、それぞれがレンズ212L、212Rを有する、左側カメラ210Lと右側カメラ210Rとを含む立体画像カメラ100でもよい。左側カメラ210Lと右側カメラ210Rは、フィルムカメラでもよく、又は、デジタルスチルカメラでもよく、モーションピクチャフィルムカメラでもよく、ビデオカメラでもよい。左側カメラ210Lと右側カメラ210Rは、瞳孔間距離IODで離間している。各レンズは、各カメラ210L、210Rの画角中心を画定する軸215L、215Rを有してもよい。カメラ210L、210Rは、軸215L,215Rがカメラからの輻輳距離CDで交差するように、配置することができる。
立体画像カメラ200を用いてシーン205の立体画像を結像してもよい。図2の単純例では、シーン205は、例えば、人間として示される主要被写体230を含んでもよい。シーン205は、背景と前景にその他の特徴物と対象物を含んでもよい。カメラ210L、210Rから、例えば、木などの最も遠い背景対象物240までの距離を、最大対象物距離MODと呼ぶ。カメラ210L、210Rから、例えば、植物などの最も近い前景対象物245までの距離を、最小対象物距離mODと呼ぶ。
シーン205を立体表示して提示すると、MOD、CD及びmODの関係に応じて、前景対象物245、背景対象物240の何れかの画像が、最大の視差を有するようになる。
図3に、左側カメラによって撮像した代表的な画像を、画面320Lに表示し、右側カメラによって撮像した代表的な画像を、第2の画面320Rに表示した場合の例示を示す。画面320Lに表示された画像は、表示画面の中央近くに主要被写体の画像330Lと、画像330Lの左側に極限背景対象物の画像340Lと、を含む。画面320Rに表示された画像は、表示画面の中央近くに主要被写体の画像330Rと、画像330Rの右側に極限背景対象物の画像340Rと、を含む。
観察者が左目と右目でこれら2つの画像を別々に見ると、左側画像320Lと右側画像320Rの対応する対象物の位置の差、又は、視差は、奥行きに錯覚をもたらすことができる。しかし、奥行きの錯覚を保つためには、最大視差は、観察者と画像の両方に依存し得る限界値を超えてはならない。図3の例では、最大視差は、極限背景対象物の画像340L、340Rの間に生じる。
図4に示すように、立体画像カメラ100などの立体画像カメラによって撮像された左側画像と右側画像を単一の表示画面420に提示することができる。右目によって見える画像(実線で示す)と左目によって見える画像(点線で示す)とは、偏光メガネ、シャッタメガネ、又はその他の上述の何らかの方法を用いることにより、観察者425の目で分離することができる。木の画像440L、440Rなどの左側画像と右側画像の対応する対象物の間の視差距離DDは、観察者の左目及び右目から対象物への視線間の視差角度ΦDとして観察者425によって認識され得る。観察者425によって認識される視差角度ΦDの値は、以下の式で求めることができる。
ΦD = ATAN(DD/VD) (5)
ここで、DDは、左側画像と右側画像の対応する対象物の間の視差距離であり、VDは、観察者425から表示画面420への視距離である。
ΦD = ATAN(DD/VD) (5)
ここで、DDは、左側画像と右側画像の対応する対象物の間の視差距離であり、VDは、観察者425から表示画面420への視距離である。
ΦDは、(TAN ΦD = ΦDなど)小さい角度に制限する必要があるため、最大許容視差距離は以下の式によって定義することができる。
DDmax = ΦDmax x VD
ΦDmaxは、最大許容角視差である。
DDmax = ΦDmax x VD
ΦDmaxは、最大許容角視差である。
立体画像記録がなされた時点で、視距離VDは知られていなかった可能性があるので、視距離VDは、少なくともある程度まで、表示画面420のサイズに比例すると仮定することができる。例えば、映画テレビ技術者協会(SMPTE)は、最適な視聴として、ホームシアターのディスプレイの幅を、表示画面の幅の1.87倍の視距離に対応する、観察者の目で30度の角度の範囲とすることを推奨している。家庭とシアターの視距離は、推奨される距離よりも一般的に大きいので、画面の幅の2.0〜5.0倍となり得る。
視距離VDは、画面幅Wの倍数であると仮定できるので、立体表示において対応する画像の間の最大視差距離は、表示幅の比として、以下のように表すことができる。
ここで、Kは、画面幅に対する視距離の比である。例えば、視距離を画面幅の2.3倍と仮定すると、最大視差角度である15分角は、画面幅の1%の最大視差距離に変換することができる。
図5に示すように、立体画像カメラシステムは、コントローラ560に連結したカメラプラットフォーム550を有することができる。カメラプラットフォーム550は、各々が対応するレンズ512L、512Rを有する左側カメラ510Lと右側カメラ510Rとを備えることができる。カメラプラットフォームは、左側カメラ510Lと右側カメラ510Rとの間の瞳孔間距離を調整するためのIOD機構552を含むことができる。カメラプラットフォームは、左側カメラ510Lと右側カメラ510Rとの間の輻輳角を調整するためのΘ機構554を含むことができる。IOD機構552とΘ機構554の両方は、モータ又はその他のアクチュエータと連結した、1以上の可動プラットフォーム又はステージを含むことができる。IOD機構552とΘ機構554は、コントローラ560から受信したデータに従って、瞳孔間距離と輻輳角をそれぞれ設定するようにしてもよい。本特許明細書において、「データ」とは、デジタルデータ、コマンド、インストラクション、デジタル信号、アナログ信号、光信号、及び、瞳孔間距離又は輻輳角などのパラメータの値を通信するために使用することができるその他の任意のデータを含む。
カメラプラットフォーム550は、レンズ512L、512Rの集束距離を同期して調整及び設定する集束機構556を含むことができる。集束機構556は、2つのレンズの集束距離が同一の値となるように同時に調整を行うレンズ512L、512Rの間の機械的、電子的、電気的、又は、電気機械的連結部を含むことができる。集束機構556は、コントローラ560から受けたデータに応じて集束距離を設定するように構成された、モータ又その他のアクチュエータを含むことができる。集束機構556は、カメラマン又はアシスタントカメラマンなどのオペレータ(共通して「フォーカスプラー」とも呼ぶ)が手動で制御してもよい。手動制御とする場合、集束機構556は、コントローラ560に集束距離を示すデータを提供するためのエンコーダ、ポテンショメータ、又は、その他のセンサを含んでもよい。集束機構556は、手動制御で、及び/又は、コントローラ560から受けたデータに応じて動作するように構成することができる。
カメラプラットフォーム550は、レンズ512L、512Rの焦点距離を同期して調節し設定するズーム機構558を含むことができる。ズーム機構558は、2つのレンズ512L、312Rの焦点距離が同一の値となるように同時に調整を行うレンズ512L、512Rの間の機械的、電子的、電気的、又は、電気機械的連結部を含むことができる。ズーム機構558は、コントローラ560から受けたデータに応じて焦点距離を設定するように構成された、モータ又その他のアクチュエータを含むことができる。ズーム機構558は、カメラマン又はアシスタントカメラマンなどのオペレータが手動で制御してもよい。手動で制御する場合、ズーム機構558は、コントローラ560に焦点距離を示すデータを提供するためのエンコーダ、ポテンショメータ、又は、その他のセンサを含んでもよい。ズーム機構558は、手動制御で、又は、コントローラ560から受けたデータに応じて動作するように構成することができる。
コントローラ560は、距離測定装置565からデータを受けることができる。距離測定装置は、最も近い前景対象物との距離及び/又は最も遠い背景対象物との距離を示すデータを提供することができる。距離測定装置565は、巻き尺又は、その他の手作業で行う測定具など簡単なものでもよく、オペレータはこれを使用して距離データを、キーボード又はその他のデータ入力装置(図示していない)を用いて、コントローラに提供するようにしてもよい。距離測定装置565は、レーザレンジファインダー、音響レンジファインダー、光学式レンジファインダー、又は、専用の接続部又はネットワークを介してコントローラ560とインタフェースすることができるその他の距離測定装置でもよい。
距離測定装置565は、独立した装置でなくてもよく、オペレータ及び/又はコントローラ560の制御で動作するカメラプラットフォーム550でもよい。距離を測定する場合、カメラ510L、510Rの間の輻輳角を、カメラ510L、5150Rによって撮像された画像が前景対象物又は背景対象物をカバーするように、自動、又は、オペレータの制御によって調整してもよい。前景又は背景対象物との輻輳距離は、カメラ510L、5150Rの間の輻輳角及び瞳孔間距離から上述の式を用いて算出することができる。カメラプラットフォームを用いて距離を測定する場合の精度を最大とするため、瞳孔間距離を一時的に最大値に設定してもよい。
コントローラ560は、オペレータインタフェース562に連結してもよい。コントローラ560は、上述のように、オペレータインタフェース562から集束輻輳オフセットを示すデータを受信するようにしてもよい。コントローラ560は、オペレータインタフェース562から、最大許容視差を示すデータを受信してもよい。コントローラ560はまた、オペレータインタフェース562から、レンズ512L、512Rの集束距離及び焦点距離を示すデータを受信してもよい。
オペレータインタフェース562は、カメラプラットフォーム550に部分的に又は全体的に組み込まれていてもよい。オペレータインタフェース562は、カメラプラットフォーム550の近くにあってもよく、又は、部分的に又は全体的にカメラプラットフォームの遠隔にあってもよい。例えば、集束機構556及び/又はズーム機構558は、カメラマン、及び/又は、アシスタントカメラマンなどの1以上のオペレータが手動で制御してもよい。この場合、集束機構556及び/又はズーム機構558はコントローラ560に、手動で設定した集束距離及び/又は焦点距離を示すデータを提供することができる。同様に、集束輻輳オフセット及び/又は最大許容視差を設定する制御アクチュエータは、カメラマン及び/又はアシスタントカメラマンによる操作のためカメラプラットフォームに配置してもよい。
オペレータインタフェース562は、コントローラ560に部分的に又は全体的に組み込まれてもよい。例えば、集束輻輳オフセット及び/又は最大許容視差をシーンの記録時に固定とした状況では、集束輻輳オフセット及び/又は最大許容視差を、キーボード又はその他のデータ入力装置を用いてコントローラに手動で供給してもよい。シーンの記録時に集束輻輳オフセット及び/又は最大許容視差の一つ又は両方を可変とする状況では、集束輻輳オフセット及び/又は最大許容視差を、例えば、キーボードの矢印キー、又は、ポテンショメータ、ジョイスティック、又はマウスなどの1以上の連続制御デバイスを用いて制御することができる。
コントローラ560は、カメラプラットフォーム550とインタフェースすることができる。コントローラ560は、カメラプラットフォーム550と一体でもよい。コントローラは、レンズ512L、512Rのそれぞれの集束距離及び焦点距離を示すデータを集束機構556及びズーム機構558に供給する、及び/又は、集束機構556及びズーム機構558から受け取ることができる。コントローラ560はIOD機構552及びΘ機構554に、カメラ510L、510Rの間の輻輳角及び瞳孔間距離のそれぞれを設定するためのデータを提供することができる。コントローラ560はIOD機構552及びΘ機構554に、レンズ512L、512Rの集束距離と焦点距離、集束輻輳オフセット、最大許容視差、及び、最も近い前景対象物との距離、及び/又は、最も遠い背景対象物との距離に基づくデータを提供することができる。コントローラ560はIOD機構552に、記録した画像の最大視差が最大許容視差の値を超えることのないように、瞳孔間距離を設定するためのデータを提供することができる。
コントローラ560は、カメラプラットフォーム550及びオペレータインタフェース562と、ローカルエリアネットワークなどのネットワーク、USBバス、PCIバス、PCI Expressバス、又はその他のパラレル又はシリアルデータバスなどの1以上のバス、又は、1以上の直接有線接続又は無線接続を介して連結されてもよい。コントローラ560は、カメラプラットフォーム550及びオペレータインタフェース562と、1以上の直接接続、ネットワーク接続、及びバス接続の組み合わせによって連結してもよい。
図6は、コントローラ560に好適となりうる算出デバイス660のブロック図である。ここで、算出デバイスとは、インストラクションを実行することができる、プロセッサと、メモリと、ストレージデバイスを有する任意のデバイスを意味する。かかる算出デバイスは、これに限定されないが、パーソナルコンピュータ、サーバコンピュータ、コンピューティングタブレット、セットトップボックス、ビデオゲームシステム、パーソナルビデオレコーダ、電話、PDA(personal digital assistant)、ポータブルコンピュータ、及びラップトップコンピュータを含む。算出デバイス660は、以下に説明する処理を実行するためのハードウェア、ファームウェア、及び/又は、ソフトウェアを含むことができる。算出デバイス660は、メモリ666とストレージデバイス668とに接続したプロセッサ664を含むことができる。
ストレージデバイス668は、算出デバイス660によって実行されると、算出デバイスに、コントローラ560の機能と特徴を実現させ得るインストラクションを保存することができる。本書でストレージデバイスとは、ストレージ媒体からの読み出し、及び/又は、ストレージ媒体への書き込みを行うことができるデバイスである。ストレージデバイスは、ハードディスクドライブ、DVDドライブ、フラッシュメモリデバイスなどを含む。各ストレージデバイスは、ストレージ媒体を受け付けることができる。これらのストレージ媒体は、例えば、ハードディスク、フロッピー(登録商標)ディスク、テープなどの磁気メディア、コンパクトディスク(CD−ROM及びCD−RW)、デジタル多用途ディスク(DVD及びDVD+RW)などの光メディア、フラッシュメモリカード、及びその他のストレージ媒体を含む。メタデータライブラリ190は、ストレージサーバ(図示していない)又はその他の算出デバイスを含んでもよい。
算出デバイス660は、ディスプレイデバイス670、及び、キーボード672などの1以上の入力デバイスを含む、又は、それらとのインタフェースすることができる。算出デバイス660は、1以上のネットワーク676とインタフェースするネットワークインタフェースユニット674を含むこともできる。ネットワークインタフェースユニット674は、ネットワーク676と有線又は無線接続を介してインタフェースすることもできる。ネットワーク676は、インターネット又はその他のプライベートネットワーク又は公共ネットワークでもよい。
算出デバイス660は、距離測定装置665から距離データを受けることができる。算出デバイス660は、距離測定装置665と専用線接続又は無線接続によって、又はネットワークを介して接続してもよい。算出デバイス660は、距離データを距離測定装置665から、キーボード672などの入力デバイスを使用して距離データを入力することができるオペレータ(図示していない)を介して受けてもよい。
算出デバイス660は、また、カメラプラットフォーム650とインタフェースするカメラインタフェースユニット678、及び/又は、カメラオペレータインタフェース662を含んでもよい。カメラインタフェースユニット678は、カメラプラットフォーム650及び/又はカメラオペレータインタフェース662とインタフェースする回路、ファームウェア、及び、ソフトウェアの組み合わせを含んでもよい。カメラインタフェースユニット678は、カメラプラットフォーム650及び/又はカメラオペレータインタフェース662と、ローカルエリアネットワークなどのネットワークを介して、又は、USBバス、PCIバス、PCI Expressバス、又はその他のパラレル又はシリアルデータバスなどの1以上のバスを介して、又は、1以上の直接有線接続又は無線接続を介して連結されてもよい。カメラインタフェースユニット678は、カメラプラットフォーム650及び/又はカメラオペレータインタフェース662と、1以上の直接接続、ネットワーク接続、及びバス接続の組み合わせによって連結してもよい。
算出デバイス660の処理、特徴、及び機能はソフトウェアに、ファームウェア、アプリケーションプログラム、アプレット(例えば、ジャバアプレット)、ブラウザープラグイン、COMオブジェクト、DLL(dynamic linked library)、スクリプト、1以上のサブルーチン、又は、オペレーティングシステムコンポーネント又はサービスの形態で全体的に、又は部分的に組み込むことができる。算出デバイス660は、既に説明したように1以上のソフトウェアプログラムを作動してもよく、例えば、Linux(登録商標)、Unix(登録商標)、MS−DOS(登録商標)、Microsoft Windows(登録商標)、Palm OS(登録商標)、Solaris(登録商標)、Symbian(登録商標)、及びApple Mac OS X(登録商標)のオペレーティングシステムのバージョンを含むオペレーティングシステムを作動してもよい。ハードウェアとソフトウェア、及びそれらの機能は、いくつかの機能がプロセッサ664によって実行され、その他の機能が他のデバイスによって実行されるように分散してもよい。
処理の説明
処理の説明
図7は、立体画像カメラ500などの立体画像カメラシステムを用いて立体画像を記録するための代表的な処理780のフローチャートである。具体的には、図7は、シーン105などの、前景対象物のないシーンを記録する処理のフローチャートである。フローチャートは、任意の一つのシーンに対して開始782と終了798を有するが、処理780は事実上、連続しており、処理中の動作は、シーンの記録時、連続して、又は、略リアルタイムで実行してもよい。さらに、処理780は記録する各シーンごとに繰り返してもよい。
本書において、「略リアルタイム」とは、シーンを記録するテンポラルイベントと比較して極めて短い処理遅延を除いたリアルタイムのことを意味する。
784では、極限対象物距離(EOD)、即ち、立体画像カメラから最も遠いシーンの中の対象物との距離を測定することができる。EODは、巻き尺又はその他の手作業で行う測定具などによって測定し、オペレータはこの距離データを、キーボード又はその他のデータ入力デバイスを用いて立体画像カメラシステムに入力する。EODは、レーザレンジファインダー、音響レンジファインダー、光学式レンジファインダー、又は、専用の接続部又はネットワークを介して立体画像カメラシステムとインタフェースすることができるその他の距離測定装置で測定してもよい。既に説明したように、立体画像カメラシステム自体を距離測定装置として用いてEODを測定してもよい。
立体画像カメラを背景に対して固定したままシーンを記録する場合、EODは記録開始前に一度測定すればよい。シーンを記録している記録期間中、EODは一定として考慮することができる。
記録期間中、立体画像カメラと背景との一方が他方に対して移動しているシーンを記録する場合、EODは、レーザレンジファインダー、光学式レンジファインダー、音響レンジファインダー、又は、立体画像カメラと接続したその他の距離測定装置で連続的に、又は、略リアルタイムで測定してもよい。
786において、立体画像カメラシステムは、立体画像カメラのレンズの集束距離、集束距離(focal distance)―輻輳距離オフセット、最大許容視差、レンズのズーム値又は焦点距離を示す入力を受け付けることができる。最大許容視差、集束距離(focal distance)―輻輳距離オフセット、集束距離、及び焦点距離は、カメラマン、アシスタントカメラマン、又はディレクターなどの1以上のオペレータによって設定することができる。焦点距離は一般的にアシスタントカメラマンなどのオペレータが設定することができる。しかしながら、主要シーン対象物との距離は、レーザ式、音響式、光学式又はその他の距離測定装置を用いてリアルタイムに測定してもよい。焦点距離は、カメラレンズが主要シーン対象物に合焦するように、リアルタイム測定に応じて自動的に設定されるようにしてもよい。
最大許容視差、集束距離(focal distance)−輻輳距離オフセット、集束距離、及び焦点距離を表す入力は、手動で入力されたデータ、アナログ又はデジタル信号、ネットワークを介して受信されたデータの形式で受け付けるようにしてもよい。
788において、輻輳距離CDは、集束距離及び集束距離―輻輳距離オフセットの入力に基づいて算出することができる。輻輳距離は、上述の式(3)又は式(4)を用いて算出することができる。
790において、瞳孔間距離IODを算出し、設定することができる。IODは、784で測定した極限対象物距離、786で受け付けた最大許容視差の入力と焦点距離の入力、及び、788で算出した輻輳距離に基づいて算出することができる。IODは、以下の式を用いて算出することができる。
IOD = [Arctangent(W/FL) x EOD x CD x MD x 2]/(EOD − CD) (7)
ここで、
IODは瞳孔間距離であり、
Wは、各カメラの内部の画像センサの幅であり、
FLは、レンズの焦点距離であり、
EODは、極限対象物距離であり、
MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
CDは、輻輳距離である。
IOD = [Arctangent(W/FL) x EOD x CD x MD x 2]/(EOD − CD) (7)
ここで、
IODは瞳孔間距離であり、
Wは、各カメラの内部の画像センサの幅であり、
FLは、レンズの焦点距離であり、
EODは、極限対象物距離であり、
MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
CDは、輻輳距離である。
792において、輻輳角Θを算出し、設定することができる。輻輳角Θは、上述の式(1)を用いて輻輳距離CDと瞳孔間距離IODから算出することができる。
輻輳距離CD、瞳孔間距離IOD、輻輳角Θは、コントローラ560などのコントローラによって算出することができる。IOD及び輻輳角Θは、コントローラによって提供されたデータに応じて、カメラプラットフォーム550などのカメラプラットフォームによって設定してもよい。コントローラは算出デバイス660などの算出デバイスでもよい、
794において、シーンの記録が完了したか否かの判定を行うことができる。記録が実行中である場合、MODがシーン中一定であるのならば、処理780を786から連続的に略リアルタイムに繰り返すことができ、また、MODがシーン中変化するのであれば、処理780を(点線で示すように)784から連続的に略リアルタイムに繰り返すことができる。シーンの記録が完了すると、処理780は、798で終了することができる。続けて、次のシーンを記録する処理780を782から再び開始してもよい。
結辞
結辞
本書において、実施の形態と例は、例示として考慮されるべきであって、本書が開示する装置、手順、又は特許請求の範囲を限定するものではない。本書で説明する多くの例は個別の実施の形態の方法動作、システム構成部の特定の組み合わせによって提示されているが、これらの動作及び構成部は、同一の目的を実現するための他の手法で組み合わせてもよい。フローチャートについては、ステップを追加又は削減してもよく、本書が説明する方法を実行するため、ここで表示したステップを組み合わせ、さらに改良してもよい。一実施の形態と関連してのみ構成部、動作、特徴について説明したが、他の実施の形態において類似の役割を果たすことを排除する意図はない。
特許請求の範囲のミーンズプラスファンクションの記載であるが、本書の当該機能を実行するための手段に限定することを意図したものではなく、当該機能を実行するための、現在知られている、あるいは、今後開発されるいかなる手段をも範囲に含むことを意図するものである。
本書において「複数」とは、2以上を意味する。
本書において項目の「群」とは、かかる項目の1以上を含んでもよい。
本書において、明細書又は特許請求の範囲において、「含む」、「有する」、「備える」などの用語は、オープンエンド形式として理解されるべきであり、限定的に解釈されるべきでない。特許請求の範囲において「〜からなる」、「基本的に〜からなる」の移行句は、それぞれ、クローズドエンドとセミクローズドエンドである。
特許請求の範囲において「第1」、「第2」、「第3」などの特許請求の範囲の要素を修飾する序数は、特許請求の範囲の要素の他の要素に対する優先度、順番、順位、又は方法の動作を実行する時間的な順序を意味するものではなく、ある名称を有する特許請求の範囲の要素と(序数を除いて)同一の名称を有する特許請求の範囲の要素を相互に区別するための指標として用いるにすぎない。
本書において、「及び/又は」は、列挙された項目は択一的であるが、これらの択一的な項目がまた、列挙された項目の組み合わせを含むことも意味する。
Claims (16)
- それぞれがレンズ(512L、512R)を含む左側カメラ(510L)と右側カメラ(510R)と、
前記レンズの焦点距離を同期して設定し、前記レンズの集束距離(focal distance)を同期して設定し、前記左側カメラと前記右側カメラの間の輻輳角を設定し、前記左側カメラと前記右側カメラの間の眼球距離を設定する複数の機構(558、556、554、552)と、
極限対象物距離を測定する距離測定装置(565)と、
最大許容視差、前記レンズの焦点距離、及び前記レンズの集束距離を表す入力を受け付け、
前記眼球距離を、前記極限対象物距離、前記最大許容視差、前記焦点距離、及び輻輳距離から算出した値に設定し、
前記輻輳角を、前記眼球距離及び前記輻輳距離から算出した値に設定する動作を実行する回路とソフトウェアとを含むコントローラ(560)と、
を備えた立体画像カメラシステム(100)。 - 前記コントローラにより実行される動作は、リアルタイムに連続して実行される、請求項1記載の立体画像カメラシステム。
- 前記瞳孔間距離は、以下の式を用いて算出され、
IOD = [Arctangent(W/FL) x EOD x MD x 2]/(EOD − CD)
ここで、
IODは瞳孔間距離であり、
Wは、各カメラの内部の画像センサの幅であり、
FLは、レンズの焦点距離であり、
EODは、極限対象物距離であり、
MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
CDは、輻輳距離である、請求項1記載の立体画像カメラシステム。 - 前記輻輳距離CDの距離は、以下から選択した一つの式を用いて集束距離FDから算出し、
CD = FD、
CD = FD + α、及び
CD = FD(I + β)、
α及びβは、オペレータが定義する値である、
請求項1記載の立体画像カメラシステム。 - 立体画像カメラを制御する方法(780)であって、該方法は、
極限対象物距離を決定するステップ(784)と、
最大許容視差と、左側カメラと右側カメラに対応する左側レンズと右側レンズの焦点距離と、前記左側レンズと右側レンズの集束距離を表す入力を受け付けるステップ(786)と、
前記左側カメラと右側カメラの間の眼球距離を前記極限対象物距離、前記最大許容視差、前記焦点距離、及び輻輳距離から算出した値に設定させるステップ(790)と、
前記左側カメラと右側カメラの視線の間の輻輳角を前記眼球距離及び前記輻輳距離から算出した値に設定させるステップ(792)と、
を含む、方法。 - 前記方法は、略リアルタイムに連続して実行される、請求項5記載の立体画像カメラを制御する方法。
- 前記瞳孔間距離は、以下の式を用いて算出され、
IOD = [Arctangent(W/FL) x EOD x MD x 2]/(EOD − CD)
ここで、
IODは瞳孔間距離であり、
Wは、各カメラの内部の画像センサの幅であり、
FLは、レンズの焦点距離であり、
EODは、極限対象物距離であり、
MDは、立体画像カメラによって記録された画像の幅に対する最大視差であり、
CDは、輻輳距離である、請求項5記載の立体画像カメラを制御する方法。 - 前記輻輳距離CDは、以下から選択した一つの式を用いて集束距離FDから算出し、
CD = FD、
CD = FD + α、及び
CD = FD(I + β)、
α及びβは、オペレータが定義する値である(788)、
請求項5記載の立体画像カメラを制御する方法。 - 前記瞳孔間距離は、シーンの記録時に変化する、
請求項5記載の立体画像カメラを制御する方法。 - 前記集束距離及び前記焦点距離の少なくとも一つは、シーンの記録時に変化する、
請求項9記載の立体画像カメラを制御する方法。 - 最大視差は、前記シーンの記録時に変化する、
請求項9記載の立体画像カメラを制御する方法。 - 前記最大許容視差、前記焦点距離、及び前記集束距離を表す入力はオペレータインタフェースから受け付けられる、
請求項5記載の立体画像カメラを制御する方法。 - 立体画像カメラを制御する算出デバイス(660)であって、
該算出デバイスは、
プロセッサ(664)と、
前記プロセッサと連結したメモリ(666)と、
実行されると、前記算出デバイスに、
極限対象物距離、最大許容視差、左側カメラと右側カメラに対応するレンズの焦点距離、及び、前記レンズの集束距離を表す入力を受け付ける動作(786)と、
前記極限対象物距離、前記最大許容視差、前記焦点距離、及び輻輳距離から算出された、前記左側カメラと前記右側カメラの間の瞳孔間距離を規定するデータを出力する動作(790)と、
眼球距離及び前記輻輳距離から算出された、前記左側カメラと前記右側カメラの間の輻輳角を規定するデータを出力する動作と、
を実行させるインストラクションを保存したストレージ媒体(668)と、
を含む、算出デバイス。 - 前記算出デバイスによって実行される動作は、リアルタイムに連続して実行される、請求項13記載の立体画像カメラを制御する算出デバイス。
- 前記瞳孔間距離は、以下の式を用いて算出され、
IOD = [Arctangent(W/FL) x EOD x MD x 2]/(EOD − CD)
ここで、
IODは瞳孔間距離であり、
Wは、各カメラの内部の画像センサの幅であり、
FLは、レンズの焦点距離であり、
EODは、極限対象物距離であり、
MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
CDは、輻輳距離である、請求項13記載の立体画像カメラを制御する算出デバイス。 - 前記輻輳距離CDは、以下から選択した一つの式を用いて集束距離FDから算出し、
CD = FD、
CD = FD + α、及び
CD = FD(I + β)、
α及びβは、オペレータが定義する値である、
請求項13記載の立体画像カメラを制御する算出デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/409,316 US8406619B2 (en) | 2009-03-23 | 2009-03-23 | Stereo camera with automatic control of interocular distance |
US12/409,316 | 2009-03-23 | ||
PCT/US2010/026927 WO2010111040A1 (en) | 2009-03-23 | 2010-03-11 | Stereo camera with automatic control of interocular distance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012521580A JP2012521580A (ja) | 2012-09-13 |
JP5312676B2 true JP5312676B2 (ja) | 2013-10-09 |
Family
ID=42737206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012502089A Expired - Fee Related JP5312676B2 (ja) | 2009-03-23 | 2010-03-11 | 瞳孔間距離の自動制御を有するステレオカメラ |
Country Status (6)
Country | Link |
---|---|
US (2) | US8406619B2 (ja) |
EP (1) | EP2411869A4 (ja) |
JP (1) | JP5312676B2 (ja) |
AU (1) | AU2010229124A1 (ja) |
CA (1) | CA2767037A1 (ja) |
WO (1) | WO2010111040A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101859197B1 (ko) * | 2018-01-22 | 2018-05-21 | 주식회사 연시스템즈 | 실시간 입체 현미경 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG138491A1 (en) * | 2006-06-21 | 2008-01-28 | Generic Power Pte Ltd | Method and apparatus for 3-dimensional vision and inspection of ball and like protrusions of electronic components |
US8406619B2 (en) * | 2009-03-23 | 2013-03-26 | Vincent Pace & James Cameron | Stereo camera with automatic control of interocular distance |
JP5469911B2 (ja) * | 2009-04-22 | 2014-04-16 | ソニー株式会社 | 送信装置および立体画像データの送信方法 |
US20100321777A1 (en) * | 2009-06-18 | 2010-12-23 | Sony Corporation | Method and apparatus for optimizing stereoscopic effect in a camera |
US20100321476A1 (en) * | 2009-06-18 | 2010-12-23 | Sony Corporation | Camera for capturing three-dimensional images |
US20110063418A1 (en) * | 2009-08-04 | 2011-03-17 | Parker Matthew A | Integrated Mount and Control Device for Stereoscopic Video |
WO2011033423A1 (en) * | 2009-09-16 | 2011-03-24 | Koninklijke Philips Electronics N.V. | 3d screen size compensation |
JP2011164781A (ja) * | 2010-02-05 | 2011-08-25 | Sony Computer Entertainment Inc | 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法 |
US8265477B2 (en) * | 2010-03-31 | 2012-09-11 | James Cameron | Stereo camera with preset modes |
EP2608553A4 (en) * | 2010-08-19 | 2014-04-16 | Panasonic Corp | STEREOSCOPIC IMAGE RECORDING DEVICE AND STEREOSCOPIC IMAGE RECORDING METHOD |
JP5609562B2 (ja) | 2010-11-10 | 2014-10-22 | ソニー株式会社 | 立体画像撮像装置 |
US9237331B2 (en) * | 2011-01-18 | 2016-01-12 | Disney Enterprises, Inc. | Computational stereoscopic camera system |
KR101814798B1 (ko) * | 2011-01-26 | 2018-01-04 | 삼성전자주식회사 | 입체영상 처리 장치 및 방법 |
EP2687904B1 (en) * | 2011-03-18 | 2017-02-15 | FUJIFILM Corporation | Lens system for capturing stereoscopic images |
US8643703B1 (en) * | 2011-03-30 | 2014-02-04 | Amazon Technologies, Inc. | Viewer tracking image display |
US9313390B2 (en) | 2011-04-08 | 2016-04-12 | Qualcomm Incorporated | Systems and methods to calibrate a multi camera device |
JP2012220874A (ja) * | 2011-04-13 | 2012-11-12 | Nikon Corp | 撮像装置およびプログラム |
US20130038784A1 (en) * | 2011-08-08 | 2013-02-14 | Canon Kabushiki Kaisha | Lens apparatus and imaging system using the same |
US20130083170A1 (en) * | 2011-10-03 | 2013-04-04 | Canon Kabushiki Kaisha | Stereoscopic image pickup apparatus |
CN102495520A (zh) * | 2011-12-14 | 2012-06-13 | 天津大学 | 自会聚式多视点三维数据采集系统及方法 |
JP5571257B2 (ja) * | 2011-12-19 | 2014-08-13 | 富士フイルム株式会社 | 画像処理装置、方法およびプログラム |
CN103176344B (zh) * | 2011-12-21 | 2015-08-12 | 中原工学院 | 人眼仿生的立体摄像装置 |
CN102665087B (zh) * | 2012-04-24 | 2014-08-06 | 浙江工业大学 | 3d立体摄像设备的拍摄参数自动调整系统 |
US9449429B1 (en) * | 2012-07-31 | 2016-09-20 | Dreamworks Animation Llc | Stereoscopic modeling based on maximum ocular divergence of a viewer |
US20140063206A1 (en) * | 2012-08-28 | 2014-03-06 | Himax Technologies Limited | System and method of viewer centric depth adjustment |
KR20150068298A (ko) * | 2013-12-09 | 2015-06-19 | 씨제이씨지브이 주식회사 | 다면 영상 생성 방법 및 시스템 |
US10027883B1 (en) | 2014-06-18 | 2018-07-17 | Amazon Technologies, Inc. | Primary user selection for head tracking |
US9729865B1 (en) * | 2014-06-18 | 2017-08-08 | Amazon Technologies, Inc. | Object detection and tracking |
US9426450B1 (en) * | 2015-08-18 | 2016-08-23 | Intel Corporation | Depth sensing auto focus multiple camera system |
US11703326B2 (en) * | 2016-02-25 | 2023-07-18 | Kyocera Corporation | Stereo camera apparatus, vehicle, and parallax calculation method |
WO2017205642A1 (en) * | 2016-05-25 | 2017-11-30 | Livit Media Inc. | Methods and systems for live sharing 360-degree video streams on a mobile device |
US10742878B2 (en) | 2016-06-21 | 2020-08-11 | Symbol Technologies, Llc | Stereo camera device with improved depth resolution |
CA3086592A1 (en) | 2017-08-30 | 2019-03-07 | Innovations Mindtrick Inc. | Viewer-adjusted stereoscopic image display |
CN109756723B (zh) * | 2018-12-14 | 2021-06-11 | 深圳前海达闼云端智能科技有限公司 | 获取影像的方法和装置,存储介质和电子设备 |
KR101995344B1 (ko) * | 2019-01-22 | 2019-07-02 | 김흥수 | 사각지역이 없는 듀얼 깊이 카메라 모듈 |
US11048532B1 (en) * | 2019-11-27 | 2021-06-29 | Amazon Technologies, Inc. | Device agnostic user interface generation based on device input type |
CN111862511B (zh) * | 2020-08-10 | 2021-08-24 | 湖南海森格诺信息技术有限公司 | 基于双目立体视觉的目标入侵检测装置及其方法 |
US11991946B2 (en) | 2021-09-27 | 2024-05-28 | Mineral Earth Sciences Llc | Adaptively adjusting parameters of equipment operating in unpredictable terrain |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3990087A (en) * | 1974-10-21 | 1976-11-02 | Marks Alvin M | 3-Dimensional camera |
JPS56106490A (en) * | 1980-01-25 | 1981-08-24 | Matsushita Electric Ind Co Ltd | Stereoscopic television device |
US4557570A (en) * | 1983-09-26 | 1985-12-10 | Walt Disney Productions | Camera assembly for three-dimensional photography |
GB8421783D0 (en) * | 1984-08-29 | 1984-10-03 | Atomic Energy Authority Uk | Stereo camera |
GB8430980D0 (en) * | 1984-12-07 | 1985-01-16 | Robinson M | Generation of apparently three-dimensional images |
US4650305A (en) * | 1985-12-19 | 1987-03-17 | Hineslab | Camera mounting apparatus |
MY104410A (en) * | 1988-03-07 | 1994-03-31 | Sharp Kk | Interlocked zooming apparatus for use in stereoscopic cameras |
JPH01246989A (ja) * | 1988-03-29 | 1989-10-02 | Kanji Murakami | 立体撮像ビデオカメラ |
US5175616A (en) * | 1989-08-04 | 1992-12-29 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada | Stereoscopic video-graphic coordinate specification system |
FR2659816B1 (fr) * | 1990-03-19 | 1994-01-28 | France Etat | Procede de reglage de la convergence stereoscopique dans un equipement de prise de vue stereoscopique. |
US5065236A (en) * | 1990-11-02 | 1991-11-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects |
WO1994010604A1 (en) | 1992-10-29 | 1994-05-11 | Aea O´Donnell, Inc. | Automated stereoscopic image acquisition and storage system |
JPH0795623A (ja) * | 1993-06-25 | 1995-04-07 | Sanyo Electric Co Ltd | 立体撮像装置 |
EP0641132B1 (en) * | 1993-08-26 | 1999-04-14 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image pickup apparatus |
US5864360A (en) * | 1993-08-26 | 1999-01-26 | Canon Kabushiki Kaisha | Multi-eye image pick-up apparatus with immediate image pick-up |
JP3054002B2 (ja) | 1993-09-01 | 2000-06-19 | キヤノン株式会社 | 複眼撮像装置 |
US5978015A (en) * | 1994-10-13 | 1999-11-02 | Minolta Co., Ltd. | Stereoscopic system with convergence and dioptric power adjustments according to object distance |
US6414709B1 (en) * | 1994-11-03 | 2002-07-02 | Synthonics Incorporated | Methods and apparatus for zooming during capture and reproduction of 3-dimensional images |
JPH08191462A (ja) * | 1995-01-10 | 1996-07-23 | Olympus Optical Co Ltd | 立体映像再生装置および立体撮影装置 |
JPH08234339A (ja) * | 1995-02-28 | 1996-09-13 | Olympus Optical Co Ltd | 撮影用光学装置 |
US5532777A (en) * | 1995-06-06 | 1996-07-02 | Zanen; Pieter O. | Single lens apparatus for three-dimensional imaging having focus-related convergence compensation |
JPH10155104A (ja) * | 1996-11-22 | 1998-06-09 | Canon Inc | 複眼撮像方法及び装置並びに記憶媒体 |
US6292634B1 (en) * | 1998-06-25 | 2001-09-18 | Minoru Inaba | Stereo camera |
US6466746B2 (en) * | 1998-06-26 | 2002-10-15 | Minoru Inaba | Stereo camera |
US6388666B1 (en) * | 1998-10-27 | 2002-05-14 | Imax Corporation | System and method for generating stereoscopic image data |
JP2001016619A (ja) * | 1999-06-30 | 2001-01-19 | Canon Inc | 撮像装置、その輻輳距離決定方法、記憶媒体および光学装置 |
JP4428761B2 (ja) * | 1999-07-07 | 2010-03-10 | Hoya株式会社 | ステレオカメラ |
GB2354389A (en) * | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
EP1085769B1 (en) * | 1999-09-15 | 2012-02-01 | Sharp Kabushiki Kaisha | Stereoscopic image pickup apparatus |
US6701081B1 (en) * | 2000-06-06 | 2004-03-02 | Air Controls, Inc. | Dual camera mount for stereo imaging |
US20050041095A1 (en) * | 2003-05-07 | 2005-02-24 | Bernie Butler-Smith | Stereoscopic image acquisition device |
US8094927B2 (en) * | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
SG121898A1 (en) * | 2004-10-06 | 2006-05-26 | Generic Power Pte Ltd | System for 2-D and 3-D vision inspection |
DE202005006620U1 (de) | 2005-04-26 | 2005-06-23 | Friedrich, Frank | Kamerahalter für Stativ |
US20070146478A1 (en) * | 2005-07-14 | 2007-06-28 | Butler-Smith Bernard J | Stereoscopic 3D rig calibration and viewing device |
US20070140682A1 (en) * | 2005-07-14 | 2007-06-21 | Butler-Smith Bernard J | Two camera stereoscopic 3D rig improvements |
US7643748B2 (en) * | 2006-06-02 | 2010-01-05 | James Cameron | Platform for stereoscopic image acquisition |
US7899321B2 (en) * | 2009-03-23 | 2011-03-01 | James Cameron | Stereo camera with automatic control of interocular distance |
US8406619B2 (en) * | 2009-03-23 | 2013-03-26 | Vincent Pace & James Cameron | Stereo camera with automatic control of interocular distance |
-
2009
- 2009-03-23 US US12/409,316 patent/US8406619B2/en active Active - Reinstated
-
2010
- 2010-03-11 EP EP10756572.3A patent/EP2411869A4/en not_active Withdrawn
- 2010-03-11 WO PCT/US2010/026927 patent/WO2010111040A1/en active Application Filing
- 2010-03-11 CA CA2767037A patent/CA2767037A1/en not_active Abandoned
- 2010-03-11 JP JP2012502089A patent/JP5312676B2/ja not_active Expired - Fee Related
- 2010-03-11 AU AU2010229124A patent/AU2010229124A1/en not_active Abandoned
-
2013
- 2013-03-26 US US13/850,881 patent/US8666241B2/en active Active - Reinstated
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101859197B1 (ko) * | 2018-01-22 | 2018-05-21 | 주식회사 연시스템즈 | 실시간 입체 현미경 |
Also Published As
Publication number | Publication date |
---|---|
US20100238272A1 (en) | 2010-09-23 |
AU2010229124A1 (en) | 2011-11-10 |
CA2767037A1 (en) | 2010-09-30 |
JP2012521580A (ja) | 2012-09-13 |
WO2010111040A1 (en) | 2010-09-30 |
US8406619B2 (en) | 2013-03-26 |
EP2411869A4 (en) | 2015-05-06 |
US8666241B2 (en) | 2014-03-04 |
US20130208095A1 (en) | 2013-08-15 |
EP2411869A1 (en) | 2012-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5312676B2 (ja) | 瞳孔間距離の自動制御を有するステレオカメラ | |
US7899321B2 (en) | Stereo camera with automatic control of interocular distance | |
US8355627B2 (en) | 3D camera with foreground object distance sensing | |
JP5385470B2 (ja) | フレームリンクされた2d/3dカメラシステム | |
US8456518B2 (en) | Stereoscopic camera with automatic obstruction removal | |
US8655163B2 (en) | Consolidated 2D/3D camera | |
JP2012521717A (ja) | 制御可能な回動点を有する立体カメラ | |
MX2012010373A (es) | Camara stereo con modos preestablecidos. | |
AU2010307072B2 (en) | Integrated 2D/3D camera | |
US20110085142A1 (en) | Stereo Camera with Emulated Prime Lens Set |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130702 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |