JP5312676B2 - 瞳孔間距離の自動制御を有するステレオカメラ - Google Patents

瞳孔間距離の自動制御を有するステレオカメラ Download PDF

Info

Publication number
JP5312676B2
JP5312676B2 JP2012502089A JP2012502089A JP5312676B2 JP 5312676 B2 JP5312676 B2 JP 5312676B2 JP 2012502089 A JP2012502089 A JP 2012502089A JP 2012502089 A JP2012502089 A JP 2012502089A JP 5312676 B2 JP5312676 B2 JP 5312676B2
Authority
JP
Japan
Prior art keywords
distance
camera
convergence
stereoscopic image
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012502089A
Other languages
English (en)
Other versions
JP2012521580A (ja
Inventor
ジェームズ キャメロン
ヴィンセント ペイス
パトリック キャンベル
ロニー アラム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2012521580A publication Critical patent/JP2012521580A/ja
Application granted granted Critical
Publication of JP5312676B2 publication Critical patent/JP5312676B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本開示は立体視に関する。
[著作権とトレードドレスの表示]
本特許文書の開示の一部は、著作権保護の対象となるマテリアルを有している。本特許文書は、所有者のトレードドレスである、又は、トレードドレスとなりうる事項を表示、及び/又は、記載し得る。著作権及びトレードドレスの所有者は、特許商標局のファイル又は記録にあることから、本特許開示について任意の者によるファクシミリによる複製に対して拒否するものではないが、他の場合にはいかなる著作権及びトレードドレス権も全て留保する。
人間は環境を両眼視力を用いて立体的に見る。両眼視力とは、視覚系統と分析系統の両方である。人間の脳は、距離と速度の両方を、前方を向いて、横方向に分離しているそれぞれの網膜が受ける可視光情報により行われる三角測量に基づいて部分的に認識する。2つの目は前方を向いており、それぞれの視野は重複するため、同一の領域であってもそれぞれの目が認識するパースペクティブは僅かに異なる。目に近い対象物を見ようとすると、目は近づく方向に相互に回転する。遠方の対象物を見ようとすると、目は平行視する方向に回転する。目のそれぞれの視線の間に形成される角度を一般的に輻輳角という。輻輳角は、目に近い対象物を見る場合には大きくなるが、対象物の距離が遠くなると小さくなる。遠距離の対象物を見る場合、輻輳角は略ゼロとなり得る。輻輳角が略ゼロとは、視線は略平行であることを示す。
立体画像撮像とも呼ばれる3次元撮像は、少なくとも1838年にまで遡る。歴史的には、立体画像カメラは通常、2つのレンズを有し、この2つのレンズは、平均して略65mmという人間の目の間の平均的な距離と同様の距離に横方向に離間している。効果的なレンズ間距離は、瞳孔間距離として知られている。瞳孔間距離は、立体画像の見かけの深さに強い影響を及ぼす。眼間の間隔を広げると、立体画像の見かけの深さは増加する。眼間の間隔を狭めると、立体画像の見かけの深さを減少させる影響を及ぼす。
立体画像の提示は、一般的には、左目だけで見られる第1の画像と、右目だけで見られる第2の画像を提供することによって、実現する。2つの画像の間の差違、即ち、視差は、深さを錯覚させ得る。視差を有する2つの画像は3次元として認識され得る。2つの画像、あるいは、2つの部分画像が行き過ぎた視差を示す場合、3次元として認識されず、単に重複する2つの2次元画像として認識されることもある。一般に視差限界と呼ばれる、観察者が許容可能な視差量は、観察者の間で異なる。視差限界はまた、対象物の大きさ、画像内の対象物の近さ、対象物の色、及び、画像内の対象物の運動速度などの画像内容によって異なることも知られている。観察者の目の視線の間の角度で表される視差限界は、通常の立体画像では、略12〜15分角であってもよい。
偏光、フィルタ、メガネ、プロジェクタ、シャッタを含む様々な技術が、それぞれの目に適当な画像のみが見えるように、それぞれの目を制限するために用いられている。
立体画像を表示するための一つのアプローチは、第1の偏光状態を有する光を用いて観察画面に左目画像を結像し、第1の偏光状態と直交する第2の偏光状態を有する光を用いて同一の観察画面に右目画像を結像する。これらの画像を偏光レンズを有するメガネを用いて、左目は第1の偏光状態の光のみを受けて、右目は第2の偏光状態の光のみを受けるようにして、見ることができる。この種の立体表示は、通常、共通の投影画面に二つの偏光画像を投影する。この技術は3次元動画を提示するために用いられている。
立体画像を表示するための第2のアプローチは、共通の観察画面に左目画像と右目画像を、高いレートで交互に切り替えて表示する。これらの画像は、交互に切り替わる画像と同期して右目又は左目を遮蔽するシャッタメガネを用いて見ることができる。
ある環境における立体画像カメラの概略図である。 前景対象物を含む環境の立体画像カメラの概略図である。 立体画像カメラによって撮像された画像の説明図である。 共通の観察画面に提示された図2の画像の説明図である。 立体画像カメラシステムのブロック図である。 算出デバイスのブロック図である。 立体画像を記録する処理のフローチャートである。
本明細書では、各図面の構成要素に3桁の参照番号を付番している。最上位桁の番号は図番を表し、下位2桁の番号は個別の構成要素を特定する。図面で記載されていない構成要素については、下位2桁の番号と同一の参照番号を有する既に説明した構成要素と同一の特徴及び機能を有するとみなしてもよい。左目又は右目の何れに対しても同様の機能を有する構成要素には、同一の参照番号に加えて「L」又は「R」の添え字を付けて、それぞれが左目又は右目を示すようにした。
図1に示すように、立体画像カメラ100は、左側カメラ110Lと右側カメラ110Rとを含むことができる。ここで「カメラ」とは、対象物の画像を結像するための光学システムを有する任意のデバイスと、この画像を受け、検出し、及び/又は、記録するための媒体を含むものをいう。左側カメラと右側カメラは、フィルムカメラでもよく、又は、デジタル静止画像カメラでもよく、映画撮影用フィルムカメラでもよく、又は、映画撮影用デジタルカメラでもよく、ビデオカメラでもよい。左側カメラ110Lと右側カメラ110Rは、瞳孔間距離IODで離間している。左側カメラ110Lと右側カメラ110Rの各々は、レンズ112L、112Rを含んでもよい。「レンズ」とは、任意の画像結像光学システムを含むものをいい、透明な屈折光学素子の組み合わせに限定されない。レンズは、屈折型、回折型、及び/又は、反射型光学素子を用いてもよく、これらの組み合わせを用いてもよい。各レンズは、各カメラ110L、110Rの画角中心を画定する軸115L、115Rを有してもよい。
カメラ110L、110Rは、軸115L、115Rが平行となるように、又は、2軸115L、115Rが輻輳角Θを形成するように配置することができる。カメラ110L、110Rは、軸115L、115Rがカメラからの輻輳距離CDで公差するように配置してもよい。瞳孔間距離IOD、輻輳距離CD、及び、輻輳角Θは、以下の式の関係になる。
Θ = 2ATAN(IOD/2CD) (1)、又は、
CD = IOD/[2TAN(Θ/2)] (2)
瞳孔間距離IODと輻輳距離CDは、レンズ112L、112Rの各々の内部の節点から測定することができる。かかる節点はレンズ112L、112Rの各々の内部の入射瞳の中心とすることができる。入射瞳は、レンズ112L、112Rの正面近く位置することができ、従来、瞳孔間距離IOD及び輻輳距離CDはレンズ112L、112Rの正面から測定することができる。
立体画像カメラ100を用いてシーン105の立体画像を結像してもよい。図1の単純例では、シーン105は、例えば、人間として示される主要被写体130を含んでもよい。シーン105は、背景(主要被写体の後方)にその他の特徴物と対象物を含んでもよい。カメラ110L、110Rから、例えば、木などの最も遠い背景対象物140までの距離を、極限対象物距離EODと呼ぶ。
立体画像カメラ100などの立体画像カメラからの画像が観察画面に表示されると、輻輳距離のシーン対象物は観察画面の平面上に見ることができる。図1の例では、立体画像カメラにより近い主要被写体130などのシーン対象物は、観察画面の前方に見ることができる。立体画像カメラからより遠方の木140などのシーン対象物は、観察画面の後方に見ることができる。
レンズ112L、112Rの各々は焦点を調整可能である。立体画像カメラは、2つのレンズ112L、112Rが共通の調整可能な集束距離FDで合焦するように、2つのレンズの焦点を同期して調整する焦点調整機構を有することができる。焦点調整機構は、2つのレンズ112L、112Rの焦点を機械的に、電気的に、電気機械的に、電子的に、又はその他の連結機構によって連結することができる。集束距離FDは、手動で調整してもよく、自動で調整してもよい。カメラ110L、110Rが、主要被写体130に焦点を合わせられるように、集束距離FDを調整してもよい。集束距離は、カメラ110L、110Rから主要被写体130までの距離を決定するセンサ(図示されていない)に応じて自動的に調整してもよい。カメラ110L、110Rから主要被写体130までの距離を決定するセンサは、音響レンジファインダー、光学又はレーザレンジファインダーでもよく、あるいは、その他の距離測定装置であってもよい。カメラ110L、110Rが、デジタル静止画像カメラ、モーションピクチャカメラ、又はビデオカメラである場合、集束距離は、カメラによって検知された1枚又は2枚の画像を分析する1以上のプロセッサ(図示されてない)に応じて調整してもよい。プロセッサは、カメラの中に配置されてもよいし、又は、カメラと接続されてもよい。
輻輳距離CDと集束距離FDは共通して同一の距離に設定することができる。同一の距離とは、カメラ110L、110Rから主要被写体130までの距離でもよい。しかしながら、図1に示すように、輻輳距離CDと集束距離FDは同一の距離でなくてもよい。例えば、集束距離FDは、カメラから主要被写体までの距離に設定し、輻輳距離CDは、集束距離よりも僅かに長く設定してもよい。この場合、画像が表示される際、主要被写体は、観察画面の面の前方に見えるようになる。輻輳距離CDと集束距離FDの差異は、調整可能又は所定のオフセットとしてもよい。輻輳距離が以下の式で算出されるとした場合、このオフセットは絶対値とすることができる。
CD = FD + α (3)
ここで、αは、絶対寸法としてのオフセットである。輻輳距離が以下の式で算出されるとした場合、オフセットは相対的としてもよい。
CD = (FD)(I + β) (4)
ここでβは、FDの割合としてのオフセットである。例えば、絶対オフセットαは、1フィート又は2メートルなどの距離測定値でよく、相対オフセットβは、5%又は10%などの関係、即ち比として表すことができる。CD=FDの場合、絶対オフセットと相対オフセットはゼロとすることができる。
各レンズ112L、112Rはズーム機能を有してもよく、即ち、各レンズの焦点距離FLを調整可能としてもよい。立体カメラ100は、2つのレンズ112L、112Rが常時正確に同一の焦点距離を有することができるように2つのレンズの焦点距離を同期して調整する焦点距離調整機構を有することができる。2つのレンズ112L、112Rの焦点距離の調整は機械的、電気的、電子的、電気機械的、又は、その他の連結機能によって連結してもよい。一般的に、レンズ112L、112Rの焦点距離は手動で調整してもよい。2つのレンズ112L、112Rの焦点距離は、所定の状況に応じて自動で調整してもよい。
図2に示すように、立体画像カメラ200は、それぞれがレンズ212L、212Rを有する、左側カメラ210Lと右側カメラ210Rとを含む立体画像カメラ100でもよい。左側カメラ210Lと右側カメラ210Rは、フィルムカメラでもよく、又は、デジタルスチルカメラでもよく、モーションピクチャフィルムカメラでもよく、ビデオカメラでもよい。左側カメラ210Lと右側カメラ210Rは、瞳孔間距離IODで離間している。各レンズは、各カメラ210L、210Rの画角中心を画定する軸215L、215Rを有してもよい。カメラ210L、210Rは、軸215L,215Rがカメラからの輻輳距離CDで交差するように、配置することができる。
立体画像カメラ200を用いてシーン205の立体画像を結像してもよい。図2の単純例では、シーン205は、例えば、人間として示される主要被写体230を含んでもよい。シーン205は、背景と前景にその他の特徴物と対象物を含んでもよい。カメラ210L、210Rから、例えば、木などの最も遠い背景対象物240までの距離を、最大対象物距離MODと呼ぶ。カメラ210L、210Rから、例えば、植物などの最も近い前景対象物245までの距離を、最小対象物距離mODと呼ぶ。
シーン205を立体表示して提示すると、MOD、CD及びmODの関係に応じて、前景対象物245、背景対象物240の何れかの画像が、最大の視差を有するようになる。
図3に、左側カメラによって撮像した代表的な画像を、画面320Lに表示し、右側カメラによって撮像した代表的な画像を、第2の画面320Rに表示した場合の例示を示す。画面320Lに表示された画像は、表示画面の中央近くに主要被写体の画像330Lと、画像330Lの左側に極限背景対象物の画像340Lと、を含む。画面320Rに表示された画像は、表示画面の中央近くに主要被写体の画像330Rと、画像330Rの右側に極限背景対象物の画像340Rと、を含む。
観察者が左目と右目でこれら2つの画像を別々に見ると、左側画像320Lと右側画像320Rの対応する対象物の位置の差、又は、視差は、奥行きに錯覚をもたらすことができる。しかし、奥行きの錯覚を保つためには、最大視差は、観察者と画像の両方に依存し得る限界値を超えてはならない。図3の例では、最大視差は、極限背景対象物の画像340L、340Rの間に生じる。
図4に示すように、立体画像カメラ100などの立体画像カメラによって撮像された左側画像と右側画像を単一の表示画面420に提示することができる。右目によって見える画像(実線で示す)と左目によって見える画像(点線で示す)とは、偏光メガネ、シャッタメガネ、又はその他の上述の何らかの方法を用いることにより、観察者425の目で分離することができる。木の画像440L、440Rなどの左側画像と右側画像の対応する対象物の間の視差距離DDは、観察者の左目及び右目から対象物への視線間の視差角度Φとして観察者425によって認識され得る。観察者425によって認識される視差角度Φの値は、以下の式で求めることができる。
Φ = ATAN(DD/VD) (5)
ここで、DDは、左側画像と右側画像の対応する対象物の間の視差距離であり、VDは、観察者425から表示画面420への視距離である。
Φは、(TAN Φ = Φなど)小さい角度に制限する必要があるため、最大許容視差距離は以下の式によって定義することができる。
DDmax = Φmax x VD
Φmaxは、最大許容角視差である。
立体画像記録がなされた時点で、視距離VDは知られていなかった可能性があるので、視距離VDは、少なくともある程度まで、表示画面420のサイズに比例すると仮定することができる。例えば、映画テレビ技術者協会(SMPTE)は、最適な視聴として、ホームシアターのディスプレイの幅を、表示画面の幅の1.87倍の視距離に対応する、観察者の目で30度の角度の範囲とすることを推奨している。家庭とシアターの視距離は、推奨される距離よりも一般的に大きいので、画面の幅の2.0〜5.0倍となり得る。
視距離VDは、画面幅Wの倍数であると仮定できるので、立体表示において対応する画像の間の最大視差距離は、表示幅の比として、以下のように表すことができる。
Figure 0005312676
ここで、Kは、画面幅に対する視距離の比である。例えば、視距離を画面幅の2.3倍と仮定すると、最大視差角度である15分角は、画面幅の1%の最大視差距離に変換することができる。
図5に示すように、立体画像カメラシステムは、コントローラ560に連結したカメラプラットフォーム550を有することができる。カメラプラットフォーム550は、各々が対応するレンズ512L、512Rを有する左側カメラ510Lと右側カメラ510Rとを備えることができる。カメラプラットフォームは、左側カメラ510Lと右側カメラ510Rとの間の瞳孔間距離を調整するためのIOD機構552を含むことができる。カメラプラットフォームは、左側カメラ510Lと右側カメラ510Rとの間の輻輳角を調整するためのΘ機構554を含むことができる。IOD機構552とΘ機構554の両方は、モータ又はその他のアクチュエータと連結した、1以上の可動プラットフォーム又はステージを含むことができる。IOD機構552とΘ機構554は、コントローラ560から受信したデータに従って、瞳孔間距離と輻輳角をそれぞれ設定するようにしてもよい。本特許明細書において、「データ」とは、デジタルデータ、コマンド、インストラクション、デジタル信号、アナログ信号、光信号、及び、瞳孔間距離又は輻輳角などのパラメータの値を通信するために使用することができるその他の任意のデータを含む。
カメラプラットフォーム550は、レンズ512L、512Rの集束距離を同期して調整及び設定する集束機構556を含むことができる。集束機構556は、2つのレンズの集束距離が同一の値となるように同時に調整を行うレンズ512L、512Rの間の機械的、電子的、電気的、又は、電気機械的連結部を含むことができる。集束機構556は、コントローラ560から受けたデータに応じて集束距離を設定するように構成された、モータ又その他のアクチュエータを含むことができる。集束機構556は、カメラマン又はアシスタントカメラマンなどのオペレータ(共通して「フォーカスプラー」とも呼ぶ)が手動で制御してもよい。手動制御とする場合、集束機構556は、コントローラ560に集束距離を示すデータを提供するためのエンコーダ、ポテンショメータ、又は、その他のセンサを含んでもよい。集束機構556は、手動制御で、及び/又は、コントローラ560から受けたデータに応じて動作するように構成することができる。
カメラプラットフォーム550は、レンズ512L、512Rの焦点距離を同期して調節し設定するズーム機構558を含むことができる。ズーム機構558は、2つのレンズ512L、312Rの焦点距離が同一の値となるように同時に調整を行うレンズ512L、512Rの間の機械的、電子的、電気的、又は、電気機械的連結部を含むことができる。ズーム機構558は、コントローラ560から受けたデータに応じて焦点距離を設定するように構成された、モータ又その他のアクチュエータを含むことができる。ズーム機構558は、カメラマン又はアシスタントカメラマンなどのオペレータが手動で制御してもよい。手動で制御する場合、ズーム機構558は、コントローラ560に焦点距離を示すデータを提供するためのエンコーダ、ポテンショメータ、又は、その他のセンサを含んでもよい。ズーム機構558は、手動制御で、又は、コントローラ560から受けたデータに応じて動作するように構成することができる。
コントローラ560は、距離測定装置565からデータを受けることができる。距離測定装置は、最も近い前景対象物との距離及び/又は最も遠い背景対象物との距離を示すデータを提供することができる。距離測定装置565は、巻き尺又は、その他の手作業で行う測定具など簡単なものでもよく、オペレータはこれを使用して距離データを、キーボード又はその他のデータ入力装置(図示していない)を用いて、コントローラに提供するようにしてもよい。距離測定装置565は、レーザレンジファインダー、音響レンジファインダー、光学式レンジファインダー、又は、専用の接続部又はネットワークを介してコントローラ560とインタフェースすることができるその他の距離測定装置でもよい。
距離測定装置565は、独立した装置でなくてもよく、オペレータ及び/又はコントローラ560の制御で動作するカメラプラットフォーム550でもよい。距離を測定する場合、カメラ510L、510Rの間の輻輳角を、カメラ510L、5150Rによって撮像された画像が前景対象物又は背景対象物をカバーするように、自動、又は、オペレータの制御によって調整してもよい。前景又は背景対象物との輻輳距離は、カメラ510L、5150Rの間の輻輳角及び瞳孔間距離から上述の式を用いて算出することができる。カメラプラットフォームを用いて距離を測定する場合の精度を最大とするため、瞳孔間距離を一時的に最大値に設定してもよい。
コントローラ560は、オペレータインタフェース562に連結してもよい。コントローラ560は、上述のように、オペレータインタフェース562から集束輻輳オフセットを示すデータを受信するようにしてもよい。コントローラ560は、オペレータインタフェース562から、最大許容視差を示すデータを受信してもよい。コントローラ560はまた、オペレータインタフェース562から、レンズ512L、512Rの集束距離及び焦点距離を示すデータを受信してもよい。
オペレータインタフェース562は、カメラプラットフォーム550に部分的に又は全体的に組み込まれていてもよい。オペレータインタフェース562は、カメラプラットフォーム550の近くにあってもよく、又は、部分的に又は全体的にカメラプラットフォームの遠隔にあってもよい。例えば、集束機構556及び/又はズーム機構558は、カメラマン、及び/又は、アシスタントカメラマンなどの1以上のオペレータが手動で制御してもよい。この場合、集束機構556及び/又はズーム機構558はコントローラ560に、手動で設定した集束距離及び/又は焦点距離を示すデータを提供することができる。同様に、集束輻輳オフセット及び/又は最大許容視差を設定する制御アクチュエータは、カメラマン及び/又はアシスタントカメラマンによる操作のためカメラプラットフォームに配置してもよい。
オペレータインタフェース562は、コントローラ560に部分的に又は全体的に組み込まれてもよい。例えば、集束輻輳オフセット及び/又は最大許容視差をシーンの記録時に固定とした状況では、集束輻輳オフセット及び/又は最大許容視差を、キーボード又はその他のデータ入力装置を用いてコントローラに手動で供給してもよい。シーンの記録時に集束輻輳オフセット及び/又は最大許容視差の一つ又は両方を可変とする状況では、集束輻輳オフセット及び/又は最大許容視差を、例えば、キーボードの矢印キー、又は、ポテンショメータ、ジョイスティック、又はマウスなどの1以上の連続制御デバイスを用いて制御することができる。
コントローラ560は、カメラプラットフォーム550とインタフェースすることができる。コントローラ560は、カメラプラットフォーム550と一体でもよい。コントローラは、レンズ512L、512Rのそれぞれの集束距離及び焦点距離を示すデータを集束機構556及びズーム機構558に供給する、及び/又は、集束機構556及びズーム機構558から受け取ることができる。コントローラ560はIOD機構552及びΘ機構554に、カメラ510L、510Rの間の輻輳角及び瞳孔間距離のそれぞれを設定するためのデータを提供することができる。コントローラ560はIOD機構552及びΘ機構554に、レンズ512L、512Rの集束距離と焦点距離、集束輻輳オフセット、最大許容視差、及び、最も近い前景対象物との距離、及び/又は、最も遠い背景対象物との距離に基づくデータを提供することができる。コントローラ560はIOD機構552に、記録した画像の最大視差が最大許容視差の値を超えることのないように、瞳孔間距離を設定するためのデータを提供することができる。
コントローラ560は、カメラプラットフォーム550及びオペレータインタフェース562と、ローカルエリアネットワークなどのネットワーク、USBバス、PCIバス、PCI Expressバス、又はその他のパラレル又はシリアルデータバスなどの1以上のバス、又は、1以上の直接有線接続又は無線接続を介して連結されてもよい。コントローラ560は、カメラプラットフォーム550及びオペレータインタフェース562と、1以上の直接接続、ネットワーク接続、及びバス接続の組み合わせによって連結してもよい。
図6は、コントローラ560に好適となりうる算出デバイス660のブロック図である。ここで、算出デバイスとは、インストラクションを実行することができる、プロセッサと、メモリと、ストレージデバイスを有する任意のデバイスを意味する。かかる算出デバイスは、これに限定されないが、パーソナルコンピュータ、サーバコンピュータ、コンピューティングタブレット、セットトップボックス、ビデオゲームシステム、パーソナルビデオレコーダ、電話、PDA(personal digital assistant)、ポータブルコンピュータ、及びラップトップコンピュータを含む。算出デバイス660は、以下に説明する処理を実行するためのハードウェア、ファームウェア、及び/又は、ソフトウェアを含むことができる。算出デバイス660は、メモリ666とストレージデバイス668とに接続したプロセッサ664を含むことができる。
ストレージデバイス668は、算出デバイス660によって実行されると、算出デバイスに、コントローラ560の機能と特徴を実現させ得るインストラクションを保存することができる。本書でストレージデバイスとは、ストレージ媒体からの読み出し、及び/又は、ストレージ媒体への書き込みを行うことができるデバイスである。ストレージデバイスは、ハードディスクドライブ、DVDドライブ、フラッシュメモリデバイスなどを含む。各ストレージデバイスは、ストレージ媒体を受け付けることができる。これらのストレージ媒体は、例えば、ハードディスク、フロッピー(登録商標)ディスク、テープなどの磁気メディア、コンパクトディスク(CD−ROM及びCD−RW)、デジタル多用途ディスク(DVD及びDVD+RW)などの光メディア、フラッシュメモリカード、及びその他のストレージ媒体を含む。メタデータライブラリ190は、ストレージサーバ(図示していない)又はその他の算出デバイスを含んでもよい。
算出デバイス660は、ディスプレイデバイス670、及び、キーボード672などの1以上の入力デバイスを含む、又は、それらとのインタフェースすることができる。算出デバイス660は、1以上のネットワーク676とインタフェースするネットワークインタフェースユニット674を含むこともできる。ネットワークインタフェースユニット674は、ネットワーク676と有線又は無線接続を介してインタフェースすることもできる。ネットワーク676は、インターネット又はその他のプライベートネットワーク又は公共ネットワークでもよい。
算出デバイス660は、距離測定装置665から距離データを受けることができる。算出デバイス660は、距離測定装置665と専用線接続又は無線接続によって、又はネットワークを介して接続してもよい。算出デバイス660は、距離データを距離測定装置665から、キーボード672などの入力デバイスを使用して距離データを入力することができるオペレータ(図示していない)を介して受けてもよい。
算出デバイス660は、また、カメラプラットフォーム650とインタフェースするカメラインタフェースユニット678、及び/又は、カメラオペレータインタフェース662を含んでもよい。カメラインタフェースユニット678は、カメラプラットフォーム650及び/又はカメラオペレータインタフェース662とインタフェースする回路、ファームウェア、及び、ソフトウェアの組み合わせを含んでもよい。カメラインタフェースユニット678は、カメラプラットフォーム650及び/又はカメラオペレータインタフェース662と、ローカルエリアネットワークなどのネットワークを介して、又は、USBバス、PCIバス、PCI Expressバス、又はその他のパラレル又はシリアルデータバスなどの1以上のバスを介して、又は、1以上の直接有線接続又は無線接続を介して連結されてもよい。カメラインタフェースユニット678は、カメラプラットフォーム650及び/又はカメラオペレータインタフェース662と、1以上の直接接続、ネットワーク接続、及びバス接続の組み合わせによって連結してもよい。
算出デバイス660の処理、特徴、及び機能はソフトウェアに、ファームウェア、アプリケーションプログラム、アプレット(例えば、ジャバアプレット)、ブラウザープラグイン、COMオブジェクト、DLL(dynamic linked library)、スクリプト、1以上のサブルーチン、又は、オペレーティングシステムコンポーネント又はサービスの形態で全体的に、又は部分的に組み込むことができる。算出デバイス660は、既に説明したように1以上のソフトウェアプログラムを作動してもよく、例えば、Linux(登録商標)、Unix(登録商標)、MS−DOS(登録商標)、Microsoft Windows(登録商標)、Palm OS(登録商標)、Solaris(登録商標)、Symbian(登録商標)、及びApple Mac OS X(登録商標)のオペレーティングシステムのバージョンを含むオペレーティングシステムを作動してもよい。ハードウェアとソフトウェア、及びそれらの機能は、いくつかの機能がプロセッサ664によって実行され、その他の機能が他のデバイスによって実行されるように分散してもよい。
処理の説明
図7は、立体画像カメラ500などの立体画像カメラシステムを用いて立体画像を記録するための代表的な処理780のフローチャートである。具体的には、図7は、シーン105などの、前景対象物のないシーンを記録する処理のフローチャートである。フローチャートは、任意の一つのシーンに対して開始782と終了798を有するが、処理780は事実上、連続しており、処理中の動作は、シーンの記録時、連続して、又は、略リアルタイムで実行してもよい。さらに、処理780は記録する各シーンごとに繰り返してもよい。
本書において、「略リアルタイム」とは、シーンを記録するテンポラルイベントと比較して極めて短い処理遅延を除いたリアルタイムのことを意味する。
784では、極限対象物距離(EOD)、即ち、立体画像カメラから最も遠いシーンの中の対象物との距離を測定することができる。EODは、巻き尺又はその他の手作業で行う測定具などによって測定し、オペレータはこの距離データを、キーボード又はその他のデータ入力デバイスを用いて立体画像カメラシステムに入力する。EODは、レーザレンジファインダー、音響レンジファインダー、光学式レンジファインダー、又は、専用の接続部又はネットワークを介して立体画像カメラシステムとインタフェースすることができるその他の距離測定装置で測定してもよい。既に説明したように、立体画像カメラシステム自体を距離測定装置として用いてEODを測定してもよい。
立体画像カメラを背景に対して固定したままシーンを記録する場合、EODは記録開始前に一度測定すればよい。シーンを記録している記録期間中、EODは一定として考慮することができる。
記録期間中、立体画像カメラと背景との一方が他方に対して移動しているシーンを記録する場合、EODは、レーザレンジファインダー、光学式レンジファインダー、音響レンジファインダー、又は、立体画像カメラと接続したその他の距離測定装置で連続的に、又は、略リアルタイムで測定してもよい。
786において、立体画像カメラシステムは、立体画像カメラのレンズの集束距離、集束距離(focal distance)―輻輳距離オフセット、最大許容視差、レンズのズーム値又は焦点距離を示す入力を受け付けることができる。最大許容視差、集束距離(focal distance)―輻輳距離オフセット、集束距離、及び焦点距離は、カメラマン、アシスタントカメラマン、又はディレクターなどの1以上のオペレータによって設定することができる。焦点距離は一般的にアシスタントカメラマンなどのオペレータが設定することができる。しかしながら、主要シーン対象物との距離は、レーザ式、音響式、光学式又はその他の距離測定装置を用いてリアルタイムに測定してもよい。焦点距離は、カメラレンズが主要シーン対象物に合焦するように、リアルタイム測定に応じて自動的に設定されるようにしてもよい。
最大許容視差、集束距離(focal distance)−輻輳距離オフセット、集束距離、及び焦点距離を表す入力は、手動で入力されたデータ、アナログ又はデジタル信号、ネットワークを介して受信されたデータの形式で受け付けるようにしてもよい。
788において、輻輳距離CDは、集束距離及び集束距離―輻輳距離オフセットの入力に基づいて算出することができる。輻輳距離は、上述の式(3)又は式(4)を用いて算出することができる。
790において、瞳孔間距離IODを算出し、設定することができる。IODは、784で測定した極限対象物距離、786で受け付けた最大許容視差の入力と焦点距離の入力、及び、788で算出した輻輳距離に基づいて算出することができる。IODは、以下の式を用いて算出することができる。
IOD = [Arctangent(W/FL) x EOD x CD x MD x 2]/(EOD − CD) (7)
ここで、
IODは瞳孔間距離であり、
Wは、各カメラの内部の画像センサの幅であり、
FLは、レンズの焦点距離であり、
EODは、極限対象物距離であり、
MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
CDは、輻輳距離である。
792において、輻輳角Θを算出し、設定することができる。輻輳角Θは、上述の式(1)を用いて輻輳距離CDと瞳孔間距離IODから算出することができる。
輻輳距離CD、瞳孔間距離IOD、輻輳角Θは、コントローラ560などのコントローラによって算出することができる。IOD及び輻輳角Θは、コントローラによって提供されたデータに応じて、カメラプラットフォーム550などのカメラプラットフォームによって設定してもよい。コントローラは算出デバイス660などの算出デバイスでもよい、
794において、シーンの記録が完了したか否かの判定を行うことができる。記録が実行中である場合、MODがシーン中一定であるのならば、処理780を786から連続的に略リアルタイムに繰り返すことができ、また、MODがシーン中変化するのであれば、処理780を(点線で示すように)784から連続的に略リアルタイムに繰り返すことができる。シーンの記録が完了すると、処理780は、798で終了することができる。続けて、次のシーンを記録する処理780を782から再び開始してもよい。
結辞
本書において、実施の形態と例は、例示として考慮されるべきであって、本書が開示する装置、手順、又は特許請求の範囲を限定するものではない。本書で説明する多くの例は個別の実施の形態の方法動作、システム構成部の特定の組み合わせによって提示されているが、これらの動作及び構成部は、同一の目的を実現するための他の手法で組み合わせてもよい。フローチャートについては、ステップを追加又は削減してもよく、本書が説明する方法を実行するため、ここで表示したステップを組み合わせ、さらに改良してもよい。一実施の形態と関連してのみ構成部、動作、特徴について説明したが、他の実施の形態において類似の役割を果たすことを排除する意図はない。
特許請求の範囲のミーンズプラスファンクションの記載であるが、本書の当該機能を実行するための手段に限定することを意図したものではなく、当該機能を実行するための、現在知られている、あるいは、今後開発されるいかなる手段をも範囲に含むことを意図するものである。
本書において「複数」とは、2以上を意味する。
本書において項目の「群」とは、かかる項目の1以上を含んでもよい。
本書において、明細書又は特許請求の範囲において、「含む」、「有する」、「備える」などの用語は、オープンエンド形式として理解されるべきであり、限定的に解釈されるべきでない。特許請求の範囲において「〜からなる」、「基本的に〜からなる」の移行句は、それぞれ、クローズドエンドとセミクローズドエンドである。
特許請求の範囲において「第1」、「第2」、「第3」などの特許請求の範囲の要素を修飾する序数は、特許請求の範囲の要素の他の要素に対する優先度、順番、順位、又は方法の動作を実行する時間的な順序を意味するものではなく、ある名称を有する特許請求の範囲の要素と(序数を除いて)同一の名称を有する特許請求の範囲の要素を相互に区別するための指標として用いるにすぎない。
本書において、「及び/又は」は、列挙された項目は択一的であるが、これらの択一的な項目がまた、列挙された項目の組み合わせを含むことも意味する。

Claims (16)

  1. それぞれがレンズ(512L、512R)を含む左側カメラ(510L)と右側カメラ(510R)と、
    前記レンズの焦点距離を同期して設定し、前記レンズの集束距離(focal distance)を同期して設定し、前記左側カメラと前記右側カメラの間の輻輳角を設定し、前記左側カメラと前記右側カメラの間の眼球距離を設定する複数の機構(558、556、554、552)と、
    極限対象物距離を測定する距離測定装置(565)と、
    最大許容視差、前記レンズの焦点距離、及び前記レンズの集束距離を表す入力を受け付け、
    前記眼球距離を、前記極限対象物距離、前記最大許容視差、前記焦点距離、及び輻輳距離から算出した値に設定し、
    前記輻輳角を、前記眼球距離及び前記輻輳距離から算出した値に設定する動作を実行する回路とソフトウェアとを含むコントローラ(560)と、
    を備えた立体画像カメラシステム(100)。
  2. 前記コントローラにより実行される動作は、リアルタイムに連続して実行される、請求項1記載の立体画像カメラシステム。
  3. 前記瞳孔間距離は、以下の式を用いて算出され、
    IOD = [Arctangent(W/FL) x EOD x MD x 2]/(EOD − CD)
    ここで、
    IODは瞳孔間距離であり、
    Wは、各カメラの内部の画像センサの幅であり、
    FLは、レンズの焦点距離であり、
    EODは、極限対象物距離であり、
    MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
    CDは、輻輳距離である、請求項1記載の立体画像カメラシステム。
  4. 前記輻輳距離CDの距離は、以下から選択した一つの式を用いて集束距離FDから算出し、
    CD = FD、
    CD = FD + α、及び
    CD = FD(I + β)、
    α及びβは、オペレータが定義する値である、
    請求項1記載の立体画像カメラシステム。
  5. 立体画像カメラを制御する方法(780)であって、該方法は、
    極限対象物距離を決定するステップ(784)と、
    最大許容視差と、左側カメラと右側カメラに対応する左側レンズと右側レンズの焦点距離と、前記左側レンズと右側レンズの集束距離を表す入力を受け付けるステップ(786)と、
    前記左側カメラと右側カメラの間の眼球距離を前記極限対象物距離、前記最大許容視差、前記焦点距離、及び輻輳距離から算出した値に設定させるステップ(790)と、
    前記左側カメラと右側カメラの視線の間の輻輳角を前記眼球距離及び前記輻輳距離から算出した値に設定させるステップ(792)と、
    を含む、方法。
  6. 前記方法は、略リアルタイムに連続して実行される、請求項5記載の立体画像カメラを制御する方法。
  7. 前記瞳孔間距離は、以下の式を用いて算出され、
    IOD = [Arctangent(W/FL) x EOD x MD x 2]/(EOD − CD)
    ここで、
    IODは瞳孔間距離であり、
    Wは、各カメラの内部の画像センサの幅であり、
    FLは、レンズの焦点距離であり、
    EODは、極限対象物距離であり、
    MDは、立体画像カメラによって記録された画像の幅に対する最大視差であり、
    CDは、輻輳距離である、請求項5記載の立体画像カメラを制御する方法。
  8. 前記輻輳距離CDは、以下から選択した一つの式を用いて集束距離FDから算出し、
    CD = FD、
    CD = FD + α、及び
    CD = FD(I + β)、
    α及びβは、オペレータが定義する値である(788)、
    請求項5記載の立体画像カメラを制御する方法。
  9. 前記瞳孔間距離は、シーンの記録時に変化する、
    請求項5記載の立体画像カメラを制御する方法。
  10. 前記集束距離及び前記焦点距離の少なくとも一つは、シーンの記録時に変化する、
    請求項9記載の立体画像カメラを制御する方法。
  11. 最大視差は、前記シーンの記録時に変化する、
    請求項9記載の立体画像カメラを制御する方法。
  12. 前記最大許容視差、前記焦点距離、及び前記集束距離を表す入力はオペレータインタフェースから受け付けられる、
    請求項5記載の立体画像カメラを制御する方法。
  13. 立体画像カメラを制御する算出デバイス(660)であって、
    該算出デバイスは、
    プロセッサ(664)と、
    前記プロセッサと連結したメモリ(666)と、
    実行されると、前記算出デバイスに、
    極限対象物距離、最大許容視差、左側カメラと右側カメラに対応するレンズの焦点距離、及び、前記レンズの集束距離を表す入力を受け付ける動作(786)と、
    前記極限対象物距離、前記最大許容視差、前記焦点距離、及び輻輳距離から算出された、前記左側カメラと前記右側カメラの間の瞳孔間距離を規定するデータを出力する動作(790)と、
    眼球距離及び前記輻輳距離から算出された、前記左側カメラと前記右側カメラの間の輻輳角を規定するデータを出力する動作と、
    を実行させるインストラクションを保存したストレージ媒体(668)と、
    を含む、算出デバイス。
  14. 前記算出デバイスによって実行される動作は、リアルタイムに連続して実行される、請求項13記載の立体画像カメラを制御する算出デバイス。
  15. 前記瞳孔間距離は、以下の式を用いて算出され、
    IOD = [Arctangent(W/FL) x EOD x MD x 2]/(EOD − CD)
    ここで、
    IODは瞳孔間距離であり、
    Wは、各カメラの内部の画像センサの幅であり、
    FLは、レンズの焦点距離であり、
    EODは、極限対象物距離であり、
    MDは、立体画像カメラによって記録されたシーンの幅の比としての最大視差であり、
    CDは、輻輳距離である、請求項13記載の立体画像カメラを制御する算出デバイス。
  16. 前記輻輳距離CDは、以下から選択した一つの式を用いて集束距離FDから算出し、
    CD = FD、
    CD = FD + α、及び
    CD = FD(I + β)、
    α及びβは、オペレータが定義する値である、
    請求項13記載の立体画像カメラを制御する算出デバイス。
JP2012502089A 2009-03-23 2010-03-11 瞳孔間距離の自動制御を有するステレオカメラ Expired - Fee Related JP5312676B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/409,316 US8406619B2 (en) 2009-03-23 2009-03-23 Stereo camera with automatic control of interocular distance
US12/409,316 2009-03-23
PCT/US2010/026927 WO2010111040A1 (en) 2009-03-23 2010-03-11 Stereo camera with automatic control of interocular distance

Publications (2)

Publication Number Publication Date
JP2012521580A JP2012521580A (ja) 2012-09-13
JP5312676B2 true JP5312676B2 (ja) 2013-10-09

Family

ID=42737206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012502089A Expired - Fee Related JP5312676B2 (ja) 2009-03-23 2010-03-11 瞳孔間距離の自動制御を有するステレオカメラ

Country Status (6)

Country Link
US (2) US8406619B2 (ja)
EP (1) EP2411869A4 (ja)
JP (1) JP5312676B2 (ja)
AU (1) AU2010229124A1 (ja)
CA (1) CA2767037A1 (ja)
WO (1) WO2010111040A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859197B1 (ko) * 2018-01-22 2018-05-21 주식회사 연시스템즈 실시간 입체 현미경

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG138491A1 (en) * 2006-06-21 2008-01-28 Generic Power Pte Ltd Method and apparatus for 3-dimensional vision and inspection of ball and like protrusions of electronic components
US8406619B2 (en) * 2009-03-23 2013-03-26 Vincent Pace & James Cameron Stereo camera with automatic control of interocular distance
JP5469911B2 (ja) * 2009-04-22 2014-04-16 ソニー株式会社 送信装置および立体画像データの送信方法
US20100321777A1 (en) * 2009-06-18 2010-12-23 Sony Corporation Method and apparatus for optimizing stereoscopic effect in a camera
US20100321476A1 (en) * 2009-06-18 2010-12-23 Sony Corporation Camera for capturing three-dimensional images
US20110063418A1 (en) * 2009-08-04 2011-03-17 Parker Matthew A Integrated Mount and Control Device for Stereoscopic Video
WO2011033423A1 (en) * 2009-09-16 2011-03-24 Koninklijke Philips Electronics N.V. 3d screen size compensation
JP2011164781A (ja) * 2010-02-05 2011-08-25 Sony Computer Entertainment Inc 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法
US8265477B2 (en) * 2010-03-31 2012-09-11 James Cameron Stereo camera with preset modes
EP2608553A4 (en) * 2010-08-19 2014-04-16 Panasonic Corp STEREOSCOPIC IMAGE RECORDING DEVICE AND STEREOSCOPIC IMAGE RECORDING METHOD
JP5609562B2 (ja) 2010-11-10 2014-10-22 ソニー株式会社 立体画像撮像装置
US9237331B2 (en) * 2011-01-18 2016-01-12 Disney Enterprises, Inc. Computational stereoscopic camera system
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
EP2687904B1 (en) * 2011-03-18 2017-02-15 FUJIFILM Corporation Lens system for capturing stereoscopic images
US8643703B1 (en) * 2011-03-30 2014-02-04 Amazon Technologies, Inc. Viewer tracking image display
US9313390B2 (en) 2011-04-08 2016-04-12 Qualcomm Incorporated Systems and methods to calibrate a multi camera device
JP2012220874A (ja) * 2011-04-13 2012-11-12 Nikon Corp 撮像装置およびプログラム
US20130038784A1 (en) * 2011-08-08 2013-02-14 Canon Kabushiki Kaisha Lens apparatus and imaging system using the same
US20130083170A1 (en) * 2011-10-03 2013-04-04 Canon Kabushiki Kaisha Stereoscopic image pickup apparatus
CN102495520A (zh) * 2011-12-14 2012-06-13 天津大学 自会聚式多视点三维数据采集系统及方法
JP5571257B2 (ja) * 2011-12-19 2014-08-13 富士フイルム株式会社 画像処理装置、方法およびプログラム
CN103176344B (zh) * 2011-12-21 2015-08-12 中原工学院 人眼仿生的立体摄像装置
CN102665087B (zh) * 2012-04-24 2014-08-06 浙江工业大学 3d立体摄像设备的拍摄参数自动调整系统
US9449429B1 (en) * 2012-07-31 2016-09-20 Dreamworks Animation Llc Stereoscopic modeling based on maximum ocular divergence of a viewer
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment
KR20150068298A (ko) * 2013-12-09 2015-06-19 씨제이씨지브이 주식회사 다면 영상 생성 방법 및 시스템
US10027883B1 (en) 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
US9729865B1 (en) * 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US9426450B1 (en) * 2015-08-18 2016-08-23 Intel Corporation Depth sensing auto focus multiple camera system
US11703326B2 (en) * 2016-02-25 2023-07-18 Kyocera Corporation Stereo camera apparatus, vehicle, and parallax calculation method
WO2017205642A1 (en) * 2016-05-25 2017-11-30 Livit Media Inc. Methods and systems for live sharing 360-degree video streams on a mobile device
US10742878B2 (en) 2016-06-21 2020-08-11 Symbol Technologies, Llc Stereo camera device with improved depth resolution
CA3086592A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
CN109756723B (zh) * 2018-12-14 2021-06-11 深圳前海达闼云端智能科技有限公司 获取影像的方法和装置,存储介质和电子设备
KR101995344B1 (ko) * 2019-01-22 2019-07-02 김흥수 사각지역이 없는 듀얼 깊이 카메라 모듈
US11048532B1 (en) * 2019-11-27 2021-06-29 Amazon Technologies, Inc. Device agnostic user interface generation based on device input type
CN111862511B (zh) * 2020-08-10 2021-08-24 湖南海森格诺信息技术有限公司 基于双目立体视觉的目标入侵检测装置及其方法
US11991946B2 (en) 2021-09-27 2024-05-28 Mineral Earth Sciences Llc Adaptively adjusting parameters of equipment operating in unpredictable terrain

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3990087A (en) * 1974-10-21 1976-11-02 Marks Alvin M 3-Dimensional camera
JPS56106490A (en) * 1980-01-25 1981-08-24 Matsushita Electric Ind Co Ltd Stereoscopic television device
US4557570A (en) * 1983-09-26 1985-12-10 Walt Disney Productions Camera assembly for three-dimensional photography
GB8421783D0 (en) * 1984-08-29 1984-10-03 Atomic Energy Authority Uk Stereo camera
GB8430980D0 (en) * 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
US4650305A (en) * 1985-12-19 1987-03-17 Hineslab Camera mounting apparatus
MY104410A (en) * 1988-03-07 1994-03-31 Sharp Kk Interlocked zooming apparatus for use in stereoscopic cameras
JPH01246989A (ja) * 1988-03-29 1989-10-02 Kanji Murakami 立体撮像ビデオカメラ
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
FR2659816B1 (fr) * 1990-03-19 1994-01-28 France Etat Procede de reglage de la convergence stereoscopique dans un equipement de prise de vue stereoscopique.
US5065236A (en) * 1990-11-02 1991-11-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects
WO1994010604A1 (en) 1992-10-29 1994-05-11 Aea O´Donnell, Inc. Automated stereoscopic image acquisition and storage system
JPH0795623A (ja) * 1993-06-25 1995-04-07 Sanyo Electric Co Ltd 立体撮像装置
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
US5864360A (en) * 1993-08-26 1999-01-26 Canon Kabushiki Kaisha Multi-eye image pick-up apparatus with immediate image pick-up
JP3054002B2 (ja) 1993-09-01 2000-06-19 キヤノン株式会社 複眼撮像装置
US5978015A (en) * 1994-10-13 1999-11-02 Minolta Co., Ltd. Stereoscopic system with convergence and dioptric power adjustments according to object distance
US6414709B1 (en) * 1994-11-03 2002-07-02 Synthonics Incorporated Methods and apparatus for zooming during capture and reproduction of 3-dimensional images
JPH08191462A (ja) * 1995-01-10 1996-07-23 Olympus Optical Co Ltd 立体映像再生装置および立体撮影装置
JPH08234339A (ja) * 1995-02-28 1996-09-13 Olympus Optical Co Ltd 撮影用光学装置
US5532777A (en) * 1995-06-06 1996-07-02 Zanen; Pieter O. Single lens apparatus for three-dimensional imaging having focus-related convergence compensation
JPH10155104A (ja) * 1996-11-22 1998-06-09 Canon Inc 複眼撮像方法及び装置並びに記憶媒体
US6292634B1 (en) * 1998-06-25 2001-09-18 Minoru Inaba Stereo camera
US6466746B2 (en) * 1998-06-26 2002-10-15 Minoru Inaba Stereo camera
US6388666B1 (en) * 1998-10-27 2002-05-14 Imax Corporation System and method for generating stereoscopic image data
JP2001016619A (ja) * 1999-06-30 2001-01-19 Canon Inc 撮像装置、その輻輳距離決定方法、記憶媒体および光学装置
JP4428761B2 (ja) * 1999-07-07 2010-03-10 Hoya株式会社 ステレオカメラ
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
EP1085769B1 (en) * 1999-09-15 2012-02-01 Sharp Kabushiki Kaisha Stereoscopic image pickup apparatus
US6701081B1 (en) * 2000-06-06 2004-03-02 Air Controls, Inc. Dual camera mount for stereo imaging
US20050041095A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic image acquisition device
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
SG121898A1 (en) * 2004-10-06 2006-05-26 Generic Power Pte Ltd System for 2-D and 3-D vision inspection
DE202005006620U1 (de) 2005-04-26 2005-06-23 Friedrich, Frank Kamerahalter für Stativ
US20070146478A1 (en) * 2005-07-14 2007-06-28 Butler-Smith Bernard J Stereoscopic 3D rig calibration and viewing device
US20070140682A1 (en) * 2005-07-14 2007-06-21 Butler-Smith Bernard J Two camera stereoscopic 3D rig improvements
US7643748B2 (en) * 2006-06-02 2010-01-05 James Cameron Platform for stereoscopic image acquisition
US7899321B2 (en) * 2009-03-23 2011-03-01 James Cameron Stereo camera with automatic control of interocular distance
US8406619B2 (en) * 2009-03-23 2013-03-26 Vincent Pace & James Cameron Stereo camera with automatic control of interocular distance

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859197B1 (ko) * 2018-01-22 2018-05-21 주식회사 연시스템즈 실시간 입체 현미경

Also Published As

Publication number Publication date
US20100238272A1 (en) 2010-09-23
AU2010229124A1 (en) 2011-11-10
CA2767037A1 (en) 2010-09-30
JP2012521580A (ja) 2012-09-13
WO2010111040A1 (en) 2010-09-30
US8406619B2 (en) 2013-03-26
EP2411869A4 (en) 2015-05-06
US8666241B2 (en) 2014-03-04
US20130208095A1 (en) 2013-08-15
EP2411869A1 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP5312676B2 (ja) 瞳孔間距離の自動制御を有するステレオカメラ
US7899321B2 (en) Stereo camera with automatic control of interocular distance
US8355627B2 (en) 3D camera with foreground object distance sensing
JP5385470B2 (ja) フレームリンクされた2d/3dカメラシステム
US8456518B2 (en) Stereoscopic camera with automatic obstruction removal
US8655163B2 (en) Consolidated 2D/3D camera
JP2012521717A (ja) 制御可能な回動点を有する立体カメラ
MX2012010373A (es) Camara stereo con modos preestablecidos.
AU2010307072B2 (en) Integrated 2D/3D camera
US20110085142A1 (en) Stereo Camera with Emulated Prime Lens Set

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130702

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees