JP7133478B2 - 立体画像キャプチャ - Google Patents

立体画像キャプチャ Download PDF

Info

Publication number
JP7133478B2
JP7133478B2 JP2018567280A JP2018567280A JP7133478B2 JP 7133478 B2 JP7133478 B2 JP 7133478B2 JP 2018567280 A JP2018567280 A JP 2018567280A JP 2018567280 A JP2018567280 A JP 2018567280A JP 7133478 B2 JP7133478 B2 JP 7133478B2
Authority
JP
Japan
Prior art keywords
capture device
image
image capture
captured
another
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567280A
Other languages
English (en)
Other versions
JP2019527495A (ja
Inventor
エフ. コーエン、マイケル
スゼリスキー、リチャード
アラン エバンス、ブライス
ピーター コプフ、ヨハネス
Original Assignee
メタ プラットフォームズ, インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メタ プラットフォームズ, インク. filed Critical メタ プラットフォームズ, インク.
Publication of JP2019527495A publication Critical patent/JP2019527495A/ja
Application granted granted Critical
Publication of JP7133478B2 publication Critical patent/JP7133478B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は一般的に、仮想現実システムに関し、より詳細には、仮想現実システムにより表示する完全立体360°画像のキャプチャに関する。
ますます多くのデバイスにおいて、仮想現実コンテンツ等の全球360/180°コンテンツを閲覧できるようになっている。
ただし、後で表示する完全ステレオ(「立体」)360/180°映像を取り込むことは、依然として難しい。完全立体360°映像を取り込む既存の公表されているデバイスおよび技術では、ハードウェアコストおよび処理時間が膨大になるため、多くの用途に対して完全立体映像のキャプチャは非現実的である。
アセンブリは、画像キャプチャデバイスの周囲のシーンの360°立体キューブマップ表示として表される全球画像を取り込むようにそれぞれ構成された一対の画像キャプチャデバイスを具備する。画像キャプチャデバイスは、それぞれが取り込んだ画像を受信するコントローラに結合されている。コントローラは、アセンブリ中の画像キャプチャデバイスの相対的な配置による誤差を補正することによって、シーンの表示を生成する。コントローラは、一対の一方の画像キャプチャデバイスからの画像を回転させることにより、画像中の物体を他方の画像キャプチャデバイスからの画像中の物体と位置合わせする。また、コントローラは、一対の一方の画像キャプチャデバイスからのシーンの画像のうち、他方の画像キャプチャデバイスにより遮蔽された部分を識別し、この識別した部分を他方の画像キャプチャデバイスにより取り込まれたシーンの画像の一部で置き換える。種々の実施形態において、コントローラは、オプティカルフローを用いることによって、各画像キャプチャデバイスにより取り込まれた画像間の水平視差および垂直視差を相殺する。あるいは、各画像キャプチャデバイスにより取り込まれた画像が横正距円筒フォーマットまたはキューブマップ表示に変換されることで、異なる画像キャプチャデバイスにより取り込まれた画像間の水平および垂直視差が相殺される。
本発明による実施形態は、システムおよび方法を対象とする添付の請求項で特に開示され、ある請求項のカテゴリ、例えばシステム、で述べられた任意の特徴は、別の請求項のカテゴリ、例えば方法、コンピュータプログラム製品、記憶媒体でも同様に請求されることができる。添付の請求項の従属性または後方参照は、形式上の理由でのみ選択されている。しかし、任意の先行請求項への意図的な後方参照から生じる任意の主題(特に多項従属)は同様に請求されることができるので、添付の請求項で選ばれた従属性に関係なく、請求項およびその特徴の任意の組合せが開示され、請求されることができる。請求することのできる主題は、添付の請求項に記載される特徴の組合せだけでなく、請求項の特徴の任意の他の組合せも含み、請求項で述べられる各特徴は請求項の任意の他の特徴または他の特徴の組合せと組み合わせることができる。さらに、本明細書で記述または示される実施形態および特徴のいずれも、個別の請求項で、および/または、本明細書で記述もしくは示される任意の実施形態もしくは特徴または添付の請求項の特徴のいずれかとの任意の組合せで請求することができる。
本発明に係る一実施形態において、システムは、
接続要素に結合された第1の画像キャプチャデバイスであって、その第1の画像キャプチャデバイスの周囲の360°視野の画像を取り込むように構成された第1の画像キャプチャデバイスと、
第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとが接続要素と平行な共通面内に存在するように接続要素に結合された第2の画像キャプチャデバイスであって、その第2の画像キャプチャデバイスの周囲の360°視野の画像を取り込むように構成された第2の画像キャプチャデバイスと、
画像キャプチャデバイスおよび第2の画像キャプチャデバイスに結合されたコントローラであって、
第1の画像キャプチャデバイスにより取り込まれた画像を受信し、
第2の画像キャプチャデバイスにより取り込まれた別画像を受信し、
第1の画像キャプチャデバイスにより取り込まれた画像を第2の画像キャプチャデバイスにより取り込まれた別画像と位置合わせし、
第1の画像キャプチャデバイスにより取り込まれた位置合わせ画像と第2の画像キャプチャデバイスにより取り込まれた別画像との間の水平視差を均等化し、
均等化された位置合わせ画像と均等化された位置合わせ別画像とを組み合わせることによって、1以上の正距円筒画像を生成する、
ように構成されたコントローラと、
を備える。
第1の画像キャプチャデバイスにより取り込まれた画像を第2の画像キャプチャデバイスにより取り込まれた別画像と位置合わせすることが、
第1の画像キャプチャデバイスにより取り込まれた画像と第2の画像キャプチャデバイスにより取り込まれた別画像とが平行座標系内に存在するように第1の画像キャプチャデバイスにより取り込まれた画像に適用される回転を決定することと、
回転を別画像に適用することによって、別画像を回転したものと画像とが平行座標系内に存在するように別画像を回転させることと、
を含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像に適用される回転を決定することが、
画像をキューブマップにマッピングすることと、
別画像を別のキューブマップにマッピングすることと、
キューブマップ内の特徴を識別するとともに、識別された特徴の各々に対応するキューブマップ内の位置を識別することと、
キューブマップ内の識別された特徴の各々に対応する別のキューブマップ中の位置を決定することと、
キューブマップ内の最大量の特徴の位置および別のキューブマップ中の対応する位置を記述する変換を決定することと、
を含んでいてもよい。
変換は、回転および平行移動を含んでいてもよく、第1の画像キャプチャデバイスにより取り込まれた画像に適用される回転を決定することが、
変換から回転を抽出し、変換の平行移動を破棄することを含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像を第2の画像キャプチャデバイスにより取り込まれた別画像と位置合わせすることが、
画像および別画像を回転したものを低域通過フィルタで不鮮明化することを含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像と第2の画像キャプチャデバイスにより取り込まれた別画像との間の水平視差を均等化することが、
第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスを含む基準面の背後の位置の第1の画像キャプチャデバイスにより取り込まれた画像を識別することと、
基準面の背後の位置の第2の画像キャプチャデバイスにより取り込まれた別画像を識別することと、
画像および別画像を交換することと、
を含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像と第2の画像キャプチャデバイスにより取り込まれた別画像との間の水平視差を均等化することが、
第1の画像キャプチャデバイスにより取り込まれた1以上の画像から第2の画像キャプチャデバイスにより取り込まれた1以上の別画像への高密度なオプティカルフローと、第2の画像キャプチャデバイスにより取り込まれた1以上の別画像から第1の画像キャプチャデバイスにより取り込まれた1以上の画像への高密度なオプティカルフローと、を算出することと、
算出された高密度なオプティカルフローに基づいて、1以上の画像および1以上の別画像を修正することと、
を含んでいてもよい。
算出された高密度なオプティカルフローに基づいて、1以上の画像および1以上の別画像を修正することが、
算出された高密度なオプティカルフローに基づいて、第1の画像キャプチャデバイスにより取り込まれた画像をフロー処理し、第1の画像キャプチャデバイスに対する特定の深さの異なる位置について、第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間の線の法線から離れる水平方位角の余弦の絶対値に対する定数の比である倍数だけ、画像と別画像との間の水平視差を増大させることと、
第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスを含む基準面の背後の位置に対応する画像の部分を、基準面の背後の位置に対応する別画像の部分と交換することと、
を含んでいてもよい。
均等化された位置合わせ画像と均等化された位置合わせ別画像とを組み合わせることによって、1以上の正距円筒画像を生成することが、
第1の画像キャプチャデバイスにより取り込まれた画像から第2の画像キャプチャデバイスを除去することを含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像から第2の画像キャプチャデバイスを除去することが、
第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間で、第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角の特定範囲内の画像の位置に対応する第1の画像キャプチャデバイスにより取り込まれた別画像内の開始位置を識別することと、
別画像内の開始位置に対応する第1の画像キャプチャデバイスにより取り込まれた画像中の位置を決定することと、
特定範囲内において、第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間で、第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する第1の画像キャプチャデバイスにより取り込まれた画像中の終了位置を決定することと、
画像中の位置と画像中の終了位置との間の画素を再サンプリングするとともに、再サンプリングに基づいて、上記位置と終了位置との間の画像中の線に沿った画素を埋めることによって、画像を修正することと、
を含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像から第2の画像キャプチャデバイスを除去することが、
特定範囲内において、第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間で、第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する第1の画像キャプチャデバイスにより取り込まれた画像の部分を、特定範囲内において、第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間で、第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する別画像の部分で置き換えることを含んでいてもよい。
本発明に係る一実施形態において、方法は、
接続要素に結合された第1の画像キャプチャデバイスから、第1の画像キャプチャデバイスの周囲の360°視野を表す画像を受信する工程と、
第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとが接続要素と平行な共通面内に存在するように接続要素に結合された第2の画像キャプチャデバイスから、第2の画像キャプチャデバイスの周囲の360°視野を表す別画像を受信する工程と、
第1の画像キャプチャデバイスから受信した画像を第2の画像キャプチャデバイスから受信した別画像と位置合わせする工程と、
第1の画像キャプチャデバイスから受信した位置合わせ画像と第2の画像キャプチャデバイスから受信した別画像との水平視差を均等化する工程と、
均等化された位置合わせ画像と均等化された位置合わせ別画像とを組み合わせることによって、1以上の正距円筒画像を生成する工程と、
を含む。
第1の画像キャプチャデバイスから受信した画像を第2の画像キャプチャデバイスから受信した別画像と位置合わせする工程が、
第1の画像キャプチャデバイスから受信した画像と第2の画像キャプチャデバイスから受信した別画像とが平行座標系内に存在するように第1の画像キャプチャデバイスから受信した画像に適用される回転を決定する工程と、
回転を別画像に適用することによって、別画像を回転したものと画像とが平行座標系内に存在するように別画像を回転させる工程と、
を含んでいてもよい。
第1の画像キャプチャデバイスから受信した画像に適用される回転を決定することは、
画像をキューブマップにマッピングする工程が、
別画像を別のキューブマップにマッピングする工程と、
キューブマップ内の特徴を識別するとともに、識別された特徴の各々に対応するキューブマップ内の位置を識別する工程と、
キューブマップ内の識別された特徴の各々に対応する別のキューブマップ中の位置を決定する工程と、
キューブマップ内の最大量の特徴の位置および別のキューブマップ中の対応する位置を記述する変換を決定する工程と、
を含んでいてもよい。
変換が、回転および平行移動を含んでいてもよく、第1の画像キャプチャデバイスから受信した画像に適用される回転を決定する工程は、
変換から回転を抽出し、変換の平行移動を破棄する工程を含んでいてもよい。
第1の画像キャプチャデバイスから受信した画像を第2の画像キャプチャデバイスから受信した別画像と位置合わせする工程が、
画像および別画像を回転したものを低域通過フィルタで不鮮明化する工程をさらに含んでいてもよい。
第1の画像キャプチャデバイスから受信した画像と第2の画像キャプチャデバイスから受信した別画像との間の水平視差を均等化する工程が、
第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスを含む基準面の背後の位置の第1の画像キャプチャデバイスから受信した画像を識別する工程と、
基準面の背後の位置の第2の画像キャプチャデバイスから受信した別画像を識別する工程と、
画像および別画像を交換する工程と、
を含んでいてもよい。
第1の画像キャプチャデバイスから受信した画像と第2の画像キャプチャデバイスから受信した別画像との間の水平視差を均等化する工程が、
第1の画像キャプチャデバイスから受信した1以上の画像から第2の画像キャプチャデバイスから受信した1以上の別画像への高密度なオプティカルフローと、第2の画像キャプチャデバイスから受信した1以上の別画像から第1の画像キャプチャデバイスから受信した1以上の画像への高密度なオプティカルフローと、を算出する工程と、
算出された高密度なオプティカルフローに基づいて、1以上の画像および1以上の別画像を修正する工程と、
を含んでいてもよい。
算出された高密度なオプティカルフローに基づいて、1以上の画像および1以上の別画像を修正する工程が、
算出された高密度なオプティカルフローに基づいて、第1の画像キャプチャデバイスから受信した画像を処理し、画像キャプチャデバイスに対する特定の深さの異なる位置について、第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間の線の法線から離れる水平方位角の余弦の絶対値に対する定数の比である倍数だけ、画像と別画像との間の水平視差を増大させる工程と、
第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスを含む基準面の背後の位置に対応する画像の部分を、基準面の背後の位置に対応する別画像の部分と交換する工程と、
を含んでいてもよい。
均等化された位置合わせ画像と均等化された位置合わせ別画像とを組み合わせることによって、1以上の正距円筒画像を生成する工程が、
第1の画像キャプチャデバイスにより取り込まれた画像から第2の画像キャプチャデバイスを除去する工程を含んでいてもよい。
第1の画像キャプチャデバイスにより取り込まれた画像から第2の画像キャプチャデバイスを除去する工程が、
特定範囲内において、画像キャプチャデバイスと第2の画像キャプチャデバイスとの間で、第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する第1の画像キャプチャデバイスにより取り込まれた画像の部分を、特定範囲内において、第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとの間で、第1の画像キャプチャデバイスおよび第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する別画像の部分で置き換える工程を含んでいてもよい。
本発明に係る一実施形態において、1以上のコンピュータ可読持続性記憶媒体は、実行された場合に、本発明または前述の実施形態のいずれかに係る方法を行うように動作可能なソフトウェアを具現化していてもよい。
本発明に係る一実施形態において、システムは、1以上のプロセッサと、プロセッサに結合され、プロセッサにより実行可能な命令を含む少なくとも1つのメモリとを備えていてもよく、プロセッサは、命令を実行した場合に、本発明または前述の実施形態のいずれかに係る方法を行うように動作可能である。
本発明に係る一実施形態において、好ましくはコンピュータ可読持続性記憶媒体を含むコンピュータプログラム製品は、データ処理システム上で実行された場合に、本発明または前述の実施形態のいずれかに係る方法を行うように動作可能であってもよい。
一実施形態に係る、立体画像を取り込む例示的なシステムを示した図。 一実施形態に係る、画像キャプチャデバイスと別の画像キャプチャデバイスとの位置ずれの一例を示した図。 一実施形態に係る、地面上の円に沿った点の例示的な撮像配置を示した図。 一実施形態に係る、画像キャプチャデバイスおよび別の画像キャプチャデバイスを含む水平面からの特定の下方角における平面に沿った水平視差および垂直視差の変化を示した図。 一実施形態に係る、画像キャプチャデバイスにより取り込まれた画像が別の画像キャプチャデバイスを含む場合の水平方位角の範囲を示した図。 一実施形態に係る、画像キャプチャデバイスにより取り込まれた画像から水平視差を補正して、修正画像を生成する概念図。
図面は、説明のみを目的として、本発明の種々の実施形態を示している。当業者であれば、以下の詳解から、本明細書に記載の本発明の原理から逸脱することなく、本明細書に示す構造および方法の別の実施形態を採用し得ることが容易に認識されよう。
システム構成
図1は、画像キャプチャデバイス110および別の画像キャプチャデバイス120を備えた例示的なシステム100を示している。種々の実施形態において、画像キャプチャデバイス110および別の画像キャプチャデバイス120は、カメラ、ビデオカメラ、または画像データを取り込むように構成された他のデバイスである。図1は、2つの画像キャプチャデバイスを具備するシステム100を示すが、他の実施形態において、システム100は、より多くの画像キャプチャデバイス(たとえば、4つの画像キャプチャデバイス、8つの画像キャプチャデバイス等)を具備していてもよい。
図1に示す実施形態において、画像キャプチャデバイス110および別の画像キャプチャデバイス120はそれぞれ、画像キャプチャデバイス110および別の画像キャプチャデバイス120が接続要素130と平行な共通面内に存在するように、接続要素130に結合されている。ただし、他の実施形態において、画像キャプチャデバイス110および別の画像キャプチャデバイス120は、任意適当な配向または構成によって、共通面内に存在するように構成されている。画像キャプチャデバイス110および別の画像キャプチャデバイス120はともに、画像キャプチャデバイス110および別の画像キャプチャデバイス120の全360°視野を一体的に網羅する複数の広角または魚眼レンズを具備する。
画像キャプチャデバイス110および別の画像キャプチャデバイス120により取り込まれた画像は、画像キャプチャデバイス110からの画像と別の画像キャプチャデバイス120からの別画像とを組み合わせて正距円筒画像を得るコントローラ140に伝達される。また、以下に詳しく説明する通り、コントローラ140は、画像キャプチャデバイス110からの画像を別の画像キャプチャデバイス120からの画像と組み合わせる場合に、画像キャプチャデバイス110および別の画像キャプチャ120からの画像を処理するように構成されている。画像キャプチャデバイス110からの画像および別の画像キャプチャデバイス120からの別画像のコントローラ140による処理には、画像および別画像の幾何学的および光度的位置合わせ、画像と別画像との垂直視差の除去、ならびに画像と別画像との間の水平視差の均等化のうちの1以上を含んでいてもよい。あるいは、コントローラ140による処理では、たとえば後方視の場合のユーザの眼の反転の考慮または別画像および画像それぞれからの画像キャプチャデバイス110および別の画像キャプチャデバイス120の除去のため、画像および別画像の領域を交換するようにしてもよい。
幾何学的位置合わせ
画像キャプチャデバイス110もしくは別の画像キャプチャデバイス120が異なる平面内にある場合の位置ずれ(たとえば、画像キャプチャデバイス110および別の画像キャプチャデバイス120の接続要素130との結合における位置ずれ)または画像キャプチャデバイス110もしくは別の画像キャプチャデバイス120における位置ずれ自体によって、画像キャプチャデバイス110および別の画像キャプチャ120により取り込まれた画像の立体視が困難となる。画像キャプチャデバイス110または別の画像キャプチャデバイス120における相対的に小さな位置ずれによって、画像キャプチャデバイス110からの画像と別の画像キャプチャデバイス120からの別画像との組み合わせの立体視が困難となる。図2は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との位置ずれの一例を示している。図2の例においては、画像キャプチャデバイス110と別の画像キャプチャデバイス120との位置ずれによって、画像キャプチャデバイス110により取り込まれた画像中の物体220の位置210Aが別の画像キャプチャデバイス120により取り込まれた別画像中の物体220の位置210Bと異なっている。この位置ずれを補償するため、コントローラ140は、画像キャプチャデバイス110により取り込まれた画像を回転したものが別の画像キャプチャデバイス120により取り込まれた別画像との平行座標系内となるように画像キャプチャデバイス110により取り込まれた画像に適用する回転を決定する。たとえば、画像キャプチャデバイス110が接続要素130の左側に位置決めされたカメラであり、別の画像キャプチャデバイス120が接続要素130の右側に位置決めされた別のカメラである場合、コントローラ140は、接続要素130の左側に位置決めされたカメラ(すなわち、画像キャプチャデバイス110)により取り込まれた画像と接続要素130の右側に位置決めされたカメラ(すなわち、別の画像キャプチャデバイス120)により取り込まれた画像とが平行座標系内に存在するように、接続要素130の左側に位置決めされたカメラにより取り込まれた画像に適用される回転を決定する。他の実施形態において、コントローラ140は、別の画像キャプチャデバイス120により取り込まれた別画像に適用される回転を決定し、別画像を回転したものと画像キャプチャデバイス110により取り込まれた画像とが平行座標系内に存在するように別画像を回転させる。
画像(または、別画像)に適用される回転を決定するために、コントローラ140は、画像をキューブマップにマッピングするとともに、別画像を別のキューブマップにマッピングする。たとえば、画像および別画像が正距円筒画像であり、コントローラ140は、正距円筒画像をキューブマップにマッピングするとともに、正距円筒別画像を別のキューブマップにマッピングする。画像および別画像をそれぞれキューブマップおよび別のキューブマップにマッピングすることによって、局所的な歪みが抑えられる。
その後、コントローラ140は、画像キャプチャデバイス110からの画像に対応するキューブマップから、ハリス(Harris)コーナ等の特徴を識別し、別の画像キャプチャデバイス120からの別画像に対応する別のキューブマップにおいて、キューブマップからの識別特徴に対応する位置を決定する。たとえば、コントローラ140は、粗密ルーカスカナデ(Lucas-Kanade)探索の実行またはその他任意適当な探索の実行によって、キューブマップから識別された特徴のキューブマップ中の位置の閾値距離内における別のキューブマップ中の位置を識別する。キューブマップにおいて識別された特徴の位置および別のキューブマップ中の対応する位置(任意適当な探索を用いて決定)に基づいて、コントローラ140は、識別キューブマップ中の最大量(たとえば、最大数、最大割合)の特徴の位置および別のキューブマップ中の対応する位置を記述する回転および平行移動のうちの1つまたは複数を含む変換を決定する。たとえば、コントローラ140は、ランダムサンプルコンセンサス(RANSAC:Random Sample Consensus)を使用して、識別キューブマップ中の最大量の特徴の位置および別のキューブマップ中の対応する位置を記述する変換を識別する。識別された変換が平行移動を含む場合、コントローラ140は、識別された変換から平行移動を破棄するとともに、識別された変換の回転を画像キャプチャデバイス110からの画像に適用して、画像キャプチャデバイス110からの回転画像を別の画像キャプチャデバイス120からの別画像と位置合わせする。他の実施形態において、コントローラ140は、画像ではなく別画像に適用される平行移動および/または回転を同様に決定する。
光度的位置合わせ
画像キャプチャデバイス110および別の画像キャプチャデバイス120による露光差または不等応答によって、画像キャプチャデバイス110および別の画像キャプチャデバイス120は、露光および利得が異なるシーンの画像およびシーンの別画像をそれぞれ取り込む。上に詳述した通り、画像および別画像を幾何学的に位置合わせした後、コントローラ140は、視差および残存する幾何学的位置ずれによる微小な影響を軽減する255画素幅低域通過フィルタ等の低域通過フィルタで画像および別画像を不鮮明化する。そして、コントローラ140は、フィルタリングした別画像中の色チャンネルに対するフィルタリングした画像中の同じ色チャンネルの比を各画素の当該色チャンネルに乗じることによって、画像キャプチャデバイス110により取り込まれた画像の各色チャンネルを修正する。コントローラ140が画像ではなく別画像を回転させる実施形態において、コントローラ140は、色チャンネル中のフィルタリング画像に対する色チャンネル中のフィルタリング別画像の比を当該色チャンネル中の各画素に乗じることによって、別の画像キャプチャデバイス120により取り込まれた別画像の各色チャンネルを修正する。
水平および垂直視差の補正
画像キャプチャデバイス110からの画像および別の画像キャプチャデバイス120からの別画像を幾何学的に位置合わせした後も、画像キャプチャデバイス110と別の画像キャプチャデバイス120とのオフセットにより、画像と別画像との間には水平および垂直視差が残る。画像と別画像との水平または垂直視差は、画像キャプチャデバイス110または別の画像キャプチャデバイス120から、画像キャプチャデバイス110または別の画像キャプチャデバイス120により撮像されたシーン中の点までの距離および画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の見掛けの瞳孔間隔に反比例する。見掛けの瞳孔間隔は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角の余弦とともに変化する。また、見掛けの瞳孔間隔は、水平線の上下の垂直高度角とともに変動する。
図3は、地面上の円300に沿った点の例示的な撮像配置を示している。図3に示すように、画像キャプチャデバイス110および別の画像キャプチャデバイス120の真正面の点305の画像には、垂直視差がない。点305に関して、画像キャプチャデバイス110の焦点距離が、別の画像キャプチャデバイス120の焦点距離と等しいためである。ただし、図3の例は、画像キャプチャデバイス110および別の画像キャプチャデバイス120を接続する線を通る垂直面上にある水平方位角315が90°の円300上の点310を示しており、画像キャプチャデバイス110および別の画像キャプチャデバイス120の焦点距離は異なる。さらに、図3は、垂直高度角45°において、円300を含む地面の上方で円300の半径325が画像キャプチャデバイス110の高さおよび別の画像キャプチャデバイス120の高さと等しい場合、画像キャプチャデバイス110の垂直高度角320Aおよび垂直高度角320Bが1°よりわずかに大きく異なるため、ユーザの眼では位置合わせできない画像と別画像との垂直視差が生じる例を示している。
図4は、画像キャプチャデバイス110を含む水平面からの特定の下方角における平面に沿った画像キャプチャデバイス110の水平視差410の変化と、画像キャプチャデバイス110および別の画像キャプチャデバイス120を含む水平面からの特定の下方角における平面に沿った画像キャプチャデバイス110および別の画像キャプチャデバイス120の水平視差420の変化と、画像キャプチャデバイス110および別の画像キャプチャデバイス120を含む水平面からの特定の下方角における平面に沿った画像キャプチャデバイス110および別の画像キャプチャデバイス120の垂直視差430の変化と、を示している。固定奥行きに対して水平視差を一定の値に維持することにより、ユーザは、水平視差からデプスキューをより容易に求めることができる。図4に示すように、特定の高度角の場合、水平視差は、画像キャプチャデバイス110および別の画像キャプチャデバイス120の真正面の点で所望値415を有し、画像キャプチャデバイス110および別の画像キャプチャデバイス120の左右90°でゼロまで低下し、画像キャプチャデバイス110および別の画像キャプチャデバイス120の基準面の真後ろの点で所望値415の逆数417を有する。
画像キャプチャデバイス110および別の画像キャプチャデバイス120の背後の位置について水平視差の所望値415を有するように、コントローラ140は、画像キャプチャデバイス110により取り込まれた画像の一部を、別の画像キャプチャデバイス120により取り込まれた別画像の一部と交換する。図4に示すように、画像キャプチャデバイス110の背後の位置については、水平視差が画像キャプチャデバイス110の所望値415の逆数417である。別の画像キャプチャデバイス120の基準面の前の位置の画像の水平視差についても、画像キャプチャデバイス120の所望値の逆数である。したがって、別の画像キャプチャデバイス120の基準面の背後の位置の画像の水平視差は、画像キャプチャデバイス110の水平視差の所望値415を有するため、画像キャプチャデバイス110の基準面の背後の位置の画像を別の画像キャプチャデバイス120の基準面の背後の位置の別画像と交換することにより、画像キャプチャデバイス110の基準面の背後の位置の画像は、画像キャプチャデバイス110の水平視差の所望値415を有するか、または、画像キャプチャデバイス110の水平視差の所望値にごく近くなる。また、上記交換によって、別の画像キャプチャデバイス120の基準面の背後の位置の画像は、別の画像キャプチャデバイス120の水平視差の所望値を有するか、または、別の画像キャプチャデバイス120の水平視差の所望値にごく近くなる。
コントローラ140は、画像から別画像への高密度オプティカルフローおよび別画像から画像への高密度オプティカルフローを算出することによって、画像キャプチャデバイス110からの画像と別の画像キャプチャデバイス120からの別画像との水平および垂直視差をさらに補正するようにしてもよい。ギャップなしで画像および別画像を処理するため、コントローラ140は、画像および別画像中の各画素へのフローベクトルを反復的に探索する(すなわち、終点から始点へのフローマッピングを行う)。種々の実施形態においては、画像および別画像に対してオプティカルフローが決まるため、各画素をどこまでフロー処理するかを決定した後、コントローラ140は、長さ半分のフローを用いて、画像および別画像を修正する。
特定の奥行きについて、画像キャプチャデバイス110からの画像と別の画像キャプチャデバイス120からの別画像との間の水平視差をさらに補正するため、コントローラ140はまず、画像をフロー処理することにより、当該特定の奥行きの異なる位置について、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角の余弦の絶対値に対する定数の比である倍数だけ、水平視差を増大せる。たとえば、θが画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角を表す場合、コントローラ140は、画像をフロー処理して、1/|cos(θ)|の倍数だけ、画像と別画像との間の水平視差を増大させる。水平視差を増大させた後、コントローラ140は、画像キャプチャデバイス110の基準面の背後の位置に対応する画像の部分を、別の画像キャプチャデバイス120の基準面の背後の位置に対応する別画像の部分と交換する。コントローラ140は、別画像に同様の算出を実行して、画像と別画像との間の水平視差を補正するようにしてもよい。
画像と別画像との垂直歪みをオフセットさせるため、コントローラ140は、画像および別画像のオプティカルフローマップの垂直成分を二等分する。コントローラ140は、画像中の画素へのフローベクトルを探索する場合、画像のオプティカルフローマップの半分を使用する。同様に、コントローラ140は、別画像中の画素へのフローベクトルを探索する場合、別画像のオプティカルフローマップのもう半分を使用する。このような垂直歪みの補償によって、コンテンツの地面に目を向ける場合に、画像および別画像からのステレオコンテンツをユーザが後で閲覧する際の眼精疲労が抑えられるとともに、垂直視差が少ない水平線に近いステレオコンテンツのエリアの視認が容易となる。
画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が約90°または-90°の領域においては、画像キャプチャデバイス110により取り込まれた画像が別の画像キャプチャデバイス120を含むか、または、別の画像キャプチャデバイス120により取り込まれた画像が画像キャプチャデバイス110を含む。さらに、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が約90°または-90°の領域においては、水平視差がゼロまで低下する(ただし、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角の余弦に対する定数の比に基づく倍数は、無限大に近づいて、水平視差の低下を補償しようとする)。図5は、画像キャプチャデバイス110により取り込まれた画像が別の画像キャプチャデバイス120を含む場合の画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角の範囲510を示している。また同様に、図5は、別の画像キャプチャデバイス120により取り込まれた画像が画像キャプチャデバイス110を含む場合の画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角の別の範囲520を示している。
上記両者を補償するため、コントローラ140は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角がある範囲内となる領域について、別の画像キャプチャデバイス120により取り込まれた画像データを画像キャプチャデバイス110により取り込まれた画像データで置き換える。たとえば、コントローラ140は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が-100°より大きく-80°より小さい場合、別の画像キャプチャデバイス120により取り込まれた画像データを画像キャプチャデバイス110により取り込まれた画像データで置き換える。同様に、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が別の範囲内となる領域について、コントローラ140は、画像キャプチャデバイス110により取り込まれた画像データを別の画像キャプチャデバイス120により取り込まれた画像データで置き換える。たとえば、コントローラ140は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が80°より大きく100°より小さい場合、画像キャプチャデバイス110により取り込まれた画像データを別の画像キャプチャデバイス120により取り込まれた画像データで置き換える。また、コントローラ140は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が上記範囲(たとえば、-100°より大きく-80°より小さい)の閾値量だけ外側(たとえば、閾値量だけ-100°より小さく、閾値量だけ-80°より大きい)の位置における水平視差の値をサンプリングすることにより、当該水平方位角が当該範囲内となる領域にわたって、水平視差を線形補間するようにしてもよい。同様に、コントローラ140は、画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角が上記別の範囲(たとえば、80°より大きく100°より小さい)の閾値量だけ外側(たとえば、閾値量だけ80°より小さく、閾値量だけ100°より大きい)の位置における水平視差の値をサンプリングすることにより、当該水平方位角が当該範囲内となる領域にわたって、水平視差を線形補間する。
図6は、画像キャプチャデバイス110により取り込まれた画像610から水平視差を補正するとともに、別の画像キャプチャデバイス120を除去することによって、修正画像630を生成する概念図である。図6の例において、修正画像630中の領域615は、-80°~-100°の画像キャプチャデバイス110と別の画像キャプチャデバイス120との間の線の法線から離れる水平方位角の範囲に対応するため、コントローラ140は、-80°~-100°の水平方位角について、別の画像キャプチャデバイス120により取り込まれた画像データを画像キャプチャデバイス110により取り込まれた画像データで置き換えることにより修正画像630を生成する。
修正画像を生成するため、コントローラ140は、前述の視差マッピングを反転してその位置で対応するフローを調べることにより、水平方位角が-100°より特定量だけ小さな修正画像630中の位置に対応する別の画像キャプチャデバイス120により取り込まれた別画像620中の開始位置を識別する。そして、コントローラ140は、上に詳しく説明した通り、別画像620から画像610へのオプティカルフローマップを用いて、別画像620中の識別位置に対応する画像610中の位置を決定する。また、コントローラ140は、前述の視差マッピングを反転することにより、水平方位角が-80°より特定量だけ大きな修正画像630中の別の位置に対応する画像610中の終了位置を識別する。その後、コントローラ140は、別画像620中の識別位置に対応する画像610中の位置と画像610中の終了位置との間の画素を再サンプリングするとともに、修正画像630中の位置と修正画像630中の別の位置との間の線に沿った修正画像630中の画素を埋める。
他の実施形態において、コントローラ140は、画像キャプチャデバイス110からの画像および別の画像キャプチャデバイス120からの別画像を、奥行きに基づく画像と別画像との間の画素の移動量を示すエピポーラ曲線のマッピングによって水平線を形成する「横正距円筒」フォーマットへと変換することによって、水平および垂直視差を補償する。横正距円筒フォーマットにおいて、コントローラ140は、1つまたは複数の立体マッチング法を画像および別画像に適用する。また、いくつかの実施形態において、コントローラ140は、重みが立体マッチング信頼に等しくて奥行きの逆数となる加重プッシュプルアルゴリズムを適用する。あるいは、コントローラ140は、正距円筒フォーマットの画像および別画像を受信して、当該画像および別画像をキューブマップ表示に変換する。
概要
上記実施形態に関する記述は、説明を目的として提示しており、何ら網羅的なものでもなければ、特許権を開示の厳密な形態に制限するものでもない。当業者には当然のことながら、上記開示に照らして、多くの改良および変形が可能である。
本明細書の一部では、情報に関する算出のアルゴリズムおよび記号的表現の観点で実施形態を説明している。これらのアルゴリズム的説明および表現は一般的に、データ処理技術の当業者が他の当業者に対して自身の仕事の内容を効果的に伝えるために使用する。これらの動作は、機能的、計算的、または論理的に説明しているが、コンピュータプログラムまたは同等の電気回路、マイクロコード等によって実装されることが了解される。さらに、一般性を失わずに、これら動作の構成をモジュールとして参照することが場合によっては都合が良いことも判明した。上記説明した動作および関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはこれらの任意の組み合わせにて具現化されるようになっていてもよい。
本明細書に記載のステップ、動作、またはプロセスのいずれかは、1つもしくは複数のハードウェアまたはソフトウェアモジュールにより、単独または他のデバイスとの組み合わせにて実行または実装されるようになっていてもよい。一実施形態において、ソフトウェアモジュールには、コンピュータプロセッサによる実行で上記ステップ、動作、またはプロセスのいずれかまたはすべてを実行可能なコンピュータプログラムコードを含むコンピュータ可読媒体を含むコンピュータプログラム製品が実装されている。
また、実施形態は、本明細書の動作を実行する装置に関していてもよい。この装置は、所要目的で特別に構成されるようになっていてもよいし、および/または内部に格納されたコンピュータプログラムによって選択的に起動もしくは再設定される汎用コンピュータ機器を含んでいてもよい。このようなコンピュータプログラムは、コンピュータのシステムバスに結合可能な有形の持続性コンピュータ可読記憶媒体または電子的命令の格納に適した任意の種類の媒体に格納されていてもよい。さらに、本明細書において言及する如何なるコンピュータシステムも、シングルプロセッサを具備していてもよいし、コンピュータ機能を増強するためにマルチプロセッサ設計を採用したアーキテクチャであってもよい。
また、本発明の実施形態は、本明細書に記載のコンピュータプロセスにより生産された製品に関していてもよい。このような製品は、コンピュータプロセスによって生じた情報を含んでいてもよく、この情報は、有形の持続性コンピュータ可読記憶媒体に格納されるとともに、コンピュータプログラム製品または本明細書に記載の他のデータ組み合わせの任意の実施形態を含んでいてもよい。
最後に、本明細書で使用される言語は、主として読みやすさおよび説明を目的として選択されており、本発明の主題を画定または制限するように選択されていない可能性がある。したがって、本特許権の範囲は、この詳細な説明によってではなく、むしろ、本明細書に基づく出願に由来する任意の請求項によって限定されるものである。したがって、実施形態の開示内容は、上記開示に基づく出願に由来する請求項によって特定される特許権の範囲の説明を意図したものであって、何ら限定的なものではない。

Claims (12)

  1. 接続要素に結合され、第1の画像キャプチャデバイスの周囲の360°視野の画像を取り込むように構成された第1の画像キャプチャデバイスと、
    前記第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとが前記接続要素と平行な共通面内に存在するように前記接続要素に結合され、前記第2の画像キャプチャデバイスの周囲の360°視野の画像を取り込むように構成された第2の画像キャプチャデバイスと、
    前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに結合されたコントローラと、
    を備えたシステムであって、前記コントローラは、
    前記第1の画像キャプチャデバイスにより取り込まれた画像を受信し、
    前記第2の画像キャプチャデバイスにより取り込まれた別画像を受信し、
    前記第1の画像キャプチャデバイスにより取り込まれた画像を前記第2の画像キャプチャデバイスにより取り込まれた別画像と位置合わせし、ここで前記第1の画像キャプチャデバイスにより取り込まれた画像を前記第2の画像キャプチャデバイスにより取り込まれた別画像と位置合わせすることは、前記第2の画像キャプチャデバイスにより取り込まれた別画像と前記第1の画像キャプチャデバイスにより取り込まれた画像とが平行座標系内に存在するように前記第2の画像キャプチャデバイスにより取り込まれた別画像に適用される回転を決定することと、前記回転を前記別画像に適用することによって、前記別画像を回転したものと前記画像とが前記平行座標系内に存在するように前記別画像を回転させることと、を含むものであり、前記第2の画像キャプチャデバイスにより取り込まれた前記別画像に適用される前記回転を決定することが、
    前記画像をキューブマップにマッピングすることと、
    前記別画像を別のキューブマップにマッピングすることと、
    前記キューブマップ内の特徴を識別するとともに、識別された特徴の各々に対応する前記キューブマップ内の位置を識別することと、
    前記キューブマップ内の前記識別された特徴の各々に対応する前記別のキューブマップ中の位置を決定することと、
    前記キューブマップ内の最大量の特徴の位置および前記別のキューブマップ中の対応する位置を記述する変換を決定することと、
    を含み、
    前記第1の画像キャプチャデバイスにより取り込まれた位置合わせ画像と前記第2の画像キャプチャデバイスにより取り込まれた前記別画像との間の水平視差を均等化し、
    均等化した位置合わせ画像と均等化した位置合わせ別画像とを組み合わせることによって、立体視のための以上の正距円筒画像を生成する、
    ように構成されている、システム。
  2. 記変換が、前記回転および平行移動を含み、前記第2の画像キャプチャデバイスにより取り込まれた前記別画像に適用される前記回転を決定することが、
    前記変換から前記回転を抽出し、前記変換の前記平行移動を破棄することをさらに含む、請求項1に記載のシステム。
  3. 前記第1の画像キャプチャデバイスにより取り込まれた前記画像を前記第2の画像キャプチャデバイスにより取り込まれた前記別画像と位置合わせすることが、
    前記画像および前記別画像を回転したものを低域通過フィルタで不鮮明化することをさらに含む、請求項1に記載のシステム。
  4. 前記第1の画像キャプチャデバイスにより取り込まれた前記画像と前記第2の画像キャプチャデバイスにより取り込まれた前記別画像との間の水平視差を均等化することが、
    前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスを含む基準面の背後の位置の前記第1の画像キャプチャデバイスにより取り込まれた画像を識別することと、
    前記基準面の背後の前記位置の前記第2の画像キャプチャデバイスにより取り込まれた別画像を識別することと、
    前記第1の画像キャプチャデバイスにより取り込まれた画像および前記第2の画像キャプチャデバイスにより取り込まれた別画像を交換することと、
    を含む、請求項1~3のいずれか一項に記載のシステム。
  5. 前記第1の画像キャプチャデバイスにより取り込まれた前記画像と前記第2の画像キャプチャデバイスにより取り込まれた前記別画像との間の水平視差を均等化することが、
    前記第1の画像キャプチャデバイスにより取り込まれた1以上の画像から前記第2の画像キャプチャデバイスにより取り込まれた1以上の別画像への高密度なオプティカルフローと、前記第2の画像キャプチャデバイスにより取り込まれた前記1以上の別画像から前記第1の画像キャプチャデバイスにより取り込まれた前記1以上の画像への高密度なオプティカルフローと、を算出することと、
    算出された高密度なオプティカルフローに基づいて、前記1以上の画像および前記1以上の別画像のオプティカルフローを修正することと、
    を含み、
    任意選択として、前記算出された高密度なオプティカルフローに基づいて、前記1以上の画像および前記1以上の別画像のオプティカルフローを修正することが、
    前記算出された高密度なオプティカルフローに基づいて、前記第1の画像キャプチャデバイスにより取り込まれた画像のオプティカルフローを処理し、前記第1の画像キャプチャデバイスに対する特定の深さの異なる位置について、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間の線の法線から離れる水平方位角の余弦の絶対値に対する定数の比である倍数だけ、前記画像と別画像との間の水平視差を増大させることと、
    前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスを含む基準面の背後の位置に対応する前記画像の部分を、前記基準面の背後の位置に対応する前記別画像の部分と交換することと、
    を含む、請求項1~4のいずれか一項に記載のシステム。
  6. 前記均等化した位置合わせ画像と前記均等化した位置合わせ別画像とを組み合わせることによって、立体視のための以上の正距円筒画像を生成することが、
    前記第1の画像キャプチャデバイスにより取り込まれた画像から前記第2の画像キャプチャデバイスを除去することを含み、
    任意選択として、前記第1の画像キャプチャデバイスにより取り込まれた画像から前記第2の画像キャプチャデバイスを除去することが、
    前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間で、前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角の特定範囲内の前記画像の位置に対応する前記第1の画像キャプチャデバイスにより取り込まれた別画像内の開始位置を識別することと、
    前記別画像内の前記開始位置に対応する前記第1の画像キャプチャデバイスにより取り込まれた前記画像中の位置を決定することと、
    前記特定範囲内において、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間で、前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに対して垂直な前記線の前記法線から離れる水平方位角を有する前記第1の画像キャプチャデバイスにより取り込まれた前記画像中の終了位置を決定することと、
    前記画像中の前記位置と前記画像中の前記終了位置との間の画素を再サンプリングするとともに、前記再サンプリングに基づいて、前記位置と前記終了位置との間の前記画像中の線に沿った画素を埋めることによって、前記画像を修正することと、
    を含み、ならびに/または
    任意選択として、前記第1の画像キャプチャデバイスにより取り込まれた前記画像から前記第2の画像キャプチャデバイスを除去することが、
    特定範囲内において、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間で、前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する前記第1の画像キャプチャデバイスにより取り込まれた前記画像の部分を、前記特定範囲内において、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間で、前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する別画像の部分で置き換えることを含む、請求項1~5のいずれか一項に記載のシステム。
  7. 接続要素に結合された第1の画像キャプチャデバイスから、前記第1の画像キャプチャデバイスの周囲の360°視野を表す画像を受信する工程と、
    前記第1の画像キャプチャデバイスと第2の画像キャプチャデバイスとが前記接続要素と平行な共通面内に存在するように前記接続要素に結合された前記第2の画像キャプチャデバイスから、前記第2の画像キャプチャデバイスの周囲の360°視野を表す別画像を受信する工程と、
    前記第1の画像キャプチャデバイスから受信した画像を前記第2の画像キャプチャデバイスから受信した別画像と位置合わせする工程であって、ここで前記第1の画像キャプチャデバイスから受信した画像を前記第2の画像キャプチャデバイスから受信した別画像と位置合わせする工程は、前記第2の画像キャプチャデバイスから受信した別画像と前記第1の画像キャプチャデバイスから受信した画像とが平行座標系内に存在するように前記第2の画像キャプチャデバイスから受信した前記別画像に適用される回転を決定する工程と、前記回転を前記別画像に適用することによって、前記別画像を回転したものと前記画像とが前記平行座標系内に存在するように前記別画像を回転させる工程と、を含むものであり、前記第2の画像キャプチャデバイスから受信した前記別画像に適用される前記回転を決定する工程が、
    前記画像をキューブマップにマッピングする工程と、
    前記別画像を別のキューブマップにマッピングする工程と、
    前記キューブマップ内の特徴を識別するとともに、識別した特徴の各々に対応する前記キューブマップ内の位置を識別する工程と、
    前記キューブマップ内の前記識別した特徴の各々に対応する前記別のキューブマップ中の位置を決定する工程と、
    前記キューブマップ内の最大量の特徴の位置および前記別のキューブマップ中の対応する位置を記述する変換を決定する工程と、
    を含み、
    前記第1の画像キャプチャデバイスから受信した位置合わせ画像と前記第2の画像キャプチャデバイスから受信した前記別画像との間の水平視差を均等化する工程と、
    均等化した位置合わせ画像と均等化した位置合わせ別画像とを組み合わせることによって、立体視のための以上正距円筒画像を生成する工程と、
    を含む、方法。
  8. 記変換が、前記回転および平行移動を含み、前記第2の画像キャプチャデバイスから受信した前記別画像に適用される前記回転を決定する工程が、
    前記変換から前記回転を抽出し、前記変換の前記平行移動を破棄する工程をさらに含む、請求項7に記載の方法。
  9. 前記第1の画像キャプチャデバイスから受信した前記画像を前記第2の画像キャプチャデバイスから受信した前記別画像と位置合わせする工程が、
    前記画像および前記別画像を回転したものを低域通過フィルタで不鮮明化する工程をさらに含む、請求項7に記載の方法。
  10. 前記第1の画像キャプチャデバイスから受信した前記画像と前記第2の画像キャプチャデバイスから受信した前記別画像との間の水平視差を均等化する工程が、
    前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスを含む基準面の背後の位置の前記第1の画像キャプチャデバイスから受信した画像を識別する工程と、
    前記基準面の背後の前記位置の前記第2の画像キャプチャデバイスから受信した別画像を識別する工程と、
    前記第1の画像キャプチャデバイスから受信した画像および前記第2の画像キャプチャデバイスから受信した別画像を交換する工程と、
    を含む、請求項7~9のいずれか一項に記載の方法。
  11. 前記第1の画像キャプチャデバイスから受信した前記画像と前記第2の画像キャプチャデバイスから受信した前記別画像との間の水平視差を均等化する工程が、
    前記第1の画像キャプチャデバイスから受信した1以上の画像から前記第2の画像キャプチャデバイスから受信した1以上の別画像への高密度なオプティカルフローと、前記第2の画像キャプチャデバイスから受信した前記1以上の別画像から前記第1の画像キャプチャデバイスから受信した前記1以上の画像への高密度なオプティカルフローと、を算出する工程と、
    算出した高密度なオプティカルフローに基づいて、前記1以上の画像および前記1以上の別画像のオプティカルフローを修正する工程と、
    を含み、
    任意選択として、前記算出した高密度なオプティカルフローに基づいて、前記1以上の画像および前記1以上の別画像のオプティカルフローを修正する工程が、
    前記算出した高密度なオプティカルフローに基づいて、前記第1の画像キャプチャデバイスから受信した画像のオプティカルフローを処理し、前記第1の画像キャプチャデバイスに対する特定の深さの異なる位置について、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間の線の法線から離れる水平方位角の余弦の絶対値に対する定数の比である倍数だけ、前記画像と別画像との間の水平視差を増大させる工程と、
    前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスを含む基準面の背後の位置に対応する前記画像の部分を、前記基準面の背後の位置に対応する前記別画像の部分と交換する工程と、
    を含む、請求項7~10のいずれか一項に記載の方法。
  12. 前記均等化した位置合わせ画像と前記均等化した位置合わせ別画像とを組み合わせることによって、立体視のための以上の正距円筒画像を生成する工程が、
    前記第1の画像キャプチャデバイスにより取り込まれた画像から前記第2の画像キャプチャデバイスを除去する工程を含み、
    任意選択として、前記第1の画像キャプチャデバイスにより取り込まれた前記画像から前記第2の画像キャプチャデバイスを除去する工程が、
    特定範囲内において、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間で、前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する前記第1の画像キャプチャデバイスにより取り込まれた前記画像の部分を、前記特定範囲内において、前記第1の画像キャプチャデバイスと前記第2の画像キャプチャデバイスとの間で、前記第1の画像キャプチャデバイスおよび前記第2の画像キャプチャデバイスに対して垂直な線の法線から離れる水平方位角を有する別画像の部分で置き換える工程を含む、請求項7~11のいずれか一項に記載の方法。
JP2018567280A 2016-07-01 2017-06-30 立体画像キャプチャ Active JP7133478B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662357918P 2016-07-01 2016-07-01
US62/357,918 2016-07-01
PCT/US2017/040266 WO2018005953A1 (en) 2016-07-01 2017-06-30 Stereoscopic image capture

Publications (2)

Publication Number Publication Date
JP2019527495A JP2019527495A (ja) 2019-09-26
JP7133478B2 true JP7133478B2 (ja) 2022-09-08

Family

ID=60786700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567280A Active JP7133478B2 (ja) 2016-07-01 2017-06-30 立体画像キャプチャ

Country Status (11)

Country Link
US (1) US20180007344A1 (ja)
EP (1) EP3318059B1 (ja)
JP (1) JP7133478B2 (ja)
KR (1) KR102312471B1 (ja)
CN (1) CN109328460A (ja)
AU (1) AU2017290388A1 (ja)
BR (1) BR112018077346A2 (ja)
CA (1) CA3025180A1 (ja)
IL (1) IL263926A (ja)
MX (1) MX2018015636A (ja)
WO (1) WO2018005953A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10979633B1 (en) 2019-12-17 2021-04-13 Suometry, Inc. Wide view registered image and depth information acquisition
CN111432117B (zh) * 2020-03-23 2021-08-10 北京迈格威科技有限公司 图像矫正方法、装置和电子系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004363A1 (ja) 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像符号化装置、画像送信装置および画像撮影装置
JP2010256296A (ja) 2009-04-28 2010-11-11 Nippon Computer:Kk 全方位3次元空間認識入力装置
US20120154548A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Left/right image generation for 360-degree stereoscopic video
JP2014095809A (ja) 2012-11-09 2014-05-22 Nintendo Co Ltd 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
US20150321103A1 (en) 2014-05-08 2015-11-12 Sony Computer Entertainment Europe Limited Image capture method and apparatus
JP2016511968A (ja) 2013-02-04 2016-04-21 ヴァロリゼーション−ルシェルシュ,リミテッド・パートナーシップ 全周囲立体イメージング
WO2016086379A1 (en) 2014-12-04 2016-06-09 SZ DJI Technology Co., Ltd. Imaging system and method

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6677982B1 (en) * 2000-10-11 2004-01-13 Eastman Kodak Company Method for three dimensional spatial panorama formation
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
US8004558B2 (en) * 2005-04-07 2011-08-23 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
GB2438449C (en) * 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
US20080212840A1 (en) * 2006-09-12 2008-09-04 Tamir Shalom Imaging system, method, and accessory therefor
KR20090038843A (ko) * 2008-11-25 2009-04-21 스비아토슬라브 이바노비치 아르세니치 입체 투사 시스템
CN101729918A (zh) * 2009-10-30 2010-06-09 无锡景象数字技术有限公司 一种实现双目立体图像校正和显示优化的方法
US20120105574A1 (en) * 2010-10-28 2012-05-03 Henry Harlyn Baker Panoramic stereoscopic camera
CN102289145A (zh) * 2011-06-30 2011-12-21 浙江工业大学 基于3d全景视觉的智能三维立体摄像设备
JP2017521897A (ja) * 2014-05-20 2017-08-03 ネクストブイアール・インコーポレイテッド 1つ以上のカメラを含む、または、1つ以上のカメラとともに使用するための方法及び装置
US9420176B2 (en) 2014-06-19 2016-08-16 Omnivision Technologies, Inc. 360 degree multi-camera system
US9704250B1 (en) * 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
US9369689B1 (en) * 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US9930315B2 (en) * 2015-04-29 2018-03-27 Lucid VR, Inc. Stereoscopic 3D camera for virtual reality experience
US9877016B2 (en) * 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
CN105611128A (zh) * 2015-12-28 2016-05-25 上海集成电路研发中心有限公司 一种全景摄像机
CN205320214U (zh) * 2016-01-28 2016-06-15 北京极图科技有限公司 3dvr 全景视频成像装置
US10257501B2 (en) * 2016-04-06 2019-04-09 Facebook, Inc. Efficient canvas view generation from intermediate views
US10249019B2 (en) * 2016-05-06 2019-04-02 Mediatek Inc. Method and apparatus for mapping omnidirectional image to a layout output format
WO2017218834A1 (en) * 2016-06-17 2017-12-21 Kerstein Dustin System and method for capturing and viewing panoramic images having motion parralax depth perception without images stitching

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004363A1 (ja) 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像符号化装置、画像送信装置および画像撮影装置
JP2010256296A (ja) 2009-04-28 2010-11-11 Nippon Computer:Kk 全方位3次元空間認識入力装置
US20120154548A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Left/right image generation for 360-degree stereoscopic video
JP2014095809A (ja) 2012-11-09 2014-05-22 Nintendo Co Ltd 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
JP2016511968A (ja) 2013-02-04 2016-04-21 ヴァロリゼーション−ルシェルシュ,リミテッド・パートナーシップ 全周囲立体イメージング
US20150321103A1 (en) 2014-05-08 2015-11-12 Sony Computer Entertainment Europe Limited Image capture method and apparatus
WO2016086379A1 (en) 2014-12-04 2016-06-09 SZ DJI Technology Co., Ltd. Imaging system and method

Also Published As

Publication number Publication date
MX2018015636A (es) 2019-04-11
US20180007344A1 (en) 2018-01-04
CA3025180A1 (en) 2018-04-01
EP3318059B1 (en) 2023-04-12
EP3318059A4 (en) 2019-04-24
JP2019527495A (ja) 2019-09-26
WO2018005953A1 (en) 2018-01-04
IL263926A (en) 2019-01-31
BR112018077346A2 (pt) 2019-04-02
KR102312471B1 (ko) 2021-10-14
EP3318059A1 (en) 2018-05-09
AU2017290388A1 (en) 2018-12-13
KR20190051901A (ko) 2019-05-16
CN109328460A (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
US10460462B2 (en) System and method for three-dimensional image reconstruction using an absolute orientation sensor
CN107077743B (zh) 用于阵列相机的动态校准的系统和方法
US9686479B2 (en) Method for combining multiple image fields
CN106846409B (zh) 鱼眼相机的标定方法及装置
US9094672B2 (en) Stereo picture generating device, and stereo picture generating method
CN101563709B (zh) 校准照相机系统
CN112767542A (zh) 一种多目相机的三维重建方法、vr相机和全景相机
US11568516B2 (en) Depth-based image stitching for handling parallax
US20170270654A1 (en) Camera calibration using depth data
Zilly et al. Joint estimation of epipolar geometry and rectification parameters using point correspondences for stereoscopic TV sequences
JP7133478B2 (ja) 立体画像キャプチャ
CN109785225B (zh) 一种用于图像矫正的方法和装置
Wang et al. A practical distortion correcting method from fisheye image to perspective projection image
US10148929B2 (en) Method of prompting proper rotation angle for image depth establishing
US10721419B2 (en) Ortho-selfie distortion correction using multiple image sensors to synthesize a virtual image
GB2560301A (en) Methods and apparatuses for determining positions of multi-directional image capture apparatuses
CN112017138B (zh) 一种基于场景三维结构的图像拼接方法
PirahanSiah et al. Pattern image significance for camera calibration
Rebiere et al. Image mosaicing using local optical flow registration
McBride et al. Single camera stereo for mobile robot surveillance
Atanassov et al. Unassisted 3D camera calibration
CN115210533A (zh) 用于估计图像采集设备的位姿的方法和装置
Zhou et al. Light Field Stitching Based On Concentric Spherical Modeling
KR101323195B1 (ko) 2차원 영상에서 3차원 영상 생성 방법
WO2023194203A1 (en) A computer implemented method for adjusting an orientation and/or a position of a virtual representation of a first electronic device in a virtual space

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R150 Certificate of patent or registration of utility model

Ref document number: 7133478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150