JP6450982B2 - 構造化ステレオ - Google Patents

構造化ステレオ Download PDF

Info

Publication number
JP6450982B2
JP6450982B2 JP2016555765A JP2016555765A JP6450982B2 JP 6450982 B2 JP6450982 B2 JP 6450982B2 JP 2016555765 A JP2016555765 A JP 2016555765A JP 2016555765 A JP2016555765 A JP 2016555765A JP 6450982 B2 JP6450982 B2 JP 6450982B2
Authority
JP
Japan
Prior art keywords
depth map
sensor
low
density
precision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016555765A
Other languages
English (en)
Other versions
JP2017511468A (ja
Inventor
アヴィヴ、ツィヴ
スタンヒル、デイヴィッド
リーフ、ドロアー
ツィス、ロイ
ダノウィッツ、ジェフリー
ペルツォフ、エフド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2017511468A publication Critical patent/JP2017511468A/ja
Application granted granted Critical
Publication of JP6450982B2 publication Critical patent/JP6450982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Description

本技術は概して深度マップに関する。より具体的には、本技術は、非対称に配置された複数の構成要素を用いて深度マップを生成することに関する。
コンピューティングシステム、タブレット、ラップトップ、携帯電話などのコンピューティングプラットフォームは、画像をキャプチャするのに用いられる様々な画像生成ハードウェア及びソフトウェアモジュールを含む。(ステレオ)画像生成では、2つの画像センサが存在する。2つのセンサは、例えば、深度センサ、可視の赤緑青(RGB)スペクトルセンサ、又は赤外線(IR)スペクトルセンサであってよく、可視照明又はIR照明を含んでもよい。
構造化ステレオを含み得るコンピューティングデバイスのブロック図である。
エミッタ及びセンサの配置の一例である。
エミッタ及びセンサの配置の別の例である。
構造化ステレオ用の方法の処理フロー図である。 構造化ステレオ用のコードを格納する有形の非一時的コンピュータ可読媒体を示すブロック図である。
本開示及び図面を通じて、同様の複数の構成要素及び複数の特徴を参照するために、同一の数字が用いられる。100番台の数字は、図1で最初に見られる特徴を指し、200番台の数字は図2で最初に見られる特徴を指すなどである。
一対のセンサを用いるパッシブ型ステレオ画像生成での深度抽出は、両方のカメラで観察される複数の物体区画の相対オフセット(視差として知られる)を計算することを含む。本技術は複数のセンサを用いて説明されるが、カメラ、画像センサ、又はそれらの任意の組み合わせなどの任意の画像キャプチャ機構が用いられ得る。相対オフセットは、画素座標で計算されることが多い。これらの視差を計算すべく、第1センサからの画像の画素が、第2センサからの他の画像の対応する画素にマッチングされる。一様な領域において、2つの画像間で画素をマッチングさせることは、ほとんど不可能ではないにしろ、困難である。本明細書では、一様な領域は、実質的に同様である複数の画像の部分であり、そのためこれらの領域において返される深度マップは、どうにか見られるとしても品質が低い。従って、一様な領域は、ステレオカメラシステムで取得される深度マップの品質を著しく低下させる。
代替的に、アクティブ型ステレオは、センサで観察される物体上に一様でないテクスチャを投影することにより、深度マップを向上させる方法である。この方法は、一様な領域を一様でないテクスチャで満たす。一様でないテクスチャは、ユーザがセンサで観察される物体上に投影されたパターンを可視化できないように、赤外線エミッタを用いて一様でないテクスチャを投影することにより、一様な領域のマッチングを著しく容易にさせる。従って、アクティブ型ステレオに用いられるセンサは、赤外線カットセンサである。アクティブ型ステレオにより取得される深度マップの品質は、パッシブ型ステレオよりはるかに優れているが、視差ひいては深度(Z)の精度は、特にエミッタ−センサ構成から1メートルを超えて離れた距離にある物体では、距離とともに低下する。視差及びZの精度が低下する距離は、システム特性に依存する。
本明細書で説明される複数の実施形態は、エミッタ及びセンサを含む複数のシステム構成要素の非対称配置を用いて、構造化ステレオを可能にする。
複数の構成要素間の光学距離による、深度マップへの相反する影響は除去され得る。複数の実施形態において、正確且つ高密度な深度マップを取得すべく、アクティブ型ステレオ技術及び構造化光技術が組み合わされる。アクティブ型ステレオ技術は、他の技術と比較して、環境条件に対してよりロバストで、より高い出力分解能を有する深度マップを提供する。構造化光(SL)技術は正確とみなされており、それにより、結果として得られる深度マップの精度を確保する。
以下の説明及び請求項において、「結合(coupled)」及び「接続(connected)」という用語が、それらの派生語と共に用いられ得る。これらの用語は、互いに対して同義語として意図されるものではないことが理解されるべきである。むしろ、複数の特定の実施形態では、「接続」は、2又はそれより多くの要素が互いと物理的又は電気的に直接接触していることを示すのに用いられ得る。「結合」は、2又はそれより多くの要素が物理的又は電気的に直接接触していることを意味する。しかしながら、「結合」は、2又はそれより多くの要素が互いと直接接触していないが、それでもまだ互いと協働又は相互作用することも意味し得る。
いくつかの実施形態は、ハードウェア、ファームウェア、及びソフトウェアのうちの1つ、又はそれらの組み合わせに実装され得る。いくつかの実施形態は、機械可読媒体に格納される命令としても実装され得る。この命令は、コンピューティングプラットフォームにより読み取られ且つ実行されて、本明細書で説明される演算を実行し得る。機械可読媒体は、機械、例えばコンピュータにより可読な形で、情報を格納又は送信するための任意の機構を含み得る。例えば、機械可読媒体はとりわけ、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、あるいは、電気、光、音、又は他の形の伝搬信号、例えば搬送波、赤外線信号、デジタル信号、又は信号を送信及び/又は受信するインタフェースを含み得る。
一実施形態は実装又は実施例である。本明細書において、「一実施形態」、「1つの実施形態」、「いくつかの実施形態」、「様々な実施形態」、又は「他の実施形態」への言及は、実施形態と関連して説明される特定の機能、構造、又は特性が、本技術の少なくともいくつかの実施形態に含まれることを意味するものであり、必ずしも全ての実施形態に含まれることを意味するものではない。「一実施形態」、「1つの実施形態」、 又は「いくつかの実施形態」が様々に出現するが、必ずしも全てが同一の実施形態に言及しているわけではない。一実施形態による要素又は態様が、別の実施形態の要素又は態様と組み合わされ得る。
本明細書で説明され且つ示される全ての構成要素、機能、構造、特性などが、特定の1又は複数の実施形態に含まれる必要があるわけではない。構成要素、機能、構造、又は特性が含まれ「てよい(may)」、含まれ「るかもしれない(might)」、含まれ「得る(can)」、含まれ「る場合がある(could)」ということを本明細書で述べる場合、例えば、その特定の構成要素、機能、構造、又は特性は、含まれることを必要とされない。明細書又は請求項が「1つの(a又はan)」要素に言及する場合、これは1つの要素だけが存在することを意味するわけではない。明細書又は請求項が「1つの追加の」要素に言及する場合、これは、1より多くの追加の要素が存在することを除外しない。
いくつかの実施形態は複数の特定の実装を参照して説明されてきたが、いくつかの実施形態に従って、他の複数の実装が可能であることに留意されたい。さらに、図面に示される及び/又は本明細書で説明される複数の回路要素又は他の複数の機能の配置及び/又は順序は、示される且つ説明される特定の方法で配置される必要はない。多くの他の配置が、いくつかの実施形態に従って可能である。
図に示される各システムにおいて、いくつかの場合の複数の要素は、表される複数の要素が異なる及び/又は同様であり得ることを示唆すべく、それぞれ同一の参照番号又は異なる参照番号を有しうる。しかしながら、要素は、異なる複数の実装を有し、本明細書に示される又は説明されるシステムのいくつか又は全てとともに動作できるほど十分に柔軟であり得る。図に示される様々な要素は、同一でも異なってもよい。どちらが第1の要素と称され、どれが第2の要素と呼ばれるかは任意である。
図1は、構造化ステレオを含み得るコンピューティングデバイス100のブロック図である。コンピューティングデバイス100は、例えば、とりわけ、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、モバイルデバイス、又はサーバであってよい。コンピューティングデバイス100は、ゲームデバイス、又はゲームシステムの一部であってもよい。コンピューティングデバイス100は、格納された命令を実行するよう構成される中央処理ユニット(CPU)102、及び、CPU102により実行可能な命令を格納するメモリデバイス104を含み得る。CPUは、バス106によりメモリデバイス104に結合され得る。さらに、CPU102は、シングルコアプロセッサ、マルチコアプロセッサ、コンピューティングクラスタ、又は他の任意の数の構成であり得る。さらに、コンピューティングデバイス100は、1より多くのCPU102を含み得る。CPU102により実行される命令は、構造化ステレオを実装するのに用いられ得る。メモリデバイス104は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、フラッシュメモリ、又は任意の他の適切なメモリシステムを含み得る。例えば、メモリデバイス104は、ダイナミックランダムアクセスメモリ(DRAM)を含み得る。
コンピューティングデバイス100は、グラフィックス処理ユニット(GPU)108も含み得る。示されるように、CPU102は、バス106を介してGPU108に結合され得る。GPU108は、コンピューティングデバイス100内で、任意の数のグラフィックス演算を実行するよう構成され得る。例えば、GPU108は、コンピューティングデバイス100のユーザに表示されるグラフィックス画像、グラフィックスフレーム、ビデオ、又は同様のものを描画又は処理するよう構成され得る。いくつかの実施形態では、GPU108は、複数の実行ユニット110を含み、各実行ユニット110は、特定のグラフィックスタスクを実行する、又は特定の種類のワークロードを実行するよう構成される。例えば、GPU108は、非対称に配置された複数のセンサに基づいて深度マップを生成する実行ユニットを含み得る。
コンピューティングデバイス100は、画像キャプチャデバイス112を含む。複数の実施形態において、画像キャプチャデバイス112は、カメラ、立体カメラ、赤外線センサ、又は同様のものである。画像キャプチャデバイス112は、画像情報をキャプチャするのに用いられる。コンピューティングデバイス100は、センサハブ114も含み得る。センサハブ114は、深度センサ、画像センサ、赤外線センサ、X線光子計数センサ、又はそれらの任意の組み合わせなど、様々なセンサを含み得る。センサハブ114の深度センサは、センサハブ114の画像センサによりキャプチャされた画像情報と関連した深度情報をキャプチャするのに用いられ得る。いくつかの実施形態では、センサハブ114は、画像キャプチャ機構110の構成要素である。さらに、複数の実施形態において、センサハブ114は、センサデータを画像キャプチャ機構に提供する。センサハブ114の複数のセンサは、電荷結合素子(CCD)画像センサ、相補型金属酸化物半導体(CMOS)画像センサ、システムオンチップ(SoC)画像センサ、光電性薄膜トランジスタを有する画像センサ、又はそれらの任意の組み合わせなどの画像センサを含み得る。いくつかの実施形態において、センサハブ114は、組み込み型サービスハブであっても、組み込み型サービスハブ内に実装されてもよい。
画像キャプチャ機構は、エミッタ116も含み得る。深度マップを生成すべく、非対称に配置された複数のセンサとともに用いられ得るエミッタは、一様でないテクスチャを物体上に投影するのに用いられ得る。複数の実施形態において、深度マップは、複数の画素間の差異を分析し、非対称に配置された複数のセンサによる所望の分解能に従って画素をキャプチャすることで生成される。
CPU102は、バス106を介して入力/出力(I/O)デバイスインタフェース118に接続され得て、このインタフェースは、コンピューティングデバイス100を1又は複数のI/Oデバイス120に接続するよう構成される。I/Oデバイス120は、例えば、キーボード及びポインティングデバイスを含み得て、ポインティングデバイスは、とりわけタッチパッド又はタッチスクリーンを含み得る。I/Oデバイス120は、コンピューティングデバイス100の内蔵構成要素であっても、コンピューティングデバイス100に外付けで接続されるデバイスであってもよい。
CPU102は、バス106を介してディスプレイインタフェース122にもリンクされ得て、このインタフェースは、コンピューティングデバイス100をディスプレイデバイス124に接続するよう構成される。ディスプレイデバイス124は、コンピューティングデバイス100の内蔵構成要素であるディスプレイスクリーンを含み得る。ディスプレイデバイス124は、とりわけコンピュータモニタ、テレビ、又はプロジェクタも含み得て、これは、コンピューティングデバイス100に外付けで接続される。
コンピューティングデバイスは、ストレージデバイス126も含む。ストレージデバイス126は、ハードドライブ、光学式ドライブ、サムドライブ、ドライブアレイ、又はそれらの任意の組み合わせなどの物理メモリである。ストレージデバイス126は、リモートストレージドライブも含み得る。ストレージデバイス126は、アプリケーション128も含み得る。アプリケーション128は、ジェスチャ認識など、人とコンピュータの対話型アプリケーションであり得る。従来のRGB画像は、画像を十分に分析してジェスチャ、姿勢、又は顔の表情を認識するのに十分なデータを提供しないので、人とコンピュータの対話型アプリケーションは、物体の深度画像から利益を享受する。コンピューティングデバイス100は、センサハブエンジン130も含み得る。いくつかの場合において、センサハブエンジンは、コンピューティングデバイス100内でセンサハブ114のセンサの機能を可能にするソフトウェアを含む。センサハブエンジン130は、センサハブ114と同様の複数のセンサも含み得る。
コンピューティングデバイス100は、ネットワークインタフェースコントローラ(NIC)132も含み得て、これは、コンピューティングデバイス100をネットワーク134にバス106を介して接続するよう構成され得る。ネットワーク134は、とりわけ、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、又はインターネットであってよい。
図1のブロック図は、コンピューティングデバイス100が図1に示される構成要素の全てを含むことを示すよう意図されるものではない。さらに、コンピューティングデバイス100は、特定の実装の詳細に応じて、図1に示されない任意の数の追加の構成要素を含み得る。
上で述べられたように、立体画像生成に用いられる複数の構成要素は非対称に配置される。複数の構成要素は、複数のセンサ及び複数のエミッタを含み得る。そのような配置を通じて、パッシブ型及びアクティブ型ステレオ深度カメラシステムの両方における、光学距離についてのいかなる相反する影響も克服され得る。
光学距離は、ベースライン距離としても知られ得る。いくつかの場合において、光学距離は、2つのセンサ間の距離である。光学距離は、センサとエミッタとの間の距離でもあり得る。光学距離は、アクティブ型ステレオシステム及びパッシブ型ステレオシステムの両方のステレオシステムの性能に対して、相反する様々な影響を有する。第1に、光学距離が増すにつれて、2つのセンサからの画像間のマッチングが、オクルージョンのためにより難しくなる。
また、様々な深度を持つ物体は、両方のセンサによって異なるように見られ、マッチング領域はあったとしても少ししか残っていないので、マッチングはより困難になる。マッチングは、ステレオ対応としても知られ得て、異なる複数の視点から撮られた同一シーンの2又はそれより多くの画像を用いて実行され得る。点のセットが1つの画像に見られ、これらは別の画像にも見られる、又は特定される。いくつかの場合において、マッチングは、各画像内の特徴を用いて行われる。従って、マッチング又はステレオ対応では、1つの画像に見られる特徴は、別の画像にも見られる、又は特定される。いくつかの場合において、複数の画像は、異なる複数の位置で単一のセンサを用いて取得される。複数の画像は、異なる時点で単一のセンサを用いて取得されてもよい。さらに、複数のセンサが、マッチングのために複数の画像を取得するのに用いられ得る。また、シーン内の物体は、概して1又は複数センサに対して運動中であり得る。
第2の相反する影響は、正確な画素分解能視差を仮定すれば、深度測定はより正確であるということである。 画像は各センサからサンプリングされるので、視差は画素精度までしか測定され得ない。従って、視差測定では半画素誤差という仮定が存在する。視差が深度に変換される場合、この誤差は光学距離が増すにつれて低下する。
例えば、一対のピンホール及び完全に整合した複数の画像センサを検討してみる。各センサの焦点距離は1画素であり、両方のセンサの画素サイズは1画素であると仮定する。さらに、左センサの光学中心は、絶対座標系の原点にある。
={0、0、0}
右カメラの光学中心は、
={d、0、0}
である。
点{x、y、z}を検討してみる。左センサで観察されると、この点は次の通りにマッピングされる。
{x、y}={x/z、y/z}
右センサで観察されると、この点は次の通りにマッピングされる。
{x、y}={x−d/z、y/z}
左右のセンサに両方の点のX座標を与えると、深度値(Z)が求められ得る。具体的には、深度は次式になる。
z=d/(d/z)=d/(d/(x−x))
観察されたサンプリング済みの画素値はx及びxであり、正確な深度値ではないことに留意されたい。両方の画素、並びにx及びxの位置における組み合わせ誤差εが、計算値に誤差Eをもたらす。
Z+E=d/(d/(x−x+ε))
Eのdへの依存性を計算するために、差分を取ると次式になる。
E(d)=d/(x−x)−d/(x−x+ε)=d/(d/z)−d/((d/z)+ε)=εZ/(d+εZ)
従って、Zの精度は光学距離に対して逆線形に増加する。しかしながら、光学距離を増加させると、マッチング処理が劣化し、これにより誤差の可能性が増加する。
物体が傾斜面であると仮定する。物体は、{x+t、y、z+at}の座標に置かれ、サイズk×kのウィンドウがマッチングに用いられる。マッチングが成功するには、左右のカメラの両ウィンドウは類似するように見えるべきである。両ウィンドウは、副画素サンプリング及びノイズに起因して、厳密に同様になることはない。これは、物体の深度傾斜であるaが増加すると、左右のウィンドウ間の相違が増加し、マッチング処理が劣化するからである。ウィンドウの左境界をp、つまりp={x、y、z}、ウィンドウの右境界をq、つまり、q={x+k、y、z+ak}とする。
左(l)及び右(r)の両方のカメラにおいて、これらの点の座標は次の通りである。
={x/z、y/z}、q={(x+k)/(z+ak)、y/(z+ak)}
={(x+d)/z、y/z}、q={(x+k+d)/(z+ak)、y/(z+ak)}
2つの点、p及びqの間の視差は次の通りである。
−p=(x/z)−(x+d)/z=d/z
−q=((x+k)/(z+ak))−((x+k+d)/(z+ak))=d/(z+ak)
aが1(45度の傾斜面)、kが5(小ウィンドウ)であると仮定する。画素サイズが0.0001cm、1mにおいて1mmの画素スケール、dが1cmであり、1メートルの距離において、右ウィンドウは左ウィンドウと比較して(d×(0.5/10000))/0.0001、0.5画素だけ歪められることが分かる。光学距離が増加すると、この歪が増大してマッチング精度が劣化する。これにより、光学中心が増すにつれて、傾斜物体の相対変形が増加することになる。しかしながら、立体画像生成に用いられる複数の構成要素を非対称に配置することで、傾斜物体を矯正することなく、光学中心が増すにつれて正確な深度が取得される。
図2は、エミッタ及びセンサの配置200の例である。配置200では、エミッタ202と右センサ206との間の距離と比較すると、エミッタ202は左センサ204により近く配置される。図2において、エミッタ202、左センサ204、及び右センサ206は、様々な物体及び特徴を含み得るエリア208から情報をキャプチャするのに用いられる。左センサ204及びエミッタ202は、深度マップを生成するのに用いられ得て、この深度マップは、低密度且つ低精度であってよい。概して、深度マップは、特定の視点からの画像内の物体の表面の距離を伝達する情報を含む画像である。しかしながら、単一のセンサは、画像内の各点ごとに単一のデータ値を提供する。単一のデータ値は、完全な深度マップを得るのに十分な情報を提供し得ない。エミッタ202及び左センサにより提供された深度マップは低密度とみなされる。というのは、画像の縁又は画像内の突出物体など、画像の特定の特徴において正確だからである。いくつかの場合では、低密度深度マップは、2つのセンサ間でステレオ対応を行うことで求められる。
左センサ204及びエミッタ202により提供された深度マップは低密度深度マップであるため、深度情報を用いる用途に必要な精度を提供しない。従って、低密度深度マップは、最終的な深度マップの初期近似として用いられる。左センサ204をエミッタ202の近くに配置することで、左センサ204はエミッタまで短光学距離を有し、高精度マッチングを可能にする。エミッタ202及びセンサの対は、左センサによりキャプチャされた画像を、所与の距離でエミッタにより投影された既知のパターンにマッチングさせるのに用いられ得る。この技術は、低密度深度マップをキャプチャするのに用いられ、上述されたように、構造化光の手法に類似している。
右センサも画像を取得するのに用いられる。右センサからの画像は、左センサ204及びエミッタ202から取得された低密度深度マップを改良するのに用いられる。いくつかの場合において、左右のセンサデータ間のマッチングが、深度マップを改良すべく実行される。さらに、いくつかの場合において、右センサと既知のパターンとの間の構造化光が、深度マップを改良するのに用いられる。改良後に取得された深度マップは、長い光学距離に起因して高精度である。長い光学距離でのマッチング処理は、マッチングが第1フェーズにおいて見られる視差の近くの画素に対して実行されるような改良だけである。
図3は、エミッタ及びセンサの配置300の例である。左センサ302が右センサ304の近くにある。エミッタ306は、左センサ302及び右センサ304の両方から一番右寄りにある。図3において、エミッタ306、左センサ302、及び右センサ304は、様々な物体及び特徴を含み得るエリア308から情報をキャプチャするのに用いられる。互いに近い左センサ302及び右センサ304を有することで、低精度だが高密度の深度マップが提供される。構造化光を介した、右センサ304と遠くにあるエミッタ306との間のマッチングにより、いくつかの画素に対して深度マップを改良したものが提供される。いくつかの場合において、エミッタにより投影された画像の分解能がセンサの分解能より低いので、測定値は全ての画素に対して改良されない。複数の実施形態において、センサとエミッタとの間のコード化された構造化光対応が、深度マップを求めるのに用いられ得る。
「低分解能高精度」の深度マップ及び「低精度高密度」の初期マップの補間が適用されて、「高分解能且つ高密度」の深度マップを提供し得る。いくつかの場合において、この補間はスマート補間とみなされ得る。複数の実施形態において、低分解能高精度深度マップは、図2で説明されるように取得され得る。複数の実施形態において、「低精度高密度」の深度マップは図3で説明されるように取得され得る。さらに、複数の実施形態において、2つの異なるパターンがエミッタにより放出される。第1パターンは、アクティブ型ステレオ用途に適した低デューティサイクルを有し得る。第2パターンは、構造化光又はコード化された光技術とともに副画素改良に用いられる高周波数パターンであり得る。第2パターンは、アクティブ型ステレオからの初期結果に基づいて改良するためだけに用いられるので、マルチパターン又は動きの問題はない。いくつかの場合において、2つのエミッタが、複数のパターンを放出するのに用いられる。第1エミッタが、比較的短距離にある物体に対して構造化光技術に用いられ得て、第2エミッタが、比較的長距離にある物体に対して構造化光技術に用いられ得る。
図4は、構造化ステレオ用の方法400の処理フロー図である。ブロック402において、低精度の低密度深度マップが取得される。いくつかの場合において、低密度深度マップは、エミッタを2つのセンサとともに用いて生成され得る。エミッタは、光学距離を変更すべく第1センサのより近くに配置される。このように、光学距離の相反する影響は、結果として得られる深度マップに影響を与えない。いくつかの場合において、高精度深度マップは、図2で説明されたように低密度深度マップである。ブロック404において、初期近似として低精度の低密度深度マップを用いる高精度深度マップが生成される。いくつかの場合において、高精度深度マップは、センサとエミッタとの間で構造化光技術を用いて、低精度の低密度深度マップを改良することで生成される。
さらに、高精度深度マップは、少なくとも2つのセンサ間のマッチング技術、及びセンサとエミッタとの間の構造化光技術を用いて生成され得る。エミッタは低デューティサイクルの第1パターンを投影し、エミッタは、高密度低精度深度マップの副画素改良のために第2パターンを投影する。
ブロック406において、高密度低精度深度マップが取得される。複数の実施形態において、互いに近くに近接して配置される2つのセンサが、高密度深度マップを生成するのに用いられ得る。いくつかの場合において、高密度深度マップは、図3で説明されたように生成される。2つのセンサからの深度マップは、構造化光技術を用いて改良され得る。ブロック408において、高密度高分解能深度マップは、高精度深度マップ及び高密度低精度深度マップを用いて計算される。いくつかの場合において、高精度深度マップ及び高密度深度マップは、高分解能且つ高密度の深度マップを計算すべく補間される。さらに、高密度高分解能深度マップは、アクティブ型ステレオ技術を用いる高精度深度マップ、及び構造化光技術を用いる高密度低精度深度マップを取得することで計算され得る。結果として、本技術は、ハイブリッド方式のアクティブ型ステレオ及び構造化光の解決手法とみなされ得る。
図5は、構造化ステレオ用のコードを格納する有形の非一時的コンピュータ可読媒体500を示すブロック図である。有形の非一時的コンピュータ可読媒体500は、コンピュータバス504を通じてプロセッサ502によりアクセスされ得る。さらに、有形の非一時的コンピュータ可読媒体500は、本明細書で説明される方法を実行するようプロセッサ502に指示するよう構成されたコードを含み得る。
本明細書で論じられる様々なソフトウェア構成要素は、図5に示されるように、1又は複数の有形の非一時的コンピュータ可読媒体500に格納され得る。例えば、低密度マッピングモジュール506は、非対称に配置されたセンサで低密度深度マップを生成するよう構成され得る。低密度マッピングモジュール506により生成された深度マップも、高精度深度マップであり得る。ブロック508において、高密度マッピングモジュールは、非対称に配置されたセンサで高密度深度マップを生成するよう構成され得る。そのような状況において、図3に示されるように、エミッタが、2つのセンサから距離を置いて配置され得る。高密度マッピングモジュール508により生成された深度マップも、低分解能深度マップであり得る。ブロック510において、補間モジュールが、低密度マッピングモジュール506及び高密度マッピングモジュール508からの深度マップを補間し、高精度且つ高密度な深度マップを取得する。
図5のブロック図は、有形の非一時的コンピュータ可読媒体500が、図5に示される構成要素の全てを含むことを示すよう意図されていない。さらに、有形非一時的コンピュータ可読媒体500は、特定の実装の詳細に応じて、図5に示されていない任意の数の追加の構成要素を含み得る。
複数の実施形態において、本技術は2つの深度推定技術を組み合わせる。アクティブ型ステレオ技術を用いることで、深度マップは環境条件に対してよりロバストになり、より高い出力分解能を有する。構造化光技術を用いることでも、正確とみなされる深度マップが取得される。アクティブ型ステレオは、カメラ又はセンサなどの複数の画像キャプチャ機構及びエミッタを用い得る。第1サブシステムは、少なくともエミッタ及び画像キャプチャ機構を含み、高精度マッチングを可能にすべく複数の構成要素間が短光学距離になるように配置された複数の構成要素を有する。第2サブシステムは、少なくともエミッタ及び画像キャプチャ機構を含み、高精度深度(Z)計算を可能にすべく長光学距離になるように配置された複数の構成要素を有する。いくつかの場合において、エミッタの周りに複数の画像キャプチャ機構を非対称に配置することで、光学距離に差異が生じる。さらに、エミッタ及び画像キャプチャ機構の対が、現在キャプチャされた画像を所与の距離で投影された既知のパターンとマッチングさせるのに用いられ得る。
[実施例1]
構造化ステレオ用の装置は本明細書で説明される。装置は、エミッタ及び複数のセンサを含む。複数のセンサは、エミッタに対して非対称に配置される。
エミッタ及び複数のセンサは、低密度深度マップを生成するのに用いられ得るデータを取得し得て、低密度深度マップは正確な深度マップを取得するようさらに改良され得る。エミッタ及び複数のセンサは、低密度深度マップを生成するのに用いられ得るデータも取得し得て。低密度深度マップは、複数のセンサのうちの1つのセンサとエミッタとの間の短い光学距離の結果であり得る。さらに、エミッタ及び複数のセンサは、低密度深度マップを生成するのに用いられ得るデータを取得し得て、低密度深度マップは、正確な深度マップを取得すべくさらに改良され得る。この改良は、複数のセンサのうちの1つのセンサとエミッタとの間の長い光学距離の結果として取得され得る。また、エミッタ及び複数のセンサは、低精度の高密度深度マップを生成するのに用いられ得るデータを取得し得る。エミッタ及び複数のセンサは、低精度の高密度深度マップを生成するのに用いられ得るデータを取得し得て、高密度深度マップは、複数のセンサのうちの1つのセンサとエミッタとの間の長い光学距離の結果であり得る。エミッタ及び複数のセンサは、低精度の高密度深度マップを生成するのに用いられ得るデータを取得し得て、高密度深度マップは、複数のセンサのうちの1つのセンサとエミッタとの間のより短い光学距離の結果からのデータを用いて改良され得る。さらに、エミッタ及び複数のセンサは、構造化光技術と組み合わされたアクティブ型ステレオ技術に用いられて、高分解能の高密度深度マップを取得し得る。エミッタと複数のセンサとの間の光学距離は、生成される深度マップの種類に応じて調節され得る。装置は第2エミッタを含み得る。
[実施例2]
構造化ステレオ用のシステムが本明細書で説明される。システムは、エミッタ、複数のセンサ、メモリ、及びプロセッサを含む。エミッタ及び複数のセンサは、システムにおいてエミッタに対して非対称に配置される。命令を格納するメモリは、エミッタ及び複数のセンサに通信可能に結合される。プロセッサは、メモリに通信可能に結合される。プロセッサが命令を実行する場合、プロセッサは高精度深度マップを生成し、且つ高密度深度マップを生成する。プロセッサは、高精度深度マップ及び高密度深度マップを用いて、高分解能且つ高密度の深度マップも計算する。
エミッタは、複数のセンサのうちの少なくとも2つのセンサの間にあってよく、エミッタと第1センサとの間の距離は、エミッタと第2センサとの間の距離より短くてよい。複数のセンサのうちの第1センサと第2センサとの間の距離は、第1センサとエミッタとの間の距離、及び第2センサとエミッタとの間の距離より短くてよく、これにより、第1センサ及び第2センサは互いに近く、且つ第1センサ及び第2センサはエミッタから遠い。さらに、プロセッサは、低精度の低密度深度マップを取得し、高精度深度マップを取得すべく複数のセンサの間をマッチングすることで低精度の低密度深度マップを改良することによって高精度深度マップを生成し得る。さらに、プロセッサは、低精度の低密度深度マップを取得し、複数のセンサの間をマッチングすることで低精度の低密度深度マップを改良することによって高精度深度マップを生成し得る。センサからのマッチングされる画像は、センサとエミッタからのパターンとの間で構造化光を用いて取得され得る。このマッチングは、低精度の低密度深度マップを取得するときに見られる視差の近くの画素に対して実行され得る。また、プロセッサは、複数のセンサのうちの第1センサ及び第2センサからのデータで高密度深度マップを生成し得る。第1センサと第2センサとの間の距離は、第1センサとエミッタとの間の距離、及び第2センサとエミッタとの間の距離より短くてよく、これにより、第1センサ及び第2センサは互いに近く、且つ第1センサ及び第2センサはエミッタから遠い。
さらに、プロセッサは、複数のセンサのうちの第1センサ及び第2センサからのデータで高密度深度マップを生成し、第1センサ又は第2センサとエミッタとの間をマッチングすることで高密度深度マップを改良し得る。第1センサと第2センサとの間の距離は、第1センサとエミッタとの間の距離、及び第2センサとエミッタとの間の距離より短くてよく、これにより、第1センサ及び第2センサは互いに近く、且つ第1センサ及び第2センサはエミッタから遠い。エミッタは、アクティブ型ステレオ用の低デューティサイクルの第1パターン、及び構造化光で改良するための高周波数の第2パターンを投影し得る。第2エミッタ。エミッタはアクティブ型ステレオ用の低デューティサイクルの第1パターンを投影し得て、第2エミッタは構造化光で改良するための高周波数の第2パターンを投影し得る。複数のセンサは画像センサであってよい。さらに、システムはカメラの構成要素であってよい。
[実施例3]
ハイブリッド方式のアクティブ型ステレオ及び構造化光のための方法が本明細書で説明される。方法は、低精度の低密度深度マップを取得する段階と、初期近似として低精度の低密度深度マップを用いて高精度深度マップを生成する段階とを含む。方法は、高密度低精度深度マップを取得する段階と、高精度深度マップ及び高密度低精度深度マップを用いて高密度高分解能深度マップを計算する段階も含む。
低精度の低密度深度マップは、センサ及びエミッタからのデータを用いて取得され得る。高精度深度マップは、センサとエミッタとの間で構造化光技術を用いて低精度の低密度深度マップを改良することで生成され得る。さらに、高精度深度マップは、少なくとも2つのセンサの間でマッチング技術を用い、且つセンサとエミッタとの間で構造化光技術を用いて生成され得る。高密度低精度深度マップは、少なくとも2つのセンサを用いて取得され得る。さらに、高密度低精度深度マップは、少なくとも2つのセンサを用い、エミッタを用いて少なくとも2つのセンサからのデータを改良して取得され得る。さらに、高精度深度マップは、少なくとも2つのセンサの間でマッチング技術を用い、且つセンサとエミッタとの間で構造化光技術を用いて生成され得る。エミッタは低デューティサイクルの第1パターンを投影し、エミッタは高密度低精度深度マップの副画素改良用の第2パターンを投影する。方法は、低精度の低密度深度マップ及び高密度低精度深度マップを取得するのに用いられるエミッタ及びセンサの非対称配置も含む。高密度高分解能深度マップは、アクティブ型ステレオ技術を用いて高精度深度マップを、及び構造化光技術を用いて高密度低精度深度マップを取得することで計算され得る。さらに、高密度高分解能深度マップは、人とコンピュータの対話型アプリケーションで計算され得る。
[実施例4]
コードを含む有形の非一時的コンピュータ可読媒体が本明細書で説明される。コードは、高精度深度マップを生成し、高密度深度マップを生成するようプロセッサに指示する。コードは、高精度深度マップ及び高密度深度マップを用いて、高分解能且つ高密度の深度マップも計算するようプロセッサに指示する。
高精度深度マップは、センサ及びエミッタからのデータを用いて低精度の低密度深度マップを取得し、低密度深度マップを改良することで生成され得る。さらに、高精度深度マップは、センサとエミッタとの間で構造化光技術を用いて低密度深度マップを改良することで生成され得る。高精度深度マップは、少なくとも2つのセンサの間でマッチング技術を用い、且つセンサとエミッタとの間で構造化光技術を用いて生成され得る。高密度深度マップは、少なくとも2つのセンサを用いて生成され得る。さらに、高密度深度マップは、少なくとも2つのセンサを用い、エミッタを用いて少なくとも2つのセンサからのデータを改良して生成され得る。また、高精度深度マップは、少なくとも2つのセンサの間でマッチング技術を用い、且つセンサとエミッタとの間で構造化光技術を用いて生成され得る。エミッタは低デューティサイクルの第1パターンを投影し、エミッタは高密度深度マップの副画素改良用の第2パターンを投影する。エミッタ及びセンサの非対称配置がデータを取得するのに用いられ、高精度深度マップ及び高密度深度マップを生成し得る。高分解能且つ高密度の深度マップは、アクティブ型ステレオ技術を用いて高精度深度マップを、及び構造化光技術を用いて高密度深度マップを取得することで計算され得る。さらに、高分解能且つ高密度の深度マップは、人とコンピュータの対話型アプリケーションで計算され得る。
[実施例5]
構造化ステレオ用の装置は、エミッタと、深度データを取得するための手段とを含む。深度データを取得するための手段は、エミッタに対して非対称に配置される。
エミッタと、深度データを取得するための手段とは、低密度深度マップを生成するのに用いられ得るデータを取得し得て、低密度深度マップは、正確な深度マップを取得すべくさらに改良され得る。エミッタと、深度データを取得するための手段とは、低密度深度マップを生成するのに用いられ得るデータを取得し得て、低密度深度マップは、エミッタと、深度データを取得するための手段との間の短い光学距離の結果である。エミッタと、深度データを取得するための手段とは、低密度深度マップを生成するのに用いられ得るデータを取得し得て、低密度深度マップは、正確な深度マップを取得すべくさらに改良され得る。この改良は、エミッタと、深度データを取得するための手段との間の長い光学距離の結果として取得され得る。さらに、エミッタと、深度データを取得するための手段とは、低精度の高密度深度マップを生成するのに用いられるデータを取得し得る。エミッタと、深度データを取得するための手段とは、低精度の高密度深度マップを生成するのに用いられるデータを取得し得て、高密度深度マップは、エミッタと、深度データを取得するための手段との間の長い光学距離の結果である。さらに、エミッタと、深度データを取得するための手段とは、低精度の高密度深度マップを生成するのに用いられるデータを取得し得て、高密度深度マップは、エミッタと、深度データを取得するための手段との間のより短い光学距離の結果からのデータを用いて改良され得る。エミッタと、深度データを取得するための手段とは、構造化光技術と組み合わされたアクティブ型ステレオ技術に用いられて、高分解能の高密度深度マップを取得し得る。エミッタと、深度データを取得するための手段との間の光学距離は、生成される深度マップの種類に応じて調節され得る。装置は、第2エミッタも含み得る。
前述の例における細目は1又は複数の実施形態のどこでも用いられ得ることが理解されるべきである。例えば、上述されたコンピューティングデバイスの任意選択的な全ての機能も、本明細書で説明される複数の方法、又はコンピュータ可読媒体のいずれかに対して実装され得る。
さらに、複数のフロー図及び/又は複数の状態図が、複数の実施形態を説明するために本明細書で用いられているが、本技術は、これらの図面又は対応する本明細書の説明に限定されない。例えば、フローは、それぞれの示されたボックス又は状態を通じて、あるいは本明細書で示され且つ説明されたのとまったく同一の順序で動く必要はない。
本技術は、本明細書に列挙された特定の詳細に限定されない。実際、本開示の利益を享受する当業者は、上記の説明及び複数の図面からの多くの他の変形例が、本技術の範囲内で成され得ることを理解するであろう。従って、以下の特許請求の範囲が、それに対する任意の修正を含めて、本技術の範囲を画定する
[項目1]
構造化ステレオ用の装置であって、
エミッタと、
複数のセンサと、
を備え、
上記複数のセンサは、上記エミッタに対して非対称に配置される、
装置。
[項目2]
上記エミッタ及び上記複数のセンサは、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、正確な深度マップを取得するようさらに改良される、
項目1に記載の装置。
[項目3]
上記エミッタ及び上記複数のセンサは、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、上記エミッタと、上記複数のセンサのうちの1つのセンサとの間の短い光学距離の結果である、
項目1に記載の装置。
[項目4]
上記エミッタ及び上記複数のセンサは、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは正確な深度マップを取得するようさらに改良され、
上記改良は、上記エミッタと、上記複数のセンサの内の1つのセンサとの間の長い光学距離の結果として取得される、
項目1に記載の装置。
[項目5]
上記エミッタ及び上記複数のセンサは、高密度深度マップを低精度で生成するのに用いられるデータを取得する、
項目1に記載の装置。
[項目6]
構造化ステレオ用のシステムであって、
エミッタと、
複数のセンサであって、上記エミッタ及び上記複数のセンサは、上記システムにおいて、上記エミッタに対して非対称に配置される、複数のセンサと、
複数の命令を格納し、且つ上記エミッタ及び上記複数のセンサに通信可能に結合されるメモリと、
上記メモリに通信可能に結合されるプロセッサであって、上記プロセッサが上記複数の命令を実行する場合、上記プロセッサは、
高精度深度マップを生成し、
高密度深度マップを生成し、
上記高精度深度マップ及び上記高密度深度マップを用いて高分解能な高密度深度マップを計算する
プロセッサと、
を備える、
システム。
[項目7]
上記エミッタは、上記複数のセンサのうちの少なくとも2つのセンサの間にあり、上記エミッタと第1センサとの間の距離は、上記エミッタと第2センサとの間の距離より短い、
項目6に記載のシステム。
[項目8]
上記複数のセンサのうちの第1センサと第2センサとの間の距離は、上記第1センサと上記エミッタとの間の距離、及び上記第2センサと上記エミッタとの間の距離より短く、これにより、上記第1センサ及び上記第2センサは互いに近くにあり、上記第1センサ及び上記第2センサは上記エミッタから遠くにある、
項目6に記載のシステム。
[項目9]
上記プロセッサは、低精度の低密度深度マップを取得し、上記複数のセンサの間のマッチングにより、低精度の上記低密度深度マップを改良して上記高精度深度マップを取得することで、上記高精度深度マップを生成する、
項目6に記載のシステム。
[項目10]
上記プロセッサは、低精度の低密度深度マップを取得し、上記複数のセンサの間のマッチングにより、低精度の上記低密度深度マップを改良することで上記高精度深度マップを生成し、マッチングされるセンサからの画像が、上記センサと上記エミッタからのパターンとの間で構造化光を用いて取得される、
項目6に記載のシステム。
[項目11]
ハイブリッド方式のアクティブ型ステレオ及び構造化光のための方法であって、
低精度の低密度深度マップを取得する段階と、
初期近似として、低精度の上記低密度深度マップを用いて高精度深度マップを生成する段階と、
高密度低精度深度マップを取得する段階と、
上記高精度深度マップ及び上記高密度低精度深度マップを用いて、高密度高分解能深度マップを計算する段階と、
を備える、
方法。
[項目12]
センサ及びエミッタからのデータ用いて、低精度の上記低密度深度マップを取得する段階を備える、
項目11に記載の方法。
[項目13]
センサとエミッタとの間で構造化光技術を用いて、低精度の上記低密度深度マップを改良することで、上記高精度深度マップを生成する段階を備える、
項目11に記載の方法。
[項目14]
少なくとも2つのセンサの間でマッチング技術、及びセンサとエミッタとの間で構造化光技術を用いて、上記高精度深度マップを生成する段階を備える、
項目11に記載の方法。
[項目15]
少なくとも2つのセンサを用いて、上記高密度低精度深度マップを取得する段階を備える、
項目11に記載の方法。
[項目16]
有形の非一時的コンピュータ可読媒体であって、
高精度深度マップを生成し、
高密度深度マップを生成し、
上記高精度深度マップ及び上記高密度深度マップを用いて、高分解能な高密度深度マップを計算するよう、プロセッサに指示するコードを備える、
コンピュータ可読媒体。
[項目17]
センサ及びエミッタからのデータを用いて低精度の低密度深度マップを取得し、上記低密度深度マップを改良することで上記高精度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目18]
センサとエミッタとの間で構造化光技術を用いて低密度深度マップを改良することで、上記高精度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目19]
少なくとも2つのセンサの間でマッチング技術、及びセンサとエミッタとの間で構造化光技術を用いて、上記高精度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目20]
少なくとも2つのセンサを用いて上記高密度深度マップを生成する手順を含む、
項目16に記載のコンピュータ可読媒体。
[項目21]
構造化ステレオ用の装置であって、
エミッタと、
深度データを取得する手段と、
を備え、
深度データを取得する上記手段は、上記エミッタに対して非対称に配置される、
装置。
[項目22]
上記エミッタ、及び深度データを取得する上記手段は、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、正確な深度マップを取得するようさらに改良される、
項目21に記載の装置。
[項目23]
上記エミッタ、及び深度データを取得する上記手段は、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、上記エミッタと、深度データを取得する上記手段との間の短い光学距離の結果である、
項目21に記載の装置。
[項目24]
上記エミッタ、及び深度データを取得する上記手段は、低密度深度マップを生成するのに用いられるデータを取得し、上記低密度深度マップは、正確な深度マップを取得するようさらに改良され、上記改良は、上記エミッタと、深度データを取得する上記手段との間の長い光学距離の結果として取得される、
項目21に記載の装置。
[項目25]
上記エミッタ、及び深度データを取得する上記手段は、高密度深度マップを低精度で生成するのに用いられるデータを取得する、
項目21に記載の装置。

Claims (10)

  1. 構造化ステレオ用のシステムであって、
    第1エミッタ及び第2エミッタと、
    第1センサ及び第2センサと
    複数の命令を格納し、且つ前記第1エミッタ、前記第2エミッタ、前記第1センサ及び前記第2センサに通信可能に結合されるメモリと、
    前記メモリに通信可能に結合されるプロセッサであって、前記プロセッサが前記複数の命令を実行する場合、前記プロセッサは
    前記第1エミッタが前記第1センサと前記第2センサとの間にあり、かつ、前記第1エミッタと前記第1センサとの間の距離が、前記第1エミッタと前記第2センサとの間の距離より短くなるように、前記第1エミッタ、前記第1センサ及び前記第2センサが配置されている場合に、
    記第1エミッタ及び前記第1センサが構造化光技術を用いて取得したデータから低精度の低密度深度マップを生成し、
    正確な深度マップを取得するよう低精度の前記低密度深度マップを前記第2センサ及び前記第1エミッタを用いてさらに改良することによって、低精度の前記低密度深度マップより精度が高い高精度深度マップを生成し、
    前記第1センサと前記第2センサとの間の距離が、前記第1センサと前記第2エミッタとの間の距離及び前記第2センサと前記第2エミッタとの間の距離より短くなるように、前記第2エミッタ、前記第1センサ及び前記第2センサが配置されている場合に、
    記第1センサ及び前記第2センサが取得したデータから、低精度の前記低密度深度マップより密度が高い高密度深度マップを生成し、前記高密度深度マップは、前記第2センサと前記第2エミッタとの間のマッチングによって改良され、
    記高精度深度マップ及び前記高密度深度マップを用いて高精度かつ高密度な深度マップを計算する
    プロセッサと、
    を備え、
    前記高精度深度マップは、前記高密度深度マップより精度が高く、
    前記高密度深度マップは、前記高精度深度マップより密度が高く、
    前記高精度かつ高密度な深度マップは、低精度の前記低密度深度マップ及び前記高密度深度マップより精度が高く、かつ、低精度の前記低密度深度マップ及び前記高精度深度マップより密度が高く、
    2つの前記第1エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第1エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられ、
    2つの前記第2エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第2エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられる、
    ステム。
  2. 前記プロセッサは、低精度の前記低密度深度マップを取得し、前記第1センサと前記第2センサとの間のマッチングにより、低精度の前記低密度深度マップを改良して前記高精度深度マップを取得することで、前記高精度深度マップを生成する、
    請求項1に記載のシステム。
  3. 前記プロセッサは、低精度の前記低密度深度マップを取得し、前記第1センサと前記第2センサとの間のマッチングにより、低精度の前記低密度深度マップを改良することで前記高精度深度マップを生成し、マッチングされる前記第2センサからの画像が、前記第2センサと前記第1エミッタからのパターンとの間で構造化光を用いて取得される、
    請求項1又は2に記載のシステム。
  4. ハイブリッド方式のアクティブ型ステレオ及び構造化光のための方法であって、
    第1エミッタ及び第1センサが構造化光技術を用いて取得したデータから低精度の低密度深度マップを取得する段階と、
    初期近似として、低精度の前記低密度深度マップを用いて、第2センサ及び前記第1エミッタを用いることによって低精度の前記低密度深度マップより精度が高い高精度深度マップを生成する段階と、
    前記第1センサ及び第2センサを用いて、低精度の前記低密度深度マップより密度が高い高密度低精度深度マップを取得する段階であって、前記高密度低精度深度マップは、前記第2センサと第2エミッタとの間のマッチングによって改良される、段階と
    前記高精度深度マップ及び前記高密度低精度深度マップを用いて、高精度かつ高密度な深度マップを計算する段階と、
    を備え、
    前記高精度深度マップは、前記高密度低精度深度マップより精度が高く、
    前記高密度低精度深度マップは、前記高精度深度マップより密度が高く、
    前記高精度かつ高密度な深度マップは、低精度の前記低密度深度マップ及び前記高密度低精度深度マップより精度が高く、かつ、低精度の前記低密度深度マップ及び前記高精度深度マップより密度が高く
    2つの前記第1エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第1エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられ、
    2つの前記第2エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第2エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられる、
    法。
  5. 前記第2センサと前記第1エミッタとの間で構造化光技術を用いて、低精度の前記低密度深度マップを改良することで、前記高精度深度マップを生成する段階を備える、
    請求項4に記載の方法。
  6. 前記第1センサと前記第2センサとの間でマッチング技術、及び前記第2センサと前記第1エミッタとの間で構造化光技術を用いて、前記高精度深度マップを生成する段階を備える、
    請求項4又は5に記載の方法。
  7. 第1エミッタ及び第1センサが構造化光技術を用いて取得したデータから低精度の低密度深度マップを生成する手順と
    第2センサ及び前記第1エミッタを用いることによって低精度の前記低密度深度マップを改良することで、低精度の前記低密度深度マップより精度が高い高精度深度マップを生成する手順と、
    前記第1センサ及び第2センサを用いて、低精度の前記低密度深度マップより密度が高い高密度深度マップを生成する手順であって、前記高密度深度マップは、前記第2センサと第2エミッタとの間のマッチングによって改良される、手順と
    前記高精度深度マップ及び前記高密度深度マップを用いて、高精度かつ高密度な深度マップを計算する手順と、をコンピュータに実行させ、
    前記高精度深度マップは、前記高密度深度マップより精度が高く、
    前記高密度深度マップは、前記高精度深度マップより密度が高く、
    前記高精度かつ高密度な深度マップは、低精度の前記低密度深度マップ及び前記高密度深度マップより精度が高く、かつ、低精度の前記低密度深度マップ及び前記高精度深度マップより密度が高く
    2つの前記第1エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第1エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられ、
    2つの前記第2エミッタのうちの一方が、短距離にある物体に対して構造化光技術に用いられ、2つの前記第2エミッタのうちの他方が、長距離にある物体に対して構造化光技術に用いられる、
    ログラム。
  8. 前記第2センサと前記第1エミッタとの間で構造化光技術を用いて前記低密度深度マップを改良することで、前記高精度深度マップを生成する手順を含む、
    請求項7に記載のプログラム。
  9. 前記第1センサと前記第2センサの間でマッチング技術、及び前記第2センサと前記第1エミッタとの間で構造化光技術を用いて、前記高精度深度マップを生成する手順を含む、
    請求項7又は8に記載のプログラム。
  10. 請求項7から9の何れか一項に記載のプログラムを格納する、
    コンピュータ可読記憶媒体。
JP2016555765A 2014-04-24 2015-03-18 構造化ステレオ Active JP6450982B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/260,783 US9589359B2 (en) 2014-04-24 2014-04-24 Structured stereo
US14/260,783 2014-04-24
PCT/US2015/021133 WO2015163995A1 (en) 2014-04-24 2015-03-18 Structured stereo

Publications (2)

Publication Number Publication Date
JP2017511468A JP2017511468A (ja) 2017-04-20
JP6450982B2 true JP6450982B2 (ja) 2019-01-16

Family

ID=54332976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016555765A Active JP6450982B2 (ja) 2014-04-24 2015-03-18 構造化ステレオ

Country Status (6)

Country Link
US (1) US9589359B2 (ja)
EP (1) EP3135033B1 (ja)
JP (1) JP6450982B2 (ja)
KR (1) KR101903619B1 (ja)
CN (1) CN106256124B (ja)
WO (1) WO2015163995A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3055734A4 (en) * 2014-10-28 2016-10-26 Sz Dji Technology Co Ltd RGB-D IMAGING SYSTEM AND METHOD USING ULTRASONIC DEPTH DETECTION
CN107111598B (zh) * 2014-12-19 2020-09-15 深圳市大疆创新科技有限公司 使用超声深度感测的光流成像系统以及方法
US9948920B2 (en) 2015-02-27 2018-04-17 Qualcomm Incorporated Systems and methods for error correction in structured light
US10068338B2 (en) * 2015-03-12 2018-09-04 Qualcomm Incorporated Active sensing spatial resolution improvement through multiple receivers and code reuse
US9846943B2 (en) 2015-08-31 2017-12-19 Qualcomm Incorporated Code domain power control for structured light
CN205671994U (zh) 2015-12-16 2016-11-09 小米科技有限责任公司 自动清洁设备
CN107465911B (zh) * 2016-06-01 2019-03-15 东南大学 一种深度信息提取方法及装置
US10771768B2 (en) 2016-12-15 2020-09-08 Qualcomm Incorporated Systems and methods for improved depth sensing
US10609350B1 (en) * 2017-01-09 2020-03-31 Amazon Technologies, Inc. Multiple frequency band image display system
US11763433B2 (en) 2019-11-14 2023-09-19 Samsung Electronics Co., Ltd. Depth image generation method and device
US11741671B2 (en) * 2021-06-16 2023-08-29 Samsung Electronics Co., Ltd. Three-dimensional scene recreation using depth fusion

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0942940A (ja) * 1995-08-03 1997-02-14 Canon Inc 3次元物体の形状計測方法及び装置
JP2001091232A (ja) * 1999-09-24 2001-04-06 Sony Corp 3次元形状計測装置および方法、並びに記録媒体
US7103212B2 (en) 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
JP3738291B2 (ja) * 2003-06-09 2006-01-25 住友大阪セメント株式会社 三次元形状測定装置
DE102007031157A1 (de) * 2006-12-15 2008-06-26 Sick Ag Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
DE102011008655A1 (de) * 2011-01-14 2012-07-19 Inb Vision Ag Vorrichtung und Verfahren zur dreidimensionalen optischen Vermessung von Oberflächen
CN102760234B (zh) * 2011-04-14 2014-08-20 财团法人工业技术研究院 深度图像采集装置、系统及其方法
EP2772676B1 (de) 2011-05-18 2015-07-08 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
KR101272574B1 (ko) 2011-11-18 2013-06-10 재단법인대구경북과학기술원 구조광 패턴 기반의 3차원 영상 정보 추정 장치 및 방법
CN102761764B (zh) * 2012-07-16 2014-07-16 清华大学 一种用于三维立体视频的深度图片的上采样方法
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
CN103383776B (zh) * 2013-07-14 2016-06-15 浙江大学 一种基于分段匹配和贝叶斯估计的递进式立体匹配算法

Also Published As

Publication number Publication date
CN106256124A (zh) 2016-12-21
KR20160127057A (ko) 2016-11-02
US20150310620A1 (en) 2015-10-29
EP3135033A1 (en) 2017-03-01
EP3135033A4 (en) 2017-12-06
JP2017511468A (ja) 2017-04-20
US9589359B2 (en) 2017-03-07
WO2015163995A1 (en) 2015-10-29
EP3135033B1 (en) 2021-08-18
KR101903619B1 (ko) 2018-11-22
CN106256124B (zh) 2018-10-26

Similar Documents

Publication Publication Date Title
JP6450982B2 (ja) 構造化ステレオ
CN110300292B (zh) 投影畸变校正方法、装置、系统及存储介质
US9659408B2 (en) Mesh reconstruction from heterogeneous sources of data
JP6657214B2 (ja) 画像ベースの深さ検知システムの精度測定
JP6883608B2 (ja) 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム
CN111080687A (zh) 用于主动深度感测的方法和装置及其校准方法
US11282232B2 (en) Camera calibration using depth data
WO2020119467A1 (zh) 高精度稠密深度图像的生成方法和装置
WO2019124248A1 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
Shim et al. Time-of-flight sensor and color camera calibration for multi-view acquisition
JP3988879B2 (ja) 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体
JP2008216127A (ja) 距離画像生成装置、距離画像生成方法及びプログラム
JP2014116012A (ja) 画像間の色転送を行う方法および装置
US10281265B2 (en) Method and system for scene scanning
TW201715882A (zh) 深度估測裝置及方法
US10593054B2 (en) Estimation of 3D point candidates from a location in a single image
JP5996233B2 (ja) 画像撮像装置
US11257235B2 (en) Efficient sub-pixel disparity estimation for all sub-aperture images from densely sampled light field cameras
JP5728399B2 (ja) 計測装置、方法及びプログラム
WO2022022136A1 (zh) 深度图像生成方法及装置、参考图像生成方法及装置、电子设备以及计算机可读存储介质
JP2018081424A (ja) 画像処理装置および画像処理方法
KR101358430B1 (ko) 깊이 영상 생성 방법 및 시스템
WO2021057582A1 (zh) 图像匹配、3d成像及姿态识别方法、装置及系统
CN117152244A (zh) 屏幕间位置关系确定方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6450982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250