JP2016517505A - 適応デプス検出 - Google Patents

適応デプス検出 Download PDF

Info

Publication number
JP2016517505A
JP2016517505A JP2015560405A JP2015560405A JP2016517505A JP 2016517505 A JP2016517505 A JP 2016517505A JP 2015560405 A JP2015560405 A JP 2015560405A JP 2015560405 A JP2015560405 A JP 2015560405A JP 2016517505 A JP2016517505 A JP 2016517505A
Authority
JP
Japan
Prior art keywords
sensors
baseline
depth
image
dithering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015560405A
Other languages
English (en)
Inventor
エー. クリグ、スコット
エー. クリグ、スコット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2016517505A publication Critical patent/JP2016517505A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

装置、システム、及び方法が本明細書で説明される。装置は、1又は複数のセンサを含み、複数のセンサは、ベースラインレールによって結合される。装置は、また、ベースラインレールに沿って1又は複数のセンサを移動させるためのものであるコントローラデバイスを含み、ベースラインレールは、1又は複数のセンサのそれぞれの間のベースラインを調節するためのものである。

Description

本発明は、概して、デプス検出に関する。より具体的には、本発明は、様々なデプスプレーンにおける適応デプス検出に関する。
画像キャプチャの間に、画像情報に関連付けられるデプス情報をキャプチャするために用いられる様々な技術がある。デプス情報は、典型的には、画像内に含まれるデプスの表現を生成するために用いられる。デプス情報は、画像内の複数の3Dオブジェクトのデプスで示すために用いられてよいポイントクラウド、デプスマップ、又は3次元(3D)多角形メッシュの形であってよい。デプス情報は、また、複数のステレオペア又は複数の多視点ステレオ再構成方法を用いて2次元(2D)画像から導かれることができ、また、構造化照明、複数の飛行時間センサ、及び多くの他の方法を含む複数の直接デプスセンシング方法の広い範囲から導かれることができる。
デプスは、複数の規定のデプスプレーンにおいて固定デプス解像度値でキャプチャされる。
適応デプス検出を提供するために用いられてよいコンピューティングデバイスのブロック図である。 異なる複数のベースラインを有する2つのデプスフィールドの実例である。 MEMSデバイスを有する画像センサの実例である。 3つのディザリンググリッドの実例である。 グリッドをわたる複数のディザ移動の実例である。 ベースラインレールに沿う複数のMEMS制御センサを示す図である。 2つのセンサの間のベースラインの変化に基づく視野の変化を示す図である。 モバイルデバイスの実例である。 適応デプス検出のための方法の処理フロー図である。 適応デプス検出を提供する例示的なシステムのブロック図である。 図10のシステムが具現化されてよい小型フォームファクタデバイスの概略図である。 適応デプス検出のためのコードを格納する有形の非一時的コンピュータ可読媒体1200を示すブロック図である。
本開示及び図面を通じて、同様の複数のコンポーネント及び複数の機能に言及するために、同一の数字が用いられる。100のシリーズの数字は、最初に図1に表れる複数の機能を指し、200のシリーズの数字は、最初に図2に表れる複数の機能を指し、他も同様である。
デプス及び画像センサは、主に、静止した事前設定された複数のデバイスであり、様々なデプスプレーンにおける複数の固定デプス解像度値を有する複数の画像及びデプスをキャプチャする。複数のデプス解像度値及び複数のデプスプレーンは、複数のデプスセンサのための事前設定された光学的な視野、複数のセンサの固定された開口、及び固定センサの解像度に起因して固定される。本明細書において複数の実施形態が適応デプス検出を提供する。いくつかの実施形態において、デプス表現は、デプスマップ又はデプスマップ内の関心のエリアの使用に基づいて調整されてよい。
いくつかの実施形態において、適応デプス検出は、人間視覚システムに基づくスケーラブルなデプス検出である。適応デプス検出は、視野の光学中心及び開口を調節するために、微小電気機械システム(MEMS)を用いて実装されてよい。適応デプス検出は、また、様々な位置における複数のディザパターンのセットを含んでよい。
以下の説明及び複数の請求項において、「結合」及び「接続」という用語は、それらの派生語とともに用いられてよい。これらの複数の用語が互いに類義語として意図されないことが理解されるべきである。むしろ、複数の特定の実施形態では、「接続」は、2つ又はより多い要素が互いに直接物理的に又は電気的に接触することを示すために用いられてよい。「結合」は、2つ又はより多い要素が直接物理的に又は電気的に接触することを意味してよい。しかしながら、「結合」は、また、2つ又はより多い要素が互いに直接接触しないが、それでもさらに互いに協働又は情報をやりとりすることを意味してよい。
いくつかの実施形態は、ハードウェア、ファームウェア、及びソフトウェアのうちの1つ又は組み合わせで実装されてよい。いくつかの実施形態は、また、本明細書で説明される複数の動作を実行するコンピューティングプラットフォームによって読み取られて実行されてよい、機械可読媒体上に格納される複数の命令として実装されてよい。機械可読媒体は、機械、例えば、コンピュータによって読み取り可能な形で、情報を格納又は送信するための任意のメカニズムを含んでよい。例えば、機械可読媒体は、特に、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、複数のフラッシュメモリデバイス、又は電気、光、音、若しくは他の形の伝搬される複数の信号、例えば、複数の搬送波、複数の赤外線信号、複数のデジタル信号、若しくは複数の信号を送信及び/又は受信する複数のインターフェースを含んでよい。
実施形態は、実装又は例である。「実施形態」、「一実施形態」、「いくつかの実施形態」、「様々な実施形態」、又は「複数の他の実施形態」に対する本明細書における参照は、複数の実施形態に関連して説明される特定の機能、構造、又は特性が、本発明の少なくともいくつかの実施形態に含まれることを意味するが、全ての実施形態に含まれることを必ずしも意味しない。「実施形態」、「一実施形態」、又は「いくつかの実施形態」の様々な出現は、必ずしも全て同一の実施形態に言及しているわけではない。実施形態からの複数の要素又は複数の態様は、別の実施形態の複数の要素又は複数の態様と組み合わせられることができる。
本明細書で説明されて示される全てのコンポーネント、機能、構造、特性等は、特定の実施形態又は複数の実施形態に含まれる必要があるとは限らない。コンポーネント、機能、構造、又は特性が含まれ「てよい」、「る場合がある」、「ることができる」、「得る」と本明細書で述べた場合、例えば、特定のコンポーネント、機能、構造、又は特性は含まれることを必要とされない。明細書又は請求項が「ある」要素に言及する場合、それは、その要素が1つだけ存在することを意味しない。明細書又は請求項で、「ある追加の」要素に言及する場合、それは、追加の要素が1より多く存在することを除外しない。
いくつかの実施形態が複数の特定の実装を参照して説明されるが、いくつかの実施形態に従って、他の複数の実装が可能であることが留意される。さらに、図面に示される及び/又は本明細書で説明される複数の回路要素又は他の複数の機能の配置及び/又は順序は、示される及び説明される特定の方法で配置される必要はない。多くの他の配置が、いくつかの実施形態に従って可能である。
図面に示される各システムにおいて、複数の要素は、場合によっては、表される複数の要素が、異なり及び/又は類似し得ることを示唆するために、各々同一の参照番号又は異なる参照番号を有してよい。しかしながら、要素は、異なる複数の実装を有し、本明細書に示される又は説明されるシステムのいくつか又は全てと共に動作できるほど十分に柔軟であってよい。複数の図面に示される様々な要素は、同一又は異なるものであってよい。どちらが第1の要素と称され、どちらが第2の要素と呼ばれるかは任意である。
図1は、適応デプス検出を提供するために用いられてよいコンピューティングデバイス100のブロック図である。コンピューティングデバイス100は、特に、例えば、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、モバイルデバイス、又はサーバであってよい。コンピューティングデバイス100は、格納される複数の命令を実行するように構成された中央処理装置(CPU)102、及びCPU102によって実行可能な複数の命令を格納するメモリデバイス104を含んでよい。CPUは、バス106によってメモリデバイス104に結合されていてよい。さらに、CPU102は、シングルコアプロセッサ、マルチコアプロセッサ、コンピューティングクラスタ、又は任意の数の他の構成であり得る。さらに、コンピューティングデバイス100は、1より多いCPU102を含んでよい。CPU102によって実行される複数の命令は、適応デプス検出を実装するために用いられてよい。コンピューティングデバイス100は、また、グラフィックス処理ユニット(GPU)108を含んでよい。示されるように、CPU102は、バス106を通じてGPU108に結合されてよい。GPU108は、コンピューティングデバイス100内で任意の数のグラフィックス処理を実行するように構成されてよい。例えば、GPU108は、コンピューティングデバイス100のユーザに対して表示させるために、複数のグラフィックス画像、複数のグラフィックスフレーム、複数のビデオ、又はその類のものを描画又は操作するように構成されてよい。いくつかの実施形態において、GPU108は、多数のグラフィックスエンジン(不図示)を含み、各グラフィックスエンジンは、複数の特定のグラフィックスタスクを実行する、又は特定のタイプの複数の作業負荷を実行するように構成される。例えば、GPU108は、センサのディザリングを制御するエンジンを含んでよい。グラフィックスエンジンは、また、デプス解像度及びデプスフィールド線形性を調整すべく、視野(FOV)の開口及び光学中心を制御するために用いられてよい。いくつかの実施形態において、解像度は、特定のエリア内の複数のデータポイントの尺度基準である。複数のデータポイントは、デプス情報、画像情報、又はセンサによって測定される任意の他のデータポイントであり得る。さらに、解像度は、異なるタイプのデータポイントの組み合わせを含んでよい。
メモリデバイス104は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、フラッシュメモリ、又は任意の他の適切なメモリシステムを含むことができる。例えば、メモリデバイス104は、ダイナミックランダムアクセスメモリ(DRAM)を含んでよい。メモリデバイス104は、ドライバ110を含む。ドライバ110は、コンピューティングデバイス100内の様々なコンポーネントの動作のための複数の命令を実行するように構成される。デバイスドライバ110は、ソフトウェア、アプリケーション、プログラム、アプリケーションコード、又はその類のものであってよい。複数のドライバは、また、GPUを動作させ、センサのディザリング、開口、及び視野(FOV)の光学中心を制御するために用いられてよい。
コンピューティングデバイス100は、1又は複数の画像キャプチャデバイス112を含む。いくつかの実施形態において、画像キャプチャデバイス112は、カメラ、ステレオカメラ、赤外線センサ、又はその類のものであり得る。画像キャプチャデバイス112は、画像情報及び対応するデプス情報をキャプチャするために用いられる。画像キャプチャデバイス112は、例えば、デプスセンサ、RGBセンサ、画像センサ、赤外線センサ、X線光子カウントセンサ、光センサ、又はそれらの任意の組み合わせのような複数のセンサ114を含んでよい。画像センサは、電荷結合素子(CCD)画像センサ、相補型金属酸化物半導体(CMOS)画像センサ、システムオンチップ(SOC)画像センサ、複数の感光性薄膜トランジスタを有する複数の画像センサ、又はそれらの任意の組み合わせを含んでよい。いくつかの実施形態において、センサ114は、デプスセンサ114である。デプスセンサ114は、画像情報に関連付けられるデプス情報をキャプチャするために用いられてよい。いくつかの実施形態において、ドライバ110は、例えば、デプスセンサのような画像キャプチャデバイス112内でセンサを動作させるために用いられてよい。デプスセンサは、ディザリングの形態、開口、又は複数のセンサによって観察されるFOVの光学中心を調節することによって、適応デプス検出を実行してよい。MEMS115は、1又は複数のセンサ114の間の物理的な位置を調節してよい。いくつかの実施形態において、MEMS115は、2つのデプスセンサ114の間の位置を調節するために用いられる。
CPU102は、コンピューティングデバイス100を1又は複数の入力/出力(I/O)デバイス118に接続するように構成されるI/Oデバイスインターフェース116に、バス106を通じて接続されてよい。I/Oデバイス118は、例えば、キーボード及びポインティングデバイスを含んでよく、ここで、ポインティングデバイスは、特に、タッチパッド又はタッチスクリーンを含んでよい。I/Oデバイス118は、コンピューティングデバイス100の複数の内蔵コンポーネントであってよく、又はコンピューティングデバイス100に外部接続される複数のデバイスであってよい。
CPU102は、また、コンピューティングデバイス100をディスプレイデバイス122に接続するように構成されるディスプレイインターフェース120に、バス106を通じてリンクされてよい。ディスプレイデバイス122は、コンピューティングデバイス100の内蔵コンポーネントであるディスプレイスクリーンを含んでよい。ディスプレイデバイス122は、また、特に、コンピュータモニタ、テレビ、又はプロジェクタを含んでよく、それは、コンピューティングデバイス100に外部接続される。
コンピューティングデバイスは、また、ストレージデバイス124を含む。ストレージデバイス124は、例えば、ハードドライブ、光学式ドライブ、サムドライブ、複数のドライブのアレイ、又はそれらの任意の組み合わせのような物理メモリである。ストレージデバイス124は、また、複数のリモートストレージドライブを含んでよい。ストレージデバイス124は、コンピューティングデバイス100上で動作するように構成される任意の数のアプリケーション126を含む。数のアプリケーション126は、複数のステレオディスプレイのための複数の3Dステレオカメラ画像及び3Dグラフィックスを含む、複数のメディア及びグラフィックスを組み合わせるために用いられてよい。複数の例において、アプリケーション126は、適応デプス検出を提供するために用いられてよい。
コンピューティングデバイス100は、また、バス106を通じてコンピューティングデバイス100をネットワーク130に接続するように構成されてよいネットワークインターフェースコントローラ(NIC)128も含んでよい。ネットワーク130は、特に、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、又はインターネットであってよい。
図1のブロック図は、コンピューティングデバイス100が図1に示されるコンポーネントの全てを含むことを示すことが意図されない。さらに、コンピューティングデバイス100は、特定の実装の詳細に依存して、図1に示されない任意の数の追加のコンポーネントを含んでよい。
適応デプス検出は、2つの眼を含む人間視覚システムと同様の方法で変化してよい。各眼は、他の眼と比較した場合、両眼の異なる位置に起因して、異なる画像をキャプチャする。人の眼は、瞳孔に入る光の量に応答してサイズを変化させることが可能な眼の中心における開口である瞳孔を用いて、複数の画像をキャプチャする。各瞳孔の間の距離は、ベースラインと称されてよい。人の両眼のペアによってキャプチャされた複数の画像は、このベースライン距離だけオフセットされる。脳が、視野(FOV)内の複数のオブジェクトの複数のデプスを計算するために、複数のオフセット画像からの情報を用いることができるので、複数のオフセット画像はデプス認識をもたらす。デプスを認知するために複数のオフセット画像を用いることに加えて、人の眼は、また、関心の領域のFOVの中心の周りでディザリングするために複数の衝動性運動を用いる。複数の衝動性運動は、FOVの中心又は焦点の周りの迅速な眼の動きを含む。複数の衝動性運動は、さらに、人間視覚システムがデプスを認知することを可能にする。
図2は、異なる複数のベースラインを有する2つのデプスフィールドの実例である。複数のデプスフィールドは、デプスフィールド202及びデプスフィールド204を含む。デプスフィールド202は、3つの開口からの情報を用いて計算される。開口は、画像キャプチャデバイスのレンズの中心の穴であり、人間視覚システムの瞳孔と同様の複数の機能を実行できる。複数の例において、開口206A、開口206B、及び開口206Cのそれぞれは、画像キャプチャデバイス、センサ、又はそれらの任意の組み合わせの部分を形成する。複数の例において、画像キャプチャデバイスはステレオカメラである。開口206A、開口206B、及び開口206Cは、画像内のデプスを認知するために用いられることができる3つのオフセット画像をキャプチャするために用いられる。示されるように、デプスフィールド202は、デプスフィールド全体にわたって、非常にばらつきがあるデプスの粒度を有する。具体的には、開口206A、開口206B、及び開口206Cの近くでは、デプスフィールド202のグリッド内のより小さい複数の矩形エリアによって示されるように、デプスフィールド202におけるデプス認識は細かい。開口206A、開口206B、及び開口206Cから最も離れたところでは、デプスフィールド202のグリッド内のより大きい複数の矩形エリアによって示されるように、デプスフィールド202におけるデプス認識は粗い。
デプスフィールド204は、11個の開口からの情報を用いて計算される。開口208A、開口208B、開口208C、開口208D、開口208E、開口208F、開口208G、開口208H、開口208I、開口208J、及び開口208Kのそれぞれは、11個のオフセット画像を提供するために用いられる。複数の画像は、デプスフィールド204を計算するために用いられる。したがって、デプスフィールド204は、デプスフィールド202と比較される場合、様々なベースライン位置におけるより多い画像を含む。結果として、デプスフィールド204は、デプス表現202と比較されると、FOVを通じて、より一貫性のあるデプスの表現を有する。デプスフィールド204内の一貫性のあるデプスの表現は、デプスフィールド202のグリッド内の同様のサイズの矩形エリアによって示される。
デプスフィールドは、画像内の複数の3Dオブジェクトのデプスを示すために用いられてよい、例えば、ポイントクラウド、デプスマップ、又は3次元(3D)多角形メッシュのようなデプス情報の複数の表現を指してよい。複数の技術がデプスフィールド又はデプスマップを用いて本明細書で説明される一方で、任意のデプス表現が用いられることができる。異なる精度の複数のデプスマップは、画像キャプチャデバイスの開口サイズを変化させるため、及びFOVの光学中心を変化させるために、1又は複数のMEMSデバイスを用いて生成されることができる。異なる精度の複数のデプスマップは、スケーラブルなデプス解像度をもたらす。MEMSデバイスは、また、さらに高いデプス解像度のために、複数のセンサをディザリングし、フレームレートを増加させるために用いられてよい。
複数のセンサをディザリングすることによって、最も大きいディザリングのエリア内のポイントは、より小さいディザリングを有するエリアと比較される場合、さらに高いデプス解像度を有してよい。
MEMS制御センサ精度ディザリングは、解像度を増加するために、サブセンサセルのサイズのMEMSの動きを用いて、さらに高いデプス解像度を可能にする。言い換えれば、ディザリングの動きは、画素サイズより小さくあり得る。いくつかの実施形態において、そのようなディザリングは、画素毎にキャプチャされるいくつかのサブ画素データポイントを生成する。例えば、X−Y面において半センサセル単位でセンサをディザリングすることは、4つのサブ画素精度の画像のセットが生成され、4つのディザフレームのそれぞれはサブ画素解像度のために用いられ得、統合され、又は画像の精度を増加させるために共に組み合わせられることを可能にする。MEMSデバイスは、1又は複数の画像キャプチャデバイスに対するFOVを調節することによって、開口の形状を制御してよい。例えば、狭いFOVは、より長い距離のデプス検出の解像度を可能にしてよく、より広いFOVは、短い距離のデプス検出を可能にしてよい。MEMSデバイスは、また、1又は複数の画像キャプチャデバイス、センサ、開口、又はそれらの任意の組み合わせの動きを可能にすることによって、FOVの光学中心を制御してよい。例えば、センサのベースラインの位置は、遠くのデプス解像度線形性に対するデプス線形性を最適化するために広げられることができ、センサのベースラインの位置は、近くの範囲のデプス線形性に対するデプス認識を最適化するために短くされることができる。
図3は、MEMSデバイス304を有するセンサ302の実例300である。センサ302は、画像キャプチャデバイスのコンポーネントであってよい。いくつかの実施形態において、センサ302は、画像情報、デプス情報、又はそれらの任意の組み合わせをキャプチャするための開口を含む。MEMSデバイス304は、MEMSデバイス304がX−Y面を通じてセンサ302を移動できるように、センサ302と接触していてよい。
したがって、MEMSデバイス304は、矢印306A、矢印306B、及び矢印306C、及び矢印306Dに示されるように、4つの異なる方向にセンサを移動するために用いられることができる。
いくつかの実施形態において、デプス検出モジュールは、人の眼の衝動性運動を模倣するように、センサ302を迅速にディザリングするために、MEMSデバイス304を組み込むことができる。このように、画像の解像度は、画像センサの複数のフォトダイオードセルが光を蓄積する時間の間に、サブフォトダイオードセルの粒度で提供される。これは、複数のオフセット画像が、様々なオフセットの位置における単一のフォトセルのためのデータを提供するからである。画像センサのディザリングを含む画像のデプス解像度は、画像のデプス解像度を増加させてよい。ディザリングメカニズムは、フォトダイオードのサイズのごく一部におけるセンサをディザリングすることが可能である。
例えば、MEMSデバイス304は、例えば、セルのサイズの次元毎に1μmのようなセンサセルのサイズのごく一部の量においてセンサ302をディザリングするために用いられてよい。MEMSデバイス304は、人の眼の衝動性運動と同様にデプス解像度を増加させるために、像面においてセンサ302をディザリングしてよい。いくつかの実施形態において、画像キャプチャデバイスのレンズ及びセンサは、共に移動してよい。さらに、いくつかの実施形態において、センサは、レンズと共に移動してよい。いくつかの実施形態において、センサはレンズの下で移動してよく、一方で、レンズは動かない。
いくつかの実施形態において、MEMSデバイスのための複数の可変衝動性ディザパターンは、設計又は選択されることができ、プログラム可能な衝動性ディザリングシステムをもたらす。画像ディザリングを用いて取得される複数のオフセット画像は、特定のシーケンスでキャプチャされ、そして、単一の高解像度画像に共に統合されることができる。
図4は、3つのディザリンググリッドの実例である。複数のディザリンググリッドは、ディザリンググリッド402、ディザリンググリッド404、及びディザリンググリッド406を含む。ディザリンググリッド402は、3×3のグリッドの中心点を中央とするディザパターンを含む3×3のグリッドである。ディザパターンは、中心に停止するまで、連続した順序でグリッドのエッジの周囲を移動する。同様に、ディザリンググリッド404は、3×3のグリッドにおける中心点を中央とするディザリングパターンを含む。しかしながら、ディザパターンは、グリッドの右下に停止するまで、連続した順序で、右から左へ、そして右へ、ディザリンググリッド404をわたって移動する。ディザリンググリッド402及びディザリンググリッド404の両方は、グリッドの全体のサイズが画像センサのフォトセルのサイズのごく一部であるグリッドを用いる。複数のフォトセルのごく一部の異なる複数の視野を取得するためにディザリングすることによって、デプス解像度が増加されてよい。
ディザリンググリッド406は、ディザリンググリッド402及びディザリンググリッド404と比較される場合、さらにより細かいグリッド解像度を用いる。複数の太線408は、センサ画像セルのサイズを表す。いくつかの実施形態において、センサ画像セルのサイズは、セル毎に1μmである。複数の細線410は、ディザリング間隔の結果としてキャプチャされるフォトセルのサイズのごく一部を表す。
図5は、グリッドをわたる複数のディザ移動の実例500である。グリッド502は、図4に関して説明されたようなディザリンググリッド406であってよい。各ディザリングは、キャプチャされているオフセット画像504をもたらす。具体的には、各画像504A、504B、504C、504D、504E、504F、504G、504H、及び504Iは、互いからのオフセットである。各ディザ画像504A―504Iは、参照番号506で最終的な画像を計算するために用いられる。結果として、最終的な画像は、各ディザ画像の中心で解像度を計算するために、9つの異なる複数の画像を用いることが可能である。複数のディザ画像のエッジ又はその近くの画像の複数のエリアは、画像の解像度を計算するために、わずか1つの画像から最大9つまでの異なる複数の画像を有してよい。ディザリングを用いることによって、固定センサ位置を用いることと比較した場合、より高い解像度の画像が取得される。個々の複数のディザ画像は、より高い解像度の画像に共に統合されてよく、実施形態において、デプス解像度を増加するために用いられてよい。
図6は、ベースラインレール602に沿う複数のMEMS制御センサを示す図である。複数のセンサをディザリングすることに加えて、上で説明されたように、複数のセンサは、また、ベースラインレールに沿って移動されてよい。このように、複数のセンサを用いて提供されるデプス検出は、適応デプス検出である。参照番号600Aにおいて、センサ604の中心とセンサ606の中心との間のベースライン608を調節すべく、センサ604及びセンサ606は、ベースラインレール602に沿って左又は右に移動する。参照番号600Bにおいて、センサ602及びセンサ606は、両方、ベースライン608を調節するために、ベースラインレール602を用いて右に移動した。いくつかの実施形態において、MEMSデバイスは、センサの上の開口領域を物理的に変化させるために用いられてよい。MEMSデバイスは、センサの複数の部分を塞ぐことを通じて、開口の位置を変化させることができる。
図7は、2つのセンサの間のベースラインの変化に基づく視野及び開口の変化を示す図である。参照番号704の矩形は、ベースライン706及びセンサ606に起因するセンサ604の開口によって感知されるエリアを表す。センサ604は視野708を有し、一方で、センサ606は視野710を有する。ベースライン706の結果として、センサ604は参照番号712の開口を有し、一方で、センサ606は参照番号714の開口を有する。いくつかの実施形態において、ベースラインの長さの結果として、FOVの光学中心は、1又は複数のセンサのそれぞれに対して変化させられ、回りまわって、1又は複数のセンサのそれぞれに対する開口の位置を変化させる。いくつかの実施形態において、FOVの光学中心及び開口は、1又は複数のセンサの間の重複するFOVに起因して位置を変化させる。いくつかの実施形態において、開口は、開口を変化させるMEMSデバイスの結果として変化してよい。MEMSデバイスは、開口を調節するために、センサの複数の部分を塞いでよい。さらに、複数の実施形態において、複数のMEMSデバイスは、開口及び光学中心を調節するために用いられてよい。
同様に、センサ604に対する開口720の幅は、ベースライン722の結果であり、センサ604に対する視野724及びセンサ606に対する視野726を伴う。ベースライン722の長さの結果として、FOVの光学中心は、センサ604及びセンサ606のそれぞれに対して変化させられ、回りまわって、センサ604及びセンサ606のそれぞれに対する開口の位置を変化させる。具体的には、センサ604は、参照番号728を中央とする開口を有し、一方で、センサ606は、参照番号730を中央とする開口を有する。したがって、いくつかの実施形態において、センサ604及び606は、ステレオデプスフィールド解像度における複数の適応変化を可能にする。複数の実施形態において、ステレオデプスフィールドにおける複数の適応変化は、デプスフィールドにおける近視野精度及びデプスフィールドにおける遠視野精度を提供できる。
いくつかの実施形態において、可変シャッタマスキングは、デプスセンサが所望の場所のデプスマップ及び画像をキャプチャすることを可能にする。例えば、複数の矩形、複数の多角形、複数の円、及び楕円のような様々な形状が可能である。マスキングは、マスク内の複数の正しい寸法を組み合わせるために、ソフトウェアで具現化されよく、又は、マスキングは、センサの上の開口マスク領域を変化させることができるMEMSデバイスで具現化されてよい。可変シャッタマスクは、省電力及びデプスマップサイズの節約を可能にする。
図8は、モバイルデバイス800の実例である。モバイルデバイスは、センサ802、センサ804、及びベースラインレール806を含む。ベースラインレール806は、センサ802とセンサ804との間のベースライン808の長さを変化させるために用いられてよい。センサ802、センサ804、及びベースラインレール806は、デバイスの「前向き」の位置に示されるが、センサ802、センサ804、及びベースラインレール806は、デバイス800上の任意の位置にあってよい。
図9は、適応デプス検出のための方法の処理フロー図である。ブロック902において、1又は複数のセンサの間のベースラインは調節される。ブロック904において、1又は複数のオフセット画像は、1又は複数のセンサのそれぞれを用いてキャプチャされる。ブロック906において、1又は複数の画像は、単一の画像に組み合わせられる。ブロック908において、適応デプスフィールドは、画像からのデプス情報を用いて計算される。
ここで説明される複数の技術を用いて、デプス検出は、適応デプス検出を可能にするために、1つのデバイス内に複数の可変検出位置を含んでよい。複数のデプスプレーンは、各アプリケーションの複数の要求に従って変化させられてよいので、デプスを用いるための複数のアプリケーションは、より多い情報へのアクセスを有し、強化されたユーザ体験をもたらす。さらに、デプスフィールドを変化させることによって、解像度は、デプスフィールド内でさえ、正規化されることができ、増加されて局在化されるデプスフィールドの解像度及び線形性を可能にする。適応デプス検出は、また、アプリケーション毎の基準でのデプス解像度及び精度を可能とし、近及び遠のデプスのユースケースをサポートするために複数の最適化を可能とする。さらに、単一のステレオシステムは、より広い範囲のステレオデプス解像度を生成するために用いられることができ、同一のデプスセンサが、デプスフィールドをわたって変化する複数の要求を有するより広い範囲の複数のユースケースをサポートするために、スケーラブルなデプスを提供できるので、低減されたコスト及び増加されたアプリケーション適合性をもたらす。
図10は、適応デプス検出を提供する例示的なシステム1000のブロック図である。同様の数字が付けられた複数のアイテムは、図1に関して説明されたとおりである。いくつかの実施形態において、システム1000は、メディアシステムである。その上、システム1000は、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えば、スマートフォン、スマートタブレット、又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイス、又はその類のものに組み込まれてよい。
様々な実施形態において、システム1000は、ディスプレイ1004に結合されたプラットフォーム1002を備える。プラットフォーム1002は、例えば、(複数の)コンテンツサービスデバイス1006、(複数の)コンテンツ配信デバイス1008、又は他の類似のコンテンツソースのようなコンテンツデバイスからコンテンツを受信してよい。1又は複数のナビゲーション機能を含むナビゲーションコントローラ1010は、例えば、プラットフォーム1002及び/又はディスプレイ1004と情報をやりとりするために用いられてよい。これらのコンポーネントのそれぞれは、下でより詳細に説明される。
プラットフォーム1002は、チップセット1012、中央処理装置(CPU)102、メモリデバイス104、ストレージデバイス124、グラフィックスサブシステム1014、アプリケーション126、及び無線機1016の任意の組み合わせを含んでよい。チップセット1012は、CPU102、メモリデバイス104、ストレージデバイス124、グラフィックスサブシステム1014、複数のアプリケーション126、及び無線機1016の間の相互通信を提供してよい。例えば、チップセット1012は、ストレージデバイス124との相互通信を提供することが可能なストレージアダプタ(不図示)を含んでよい。
CPU102は、複数の複合命令セットコンピュータ(CISC)若しくは縮小命令セットコンピュータ(RISC)プロセッサ、複数のx86命令セット互換プロセッサ、マルチコア、又は任意の他のマイクロプロセッサ若しくは中央処理装置(CPU)として実装されてよい。いくつかの実施形態において、CPU102は、(複数の)デュアルコアプロセッサ、(複数の)デュアルコアモバイルプロセッサ、又はその類のものを含む。
メモリデバイス104は、限定されないが、例えば、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、又はスタティックRAM(SRAM)のような揮発性メモリデバイスとして実装されてよい。ストレージデバイス124は、限定されないが、例えば、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内部ストレージデバイス、付属ストレージデバイス、フラッシュメモリ、バッテリバックアップSDRAM(シンクロナスDRAM)、及び/又はネットワークアクセス可能ストレージデバイスのような不揮発性ストレージデバイスとして実装されてよい。いくつかの実施形態において、ストレージデバイス124は、例えば、複数のハードドライブが含まれる場合、重要なデジタルメディアに対するストレージ性能の強化された保護を向上させるための技術を含む。
グラフィックスサブシステム1014は、例えば、表示するためのスチル又はビデオのような複数の画像の処理を実行してよい。例えば、グラフィックスサブシステム1014は、例えば、GPU108又は視覚処理ユニット(VPU)のようなグラフィックス処理ユニット(GPU)を含んでよい。アナログ又はデジタルのインターフェースは、グラフィックスサブシステム1014とディスプレイ1004とを通信可能に結合するために用いられてよい。例えば、インターフェースは、High−Definition Multimedia Interface(HDMI(登録商標))、ディスプレイポート(DisplayPort)、無線HDMI(登録商標)、及び/又は複数の無線HD準拠技術のいずれかであってよい。グラフィックスサブシステム1014は、CPU102又はチップセット1012に統合されてよい。
代替的には、グラフィックスサブシステム1014は、チップセット1012に通信可能に結合されるスタンドアロンカードであってよい。
本明細書で説明される複数のグラフィックス及び/又はビデオ処理技術は、様々なハードウェアアーキテクチャで実装されてよい。例えば、グラフィックス及び/又はビデオ機能は、チップセット1012内に統合されてよい。代替的には、別個のグラフィックス及び/又はビデオプロセッサが用いられてよい。さらに別の実施形態として、複数のグラフィックス及び/又はビデオ機能は、マルチコアプロセッサを含む汎用プロセッサによって実装されてよい。さらなる実施形態において、複数の機能は、家庭用電気機器に実装されてよい。無線機1016は、様々な適切な無線通信技術を用いて、複数の信号を送信及び受信することが可能な1又は複数の無線機を含んでよい。そのような複数の技術は、1又は複数の無線ネットワークをまたがる通信を伴ってよい。例示的な複数の無線ネットワークは、複数の無線ローカルエリアネットワーク(WLAN)、複数の無線パーソナルエリアネットワーク(WPAN)、複数の無線メトロポリタンエリアネットワーク(WMAN)、複数のセルラーネットワーク、複数の衛星ネットワーク、又はその類のものを含む。そのような複数のネットワークをまたがった通信において、無線機1016は、任意のバージョンの1又は複数の適用規格に従って動作してよい。
ディスプレイ1004は、任意のテレビタイプモニタ又はディスプレイを含んでよい。例えば、ディスプレイ1004は、コンピュータディスプレイスクリーン、タッチスクリーンディスプレイ、ビデオモニタ、テレビ、又はその類のものを含んでよい。ディスプレイ1004は、デジタル及び/又はアナログであってよい。いくつかの実施形態において、ディスプレイ1004は、ホログラフィックディスプレイである。また、ディスプレイ1004は、視覚投影を受信し得る透明な面であってよい。そのような投影は、情報の様々な形、複数の画像、複数のオブジェクト、又はその類のものを伝達してよい。例えば、そのような投影は、モバイル拡張現実(MAR)アプリケーションの視覚的オーバレイであってよい。1又は複数のアプリケーション126の制御下において、プラットフォーム1002は、ディスプレイ1004上にユーザインターフェース1018を表示してよい。
(複数の)コンテンツサービスデバイス1006は、任意の国の、国際の、又は独立のサービスによって主催されてよく、したがって、例えば、インターネットを介してプラットフォーム1002にアクセス可能であってよい。(複数の)コンテンツサービスデバイス1006は、プラットフォーム1002及び/又はディスプレイ1004に結合されてよい。プラットフォーム1002及び/又は(複数の)コンテンツサービスデバイス1006は、ネットワーク130に対して及びからメディア情報を通信(例えば、送信及び/又は受信)するために、ネットワーク130に結合されてよい。(複数の)コンテンツ配信デバイス1008は、また、プラットフォーム1002及び/又はディスプレイ1004に結合されてよい。(複数の)コンテンツサービスデバイス1006は、デジタル情報を配信することが可能なインターネット可能なデバイス、電話、ネットワーク、パーソナルコンピュータ、又はケーブルテレビボックスを含んでよい。その上、(複数の)コンテンツサービスデバイス1006は、ネットワーク130を介して又は直接、複数のコンテンツプロバイダとプラットフォーム1002又はディスプレイ1004との間で、一方向又は双方向にコンテンツを通信することが可能な任意の他の類似の複数のデバイスを含んでよい。コンテンツは、ネットワーク130を介して、システム1000及びコンテンツプロバイダにおける複数のコンポーネントのうちのいずれか1つから及びに対して一方向及び/又は双方向に通信されてよいことが理解される。コンテンツの複数の例は、例えば、ビデオ、音楽、医療、及びゲーム情報、並びにその他を含む任意のメディア情報を含んでよい。
(複数の)コンテンツサービスデバイス1006は、例えば、メディア情報、デジタル情報、又は他のコンテンツを含むケーブルテレビ番組のようなコンテンツを受信してよい。
複数のコンテンツプロバイダの複数の例は、特に、任意のケーブル若しくは衛星テレビ、又は複数の無線若しくはインターネットコンテンツプロバイダを含んでよい。
いくつかの実施形態において、プラットフォーム1002は、ナビゲーションコントローラ1010から複数の制御信号を受信し、それは、1又は複数のナビゲーション機能を含む。ナビゲーションコントローラ1010の複数のナビゲーション機能は、例えば、ユーザインターフェース1018と情報をやりとりするために用いられてよい。ナビゲーションコントローラ1010は、ユーザが空間(例えば、連続又は多次元)データをコンピュータに入力することを可能にするコンピュータハードウェアコンポーネント(具体的には、ヒューマンインターフェースデバイス)であってよいポインティングデバイスであってよい。例えば、複数のグラフィカルユーザインターフェース(GUI)、並びに複数のテレビ及び複数のモニタのような多くのシステムは、ユーザが複数の身体的なジェスチャを用いてコンピュータ又はテレビを制御及びそれにデータを提供することを可能にする。複数の身体的なジェスチャは、限定されないが、複数の顔の表情、複数の顔の動き、様々な手足の動き、複数の体の動き、ボディランゲージ、又はそれらの任意の組み合わせを含む。そのような複数の身体的なジェスチャは、認識されて複数のコマンド又は複数の命令に変換されることができる。
ナビゲーションコントローラ1010の複数のナビゲーション機能の複数の動きは、ディスプレイ1004上に表示されるポインタ、カーソル、フォーカスリング、又は複数の他の視覚的な指標の複数の動きによって、ディスプレイ1004上に反映されてよい。例えば、複数のアプリケーション126の制御下において、ナビゲーションコントローラ1010上に位置付けられる複数のナビゲーション機能は、ユーザインターフェース1018上に表示される複数の仮想ナビゲーション機能にマッピングされてよい。いくつかの実施形態において、ナビゲーションコントローラ1010は、別個のコンポーネントではなくてよいが、むしろ、プラットフォーム1002及び/又はディスプレイ1004に統合されてよい。
システム1000は、例えば、有効にされた場合、最初の起動の後に、複数のユーザがボタンのタッチでプラットフォーム1002を即座にオン及びオフすることを可能にする技術を含む複数のドライバ(不図示)を含んでよい。プログラムロジックは、プラットフォームが「オフ」される場合、プラットフォーム1002が複数のメディアアダプタ又は他の(複数の)コンテンツサービスデバイス1006又は(複数の)コンテンツ配信デバイス1008にコンテンツをストリームすることを可能にしてよい。その上、チップセット1012は、例えば、5.1サラウンドサウンドオーディオ及び/又は高品位7.1サラウンドサウンドオーディオのためのハードウェア及び/又はソフトウェアサポートを含んでよい。複数のドライバは、統合された複数のグラフィックスプラットフォームのためのグラフィックスドライバを含んでよい。いくつかの実施形態において、グラフィックスドライバは、ペリフェラルコンポーネントインターコネクトエクスプレス(PCIe)グラフィックスカードを含む。
様々な実施形態において、システム1000の中に示される複数のコンポーネントのうちの任意の1又は複数は、統合されてよい。例えば、プラットフォーム1002及び(複数の)コンテンツサービスデバイス1006が統合されてよく、プラットフォーム1002及び(複数の)コンテンツ配信デバイス1008が統合されてよく、又はプラットフォーム1002、(複数の)コンテンツサービスデバイス1006、及び(複数の)コンテンツ配信デバイス1008が統合されてよい。いくつかの実施形態において、プラットフォーム1002及びディスプレイ1004は、統合されたユニットである。例えば、ディスプレイ1004及び(複数の)コンテンツサービスデバイス1006が統合されてよく、又はディスプレイ1004及び(複数の)コンテンツ配信デバイス1008が統合されてよい。
システム1000は、無線システム又は有線システムとして実装されてよい。無線システムとして実装される場合、システム1000は、例えば、1又は複数のアンテナ、送信機、受信機、送受信機、増幅器、フィルタ、制御ロジック、及びその他のような、無線共有媒体で通信するために適切な複数のコンポーネント及び複数のインターフェースを含んでよい。無線共有媒体の例は、例えば、RFスペクトルのような無線スペクトルの部分を含んでよい。有線システムとして実装される場合、システム1000は、例えば、複数の入力/出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体に接続する複数の物理コネクタ、ネットワークインターフェースカード(NIC)、ディスクコントローラ、ビデオコントローラ、オーディオコントローラ、又はその類のもののような、有線通信媒体で通信するために適切な複数のコンポーネント及び複数のインターフェースを含んでよい。有線通信媒体の複数の例は、ワイヤ、ケーブル、複数の金属リード線、プリント回路基板(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペアワイヤ、同軸ケーブル、ファイバ光学、又はその類のものを含んでよい。
プラットフォーム1002は、情報を通信するために、1又は複数の論理又は物理チャネルを確立してよい。情報は、メディア情報及び制御情報を含んでよい。メディア情報は、ユーザのためのコンテンツを表す任意のデータを指してよい。コンテンツの複数の例は、例えば、音声会話、ビデオ会議、ストリーミングビデオ、電子メール(eメール)メッセージ、音声メールメッセージ、複数の英数字のシンボル、グラフィックス、画像、ビデオ、テキスト、及びその類のものからのデータを含んでよい。音声会話からのデータは、例えば、音声情報、複数の沈黙期間、背景ノイズ、快適ノイズ、複数のトーン、及びその類のものであってよい。制御情報は、自動化されたシステムのための複数のコマンド、複数の命令、又は複数の制御語を表す任意のデータを指してよい。例えば、制御情報は、システムを通じてメディア情報をルーティングするために、又は予め定められた態様でメディア情報を処理することをノードに指示するために用いられてよい。しかしながら、複数の実施形態は、図10に示される又は説明される複数の要素又はコンテキストに限定されない。
図11は、図10のシステム1000が具現化されてよい小型フォームファクタデバイス1100の概略図である。同様の数字が付けられた複数のアイテムは、図10に関して説明されたとおりである。いくつかの実施形態において、例えば、デバイス1100は、複数の無線機能を有するモバイルコンピューティングデバイスとして実装される。モバイルコンピューティングデバイスは、例えば、処理システム、及び例えば、1又は複数のバッテリのようなモバイル電源又は電力供給装置を有する任意のデバイスを指してよい。
上で説明されたように、モバイルコンピューティングデバイスの複数の例は、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、ポータブルコンピュータ、ハンドヘルドコンピュータ、パームトップコンピュータ、パーソナルデジタルアシスタント(PDA)、携帯電話、携帯電話/PDAの組み合わせ、テレビ、スマートデバイス(例えば、スマートフォン、スマートタブレット、又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイス、及びその類のものを含んでよい。
モバイルコンピューティングデバイスの例は、また、例えば、リストコンピュータ、フィンガーコンピュータ、リングコンピュータ、眼鏡コンピュータ、ベルトクリップコンピュータ、アームバンドコンピュータ、靴コンピュータ、衣類コンピュータ、又は任意の他の適切なタイプのウェアラブルコンピュータのような、人によって身につけられるように配置されるコンピュータを含んでよい。例えば、モバイルコンピューティングデバイスは、音声通信及び/又はデータ通信だけでなく、複数のコンピュータアプリケーションを実行することが可能なスマートフォンとして実装されてよい。いくつかの実施形態は、例として、スマートフォンとして実装されるモバイルコンピューティングデバイスを用いて説明されてよいが、複数の他の実施形態は、同様に、複数の他の無線モバイルコンピューティングデバイスを用いて実装されてよいことが理解される。
図11において示されるように、デバイス1100は、筐体1102、ディスプレイ1104、入力/出力(I/O)デバイス1106、及びアンテナ1108を含んでよい。デバイス1100は、また、複数のナビゲーション機能1110を含んでよい。ディスプレイ1104は、モバイルコンピューティングデバイスに適切な情報を表示するための任意の適切なディスプレイユニットを含んでよい。I/Oデバイス1106は、モバイルコンピューティングデバイスに情報を入力するための任意の適切なI/Oデバイスを含んでよい。例えば、I/Oデバイス1106は、英数字キーボード、テンキーパッド、タッチパッド、複数の入力キー、複数のボタン、複数のスイッチ、複数のロッカースイッチ、複数のマイク、複数のスピーカ、音声認識デバイス、及びソフトウェア、又はその類のものを含んでよい。情報は、また、マイク経由でデバイス1100に入力されてよい。そのような情報は、音声認識デバイスによってデジタル化されてよい。いくつかの実施形態において、小型フォームファクタデバイス1100はタブレットデバイスである。いくつかの実施形態において、タブレットデバイスは、画像キャプチャメカニズムを含み、画像キャプチャメカニズムは、カメラ、ステレオカメラ、赤外線センサ、又はその類のものである。画像キャプチャデバイスは、画像情報、デプス情報、又はそれらの任意の組み合わせをキャプチャするために用いられてよい。タブレットデバイスは、また、1又は複数のセンサを含んでよい。例えば、複数のセンサは、デプスセンサ、画像センサ、赤外線センサ、X線光子カウントセンサ、又はそれらの任意の組み合わせであってよい。画像センサは、電荷結合素子(CCD)画像センサ、相補型金属酸化物半導体(CMOS)画像センサ、システムオンチップ(SOC)画像センサ、複数の感光性薄膜トランジスタを有する複数の画像センサ、又はそれらの任意の組み合わせを含んでよい。いくつかの実施形態において、小型フォームファクタデバイス1100はカメラである。
さらに、いくつかの実施形態において、本技術は、例えば、複数のテレビパネル及び複数のコンピュータモニタのような複数のディスプレイと共に用いられてよい。任意のサイズのディスプレイが用いられることができる。いくつかの実施形態において、ディスプレイは、適応デプス検出を含む複数の画像及びビデオを描画するために用いられてよい。さらに、いくつかの実施形態において、ディスプレイは3次元ディスプレイである。いくつかの実施形態において、ディスプレイは、適応デプス検出を用いて複数の画像をキャプチャするための画像キャプチャデバイスを含む。いくつかの実施形態において、画像デバイスは、1又は複数のセンサをディザリングすること、及び複数のセンサの間のベースラインレールを調節することを含む適応デプス検出を用いて複数の画像又はビデオをキャプチャし、そして、リアルタイムでユーザに対して複数の画像又はビデオを描画してよい。さらに、複数の実施形態において、コンピューティングデバイス100又はシステム1000は、プリントエンジンを含んでよい。プリントエンジンは、画像をプリントデバイスに送信できる。画像は、適応デプス検出モジュールからのデプス表現を含んでよい。プリントデバイスは、複数のプリンタ、複数のファックスマシン、及びプリントオブジェクトモジュールを用いて結果として生じる画像をプリントできる他のプリントデバイスを含むことができる。いくつかの実施形態において、プリントエンジンは、ネットワーク132を介してプリントデバイス136に適応デプス表現を送信してよい。いくつかの実施形態において、プリントデバイスは、適応デプス検出のための1又は複数のセンサ及びベースラインレールを含む。
図12は、適応デプス検出のためのコードを格納する有形の非一時的コンピュータ可読媒体1200を示すブロック図である。有形の非一時的コンピュータ可読媒体1200は、コンピュータバス1204を超えてプロセッサ1202によってアクセスされてよい。さらに、有形の非一時的コンピュータ可読媒体1200は、本明細書で説明される複数の方法を実行するようにプロセッサ1202に指示するように構成されるコードを含んでよい。図12に示されるように、本明細書中で説明される様々なソフトウェアコンポーネントは、1又は複数の有形の非一時的コンピュータ可読媒体1200に格納されてよい。例えば、ベースラインモジュール1206は、1又は複数のセンサの間のベースラインを修正するように構成されてよい。いくつかの実施形態において、ベースラインモジュールは、また、1又は複数のセンサをディザリングしてよい。キャプチャモジュール1208は、1又は複数のセンサのそれぞれを用いて、1又は複数のオフセット画像を取得するように構成されてよい。適応デプス検出モジュール1210は、1又は複数の画像を単一の画像に組み合わせてよい。さらに、いくつかの実施形態において、適応デプス検出モジュールは、画像からのデプス情報を用いて、適応デプスフィールドを生成してよい。
図12のブロック図は、有形の非一時的コンピュータ可読媒体1200が図12に示される複数のコンポーネントの全てを含むことを示すことが意図されない。さらに、有形の非一時的コンピュータ可読媒体1200は、特定の実装の詳細に依存して、図12に示されない任意の数の追加のコンポーネントを含んでよい。
装置が本明細書で説明される。装置は、1又は複数のセンサであって、ベースラインレールによって結合される複数のセンサと、ベースラインレールが1又は複数のセンサのそれぞれの間のベースラインを調節するように、ベースラインレールに沿って1又は複数のセンサを移動させるコントローラデバイスとを含む。
コントローラは、1又は複数のセンサのそれぞれに対する視野を調節する方法で、ベースラインレールに沿って、態様1又は複数のセンサのそれぞれの間のベースラインを調節してよい。コントローラは、また、1又は複数のセンサのそれぞれに対する開口を調節する方法で、ベースラインレールに沿って、1又は複数のセンサのそれぞれの間のベースラインを調節してよい。コントローラは、微小電気機械システムであってよい。さらに、コントローラは、リニアモータであってよい。コントローラは、1又は複数のセンサのそれぞれに対する視野における閉塞を取り除く方法で、ベースラインレールに沿って、1又は複数のセンサのそれぞれの間のベースラインを調節してよい。コントローラは、1又は複数のセンサのそれぞれの開口の周りで1又は複数のセンサのそれぞれをディザリングしてよい。ディザリングは、可変衝動性ディザリングであってよい。デプスフィールドのデプス解像度は、1又は複数のセンサの間のベースラインに基づいて調節されてよい。複数のセンサは、画像センサ、デプスセンサ、又はそれらの任意の組み合わせであってよい。装置は、タブレットデバイス、カメラ、又はディスプレイである。1又は複数のセンサは、画像又はビデオデータをキャプチャしてよく、画像データは、デプス情報を含み、ディスプレイ上に画像又はビデオデータを描画する。
システムが本明細書で説明される。システムは、格納される複数の命令を実行するように構成される中央処理装置(CPU)と、複数の命令を格納するストレージデバイスとを含み、前記ストレージデバイスは、プロセッサ実行可能コードを備える。プロセッサ実行可能コードは、CPUによって実行される場合に、1又は複数のセンサから複数のオフセット画像を取得し、複数のオフセット画像を単一の画像に組み合わせるように構成され、複数のセンサは、ベースラインレールに結合され、画像のデプス解像度は、ベースラインレールに沿った複数のセンサの間のベースライン距離に基づいて適応できる。
システムは、ベースラインレールを用いて、1又は複数のセンサのベースラインを変化させてよい。システムは、1又は複数のセンサを含む画像キャプチャデバイスを含んでよい。
さらに、システムは、1又は複数のセンサをディザリングしてよい。ディザリングは、可変衝動性ディザリングであってよい。
方法が本明細書で説明される。方法は、1又は複数のセンサの間のベースラインを調節する段階と、1又は複数のセンサのそれぞれを用いて、1又は複数オフセット画像をキャプチャする段階と、1又は複数の画像を単一の画像に組み合わせる段階と、画像からのデプス情報を用いて、適応デプスフィールドを計算する段階とを含む。
1又は複数のセンサは、サブセルデプス情報を取得するためにディザリングされてよい。複数のセンサは、可変衝動性ディザリングを用いてディザリングされてよい。ディザリングプログラムは、複数のオフセット画像のパターンを取得するために選択されてよく、1又は複数のセンサは、ディザリングプログラムに従ってディザリングされる。ベースラインは、遠デプス解像度線形性をキャプチャするために広げられてよい。ベースラインは、近デプス解像度線形性をキャプチャするために狭められてよい。
有形の非一時的コンピュータ可読媒体が本明細書で説明される。コンピュータ可読媒体は、1又は複数のセンサの間のベースラインを修正し、1又は複数のセンサのそれぞれを用いて、1又は複数のオフセット画像を取得し、1又は複数の画像を単一の画像に組み合わせ、画像からのデプス情報を用いて、適応デプスフィールドを生成するようにプロセッサに指示するためのコードを含む。1又は複数のセンサは、サブセルデプス情報を取得するためにディザリングされてよい。
上記の複数の例における詳細は、1又は複数の実施形態のいずれにおいても用いられてよいことが理解される。例えば、上で説明されるコンピューティングデバイスの全ての選択的な機能は、また、本明細書で説明される複数の方法又はコンピュータ可読媒体のいずれかに関して実装されてよい。さらに、複数のフロー図及び/又は複数の状態図は、複数の実施形態を説明するために本明細書で用いられるが、本発明は、これらの図面又は対応する本明細書の説明に限定されない。例えば、フローは、示される各ボックス若しくは状態を通じて、又は本明細書に示される及び説明される全く同一の順序で動く必要はない。
本発明は、本明細書に列挙された特定の詳細に限定されない。実際、本開示の恩恵を有する当業者は、前述の説明及び図面から多くの他の変更が本発明の範囲内でなされ得ることを理解できるだろう。したがって、それは、それに加えて、本発明の範囲を定義する任意の補正を含む以下の請求項である。

Claims (27)

  1. 1又は複数のセンサであって、ベースラインレールによって結合される複数のセンサと、
    前記ベースラインレールが前記1又は複数のセンサのそれぞれの間のベースラインを調節するように、前記ベースラインレールに沿って前記1又は複数のセンサを移動させるコントローラと
    を備える装置。
  2. 前記コントローラは、前記1又は複数のセンサのそれぞれに対する視野を調節する方法で、前記ベースラインレールに沿って、前記1又は複数のセンサのそれぞれの間の前記ベースラインを調節する、請求項1に記載の装置。
  3. 前記コントローラは、前記1又は複数のセンサのそれぞれに対する開口を調節する方法で、前記ベースラインレールに沿って、前記1又は複数のセンサのそれぞれの間の前記ベースラインを調節する、請求項1に記載の装置。
  4. 前記コントローラは、微小電気機械システムである、請求項1から3のいずれか一項に記載の装置。
  5. 前記コントローラは、リニアモータである、請求項1から3のいずれか一項に記載の装置。
  6. 前記コントローラは、前記1又は複数のセンサのそれぞれに対する視野における閉塞を取り除く方法で、前記ベースラインレールに沿って、前記1又は複数のセンサのそれぞれの間の前記ベースラインを調節する、請求項1に記載の装置。
  7. 前記コントローラは、前記1又は複数のセンサのそれぞれの開口の周りで前記1又は複数のセンサのそれぞれをディザリングする、請求項1に記載の装置。
  8. 前記ディザリングは、可変衝動性ディザリングである、請求項7に記載の装置。
  9. デプスフィールドのデプス解像度は、前記1又は複数のセンサの間の前記ベースラインに基づいて調節される、請求項1から8のいずれか一項に記載の装置。
  10. 前記複数のセンサは、画像センサ、デプスセンサ、又はそれらの任意の組み合わせである、請求項1から9のいずれか一項に記載の装置。
  11. 前記装置は、タブレットデバイスである、請求項1から10のいずれか一項に記載の装置。
  12. 前記装置は、カメラである、請求項1から10のいずれか一項に記載の装置。
  13. 前記装置は、ディスプレイである、請求項1から10のいずれか一項に記載の装置。
  14. 前記1又は複数のセンサは、画像データ又はビデオデータをキャプチャし、前記画像データは、デプス情報を含み、ディスプレイ上に前記画像データ又は前記ビデオデータを描画する、請求項1から13のいずれか一項に記載の装置。
  15. 格納される複数の命令を実行するように構成される中央処理装置(CPU)と、
    複数の命令を格納するストレージデバイスと
    を備え、
    前記ストレージデバイスは、前記CPUによって実行される場合に、
    1又は複数のセンサから複数のオフセット画像を取得し、
    前記複数のオフセット画像を単一の画像に組み合わせる
    ように構成されるプロセッサ実行可能なコードを備え、
    前記複数のセンサは、ベースラインレールに結合されており、
    前記画像のデプス解像度は、前記ベースラインレールに沿った前記複数のセンサの間のベースライン距離に基づいて適応できる、システム。
  16. 前記システムは、前記ベースラインレールを用いて、前記1又は複数のセンサのベースラインを変化させる、請求項15に記載のシステム。
  17. 前記1又は複数のセンサを含む画像キャプチャデバイスをさらに備える、請求項15又は16に記載のシステム。
  18. 前記システムは、前記1又は複数のセンサをディザリングする、請求項15から17のいずれか一項に記載のシステム。
  19. 前記ディザリングは、可変衝動性ディザリングである、請求項18に記載のシステム。
  20. 1又は複数のセンサの間のベースラインを調節する段階と、
    前記1又は複数のセンサのそれぞれを用いて、1又は複数のオフセット画像をキャプチャする段階と、
    前記1又は複数の画像を単一の画像に組み合わせる段階と、
    前記画像からのデプス情報を用いて、適応デプスフィールドを計算する段階と
    を備える方法。
  21. 前記1又は複数のセンサは、サブセルデプス情報を取得するためにディザリングされる、請求項20に記載の方法。
  22. 前記複数のセンサは、可変衝動性ディザリングを用いてディザリングされる、請求項21に記載の方法。
  23. ディザリングプログラムは、複数のオフセット画像のパターンを取得するために選択され、前記1又は複数のセンサは、前記ディザリングプログラムに従ってディザリングされる、請求項20から22のいずれか一項に記載の方法。
  24. 前記ベースラインは、遠デプス解像度線形性をキャプチャするために広げられる、請求項20から23のいずれか一項に記載の方法。
  25. 前記ベースラインは、近デプス解像度線形性をキャプチャするために狭められる、請求項20から24のいずれか一項に記載の方法。
  26. 1又は複数のセンサの間のベースラインを修正する段階と、
    前記1又は複数のセンサのそれぞれを用いて、1又は複数のオフセット画像を取得する段階と、
    前記1又は複数の画像を単一の画像に組み合わせる段階と、
    前記画像からのデプス情報を用いて、適応デプスフィールドを生成する段階と
    をコンピュータに実行させるためのプログラム。
  27. 前記1又は複数のセンサは、サブセルデプス情報を取得するためにディザリングされる、請求項26に記載のプログラム。
JP2015560405A 2013-03-15 2014-03-10 適応デプス検出 Pending JP2016517505A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/844,504 US20140267617A1 (en) 2013-03-15 2013-03-15 Adaptive depth sensing
US13/844,504 2013-03-15
PCT/US2014/022692 WO2014150239A1 (en) 2013-03-15 2014-03-10 Adaptive depth sensing

Publications (1)

Publication Number Publication Date
JP2016517505A true JP2016517505A (ja) 2016-06-16

Family

ID=51525600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015560405A Pending JP2016517505A (ja) 2013-03-15 2014-03-10 適応デプス検出

Country Status (7)

Country Link
US (1) US20140267617A1 (ja)
EP (1) EP2974303A4 (ja)
JP (1) JP2016517505A (ja)
KR (1) KR20150105984A (ja)
CN (1) CN104982034A (ja)
TW (1) TW201448567A (ja)
WO (1) WO2014150239A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021515455A (ja) * 2018-02-23 2021-06-17 エルジー イノテック カンパニー リミテッド カメラモジュール及びその超解像度映像処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9683834B2 (en) 2015-05-27 2017-06-20 Intel Corporation Adaptable depth sensing system
US10609355B2 (en) * 2017-10-27 2020-03-31 Motorola Mobility Llc Dynamically adjusting sampling of a real-time depth map
CN109068118B (zh) * 2018-09-11 2020-11-27 北京旷视科技有限公司 双摄模组的基线距离调整方法、装置及双摄模组
TWI718765B (zh) * 2019-11-18 2021-02-11 大陸商廣州立景創新科技有限公司 影像感測裝置
US11706399B2 (en) * 2021-09-27 2023-07-18 Hewlett-Packard Development Company, L.P. Image generation based on altered distances between imaging devices

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010489A (ja) * 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 情報装置、情報入力方法およびプログラム
JP2008045983A (ja) * 2006-08-15 2008-02-28 Fujifilm Corp ステレオカメラの調整装置
US20100091094A1 (en) * 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
US20110261167A1 (en) * 2010-04-21 2011-10-27 Samsung Electronics Co., Ltd. Three-dimensional camera apparatus
JP2012208160A (ja) * 2011-03-29 2012-10-25 Sony Corp 撮像装置、絞り制御方法およびプログラム
US20120307017A1 (en) * 2009-12-04 2012-12-06 Sammy Lievens Method and systems for obtaining an improved stereo image of an object

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01246989A (ja) * 1988-03-29 1989-10-02 Kanji Murakami 立体撮像ビデオカメラ
US5063441A (en) * 1990-10-11 1991-11-05 Stereographics Corporation Stereoscopic video cameras with image sensors having variable effective position
US5577130A (en) * 1991-08-05 1996-11-19 Philips Electronics North America Method and apparatus for determining the distance between an image and an object
EP1116169B1 (en) * 1998-09-24 2003-07-30 QinetiQ Limited Improvements relating to pattern recognition
US8014985B2 (en) * 1999-03-26 2011-09-06 Sony Corporation Setting and visualizing a virtual camera and lens system in a computer graphic modeling environment
US20050063596A1 (en) * 2001-11-23 2005-03-24 Yosef Yomdin Encoding of geometric modeled images
US7738725B2 (en) * 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
US7490776B2 (en) * 2005-11-16 2009-02-17 Intermec Scanner Technology Center Sensor control of an aiming beam of an automatic data collection device, such as a barcode reader
KR101313740B1 (ko) * 2007-10-08 2013-10-15 주식회사 스테레오피아 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠제작방법
JP2010015084A (ja) * 2008-07-07 2010-01-21 Konica Minolta Opto Inc 点字表示装置
WO2010065344A1 (en) * 2008-11-25 2010-06-10 Refocus Imaging, Inc. System of and method for video refocusing
US8279267B2 (en) * 2009-03-09 2012-10-02 Mediatek Inc. Apparatus and method for capturing images of a scene
RU2554465C2 (ru) * 2009-07-27 2015-06-27 Конинклейке Филипс Электроникс Н.В. Комбинирование 3d видео и вспомогательных данных
US20110026141A1 (en) * 2009-07-29 2011-02-03 Geoffrey Louis Barrows Low Profile Camera and Vision Sensor
KR20130044231A (ko) * 2010-04-06 2013-05-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 3d 노이즈의 가시성 감소
US20110290886A1 (en) * 2010-05-27 2011-12-01 Symbol Technologies, Inc. Imaging bar code reader having variable aperture
US9204129B2 (en) * 2010-09-15 2015-12-01 Perceptron, Inc. Non-contact sensing system having MEMS-based light source
KR101787020B1 (ko) * 2011-04-29 2017-11-16 삼성디스플레이 주식회사 입체 영상 표시장치 및 이를 위한 데이터 처리 방법
US9270974B2 (en) * 2011-07-08 2016-02-23 Microsoft Technology Licensing, Llc Calibration between depth and color sensors for depth cameras
US9818193B2 (en) * 2012-01-30 2017-11-14 Scanadu, Inc. Spatial resolution enhancement in hyperspectral imaging
US8929644B2 (en) * 2013-01-02 2015-01-06 Iowa State University Research Foundation 3D shape measurement using dithering
US20140078264A1 (en) * 2013-12-06 2014-03-20 Iowa State University Research Foundation, Inc. Absolute three-dimensional shape measurement using coded fringe patterns without phase unwrapping or projector calibration

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010489A (ja) * 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 情報装置、情報入力方法およびプログラム
JP2008045983A (ja) * 2006-08-15 2008-02-28 Fujifilm Corp ステレオカメラの調整装置
US20100091094A1 (en) * 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
US20120307017A1 (en) * 2009-12-04 2012-12-06 Sammy Lievens Method and systems for obtaining an improved stereo image of an object
US20110261167A1 (en) * 2010-04-21 2011-10-27 Samsung Electronics Co., Ltd. Three-dimensional camera apparatus
JP2012208160A (ja) * 2011-03-29 2012-10-25 Sony Corp 撮像装置、絞り制御方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021515455A (ja) * 2018-02-23 2021-06-17 エルジー イノテック カンパニー リミテッド カメラモジュール及びその超解像度映像処理方法
JP7312185B2 (ja) 2018-02-23 2023-07-20 エルジー イノテック カンパニー リミテッド カメラモジュール及びその超解像度映像処理方法
US11770626B2 (en) 2018-02-23 2023-09-26 Lg Innotek Co., Ltd. Camera module and super resolution image processing method thereof

Also Published As

Publication number Publication date
EP2974303A4 (en) 2016-11-02
KR20150105984A (ko) 2015-09-18
EP2974303A1 (en) 2016-01-20
CN104982034A (zh) 2015-10-14
US20140267617A1 (en) 2014-09-18
WO2014150239A1 (en) 2014-09-25
TW201448567A (zh) 2014-12-16

Similar Documents

Publication Publication Date Title
TWI552110B (zh) 可變解析度之深度表示
US12008151B2 (en) Tracking and drift correction
CN105051792B (zh) 用于使用深度映射和光源合成增强3d图像的设备
JP2016517505A (ja) 適応デプス検出
CN118115357A (zh) 虚拟、增强和混合现实系统和方法
US11176637B2 (en) Foveated rendering using eye motion
US10607069B2 (en) Determining a pointing vector for gestures performed before a depth camera
JP2024010181A (ja) 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置
US20160198138A1 (en) Method and system of increasing integer disparity accuracy for camera images with a diagonal layout
CN114531951A (zh) 自动视频捕捉和合成系统
US11736677B2 (en) Projector for active stereo depth sensors
CN110728744B (zh) 一种体绘制方法、装置及智能设备
US11541305B2 (en) Context-sensitive remote eyewear controller
US11317082B2 (en) Information processing apparatus and information processing method
US20230067584A1 (en) Adaptive Quantization Matrix for Extended Reality Video Encoding
US20240112303A1 (en) Context-Based Selection of Perspective Correction Operations
US20240104766A1 (en) Method and Device for Generating Metadata Estimations based on Metadata Subdivisions
CN117555419A (zh) 控制方法、装置、头戴显示设备及介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170905