JP6193390B2 - 構造化された光のアクティブ深度検知システムにおける光源電力の動的調整 - Google Patents

構造化された光のアクティブ深度検知システムにおける光源電力の動的調整 Download PDF

Info

Publication number
JP6193390B2
JP6193390B2 JP2015541781A JP2015541781A JP6193390B2 JP 6193390 B2 JP6193390 B2 JP 6193390B2 JP 2015541781 A JP2015541781 A JP 2015541781A JP 2015541781 A JP2015541781 A JP 2015541781A JP 6193390 B2 JP6193390 B2 JP 6193390B2
Authority
JP
Japan
Prior art keywords
image
captured
light
light source
code mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015541781A
Other languages
English (en)
Other versions
JP2016505133A (ja
JP2016505133A5 (ja
Inventor
バウザ、ジュディット・マルティネス
アタナソフ、カリン・ミトコフ
ゴマ、サーギウ・ラデュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016505133A publication Critical patent/JP2016505133A/ja
Publication of JP2016505133A5 publication Critical patent/JP2016505133A5/ja
Application granted granted Critical
Publication of JP6193390B2 publication Critical patent/JP6193390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

関連出願の相互参照
[0001]本出願は、米国仮特許出願第61/726,387号(出願日:2012年11月14日)に対する35U.S.C.§119(e)に基づく優先権を主張し、及び、米国非仮特許出願第13/723,891号(出願日:2012年12月21日)に対する優先権を主張するものであり、それらの内容は、ここにおける引用によって明示でここに組み入れられている。
[0002]様々な特徴がアクティブ深度検知に関するものであり、より具体的には、構造化された光を用いるアクティブ深度検知システムを実行するときにシーン内のオブジェクトの異なる反射率/吸収係数を補償するための技法に関するものである。
[0003]アクティブ検知においては、“構造化された光”(structured light)としばしば呼ばれるプロセスにおいてシーン又はオブジェクトを照明するために既知のパターン(例えば、コードマスク)が使用される。シーン又はオブジェクト上に投影されるパターンの構造は、シーン又はオブジェクトに関する深度情報を符号化する。受信された画像においてパターンが見つけられた時点で、三次元のシーン又はオブジェクトを再構築することができる。既知の投影されたパターンと復号されたそれとの間の関係は、キャプチャされたシーンに関する深度情報を導き出すために使用することができる。
[0004]受光器(receiver)/カメラセンサは、シーン(例えば、人、オブジェクト、位置、等)における光源の反射から来る入射光からシーンの画像をキャプチャすることができる。入射光の強度は、(a)シーン内の表面の反射率特性、(b)投影されたパターンを生成する光の電力、及び/又は環境光に依存することができる。カメラセンサに対する入射光が強すぎる場合は、それは、センサを飽和させる。それが弱すぎる場合は、カメラセンサは、シーンの反射率の変動をキャプチャしない。シーン内においても、画像内でキャプチャ中の表面のタイプに依存して、両方の状況(例えば、キャプチャされた光が強すぎる及び弱すぎる)が同時に生じる可能性がある。入射光の強度の調整がシステム内に含まれていなければ、広範な状況(異なる環境光、光源の異なる予め設定された電力、異なる表面のタイプ)に関する投影されたパターン(例えば、コードマスク)の照明の変動をキャプチャすることは不可能である。
[0005]従って、構造化された光システムを用いてシーンの深度検知を行うときに入射光の強度の変動を補償するための解決方法が必要である。
[0006]以下は、本開示の1つ以上の態様についての基本的な理解を提供することを目的として該態様の単純化された概要を示すものである。この概要は、本開示のすべての企図される特徴の広範な概略ではなく、又、本開示の全態様の主要な又は非常に重要な要素を特定するわけではないこと、及び本開示の態様のいずれの態様の適用範囲も詳述はせず及び全態様の適用範囲を詳述するわけではないことが意図される。それの唯一の目的は、後述されるより詳細な発明を実施するための形態の準備段階として、本開示の1つ以上の態様の幾つかの概念を簡略化された形で提示することである。
[0007]構造化された光を用いるアクティブ深度検知システムにおける表面反射率の違いを補償するのに好適するデバイスが提供される。デバイスは、受光器センサ(receiver sensor)と処理回路とを含むことができる。受光器センサは、コードマスクが投影されるシーンの画像をキャプチャするために働くことができる。処理回路は、(a)キャプチャされた画像から1つ以上のパラメータを確認し、(b)後続してキャプチャされる画像におけるコードマスクの復号を向上させるために1つ以上のパラメータに従って投影光源に関して光源電力を動的に調整し、及び/又は(c)コードマスクに基づいてキャプチャされた画像内のシーンに関する深度情報を確認するのに好適することができる。
[0008]1つの典型的な実装においては、光源電力が特定の照明において固定され、受光器センサに関する露出時間が調整される。他の典型的な実装においては、受光器センサに関する露出時間が固定値において維持され、光源電力が調整される。
[0009]1つ以上のパラメータは、コードマスクに基づいてキャプチャされた画像内の領域と相関させることができる。
[0010]一例においては、投影光源は、複数の光素子を含むことができ、投影光源に関する光源電力を動的に調整することは、対応する1つ以上のパラメータに基づいて各々の光素子に関して光源電力を個々に制御することを含む。受光器センサは、コードマスクが投影されるシーンの新しい画像をキャプチャするのにさらに好適することができ、新しい画像は、個々に調整される複数の光素子の動作に起因して領域ごとに光補償される。
[0011]受光器センサは、複数の個々に制御されるセンサシャッタを含むことができ、処理回路は、受光器センサによってキャプチャされた光を調整するために対応する1つ以上のパラメータに基づいて複数のセンサシャッタを個々に制御するのにさらに好適することができる。センサシャッタは、1つ以上のパラメータによって示されるように所定の領域おける多すぎる又は少なすぎる光を補償するためにそれらの間を通る光を減少又は増加させるように制御することができる。
[0012]受光器センサは、コードマスクが投影されるシーンの新しい画像をキャプチャするのにさらに好適することができ、新しい画像は、個々に調整される複数のセンサシャッタの動作に起因して領域ごとに光補償される。
[0013]構造化された光を用いるアクティブ深度検知システムにおける表面反射率の違いを補償するための方法も提供される。例えば、受光器センサは、コードマスクが投影されるシーンの画像をキャプチャすることができる。処理回路は、キャプチャされた画像から1つ以上のパラメータを確認することができる。投影光源のための電力は、後続してキャプチャされる画像におけるコードマスクの復号を向上させるために1つ以上のパラメータにより動的に調整することができる。コードマスクに基づいてキャプチャされた画像においてシーンに関する深度情報を確認することができる。
[0014]本開示のこれらの及びその他の態様例が、後続する詳細な発明を実施するための形態において、及び添付される図面において説明される。
[0015]二次元(2D)画像又は情報から三次元(3D)シーンが構築されるアクティブ検知システムを例示した図である。 [0016]二次元画像及び/又は情報から三次元情報を生成するために用いるシーン又はオブジェクトを照明し及び深度情報を入手するために既知のパターンが使用されるアクティブ検知を例示した図である。 [0017]オブジェクト又はシーンに関して深度がどのようにして検知されるかを例示した図である。 [0018]3つのグレースケールレベル(例えば、黒、白、及び灰色)を使用する典型的なコードマスク400を例示した図である。 [0019]構造化された光を用いるアクティブ深度検知システムにおいて受光器センサによって受け取られた光エネルギーを調整するための少なくとも2つの方法を例示した図である。 [0020]構造化された光を用いるアクティブ深度検知システムにおいて受光器センサによって受け取られた光エネルギーを調整するための少なくとも2つの方法を例示した図である。 [0021]構造化された光を用いるアクティブ深度検知システムにおいて受光器センサによって受け取られた光エネルギーを調整するための他の方法を例示した図である。 [0022]キャプチャ中のシーン内のオブジェクトの表面の異なる反射率/吸収係数に関して動的に調整する構造化された光を用いる典型的な深度検知システムを例示した図である。 [0023]形状変調搬送波内においてバイナリコードワードをどのようにして表現することができるかを例示した図である。 [0024]搬送波層及びコード層を用いるコードミクロ構造のさらなる詳細を例示した図である。
[0025]次の説明では、実施形態についての徹底的な理解を提供することを目的して具体的な詳細が示されている。しかしながら、実施形態はこれらの具体的な詳細なしで実践可能であることが当業者によって理解されるであろう。例えば、回路は、実施形態を不必要に詳細にして曖昧にするのを回避するためにブロック図形で示すことができる。その他の例では、非常によく知られた回路、構造及び技法は、実施形態を曖昧にしないようにするために示さないようにすることができる。
[0026]語句“典型的な”は、“1つの例、事例、又は実例を提供すること”を意味するためにここにおいて用いられる。ここにおいて“典型的な”として説明されるいずれの実装又は実施形態も、本開示のその他の実施形態よりも好ましい又は有利であるとは必ずしも解釈されるべきではない。同様に、用語“実施形態”は、すべての実施形態が説明される特徴、利点又は動作モードを含むことを要求するわけではない。

総論
[0027]構造化された光を用いてアクティブ深度検知を行うときにシーン内のオブジェクトの異なる反射率/吸収数を補償するための技法が提供される。キャプチャ中のシーン内のオブジェクトの反射率/吸収の変動に合わせて動的に調整する、及び補償する様々な特徴が提供される。
[0028]第1の特徴は、コードマスクが投影されるシーンの画像をキャプチャする受光器センサを提供する。キャプチャされた画像から1つ以上のパラメータが確認される。次に、後続してキャプチャされる画像内のコードマスクの復号を向上させるために1つ以上のパラメータに従って投影光源のための光源電力が動的に調整される。次に、コードマスクに基づいてキャプチャされた画像に基づいてシーンに関する深度情報が確認される。一例においては、光源電力が特定の照明において固定され、受光器センサに関する露出時間が調整される。他の典型的な例においては、受光器センサに関する露出時間が固定値において維持され、光源電力が調整される。
[0029]第2の特徴は、コードマスクが投影されるシーンの複数の画像を2つ以上の(異なる)露出時間にキャプチャする受光器センサを提供する。複数の画像のうちの2つ以上が、結合された画像を生成するためにコードマスクの復号可能な部分を各画像から抽出することによって結合される。次に、結合された画像に基づいておよびコードマスクを用いてシーンに関する深度情報を確認することができる。
[0030]第3の特徴は、シーン又はオブジェクトをキャプチャするために異なる露出時間に各々2つの受光器センサを使用することを提供する。第1の受光器センサは、コードマスクが投影されるシーンの第1の画像を第1の露出時間にキャプチャする。第2の受光器センサは、コードマスクが投影されるシーンの第2の画像を第2の露出時間にキャプチャする。次に、第1及び第2の画像は、結合された画像を生成するためにコードマスクの復号可能な部分を各画像から抽出することによって結合される。次に、結合された画像に基づいておよびコードマスクを用いてシーンに関する深度情報を確認することができる。

アクティブ深度検知
[0031]図1は、二次元(2D)画像又は情報から三次元(3D)シーンが構築されるアクティブ検知システムを例示する。構造化された光を用いるアクティブ深度検知システムを実行するときにシーン内のオブジェクトの異なる反射率/吸収係数を補償するための1つ以上の特徴。符号器/形状変調器100は、送光チャネル104を通じて送光デバイス102によって投影されるコードマスクを生成する働きをすることができる。コードマスクは、ターゲット(例えば、シーン又はオブジェクト)上に投影することができ、反射された光は画像(例えば、コードマスク画像)として受光器センサ105によってキャプチャされる。この受信された画像は、復号することができ106、ターゲットの三次元バージョン110a−eを提示、生成、及び/又は提供するために使用することができる。アクティブ検知は、ターゲット上に投影中のコードマスクからすべての空間コード(すなわち、コードワード)を認識することができることに依存する。ここにおいて説明される様々な特徴及び態様は、ここにおいて例示されるシステム及びデバイスの一部として実装することができる。
[0032]図2は、二次元画像及び/又は情報から三次元情報を生成するために用いられるシーン又はオブジェクトに照明し及び深度情報を入手するために既知のパターンが使用されるアクティブ検知を例示する。ここでは、送光器(transmitter)202が、オブジェクト又はシーン206上にコードワードを投影するためにコードマスク204(例えば、コードを有する画像)を通じて光場を投影する。受光器208(例えば、カメラセンサ)は、投影されたコードマスク210及びその中のコードワードをキャプチャする。この例は、コードマスク204のセクション/一部分/ウィンドウ212がオブジェクト又はシーン206の表面(例えば、投影されたセクション/一部分/ウィンドウ216)上に(セクション/一部分/ウィンドウ212として)どのようにして投影されるかを例示する。次に、投影されたセクション/一部分/ウィンドウ216は、キャプチャされたセグメント218として受光器108によってキャプチャすることができる。セクション/一部分/ウィンドウ212は、一意で識別することができるコードワードして使用することができる。従って、このようにしてシーン又はオブジェクト206を一意のコードワードでカバーすることによって、シーン又はオブジェクト206のセクション/一部分を識別する/タグを付ける)ことができ、この情報を深度検知のために使用することができる。
[0033]受光器208(カメラセンサ)によってキャプチャされた画像から、シーン又はオブジェクト206にわたって複数のセグメントを識別することができる。各セグメント218は、受光器108において一意で識別することができ、その他のセグメントに対するその位置をコーディングされたマスク204の既知のパターンから確認することができる。各セグメント/一部分/ウィンドウからのコードの識別は、(例えば、歪みに対処するための)パターンセグメンテーションと、知覚されたセグメント/一部分/ウィンドウの対応するコードへの復号と、を含むことができる。さらに、方位及び/又は深度を確認するために各々のキャプチャされたセグメント/一部分/ウィンドウにわたって三角測量を適用することができる。キャプチャされた画像パターンをひとつにまとめてスティッチ(stitch)するために複数の該セグメント/一部分/ウィンドウを結合することができる。このようにして、シーン、ターゲット、又はオブジェクト206に関して深度マップ207を生成することができる。
[0034]図3は、オブジェクト又はシーンに関して深度をどのようにして検知することができるかを例示する。ここで、送光器302は、受光器304と同じ基準参照面上にある。送光器は、開口又はレンズを通じてシーン又はオブジェクト上にコードマスク310を投影する。ここで、例示を目的として、投影されたセグメント/一部分/ウィンドウ312は、送信されたコードマスク310の一部として示される。このコードセグメント/一部分/ウィンドウ312は、第1の距離又は第2の距離におけるシーン又はオブジェクト306上に投影することができる。受光器304は、受光器開口を通じて投影されたコードマスク310をキャプチャする。シーン又はオブジェクト306がより近くに(例えば、送光器から第1の距離に)位置するときには、投影されたセグメント312は、最初の位置からd1の距離において現れることを評価することができる。他方、シーン又はオブジェクト308がより遠くに(例えば、送光器から第2の距離に)位置するときには、投影されたセグメント/一部分/ウィンドウ312は、最初の位置からd2の距離において現れる(ここで、d2<d1)。すなわち、オブジェクトが送光器/受光器から遠く離れるほど(例えば、送光器302からシーン又はオブジェクト308まで)、受信される投影されたセグメント/一部分/ウィンドウは、受光器におけるオリジナルの位置により近くなる(例えば、出て行く投影及び入って来る投影がより平行になる)。逆に、オブジェクトが送光器/受光器から近いほど(例えば、送光器302からシーン又はオブジェクト306まで)、受信される投影されたセグメント/一部分/ウィンドウは、受光器におけるオリジナルの位置から遠く離れる。従って、受信されたコードワードの位置と送信されたコードワードの位置との間の違いが、シーン又はオブジェクトの深度を与える。一例においては、該深度(例えば、相対的深度)は、各ピクセル又はグループに分けられたピクセルの部分組(例えば、2つ以上のピクセルの領域)に関する深度を提供する。
[0035]コードマスクを生成するために様々なタイプの変調及びコーディング方式が構想されている。これらの変調及びコーディング方式は、時間的コーディングと、空間的コーディングと、直接コード化と、を含む。
[0036]図4は、3つのグレースケールレベル(例えば、黒、白、及び灰色)を使用する典型的なコードマスク400を例示する。この例では、黒は、ガード間隔のために使用され、白/灰色は、コード/基準ストライプのために使用される。
[0037]受光器センサ208(例えば、カメラ)によって得られた画像は、シーン上への光源の反射からやって来る入射光によって形成される。入射光の強度は、(a)シーン内の表面の反射率特性、(b)投影されたパターンを生成する光の電力、及び/又は(c)環境光に依存することができる。カメラセンサに対する入射光が強すぎる場合は、それは、センサを飽和させる。それが弱すぎる場合は、受光器208(例えば、カメラセンサ)は、シーンの反射率の変動をキャプチャしない。シーン内においても、画像内でキャプチャ中の表面のタイプに依存して、両方の状況(例えば、キャプチャされた光が強すぎる及び弱すぎる)が同時に生じる可能性がある。入射光の強度の調整がシステム内に含まれていなければ、広範な状況(異なる環境光、光源の異なる予め設定された電力、異なる表面のタイプ)に関する投影されたパターン(例えば、コードマスク)の照明の変動をキャプチャすることは困難である。
[0038]受け取られた光エネルギーを(a)カメラセンサ露出時間、及び/又は(b)投影された光源の電力に基づいて調整することができる様々な解決方法が提供される。予め設定された又は1つの範囲の露出時間(例えば、シャッタ時間)及び/又は投影された光源の電力(例えば、照明強度)において得られた1つ以上のキャプチャされた画像から1つ以上のパラメータが測定される(例えば、ピクセル飽和、復号不能なピクセル、ピクセル照明平均、偏差、及び/又はエントロピー、等)。次に、露出時間及び/又は投影された光源の電力が、シーンに関する追加画像をキャプチャするためにキャプチャされた1つ以上のパラメータに基づいて調整される。

第1の典型的な解決方法−受け取られた光エネルギーの調整
[0039]第1の典型的な解決方法により、受光器/カメラセンサによって受け取られた光エネルギーは、取得された画像から測定された幾つかのパラメータに従って制御される。
[0040]図5は、構造化された光を用いるアクティブ深度検知システムにおいて受光器センサによって受け取られた光エネルギーを調整するための2つの方法を例示する。これらの方法は、例えば、図2及び/又は8のアクティブ検知システムの1つ以上のコンポーネントにおいて実装することができる。
[0041]第1の方法(方法A)により、アクティブ深度検知のために使用される画像における露出過剰及び/又は露出不足を補償するために受光器センサ(カメラ)の露出時間が調整される。このアプローチ法では、受光器センサに関する露出時間が調整され、光源電力が固定される。
[0042]受光器センサ502aに関して予め定義された露出時間が得られる。次に、投影光源が、キャプチャされるべきシーン(例えば、ターゲット)上にコードマスクの少なくとも一部分を投影する504a。受光器センサは、予め定義された露出時間に、コードマスクが投影されるシーンの画像をキャプチャする506a。
[0043]キャプチャされた画像508から1つ以上のパラメータを確認することができる。例えば、これらのパラメータは、(a)情報関連の統計、すなわち、ピクセル照明平均、偏差、エントロピー、(b)受光器センサにおける飽和ピクセル数、及び/又は(c)投影されたコードマスクを復号することができなかったピクセル数を含むことができる。
[0044]次に、センサ受光器の露出時間を1つ以上のパラメータに従って大きくすること又は小さくすることができる510a。すなわち、1つ以上のパラメータが受光器センサピクセルの過剰飽和を示す場合は、光源電力が下げられる。他方、1つ以上のパラメータが受光器センサピクセルの露出不足を示す場合は、光源電力が増大される。
[0045]投影光源は、(それのオリジナルの光源電力において)キャプチャされるべきシーン上へのコードマスクの少なくとも一部分の投影を続ける512a。受光器センサは、調整された露出時間において、コードマスク310が投影されるシーンの新しい画像をキャプチャする514a。次に、新しい画像内のコードマスクからシーンに関する深度情報を確認することができる516。
[0046]第2の方法(方法B)により、(コードマスクの)プロジェクタのための光源電力が、アクティブ深度検知のために使用される画像における照明不足及び/又は過剰照明を補償するために調整される。このアプローチ法では、受光器センサに関する露出時間が固定され、光源電力が調整される。
[0047]光源に関して予め定義された光源電力が得られる502b。次に、投影光源が、キャプチャされるべきシーン上にコードマスクの少なくとも一部分を投影する504b。次に、受光器センサは、コードマスクが投影されるシーンの画像をキャプチャする506b。
[0048]次に、キャプチャされた画像から1つ以上のパラメータを確認することができる508。例えば、これらのパラメータは、(a)情報関連の統計、すなわち、平均、偏差、エントロピー、(b)受光器センサにおける飽和ピクセル数、及び/又は(c)投影されたコードマスクを復号することができなかったピクセル数を含むことができる。
[0049]次に、1つ以上のパラメータに従って光源電力を調整する(例えば、大きくする又は小さくする)ことができる510b。すなわち、1つ以上のパラメータが受光器センサピクセルの過剰飽和を示す場合は、光源電力が下げられる。他方、1つ以上のパラメータが受光器センサピクセルの露出不足を示す場合は、光源電力が増大される。
[0050]投影光源は、キャプチャされるべきシーン上にコードマスクの少なくとも一部分を投影することができる512b。受光器センサは、コードマスクが投影されるシーンの新しい画像をキャプチャする514b。次に、新しい画像内のコードマスクからシーンに関する深度情報を確認することができる516。
[0051]様々な実装により、受光器センサ露出時間及び/又は光源電力を単独で又は組み合わせて調整することができる。例えば、受光器センサの飽和ピクセル数がある一定のスレショルドを上回る場合は、受光器センサの露出時間が短くされるか又は光源の電力が低減される。他の例では、キャプチャされた画像内のコードマスクにおいて測定された黒コード数がある一定のスレショルドを上回る場合は、受光器センサの露出時間が長くされるか又は光源の電力が増大される。
[0052]代替アプローチにより、(例えば、複数の受光器センサによって同時に取得された又は同じ受光器センサによって幾つかの例において取得された)2つ以上の画像にわたって1つ以上のパラメータを入手することができる。一例では、複数の異なる受光器センサ(例えば、カメラ)において異なる露出時間を使用することができる。
[0053]他の代替アプローチ法により、飽和画像にわたって‘飽和領域’又は‘黒い領域’を追跡することができ、1つ以上のパラメータの測定のためにこれらの領域のみを使用することができる。この変形は、パラメータが入手される領域を減少させるという点で幾つかの計算上の利点を提供することができる。
[0054]幾つかの実装においては、図5において例示される方法を実行するために受光器センサ及び投影光源に受光器デバイスを結合することができる。該実装においては、受光器デバイスは、キャプチャされた画像から1つ以上のパラメータを確認することができる。次に、それは、後続してキャプチャされる画像におけるコードマスクの復号を向上させるために投影光源のための光源電力を調整させることができる。

第2の典型的な解決方法−受光器ダイナミックレンジ調整
[0055]第2の典型的な解決方法により、受光器/カメラセンサによって受け取られた光エネルギーが、異なる露出時間に取得された画像から測定された一定のパラメータに基づいて制御され及び結合される。
[0056]図6は、構造化された光を用いるアクティブ深度検知システムにおいて受光器センサによって受け取られた光エネルギーを調整するための少なくとも2つの方法を例示する。これらの方法は、例えば、図2及び/又は8のアクティブ検知システムの1つ以上のコンポーネントにおいて実装することができる。これらの方法は、図5において例示されるそれらと類似するが、異なる露出時間及び光源電力において複数の画像が最初にキャプチャされる。複数の画像のうちの2つ以上からの一部分を、高ダイナミックレンジ(HDR)アルゴリズムに従って結合することができる。結合された画像は、投影されたコードマスク内のコードワードを知覚することができる(例えば、コードマスク内のパターンを認識することができる)複数の画像のうちの2つ以上の一部分を抽出することができる。
[0057]第3の方法(方法C)により、アクティブ深度検知のために使用される画像における露出過剰及び/又は露出不足を補償するために1つ以上の受光器センサ(カメラ)の露出時間が調整される。このアプローチ法では、受光器センサに関する露出時間が調整され、光源電力が固定される。
[0058]受光器センサ602aに関して複数の予め定義された露出時間が得られる。次に、投影光源が、キャプチャされるべきシーン上にコードマスクの少なくとも一部分を投影する604a。受光器センサは、予め定義された露出時間に、コードマスクが投影されるシーンの複数の画像(例えば、各々の予め定義された露出時間に関して1つ)をキャプチャする606a。
[0059]キャプチャされた画像608の各々に関して1つ以上のパラメータを確認することができる。例えば、これらのパラメータは、(a)情報関連の統計、すなわち、平均、偏差、エントロピー、(b)受光器センサにおける飽和ピクセル数、及び/又は(c)投影されたコードマスクを復号することができなかったピクセル数を含むことができる。
[0060]高ダイナミックレンジ(HDR)アルゴリズムに関係する画像の組の取得のための受光器センサ設定は、1つ以上のパラメータに基づいて動的に変更することができる。例えば、各画像の取得のために使用される受光センサのうちの1つ以上の露出時間を、任意選択で、測定されたパラメータに従って調整することができる612a。次に、キャプチャされた画像のうちの2つ以上を、コードマスクの復号可能な部分を各画像から抽出することによって(例えば、HDRアルゴリズムに従って)結合することができる614。結合された画像内のコードマスクからシーンに関する深度情報を確認することができる616。
[0061]異なる反射率/吸収係数のオブジェクト表面を含むシーンにおいて、異なる露出時間に撮られた画像の組み合わせは、受光器センサに関する異なる露出時間において、これらのオブジェクトを適切にキャプチャするために働くことができる。例えば、第1の露出時間に撮られた第1の画像は、シーンの幾つかのオブジェクト上に投影されたコードマスクを適切にキャプチャすることができるが、同じシーンのその他のオブジェクト上に投影されたコードマスクは適切にキャプチャすることができない。第2の露出時間において受光器センサ(又は異なる受光器センサ)によって撮られた第2の画像は、同じシーンのそれらのその他のオブジェクト上に投影されたコードマスクを適切にキャプチャすることができる。従って、異なる露出時間に撮られた2つ以上の画像の一部分を結合することによって、2つ以上の画像から取られたコードマスクの復号可能な部分から成る結合された画像を入手することができる。
[0062]第4の方法(方法D)により、アクティブ深度検知のために使用される画像における露出過剰及び/又は露出不足を補償するために1つ以上の受光器センサ(カメラ)の光源電力制御が調整される。このアプローチ法は、方法Cとほぼ同じであるが、ステップ612bにおいて、1つ以上のパラメータに従って(露出時間の代わりに)光源電力が調整される。

第3の典型的な解決方法−選択的光源電力調整
[0063]第3の典型的な解決方法により、シーン内の表面の変化する反射率/吸収係数に好適するように異なる領域にわたって光源電力がローカルで/選択的に制御される。すなわち、光源は、シーンの異なる領域をシーン内の表面の反射率/吸収に依存して異なる形で照明することができるように独立して制御することができる複数の光素子を含むことができる。従って、シーンの各領域内の光度は、シーンの各々の該領域内のオブジェクトの表面の反射率/吸収係数により調整することができる。
[0064]図7は、構造化された光を用いるアクティブ深度検知システムにおいて受光器センサによって受け取られた光エネルギーを調整するための他の方法を例示する。この方法は、例えば、図2及び/又は8のアクティブ検知システムの1つ以上のコンポーネントにおいて実装することができる。第1の例(方法E)は、投影光源はその強度を個々に制御することができる複数の光素子(例えば、行列構成で配置された発光ダイオード、等)から成ると仮定する。第2の例(方法F)は、各々の対応する受光器センサが受け取る光の量を調整するために複数の受光器センサシャッタを個々に制御することができると仮定する。
[0065]投影光源のための均一の(予め定義された)光源電力が得られる702。第1の典型的な方法(方法E)により、投影光源は、複数の光素子を備え、均一の光源電力を用いて、キャプチャされるべきシーン上にコードマスクの少なくとも一部分を投影する704a。第2の方法(方法F)により、投影光源は、複数の光素子を備え、均一の光源電力を用いて、キャプチャされるべきシーン上にコードマスクの少なくとも一部分を投影する704b。次に、受光器センサは、コードマスクが投影されるシーンの画像をキャプチャする706。
[0066]次に、キャプチャされた画像708内の複数の領域の各々に関して1つ以上のパラメータを確認することができる。該領域は、単一の光素子又は光素子の部分組によって網羅されるエリアに対応することができる。該光素子は、高度に平行化された光ビームを提供することができ、従って、光素子間には最小限のクロスオーバー(cross−over)しか存在しない。得られたパラメータは、(a)情報関連の統計、すなわち、平均、偏差、エントロピー、(b)受光器センサにおける飽和ピクセル数、及び/又は(c)投影されたコードマスクを復号することができなかったピクセル数を含むことができる。
[0067]第1の例(方法E)により、光源電力の各素子を対応する1つ以上のパラメータ710aに基づいて個々に調整/制御する(例えば、大きくする又は小さくする)ことができる。すなわち、1つ以上のパラメータが第1の領域に対応する受光器センサピクセルの過剰飽和を示す場合は、対応する光素子のための光源電力が下げられる。同様に、1つ以上のパラメータが第2の領域に関する受光器センサピクセルの露出不足を示す場合は、対応する光素子のための光源電力が増大される。各光素子電力を個々に調整/制御後は、投影光源によってコードマスクを再度投影することができる712a。
[0068]代替の第2の例(方法F)により、均一の光源電力において投影光源を用いてキャプチャされるべきシーンの複数の異なる領域上にコードマスクの少なくとも一部分を投影することができる710b。受光器センサによってキャプチャされた光を調整するために対応する1つ以上のパラメータに基づいて複数の受光器センサシャッタを個々に制御することができる712b。これは、複数の領域の各々に関して受光器センサによってキャプチャされる光の量を変化させるのを可能にすることができる。
[0069]受光器センサは、コードマスクが投影されるシーンの新しい画像をキャプチャすることができる714。次に、新しい画像内のコードマスクからシーンに関する深度情報を確認することができる716。
[0070]これらのアプローチ法は、非常に異なる反射材料が同じシーンの一部である場合に関して入射光の強度の変動に合わせて調整する。方法Eにおいて、投影光源の各光素子の強度/電力は個々に制御されるため、シーンの個々の領域を異なる光度で同時並行して照明することができる。これは、シーンの特定の要求に合わせた投影光(及び電力消費量の調整)においてより良い粒度(granularity)を提供する。幾つかの画像を結合する必要なしにHDRを達成することができ、従って、より高いフレームレートが可能である。同様に、投影された光の電力/強度を調整するのではなく、方法Fにおいて、受光器センサによって受け取られる光の量は、複数の受光器シャッタを個々に制御することによって調整することができる。これは、幾つかの領域において受け取られた光の量を低減させること及び/又はその他の領域において受け取られた光の量を増大させることを可能にする。

典型的な深度検出システム
[0071]図8は、キャプチャ中のシーン内のオブジェクトの表面の異なる反射率/吸収係数に関して動的に調整する、構造化された光を用いる典型的な深度検出システム800を例示する。コードマスク投影デバイス808は、対象となるシーン802上に(例えば、光源を用いて)コードマスクを投影するために働くことができる。受光器センサ806(例えば、カメラ)は、シーン802によって反射されたコードマスクの少なくとも一部分を含む画像を得るためにシーン802上への光源の反射から来る入射光をキャプチャする。アクティブ深度検知デバイス804は、光投影デバイス(光源)808及び/又は受光器センサ806に結合することができ及び投影デバイス808に関する受光器センサ806及び/又は光源電力に関して露出時間を動的に調整するように構成することができる。アクティブ深度検知デバイス804は、処理回路805及び/又は記憶デバイス809を含むことができる。処理回路805は、パラメータ計算モジュール/回路810、露出時間調整モジュール/回路812、光電力調整モジュール/回路814、及び/又は深度計算モジュール/回路816を含むこと又は実装することができる。これらのモジュール/回路は、図5、6、及び/又は7において説明される及び/又は例示される1つ以上の機能を実行するのに好適することができる。記憶デバイス809は、例えば、受光器センサ806及び/又はコードマスク投影デバイス808に関する1つ以上の調整パラメータを格納するために働くことができる。
[0072]パラメータ計算モジュール/回路810は、受光器センサ806から1つ以上のキャプチャされた画像(例えば、コードマスクが投影されたシーン又はオブジェクトの画像)を受信することができる入力インタフェースを含むことができる。パラメータ計算モジュール/回路810は、受信された1つ以上のキャプチャされた画像の各々に関する絶対的又は相対的ピクセル飽和、復号不能なピクセル、ピクセル照明平均、偏差、及び/又はエントロピー、等を確認する1つ以上の画像処理回路も含むことができる。これらの1つ以上のパラメータは、各画像の画像全体に関して及び/又は領域(例えば、セクタ、ピクセル)に関して計算することができる。これらの1つ以上のパラメータは、露出時間調整モジュール/回路812及び/又は光電力調整モジュール/回路814に対する入力として働くことができる。
[0073]露出時間調整モジュール/回路812は、受光器センサ806に関する露出時間を調整すべきかどうか及びそれはどのようにして調整すべきかを確認するために1つ以上のパラメータを使用することができる。例えば、スレショルドの比率よりも大きいピクセルの比率が過剰飽和している(すなちわ、多すぎる照明)ことを1つ以上のパラメータが示す場合は、露出時間調整モジュール/回路812は、受光器センサ806に関するシャッタ時間を短くする。逆に、スレショルドの比率よりも大きいピクセルの比率が露出不足である(すなちわ、少なくすぎる照明)ことを1つ以上のパラメータが示す場合は、露出時間調整モジュール/回路812は、受光器センサ806に関するシャッタ時間を長くする。同様に、受光器センサを調整すべきであるかどうか及び/又はどのようにして調整すべきであるかを確認するために復号不能なピクセル、ピクセル照明平均、偏差、及び/又はエントロピー、等に関するその他のスレショルドを使用することができる。露出時間調整モジュール/回路812は、該調整を受光器センサ806に通信するのを可能にする出力インタフェースを含むことができる。
[0074]光電力調整モジュール/回路814は、コードマスク投影デバイス808に関する照明電力を調整すべきであるかどうか及びそれはどのようにして調整すべきであるかを確認するために1つ以上のパラメータを使用することができる。例えば、スレショルドの比率よりも大きいピクセルの比率が過剰飽和している(すなちわ、多すぎる照明)ことを1つ以上のパラメータが示す場合は、光電力調整モジュール/回路814は、投影デバイス808に関する光源(照明)電力を低減させる。逆に、スレショルドの比率よりも大きいピクセルの比率が露出不足である(すなちわ、少なくすぎる照明)ことを1つ以上のパラメータが示す場合は、光電力調整モジュール/回路814は、投影デバイス808に関する光源(照明)電力を増大させる。同様に、受光器センサを調整すべきであるかどうか及び/又はどのようにして調整すべきであるかを確認するために復号不能なピクセル、ピクセル照明平均、偏差、及び/又はエントロピー、等に関するその他のスレショルドを使用することができる。光電力調整モジュール/回路814は、該調整を受光器センサ806に通信するのを可能にする出力インタフェースを含むことができる。
[0075]深度計算モジュール/回路816は、深度を確認するために受光器センサ806から1つ以上のキャプチャされた画像(例えば、コードマスクが投影されたシーン又はオブジェクトの画像)においてシーン又はオブジェクト上に投影されるコードマスクを使用することができる。深度計算モジュール/回路816は、例えば図2及び3において例示されるように、画像のピクセルの異なる領域又はグループに関する深度を確認するために1つ以上の計算を行うことができる。画像に関するこの深度情報は、画像とともに格納することができる。
[0076]他の代替の特徴により、光電力を制御するために第1の受光器デバイスを使用することができ及び深度マップが得られる画像をキャプチャするために別個の第2の受光器デバイスを使用することができる。例えば、第1の受光器デバイスは、増大された/より高いフレームレートで走る(第2の受光器デバイスと比較して)より低い解像度のセンサであることができる。
[0077]幾つかの実装においては、コードマスク投影デバイス808は、人間によって見ることができない光スペクトル(例えば、赤外線)においてコードマスクを投影することができる。例えば、シーン又はオブジェクト上に投影されたコードマスクをキャプチャするために第1の受光器を使用することができ、コードマスクのないシーン又はオブジェクトの画像をキャプチャするために第2の受光器を使用することができる。
[0078]幾つかの実装においては、深度検知システム800は、フィードバックシステムであるとみなすことができ、コードマスクが投影された時点で、コードマスク(又はその一部分)の反射は、投影デバイス808に関する投影光源電力を調整することができる受光器センサ806によって画像としてキャプチャされる。従って、コードマスクの最初の投影は、深度検知システム800を調整するためのフィードバックとして働くことができ、このため、投影された及び反射されたコードマスク内のコードワードを正確に確認することができる。受光器センサ806による最初のキャプチャされた画像が飽和(例えば、光電力が受光器センサにとって強すぎる)を示すパラメータを有する場合は、光電力調整モジュール/回路814は、投影デバイス808の投影光源電力を低減させることができる。同様に、受光器センサ806による最初のキャプチャされた画像が露出不足(例えば、光電力が受光器センサにとって弱すぎる)を示すパラメータを有する場合は、光電力調整モジュール/回路814は、投影デバイス808の投影光源電力を増大させることができる。このプロセスは、許容可能な投影電力が達成され、その結果、キャプチャされた画像に関するパラメータがある範囲又はスレショルド内にあるようになるまで複数回繰り返すことができる。一例においては、フィードバックプロセスは、繰り返すことができ、投影デバイス808の投影光電力を増大させる/低減させるために増分的ステップ(例えば、固定された又は可変の調整ステップ)を使用することができる。他の例では、最初の(前の)キャプチャされた画像に関して得られた3つのパラメータが、投影デバイス808を調整するために使用される特定の電力調整を計算又は推定するために役立つことができる。
[0079]代替実装においては、このフィードバックシステムは、受光器センサ806に関する露出時間を調整する働きをすることができる。すなわち、投影光電力を調整するのではなく、受光器センサ806は、最初のキャプチャされた画像から露出不足が確認された場合はシャッタ時間を長くし、最初のキャプチャされた画像から露出過剰(飽和)が確認された場合はシャッタ時間を短くすることによって、それ自体のシャッタ露出時間を調整することができる。
これは、反復的プロセスであり、シャッタ露出時間は、固定された/可変のステップサイズによって、又はキャプチャされた画像のパラメータから確認された推定値に基づいて増分的に調整することができる。

キャプチャされた画像に関するパラメータの確認
[0080]図5、6、及び/又は7において、受光器センサ及び/又は投影光源を調整するために、キャプチャされた画像が処理され、コードマスク(及びその中のコードワード)がキャプチャされた画像に関して復号可能であるかどうかが確認される。コードマスクの一例が図4において示される。図9及び10は、コードマスク内においてコードワードがどのように定義されるかをさらに例示する。
[0081]図9は、形状変調された搬送波904内においてバイナリコードワード902をどのようにして表現するかができるかを例示する。変調された搬送波904は、コード/基準ストライプ906(例えば、アクティブストライプ)と、ガード間隔908と、を含むことができる。搬送波層902は、アクティブストライプ幅w1及びガード間隔w2によって定義することができる。アクティブストライプ幅w1は、送光器における電力要求によって決定することができる。ガード間隔w2は、送光器/受光器ポイントスプレッド関数(PSF)によって決定することができる。ここで、ガード、“0”及び“1”を表すために3状態グレースケールシステムが使用され、“0”及び“1”レベル比は、50%であることができる。
[0082]図10は、搬送波層及びコード層を用いるコードミクロ構造1002のさらなる詳細を例示する。この例では、コードマスクのサイズはn1×n2であることができ、ここで、n1=7(垂直)、n2=585(水平)であり、従って、合計4095の一意のコードワードが可能である。これらのコードワードの部分組を使用することによってより小さいコードブックが可能である。それは、コードワードのマッチが見つかるかどうかを確認するために行わなければならない比較数を減少させるという点でより小さいコードブックが望ましいことがある。すなわち、受信/キャプチャされたコードマスクを、その中の各コードワードを確認するために使用されるコードブックと比較することができる。該比較は、マッチ(例えば、最も近いマッチ)を確認するために受信/キャプチャされたコードマスクの領域をコードブックにおいて定義される各コードワードとマッチングすることを含むことができる。従って、(例えば、少数のコードワードを用いて)コードブックのサイズを小さくすることは、コードワードのマッチを見つけるために必要な比較数を減少させ及び受信/キャプチャされたコードマスクに関するコードワードのマッチを見つけるための処理リソースを減少させ及び/又は時間を短縮する。
[0083]コードワードに関して使用されるコードマスクウィンドウ(例えば、k1×k2のウィンドウ)のサイズは、探索される最小の検出可能なオブジェクトに依存することができる。例えば、コードマスクウィンドウは、k×k=3×4シンボルウィンドウであることができる。従って、ウィンドウサイズは、最小の検出可能なオブジェクトのサイズ(例えば、検出可能なオブジェクト又は特徴)及び該オブジェクトの検出が発生する距離によって定義される。さらに、深度分解能は、搬送波スペースと等しいことができる。ガード間隔は、未知のスプレッドに関する対策である。選択されたパラメータは、分解能と検出との間のバランスを提供することができる。
[0084]特定の画像を生成するためにシーン上に投影されるコードマスクは既知であるため、これは、平均二乗誤差、ハミング(Hammimg)距離、及び/又は、露出時間及び/又は光源電力を調整する方法を示す働きをすることができるその他のメトリック/パラメータを得るために使用することができる。
[0085]幾つかの実装においては、コードワードの慎重な選択は、画像内のキャプチャされたコードワードの誤差訂正を行うために役立つこともできる。
[0086]図において示されるコンポーネント、ステップ、特徴、及び/又は機能のうちの1つ以上は、再編すること及び/又は単一のコンポーネント、ステップ、特徴又は機能に結合すること、又は幾つかのコンポーネント、ステップ、又は機能において具現化することができる。ここにおいて開示される新規の特徴から逸脱することなしに追加の要素、コンポーネント、ステップ、及び/又は機能を加えることもできる。図において例示される装置、デバイス、及び/又はコンポーネントは、図において説明される方法、特徴、又はステップのうちの1つ以上を実行するように構成することができる。ここにおいて説明される新規のアルゴリズムは、ソフトウェアにおいて効率的に実装すること及び/又はハードウェア内に埋め込むこともできる。
[0087]さらに、実施形態は、フローチャート、流れ図、構造図、又はブロック図として描かれるプロセスとして説明できることが注目される。フローチャートは、作業を順次のプロセスとして説明しているが、それらの作業の多くは、並行して又は同時並行して行うことができる。さらに、作業の順序は、組み替えることができる。プロセスは、その作業が完了されたときに終了される。プロセスは、メソッド、関数、プロシージャ、サブルーチン、サブプログラム、等に対応することができる。プロセスが関数に対応するときには、それの終了は、呼び出し関数又は主関数に戻ることに対応する。
[0088]さらに、記憶媒体は、データを格納するための1つ以上のデバイス、例えば、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス及び/又は情報を格納するためのその他の機械によって読み取り可能な媒体、プロセッサによって読み取り可能な媒体、及び/又はコンピュータによって読み取り可能な媒体を表すことができる。用語“機械によって読み取り可能な媒体”、“コンピュータによって読み取り可能な媒体”、及び/又は“プロセッサによって読み取り可能な媒体”は、ポータブルの又は固定された記憶デバイス、光学記憶デバイス、及び命令及び/又はデータを格納、含有又は搬送することが可能な様々なその他の媒体等の非一時的な媒体を含み、ただしこれらに限定されない。従って、ここにおいて説明される様々な方法は、“機械によって読み取り可能な媒体”、“コンピュータによって読み取り可能な媒体”、及び/又は“プロセッサによって読み取り可能な媒体”内に格納することができ及び1つ以上のプロセッサ、機械及び/又はデバイスによって実行することができる命令及び/又はデータによって完全に又は部分的に実装することができる。
[0089]さらに、実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、又はそれらのあらゆる組み合わせによって実装することができる。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードにおいて実装されるときには、必要なタスクを実行するためのプログラムコード又はコードセグメントは、機械によって読み取り可能な媒体、例えば、記憶媒体又はその他の記憶装置、において格納することができる。プロセッサは、必要なタスクを実行することができる。コードセグメントは、プロシージャ、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス、又は、命令、データ構造、又はプログラム文のあらゆる組み合わせを表すことができる。コードセグメントは、情報、データ、引数、パラメータ、又はメモリ内容を渡す及び/又は受け取ることによって他のコードセグメント又はハードウェア回路に結合することができる。情報、引数、パラメータ、データ、等は、メモリシェアリング、メッセージ渡し、トークン渡し、ネットワーク送信、等を含むあらゆる適切な手段を介して渡すこと、転送すること、又は送信することができる。
[0090]ここにおいて開示される例と関係させて説明される様々な例示的な論理ブロック、モジュール、回路、要素、及び/又はコンポーネントは、ここにおいて説明される機能を果たすように設計された汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、その他のプログラマブル論理デバイス、ディスクリートゲートロジック、ディスクリートトランジスタロジック、ディスクリートハードウェアコンポーネント、又はそれらのあらゆる組合せ、を用いて実装又は実行することが可能である。汎用プロセッサはマイクロプロセッサであることができるが、代替においては、プロセッサは、従来のどのようなプロセッサ、コントローラ、マイクロコントローラ、又はステートマシンであってもよい。プロセッサは、コンピューティングコンポーネントの組合せ、例えば、DSPと、1つのマイクロプロセッサとの組合せ、複数のマイクロプロセッサとの組合せ、DSPコアと関連する1つ以上のマイクロプロセッサとの組合せ、又はあらゆるその他の該構成、として実装することも可能である。
[0091]ここにおいて開示される例と関係させて説明される方法又はアルゴリズムは、ハードウェアにおいて直接、プロセッサによって実行可能なソフトウェアモジュールにおいて、又は両方の組み合わせにおいて、処理ユニット、プログラミング命令、又はその他の指示の形態で具現化することができ、及び、単一のデバイス内に入れること又は複数のデバイス間で分散させることができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、取り外し可能なディスク、CD−ROM又は当業において知られるあらゆるその他の形態の記憶媒体、内に常駐することができる。記憶媒体は、プロセッサが記憶媒体から情報を読み出すこと及び記憶媒体に情報を書き込むことができるようにプロセッサに結合することができる。代替においては、記憶媒体は、プロセッサと一体化させることができる。
[0092]ここにおいて開示される実施形態と関係させて説明される様々な例示的な論理ブロック、モジュール、回路、及びアルゴリズムのステップは、電子ハードウェア、コンピュータソフトウェア、又は両方の組み合わせとして実装可能であることを当業者はさらに評価するであろう。ハードウェアとソフトウェアのこの互換性を明確に例示するため、上記においては、様々な例示的なコンポーネント、ブロック、モジュール、回路、及びステップが、それらの機能の観点で一般的に説明されている。該機能がハードウェアとして又はソフトウェアとして実装されるかは、特定の用途及び全体的システムに対する設計上の制約事項に依存する。
[0093]ここにおいて説明される本発明の様々な特徴は、本発明を逸脱することなしに異なるシステムにおいて実装することができる。上記の実施形態は、単なる例であるにすぎず、本発明を限定するものであるとは解釈されるべきでないことが注目されるべきである。実施形態に関する説明は、例示的なものであり、請求項の範囲を限定しないことが意図される。従って、本教示は、その他のタイプの装置に対しても容易に適用可能であり、数多くの代替方法、修正、及び変形が当業者にとって明らかになるであろう。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するのに好適するデバイスであって、
コードマスクが投影されるシーンの画像をキャプチャするための受光器センサと、
前記キャプチャされた画像から1つ以上のパラメータを確認し、及び
後続してキャプチャされる画像内における前記コードマスクの復号を向上させるために前記1つ以上のパラメータに従って投影光源のための光源電力を動的に調整するのに好適する処理回路と、を備える、デバイス。
[C2]
前記処理回路は、
前記コードマスクに基づいて前記キャプチャされた画像内の前記シーンに関する深度情報を確認するのにさらに好適するC1に記載のデバイス。
[C3]
前記処理回路は、
前記光源電力を特定の照明において固定し、前記受光器センサに関する露出時間が調整するのにさらに好適するC1に記載のデバイス。
[C4]
前記処理回路は、
前記受光器センサに関する露出時間を固定値に維持し、前記光源電力を調整するのにさらに好適するC1に記載のデバイス。
[C5]
前記1つ以上のパラメータは、前記コードマスクに基づいて前記キャプチャされた画像内の領域と相関されるC1に記載のデバイス。
[C6]
前記投影光源は、複数の光素子を含み、前記投影光源のための前記光源電力を動的に調整することは、前記対応する1つ以上のパラメータに基づいて前記光素子の各々に関して前記光源電力を個々に制御することを含むC1に記載のデバイス。
[C7]
前記受光器センサは、
前記コードマスクが投影される前記シーンの新しい画像をキャプチャするのにさらに好適し、前記新しい画像は、前記個々に調整される複数の光素子の動作に起因して領域ごとに光補償されるC6に記載のデバイス。
[C8]
前記受光器センサは、複数の個々に制御されるセンサシャッタを含み、前記処理回路は、前記受光器センサによってキャプチャされた前記光を調整するために前記対応する1つ以上のパラメータに基づいて前記複数のセンサシャッタを個々に制御するのにさらに好適するC1に記載のデバイス。
[C9]
前記センサシャッタは、前記1つ以上のパラメータによって示される所定の領域における多すぎる又は少なすぎる光を補償するために中を通る前記光を減少又は増加させるように制御されるC8に記載のデバイス。
[C10]
前記受光器センサは、
前記コードマスクが投影される前記シーンの新しい画像をキャプチャするのにさらに好適し、前記新しい画像は、前記個々に調整される複数のセンサシャッタの前記動作に起因して領域ごとに光補償されるC8に記載のデバイス。
[C11]
構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するための方法であって、
受光器センサにおいて、コードマスクが投影されるシーンの画像をキャプチャすることと、
処理回路において、前記キャプチャされた画像から1つ以上のパラメータを確認することと、
後続してキャプチャされる画像内における前記コードマスクの復号を向上させるために前記1つ以上のパラメータに従って投影光源のための光源電力を動的に調整することと、を備える、方法。
[C12]
前記コードマスクに基づいて前記キャプチャされた画像内の前記シーンに関する深度情報を確認することをさらに備えるC11に記載の方法。
[C13]
前記光源電力を特定の照明において固定し、前記受光器センサに関する露出時間が調整されることをさらに備えるC11に記載の方法。
[C14]
前記受光器センサに関する露出時間を固定値に維持し、前記光源電力が調整されることをさらに備えるC11に記載の方法。
[C15]
前記1つ以上のパラメータは、前記コードマスクに基づいて前記キャプチャされた画像内の領域と相関されるC11に記載の方法。
[C16]
前記投影光源は、複数の光素子を含み、前記投影光源のための前記光源電力を動的に調整することは、前記対応する1つ以上のパラメータに基づいて前記光素子の各々に関して前記光源電力を個々に制御することを含むC11に記載の方法。
[C17]
前記コードマスクが投影される前記シーンの新しい画像をキャプチャすることをさらに備え、前記新しい画像は、前記個々に調整される複数の光素子の前記動作に起因して領域ごとに光補償されるC16に記載の方法。
[C18]
前記受光器センサは、複数の個々に制御されるセンサシャッタを含み、前記受光器センサによってキャプチャされた前記光を調整するために前記対応する1つ以上のパラメータに基づいて前記複数のセンサシャッタを個々に制御することをさらに備えるC11に記載の方法。
[C19]
前記1つ以上のパラメータによって示される所定の領域における多すぎる又は少なすぎる光を補償するために中を通る前記光を減少又は増加させるように前記センサシャッタを制御することをさらに備えるC18に記載の方法。
[C20]
前記コードマスクが投影される前記シーンの新しい画像をキャプチャすることをさらに備え、前記新しい画像は、前記個々に調整される複数のセンサシャッタの前記動作に起因して領域ごとに光補償されるC18に記載の方法。
[C21]
構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するのに好適するデバイスであって、
受光器センサにおいて、コードマスクが投影されるシーンの画像をキャプチャするための手段と、
処理回路において、前記キャプチャされた画像から1つ以上のパラメータを確認するための手段と、
後続してキャプチャされる画像内における前記コードマスクの復号を向上させるために前記1つ以上のパラメータに従って投影光源のための光源電力を動的に調整するための手段と、を備える、デバイス。
[C22]
前記コードマスクに基づいて前記キャプチャされた画像内の前記シーンに関する深度情報を確認するための手段をさらに備えるC21に記載のデバイス。
[C23]
前記光源電力を特定の照明において固定し、前記受光器センサに関する露出時間が調整されるための手段をさらに備えるC21に記載のデバイス。
[C24]
前記受光器センサに関する露出時間を固定値に維持し、前記光源電力が調整されるための手段をさらに備えるC21に記載のデバイス。
[C25]
前記1つ以上のパラメータは、前記コードマスクに基づいて前記キャプチャされた画像内の領域と相関されるC21に記載のデバイス。
[C26]
前記投影光源は、複数の光素子を含み、前記投影光源のための前記光源電力を動的に調整するための前記手段は、前記対応する1つ以上のパラメータに基づいて前記光素子の各々に関して前記光源電力を個々に制御するための手段を含むC21に記載のデバイス。
[C27]
前記コードマスクが投影される前記シーンの新しい画像をキャプチャするための手段をさらに備え、前記新しい画像は、前記個々に調整される複数の光素子の前記動作に起因して領域ごとに光補償されるC26に記載のデバイス。
[C28]
前記受光器センサは、複数の個々に制御されるセンサシャッタを含み、前記受光器センサによってキャプチャされた前記光を調整するために前記対応する1つ以上のパラメータに基づいて前記複数のセンサシャッタを個々に制御するための手段をさらに備えるC21に記載のデバイス。
[C29]
前記1つ以上のパラメータによって示される所定の領域における多すぎる又は少なすぎる光を補償するために中を通る前記光を減少又は増加させるように前記センサシャッタを制御するための手段をさらに備えるC28に記載のデバイス。
[C30]
前記コードマスクが投影される前記シーンの新しい画像をキャプチャするための手段をさらに備え、前記新しい画像は、前記個々に調整される複数のセンサシャッタの前記動作に起因して領域ごとに光補償されるC28に記載の方法。
[C31]
構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するための命令を有するプロセッサによって読み取り可能な記憶媒体であって、それらの命令は、1つ以上のプロセッサによって実行されたときに、
受光器センサにおいて、コードマスクが投影されるシーンの画像をキャプチャし、
前記キャプチャされた画像から1つ以上のパラメータを確認し、及び
後続してキャプチャされる画像内における前記コードマスクの復号を向上させるために前記1つ以上のパラメータに従って投影光源のための光源電力を動的に調整することを前記1つ以上のプロセッサに行わせる、プロセッサによって読み取り可能な記憶媒体。
[C32]
1つ以上のプロセッサによって実行されたときに、
前記コードマスクに基づいて前記キャプチャされた画像内の前記シーンに関する深度情報を確認することを前記1つ以上のプロセッサに行わせる1つ以上の命令を有するC31に記載のプロセッサによって読み取り可能な記憶媒体。
[C33]
1つ以上のプロセッサによって実行されたときに、
前記光源電力を特定の照明において固定し、前記受光器センサに関する露出時間が調整されることを前記1つ以上のプロセッサに行わせる1つ以上の命令を有するC31に記載のプロセッサによって読み取り可能な記憶媒体。
[C34]
1つ以上のプロセッサによって実行されたときに、
前記受光器センサに関する露出時間を固定値に維持し、前記光源電力が調整されることを前記1つ以上のプロセッサに行わせる1つ以上の命令を有するC31に記載のプロセッサによって読み取り可能な記憶媒体。
[C35]
前記1つ以上のパラメータは、前記コードマスクに基づいて前記キャプチャされた画像内の領域と相関されるC31に記載のプロセッサによって読み取り可能な記憶媒体。
[C36]
前記投影光源は、複数の光素子を含み、1つ以上のプロセッサによって実行されたときに、
前記投影光源のための前記光源電力を動的に調整することを前記1つ以上のプロセッサに行わせる1つ以上の命令を有し、前記投影光源のための前記光源電力を動的に調整することは、前記対応する1つ以上のパラメータに基づいて前記光素子の各々に関して前記光源電力を個々に制御することを含むC31に記載のプロセッサによって読み取り可能な記憶媒体。
[C37]
1つ以上のプロセッサによって実行されたときに、
前記コードマスクが投影される前記シーンの新しい画像をキャプチャすることを前記1つ以上のプロセッサに行わせる1つ以上の命令を有し、前記新しい画像は、前記個々に調整される複数の光素子の動作に起因して領域ごとに光補償されるC37に記載のプロセッサによって読み取り可能な記憶媒体。
[C38]
前記受光器センサは、複数の個々に制御されるセンサシャッタを含み、
1つ以上のプロセッサによって実行されたときに、
前記受光器センサによってキャプチャされた前記光を調整するために前記対応する1つ以上のパラメータに基づいて前記複数のセンサシャッタを個々に制御することを前記1つ以上のプロセッサに行わせる1つ以上の命令をさらに有するC36に記載のプロセッサによって読み取り可能な記憶媒体。
[C39]
1つ以上のプロセッサによって実行されたときに、
前記1つ以上のパラメータによって示される所定の領域における多すぎる又は少なすぎる光を補償するために中を通る前記光を減少又は増加させるように前記センサシャッタを制御することを前記1つ以上のプロセッサに行わせる1つ以上の命令を有するC38に記載のプロセッサによって読み取り可能な記憶媒体。
[C40]
1つ以上のプロセッサによって実行されたときに、
前記コードマスクが投影される前記シーンの新しい画像をキャプチャすることを前記1つ以上のプロセッサに行わせる1つ以上の命令を有し、前記新しい画像は、前記個々に調整される複数のセンサシャッタの前記動作に起因して領域ごとに光補償されるC36に記載のプロセッサによって読み取り可能な記憶媒体。

Claims (13)

  1. 構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するための方法であって、
    1つ以上の受光器センサにおいて、コードマスクが投影されるシーンの第1の画像および第2の画像をキャプチャすることと、前記第1の画像は、第1の露出時間中にキャプチャされ、前記第2の画像は、前記第1の露出時間とは異なる持続時間の第2の露出時間中にキャプチャされる、
    処理回路において、前記第1のキャプチャされた画像およびキャプチャされた第2の画像の各々から1つ以上のパラメータを確認することと、
    前記確認されたパラメータに基づいて、少なくとも投影光源のための光源電力を動的に調整することと、
    後続してキャプチャされる画像内における前記コードマスクの復号すること、を備える、方法。
  2. 前記コードマスクに基づいて少なくとも前記第1のキャプチャされた画像内の前記シーンに関する深度情報を確認することをさらに備える請求項に記載の方法。
  3. 前記確認されたパラメータに基づいて、少なくとも前記第1の露出時間を動的に調整することをさらに備える、請求項1に記載の方法。
  4. 少なくとも前記第1のキャプチャされた画像の過飽和を示す前記確認されたパラメータに応答して、少なくとも前記第1の露出時間が低減すること、または
    少なくとも前記第1のキャプチャされた画像の不飽和を示す前記確認されたパラメータに応答して、少なくとも前記第1の露出時間を増大すること、をさらに備える請求項に記載の方法。
  5. 少なくとも前記キャプチャされた第1の画像の飽和ピクセルの数が飽和閾値を満たすことを示す前記1つ以上のパラメータに応答して、前記光源電力を減少すること、または
    少なくとも前記キャプチャされた第1の画像の飽和ピクセルの数が前記飽和閾値を満たさないことを示す前記1つ以上のパラメータに応答して、前記光源電力を増大すること、をさらに備える請求項1乃至4のうちのいずれか1項に記載の方法。
  6. 確認されたパラメータは、前記コードマスクに基づいて前記キャプチャされた画像内の領域と相関され、前記後続してキャプチャされる画像内における前記コードマスクを復号することは前記光源電力、少なくとも前記第1の露出時間、またはその両方を動的に調整することに応じて向上する、請求項に記載の方法。
  7. 前記投影光源は、複数の光素子を含み、前記投影光源のための前記光源電力を動的に調整することは、前記対応する確認されたパラメータに基づいて前記複数の光素子の各々に関して前記光源電力を個々に制御することを含む請求項に記載の方法。
  8. 前記コードマスクが投影される前記シーンの新しい画像をキャプチャすることをさらに備え、前記新しい画像は、前記個々に調整される複数の光素子の前記動作に起因して領域ごとに光補償される請求項に記載の方法。
  9. 前記1つ以上の受光器センサの前記各々は、複数の個々に制御されるセンサシャッタを含み、前記1つ以上の受光器センサによってキャプチャされた光の量を調整するために前記対応する確認されたパラメータに基づいて前記複数のセンサシャッタを個々に制御することをさらに備える請求項に記載の方法。
  10. 前記1つ以上のパラメータによって示されるように少なくとも前記キャプチャされた第1の画像の所定の領域における多すぎる又は少なすぎる光を補償するために中を通る前記光の量を減少又は増加させるように前記複数のセンサシャッタを制御することをさらに備える請求項に記載の方法。
  11. 前記コードマスクが投影される前記シーンの新しい画像をキャプチャすることをさらに備え、前記新しい画像は、前記個々に調整される複数のセンサシャッタの前記動作に起因して領域ごとに光補償される請求項に記載の方法。
  12. 構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するのに好適するデバイスであって、
    1つ以上の受光器センサにおいて、コードマスクが投影されるシーンの第1の画像および第2の画像をキャプチャするための手段と、前記第1の画像は、第1の露出時間中にキャプチャされ、前記第2の画像は、前記第1の露出時間とは異なる持続時間の第2の露出時間中にキャプチャされる、
    処理回路において、前記第1のキャプチャされた画像およびキャプチャされた第2の画像の各々から1つ以上のパラメータを確認するための手段と、
    前記確認されたパラメータに基づいて、少なくとも投影光源のための光源電力を動的に調整するための手段と、
    後続してキャプチャされる画像内における前記コードマスクを復号するための手段、を備える、デバイス。
  13. 構造化された光を用いるアクティブ深度検知システムにおいて表面の反射率の違いを補償するための1つ以上の命令を有するプロセッサによって読み取り可能な記憶媒体であって、それらの命令は、1つ以上のプロセッサによって実行されたときに、請求項1乃至11のうちのいずれか1項に記載の方法を前記1つ以上のプロセッサに行わせる、プロセッサによって読み取り可能な記憶媒体。
JP2015541781A 2012-11-14 2013-10-17 構造化された光のアクティブ深度検知システムにおける光源電力の動的調整 Active JP6193390B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261726387P 2012-11-14 2012-11-14
US61/726,387 2012-11-14
US13/723,891 2012-12-21
US13/723,891 US11509880B2 (en) 2012-11-14 2012-12-21 Dynamic adjustment of light source power in structured light active depth sensing systems
PCT/US2013/065386 WO2014078005A1 (en) 2012-11-14 2013-10-17 Dynamic adjustment of light source power in structured light active depth sensing systems

Publications (3)

Publication Number Publication Date
JP2016505133A JP2016505133A (ja) 2016-02-18
JP2016505133A5 JP2016505133A5 (ja) 2016-11-17
JP6193390B2 true JP6193390B2 (ja) 2017-09-06

Family

ID=50681316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015541781A Active JP6193390B2 (ja) 2012-11-14 2013-10-17 構造化された光のアクティブ深度検知システムにおける光源電力の動的調整

Country Status (8)

Country Link
US (2) US11509880B2 (ja)
EP (2) EP2920545B1 (ja)
JP (1) JP6193390B2 (ja)
KR (1) KR102111821B1 (ja)
CN (3) CN104769388B (ja)
ES (1) ES2617831T3 (ja)
HU (1) HUE033203T2 (ja)
WO (2) WO2014078005A1 (ja)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11509880B2 (en) 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems
US9350921B2 (en) * 2013-06-06 2016-05-24 Mitutoyo Corporation Structured illumination projection with enhanced exposure control
US10089739B2 (en) 2013-06-28 2018-10-02 Texas Instruments Incorporated Structured light depth imaging under various lighting conditions
US9817489B2 (en) * 2014-01-27 2017-11-14 Apple Inc. Texture capture stylus and method
CN105338255B (zh) * 2014-06-24 2019-04-26 联想(北京)有限公司 一种深度恢复调整方法及电子设备
US9507995B2 (en) 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
CN104243843B (zh) 2014-09-30 2017-11-03 北京智谷睿拓技术服务有限公司 拍摄光照补偿方法、补偿装置及用户设备
JP2016075658A (ja) * 2014-10-03 2016-05-12 株式会社リコー 情報処理システムおよび情報処理方法
EP3002550B1 (en) 2014-10-03 2017-08-30 Ricoh Company, Ltd. Information processing system and information processing method for distance measurement
US9638801B2 (en) * 2014-11-24 2017-05-02 Mitsubishi Electric Research Laboratories, Inc Depth sensing using optical pulses and fixed coded aperature
US9948920B2 (en) 2015-02-27 2018-04-17 Qualcomm Incorporated Systems and methods for error correction in structured light
US10068338B2 (en) * 2015-03-12 2018-09-04 Qualcomm Incorporated Active sensing spatial resolution improvement through multiple receivers and code reuse
US9530215B2 (en) 2015-03-20 2016-12-27 Qualcomm Incorporated Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
CN112665556B (zh) 2015-04-01 2023-09-05 瓦亚视觉传感有限公司 使用被动和主动测量生成场景的三维地图
EP3295239B1 (en) * 2015-05-13 2021-06-30 Facebook Technologies, LLC Augmenting a depth map representation with a reflectivity map representation
CN104952074B (zh) * 2015-06-16 2017-09-12 宁波盈芯信息科技有限公司 一种深度感知计算的存储控制方法及装置
US9635339B2 (en) 2015-08-14 2017-04-25 Qualcomm Incorporated Memory-efficient coded light error correction
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
US9846943B2 (en) * 2015-08-31 2017-12-19 Qualcomm Incorporated Code domain power control for structured light
WO2017082826A1 (en) * 2015-11-11 2017-05-18 Heptagon Micro Optics Pte. Ltd. Enhanced distance data acquisition
US20170153107A1 (en) * 2015-11-30 2017-06-01 Heptagon Micro Optics Pte. Ltd. Optoelectronic device including event-driven photo-array and method for operating the same
US9800795B2 (en) * 2015-12-21 2017-10-24 Intel Corporation Auto range control for active illumination depth camera
US9996933B2 (en) * 2015-12-22 2018-06-12 Qualcomm Incorporated Methods and apparatus for outlier detection and correction of structured light depth maps
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction
KR102550469B1 (ko) 2016-05-20 2023-07-04 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102529120B1 (ko) 2016-07-15 2023-05-08 삼성전자주식회사 영상을 획득하는 방법, 디바이스 및 기록매체
JP6611691B2 (ja) * 2016-10-06 2019-11-27 株式会社日立製作所 鉄道車両の外形形状測定方法及び装置
US10771768B2 (en) * 2016-12-15 2020-09-08 Qualcomm Incorporated Systems and methods for improved depth sensing
DE102017000908A1 (de) 2017-02-01 2018-09-13 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum Bestimmen der Belichtungszeit für eine 3D-Aufnahme
US10302764B2 (en) 2017-02-03 2019-05-28 Microsoft Technology Licensing, Llc Active illumination management through contextual information
US10445928B2 (en) 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
US10009554B1 (en) * 2017-02-24 2018-06-26 Lighthouse Ai, Inc. Method and system for using light emission by a depth-sensing camera to capture video images under low-light conditions
US10643358B2 (en) * 2017-04-24 2020-05-05 Intel Corporation HDR enhancement with temporal multiplex
US10620316B2 (en) 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
JP7113283B2 (ja) * 2017-05-26 2022-08-05 パナソニックIpマネジメント株式会社 撮像装置、撮像システム、車両走行制御システム、及び画像処理装置
US10666929B2 (en) 2017-07-06 2020-05-26 Matterport, Inc. Hardware system for inverse graphics capture
US10044922B1 (en) 2017-07-06 2018-08-07 Arraiy, Inc. Hardware system for inverse graphics capture
WO2019012535A1 (en) 2017-07-12 2019-01-17 Guardian Optical Technologies Ltd. SYSTEMS AND METHODS FOR ACQUIRING INFORMATION FROM AN ENVIRONMENT
CN107564050B (zh) * 2017-08-09 2020-01-10 Oppo广东移动通信有限公司 基于结构光的控制方法、装置和终端设备
WO2019080934A1 (zh) 2017-10-27 2019-05-02 Oppo广东移动通信有限公司 图像处理方法、装置和电子装置
CN107800963B (zh) * 2017-10-27 2019-08-30 Oppo广东移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN108553027A (zh) * 2018-01-04 2018-09-21 深圳悉罗机器人有限公司 移动机器人
US10991112B2 (en) * 2018-01-24 2021-04-27 Qualcomm Incorporated Multiple scale processing for received structured light
DE102018102159A1 (de) * 2018-01-31 2019-08-01 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum Bestimmen der Belichtungszeit für eine 3D-Aufnahme
JP6770254B2 (ja) 2018-02-07 2020-10-14 オムロン株式会社 3次元測定装置、3次元測定方法及び3次元測定プログラム
CN108471525B (zh) * 2018-03-27 2020-07-17 百度在线网络技术(北京)有限公司 用于投影仪的控制方法和装置以及实现该方法的投影仪
CN110310963A (zh) * 2018-03-27 2019-10-08 恒景科技股份有限公司 调整光源功率的系统
KR20190114332A (ko) * 2018-03-29 2019-10-10 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
KR102549434B1 (ko) * 2018-04-02 2023-06-28 엘지전자 주식회사 깊이 센서 제어 시스템
US20210100416A1 (en) * 2018-04-02 2021-04-08 Lg Electronics Inc. Robot cleaner having constraint prevention filter
GB2572831A (en) * 2018-04-04 2019-10-16 Cambridge Mechatronics Ltd Apparatus and methods for 3D sensing
US10999524B1 (en) * 2018-04-12 2021-05-04 Amazon Technologies, Inc. Temporal high dynamic range imaging using time-of-flight cameras
US20190349569A1 (en) * 2018-05-10 2019-11-14 Samsung Electronics Co., Ltd. High-sensitivity low-power camera system for 3d structured light application
US11040452B2 (en) 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
US10708484B2 (en) 2018-06-20 2020-07-07 Amazon Technologies, Inc. Detecting interference between time-of-flight cameras using modified image sensor arrays
US10681338B1 (en) 2018-07-24 2020-06-09 Amazon Technologies, Inc. Detecting interference in depth images captured using overlapping depth cameras
US10812731B2 (en) * 2018-08-22 2020-10-20 Qualcomm Incorporated Adjustable receiver exposure times for active depth sensing systems
CN110857855B (zh) * 2018-08-22 2022-09-02 杭州海康机器人技术有限公司 一种图像数据获取方法、装置及系统
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
US10915783B1 (en) * 2018-12-14 2021-02-09 Amazon Technologies, Inc. Detecting and locating actors in scenes based on degraded or supersaturated depth data
JP7135846B2 (ja) * 2018-12-27 2022-09-13 株式会社デンソー 物体検出装置および物体検出方法
CN110324602A (zh) * 2019-06-17 2019-10-11 Oppo广东移动通信有限公司 一种三维图像的生成方法及装置、终端、存储介质
CN110462438A (zh) * 2019-06-24 2019-11-15 深圳市汇顶科技股份有限公司 结构光投射装置、结构光投射方法及三维测量系统
CN112241976A (zh) * 2019-07-19 2021-01-19 杭州海康威视数字技术股份有限公司 一种训练模型的方法及装置
US10939047B2 (en) * 2019-07-22 2021-03-02 Himax Technologies Limited Method and apparatus for auto-exposure control in a depth sensing system
EP3835721A1 (en) * 2019-12-13 2021-06-16 Mitutoyo Corporation A method for measuring a height map of a test surface
CN111174702B (zh) * 2020-01-22 2022-03-15 无锡微视传感科技有限公司 一种自适应结构光投射模组及测量方法
US11567179B2 (en) 2020-07-21 2023-01-31 Leddartech Inc. Beam-steering device particularly for LIDAR systems
WO2022016277A1 (en) 2020-07-21 2022-01-27 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
CA3194223A1 (en) 2020-07-21 2021-10-06 Leddartech Inc. Beam-steering device particularly for lidar systems
TWI757015B (zh) 2020-12-29 2022-03-01 財團法人工業技術研究院 取像方法
CN113340235B (zh) * 2021-04-27 2022-08-12 成都飞机工业(集团)有限责任公司 基于动态投影的投影系统及相位移动图案生成方法

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467413A (en) * 1993-05-20 1995-11-14 Radius Inc. Method and apparatus for vector quantization for real-time playback on low cost personal computers
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
FR2748484B1 (fr) * 1996-05-13 1998-07-24 Atochem Elf Sa Polymerisation en presence d'un radical libre stable et d'un initiateur de radicaux libres
PT822389E (pt) 1996-07-29 2003-08-29 Elpatronic Ag Processo e dispositivo para determinacao e verificacao do contorno de um rebordo
US6377700B1 (en) 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
CA2373284A1 (en) 1999-05-14 2000-11-23 3D Metrics, Incorporated Color structured light 3d-imaging system
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6825936B2 (en) 2000-08-23 2004-11-30 Lmi Technologies, Inc. High speed camera based sensors
US7106377B2 (en) 2001-07-25 2006-09-12 Hewlett-Packard Development Company, L.P. Image capturing device capable of single pixel exposure duration control
JP3819275B2 (ja) 2001-10-17 2006-09-06 ローランドディー.ジー.株式会社 3次元測定装置における露光制御装置
SE523681C2 (sv) 2002-04-05 2004-05-11 Integrated Vision Prod System och sensor för avbildning av egenskaper hos ett objekt
CN1768346B (zh) 2003-03-31 2010-11-17 Cdm光学有限公司 用于最小化成像系统中的光程差效应的系统和方法
US8118732B2 (en) 2003-04-01 2012-02-21 Boston Scientific Scimed, Inc. Force feedback control system for video endoscope
WO2004109229A2 (en) 2003-06-11 2004-12-16 Solvision 3d and 2d measurement system and method with increased sensitivity and dynamic range
JP4059173B2 (ja) * 2003-06-27 2008-03-12 株式会社デンソーウェーブ 光学的情報読取装置および光学的情報の読取方法
DE10333493A1 (de) 2003-07-22 2005-02-10 FRIEMEL, Jörg Streifenprojektor für ein dreidimensionales Objektvermessungssystem
CN1267766C (zh) 2003-12-26 2006-08-02 四川大学 用频闪结构照明实现高速运动物体三维面形测量的方法
JP4746841B2 (ja) 2004-01-23 2011-08-10 ルネサスエレクトロニクス株式会社 半導体集積回路装置の製造方法
WO2005082075A2 (en) 2004-02-25 2005-09-09 The University Of North Carolina At Chapel Hill Systems and methods for imperceptibly embedding structured light patterns in projected color images
US20050206874A1 (en) 2004-03-19 2005-09-22 Dougherty Robert P Apparatus and method for determining the range of remote point light sources
JP2005293075A (ja) * 2004-03-31 2005-10-20 Brother Ind Ltd 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム
WO2005096115A1 (en) 2004-03-31 2005-10-13 Forskningscenter Risø Generation of a desired three-dimensional electromagnetic field
US7605852B2 (en) 2004-05-17 2009-10-20 Micron Technology, Inc. Real-time exposure control for automatic light control
KR100752545B1 (ko) 2005-11-24 2007-08-29 에이티아이 주식회사 2개 영상을 이용한 물체 표면 형상 및 반사율 정보 획득 시스템
JP2007271530A (ja) 2006-03-31 2007-10-18 Brother Ind Ltd 3次元形状検出装置及び3次元形状検出方法
WO2007125081A1 (en) 2006-04-27 2007-11-08 Metris N.V. Optical scanning probe
JP4889373B2 (ja) 2006-05-24 2012-03-07 ローランドディー.ジー.株式会社 3次元形状測定方法およびその装置
US7227117B1 (en) * 2006-05-30 2007-06-05 Symbol Technologies, Inc. High speed auto-exposure control
EP2064676B1 (en) * 2006-09-21 2011-09-07 Thomson Licensing A method and system for three-dimensional model acquisition
DE102006048234A1 (de) 2006-10-11 2008-04-17 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
CA2670214A1 (en) 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
KR100914961B1 (ko) 2008-01-23 2009-09-02 성균관대학교산학협력단 구조광 기반 3차원 카메라의 최적 노출 결정방법 및 시스템
US8162222B2 (en) 2008-01-25 2012-04-24 Intermec Ip Corp. System and method for identifying erasures in a 2D symbol
US8059280B2 (en) 2008-01-31 2011-11-15 Cyberoptics Corporation Method for three-dimensional imaging using multi-phase structured light
CN101520319B (zh) 2008-02-27 2012-02-22 邹小平 复合式三维激光测量系统及测量方法
US8422030B2 (en) 2008-03-05 2013-04-16 General Electric Company Fringe projection system with intensity modulating by columns of a plurality of grating elements
WO2010048960A1 (en) 2008-10-28 2010-05-06 3Shape A/S Scanner with feedback control
JP5370056B2 (ja) 2008-11-04 2013-12-18 オムロン株式会社 画像処理装置
US20100149551A1 (en) 2008-12-16 2010-06-17 Faro Technologies, Inc. Structured Light Imaging System and Method
JP5218316B2 (ja) 2009-07-23 2013-06-26 株式会社デンソーウェーブ 光学的情報読取装置
US20110080471A1 (en) 2009-10-06 2011-04-07 Iowa State University Research Foundation, Inc. Hybrid method for 3D shape measurement
WO2011048860A1 (ja) 2009-10-19 2011-04-28 住友金属工業株式会社 板材の平坦度測定方法及びこれを用いた鋼板の製造方法
CN101694376B (zh) 2009-10-23 2011-01-05 北京航空航天大学 一种光学条纹正弦性评测方法
JP5290233B2 (ja) 2010-04-13 2013-09-18 Ckd株式会社 三次元計測装置及び基板検査装置
BR112012026605B1 (pt) 2010-05-18 2020-03-24 Nippon Steel Corporation Método para medir a planura de material em folha e método para manufaturar a folha de aço ao utilizar o mesmo
WO2011145319A1 (ja) 2010-05-19 2011-11-24 株式会社ニコン 形状測定装置及び形状測定方法
CN101865671B (zh) 2010-06-03 2012-09-19 厦门思泰克光电科技有限公司 一种投影三维测量方法
CN201748900U (zh) 2010-07-08 2011-02-16 上海雷尼威尔测量技术有限公司 环境光自适应位移测量装置
US8994843B2 (en) 2010-09-01 2015-03-31 Qualcomm Incorporated High dynamic range image sensor
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
KR101494066B1 (ko) 2010-10-05 2015-02-16 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 공간 광 패턴에 기초한 깊이 데이터의 생성
US20120087573A1 (en) * 2010-10-11 2012-04-12 Vinay Sharma Eliminating Clutter in Video Using Depth Information
US8811767B2 (en) 2011-03-15 2014-08-19 Mitsubishi Electric Research Laboratories, Inc. Structured light for 3D shape reconstruction subject to global illumination
JP5962056B2 (ja) 2012-02-27 2016-08-03 富士ゼロックス株式会社 画像判定装置及び画像形成装置
US11509880B2 (en) 2012-11-14 2022-11-22 Qualcomm Incorporated Dynamic adjustment of light source power in structured light active depth sensing systems

Also Published As

Publication number Publication date
ES2617831T3 (es) 2017-06-19
CN109612404A (zh) 2019-04-12
US20140132721A1 (en) 2014-05-15
KR102111821B1 (ko) 2020-05-15
EP2920545B1 (en) 2020-12-09
JP2016505133A (ja) 2016-02-18
US20140132722A1 (en) 2014-05-15
EP2920546A1 (en) 2015-09-23
WO2014078005A1 (en) 2014-05-22
EP2920546B1 (en) 2016-11-30
KR20150082262A (ko) 2015-07-15
CN104769387A (zh) 2015-07-08
CN104769388A (zh) 2015-07-08
HUE033203T2 (en) 2017-11-28
US10368053B2 (en) 2019-07-30
CN104769387B (zh) 2017-10-10
WO2014078015A1 (en) 2014-05-22
CN109612404B (zh) 2021-02-26
US11509880B2 (en) 2022-11-22
EP2920545A1 (en) 2015-09-23
CN104769388B (zh) 2018-11-27

Similar Documents

Publication Publication Date Title
JP6193390B2 (ja) 構造化された光のアクティブ深度検知システムにおける光源電力の動的調整
JP6449341B2 (ja) コンテンツフィルタリングに基づく構造化光3次元(3d)奥行きマップ
JP6370777B2 (ja) 能動奥行き検知のためのアフィン不変空間マスクの受信
JP6513887B2 (ja) 構造化光深度マップのアウトライアの検出および補正のための方法および装置
JP6847922B2 (ja) 構造化照明のためのコード領域パワー制御
CN107408306B (zh) 一种产生对象的深度图信息的方法、设备及可读介质
US20130058071A1 (en) System and method for projection and binarization of coded light patterns
CN114902066A (zh) 用于主动深度感测的交替光分布
US10334232B2 (en) Depth-sensing device and depth-sensing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R150 Certificate of patent or registration of utility model

Ref document number: 6193390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250