JP5898631B2 - 飛行時間範囲探知システムのための複数の同期化光源 - Google Patents

飛行時間範囲探知システムのための複数の同期化光源 Download PDF

Info

Publication number
JP5898631B2
JP5898631B2 JP2012552046A JP2012552046A JP5898631B2 JP 5898631 B2 JP5898631 B2 JP 5898631B2 JP 2012552046 A JP2012552046 A JP 2012552046A JP 2012552046 A JP2012552046 A JP 2012552046A JP 5898631 B2 JP5898631 B2 JP 5898631B2
Authority
JP
Japan
Prior art keywords
unit
phase
light energy
light
woe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012552046A
Other languages
English (en)
Other versions
JP2013519092A (ja
Inventor
バンジ,サイラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013519092A publication Critical patent/JP2013519092A/ja
Application granted granted Critical
Publication of JP5898631B2 publication Critical patent/JP5898631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

[0001]本発明は、一般に、位相ベースの飛行時間(TOF)範囲探知システムに関し、より詳細には、一次光エネルギー源に動的に周波数同期および位相同期される少なくとも1つの追加の光源によりそのようなシステムで使用される光エネルギー源を増大することに関する。そのような追加の光源はTOFシステムから遠方にワイヤレスで設置することができるか、またはTOFシステムそれ自体に取り外し可能にプラグ接続で取り付けることができる。
[0002]飛行時間(TOF)システムは当技術分野で既知であり、米国特許第6,323,942号の「CMOS−Compatible Three−Dimensional Image Sensor IC」(2001)に説明されているような非位相化ベースのシステムと、さらなる背景材料として参照により本明細書に組み込まれる米国特許第6,580,496号「Systems for CMOS−Compatible Three−Dimensional Image Sensing Using Quantum Efficiency Modulation」(2003)に説明されているような位相ベースのシステムとの両方を含む。
[0003]図1Aは、位相ベースのTOFシステム100、例えば、米国特許第6,580,496号に説明されているものなどのシステムを例示する。TOFシステム100は、可動部分なしで、比較的少ないオフチップ構成要素で、単一のIC110に実装することができる。システム100は検出器(またはセンサー)140の2次元アレイ130を含み、その各々は、関連する検出器によって出力された検出電荷を処理するための専用回路150を有する。共同して、検出器140およびその回路150は画素155を構成する。典型的な用途では、アレイ130は100×100の画素155を含むことができる。IC110は、マイクロプロセッサーまたはマイクロコントローラユニット160、メモリー170(好ましくは、ランダムアクセスメモリー、すなわちRAM、および読取り専用メモリー、すなわちROMを含む)、高速分配可能なクロック180、および様々なコンピューティングおよび入力/出力(I/O)回路190をさらに含む。
[0004]マイクロプロセッサー160の制御下で、発振器115によって、光エネルギー源120は周期的にエネルギーが与えられ、光エネルギーSoutをレンズ125経由で物体目標20の方に放出する。典型的には、光エネルギーは、例えば、レーザダイオードまたはLEDデバイス120によって放出される光である。Soutは、好ましくは、大体200MHzの変調周波数成分をもつ周期信号である。便宜上、SoutはA・cos(ωt)で表すことができる。Soutは、典型的には、数十mW範囲の低い平均およびピークパワーを有し、そのため、発光器120は比較的狭い帯域幅、例えば、数百kHzをもつ安価な光源とすることができる。放出された光エネルギーSoutのうちの若干は、戻りエネルギーSinとして目標物体20の表面から反射されることになり、SinはSin=A・cos(ωt+Φ)で表すことができ、ここで、Φは相対位相シフトである。戻りエネルギーSinは、開口視野絞りおよびレンズ、まとめて135を通過し、画素検出器140の2次元アレイ130に当たり、そこで画像が形成される。Sinは、能動的に放出されたSout成分に加えて周囲のエネルギー成分を含むことがあることに留意されたい。
[0005]各画素155は、受け取ったSinの強度(または振幅)と、システム100と目標物体20との間の往復移動距離Zの大きさを示す、受け取ったSinと放出されたSoutとの間の相対位相シフト(Φ)とを測定する。発光器120によって送出された光エネルギーのパルスごとに、目標物体20の一部の3次元画像が取得され、位相シフト(Φ)が分析されて、距離Zが決定される。
[0006]システム100の方に反射して戻る前に目標物体20のより遠方の表面領域まで横切る放出された光エネルギーSoutは、目標物体のより近い表面部分(またはより近い目標物体)に当たり、そこから反射される放射よりも長い飛行時間を明確に示すことになる。さらに、距離Zの値が異なると、相対位相シフト(Φ)の大きさが明確に異なることになる。したがって、相対位相シフト位相(Φ)は、システム100と目標物体20との間の距離Zの大きさを与えることができる。画素アレイ130の多数の場所にわたりSin信号を検出することにより、奥行き画像と呼ばれる測定信号がもたらされる。取得されたデータは明度データ(例えば、信号振幅A)および正しいTOF相対位相シフト(Φ)を含み、目標物体20の表面領域までの距離Zの値を決定する。
[0007]システム100’において、発光器120によって送出されるエネルギー(S=cos(ωt))が目標物体20まで距離zを横切るのに必要とされる飛行時間(TOF)に起因する位相シフトΦが存在することになり、アレイ130’中の光検出器140’によって検出される戻りエネルギーはS=A・cos(ωt+Φ)であり、ここで、Aは検出された反射信号の輝度を示し、画素検出器によって受け取られる同じ戻り信号を使用して測定することができる。図1Bおよび1Cは、説明を簡単にするために周期T=2π/ωをもつ正弦波形を仮定して、位相シフトΦと飛行時間との間の関係を示す。
[0008]飛行時間による位相シフトΦは、
Φ=2・ω・z/C=2・(2πf)・z/C
である。
[0009]ここで、Cは光速の300,000km/秒である。したがって、エネルギー放出器から(および検出器アレイから)目標物体までの距離zは次式で与えられる。
[0010] z=Φ・C/2ω=Φ・C/{2・(2πf)}
[0011]TOFシステムで取得される3次元画像化データを取得および処理するための様々な技法が当技術分野で知られている。例えば、Bamji等の米国特許第6,522,395号(2003)は、Noise Reduction Techniques Suitable for Three−Dimensional Information Acquirable with CMOS−Compatible Image Sensor ICs(CMOS互換画像センサーICで取得可能な3次元情報に好適な雑音低減技法)を開示している。
[0012]Soutによって供給され、目標物体120が見る実効照明は、Zの2乗に反比例する。したがって、発光器120からの出力パワーの大きさを増加させると、システム100の性能が増強され、Zの大きさの増加に対してより正確な測定を行うことができる。しかしシステムによっては、発光器120はIC110に接合されることがあり、その結果、発光器をより強力な(より高いワット数の)デバイスと取り替えることが困難となることがある。
[0013]したがって、1つまたは複数の追加の光源を設けて、目標物体が見るSoutの照明の強度を増大することができる方法への必要性がある。そのような追加の光源は、システム100に恐らく隣接して設置される比較的高いパワーを供給する発光器、および/またはTOFの一次光パワー源よりも目標物体の近くに設置されるパワーの少ない発光器を含むことができる。しかし、結果として得られるシステムの適切な動作には、各追加の光源からの光エネルギーが光エネルギーSoutに同期することが必要とされる。
[0014]本発明は、光源エネルギーSoutとして発光器120によって発生された光エネルギーに同期されている少なくとも1つの追加の光源を設けるための方法およびシステムを提供する。そのような追加の光源はTOFシステムの一次光源とワイヤレス同期することができ、かつ/またはTOFシステムハウジングに取り外し可能に取り付け、したがって、ワイヤレスではなく有線接続することができる。
[0015]本発明では、多くの用途において、位相ベースのTOFシステムによって放出される実効光パワーを増大し、より多くの光エネルギーを目標物体の少なくとも1つの領域の方に誘導することが望ましいことが認識される。実効光パワーの増大は、一実施形態では、TOFシステムからのSout放出に変調周波数および位相に関して、好ましくは、光学的に、およびワイヤレスで、動的に同期される少なくとも1つの補助ワイヤレス光放出器(WOE)ユニットを含むことによって達成される。WOEユニットは、放出される光エネルギーで目標物体の少なくとも一部を照明するように配置される。そのようなユニットによって放出される光パワーは、TOFシステムによって放出されるSout光パワーよりも少ない、それよりも多い、またはそれとちょうど同じでありうる。比較的低いパワーのWOEユニットの利点は、適度に小さいコストおよび形状係数と、目標物体の比較的近くにWOEユニットを配置できることとである。目標物体の近くに配置されたそのようなユニットによって供給される実効光エネルギー照明は非常に重要でありうる。好ましくは、補助光放出器は各々スタンドアロンユニットであり、そうである必要はないが、バッテリーで動作することができる。
[0016]前に述べた通り、TOFシステムによって取得される奥行き画像の品質は入来反射Sin光エネルギーに相関する。適切な奥行き画像を生成するには、Sout光エネルギーのすべての光源、すなわち、TOFシステムの光放出器およびすべてのWOEが、変調周波数および位相の両方に関してTOFシステムのSout放出光エネルギーに動的に同期されることが必要とされる。好ましくは、各WOEは、TOFシステムによって放出される入来Sout光エネルギーに応答する第1の光センサーと、光エネルギーを出力する光放出器と、公称ではTOF発振器の周波数で動作するフリーランニング電圧制御発振器(VCO)と、WOEによって放出される光エネルギーに応答する第2の光センサーと、WOEによって放出される光エネルギーの周波数および位相を入来TOF光エネルギーSoutのものに強制的に一致させるために、閉ループフィードバック中で動作する、なるべくなら位相ロックループ(PLL)システムとを含む。各WOE内で、VCOの周波数は、好ましくはPLL回路を使用して、TOFシステムのSout周波数に動的に同期され、周波数同期は、WOEユニットの放出した光エネルギーのサンプリングによって確認される。WOEユニットの放出した光エネルギーの位相はTOFシステムのSout位相に同期され、位相同期は、WOEユニットの放出した光エネルギーのサンプリングによって確認される。好ましくは、各WOEユニットの第1の光センサーおよび光放出器は、入来Sout光エネルギーをより良好に検出し、ユニットの放出した光エネルギーを目標物体の方により良好に誘導するように機械的に回転させることができる。好ましくはハードウェアの支援によりTOFシステム内で実行されるソフトウェアは、好ましくは、Sin信号の初期の時間領域を無視することができ、その時間領域の間、同期のロックはまだ達成されていない。さらに、TOFシステム内で実行されるソフトウェアは、必要に応じ、WOEユニットの周波数および位相を動的にロックするのに必要な時間、FOV、出力パワー、および個別のWOEユニットの他の特性を考慮に入れて、必要に応じ、Sin情報の処理を知的に援助することができる。好ましくは、各WOEユニット内のメモリーは最も最近のPLL同期パラメータを記憶して、Sout光エネルギーの周波数および/または位相の変化のときに再同期化を潜在的に早めることができる。
[0017]第2の実施形態では、少なくとも1つの補助プラグ有線接続光放出器(PWOE)ユニットは、好ましくは、短いワイヤー長により伝播遅延が最小にされたプラグ接続によって、TOFシステムのハウジングに、物理的に、取り外し可能に、取り付けることができる。プラグ接続は、非常に短いワイヤー長により、このPWOEをTOFの一次光放出器への駆動信号に結合させるのを可能にする。TOFシステム内の回路はそのようなPWOEユニットの各々を単独で使用することによって取得された画像の遅延の遅れを一度に1つずつ試験し、TOFの一次光放出器を単独で使用することによって取得された画像と比較する。TOFシステム回路は、別個に使用される各PWOEユニットからの光エネルギーを使用して、一次光学ユニットからの光エネルギーなしに取得されたデータに関連する遅延の遅れを補償することができる。代替として、TOF回路は、一次光学ユニットの遅れに一致するように各PWOEの遅れを調整することができる。次に、任意の数のこのように適切に遅延補償された、または選択されたPWOEは、目標物体に当たる光エネルギーの量を増加させるために、TOFシステム一次光源と並列に使用することができる。TOFシステムは、所望であれば、少なくとも1つのWOEおよび少なくとも1つのPWOEユニットを使用することができる。
[0018]本発明の他の特徴および利点は、添付図面に関連して、好ましい実施形態が詳細に記載された以下の説明から明白となるであろう。
[0019]先行技術による一般的な位相ベースのTOFシステムのブロック図である。 [0020]先行技術による、図1Aのシステムによって送出された高周波成分をもつ送出周期Sout信号を示す図である。 [0021]先行技術による、図1Bの送出信号に関して位相遅延をもつ戻りSin波形を示す図である。 [0022]本発明の実施形態による、補助ワイヤレス光放出器(WOE)ユニットと、補助プラグ有線接続光放出器(PWOE)ユニットとを備えた一般的な位相ベースのTOFシステムのブロック図である。 [0023]本発明の実施形態による、WOEユニットの例示的な詳細を示すブロック図である。
[0024]TOFシステムによって取得される奥行き画像およびデータの品質および解像度は、TOFシステムによって放出される光エネルギーSoutの大きさに部分的に依存する。Soutのエネルギーの大きさが増加するにつれて、実効Z範囲が増加し、所与の奥行きZにおける取得奥行きデータの解像度が向上する。いくつかの用途では、目標物体の一部のみを照明する実効Sout光パワーを増加させることが望ましい、または必要であることがある。実効Sout光パワー照明の大きさは、Soutの光源と目標物体とを隔てる距離Zの2乗に反比例する。したがって、実効光パワーを増加させる1つの解決策は距離Zを減少させることである。これは、目標物体のより近くに少なくとも1つの追加の補助光エネルギーユニット(WOE)を配置することによって達成することができる。しかし、課題は、各WOEからの発光の周波数および位相が、TOF主発振器115によって制御されるTOF発光器120からのTOF100’のSout放出に動的に同期することを保証することである。この課題は、TOFシステム100’によって発生される光エネルギーSoutがスペクトラム拡散特性を示すことがある点で困難となることがある。
[0025]本発明の実施形態は、補助プラグ有線接続光エネルギー(PWOE)ユニットおよび/または補助ワイヤレス光エネルギー(WOE)ユニットをもつTOFシステムを提供することができる。まず、PWOEユニットを図2に関して説明する。TOFシステム100’は、一次発光器120からの光エネルギーを、1つまたは複数のPWOEユニット210−1、210−2により、1つまたは複数のWOEユニット220−1、220−2などにより、または少なくとも1つのPWOEユニットと少なくとも1つのWOEユニットとにより増大させることができる。PWOEユニットまたはWOEユニットからの出力光エネルギーは、TOFシステムの一次光源120によって放出される光エネルギーSoutのパワーを超える、それと等しい、またはそれ未満とすることができる。所望であれば、システム100’の光パワーを発生させるのに、発光器120の代わりに1つまたは複数のPWOEユニットを使用することができる。
[0026]まず、図2に示されるような補助プラグ有線接続光放出器(PWOE)ユニットを参照すると、図2のTOFシステム100’は放出される光エネルギーの内部一次光源120を有し、それは、210−1、210−2などの少なくとも1つの補助プラグ有線接続光放出器(PWOE)ユニットで増大する、かつ/またはそれと取り替えることができる。PWOEユニットは、好ましくは、対合するようにコネクタ220−1、220−2にプラグを差し込み(またはプラグを抜き)、コネクタ220−nは、一次光放出器源120に極めて近くではないとしても隣接してTOFシステム100’のハウジングに取り付けられる。
[0027]TOFシステム100’が製造されるとき、一次光放出器源120はシステムに合わせて較正されているはずである。しかし、個別のPWOEユニットはそのように較正されないことになり、ユニットとTOFシステム100’内の回路との間の相対的ワイヤー長が短いとしても、未較正の遅延時間が本質的に存在する。補正されない限り、PWOEユニットのいくつかに関連する遅延時間のため、不正確なZ値を有する奥行きデータが取得されることになる。
[0028]一実施形態では、PWOEユニットは、本質的な遅延時間に対して以下のように較正される。最初に、TOFシステム100’は、一次光エネルギー光源120によって放出されるSoutエネルギーのみを使用して既知の目標物体20からの奥行きデータを取得する。次に、光源120を一時的に無効にし、TOFシステム100’または目標物体20を移動させることなしに、例えば、PWOEユニット210−1によって単独で放出されるSout210−1を使用して、新しい奥行きデータが取得される。単一のPWOEが一次光学ユニット120なしに使用される場合、好ましくはTOFシステム内にあるソフトウェアは、いかなる追加の回路も必要とすることなくそのPWOEの遅延差を補償することができる。あるいは、次に、TOFシステム100’内のソフトウェアおよび/またはハードウェア177は、PWOEユニット210−1の遅延を微調整して、一次光源120のみを使用したときに得られたデータに取得したデータを強制的に一致させることができる。そのように較正された後、PWOEユニット210−1によって放出される光エネルギーは、目標物体20には、一次光源120によって放出される光エネルギーと実質的に区別ができない。目標物体20が見る様々な光源からのエネルギーは、共通の位相および共通の周波数を有するように見えることになる。この同じ較正手順を繰り返して、PWOEユニットごとに遅延を個別に補償することができ、TOFシステム100’はPWOEユニットとともに使用されることになり、好ましくは、TOFシステム100’のモジュール177がそのように補償を行う。
[0029]PWOEユニットが較正された後、出力光エネルギーは、一次光源120の光エネルギーと並列に効率よく組み合わされる。実際は、用途によっては、一次光源120を使用する代わりに1つまたは複数のPWOEユニットを使用することが望ましいことがある。1つまたは複数のPWOEユニットは、例えば、一次光源120よりも実質的に多くの光パワーを出力することがある。当然、PWOEユニットによって出力されたパワーは一次光源120によって出力されたパワー以下とすることができる。
[0030]次に、220−1、220−2、220−3などのような補助ワイヤレス光放出器(WOE)ユニットを使用して、TOFシステム100’の一次光源120によって発生される光エネルギーを増大する、さらにはそれに取って代わる本発明の実施形態を考える。一方、上述のPWOEユニットは、典型的には、一次光源120の極めて近くに取り付けられることになり、WOEユニットは、典型的には、TOFシステム100’から離れたところに配置されることになる。
[0031]次に、補助ワイヤレス光放出器(WOE)ユニットの使用を考える。本発明によるWOEユニットはPWOEユニットよりも高度化されている。図2で示されるように、本発明の実施形態は、周波数および位相に関してTOFシステム100からのSout放出に、好ましくはワイヤレスで、好ましくは光学的および動的に、同期される少なくとも1つのWOEユニット220−1、220−2、220−3、220−4を配置することによって、TOFシステム100’によって放出される実効光パワーを増大させる。前に述べた通り、そのようなユニットによって放出される光パワーは、TOFシステムによって放出されるSout光パワーよりも少ない、それよりも多い、またはそれとちょうど同じでありうる。比較的低いパワーのWOEの利点は、適度に小さいコストおよび形状係数と、目標物体の比較的近くにWOEを配置できることとである。好ましくは、各WOEはスタンドアロンユニットであり、バッテリーで動作することができる。各WOEは、ユニットが異なる特性を有する場合、異なることがある出力光エネルギー視野(FOV)を有することになる。いくつかの実施形態は、TOFシステム100’からの若干のSoutエネルギーを遮り、それをWOEユニットに反射するために鏡185などの反射表面を含むことができる。理解できるように、用途によっては、様々なWOEユニットの理想的な場所は困難を伴うことがあり、反射表面はWOEユニットのそれほど理想的でない位置に適切に収容することができる。
[0032]理解できるように、WOEユニットの場所または位置と個別のFOVとの間にトレードオフが存在する。例えば、WOEユニット220−3が比較的低い出力パワー、大体150mWを有するが、比較的広いFOVを有することができる場合、所望であれば、より狭い実効FOV内により多くの光エネルギーを集中させるためにWOEユニット220−3内の光放出器にコリメータを追加することができる。FOVが小さすぎる場合、光放出器に拡散器を追加して、放出された光を拡大および散乱させ、FOVを効率よく増強することができる。大部分について、TOFシステム100’は図1AのTOFシステム100と同じであるが、好ましくは、プロセッサ、例えばプロセッサ160で実行することができる、メモリー170に記憶された、または記憶可能な少なくとも1つのソフトウェアルーチン175を含むことになる。本明細書で説明するように、ルーチン175を実行することにより、1つまたは複数のWOEユニットとのTOFシステム100’の動作が容易になる。
[0033]WOEユニットのある場所は他の場所よりも望ましい。図2において、明らかに、TOF100’から目標物体20まで直接に光エネルギーが採る経路は、TOF100’からWOEユニット220−1まで、さらにWOE220−1から目標物体まで光エネルギーが採る組合せの経路よりも少ない。WOEユニットがTOF100’と目標物体20との間で放射状方向に配置されうる場合、より良好な性能が実現される。WOEユニットがTOF100’の比較的に近くに配置される場合、放射状方向性の理想的な条件は一般にほぼ満たされる。実際には、実質的な放射状方向性が存在しないことがあり、TOF100’に好ましくは関連するソフトウェアにより、好ましくは、適切な補正が行われうる。
[0034]TOFシステムの動作特性は、一般に、実行されるべき用途によって決定される。一般的なTOFシステム100’の例示的なシステム特性は発光器120から出力される大体1Wの光パワーとすることができ、TOFシステムの変調周波数ωは大体50MHz〜100MHzの程度とすることができ、データは30〜60フレーム/秒で取得される。結果として得られるTOFシステムは大体3Mの有効範囲を有することになる。例示的なWOEユニットは、当然、同じシステム変調周波数に動的に同期されることになり、さらに、TOFのSout放出と同じ位相を有するように動的に同期されることになる。個別のWOEから出力される例示的な光パワーは大体100mWほどと低く、または数ワットほどと高いことがある。
[0035]図3は、例示的なWOE220−n、例えば、図2のユニット220−1、または220−2、または220−3、220−4などを示す。TOFシステム100’によって放出されたSout光エネルギーの少なくとも一部分を入来信号Sinとして受け取り、周波数ωおよび位相φに関して入来信号Sinを用いてロックされた光エネルギーSout−nを出力することが各WOE220−nの機能である。この機能は、好ましくは、位相ロックループ(PLL)システム230を各WOEユニット220−nに好ましくは設けることによって実施される。PLL230は、第1の入力としてSinの周波数ωおよび位相φの情報を含む信号を受け取り、第2の入力としてSout−nのωおよび位相φの情報を含む信号を受け取る。閉ループフィードバックにより、WOE220−nによって放出されるSout−n光エネルギーの周波数ωおよび位相φは、検出されたTOF発光Sinの周波数ωおよび位相φにロックされる。したがって、各WOEユニットによって放出されるSout−n光エネルギーは、TOFシステム100’によって放出されて検出された入来光エネルギーSinを周波数および同位相に関して複製する。Sout−nの大きさがSinの大きさよりも大きくなりうること、およびWOEユニットがTOFシステム100’よりも目標物体のすぐ近くに置かれうることの故に利得が実現される。
[0036]図3において、TOFシステム100’からの光エネルギーSout(信号Sinとして表わされる)は、少なくとも1つの光センサー240−A、240−A’によって検出される。様々な240−Aセンサーは、好ましくは、Sout放出をより良好に検出するために、TOFシステム100’を狙いやすくするようにスイベル機構250を用いて機械的に取り付けられる。図3の右側部分を見ると、WOE発光器260によって放出される光エネルギーは、直接にまたはファイバー光学系270などの使用によりWOEセンサー240−Bで検出される。好ましくは、発光器260は、Sout−n光エネルギーを目標物体20またはその上の領域の方に向けやすくするために、スイベル機構280を用いて機械的に取り付けられる。スイベル機構250、280などにより、より良好に、WOEユニットは、TOFシステムからの入来Sout光エネルギーの大きさを増強およびできる限り最大化すること、および/または目標物体に当たるWOEユニットからの放出された光エネルギーSout−nの大きさを増強およびできる限り最大化することができる。理解できるように、目標物体に当たる光エネルギーの大きさを増加させることが望ましく、光エネルギーの大きさの増強は、より大きい振幅のSin信号が検出のためにTOFシステムに反射して戻されることになることを意味する。当然、様々なWOEモジュールからの光エネルギーSout−nの寄与には、TOFシステムによって放出された光エネルギーを基準とした適切な変調周波数および位相を有することが必要とされる。センサー240−Bからの信号は、WOEの放出した光エネルギーSout−nに関連する周波数ωおよび位相φ情報を含むことに留意されたい。
[0037]PLL230内で、比較器ユニット290は入力としてSin信号およびSoutn信号の両方を受け取り、したがって、入来光エネルギーSinおよびWOE複製出力光エネルギーSout−nの両方に関する周波数ωおよび位相φを受け取る。これらの信号は比較器290内で比較され、比較器出力信号は低域フィルタ300に結合される。フィルタ300からの出力信号は、なるべくなら電圧制御発振器310を駆動し、その出力周波数ωおよび出力位相φはフィードバックによってSinの周波数および位相に強制的にロックされる。発光器260から出力されるパワーは、TOFシステム発光器120によって放出される光パワー(図1Aを参照)と異なることがあることを理解されたい。
[0038]この方法では、各WOEユニット220−nは、周波および位相に関してTOFの放出した光エネルギー信号Soutに動的に同期された光エネルギーSout−nを出力する。TOFセンサーアレイ130(図1Aを参照)に関する限り、すべての入来光エネルギーSinは、あたかもTOF発光器120によって放出されたように見なすことができる。本質的に、各WOE220−nはTOFシステム100からの入力波面Soutを受け取り、周波数および同位相に関して入力波面と同期する出力波面Sout−nを発生させることによって波面を複製する。
[0039]図3にさらに示されるように、各WOEユニット220−nは、好ましくは、電源Vcc、例えばバッテリー、ならびにメモリー300と、メモリーに記憶された少なくとも1つのルーチンをオプションとして実行するように結合されたプロセッサ310とを含む。いくつかの実施形態では、メモリー300はWOEユニット220−nの最新のPLLロックパラメータを記憶することができる。これは、各WOE内の周波数・位相同期が、ロック条件のための各ユニットの最新のPLLパラメータを動的に記憶することによって早められうる点で有利である。プロセッサ310は、好ましくは、最も最近に記憶されたロックデータにアクセスし、この情報をPLLシステム250に供給する。PLLシステム250はそれ自体の周波数および位相ロックを達成することになるが、最も最近に記憶されたロックパラメータから始めると、各WOE内のロックの達成を速めることができる。TOFシステム100’内で良好な奥行きデータを生成するには、すべてのSin信号がTOFの放出したSout信号を基準にして周波数および同位相に関して同期されることが必要とされる。実際には、TOFのSout光学発光の周波数ωおよび位相φを基準にして安定して同期されるSout−nを発生するには、WOEユニットごとに有限量の時間を要する。好ましくは、メモリー170中のルーチン175(図2を参照)は、WOEにとって最長の、すなわち、最適に安定なそのようなロック時間情報を記憶することができる。この情報は、安定なロック条件が達成されるより前のWOEからの情報を含むSin信号の一部を無視するようにTOFシステム100’に効果的に命令するのにプロセッサ160(図1Aを参照)によって使用されうる。
[0040]理解できるように、実際には、230、したがってユニット220−1に当たる光エネルギーSoutは、多数の経路および/または近傍で動作する恐らく別のTOFシステムからの寄与に恐らく起因して多数の位相を有する光エネルギーを含むことがある。Sout光エネルギーは、例えば、ユニット220−1に当たる前に局所環境の壁または付属品から跳ね返ることがある。一実施形態では、入来Sout光エネルギーは、例えば、恐らく、レンズ、例えば図3のレンズ232を通過させられることによって空間的に識別される。レンズ232の存在により、所与のボアサイトから発出する入来TOFシステム光エネルギー光線のみが240−A上に収束する。別の実施形態では、多数のセンサー240−A、240−A’を設けることができ、各々はそれ自体のボアサイトを有する。この複数のセンサーは共通レンズ、例えば232’を共有することができ、またはセンサー240−Aにより示されるレンズ232などの個別のレンズを有することができる。これらのセンサーは共通基板上にアレイ様に実装することができ、好ましくは、カリフォルニア州、サニーヴェールのCanesta, Inc.に与えられ、現在はMicrosoft, Inc.に譲渡された多くの米国特許に記載されているような位相ベースの画素とすることができる。複数のセンサー240−Aを使用して、基本奥行き画像234を形成することができる。例えば、WOE220−1に関連するメモリー300に記憶されたソフトウェアルーチンは、好ましくは、最適なセンサー240−A、240−A’などを画像234から知的に識別および選択することができ、最適なセンサーの光出力信号がPLL250で使用されることになる。代替として、WOE220−1の中への、それの内の、それからの光または電磁エネルギーは、限定はしないが、ファイバー光学系、電気ケーブル布線などを含む他の技法を使用して導かれうる。
[0041]様々な実施形態において、PLL250内のロックの達成は瞬時には行われないことを理解されたい。したがって、この固有の遅延を補償するために、TOFシステム100’内で、一次光エネルギー放出器または光源120からの光出力の開始を命令するクロックモジュール180の信号は、アレイ130内の信号積分および光エネルギー検出を制御するクロック信号よりも時間的に早く発せられることになる。他の実施形態では、様々なWOE内で、内部メモリー、例えば300は前に出会った、または観察した周波数−位相領域を記憶することができ、したがって、この情報に素早くアクセスして周波数および位相をロックするのに必要な時間を短くすることができる。用途によっては、例えば、WOEが反射光エネルギーまたは電磁放射を「見る」のを意図的に可能にするために、少なくとも1つのWOEが、ゼロ位相以外の位相を有する少なくとも若干の光エネルギーを放出することができるようにすることが望ましいことがある。
[0042]説明したもの以外の実施形態を使用することもできる。例えば、図1Aおよび図2を参照すると、画素アレイ130内の第1の画素155は、WOEからの入来Soutエネルギーをサンプリングするのに使用することができる。アレイ内の第2の画素155は、270などの光ファイバーを恐らく使用してTOFシステム100’のSoutをサンプリングするのに使用することができる。これらの2つの画素出力からの出力信号間の誤差により、同期を推進するための信号を発生させることができる。図3に示されるように、様々なWOEはバッテリー動作とすることができ(しかし、そうである必要はない)、好ましくは、光エネルギーまたは電磁入来エネルギーが検出されない場合、様々なWOEは動作を停止して動作電力を保存することができる。当然、これらのユニットは低電力消費スタンバイモードにあることになり、その結果、入来エネルギーの検出により、WOEは再び完全に電力投入されることになる。オプションとして、様々なWOE動作パラメータは、ケーブルまたはワイヤレス、例えばRFを介して、あるいはTOFシステム100’からの特別の変調を恐らく光学的に使用することによって、個別のユニットにダウンロードすることができる。
[0043]以下の特許請求の範囲によって定義されるような本発明の主題および趣旨から逸脱することなしに、開示した実施形態に変更および改変を行うことができる。

Claims (24)

  1. 変調周波数ωおよび位相φを有する光エネルギーSoutを放出する一次光源と、距離Zだけ離れた目標物体によって反射されて戻される放出された前記光エネルギーSoutの少なくとも一部分である光エネルギーSinを検出する飛行時間センサーを含み、前記光エネルギーSoutと前記光エネルギーSinの間の前記位相φのシフトから前記距離Zを決定する位相ベースの飛行時間(TOF)システムであって、前記位相ベースの飛行時間(TOF)システムは、
    前記飛行時間センサーには、前記目標物体に反射されたその出力光エネルギーSout−nが、前記一次光源によって放出され前記目標物体に反射された光エネルギーSoutと実質的に区別ができない、少なくとも1つの補助光放出ユニットをさらに含み、
    前記補助光放出ユニットの各々によって放出される光エネルギーSout−nが、変調周波数ωおよび位相φに関して前記一次光源から放出された前記光エネルギーSoutの複製である、
    位相ベースの飛行時間(TOF)システム。
  2. 前記補助光放出ユニットが、少なくとも1つのワイヤレス光放出(WOE)ユニットを含み、
    前記ワイヤレス光放出(WOE)ユニットが、
    放出された前記光エネルギーSoutの一部分を受け取るための手段と、
    前記ワイヤレス光放出(WOE)ユニットによって受け取られるときの前記一次光源の発生した前記光エネルギーSoutによる前記変調周波数ωおよび前記位相φと同期している光エネルギーSout−nを発生させるための手段とを含む
    請求項1に記載の位相ベースの飛行時間(TOF)システム。
  3. 前記ワイヤレス光放出(WOE)ユニットが発生する出力光エネルギーSout−nが、前記ワイヤレス光放出(WOE)ユニットが受け取った光エネルギーSoutの変調周波数ωおよび位相φに対して動的にロックされ、
    前記ワイヤレス光放出(WOE)ユニットの動作が、前記目標物体によって前記位相ベースの飛行時間(TOF)システムの方に反射して戻される光エネルギーの実効パワーを増加させる、
    請求項2に記載の位相ベースの飛行時間(TOF)システム。
  4. 前記光エネルギーSout−nの変調周波数ωおよび位相φの少なくとも一方を前記光エネルギーSoutの変調周波数ωおよび位相φに強制的に同期させるための閉ループフィードバックシステムを少なくとも1つの前記ワイヤレス光放出(WOE)ユニットに設けたことを特徴とする、
    請求項2又は3に記載の位相ベースの飛行時間(TOF)システム。
  5. 前記閉ループフィードバックシステムが、
    電圧制御発振器(VCO)と、
    前記光エネルギーSoutと前記光エネルギーSout−nとの間の前記変調周波数ωの誤差および前記位相φの誤差の少なくとも一方を示す誤差信号を発生させる位相ロックループ(PLL)ユニットであり、前記誤差信号が、閉ループフィードバックにおいて、前記光エネルギーSout−nの変調周波数ωおよび位相φの少なくとも一方を前記光エネルギーSoutの変調周波数ωおよび位相φにロックするために発生される、位相ロックループ(PLL)ユニットとを含む、
    請求項4に記載の位相ベースの飛行時間(TOF)システム。
  6. 前記放出された前記光エネルギーSoutの一部分を受け取るための手段が、前記光エネルギーSoutの少なくとも一部分を受け取る複数のセンサーを含み、
    前記ワイヤレス光放出(WOE)ユニットが、
    前記放出された前記光エネルギーSoutの一部分を受け取るための手段内の少なくとも第1のセンサーおよび第2のセンサーによって取得されるデータを使用して奥行き画像を形成するための手段と、
    前記PLLを駆動する際にどのセンサー出力を使用するかを、前記センサーの各々からの出力信号から識別するための手段とを含む、
    請求項5に記載の位相ベースの飛行時間(TOF)システム。
  7. 前記ワイヤレス光放出(WOE)ユニットが、前記PLLを同期させる際に使用するための最良のロックデータを記憶するメモリーをさらに含む、
    請求項5又は6に記載の位相ベースの飛行時間(TOF)システム。
  8. 前記ワイヤレス光放出(WOE)ユニットが、前記ワイヤレス光放出(WOE)ユニットによって受け取られる前記光エネルギーSoutからの入来光エネルギーの量、および前記目標物体に当たる前記ワイヤレス光放出(WOE)ユニットによって放出される前記光エネルギーSout−nの量の少なくとも一方を増加させるように、前記一次光源を基準にして前記ワイヤレス光放出(WOE)ユニットの位置を変えるための手段を含む、
    請求項2〜7のいずれか一項に記載の位相ベースの飛行時間(TOF)システム。
  9. 前記補助光放出ユニットが、少なくとも1つのプラグ有線接続光放出(PWOE)ユニットを含むことを特徴と
    前記プラグ有線接続光放出(PWOE)ユニットが、前記一次光源に隣接する前記位相ベースの飛行時間(TOF)システムに取り外し可能に結合することができるものであり、
    前記位相ベースの飛行時間(TOF)システムが、前記一次光源を基準にした遅延に対して前記プラグ有線接続光放出(PWOE)ユニットを較正するための手段を含む、
    請求項1〜8のいずれか一項に記載の位相ベースの飛行時間(TOF)システム。
  10. 前記較正するための手段が、
    前記一次光源によって放出される光エネルギーSoutのみを使用して前記目標物体の一次奥行き画像を取得するための手段と、
    前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーのみを使用して前記目標物体の奥行き画像を一度に1ユニットずつ取得するための手段と、
    前記一次奥行き画像を、前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーを使用して取得された奥行き画像と一度に1つずつ比較するための手段と、
    前記一次奥行き画像と前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーで取得された奥行き画像との間の差を最小にするように、前記プラグ有線接続光放出(PWOE)ユニットの各々に関連する遅延を補償するための手段であり、前記プラグ有線接続光放出(PWOE)ユニットの遅延を調整することなしにソフトウェアを使用して補償する、手段とを含む、
    請求項に記載の位相ベースの飛行時間(TOF)システム。
  11. 前記較正するための手段が、
    前記一次光源によって放出される光エネルギーSoutのみを使用して前記目標物体の一次奥行き画像を取得するための手段と、
    前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーのみを使用して前記目標物体の奥行き画像を一度に1ユニットずつ取得するための手段と、
    前記一次奥行き画像を、前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーを使用して取得された奥行き画像と比較するための手段と、
    前記一次奥行き画像と前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーで取得された奥行き画像との間の差を最小にするように、前記プラグ有線接続光放出(PWOE)ユニットの前記遅延を変更するための手段とを含む、
    請求項に記載の位相ベースの飛行時間(TOF)システム。
  12. 前記補助光放出ユニットが、前記一次光源に対して距離をおいて配置され、且つ、前記目標物体に対して距離をおいて配置されることを特徴とする、
    請求項1〜11のいずれか一項に記載の位相ベースの飛行時間(TOF)システム。
  13. 変調周波数ωおよび位相φを有する光エネルギーSoutを放出する一次光源と、距離Zだけ離れた目標物体によって反射されて戻される放出された前記光エネルギーSoutの少なくとも一部分である光エネルギーSinを検出する飛行時間センサーを含み、前記光エネルギーSoutと前記光エネルギーSinの間の前記位相φのシフトから前記距離Zを決定する位相ベースの飛行時間(TOF)システムの検出性能を動的に増強する方法であって、前記方法が、
    少なくとも1つの補助光放出ユニットからの光エネルギーSout−nを使用するステップであり、その出力光エネルギーSout−nが、前記飛行時間センサーには、前記一次光源によって放出される光エネルギーSoutと区別ができない、ステップを含み、
    前記補助光放出ユニットの各々によって放出される光エネルギーSout−nが、変調周波数ωおよび位相φに関して前記一次光源から放出された前記光エネルギーSoutの複製である方法。
  14. 前記補助光放出ユニットが、少なくとも1つのワイヤレス光放出(WOE)ユニットを含み、
    前記ワイヤレス光放出(WOE)ユニットが、
    放出された前記光エネルギーSoutの一部分を受け取るための手段と、
    前記ワイヤレス光放出(WOE)ユニットによって受け取られるときの前記一次光源の発生した前記光エネルギーSoutによる前記変調周波数ωおよび前記位相φと同期している光エネルギーSout−nを発生させるための手段とを含む
    請求項13に記載の方法。
  15. 前記ワイヤレス光放出(WOE)ユニットが発生する出力光エネルギーSout−nが、前記ワイヤレス光放出(WOE)ユニットが受け取った光エネルギーSoutの変調周波数ωおよび位相φに対して動的にロックされ、
    前記ワイヤレス光放出(WOE)ユニットの動作が、前記目標物体によって前記位相ベースの飛行時間(TOF)システムの方に反射して戻される光エネルギーの実効パワーを増加させる、
    請求項14に記載の方法。
  16. 前記光エネルギーSout−nの変調周波数ωおよび位相φの少なくとも一方を前記光エネルギーSoutの変調周波数ωおよび位相φに強制的に同期させるための閉ループフィードバックシステムを少なくとも1つの前記ワイヤレス光放出(WOE)ユニットに設けたことを特徴とする、
    請求項14又は15に記載の方法。
  17. 前記閉ループフィードバックシステムが、
    電圧制御発振器(VCO)と、
    前記光エネルギーSoutと前記光エネルギーSout−nとの間の前記変調周波数ωの誤差および前記位相φの誤差の少なくとも一方を示す誤差信号を発生させる位相ロックループ(PLL)ユニットであり、前記誤差信号が、閉ループフィードバックにおいて、前記光エネルギーSout−nの変調周波数ωおよび位相φの少なくとも一方を前記光エネルギーSoutの変調周波数ωおよび位相φにロックするために発生される、位相ロックループ(PLL)ユニットとを含む、
    請求項16に記載の方法。
  18. 前記放出された前記光エネルギーSoutの一部分を受け取るための手段が、前記光エネルギーSoutの少なくとも一部分を受け取る複数のセンサーを含み、
    前記ワイヤレス光放出(WOE)ユニットが、
    前記放出された前記光エネルギーSoutの一部分を受け取るための手段内の少なくとも第1のセンサーおよび第2のセンサーによって取得されるデータを使用して奥行き画像を形成するための手段と、
    前記PLLを駆動する際にどのセンサー出力を使用するかを、前記センサーの各々からの出力信号から識別するための手段とを含む、
    請求項17に記載の方法。
  19. 前記ワイヤレス光放出(WOE)ユニットが、前記PLLを同期させる際に使用するための最良のロックデータを記憶するメモリーをさらに含む、
    請求項17又は18に記載の方法。
  20. 前記ワイヤレス光放出(WOE)ユニットが、前記ワイヤレス光放出(WOE)ユニットによって受け取られる前記光エネルギーSoutからの入来光エネルギーの量、および前記目標物体に当たる前記ワイヤレス光放出(WOE)ユニットによって放出される前記光エネルギーSout−nの量の少なくとも一方を増加させるように、前記一次光源を基準にして前記ワイヤレス光放出(WOE)ユニットの位置を変えるための手段を含む、
    請求項1419のいずれか一項に記載の位相ベースの飛行時間(TOF)システム。
  21. 前記補助光放出ユニットが、更に、少なくとも1つのプラグ有線接続光放出(PWOE)ユニットを含むことを特徴と
    前記プラグ有線接続光放出(PWOE)ユニットが、前記一次光源に隣接する前記位相ベースの飛行時間(TOF)システムに取り外し可能に結合することができるものであり、
    前記位相ベースの飛行時間(TOF)システムが、前記一次光源を基準にした遅延に対して前記プラグ有線接続光放出(PWOE)ユニットを較正するための手段を含む、
    請求項1320のいずれか一項に記載の方法。
  22. 前記較正するための手段が、
    前記一次光源によって放出される光エネルギーSoutのみを使用して前記目標物体の一次奥行き画像を取得するための手段と、
    前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーのみを使用して前記目標物体の奥行き画像を一度に1ユニットずつ取得するための手段と、
    前記一次奥行き画像を、前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーを使用して取得された奥行き画像と一度に1つずつ比較するための手段と、
    前記一次奥行き画像と前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーで取得された奥行き画像との間の差を最小にするように、前記プラグ有線接続光放出(PWOE)ユニットの各々に関連する遅延を補償するための手段であり、前記プラグ有線接続光放出(PWOE)ユニットの遅延を調整することなしにソフトウェアを使用して補償する、手段とを含む、
    請求項21に記載の方法。
  23. 前記較正するための手段が、
    前記一次光源によって放出される光エネルギーSoutのみを使用して前記目標物体の一次奥行き画像を取得するための手段と、
    前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーのみを使用して前記目標物体の奥行き画像を一度に1ユニットずつ取得するための手段と、
    前記一次奥行き画像を、前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーを使用して取得された奥行き画像と比較するための手段と、
    前記一次奥行き画像と前記プラグ有線接続光放出(PWOE)ユニットの各々によって放出される光エネルギーで取得された奥行き画像との間の差を最小にするように、前記プラグ有線接続光放出(PWOE)ユニットの前記遅延を変更するための手段とを含む、
    請求項21に記載の方法。
  24. 前記補助光放出ユニットが、前記一次光源に対して距離をおいて配置され、且つ、前記目標物体に対して距離をおいて配置されることを特徴とする、
    請求項1323のいずれか一項に記載の方法。
JP2012552046A 2010-02-01 2011-02-01 飛行時間範囲探知システムのための複数の同期化光源 Active JP5898631B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US33731510P 2010-02-01 2010-02-01
US61/337,315 2010-02-01
US13/018,293 2011-01-31
US13/018,293 US8891067B2 (en) 2010-02-01 2011-01-31 Multiple synchronized optical sources for time-of-flight range finding systems
PCT/US2011/023413 WO2011094762A2 (en) 2010-02-01 2011-02-01 Multiple synchronized optical sources for time-of-flight range finding systems

Publications (2)

Publication Number Publication Date
JP2013519092A JP2013519092A (ja) 2013-05-23
JP5898631B2 true JP5898631B2 (ja) 2016-04-06

Family

ID=44341395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012552046A Active JP5898631B2 (ja) 2010-02-01 2011-02-01 飛行時間範囲探知システムのための複数の同期化光源

Country Status (8)

Country Link
US (2) US8891067B2 (ja)
EP (1) EP2531812B1 (ja)
JP (1) JP5898631B2 (ja)
KR (1) KR101804590B1 (ja)
CN (1) CN102741651B (ja)
CA (1) CA2786626C (ja)
IL (1) IL220786A (ja)
WO (1) WO2011094762A2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8891067B2 (en) * 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
KR101975971B1 (ko) 2012-03-19 2019-05-08 삼성전자주식회사 깊이 카메라, 다중 깊이 카메라 시스템, 그리고 그것의 동기 방법
KR101925028B1 (ko) * 2012-08-29 2018-12-04 엘지전자 주식회사 깊이 영상 생성 장치 및 방법
FR2999697B1 (fr) * 2012-12-17 2015-01-02 Nexter Systems Procede d'acquisition des coordonnees d'un point de declenchement d'un projectile et conduite de tir mettant en oeuvre un tel procede
US9578311B2 (en) * 2014-10-22 2017-02-21 Microsoft Technology Licensing, Llc Time of flight depth camera
US10048357B2 (en) * 2015-06-15 2018-08-14 Microsoft Technology Licensing, Llc Time-of-flight (TOF) system calibration
CN106612387B (zh) 2015-10-15 2019-05-21 杭州海康威视数字技术股份有限公司 一种组合深度图获得方法及深度相机
JP6631718B2 (ja) * 2016-02-08 2020-01-15 株式会社デンソー マルチパス誤差を検出するための飛行時間型距離測定装置及び方法
JP2018031607A (ja) 2016-08-23 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 測距装置、電子装置、および、測距装置の制御方法
CN106405567B (zh) * 2016-10-14 2018-03-02 海伯森技术(深圳)有限公司 一种基于tof的测距系统及其校正方法
DE102018113630B4 (de) 2017-06-08 2022-06-23 Ifm Electronic Gmbh Entfernungsmesssystem mit wenigstens zwei Beleuchtungsmodulen
DE102018113629B4 (de) 2017-06-08 2024-01-11 Ifm Electronic Gmbh Entfernungsmesssystem mit wenigstens zwei Beleuchtungsmodulen
CN107515402A (zh) * 2017-08-21 2017-12-26 东莞市迈科新能源有限公司 一种tof三维测距系统
CN107515403A (zh) * 2017-08-21 2017-12-26 东莞市迈科新能源有限公司 一种tof三维测距传感器
US10649410B2 (en) * 2017-10-06 2020-05-12 Thomas Broussard High resolution time-of-flight measurements
EP3525004B1 (de) 2018-02-08 2020-10-14 Cedes AG Tof sensor mit prüfsender
CN109031331A (zh) * 2018-08-07 2018-12-18 上海炬佑智能科技有限公司 飞行时间测距传感芯片及传感装置、电子设备
WO2020148103A1 (en) * 2019-01-14 2020-07-23 Lumileds Holding B.V. Lighting device for frequency-modulated emission
JP2020153715A (ja) 2019-03-18 2020-09-24 株式会社リコー 測距装置および測距方法
JP7240947B2 (ja) * 2019-05-09 2023-03-16 株式会社アドバンテスト 光学試験用装置
CN111751833A (zh) * 2020-06-24 2020-10-09 深圳市汇顶科技股份有限公司 一种打光以及反射光数据获取方法、装置

Family Cites Families (185)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
WO1993010708A1 (en) 1991-12-03 1993-06-10 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
DE4414514A1 (de) * 1994-04-26 1995-11-02 Klaus Deichl Verfahren zur Ermittlung der zwischen zwei Meßorten liegenden Strecke und Vorrichtung zur Durchführung des Verfahrens
JPH07301672A (ja) 1994-05-02 1995-11-14 Nissan Motor Co Ltd 車間距離レーダ装置
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
JP2907083B2 (ja) * 1995-10-30 1999-06-21 日本電気株式会社 光送信方法および光送信装置
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
CA2253626A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
JP2980169B2 (ja) * 1996-10-30 1999-11-22 日本電気株式会社 レーザ光リピータ装置
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
WO1999019840A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6411744B1 (en) 1997-10-15 2002-06-25 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
JP3459166B2 (ja) * 1997-11-04 2003-10-20 日本電信電話株式会社 光位相同期光源
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
AU1574899A (en) 1998-12-16 2000-07-03 3Dv Systems Ltd. Self gating photosurface
JP4127579B2 (ja) 1998-12-22 2008-07-30 浜松ホトニクス株式会社 光波距離計
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6137566A (en) * 1999-02-24 2000-10-24 Eoo, Inc. Method and apparatus for signal processing in a laser radar receiver
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6323942B1 (en) * 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6580496B2 (en) * 2000-11-09 2003-06-17 Canesta, Inc. Systems for CMOS-compatible three-dimensional image sensing using quantum efficiency modulation
DE10059156A1 (de) * 2000-11-29 2002-06-06 Sick Ag Abstandsbestimmung
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
DE102004042466A1 (de) * 2004-09-02 2006-03-23 Robert Bosch Gmbh Vorrichtung und Verfahren zur optischen Distanzmessung
DE102004051940B4 (de) * 2004-10-25 2008-08-21 Leica Microsystems Cms Gmbh Beleuchtungseinrichtung in einem Mikroskop
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
CN102831387B (zh) 2005-01-07 2016-12-14 高通股份有限公司 检测和跟踪图像中的物体
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
RU2007146172A (ru) 2005-05-17 2009-06-27 Гестуретэк, Инк. (Us) Вывод сигнала, чувствительный к ориентации
ATE412882T1 (de) 2005-08-12 2008-11-15 Mesa Imaging Ag Hochempfindliches, schnelles pixel für anwendung in einem bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US8400494B2 (en) * 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
CN101356450B (zh) * 2005-12-19 2015-08-05 莱达科技股份有限公司 物体检测发光系统和方法
DE102006004019B3 (de) * 2006-01-27 2007-03-08 Audi Ag PMD-System und Verfahren zur Abstandsmessung von einem Objekt
US7450220B2 (en) * 2006-02-08 2008-11-11 Canesta, Inc Method and system to correct motion blur and reduce signal transients in time-of-flight sensor systems
US7471376B2 (en) * 2006-07-06 2008-12-30 Canesta, Inc. Method and system for fast calibration of three-dimensional (3D) sensors
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
JP5270835B2 (ja) * 2006-12-29 2013-08-21 パナソニック株式会社 光検出素子、空間情報の検出装置
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
JP5089289B2 (ja) * 2007-08-22 2012-12-05 浜松ホトニクス株式会社 測距センサ及び測距装置
EP2232462B1 (en) 2007-12-21 2015-12-16 Leddartech Inc. Parking management system and method using lighting system
JP2009168751A (ja) 2008-01-18 2009-07-30 Toyota Motor Corp 障害物検出システム及び障害物検出方法
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
JP2010008088A (ja) * 2008-06-24 2010-01-14 Panasonic Electric Works Co Ltd 空間情報検出装置
US8368876B1 (en) * 2008-10-17 2013-02-05 Odyssey Space Research, L.L.C. Calibration system and method for imaging flash LIDAR systems
US8010316B2 (en) * 2008-12-11 2011-08-30 Intermec Ip Corp. System and method for laser range-finding
US8891067B2 (en) * 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems

Also Published As

Publication number Publication date
EP2531812A4 (en) 2015-05-27
US20150036119A1 (en) 2015-02-05
US20110188027A1 (en) 2011-08-04
EP2531812B1 (en) 2019-12-11
US10113868B2 (en) 2018-10-30
KR101804590B1 (ko) 2017-12-04
JP2013519092A (ja) 2013-05-23
IL220786A (en) 2016-02-29
CN102741651A (zh) 2012-10-17
CA2786626A1 (en) 2011-08-04
EP2531812A2 (en) 2012-12-12
WO2011094762A3 (en) 2011-11-17
CA2786626C (en) 2018-08-14
CN102741651B (zh) 2014-01-08
KR20120123388A (ko) 2012-11-08
US8891067B2 (en) 2014-11-18
WO2011094762A2 (en) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5898631B2 (ja) 飛行時間範囲探知システムのための複数の同期化光源
US10234560B2 (en) Method and time-of-flight camera for providing distance information
US10330780B2 (en) LIDAR based 3-D imaging with structured light and integrated illumination and detection
US10018726B2 (en) Integrated illumination and detection for LIDAR based 3-D imaging
JP4971744B2 (ja) 強度変調光を用いた空間情報検出装置
US7193690B2 (en) Laser scanner and method for optically scanning an environment
US8638449B2 (en) Measuring device having multiple light emitting sources
US9846236B2 (en) Optical scanner, object detector, and sensing apparatus
CN110168402A (zh) 激光功率校准和校正
US20230108515A1 (en) Time-of-flight image sensor resolution enhancement and increased data robustness using a binning module
JP2009508096A (ja) 3d画像化方法及び装置
NZ525241A (en) Range sensing system with shuttered receiver.
Piszczek et al. Laser Photography Device-Spatial Parameters of Imaging
JP2002296032A (ja) 位置検出装置
US20230221439A1 (en) Addressing redundant memory for lidar pixels
EP4206605A1 (en) Controllable laser pattern for eye safety and reduced power consumption for image capture devices
JP6924674B2 (ja) 光源システム及び半導体解析装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150430

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160304

R150 Certificate of patent or registration of utility model

Ref document number: 5898631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250