JP5555256B2 - ゲート3dカメラ - Google Patents

ゲート3dカメラ Download PDF

Info

Publication number
JP5555256B2
JP5555256B2 JP2011544110A JP2011544110A JP5555256B2 JP 5555256 B2 JP5555256 B2 JP 5555256B2 JP 2011544110 A JP2011544110 A JP 2011544110A JP 2011544110 A JP2011544110 A JP 2011544110A JP 5555256 B2 JP5555256 B2 JP 5555256B2
Authority
JP
Japan
Prior art keywords
camera
light source
light
shutter
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011544110A
Other languages
English (en)
Other versions
JP2012514884A (ja
Inventor
ペルマン,アサフ
サンダー,アブナー・イシャイ
ヤハヴ,ジオラ
Original Assignee
マイクロソフト インターナショナル ホールディングス ビイ.ヴイ.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. filed Critical マイクロソフト インターナショナル ホールディングス ビイ.ヴイ.
Publication of JP2012514884A publication Critical patent/JP2012514884A/ja
Application granted granted Critical
Publication of JP5555256B2 publication Critical patent/JP5555256B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本技術は、ゲート3Dカメラ(gated 3D camera)、ゲート3Dカメラを用いて場面の3D画像を取得する方法および装置に関する。
三次元(3D)光学撮像システム、以下では「3Dカメラ」と呼ぶが、これらが撮像する物体または物体上の点までの距離の測定値を供給することができ、多くの異なる用途に用いられる。これらの用途の中では、製造した商品の輪郭検査、CAD検証、ロボット視覚(robot vision)、地理的調査、および物体の撮像が、選択的に距離の関数となることもある。
3Dカメラの中には、それらが撮像する場面における物体の実質的に全ての点までの同時測定が行えるものもある。一般に、これらの3Dカメラは、撮像対象の場面を照明するための光のパルスを供給するように制御される端面発光レーザー・ダイオードのアレイを備えている光源と、場面における物体から反射される光パルスからの光を撮像するゲート撮像システム(gated imaging system)とを備えているのが通例である。ゲート撮像システムは、CCDまたはCMOS感光面(photosurface)のような感光型表面(photosensitive surface)(以後「感光面」と呼ぶ)と、光学シャッターまたはゲート画像倍増管のような、カメラの開放および閉鎖をゲートするゲーティング手段(gating means)とを備えている。反射光がカメラの感光面の画素上に登録されるのは、カメラが開放されているときにその光がカメラに到達したときだけである。
場面を撮像し、その場面においてカメラから物体までの距離を判定するために、光源は、一般に、場面を照明するために光パルス列を放射するように制御される。この列における放射光パルス毎に、その光パルスが放射された時刻から精度高く判定された遅延に続いて、カメラがある期間の間開放される。この期間を以下では「ゲート」と呼ぶ。光パルスからの光が場面における物体から反射され、ゲートの間にカメラに到達した場合、カメラの感光面上に撮像される。光パルスの放射と、それに続くゲートとの間に経過する時間は分かっているので、撮像光が光源から場面における反射物体まで伝わりそしてカメラに戻ってくるのに要する時間も分かる。この経過時間は、物体までの距離を判定するために用いられる。
「ゲート」3Dカメラの中には、光パルスとゲートとの間のタイミングだけを用いて、3Dカメラから、このカメラの感光面の画素上に撮像された場面内の1点までの距離を判定するものもある。他の「ゲート」3Dカメラでは、カメラが開放にゲートされている時間中に画素によって登録された光量も用いて、距離を判定する。これら3Dカメラによって行われる測定の精度は、光パルスの立ち上がり時点および立ち下がり時点、光パルスの平坦性、ならびにカメラを開放および閉鎖にゲートさせることができる速度の関数となる。
ゲート3Dカメラおよびそれらの使用例は、ヨーロッパ特許EP1214609号、ならびに米国特許第6,057,909号、第6,091,905号、第6,100,517号、第6,327,073号、第6,331,911号、第6,445,884号、および第6,794,628号において見られる。これらの特許をここで引用したことにより、その開示内容は本願にも含まれるものとする。パルス状照明源およびゲート撮像システムを用いた3Dカメラが、S.Christie, et al.,による”Design and Development of a Multi-detecting two Dimensional Ranging Sensor”(多重検出二次元測距センサの設計および開発), Measurement Science and Technology 6 (September 1995), pages 1301-1308、および”Range-gated Imaging for Near Field Target Identification (近場目標識別のための距離選別撮像), Yates et al, SPIE Vol. 2869, p374-385に記載されている。これらの文献をここで引用したことにより、その内容が本願にも含まれるものとする。他の3Dカメラが、Medinaの米国特許第5,081,530号に記載されている。この特許をここで引用したことにより、その内容は本願にも含まれるものとする。この特許において記載されている3Dカメラは、1対のゲートの各ゲートの間にカメラの撮像システムに到達し目標から反射した光のパルスにおけるエネルギーを登録する。目標までの距離は、2つのゲートの各々の間に登録されたエネルギー量間の差の、2つのゲートの各々の間に登録されたエネルギー量の和に対する比率から判定される。
3Dカメラによって供給される測定値の精度を高めるためのR&Dにおける努力は、通例、立ち上がり時間、立ち下がり時間、ならびに場面を照明ために送信される光パルスの幅および場面によってパルスから反射した光を撮像する対応のゲートを短縮する方法およびデバイスを開発するのに傾注されている。
本技術の実施形態の一態様は、改良したゲート3Dカメラを提供することに関する。
本技術の実施形態の一態様は、カメラによって撮像される場面における特徴を突き止める空間精度を改良した、ゲート3Dカメラを提供することに関する。
本技術の実施形態の一態様は、カメラによって撮像される場面を照明するために改良した光源を有するゲート3Dカメラを提供することに関する。
本技術の実施形態の一態様は、カメラによって撮像される場面を照明するために用いられる光源と、場面によって反射された光源からの光が撮像されるカメラの感光面をゲートするカメラ・シャッターとのマッチング(matching)を改良したゲート3Dカメラに関する。
本技術の実施形態の一態様によれば、光源は、典型的なVCSEL構造に対して変更され、比較的広いレーザー・キャビティを特徴とする構造を有するVCSELを備えている。
本発明者は、ゲート3Dカメラによって供給される距離の精度は、カメラ光源のスペクトルの畳み込み(convolution)、およびカメラ・シャッターのコントラスト比(CR)関数に依存すると断定した。コントラスト比CRは、カメラ・シャッターのコントラスト比の光学波長に対する依存性を定義する。所与の波長に対して、CRは、シャッターが開いているときの波長におけるシャッターの比較的高い透過性の、シャッターが閉じているときの波長の光に対する比較的低い透過性に対する比である。シャッターが実際に光を遮るために用いることができる波長は、そのCR関数が1よりも大きく、一般には、1よりも実質的に大きくなる波長である。シャッターにとってCRが1よりも大きくなる波長の帯域を、シャッターの「動作帯域」と呼ぶ。
所与の立ち上がり時間、立ち下がり時間、ならびに光パルスおよびゲートの幅に対して、3Dゲート・カメラによって供給される距離測定値の精度は、シャッターのCR関数および光源スペクトルのマッチングを取り、CR関数およびスペクトルの畳み込みを最大にすることによって、有利に向上させることができる。一般に、光源スペクトルとシャッターとのマッチングを取ると、実質的にスペクトルがシャッターの動作帯域の中心に来る。紹介の都合上、シャッターCRと光源スペクトルとの間の畳み込みをコントラスト強度(CI)と呼ぶ。正規化したコントラスト強度(CI)、即ち、光源によって供給される光のパルスにおける総光エネルギーに対して正規化されたCIは、光源とシャッターとの間のマッチングの尺度として用いるのに便利である。
一般に、ゲート3Dカメラ光源の周期的な短期温度変化が、光源を作動させてカメラによって撮像された場面を照明する時間にカメラの周囲動作温度に対して発生する。従来のゲート3Dカメラの光源では、通例端面発光レーザー・ダイオードを備えており、温度変化が、光源スペクトルにおいてカメラ・シャッターのCR関数に対する波長ずれの原因となる。シャッターのCR動作帯域に対するスペクトルの幅は、一般に、周波数ずれが実質的にスペクトルおよびCR関数の調和を崩し(misalign)、カメラの正規化コントラスト強度CINを低下させ、それによって距離測定値における偏倚誤差を増大させる。
垂直共振器面発光レーザー(VCSEL)のような従来の光源で、比較的狭いスペクトルを特徴とするものは知られているが、このような光源は、通例、通信システムのような低電力用途に用いられる。これらは、一般に、3Dゲート・カメラにおいて用いて有利となる程十分な光量を生成しない。
しかしながら、本発明者は、VCSELのレーザー・キャビティを広げることによって、その光学出力を増大するようにVCSELを修正できると断定した。VCSELレーザー・キャビティを広げると、VCSELスペクトルの幅が広がるが、それでもなおスペクトルは、従来の端面発光レーザー・ダイオードによって通例供給されるものよりも遙かに狭いのが一般である。更に、温度が1度変化する毎のVCSELの出力スペクトルの波長ずれは、従来の端面発光レーザー/ダイオードのそれよりも遙かに少ない。その結果、ゲート3Dカメラに用いるために、本技術の一実施形態にしたがって変更したVCSELを備えている光源は、光源とカメラ/シャッターとのマッチングを相対的に改良することに備えている。このVCSEL光源の変更の結果、カメラのCINが相対的に大きくなり、光源の温度変化に対して比較的不感応になる。本技術の一実施形態では、光源は変更したVCSELのアレイを備えている。
したがって、本技術の一実施形態によれば、場面までの距離を判定するカメラを提供する。このカメラは、特性スペクトルを有する光のパルス列によってその場面を照明するように制御可能な、VCSELを備えている光源と、感光面と、場面によって光パルスから反射された光を感光面上に撮像する光学素子と、スペクトルの光に対して、感光面を選択的にオンおよびオフにゲートするように動作可能なシャッターとを備えている。任意に、特性スペクトルは、約1.5nm以上のFWHM幅を有する。任意に、特性スペクトルは、約2.0nm以上のFWHM幅を有する。任意に、特性スペクトルは、約2.5nm以上のFWHM幅を有する。
本技術の実施形態の中には、VCSELが、約20ミクロン以上の直径を特徴とするレーザー・キャビティを有する場合もある。 本技術の実施形態の中には、VCSELが、約25ミクロン以上の直径を特徴とするレーザー・キャビティを有することもある。本技術の実施形態の中には、シャッターCRおよび特性スペクトルの正規化畳み込みが、シャッターと光源との間における約20°C以上の温度差に対して、約10以上である場合もある。本技術の実施形態の中には、シャッターCRおよび特性スペクトルの正規化畳み込みが、シャッターと光源との間における約20°C以上の温度差に対して、約12以上である場合もある。
本技術の実施形態の中には、光源が、場面を光のパルス列で照明するために、約12ワット以上の電力レベルで動作する場合もある。任意に、電力レベルは、約15ワット以上である。任意に、力レベルは約18ワット以上である。
以下に、本明細書に添付されている図面を参照して、本技術の実施形態の非限定的な例について説明する。図面は、このパラグラフの後に列挙されている。1つよりも多い図面に出てくる同一の構造、エレメント、または部品には、これらが出てくる全ての図面において、同じ番号で示されている。図に示すコンポーネントや機構の寸法は、提示に便利なように、そして提示を明確にするように選択されたのであり、必ずしも同じ拡縮率で示されているのではない。
図1は、先行技術による、場面までの距離を判定するように動作する3Dゲート・カメラを模式的に示す。 図2は、先行技術による、図1に示すカメラにそれぞれ備えられているシャッターおよびレーザー・ダイオード光源の模式CR関数およびスペクトルのグラフを示す。 図3は、先行技術による3Dカメラのゲーティングを示す時間線(time line)のグラフを示す。 図4は、先行技術による、光源の局部的加熱によって生ずる、図1に示したシャッターのCR関数に対するレーザー・ダイオード光源のスペクトルの波長ずれを表すグラフを示す。 図5は、先行技術による、図1に示したカメラによって供給される場面までの距離測定値における偏倚誤差のグラフを示す。 図6は、本技術の一実施形態による、VCSEL光源を備えている3Dゲート・カメラを模式的に示す。 図7は、本技術の一実施形態による、光源の局部加熱によって生ずる、図6におけるカメラのVCSEL光源のスペクトルの波長ずれを表すグラフを示す。 図8は、本技術の一実施形態による、図6に示したカメラによって供給される場面までの距離測定値における偏倚誤差の改良を表すグラフを示す。
図1は、物体31および32によって模式的に表された物体を有する場面30の3D画像を取り込むために用いられるゲート3Dカメラ20を模式的に示す。
カメラ20は、非常に模式的に表されており、レンズ21によって表されるレンズ系と、レンズ系が場面を撮像する画素23を有する感光面22とを備えている。このカメラは、感光面22をオンまたはオフにゲートするシャッター25を備えている。シャッター25は、選択的に低いまたは高い透過度を有するように制御可能である。シャッター25が「閉じている」と言われるのは、その動作帯域における光に対して低い透過度を有し、感光面22をオフにゲートするときであり、「開いている」と言われるのは、その動作帯域における光に対して高い透過性を有し、感光面をオンにゲートするときである。「ゲート」とは、感光面22がシャッター25によってオンにゲートされ、感光面がシャッターを透過した光を受光する期間を言う。
カメラ20は、任意に、光源26を備えている。光源26は、通例、端面発光レーザー・ダイオード27のアレイであり、シャッター動作帯域における波長の透過光パルス列によって場面30を照明するように制御可能である。この光パルス列は、図1では、ハット・パルス(hat pulse)41の列40によって模式的に表されており、各パルスには、光源26から離れる方向に向かう直上の矢印が付随している。任意に、シャッター動作帯域はIR光帯域である。コントローラー24が、光源26のパルス発生およびシャッター25の動作を制御して、感光面22をゲートする。場面30までの距離測定値のためにデータを供給する際の光パルス列40および光パルス41の機能について、以下に論ずる。
通例、カメラ20の動作中、光源26は、光パルス40の列によって、場面30を繰り返し照明するように制御される。光パルスの各列40の間、光源26はカメラ内において熱を発生しそして消散し、光源の温度は最低温度と最高温度との間を巡回する。熱発生および消散のサイクルが繰り返されるために、シャッター25は、カメラの周囲温度よりも高い高動作温度に加熱され、最低および最高光源温度によって挟まれる。約30°Cの周囲温度では、シャッター動作温度は約50°Cとなる場合もあり、光源温度は、光パルス列40の発生の間、シャッター動作温度よりも約20°C下から約20°C上まで巡回する。
シャッターの動作帯域および光源のスペクトルは双方共、これらが動作する温度変化と共に変化するので、光パルス列40の間、光源26の温度がシャッター25の動作温度に対して変動すると、光源からの光のスペクトルはCRに対して波長ずれが起こる。その結果、シャッター25および光源26のCINは、各光パルス列の間に変化する。カメラ20の信頼性のある動作のためには、CINを最大とし、光源26およびシャッター25の動作温度の差によって生ずる、CINのその最大値に対する分散(variance)は比較的小さいと有利である。このために、光源およびシャッターは、光源からの光が、シャッターの動作帯域内の波長となるように、そして一般的に、少なくとも光源熱サイクルの中点温度において、カメラのCINが最大となるようにマッチングが取られる。また、光源およびシャッターは、同じ温度依存性を有するように、同じ半導体材料で形成されるのが一般的である。
図2は、シャッター25の模式的なコントラスト比、即ち、CR関数70を破線で示し、端面発光レーザー・ダイオード27を備えている光源26のスペクトル80を実線で、波長の関数として示す。シャッター25およびレーザー・ダイオード27は双方共、GaAsで作られ、約500°Cの同じ温度で動作するときに任意に最大CINを有するようにマッチングが取られていると仮定する。波長は、グラフ60の横軸に沿って示され、CRの値はグラフの左側の縦軸61に沿って示されている。スペクトル80は、その最大値に正規化されており、スペクトルの相対値は、グラフの右側の縦軸62に沿って示されている。500°CにおけるシャッターCR70および光源スペクトル80に対する正規化コントラスト強度CINは、約13.4に等しい。GaAsでは、通例、スペクトル80およびCR関数70は約0.25mm/°Cだけずれる。
図1に示したカメラ20によって場面30の3D画像を取り込むために、コントローラー24が光源26を制御して、光パルス41の列40で場面30を照明させる。これらのパルスはパルス幅τを有すると仮定する。各光パルス41からの光は、場面30における構造によって反射され、この反射光の一部がカメラ20に入射し、レンズ21によって収集される。破線で示すハット・パルス50は、図1においてカメラ22に向かう直上矢印が付随し、発信されたパルス41から反射しカメラ20に到達する光を模式的に表す。少なくとも1つの光パルス41の各々の放出に続いて、コントローラー24はシャッター25を制御して、光パルスが放出された時点に対して適した時点において感光面22をオンにゲートし、発信された光パルスから反射してレンズ21によって収集された光50を受光して 感光面上に撮像する。カメラ20のゲート中に感光面の画素23上に撮像された光50の量は、画素上に撮像された場面30の特徴までの距離を判定し、これによって場面の3D画像を供給するために用いられる。
3Dカメラをゲートし、場面30における特徴までの距離を取得する種々の方法が、先に引用した特許、およびPCT特許出願PCT/IL/2007/001571号に記載されている。この特許出願をここで引用したことにより、その内容は本願にも含まれるものとする。図3は、時間線101、102、および103のグラフ100を示す。これは、比較的単純なゲーティング方式にしたがって、場面における特徴までの距離を求めるために、光パルス41の列40およびシャッター25による感光面22のゲーティングによって、場面30を照明することを示す。時間線101、102、および103は、場面30を照明するために光源26によって放射されたパルスの列40における任意の光パルス41の放射時刻tに対する、シャッター25のゲートのタイミングを図式的に示す。この1つの光パルスは、時間線101に沿って右を向いている直上の矢印を伴う、陰影付きハット・パルス41によって表されている。時間ライン102および103は、シャッター25のゲートを図式的に示す。図3に示すゲーティング・プロファイル(gating profile)は、通例、パルス列40の中にあるパルス41毎に繰り返される。
場面30における所与の特徴が、感光面22内にある対応する画素23(図1)上で撮像され、この特徴がカメラ20から距離Dのところに位置するとする。放射された光パルス41から所与の特徴によって反射された光パルス50における光子は、最初にカメラ20に時点tγ1(D)に到達する。この時点は、距離Dに依存する。反射光パルス50は、放射光パルス41と同じ幅τを有し、反射光パルス50における最後の光子は、所与の特徴からカメラに、時点tγ2(D)=tγ1(D)+τに到達する。反射光パルス50は、時間線101、102、および103に沿って、破線で示す陰影付きハット・パルス50によって表されている。このハット・パルス50には、時間線に沿って左を向いている直上矢印が付随する。
時間線102に沿ったハット・パルス110は、模式的に、ゲートを表し、以後「タイミング・ゲート110」と呼ぶ。このゲートの間、コントローラー24(図1)は、感光面22をオンにゲートしカメラ20に到達した光を登録するように、シャッター25を制御する。タイミング・ゲート110は、任意に、比較的短くτに等しいゲート長を有し、tに続く時点tgsにおいて開始し、時点tge=(tgs+τ)において終了する。反射パルス50とタイミング・ゲート110との間の時間的関係を明確に示すため、便宜上反射パルス50が時間線102に沿って示されている。反射パルス50は、ゲートの時間部分Tだけタイミング・ゲート110と重なり合う。時間Tの間、所与の特徴を撮像する画素23(図1)が画素に入射した所与の特徴からの光に応答して、電荷量「Q」を登録すると仮定する。更に、反射パルス50が一時的にゲート110と一致する場合(即ち、反射パルスにおける最初の光子および最後の光子が、それぞれ、時点tgsおよびtgeにカメラ20に到達する場合)、所与の特徴を撮像する画素は、全光量「Q」を登録すると仮定する。すると、T=τQ/Qとなり、cが光速を表すとすると、カメラ20から特徴の距離Dは、以下の式で示すことができる。
gs≦tγ2(D)≦tgeの場合
=(c/2)[tgs−(τ)(1−Q/Q)] (1)
gs≦tγ1(D)≦tgeの場合、
=(c/2)[tgs+(τ)(1−Q/Q)] (2)
式(1)および(2)から、開始および終了時点tgsおよびtgeをそれぞれ有するゲート110の間に、カメラ20から距離(c/2)tgsのところを中心とする幅cτの場面の「撮像スライス」内に位置する場面30の中にある特徴に対して、距離が求められることを特筆しておく。
提示の便宜上、撮像スライスの中心の距離(c/2)tgsを「D」で表し、式(1)および(2)においてDから減算されるまたはDに加算されて特徴に対してDを与える距離(c/2)tgs(1−Q/Q)をΔDで表すとする。すると、式(1)および(2)は、次のように書くことができる。
gs≦tγ2(D)≦tgeの場合
=D−ΔD (3)
gs≦tγ1(D)≦tgeの場合、
=Dc+ΔD (4)
任意に、Qは、比較的長いゲートの間カメラ20をオンにゲートすることによって決定される。これを以後「正規化ゲート」と呼ぶ。これは、時間線103に沿ったハット・パルス112によって表されている。ゲート112は、任意に、3τに等しいゲート幅を有し、光パルスの列40におけるパルス41の発信時点tに続く時点(tgs−τ)において開始する。この正規化ゲートの幅およびタイミングは、タイミング・ゲート110の間に感光面22の画素上に光を登録する場面30における特徴毎に、正規化ゲート112がQに値を与えるように決定される。反射パルス50は、カメラ20から距離Dにおいて所与の特徴によって反射され、反射パルスと正規化ゲート112の相対的タイミングを示すために、時間線103に沿って示されている。反射パルスは、正規化ゲート112の時間的境界以内に完全に立ち下がり、反射パルスにおける全ての光は、画素によって登録され、Qの測定値を与える。尚、カメラ20は、異なる光パルス41が放射される時点に応答して、タイミング/ゲート110および正規化ゲート112の間オンにゲートし、したがって、異なる反射光パルス50からの光を登録することもできることを特筆しておく。
所与の反射パルス50に対して式(1)または(2)の内どちらを適用するか判断するには、種々の方法がある。例えば、タイミング・ゲート110を任意に2つの連続ゲート、「前」ゲートおよび「後」ゲートに分割し、各々がτ/2に等しいゲート幅を有するようにしてもよい。前ゲートまたは後ゲートの間に画素がより大きな量の光を登録する場合、画素に撮像される場面の特徴に対して、式(1)または(2)がそれぞれ適用される。
式(1)および(2)は、光源26によって供給される光のCRが無限であることを仮定しており、シャッター25が閉ざされたとき、光源26からの光はシャッターを透過せず、感光面22に達しない。しかしながら、先に論じ図2に示したように、シャッター25のCRは有限であり、一例として、図2では、CRは約16の最大値を有する。その結果、シャッターが閉じているときにカメラ20に到達する場面30における特徴からの反射光パルス50における光が、シャッターを通じて漏れて、特徴を撮像する感光面22における画素によって登録されたQの値を「汚染する」。この汚染は、一般に、式(1)または(2)によって特徴について決定された距離Dに誤差を発生させ、この誤差は、CRが減少する程、増加する。
例えば、先に注記したように、(τ)Q/Qは、重複時間期間Tであり、この間に場面30における所与の特徴からの反射パルス50における光子が、タイミング・ゲート110の間にカメラ20に到達し、シャッター25は最大の透過度を有する。したがって、期間(τ)(1−Q/Q)は、シャッター25がオフであり、シャッターが最大値よりも1/CRだけ減少した透過度を有するときに反射パルスから光子がカメラに到達する時間期間となる。
タイミング・ゲート110の間にパルス50からの光によって所与の特徴を撮像した画素23によって収集された光の総量をQで表すことにする。Qは、以下の式によって、適度に精度良く推定することができる。
=Q+[Q/CIN](1−Q/Q) (5)
ここで、CINは、シャッター25のCRおよび反射光パルス50のスペクトルに対して正規化したコントラスト強度CIである。
が、所与の特徴を撮像した画素によって登録された光量Qを用いて、所与の特徴について決定した距離を表すとする。すると、式(1)および(2)は、次のようになる。
gs≦tγ2≦tgeの場合、
=(c/2)[tgs−(τ)(1−[Q+[Q/CIN](1−Q/Q)]/Q)] (6)
gs≦tγ1≦tgeの場合、
=(c/2)[tgs+(τ)(1−[Q+[Q/CIN](1−Q/Q)]/Q)] (7)
または、
gs≦tγ2≦tgeの場合、
=D−ΔD+(c/2)(τ)(1−Q/Q)CIN] (8)
gs≦tγ1≦tgeの場合、
=D+ΔD−(c/2)(τ)(1−Q/Q)CIN] (9)
式(8)および(9)は、タイミング・ゲート110と関連のある撮像スライスにおける特徴について、所与の特徴を撮像する画素23によって登録された電荷から決定されたこの特徴までの距離が、以下の大きさを有する偏倚誤差「δD」だけ、撮像スライスの中心に向かって誤って偏倚されることを示す。
δD=(c/2)(τ)/CIN)(1−Q/Q) (10)
式(10)において、Qは、シャッター25のCRが無限に等しい場合に、特徴を撮像する画素によって登録される電荷量である。
決定された距離D は一般にCRについて補正することができ、したがってCINは有限であるが、このような補正を精度高く行うのは難しい場合もあり得る。何故なら、先に注記したように、光源26が光パルス41の列40(図1)を放射するとき、光源には、それがパルスを放射する毎に、局部的な循環加熱が生ずるからである。この局部的加熱によって、光源26が動作する温度と、シャッター25が動作する動作温度との間に、循環温度差が発生する。この温度差は、20°Cにもなり得る。その結果、図2に示したスペクトル80は、場面30において特徴までの距離を判定するカメラ20の動作の間に、5nmもずれてしまう可能性がある。この温度差によるずれの結果、シャッター25のCINが著しく低下し、それに伴って偏倚誤差δDが増大する可能性がある。
一例として、図4は、50°Cの動作温度で動作するカメラ20についてグラフ60(図2)において示した、シャッター25のCR関数70および光源のスペクトル80のグラフ120、ならびに光源の動作によって生じた局部的加熱によってずらされた光源のスペクトル81および82を示す。スペクトル81および82は、それぞれ、30°Cおよび70°Cの温度において優勢となると仮定する。グラフ120から、スペクトル曲線81および82がCR曲線70と重複する量に注目することによって、スペクトル81および82のCINが、スペクトル80に発生する最大CINと比較して、大幅に低下していることが容易に分かる。CINは、スペクトル80、81、および82について、それぞれ、約13.4、6、および5に等しい値を有する。
図5は、CINが約6に等しいと仮定したとき、即ち、光源26とシャッター25との間の温度差が約20°Cに等しいときに生ずるかもしれないCINを仮定したときに、発生する可能性がある場面30の所与の特徴までの距離における偏倚誤差δDのグラフ130を示す。グラフ130は、光パルス41(図1および図3)のパルス幅τが10nsに等しく、ゲート110(図3)のゲート幅がパルス幅に等しいことを仮定する。したがって、場面30の撮像スライスは、2.7mに等しい幅を有する。グラフ130において、曲線131は、撮像スライスの中心からの変位ΔDの関数としてδDを示す。このグラフから、誤差偏倚δDは、撮像スライスの中心における特徴については実質的に0に等しく、スライスの中心からの距離と共に線形に増大し、ΔDの約17%に等しくなることがわかる。
本技術の一実施形態によれば、ゲート3Dカメラは、光源のカメラ・シャッターに対するマッチングを改良し、δDを減少させるVCSELのアレイを有する光源を備えている。VCSELは、比較的狭いスペクトルを有し、これらのスペクトルは、レーザー・ダイオードのスペクトルよりも、温度変化に対する感度が遙かに低い。典型的な端面発光レーザー・ダイオードは、約4nm(FWHM)幅のスペクトルを有すると考えられ、先に注記したように、約0.25nm/°Cだけずれたスペクトルを呈すると考えられる。一方、典型的なVCSELは、通例、約0.5nmおよび1nmの間の幅のスペクトルを有し、このスペクトルは約0.07nm/°Cだけずれる。しかしながら、VCSELは、通例比較的低いエネルギーの通信用途に用いられ、一般に、ゲート3Dカメラの光源において用いるのに十分な光エネルギーを供給しない。
本技術の一実施形態による光源におけるVCSELは、そのレーザー・キャビティを広げることによって、その光エネルギー出力が増大するように変更されている。VCSELレーザー・キャビティを広げると、VCSELスペクトルの幅が広がるが、それでもなおスペクトルは、従来の端面発光レーザー・ダイオードによって通例供給されるものよりも遙かに狭いのが一般である。その結果、本技術の一実施形態による光源において変更したVCSELは、ゲート3Dカメラにおいて有利に用いるための十分な電力を供給し、しかもカメラのシャッターに対するマッチングを改良することができる。
従来のVCSELは、通例、約15ミクロン以下の直径のレーザー・キャビティ断面を有する。任意に、本技術の一実施形態によるゲート3Dカメラ光源におけるVCSELは、約20ミクロン以上の幅、例えば、直径を特徴とする断面を有する、比較的大きなレーザー・キャビティを備えている。任意に、VCSELレーザー・キャビティの幅は、約25ミクロン以上である。任意に、スペクトルの幅は、約2.5nm以上である。本技術の実施形態の中には、スペクトル幅が約3nm以上である場合もある。
図6は、本技術の一実施形態によるゲート3Dカメラ220を模式的に示す。ゲート3Dカメラ220は、VCSEL227を備えている光源226を有する。一例として、ゲート3Dカメラ220は、光源226がレーザー・ダイオード27ではなくVCSEL227を備えていることを除いて、図1に示したゲート3Dカメラ20と同様である。VCSEL227は、約20ミクロンに等しい直径の、任意に円形断面を特徴とする比較的大きなレーザー・キャビティを有する。任意に、VCSELは、50°Cで動作させるときに、約2.5nmから約3nmの間のFWHMを有するスペクトルを特徴とするIR光を発生するように動作可能である。
光源226では、一例として、VCSEL227は、約55ミクロンのピッチを有する16行×16列の矩形アレイに構成されており、適した熱消散パッケージ228に実装されている。当技術分野において知られている種々のパッケージはいずれも、VCSEL227の動作中にそれによって発生される熱を消散するために、本技術の実施において、適応させ用いることができる。本発明者は、VCSEL227および適した熱消散パッケージ228を備えている光源226を、約12ワット以上の電力レベルで動作させて、場面までの距離を判定するためにその場面を照明するのに適した光パルスの列を発生できると判断した。本技術の実施形態の中には、約15ワット以上の電力において光源を動作させてもよいように、カメラが構成されている場合もある。本技術の実施形態の中には、電力レベルが約18ワット以上である場合もある。
光源226とシャッター25との間における、光パルス列を供給するための光源の動作の間に生ずる温度差に対して、光源が供給する光のスペクトルは、比較的小さい波長ずれ、およびCINに対して比較的大きな値を呈する。その結果、本技術の一実施形態によるカメラ220は、カメラ20(図1)について図4に示した偏倚誤差よりも遙かに小さい偏倚誤差δDで、場面についての距離測定値を供給することができる。
図7は、温度が30°C、50°C、および70°CのときのGaAsで形成したVCSEL227のスペクトル251、252、および253のグラフ250、ならびに図4のグラフ120に示した、50°Cにおけるシャッター25のCR曲線70を示す。グラフ250から、光源の動作中に光源226とシャッター25との間に発生する可能性がある20°Cの温度差に対して、これらのスペクトルは、CR曲線70に対して、比較的小さな量しかずれないことが分かる。VCSEL227(図6)の動作温度における1度毎に、VCSELスペクトルが0.07nmだけずれると仮定すると、スペクトル251および253はCR曲線70に対して約1.4nmだけずらされる。光源226が呈する、スペクトル251および253のCR曲線70に対するずれは、図4に示した光源26のスペクトル81および82によってそれぞれ同じ温度に対して呈されるずれよりも遙かに小さい。また、VCSEL227のずらされたスペクトル251および253、ならびにCR曲線70に対するCIN値は、レーザー・ダイオード光源26の対応するスペクトル80および82のそれよりも遙かに大きい。
光源226のスペクトル251、252、および253、ならびにCR曲線70に対するCIN値は、それぞれ、約12.5、13.8、および12.7に等しいと推定される。シャッター25が約50°Cであるときの約30°Cおよび約70°CにおけるVCSEL光源226に対するCIN値は、シャッター25が約50°Cであるときの約30°Cおよび約70°Cの温度におけるレーザー・ダイオード光源26に対するCIN値よりも、約2倍を超えて大きくなる。レーザー・ダイオード光源スペクトル81および82に対するそれぞれのVCSEL光源スペクトル251および253に対するCIN値の比が大きいのは、VCSELスペクトルが比較的狭く、シャッター25の温度に対する同じ温度差では、これらがずらされる量がレーザー・ダイオードのスペクトルよりもはるかに小さいからである。
図8は、本技術の一実施形態による偏倚誤差δDの優位な改良を示し、この改良はVCSEL光源226およびカメラ220によって得ることができる。図8は、図5に示したグラフ130と同一のグラフ260を示すが、本技術の一実施形態による、VCSEL光源226を備えている3Dカメラ220のΔDの関数としてδDを示すδD曲線261が追加されている。曲線261は、レーザー・ダイオード光源26とシャッター25との間におけるδD曲線131について推定したのと同じ20°Cの温度差をVCSEL光源226とシャッター25との間において推定する。グラフ260は、3Dカメラ220のδDが、3Dカメラ20のδDよりも遙かに小さく、3Dカメラ20のそれの約半分であることを示す。偏倚誤差δDはレーザー・ダイオード光源26およびカメラ20のδDの約17%に等しいが、偏倚誤差が約1/2に減少し、本技術の一実施形態によるVCSEL光源226およびカメラ220に対するΔDの約8%に等しい。
本願の記載および特許請求の範囲において、「備えている」(comprise)、「含む」(include)、および「有する」(have)という単語の各々、ならびにその形態(form)は、これらの単語を関連付けることができるリストにおける構成要素に必ずしも限定されるのではない。
以上、種々の実施形態の詳細な説明を用いて、本技術について説明したが、これらの実施形態は一例として提示したのであり、本技術の範囲を限定する意図はない。記載した実施形態は、異なる特徴を備えていることもあり、それらの全てが本技術の全ての実施形態において必要とされる訳ではない。本技術の実施形態の中には、その特徴の一部だけを利用する場合も、特徴の可能な組み合わせを利用する場合もある。記載した本技術の実施形態の変形、記載した実施形態において注記した特徴の異なる組み合わせを備えている本技術の実施形態は、当業者には想起されよう。尚、本技術の範囲は、特許請求の範囲によってのみ限定され、特許請求の範囲はこのような変形および組み合わせの全てを含むように解釈するものとする。

Claims (14)

  1. 場面までの距離を判定するカメラであって、
    特性スペクトルを有する光パルス列によって前記場面を照明するように制御可能な、少なくとも1つの縦型面発光レーザー(VCSEL)を備えている光源と、
    感光面と、
    前記場面によって前記光パルス列から反射された光を前記感光面上に撮像する光学素子と、
    前記特性スペクトルの光に対して、前記感光面を選択的にオンおよびオフにゲートするように動作可能なシャッターと、
    を備え、
    シャッター・コントラスト比(CR)および前記特性スペクトルの正規化畳み込みが、前記シャッターと前記光源との間における約20°C以上の温度差に対して、約10以上である、カメラ。
  2. 請求項1記載のカメラにおいて、前記光源が、FWHMが約1.5nm以上である特性スペクトルを有する、カメラ。
  3. 請求項1記載のカメラにおいて、前記特性スペクトルが、約2.0nm以上のFWHM幅を有する、カメラ。
  4. 請求項1記載のカメラにおいて、前記特性スペクトルが、約2.5nm以上のFWHM幅を有する、カメラ。
  5. 請求項1記載のカメラにおいて、前記VCSELが、約20μm以上の直径を特徴とするレーザー・キャビティ(lasing cavity)を有する、カメラ。
  6. 請求項1記載のカメラにおいて、前記VCSELが、約25μm以上の直径を特徴とするレーザー・キャビティを有する、カメラ。
  7. 請求項1記載のカメラにおいて、前記光源が、前記場面を前記光パルス列で照明するために、約12ワット以上の電力レベルで動作する、カメラ。
  8. 請求項7記載のカメラにおいて、前記電力レベルが、約15ワット以上である、カメラ。
  9. 請求項7記載のカメラにおいて、前記電力レベルが、約18ワットである、カメラ。
  10. 場面までの距離を判定する装置であって、
    VCSELのアレイを有する光源であって、当該光源のカメラシャッターに対するマッチングを改良し、偏倚誤差を低減し、特性スペクトルを有する光パルス列によって前記場面を照明するように制御可能な、光源と、
    感光面と、
    前記場面によって前記光パルス列から反射された光を前記感光面上に撮像するレンズ系と、
    前記特性スペクトルの光に対して、前記感光面を選択的にオンおよびオフにゲートするように動作可能なシャッターと、
    を備え、
    シャッター・コントラスト比(CR)および前記特性スペクトルの正規化畳み込みが、前記シャッターと前記光源との間における約20°C以上の温度差に対して、約10以上である、装置
  11. 請求項10記載の装置において、前記光源が、FWHMが約1.5nm以上である特性スペクトルを有する、装置。
  12. 請求項10記載の装置において、 前記VCSELが、約20μm以上の直径を特徴とするレーザー・キャビティ(lasing cavity)を有する、装置。
  13. 請求項10記載の装置において、前記光源が、前記場面を前記光パルス列で照明するために、約12ワット以上の電力レベルで動作する、装置
  14. 場面までの距離を判定するカメラであって、
    VCSELのアレイを有する光源であって、当該光源の前記カメラのシャッターに対するマッチングを改良し、特性スペクトルを有する光パルス列によって前記場面を照明するように制御可能であり、FWHMが約1.5nm以上である特性スペクトルと、約20μm以上の直径を特徴とするレーザー・キャビティとを有する、光源と、
    前記光源に結合されているコントローラーと、
    CCDまたはCMOS光感応表面を備えている感光面と、
    前記場面によって前記光パルス列から反射された光を前記感光面上に撮像するレンズ系と、
    前記特性スペクトルの光に対して、前記感光面を選択的にオンおよびオフにゲートするように動作可能なシャッターと、
    を備え、
    シャッター・コントラスト比(CR)および前記特性スペクトルの正規化畳み込みが、前記シャッターと前記光源との間における約20°C以上の温度差に対して、約10以上である、カメラ。
JP2011544110A 2009-01-04 2010-01-04 ゲート3dカメラ Active JP5555256B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US14236109P 2009-01-04 2009-01-04
US61/142,361 2009-01-04
US12/651,022 2009-12-31
US12/651,022 US8681321B2 (en) 2009-01-04 2009-12-31 Gated 3D camera
PCT/IB2010/000002 WO2010076775A2 (en) 2009-01-04 2010-01-04 Gated 3d camera

Publications (2)

Publication Number Publication Date
JP2012514884A JP2012514884A (ja) 2012-06-28
JP5555256B2 true JP5555256B2 (ja) 2014-07-23

Family

ID=42310281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011544110A Active JP5555256B2 (ja) 2009-01-04 2010-01-04 ゲート3dカメラ

Country Status (8)

Country Link
US (2) US8681321B2 (ja)
EP (1) EP2374282A4 (ja)
JP (1) JP5555256B2 (ja)
KR (1) KR101645054B1 (ja)
CN (1) CN102273191B (ja)
BR (1) BRPI1006121A2 (ja)
RU (1) RU2534933C2 (ja)
WO (1) WO2010076775A2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US20120154535A1 (en) * 2010-12-15 2012-06-21 Microsoft Corporation Capturing gated and ungated light in the same frame on the same photosurface
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US20130235160A1 (en) * 2012-03-06 2013-09-12 Microsoft Corporation Optical pulse shaping
KR101412892B1 (ko) 2012-05-16 2014-06-26 삼성전기주식회사 거리 측정 장치 및 방법
JP2014174136A (ja) * 2013-03-13 2014-09-22 Panasonic Corp 受光装置、空間情報検出装置
US20150260830A1 (en) * 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
US9568604B2 (en) * 2014-06-04 2017-02-14 Apple Inc. Optically gated detector arrangement
US9945936B2 (en) * 2015-05-27 2018-04-17 Microsoft Technology Licensing, Llc Reduction in camera to camera interference in depth measurements using spread spectrum
JP6849371B2 (ja) 2015-10-08 2021-03-24 三星電子株式会社Samsung Electronics Co.,Ltd. 側面発光レーザ光源、及びそれを含む三次元映像取得装置
KR102496479B1 (ko) 2015-10-22 2023-02-06 삼성전자주식회사 3차원 카메라와 투과도 측정방법
KR102372087B1 (ko) * 2015-10-28 2022-03-08 삼성전자주식회사 깊이 영상 촬영장치 및 방법
US11300666B2 (en) 2016-04-13 2022-04-12 Oulun Yliopisto Distance measuring device and transmitter, receiver and method thereof
US10386486B2 (en) * 2016-06-21 2019-08-20 Microsoft Technology Licensing, Llc Systems and methods for time of flight laser pulse engineering
US20180100928A1 (en) * 2016-10-09 2018-04-12 Innoviz Technologies Ltd. Methods circuits devices assemblies systems and functionally associated machine executable code for active scene scanning
US10718923B2 (en) * 2016-11-10 2020-07-21 Ams Sensors Singapore Pte. Ltd. Thermally tunable optoelectronic modules
US10542245B2 (en) * 2017-05-24 2020-01-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
US10721393B2 (en) 2017-12-29 2020-07-21 Axis Ab Laser ranging and illumination
EP3608813A4 (en) 2018-05-29 2020-07-22 Guangdong Oppo Mobile Telecommunications Corp., Ltd. VERIFICATION SYSTEM, ELECTRONIC DEVICE, VERIFICATION PROCESS, STORAGE MEDIA READABLE BY COMPUTER AND COMPUTER DEVICE
JP7130544B2 (ja) * 2018-12-20 2022-09-05 三星電子株式会社 3次元情報算出装置、3次元計測装置、3次元情報算出方法及び3次元情報算出プログラム
CN113126105A (zh) * 2019-12-30 2021-07-16 睿镞科技(北京)有限责任公司 三维测距方法和装置
CN114567772A (zh) * 2022-02-23 2022-05-31 西北核技术研究所 一种像增强器光学门控时间特性的测量方法及测量系统

Family Cites Families (197)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5081530A (en) 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
US5054891A (en) 1988-04-15 1991-10-08 Casio Computer Co., Ltd. Liquid crystal shutter with substrates having an optical anisotropy caused by temperature gradient
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US6736321B2 (en) 1995-12-18 2004-05-18 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) system employing wavefront control methods for reducing the power of speckle-pattern noise digital images acquired by said system
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5563710A (en) 1994-10-28 1996-10-08 The Schepens Eye Research Institute, Inc. Imaging system with confocally self-detecting laser
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US6445884B1 (en) 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
AU6136096A (en) * 1995-06-22 1997-01-22 3Dv Systems Ltd. Telecentric 3d camera and method
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
AU3283497A (en) 1996-05-08 1997-11-26 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
AU3954997A (en) 1996-08-14 1998-03-06 Nurakhmed Nurislamovich Latypov Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
WO1998039790A1 (en) 1997-03-07 1998-09-11 3Dv Systems Ltd. Optical shutter
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US5877851A (en) * 1997-09-24 1999-03-02 The United States Of America As Represented By The Secretary Of The Army Scannerless ladar architecture employing focal plane detector arrays and FM-CW ranging theory
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
WO1999019840A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. A system and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
EP1055146B1 (en) 1998-02-08 2003-01-22 3DV Ltd. Large aperture optical image shutter
JP2002516121A (ja) 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
US6117699A (en) * 1998-04-10 2000-09-12 Hewlett-Packard Company Monolithic multiple wavelength VCSEL array
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6327293B1 (en) * 1998-08-12 2001-12-04 Coherent, Inc. Optically-pumped external-mirror vertical-cavity semiconductor-laser
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
DE69827529T2 (de) 1998-09-28 2005-11-10 3Dv Systems Ltd. Entfernungsmessung mittels kamera
DE69936620T2 (de) 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
EP2026035A2 (en) 1998-12-16 2009-02-18 3DV Systems Ltd. 3D camera for distance measurements
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
JP4157223B2 (ja) 1999-04-13 2008-10-01 Hoya株式会社 3次元画像入力装置
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
EP1214609B1 (en) 1999-09-08 2004-12-15 3DV Systems Ltd. 3d imaging system
FR2857756B1 (fr) 1999-11-16 2008-07-11 Onera (Off Nat Aerospatiale) Dispositif d'imagerie et/ou de mesure a distance, de type ladar
US6794628B2 (en) 2000-01-03 2004-09-21 3Dv Systems, Ltd. Solid state optical shutter
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
JP3448281B2 (ja) * 2001-02-05 2003-09-22 三菱重工業株式会社 レーザレーダ装置及びこれを用いる撮像方法
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
DE10124160B4 (de) 2001-05-17 2006-04-06 Sick Ag Verfahren zur Erzeugung eines entfernungsauflösenden Bildes und optoelektronischer Sensor
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
JP4339693B2 (ja) 2002-02-14 2009-10-07 ダンマークス テクニスク ユニバーシテット 光学変位センサ
US6628695B1 (en) * 2002-03-07 2003-09-30 The Board Of Trustees Of The Leland Stanford Junior University Monolithically integrated mode-locked vertical cavity surface emitting laser (VCSEL)
EP1499851A4 (en) * 2002-04-15 2008-11-19 Toolz Ltd DISTANCE MEASURING DEVICE
WO2003089277A1 (de) 2002-04-19 2003-10-30 Iee International Electronics & Engineering S.A. Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US6704343B2 (en) * 2002-07-18 2004-03-09 Finisar Corporation High power single mode vertical cavity surface emitting laser
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
EP3196805A3 (en) 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
JP4255763B2 (ja) * 2003-06-30 2009-04-15 株式会社半導体エネルギー研究所 撮像装置
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
JP4590914B2 (ja) 2004-04-21 2010-12-01 ブラザー工業株式会社 画像表示装置
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
EP1622200A1 (en) * 2004-07-26 2006-02-01 CSEM Centre Suisse d'Electronique et de Microtechnique SA Solid-state photodetector pixel and photodetecting method
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
JP2008537190A (ja) 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
JP5080273B2 (ja) 2005-01-07 2012-11-21 クアルコム,インコーポレイテッド オプティカルフローに基づく傾きセンサー
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US20080246759A1 (en) 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7282691B2 (en) * 2005-04-13 2007-10-16 Clifton Labs, Inc. Method for determining wavelengths of light incident on a photodetector
JP4819392B2 (ja) * 2005-04-28 2011-11-24 キヤノン株式会社 走査光学装置及びそれを用いた画像形成装置
US7560679B1 (en) 2005-05-10 2009-07-14 Siimpel, Inc. 3D camera
RU2007146172A (ru) 2005-05-17 2009-06-27 Гестуретэк, Инк. (Us) Вывод сигнала, чувствительный к ориентации
ATE412882T1 (de) 2005-08-12 2008-11-15 Mesa Imaging Ag Hochempfindliches, schnelles pixel für anwendung in einem bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7511800B2 (en) 2005-11-28 2009-03-31 Robert Bosch Company Limited Distance measurement device with short range optics
US7738795B2 (en) 2006-03-02 2010-06-15 Finisar Corporation VCSEL with integrated optical filter
EP1876469B1 (de) * 2006-07-04 2009-11-25 Pepperl + Fuchs Gmbh Verfahren und Vorrichtung zur optoelektronischen berührungslosen Distanzmessung nach dem Laufzeitprinzip
WO2008005516A2 (en) * 2006-07-06 2008-01-10 Canesta, Inc. Method and system for fast calibration of three-dimensional (3d) sensors
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN102099703A (zh) 2007-12-19 2011-06-15 微软国际控股私有有限公司 3d照相机及其选通方法
JP2009204691A (ja) * 2008-02-26 2009-09-10 Toyota Central R&D Labs Inc 光走査装置、レーザレーダ装置、及び光走査方法
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera

Also Published As

Publication number Publication date
KR20110112813A (ko) 2011-10-13
RU2534933C2 (ru) 2014-12-10
BRPI1006121A2 (pt) 2016-06-28
JP2012514884A (ja) 2012-06-28
WO2010076775A2 (en) 2010-07-08
US20140160254A1 (en) 2014-06-12
CN102273191B (zh) 2014-03-26
WO2010076775A3 (en) 2010-09-30
CN102273191A (zh) 2011-12-07
EP2374282A2 (en) 2011-10-12
KR101645054B1 (ko) 2016-08-02
US9641825B2 (en) 2017-05-02
RU2011127188A (ru) 2013-01-10
US20100171813A1 (en) 2010-07-08
US8681321B2 (en) 2014-03-25
EP2374282A4 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5555256B2 (ja) ゲート3dカメラ
US11212512B2 (en) System and method of imaging using multiple illumination pulses
JP6938472B2 (ja) 物体までの距離を測定するためのシステムおよび方法
JP7253556B2 (ja) 物体までの距離を測定するためのシステムおよび方法
JP6882461B2 (ja) 飛行時間深度測定のためのリアルタイム較正
KR102656399B1 (ko) 구조화된 광 조명기가 있는 비행-시간 센서
WO2017141957A1 (ja) 距離測定装置
CN104470757B (zh) 立体选通成像系统和方法
US10063844B2 (en) Determining distances by probabilistic time of flight imaging
JP2018531374A6 (ja) 物体までの距離を測定するためのシステムおよび方法
JP7028878B2 (ja) 物体までの距離を測定するためのシステム
JP7201592B2 (ja) 車両の周囲を特徴付けるためのシステム
JP2020517924A (ja) ピクセル構造
JP2019529958A (ja) 物体までの距離を決定するためのシステム及び方法
CN111108407A (zh) 半导体主体和用于飞行时间测量的方法
US20190349536A1 (en) Depth and multi-spectral camera
CA2716980C (en) Light-integrating rangefinding device and method
US11762151B2 (en) Optical radar device
WO2019102444A1 (en) System and method of reducing ambient background light in a pulse-illuminated image
KR20150029897A (ko) 촬영 장치 및 그의 동작 방법
USH1783H (en) High spatial resolution, range gated, underwater imaging method and apparatus
US20160033263A1 (en) Measurement device for the three-dimensional optical measurement of objects with a topometric sensor and use of a multi-laser-chip device
WO2023074902A1 (ja) アクティブセンサ、物体識別システム、車両用灯具
CN105510998A (zh) 一种镀膜方法
JPS62253131A (ja) 自動焦点調節装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140530

R150 Certificate of patent or registration of utility model

Ref document number: 5555256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250