JP2003510561A - Cmos互換3次元画像センサic - Google Patents

Cmos互換3次元画像センサic

Info

Publication number
JP2003510561A
JP2003510561A JP2001525159A JP2001525159A JP2003510561A JP 2003510561 A JP2003510561 A JP 2003510561A JP 2001525159 A JP2001525159 A JP 2001525159A JP 2001525159 A JP2001525159 A JP 2001525159A JP 2003510561 A JP2003510561 A JP 2003510561A
Authority
JP
Japan
Prior art keywords
pixel
target
pulse
charge
clock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001525159A
Other languages
English (en)
Other versions
JP2003510561A5 (ja
Inventor
サイラス バムジ
Original Assignee
カネスタ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カネスタ インコーポレイテッド filed Critical カネスタ インコーポレイテッド
Publication of JP2003510561A publication Critical patent/JP2003510561A/ja
Publication of JP2003510561A5 publication Critical patent/JP2003510561A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/14Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein a voltage or current pulse is initiated and terminated in accordance with the pulse transmission and echo reception respectively, e.g. using counters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N3/00Scanning details of television systems; Combination thereof with generation of supply voltages
    • H04N3/10Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical
    • H04N3/14Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices
    • H04N3/15Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices for picture signal generation
    • H04N3/155Control of the image-sensor operation, e.g. image processing within the image-sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

(57)【要約】 3次元画像化システムは、CMOS製造技術を用いて共通のIC(210)上に形成されたピクセル光検知ディテクタ及び専用の電子回路及び対応する処理回路の2次元アレー(230)を含んでいる。一つの実施例において、各ディテクタ(240)は、システムによって放射され、物体の点から反射され、そしてフォーカスされたピクセルディテクタによって検出されたパルスについての飛行時間(TOF)に比例するクロックパルス数を積算する対応する高速カウンタ(250)を有している。TOFデータは、特定のピクセルから、放射された光パルスを反射する物体上の点までの距離についての直接のディジタル的な尺度を与える。第2実施例では、カウンタ及び高速クロック回路は設けられず、代わりに電荷蓄積器(600)及び電子シャッタ(SI)が各ピクセルディテクタに設けられる。各ピクセルディテクタは電荷を蓄積し、その総量が往復のTOFのの直接的な尺度を与える。

Description

【発明の詳細な説明】
【0001】 先に提出された出願との関係 この出願は、1999年4月30日に提出された「3次元CMOSセンサ」と
題する、出願人による係属中の米国仮出願(出願版号No.60/132,06
4)に基づいて優先権が主張されている。
【0002】 発明の分野 本発明は、一般には、距離計タイプの画像センサに関連し、より詳しくは、C
MOS製造を用いて単一の集積回路上に実現することができるセンサに関する。
【0003】 発明の背景 この分野では、電子回路から物体までの距離の目安を与える電子回路が知られ
ており、例えば図1のシステム10はこのようなものの例である。一般化した図
1のシステムでは、システム10内の画像化回路は、物体20までの距離(例え
ばWP,Z2,Z3)を概算するのに用いられる。物体の上部は、底部に比べて
距離が長くなる。通常、システム10は光源30を含み、この光出力は、レンズ
40によってフォーカスされ、物体(ここでは物体20)に対して向けられる。
別の従来技術では、積極的には光源を設けず、代わりに見ようとする物体から反
射される周囲の光を利用するものがあるが、これには周囲の光が必要となる。
【0004】 光源30の種々の部分の光は、物体20の表面部分で反射され、レンズ50に
よってフォーカスされる。この戻ってきた光は、例えばフォトダイオード等の、
集積回路(IC)70上に配列された数多くの検出デバイス60に入る。デバイ
ス60は、距離データを求めようとするシーン内の物体(例えば10)の光度の
レンダリングを生成する。応用によっては、デバイス60を、電荷結合デバイス
(CCD)あるいはアレー状のCMOSデバイスとすることができる。
【0005】 CCDは、通常、いわゆるバケットブリゲード(bucket-brigade)型に構成さ
れ、ここでは第1のCCDによる光検出の電荷は隣りのCCDにシリアル結合さ
れ、そしてその出力はさらに第3のCCDに結合されるという動作が繰り返され
る。このバケットブリゲード構成は、CCDアレーを含む同じIC上に処理回路
を製造することを妨げる。さらにCCDは、ランダムな読み出しではなく、連続
的な読み出しとなる。例えば、CCD距離計システムをディジタルズームレンズ
への応用に用いる場合、関連するデータのほとんどはアレー内のいくつかのCC
Dによって与えられるが、その場合でもその関連するデータにアクセスするには
アレー全体を読み出す必要がある。静止画写真やいくつかの動画写真への応用で
は、CCDをベースとしたシステムがいまだに実用性が高いだろう。
【0006】 物体20の上の部分は、下の部分比べて意図的に遠くになるように示してある
。すなわち、Z3>Z3>Z1である。距離計の自動フォーカスカメラの環境で
は、デバイス60は、カメラから(すなわとZ=0から)物体10までの平均距
離を、物体から得られる相対輝度データを調べて概算する。図1において、物体
20の上の部分は下の部分に比べて暗いので、上の部分は下の部分よりも遠いと
推定できる。より複雑なシーンにおいては、物体あるいは背景に対して立ってい
る対象への焦点距離は、その対象を背景から輝度の変化によって識別することに
よって、概算されることになろう。距離計測を行う双眼鏡への応用では、フォー
カスされる全ての物体が実質的に同じ距離となるほど視界は小さい。種々の応用
において、システム10内の回路80,90,100は、この信号処理を補助す
ることになろう。IC70がCCD60を含む場合に、80,90,100とい
った他の処理回路は、チップの外に形成される。
【0007】 残念ながら、物体の反射率は不明なので、反射した輝度データは本当に正確な
距離のレンダリングを与えるものではない。したがって、光った表面を持つ遠く
の物体の表面は、表面がくすんだ近くの物体と同じくらいの(おそらくははより
多くの)光を反射する可能性がある。
【0008】 他のフォーカシング・システムも知られている。カメラや双眼鏡で用いられて
いる赤外(IR)自動フォーカスシステムは、視野内のすべての目標に対する距
離の平均値、あるいは最小距離である単一の距離の値を生成する。他のカメラの
自動フォーカスシステムではしばしば、距離を決定しようとする対象に対してレ
ンズの機械的なフォーカス動作が必要となる。これらの従来技術のフォーカスシ
ステムはせいぜい、視野内の単一の対象へのレンズのフォーカスができるだけで
あり、視野内のすべての物体に対する距離を同時に測定することはできない。
【0009】 一般に、シーン内の元々の輝度の値を再現しあるいは概算すれば、人間の視覚
系は、シーン内にどのような物体が存在するかを把握し、それらの間の位置関係
を立体視的に判断することができる。普通のテレビのスクリーン上でレンダリン
グされたような非立体視的な画像の場合は、人間の脳は、過去の経験を用いて物
体の外見上の寸法、距離、そして形状を評価する。専用のコンピュータプログラ
ムは、特別の条件のもとでの物体の距離を概算することができる。
【0010】 立体視的な画像は、人間の観測者に、より正確に物体の距離を判定することを
可能にする。しかしながら、コンピュータプログラムにとっては、立体視的な画
像から物体の距離を判定するのは困難である。しばしばエラーが発生し、必要と
される信号処理は、特別のハードウェア及び計算方法を必要とする。立体視的な
画像は、せいぜい、直接的なコンピュータの使用に適した3次元画像を生成する
ための間接的な方法である。
【0011】 シーンの3次元的なレンダリングを直接的に得ることが、多くの応用において
必要とされている。しかし実際上は、輝度の測定から視野軸に沿った距離及び速
度のデータを正確に引き出すことは難しい。にもかかわらず多くの応用、例えば
溶接すべき物体の正確な距離及びスピードを決定しなければならない組み立てラ
インの溶接ロボットなどでは、正確な距離及び速度の追跡が必要である。必要と
される距離測定は、照明条件の変化や上で述べたその他の欠点に起因して誤差が
生じ易い。このような応用では、3次元的な画像表現を直接取得できるシステム
を用いることが有益であろう。
【0012】 核磁気共鳴やレーザ走査断層撮影の分野には専用の3次元画像化システムが存
在するが、このようなシステムは、相当な額の設備費用がかかる。さらに、これ
らのシステムはかさばり、そして、体内臓器の画像化等の特殊な用途に特化した
ものである。
【0013】 その他の応用として、レーザー走査距離計測システムでは、x軸とy軸の平面
内でレーザービームを偏向させるミラーを用いることによって、画像のラスター
走査を行う。サンプリングされる画像の一つのピクセルの座標を決定するために
、各ミラーの偏向角が用いられる。このようなシステムでは、現在どのピクセル
がサンプリングされているかを決定するために、各ミラーの角度の正確な検出が
必要である。正確に駆動される機械部品を設けなければならないとすると、容易
に理解できるように、このような距離計測システムは大きく、複雑になり、コス
トのかさむものとなる。さらに、このようなシステムは各ピクセルを連続的にサ
ンプリングするので、単位時間当たりにサンプリングすることができる完全な画
像フレームの数は限られる。
【0014】 以上より、直接的な3次元画像化を可能とするシステムの必要性が存在する。
これらのシステムは、望ましくは、ディテクタと検出された信号を処理する回路
の両方を含んだ単一のIC上に実現されるべきである。このような単一のICシ
ステムは、CMOS製造技術を用いて実現すべきであり、また個別部品はほとん
ど必要なく、可動部品を必要としないものとすべきである。オプションとして、
このようなシステムは、非連続的に、あるいはランダムな方法でディテクタから
データを出力できるようにすべきである。本発明は、このようなシステムを提供
する。
【0015】 本発明の概要 本発明は、輝度データに頼るのではなく、飛行時間(TOF)データを用いて
、リアルタイムに距離及び速度のデータを測定するシステムを提供する。このシ
ステムはCMOS互換であり、動く部品を必要とせずに3次元画像化を行う。こ
のシステムは、光子の光エネルギーを検知するCMOS互換ピクセルディテクタ
及び処理回路の両方を含んだ単一のIC上に製造することができる。このIC上
のマイクロプロセッサは、好ましくはLEDあるいはレーザー光源を絶えずトリ
ガーし、その出力パルスの少なくとも一部は、画像化しようとする物体の表面上
の点によって反射される。
【0016】 チップ外のフィルタ及び入来する光をフォーカスするレンズを含む光学系は確
実に、アレー内の各ピクセルディテクタが画像化される物体の表面上の単一点か
らだけの光を受け取るようにする。例えば、すべての光学経路は、光源から反射
物体の表面上の点へ、アレー内のピクセルまで、等しい長さである。チップ上の
計測されたTOFデータは、順次的な順番というよりはランダムに出力すること
ができ、物体の追跡や3次元画像を必要とするその他の測定を直ちに行うことが
できる。システム全体は小さく頑丈であり、必要とするチップ外の個別部品も比
較的少ない。
【0017】 第一実施例では、2次元アレー内の各ピクセルについて、ICはさらに、関連
するパルスディテクタ、高速カウンタを含んでおり、チップ上の高速クロックに
アクセスすることができる。各発光パルスがスタートすると、各ピクセルのディ
テクタのカウンタは、クロックパルスのカウントを開始し、入来する反射光の光
子がそのピクセルによって検出されるまでカウントを積算する。したがって、こ
の積算された各高速カウンタにおけるカウント値は、システムからそのピクセル
に対応する反射物体の点までの往復のTOFに対する直接のディジタル的な目安
となる。チップ上の回路は、このTOFデータを用いて、物体上のすべての点あ
るいはシーン内の全ての物体の距離及び速度を、直ちにいっせいに測定すること
ができる。
【0018】 第二実施例は、高速ディテクタ、カウンタ、そしてクロックの必要性を回避す
る。この実施例では、同種のピクセルディテクタの2次元アレーを含み、さらに
各ピクセルごとにシャッター機構と電荷積分回路を含んでいる。シャッター機構
は、各ピクセルディテクタから電荷積分回路への出力電荷の経路をオン・オフす
る。電荷積分回路は、キャパシタとすることができる。マイクロコントローラは
、システムが放射する光パルスの前にすべてのシャッターを開き、これにより各
積分回路は関連するピクセルディテクタによって出力されるすべての電荷を取り
込むことができる。物体が反射する光のエネルギーがディテクタのアレーに戻り
始めると、まず近い物体表面の点にフォーカスされたピクセルが検出及び電荷の
出力を開始し、しばらくしてより遠くの点にフォーカスされたピクセルが同様の
動作を始める。別の言い方をすれば、このようなピクセルに関連する積分回路は
、時間的に早く電荷を積分し始める。放射した光パルス幅の概算をした時間の後
に、すべてのシャッタが閉じられ(望ましくは一斉に)、これ以降の電荷の蓄積
を終わらせる。各ピクセルごとの蓄積電荷の大きさは、それぞれのピクセルがフ
ォーカスされた物体上の点までの直接の往復TOFデータを与える。だいたい放
射された光パルス列の周波数の期間にわたってシャッターをオンのままにして、
一組のデータを取り込むのが望ましい。このデータセットの間に集められた電荷
は、物体表面に対する一点ずつの反射された輝度を表し、これは、より遠いが反
射率の高い物体表面部分によって生じる誤差に対する補正を可能とする。
【0019】 上記以外の本発明の特徴及び利点は、以下の説明から明らかとなろう。以下で
は、添付図面を用いて好適な実施例を詳細に説明する。
【0020】 好適な実施例の詳細な説明 図2は、本発明200、すなわち好適には単一のIC210上に形成された3
次元画像化システムを示したブロック図である。このシステムは、動く部分を必
要とせず、その他に必要な部品も主として発光ダイオード(LED)又はレーザ
ー源220及び関連する光学的なフォーカスシステムなどで比較的少ない。実際
もし適切な遮蔽が与えられれば、レーザー源220を、IC210を形成するの
と同じ基板上に固定することが可能だろう。
【0021】 システム200には、ピクセルディテクタ230のアレー240が含まれ、各
ピクセルディテクタは、対応するディテクタによる検出電荷出力を処理するため
の専用の回路250を有している。典型的な応用目的では、アレー230には1
00×100のピクセル230を含めることができ、その場合には100×10
0個の処理回路250が含まれることになる。IC210は、マイクロプロセッ
サ又はマイクロコントローラユニット260、メモリ270(ランダムアクセス
メモリ(RAM)及びリードオンリーメモリ(ROM)を含んでいることが望ま
しい)、高速の配分可能なクロック280、そして種々の計算及び入出力(I/
O)回路285をも含んでいることが望ましい。コントローラユニット260に
は、他の機能とならんで、物体までの距離の計算及び物体の速度の計算を実行さ
せることができる。ピクセル検知ディテクタの2次元アレー230は、標準的な
商業ベースのシリコン技術を用いて形成することが望ましく、これを用いると、
同じIC上に回路250,260,270,280そして285を形成すること
ができるので都合がよい。当然ながら、これらの回路をピクセルディテクタと同
じIC上に形成できることによって信号経路が短くなるので、処理時間及び遅延
時間を短くすることができる。
【0022】 各ピクセルディテクタは、電流源、理想的なダイオード、そしてシャントイン
ピーダンス及びノイズ電流源の並列接続として表わすことができる。各ピクセル
ディテクタは、こに当たる入来する光子エネルギーの量に比例した電流を出力す
る。CMOSピクセルダイオード又は光ゲートディテクタデバイスのアレーを得
るのに、CMOS製造工程を用いるのが望ましい。例えば、フォトダイオードは
、拡散層−ウェルの接合あるいはウェル−基板の接合を用いて形成することがで
きる。ウェル−基板の接合のフォトダイオードは、赤外(IR)光に対してより
感度が高く、キャパシタンスが小さいので望ましい。
【0023】 図3に示すように、回路250は、各ディテクタ240に対応して設けられて
おり、パルスピークディテクタ300及び高速カウンタ310を含み、高速クロ
ック280に接続されている。IC210上に形成することが望ましい高速クロ
ック280は、パルスが出力されているときに、2GHz程度の固定周波数で0
.1%程度のディーティーサイクルを有する高周波数のクロックパルスの連続的
なパルス列(250ns程度のパルス幅)を出力する。もちろん、これらのクロ
ックパラメータとは異なる高速クロックを用いることもできる。このパルス列は
各高速カウンタ310の入力ポートに入力される。各カウンタ310には、望ま
しくは、START信号(例えば「これからカウントを開始する」)を受け取るポー
ト、STOP信号(例えば「ここでカウント動作を終了」)を受け取るポート、そし
てCONTROL信号(例えば「蓄積されたカウントをここでリセットする」)を受け
取るポートが設けられる。CONTROL及びSTARTの各信号は、コントローラ260か
ら得られ、CLOCK信号はクロックユニット280から得られ、そしてSTOP信号は
パルスピークディテクタ300から得られる。
【0024】 システム200は、全体として以下のように動作する。時刻t0において、マ
イクロプロセッサ260は、光源220に既知の波長の光パルスを発するよう命
じる。これはフォーカスレンズ290′を通り、300Km/secの光速(c
)で物体20へ達する。光源220が十分に強力であるすとれば、レンズ290
′を不要とすることもできる。画像化しようとする物体の表面において、少なく
ともいくらかの光は反射してシステム200に戻り、ディテクタアレーによって
検知される。
【0025】 アレー230内の各ピクセルカウンタ310は、時刻t0又はそれ以前におい
て、コントローラ260からCONTROL信号を受け取ってそれ以前にカウンタ内に
保持されていたカウント値をリセットする。コントローラ260は、時刻t0に
おいて各カウンタにSTART命令を発し、各カウンタはこれを受けてカウントを開
始しクロック280からのCLOCKパルスを積算する。各カウンタは、光パルスの
往復の飛行時間(TOF)のあいだCLOCKパルスを積算するので、積算されたク
ロックパルスの数が多ければ、それだけTOFが長いこと、すなわち画像化しよ
うとする物体上の光の反射点とシステム200との間の距離が長いことを表す。
【0026】 システム200に関連したフォーカスレンズ290の基本的な特性は、画像化
される物体20の表面上の点からの反射光が、これらの点にフォーカスされたア
レー内のピクセルだけに当たるということである。そして、時刻t1において、
物体20上の最も近い点から反射された光子の光エネルギーは、レンズ/フィル
タ290を通過し、にフォーカスされたアレー230内のピクセルディテクタ2
40に当たる。レンズ290とともに設けられたフィルタは、光源220によっ
て放射された波長を有する入来光だけが確実にディテクタアレーに減衰されずに
当たるようにする。
【0027】 アレー230内のある一つのピクセルディテクタ240が、物体20上の最も
近い表面の点にフォーカスされていると仮定する。対応するディテクタ300は
、このような物体から入来する光子のエネルギーに応じてピクセルディテクタか
ら出力される電流を検出する。ディテクタ300は、ピクセルの出力電流又は電
圧における小さいが素速い変化を検知する増幅ピークディテクタ(amplifying p
eak detector)とすることが望ましい。素速く変化する出力電流が検出できるだ
けの十分な大きさのときは、ディテクタ300内のロジック(例えばSRフリッ
プフロップ)は、出力パルスをラッチするよう切り換える。これは、対応するカ
ウンタ310へのSTOP信号として与えられる。したがって、対応するカウンタ3
10内で積算されたカウント数は、物体20の近い表面への往復のTOF、すな
わち算出可能な距離Z1を表す。
【0028】 距離Z1は、次の関係から決定することができる: Z1=c・(t1)/2 ここでcは光速である。これよりも遅いある時刻t2において、物体20のいく
らか遠い部位から光子のエネルギーがレンズ290に達し、アレー230に当た
って、別のピクセルディテクタによって検出される。当該別のディテクタに対応
したカウンタはここまでの間、時刻t1においてカウント動作を停止したカウン
タを除く全てのカウンタと同様に、時刻t0から開始されたCLOCKパルスのカウ
ント動作を継続している。時刻t2において、入来する光子エネルギーをこの時
点で受け取り、検出したピクセルに対応するパルスディテクタは、対応するカウ
ンタに対してSTOPコマンドを発する。このカウンタ内で積算されたカウントは、
物体20上の距離Z2だけ離れた中間点までの往復のTOFを反映している。I
C210内で、メモリ270に格納されたソフトウェアを実行するコントローラ
260は、光を反射する物体表面の各点について、TOFデータと関連づけられ
る距離及び速度を計算することができる。このようなデータあるいは、生のTO
Fデータにつつても、チップ外でさらに処理する等のために、ICからDATAとし
てエクスポートすることができる。DATAは、コンピュータ処理システムと互換性
のあるフォーマットであることが望ましい。
【0029】 同様にして、時刻t3において、アレー内のさらに別のピクセルディテクタが
対応するパルスディテクタ300から、ちょうど到着した光子の十分なエネルギ
ーを検出し、対応するカウンタにSTOPコマンドを発する。このカウンタにおいて
積算されたカウントは、物体20の最も遠くにあるZ3に対するTOFデータを
表している。
【0030】 もちろんアレー内のいくつかのピクセルについては、フォーカスした物体上の
点から十分な反射光を受け取らないこともありうる。したがって、所定の時間(
コントローラ260にプログラムしておくことができる)の後は、センサアレー
内の各ピクセルに対応するカウンタは、パルス検出によって停止されるか、ある
いは距離Z=無限大に位置するターゲットに対応したカウントを保持すると考え
られる。
【0031】 例えばマットされる物体への表面距離の計算にシステム200が用いられる、
動画への応用において、センサーアレーが1秒当たり30フレームの速度で連続
的に動作すると仮定すると、各フレームの継続時間は0.33秒よりも短い。こ
のような応用では、約50,000Km(例えばZ=c・0.33s/2)より
も遠い距離にある物体は検出することができない。しかしながら実用的な応用で
は、システム200は通常、100mもしくはそれ以下の範囲内の物体を画像化
するのに用いられるだろうから、上記の理論上の限界が問題となることはないだ
ろう。したがって、前記所定の時間は約660ns(すなわち100m・2/c
)であり、660nsよりも後にはピーク検出パルスを出力しないピクセルは、
Z=無限大におけるターゲット画像の点上にフォーカスされると仮定しても差し
支えない。
【0032】 検出された各反射光のパルスを用いて、アレー内の各ピクセルについてのカウ
ンタに基づいて計算されたTOF距離が決定され、好ましくはユニット270と
関連して設けられたRAM内のフレームバッファに格納される。好ましくは、マ
イクロプロセッサ260はRAMに格納された連続するフレームを調べ、シーン
の視野内における物体を特定する。そして、マイクロプロセッサ260は物体の
速度を計算することができる。距離及び速度を計算するのに加え、マイクロプロ
セッサ及び対応するチップ上の回路に、所望の画像形状を認識させるようプログ
ラムすることもできる。このうちのいくらか又はすべてのデータ(図2ではDATA
と示す)は、さらに処理するために、例えばユニバーサルシリアルバスを介して
、このICから外部のコンピュータへエクスポートすることができる。
【0033】 上記の例は、三つの別々の時刻t1,t2,t3において光子のエネルギーを
受け取る三つのピクセルのディテクタが、どうやって対応するカウンタ(これら
のカウンタの蓄積されたカウントは物体20までの距離Z1,Z2,Z3を計算
するのに用いることができる)をオフにするかを説明した。本発明ではこのよう
な計算を、実際には三つでなく、アレーの寸法によるが、各光パルス当たり数千
又は数万処理することになるだろう。このような処理動作は、例えばマイクロプ
ロセッサ260を用いてメモリ280に格納された(あるいは格納可能な)ルー
チンを実行するようにして、ICチップ210上で実行することができる。アレ
ー内の各ピクセルディテクタは、検出アレー上で独自の(x,y)座標に基づく
ロケーションを有しており、各ピクセルディテクタに対応した高速カウンタから
出力されるカウントをただ一つに特定することができる。したがって、2次元検
出アレー230によって収集されたTOFデータは信号処理されて、3次元的の
物体の表面までの距離を与える。
【0034】 CMOS互換ディテクタ240からの出力は、希望すれば、ランダムにアクセ
スすること、すなわち、TOFデータを任意の順番で出力することが可能である
【0035】 光源220は、約800nmの波長を有するエネルギーを放射するLED又は
レーザーとすることが望ましいが、代わりに他の波長を用いることもできる。8
00nmよりも短い波長では放射された光が見え始め、レーザーの製造がより困
難となる。900nmを越えると、レーザーの効率が急速に低下する。いずれに
しても、IC210のようなシリコン基板上でデバイスを製造するには、110
0nmが上限の波長である。上で述べたように、特定の波長を有する放射光パル
スを用い、そしてそれ以外の波長の入来光をフィルタで濾波することによって、
システム200は周囲の光があってもなくても動作させることができる。
【0036】 上で述べたように、レンズ290は、好ましくはアレー内の各ピクセルが視野
内の一つの特定の点(例えば物体の表面の点)だけからの光を受け取るように、
フィルタリングされた入来光のエネルギーをセンサアレー230上にフォーカス
する。光の波の伝播の性質により、普通のレンズ290を、光をセンサアレー上
にフォーカスするのに用いることができる。放射された光をフォーカスするのに
レンズが必要な場合には、ミラー型の構成を用いることによって、290,29
0′に単一のレンズを用いることができる。
【0037】 実際の応用では、センサアレー230は、ターゲットの距離を1cmのオーダ
ーで識別できるだけの十分な解像度を有することが望ましい。これは、換言する
と、各ピクセルが70ps(すなわち2・1cm/c)のオーダーで時間差を分
解する能力を持たなければならないことを意味する。CMOSで実現したシステ
ムの仕様に関しては、高速カウンタ310は約100ps以内で時間分解能を持
たなければならず、ピークパルスディテクタ300は、低ノイズの高速ユニット
で、さらにだいたい数マイクロボルト(μV)のオーざーの検出感度を有して約
100psを識別できることが必要である。正確な距離測定のためには、全体の
経過時間からパルスディテクタの応答時間を差し引く必要がある。最後に、回路
280によるCLOCK信号の出力は、約100psオーダーの周期を有しているべ
きである。
【0038】 上で述べたように、各カウンタ310は1cmのオーダーの距離分解能力を有
することが望ましい。これは、時間分解能が約70psのオーダーになることを
意味する。70psのサイクルタイムを有する12ビットのカウンタを用いると
、システムの最大検出距離は約40m(すなわち212・1cm)となる。普通の
12ビットカウンタを構成するには、通常はおそらく48個のゲートを必要とし
、それぞれが30psを要とするとして、合計の伝播時間約1.5nsが必要と
なるだろう。このことから、最も速いシステムのサイクルタイムは少なくとも約
1.5nsに制限される。費用をかけて先見桁上げ(carry look-ahead)ハード
ウェアを用いれば、カウンタの伝播時間を低減できるかもしれないが、システム
の70psというサイクルタイムを達成するのはやはり非常に難しい。
【0039】 第一の好適実施例では、いわゆる疑似ランダムシーケンスカウンタ(PRSC
)(場合によっては線形シフトレジスタ(LSR)とも呼ばれる)が用いられる
。ここで用いられるカウンタ310は、カウンタ全体に信号を広がらせたり伝播
させる必要はない。その代わり、信号は約二階層のロジックを通るだけで伝わる
。これは、既存のCMOS技術を用いても60ps程度の伝播が実現可能である
ことを意味する。一方で、従来からのシーケンシャルカウンタとは異なるが、P
RSCカウンタは、数のランダムな並びをカウントする。したがって、12ビッ
トのPRSCは、0から4096までのすべての数をカウントするが、一見する
と例えば107,3733,28…などといったランダムな順番でカウントする
。しかしながら、本発明では、このようなランダム性は、PRSCによって生成
された数を復号ロジックを用いて連続なカウント数に変換することによって処理
される。このような変換操作は時間的に厳しくなく、反射された光パルスの検出
の後に、IC210上のコントローラ260を含む補足のロジック回路を用いて
実行することができる。
【0040】 図4は、15ビットPRSCユニットとして構成された高速カウンタ310の
好適実施例を示している。この実施例では、PRSC310は、350−0,3
50−1,…,350−14という符号で表した、1ビットにつき一つの直列接
続された15個のシフトレジスタを備えている。第1ビット(350−0)への
入力は、シフトレジスタ全体における他のビットのロジック機能である。所定の
カウンタビット長に対してカウンタのカウント長を最大にする正しいフィードバ
ック機能は、Xilnx(XAPP 052,1996年7月7日(バージョン1.1))より発行され
ている「Linear Feedback Shift Register Taps」と題された出願の注解におい
て与えられており、ここではこれを援用する。フィードバックの複雑さと同様に
、このフィードバック機能に必要とされるビットについても、カウンタのビット
長に依存する。
【0041】 カウンタのスピードの最大化と効率化のためには、小さいビット数でフィード
バック機能を直ちに実現できるカウンタのビット長を選択することが有利である
。前述のXilnxの出願の注解によれば、最も単純な機能は、図4に符号360で
示した2入力のXNOR機能であり、これは10ビット、15ビット、17ビッ
トのフィードバックレジスタに推奨されている。カウンタ長は、最終ビット又は
第一ビットに近いフィードバックビットを用いて、フィードバックビットの物理
的なレイアウトを単純化すべきである。典型的には、いくつかのレジスタビット
及び最終レジスタビットの出力は、レジスタの最初にフィードバックされる。し
かしながら、線形レイアウトを有するカウンタは、フィードバック信号を比較的
長いワイヤを介して最終ビットから第一ビットまで通す必要があり、これはシス
テム200内に用いられている性能的に厳しいカウンタにとっては好ましくない
構成である。
【0042】 レジスタ全体で最終ビット及び他のフィードバックがタップされるビットが第
一ビットに近づくようにして、カウンタを少なくとも半分に畳むことによって、
長いフィードバック経路(及びこれに伴う時間的な遅延)を避けることができる
。このような理由で図4に示した15ビットのカウンタが選択されたのであり、
ここでビット14及び15はXNORゲート360を介してビット1にフィード
バックされ、多くのレジスタは共通のCLOCK信号によってクロックが供給される
フリップフロップによって実現されている。このような構成にすると、最終ビッ
トが物理的に第一ビットに近づくので有利である。DATA信号は、図に示すように
、各カウンタの最終レジスタから出力される。各カウンタ310への入力には、
図4に示すように、CLOCK、START、STOP、そしてCPUが発するCONTROL信号が
含まれる。
【0043】 前述のように、カウンタ/シフトレジスタは、いくつかのゲート分の遅延のオ
ーダーのサイクルタイムで機能しなければならない。これは、高速カウンタを有
するラッチ又はフリップフロップもまたこのようなサイクルタイムで動作しなけ
ればならないことを意味する。このように強制することによって、数ゲートの遅
延を越えるような位相間におけるクロックスキューに起因する多相クロック動作
の使用を排除できる。さらに、CLOCKとそのコンプリメント(complement)の両
方を必要とするラッチは、二つの信号間の過剰なスキューによって避けられる。
このように、この好適実施例は、共通の単相CLOCK信号を用い、各高速カウンタ
310を用いたラッチ又はフリップフロップは、相補的なCLOCK信号を必要とは
しない。いわゆるNORA TSPCを含む真の単相クロック動作(TSPC)のスキームは
、この分野の技術者には周知である。
【0044】 全体的な最大のクロック速度は、高速カウンタの第一ビットにおけるフィード
バック機能の遅延によって支配される(図4参照)。したがってこの遅延は最小
にしなければならない。この理由から、ブロック360内に示したパスゲートの
構成は2入力XNORゲートの機能を実現するのには好ましい。
【0045】 高速のクロックレート及びその結果としての70psという高速カウンタの性
能は、0.18μプロセスを用いることによって達成可能である。しかしながら
この性能は、IR波長、すなわち800nmの光検出が与えることができる高い
感度を得るために必要とされる0.35μ又はそれ以上のプロセスを用いた場合
には達成が困難かもしれない。
【0046】 より大きな製造ゲート幅を使用する場合の補償を助けるために、2段アプロー
チを用いてカウンタ310を実現することができる。このようなアプローチでは
、カウントされるCLOCK速度は、実際にはシステム全体の最小の分解可能な時間
よりも遅い。カウンタの各クロック時間は、さらにより短く細分された時間に分
割される。クロック時間内で、いわゆる細分キャパシタがチャージされ、このキ
ャパシタの電荷量が、CLOCK周期内で検出された光エネルギーパルスの到達時刻
を特定するのに用いられる。
【0047】 細分キャパシタのチャージ動作を、例えば、入来する光パルス(又はエコーパ
ルス)が検出されると同時に開始し、次のクロック周期の立ち上がりエッジにお
いてこのキャパシタのチャージ動作を停止することができる。結果として、細分
キャパシタ上の電荷の量は、検出された戻りパルスのスタートと次のクロック周
期のスタートとの間の差分に対応する。アナログ−ディジタル(A/D)コンバ
ータによって、蓄積された細分キャパシタの電荷を測定し、これからクロック周
期内でチャージ時間及び検出されたパルスの到達時間を決定することができる。
【0048】 各クロック時間を細分する数は、例えば10分割程度の小さい数にすることが
できる。A/D変換の時間は重要な要因ではなく、変換の非線形性はソフトウェ
アによって補正することができる。単純なA/Dコンバータ400を、図5に示
すように形成することができる。ここで、C2は細分キャパシタであり、固体ス
イッチS1及びS2は、交互にオン・オフされる。C2のディスチャージの速度
は、比C1/C2に比例する。したがって、C2の電荷は、C2上の電圧をある
レベルよりも低くするのに必要なスイッチサイクルの数から決定することができ
る。
【0049】 図4を参照する。PRSCカウンタ310におけるカウント値は、最初にRA
M(例えばメモリ280)に格納することができる。これにより、同じPRSC
カウンタを、対応する細分キャパシタC2をディスチャージするのに必要なスイ
ッチサイクルの数をカウントするに用いることも可能である。
【0050】 図2及び図3を参照する。光検出及び関連する増幅のための回路240,25
0は、極端に低レベルの入来光エネルギーを検出しなければならない。これは、
ディテクタの出力のS/N比を最大にしなければならないことを意味する。容量
結合及び電源ノイズの効果を低減するために、差動アプローチを用いることが望
ましい。このアプローチでは、実際のディテクタ240と類似したノイズ特性を
有するダミーのピクセルセンサ(例えばフォトダイオード)が用いられる。しか
しながらダミーのセンサは、入来光を検出しないよう金属でカバーされている。
このため、ダミーのディテクタの出力は、光信号の成分を持たない純粋なノイズ
信号となる。差動コンパレータが、ダミーのディテクタからのこの純粋なノイズ
出力を、実際のディテクタ240からの信号パルスのノイズ出力と比較する。こ
のため、差動コンパレータの出力からは、両方の入力に含まれる共通モードのノ
イズがキャンセルされ、これによって出力のS/N比が向上する。
【0051】 ディテクタの応答時間は、ディテクタの繰り返し精度(repeatability)がノ
イズに大きく依存するという結果を用いて、以下に述べるようにして補償される
。ディテクタ出力の多数のサンプルが取られ、平均化されて、検出時間誤差に対
する標準偏差が更に低減される。σを一つの検出サンプルについての誤差の標準
偏差とすると、n個のサンプルの平均についての標準偏差は、 σn = σ/n1/2 となる。
【0052】 実際に、ディテクタ240と対応する増幅器の回路250は、100psより
もかなり大きな応答時間を有しているかもしれない。実際、光源220のスリュ
ーレート(slew rate)は10ns程度であり、これが応答時間とみなされる。
これらの応答時間はそれぞれ、システム200の製造の際に用いられた技術の特
性によって変化するが、物体20への距離には依存しない。ディテクタ及び光源
の応答時間から生じる別の遅延も、TOF測定から差し引かなければならない。
【0053】 Sr(t)を光源の応答曲線、すなわち時刻t0でパルスを発生させたときの
光源の出力をグラフィック的にプロットしたものとし、Pを物体20で反射され
た光源の光のパーセント値としよう。そしてDr(f(t))を、f(t)の関
数としててのディテクタの増幅器の検出時間としよう。ここでf(t)は、セン
サアレー上で光る光の時間の関数としてのグラフィック的なプロットである。し
たがって、 f(t)=P・Sr(t) である。ディテクタのアレー210が安定な状態の動作温度になったら、増幅器
及び光源の信号検出時間は、Pだけに依存する。Zを物体までの距離、cを光速
とすると、Pの関数としての全体の検出時間は、 T(P)=Dr(P・Sr(t))+Z/c によって与えられる。もし、光源に対して異なる応答時間S′r(t)を用いた
とすると、全体の検出時間は、 T′(P)=Dr(P・S′r(t))+Z/c によって与えられる。上の二つの測定の間の差は、次のようになる。 ΔT(P)=T(P)−T′(P) =Dr(P・Sr(t))−Dr(P・S′r(t))
【0054】 固定された既知の距離について行った較正用の測定結果を用いて、ΔT(P)
対P及びDr(PSr(t))対Pのテーブルを作ることができる。もしΔT(P
)がPに対して単調だとすれば、逆のルックアップテーブルを用いてΔT(P)
からPを決定することが可能である。ΔT(P)は普通Pとともに減少するので
、一般にはこれが当てはまる。Dr(P・Sr(t))は、Pから別のルックアッ
プテーブルを用いて求めることができる。したがって、ΔT(P)がPについて
単調であれば、Dr(P・Sr(t))をΔT(P)から求めることができる。さ
らにルックアップ処理を効率化するために、ΔT(P)に対するDr(P・Sr
t))=G(ΔT(P))を校正用の測定から直接的に得て、テーブルフォーマ
ットに格納することができる。このようにすると、処理において中間のPが削除
される。
【0055】 上記より、 Z=c・(T(P)−G(ΔT(P)) が得られる。ここで、T(P)及びΔT(P)は、特定のピクセルについての測
定された応答時間である。二つの測定を含むT(P)及びΔT(P)は、直接的
に測定される量であり、したがってPを決定する必要がない点は注目される。
【0056】 実際には、S′r(t)=(1/2)Sr(t)を選択したいと思うかもしれな
い。例えば、T(P)についての第一の測定パルスを、二つの等しい光源によっ
て照射し、T′(P)をトリガーされた光源の一方によって測定することができ
る。S′(t)ついては、他の選択を行うこともできる。前述のルックアップテ
ーブル及び逆ルックアップテーブルのうちのいくつか又は全部を、IC210上
のメモリ、例えばメモリ280に格納することができる。
【0057】 図6Aは、Pに対するT(P),T′(P),ΔT(P)の典型的なプロット
である。遅延T(P)及びT′(P)が、Pの値の減少とともに増加することが
分かるが、これらの差分であるΔT(P)も、Pの減少とともに増加する。図6
Bは、T(P)対ΔT(P)の典型的なプロットである。
【0058】 検出時間を相殺するために第一の高いパワーのパルス及び第二の低いパワーの
パルスを放射する場合の潜在的な問題は、低いパワーのパルスを検知するときに
、ピクセルのディテクタの応答が最適条件の場合よりも小さくなるかもしれない
ということである。さらに、二つ目のパルスのデータをとることで、フレーム当
たりに取るサンプルの数を減らすことができる。これらの問題は、各ピクセルに
当たるレーザー光の総量を測定することによって克服することができるかもしれ
ない。本質的に、検出時間から積分時間を取り去るには、積分時間の知識が必要
となる。積分時間は、レーザー光のエミッタパルスに応じてピクセルセンサ上に
累積された合計の電荷を調べることによって決定される。したがって、合計の累
積された電荷が例えば100nsのパルス幅に対して3mVで、ディテクタのト
リップ点(trip-point)が例えば0.5mVとすると、検出時間は16ns(1
00ns・(0.5/3))である。ピクセルディテクタにおける電荷について
1nsの許容差が、約6%の精度で検出されると仮定すると、電圧測定の分解能
は約180μVとなる。これは、結果として、正確な測定を試みる前に、電荷の
総量が実質的に押し上げられるべきだということを暗示する。これは、放射され
た光源のいくつかのパルスにわたって、例えはフレーム当たり100回の測定を
行って、ピクセルディテクタ上に電荷が蓄積できるようにすることによって達成
される。例えば3フレーム後には、蓄積された電圧は900mVのオーダーにな
るだろう。8ビットのアナログ−ディジタルコンバータは、このような電圧を約
1%の分解能で測定することができ、これから各ピクセルの増幅器についての電
圧トリップ点の測定による情報、そしてこれから積分時間を確かめることができ
る。
【0059】 上で述べたように、カウンタ310は、サイクルタイムが100psというオ
ーダーの非常に高速なCLOCK信号を必要とし、このCLOCK信号は、アレー210内
の各ピクセルディテクタにおいて利用できるものでなければならない。システム
200が1cm×1cmの寸法のICチップ上に形成されていると仮定すると、
チップの一方の側から反対側までクロック信号が伝播するのに、少なくとも70
ps(すなわち1cm/c)が必要とされる。100psのサイクルタイムのク
ロックの配分は、クロックパルスがクロックサイクルの間に各ピクセルへ伝播す
る標準的なクロック配分技術で可能な範囲を超えている。
【0060】 ピクセルディテクタ間では信号のやり取りがないためピクセル間でのクロック
のスキューは重要でないので、アレー内の各ピクセルディテクタに高速のCLOCK
を与える方法としては任意の方法が可能である。しかしながら、アレー内におけ
る各ピクセルディテクタは、高速クロックにアクセスしなければならない。この
ため、相対的に高価な位相ロックループ型のローカル高速クロック再生手段を用
いることは、1万個あいはそれ以上の再生器が必要となるので、不可能である。
【0061】 ここでの好適実施例では、アレー内のピクセル位置をベースとする処理後のス
テップを用いる効率的な高速クロック配分システムが実現されている。この処理
後のステップは、検出光がサンプリングされると実行され、アレー内の種々のピ
クセルへのCLOCK信号の到達時刻の間の差を補償することができる。すでに述べ
たように、クロックのサイクルタイムは、インバータ数個分の遅延分のオーダー
であるが、クロックのツリーは、クロックの根から各ピクセルまで、もっと多く
のロジックの階層を有しているかもしれない。しかしながら、ピクセル間のクロ
ックのスキューの重要性は相対的に低いので、クロックの根からピクセルまでの
遅延が異なることは容認される。実際のところ、クロックのツリーに対するロジ
ック高さ(インバータの数で見た)でさえ、ピクセルが違えば異なっている。
【0062】 標準的なクロック配分システムにおいて、一つのクロック信号は、次のクロッ
ク段階が開始する前に根から各ピクセルまで完全に伝播するのに十分な時間を有
している。しかしながら、本発明ではサイクルタイムがインバータの遅延時間の
オーダーであるため、これは当てはまらず、クロックの根から一つのピクセルま
でに多数のインバータが存在しうる。
【0063】 本発明では、望ましくは、すべてのピクセルに前の立ち上がりのクロックエッ
ジが到達するより前に、クロックの根において立ち下がりのクロックエッジを生
成することによって、サイクルタイムの制約が満たされる。したがって、クロッ
クツリーの葉が前のクロック段階又はクロックサイクルで動作しているときに、
クロックツリーの根は、一つのクロック段階で動作していることがある。
【0064】 各クロックサイクルは、任意の時刻においてクロックツリーが同時に根から葉
まで進行する波を有しているような、クロックの根から葉までのパルスの進行と
みなすことができる。しかしながら、寄生キャパシタンス及びデバイスの寸法に
依存して、波形の立ち上がりエッジ及び立ち下がりエッジは、わずかばかり異な
った速度でクロックツリーを進行する。このため、数階層のロジックを経た後で
、波形の後側が波形の前側に追いつくことがある。このようなことが生じると波
形は消失し、クロックパルスは下流のセンサのピクセルまで伝播しない。この現
象は、波形パルスが非常に狭いときに特に著しく、クロックのサイクルタイムが
極端に短い場合にこのようなことが起こる。
【0065】 図7は、このような波形の消失を防ぐクロックパルス幅格納器500の好適な
実施例を示している。回路500は、回路の入力において立ち下がり(あるいは
立ち上がり)のクロックエッジが検出されるまで、立ち上がり(あるいは立ち下
がり)のクロックエッジが回路の出力へ伝播することを防ぐ。これは、立ち上が
り(あるいは立ち下がり)エッジ及び立ち下がり(あるいは立ち上がり)エッジ
を、少なくとも回路500によって生成される遅延に対応する遅延dだけ確実に
分離する。クロックのパルス幅は、バッファセグメントを追加し又は削除するこ
とによって、コントロールすることができる。図7は、二つの直列接続のインバ
ータからなる単一のバッファセグメント510を示しているが、パルス幅を調整
するためにこれよりも多い、あるいは少ないバッファセグメントを用いることも
できる。
【0066】 図2を参照する。オンチップのプロセッサ260と関連するメモリ270のい
ずれか一方又は両方を、PRSC数のシーケンスを実際の経過時間の値にデコー
ドするために用いることができる。プロセッサ260にはまた、ディテクタの遅
延の除去及びピクセル位置を基礎にしたクロックスキューの補正を実行させても
よいし、さらに多数のサンプルを平均して検出時間の標準的な誤差を低減させて
もよい。
【0067】 上で述べたように、本発明の第一実施例においては、許容できるほど速いCLOC
K信号及び高速のカウンタを与えることは困難である。このため、クロック回路
及び高速のカウンタを削除した第二実施例が提供される。
【0068】 第二の好適な実施例は図8に示してあり、ここでシステム200′は、ピクセ
ルディテクタ240の二次元アレー230を含んでおり、各ピクセルディテクタ
は対応するシャッター及び電荷蓄積器もしくは積分回路600を有している。図
2に示したものと同じ符号を有する図8の部品は、すでに説明したものと同じ部
品である。すなわち、210はアレー230、マイクロプロセッサもしくはコン
トローラ260、メモリユニット270、そして入出力インターフェース回路2
85を含む単一のICである。図2に示したシステム200に関して説明したよ
うに、光源220は光学レンズ290′を通して光パルスを放射し、物体20か
ら戻る反射光はレンズ及びフィルタ290を通過して、アレー230内のピクセ
ル240に当たる。
【0069】 図9は、各ピクセルディテクタ240に対応して設けられた回路600の好適
な実施例を示している。回路600内において、各ピクセルディテクタの出力は
増幅器610に接続されており、その出力は開(電流が通過する)又は閉(電流
を遮断)のシャッタS1を介して、ここではシンボル的にC1で示した電荷蓄積
器又は積分回路に結合されている。シャッタS1は、高速の電子シャッタである
ことが望ましいが、その不透明性が電子的な制御信号に応答して素速く変化する
強誘電性材料のような光学−機械シャッタとすることもできる。
【0070】 実際、電子シャッタを、電流制御電流源のような制御されたソースを用いて構
成することができる。ピクセルディテクタは、受け取った光子の数に比例する電
流ISを生成し、これは電流制御電流源によって電流Imを生成するよう反映され
る。ここで、Im=K・ISであり、Kは定数である。ピクセルディテクタの電荷
を直接測定するのではなく、キャパシタC1上の電荷が測定される。シャッター
は、Im=0となるように電流制御電流源をオフにすることによって閉じられる
。この場合、電流ISはキャパシタC1には何ら作用しない。
【0071】 ディテクタ240に当たる入来光の光子は電流を生成し、これはユニット61
0によって増幅される。S1が開いていれば、電荷が検出されたピクセルのユニ
ット610からの増幅された出力はキャパシタC1をチャージする。反対に、シ
ャッタが閉じているときは(図9に示すように)、ユニット610からの追加の
電荷が電荷蓄積器もしくは積分回路C1によって受け取られることはない。
【0072】 したがって、ピクセルディテクタに比較的近い物体については、光パルスが生
成した物体表面からのほとんどすべての光子は、シャッタが閉じる前にディテク
タに到達することができる。しかしながら、比較的遠い物体については、光源パ
ルスの終端から生じる光子には、シャッタが閉じる前にセンサに到達するのに十
分な時間がない場合があり、その場合は破棄される。シャッタによって遮断され
るパルスから光子の割合を計算することによって、物体までの距離を算出するこ
とができる。
【0073】 前に述べたように、コントローラもしくはプロセッサ260は、回路285に
光源220を駆動させ、時刻t0において光のパルスを放射させる。しかしなが
ら時刻t0又はそれ以前には、コントローラ260は、各電荷積分回路C1から
電荷をディスチャージさせ、そして対応するシャッタS1を開く。物体20の表
面の異なるそれぞれの部位は、放射された光パルスが照射されると、光をシステ
ム200′に向けて反射する。
【0074】 その結果、物体20の最も近い表面(例えば図8の距離Z1において)にフォ
ーカスされたピクセルは、入来する光子の検出を開始する。これらのピクセルか
らの電流電荷は増幅器610によって増幅され、開いたシャッタS1を介してキ
ャパシタC1をチャージする。S1が開いている間は、C1は電荷を蓄積し続け
る。しばらくして、僅かに遠い物体の距離にフォーカスされているピクセルが入
来光子を検出し始め、対応する蓄積器C1に、対応する増幅器及びシャッタを介
して電荷を蓄積し始める。
【0075】 より近い物体表面上にフォーカスされたピクセルに対応する積分回路C1は、
他の積分回路よりも早く電荷の積分を開始し、したがって単位時間当たりにより
多くの電荷を蓄積できるという点に注目する。放射された光パルス幅とほぼ同じ
時間の後、コントローラ260は全てのシャッタを、望ましくは同時に閉じる。
この時点で、各蓄積器C1上に蓄積された電荷は静的、もしくは固定されている
。必要があれば、いくつか又はすべてのシャッタを同時にではなく、ランダムな
シーケンスを含む任意の希望のシーケンスで開くこともできる。
【0076】 各ピクセルの各C1に蓄積された電荷の大きさが、そのピクセルがフォーカス
された物体の点までの往復のTOFデータを直接的に与えることが分かる。すな
わち: i1=C1・(ΔV/Δt) ここで、i1はピクセルディテクタから出力される電流であり、C1は対応する
電流積分回路であり、ΔVは蓄積された電荷電流から生じるC1の両端の信号変
化であり、Δtは電荷が蓄積されている時間である。
【0077】 ほぼ放射された光パルス列の周波数の期間にわたってすべてのシャッタを開い
たまま、一組のデータを収集することが望ましい。このデータの組の間に集めら
れた電荷は、物体表面についての点ごとの反射輝度を表す。このような電荷は、
より遠いがより多く反射する物体表面の部位による誤差についての補正を可能に
する。TOF≧0について、基本的な関係は、 TOF=[(VCS−VOS)/VCS]・PW+Tep−TS によって与えられる。ここでVCSは連続的に開いているシャッタから生じる信号
であり、VOSは実質的に光パルス幅の期間開いていたシャッタから生じる信号で
あり、Tepはパルス終端の時刻であり、TSはシャッタが閉じられる時刻であり
、PWは光パルス幅の持続時間である。
【0078】 シャッタが開いたままだと、ピクセルディテクタに当たる光子の合計数は、 N0=K・PW によって与えられる。ここでKは、物体の照度の強さ、物体の反射率、およびレ
ンズの口径に依存する定数である。TS−(t0+2Z/c)<PWであれば、シ
ャッタは反射された光パルスエネルギーの後端部をクリップし、ピクセルディテ
クタによって受け取られる有効な光子の数は、 NS=K・(TS−t0−2Z/c) となる。これから距離Zは、 Z=c/2・(NS・PW/N0+t0−TS) によって得られる。この方法の精度は、どれだけ正確にNSを測定できるかに依
存する。NSとN0の両方は、センサ上に生じる電荷を、例えばA/Dコンバータ
を用いて測定することによって測定される。約10Wの電力のレーザー光源を用
いると、1cmの距離の差は、約100個の光子に相当するNSの変化ΔNSを
生じさせることができる。精度を上げるために、累積的に増加する方法で多数の
パルスを用いることもできる。
【0079】 この技術を用いると、パルス間でセンサ上の電荷を取り除かなくても繰り返し
光源からパルスを発せられる。したがって、センサ上の電荷は、光子のエネルギ
ーが検出されるすべての反射光パルスによって生成される累積的な電荷となる。
この累積的な電荷は、すべてのパルスの数(n)にわたって合計される有効な光
子の累積的な数に比例する。一例として、1cmの距離の変化についての電荷の
差は、n・ΔNSとなる。これは、n=100として、何万というオーダーの光
子によるn・ΔNSの電荷差を生じる。
【0080】 本発明の第一及び第二の実施例を比較すると、第一実施例では、総量が比較的
長く持続し、遅く到達する光子エネルギーの開始を検出することが比較的容易で
ある。しかしながら第二実施例では、通常パルス幅PWが100nsのオーダー
で、VCSが約2mVで、1cmの分解能で、TOFの変化は約100psとなろ
う。この例では、(VCS−VOS)の変化が約2μV(2mV/100ns・0.
1ns)のオーダーとなるだろう。2μVの変動は、相対的に少ない数の電子の
検出を意味し、一般に通常のA/Dコンバータでは分解不能となるだろう。
【0081】 にもかかわらず、(VCS−VOS)の電圧変動の大きさは、多数の光パルスの放
射によって高めることができ、光子のエネルギーを繰り返し電荷積分回路に蓄積
あるいは集積させることができる。したがって、もし測定当たり200個の光パ
ルスを放射したとすると、分解可能な変動電圧は400μVのオーダーとなり、
この大きさであれば通常のA/Dコンバータによって分解可能である。蓄積され
た電荷の集積はのノイズ成分はランダムであるため、S/N比は本質的に向上す
る。
【0082】 本発明の好適な実施例は、ディテクタアレー及び関連する電子回路を含む同じ
ICチップ上にプロセッサ260と共に形成することができるので、非常に有利
である。プロセッサ260は、連続して捕捉された画像フレームを、RAMメモ
リ部270にアクセスし格納することができる。各フレームは各ピクセルについ
ての距離値を含んでいるので、このプロセッサは、接近した時間間隔でセンサア
レーによって捕捉された連続するフレームを比較して、各ピクセルにおける画像
の速度フィールドを算出することができる。一つのピクセルにおけるアレーに垂
直な方向における速度フィールドは、 VZ=(dn+1−dn)/フレーム速度 によって容易に計算することができる。ここで(dn+1−dn)は、二つの連続す
るフレームの間の距離測定の差である。二つの別の範囲における速度フィールド
は、まず画像内の異なる面の輪郭を特定することによって計算することができる
。ここで各面は一つの物体の背景を遮るその物体に対応する。輪郭を特定するこ
とによって、ピクセル内の同じ物体に対応するピクセルが検出した物体(例えば
人の頭)は、それがすべての同じ輪郭の中にあるものと特定される。
【0083】 輪郭内における物体の移動は、フレーム間における輪郭の移動を特定すること
によって計算される。輪郭内のピクセルはすべて一様な速度を受け取る。これが
輪郭の速度である。物体はその輪郭を用いて特定されるので、オンチップのプロ
セッサを用いて問題とする物体を追跡することができる。そして、ICチップは
、物体が動いたときはいつでも、物体全体の位置の変化を表すために単一の値(
DATA)をエクスポートすることができる。したがって、ピクセルの全フレームを
フレーム速度でICチップからエクスポートする代わりに、問題とする物体の位
置の変化を示す単一のベクトルを送ることができる。そのようにすると、チップ
の入出力が極端に低減され、チップ外のデータ処理の要求を大幅に低減すること
ができる。
【0084】 請求の範囲によって定義される本発明の主題及び思想から逸脱することなしに
、ここで開示した実施例に対して修正や変更を加えることが可能である。
【図面の簡単な説明】
【図1】 輝度を基礎とした従来からの一般的な距離計測システムの概略図である。
【図2】 本発明の第1実施例に係る単一のIC上に実現された3次元画像化システムの
概略図である。
【図3】 本発明に係る、対応する光子パルスディテクタ及び高速カウンタを有するそれ
ぞれのピクセルディテクタを示したブロック図である。
【図4】 本発明に係る、高速カウンタであるPRSCカウンタを実現する好適な手段を
示したブロック図である。
【図5】 本発明に係る、細分キャパシタ電荷を測定するための好適な手段を示している
【図6】 図6Aは、本発明に基づく、Pに対するT(P)、T′(P)、そしてΔT(
P)を表し、図6Bは、本発明に基づく、ΔT(P)に対するT(P)を表して
いる。
【図7】 本発明に係る、クロックパルス幅再生回路の好適な実施例を示している。
【図8】 本発明の第2実施例に係る単一のIC上に実現された3次元画像化システムの
概略図である。
【図9】 本発明に係る、対応するシャッタスイッチ及びパルス積分回路を有するそれぞ
れのピクセルディテクタを示したブロック図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01S 17/10 H04N 5/335 U H01L 27/146 Z H04N 5/335 G01B 11/24 K H01L 27/14 A (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,MZ,SD,SL,SZ,TZ,UG ,ZW),EA(AM,AZ,BY,KG,KZ,MD, RU,TJ,TM),AE,AG,AL,AM,AT, AU,AZ,BA,BB,BG,BR,BY,BZ,C A,CH,CN,CR,CU,CZ,DE,DK,DM ,DZ,EE,ES,FI,GB,GD,GE,GH, GM,HR,HU,ID,IL,IN,IS,JP,K E,KG,KP,KR,KZ,LC,LK,LR,LS ,LT,LU,LV,MA,MD,MG,MK,MN, MW,MX,MZ,NO,NZ,PL,PT,RO,R U,SD,SE,SG,SI,SK,SL,TJ,TM ,TR,TT,TZ,UA,UG,UZ,VN,YU, ZA,ZW Fターム(参考) 2F065 AA06 AA53 DD04 EE00 FF11 FF32 GG04 GG07 GG08 LL04 LL21 LL30 NN01 QQ03 QQ14 QQ23 QQ25 QQ41 QQ42 QQ51 2F112 AD01 BA09 CA08 DA28 EA05 FA03 FA07 FA15 FA16 4M118 AB03 BA14 DD02 FA06 5C024 AX02 AX06 CX54 CX61 CY17 EX12 GY31 HX32 5J084 AA01 AA05 AA07 AA13 AA14 AD01 AD03 AD05 BA03 BA34 BA36 BA40 BB01 BB20 CA31 CA44 CA49 CA52 CA53 CA55 CA59 CA65 CA67 CA70 CA78 CA80 DA01 DA06 DA07 EA01 EA05 EA31

Claims (25)

    【特許請求の範囲】
  1. 【請求項1】 ディテクタのアレーとターゲットとの間の距離を決定する方
    法であって、 (a)少なくと一つのピクセル及び対応するピクセルタイマーを有する前記アレ
    ーを、前記ターゲットから反射された光のエネルギー検出するよう配置するステ
    ップと、 (b)光エネルギーの少なくとも第1のパルスで、時刻t0において前記ターゲ
    ットを照射するステップと、 (c)時刻t0において前記ピクセルタイマーをスタートさせるステップと、 (d)前記ピクセルが前記ターゲットから反射された前記第1のパルスに基づく
    光エネルギーを検出したときに、前記ピクセルタイマーを停止させるステップと
    、 (e)前記タイマーがカウントされている持続時間から、前記ディテクタのアレ
    ーと前記ターゲットとの間の距離を決定するステップと、 を含むことを特徴とする方法。
  2. 【請求項2】 前記ディテクタのアレーはランダムに読み出すことが可能で
    ある請求項1に記載の方法。
  3. 【請求項3】 (e)のステップから、前記持続時間の直接的なディジタル
    測定を行う請求項1に記載の方法。
  4. 【請求項4】 前記ピクセルタイマーは、1MHzを超えるクロックレート
    で切り換えられるディジタルカウンタである請求項1に記載の方法。
  5. 【請求項5】 前記ピクセルタイマーは、疑似ランダムシーケンスのディジ
    タルカウンタである請求項1に記載の方法。
  6. 【請求項6】 疑似ランダムシーケンスのディジタルカウンタは、単相クロ
    ック動作を用いるものである請求項1に記載の方法。
  7. 【請求項7】 前記ピクセルタイマーは、下位クロック周期のキャパシタチ
    ャージ動作を含んでいる、請求項1に記載の方法。
  8. 【請求項8】 前記アレーは、前記ピクセルを複数含んでおり、各ピクセル
    は対応する前記ピクセルタイマーを有している、請求項1に記載の方法。
  9. 【請求項9】 ステップ(b)は、前記ピクセルの検出時刻を補償できるよ
    うに、変化する振幅のパルスを出力する動作を含んでいる、請求項1に記載の方
    法。
  10. 【請求項10】 複数の前記パルスを出力して複数の前記持続時間を生成す
    るステップと、 前記距離の決定において、前記複数の持続時間を平均してS/N比を向上させ
    るステップと、 をさらに含んでいる請求項1に記載の方法。
  11. 【請求項11】 少なくともステップ(a)、ステップ(c)、ステップ(
    d)、ステップ(e)を共通の集積回路基板上で実行することを特徴とする請求
    項1に記載の方法。
  12. 【請求項12】 光パルス生成器を伴って、ICとターゲットとの間の距離
    の決定に用いるCMOSで実現される集積回路(IC)飛行時間(TOF)測定
    システムであって、前記ICは: 生成された光パルスエネルギーであって、前記ターゲットから戻ったものを検
    出する複数のディテクタのアレーと、 前記ディテクタのそれぞれに対応して設けられたカウンタと、 前記各カウンタにカウント可能なクロックパルスを与えるシステムクロックと
    、 生成された前記光パルスの発生とともに開始される前記クロックパルスを前記
    各カウンタにカウントさせるとともに、ディテクタが前記生成された光パルスか
    らのエネルギーを検出したときに対応する前記カウンタにクロックパルスのカウ
    ント動作を停止させるロジックとを含み、 前記カウンタに積算されたカウントが、前記距離に比例する直接的なディジタ
    ル測定を与えることを特徴とする飛行時間(TOF)測定システム。
  13. 【請求項13】 前記システムクロックは、 (a)約1GHzを超えるクロック速度である (b)前記クロックパルスは単相のクロックパルスである (c)前記クロックは前記ディテクタのそれぞれにおいてクロックパルスの位相
    を補償する (d)前記クロックは相対的なクロックエッジの完全な状態を保持する手段を含
    んでいる という特徴の群から選択した少なくとも一つの特徴を有するものである、請求項
    12に記載のIC。
  14. 【請求項14】 前記各カウンタは疑似ランダムシーケンスのカウンタであ
    る、請求項12に記載のIC。
  15. 【請求項15】 前記各カウンタの出力を測定するために、下位クロック周
    期のキャパシタチャージ動作を行う手段をさらに含んでいる、請求項12に記載
    のIC。
  16. 【請求項16】 前記ディテクタ及び前記光パルス生成器に関連する遅延を
    決定し及び補償する手段をさらに含む、請求項12に記載のIC。
  17. 【請求項17】 請求項12に記載のICであって、さらに複数の光パルス
    にわたってデータを収集する手段を含み、当該データを収集する手段は、 (a)前記ディテクタ及び前記光パルス生成器に関連する遅延を補償するICの
    ためのルックアップ較正テーブル (b)前記ディテクタ及び前記光パルス生成器に関連する遅延を補償するために
    さまざまな前記ディテクタに関連する特性を調べる手段 のうち少なくとも一つを含んでいるIC。
  18. 【請求項18】 さらに前記各カウンタからの出力を処理して前記ターゲッ
    トに関するデータを与えるプロセッサを含んでいる、請求項12に記載のIC。
  19. 【請求項19】 前記プロセッサは、 (a)前記ICから前記ターゲットまでの距離 (b)前記ターゲットの速度 (c)前記ターゲットの対応する形状 (d)前記ターゲットの特定 のうち少なくとも一つを決定できるものである、請求項18に記載のIC。
  20. 【請求項20】 ディテクタのアレーとターゲットとの間の距離を決定する
    方法であって、 (a)前記ターゲットから反射された光のエネルギーを検出するよう前記アレー
    を配置するステップを有し、前記アレーは複数のピクセルを含んでいて、各ピク
    セルには、対応する電荷集積部と、前記電荷集積部の対応する前記ピクセルから
    の電荷出力を集積する能力を管理する対応するシャッタが設けられており、 (b)時刻t0において前記ターゲットを光エネルギーのパルスで照射し、前記
    各シャッタを開いて、前記ピクセルが、前記パルスに基づいた前記ターゲットか
    らの反射光のエネルギーによって生じる電荷を前記集積部に出力するようにした
    ステップと、 (c)前記各集積部において対応する前記ピクセルによって出力された電荷を蓄
    積するステップと、 (d)時刻t1において、前記各パルスの概算の幅(t1−t0)に対応して、
    前記各シャッタを閉じて対応する前記集積部の電荷のさらなる蓄積を停止するス
    テップと、 (e)前記各集積部における対応する電荷を評価して、前記各ピクセルについて
    の前記ターゲットまでのTOFの尺度を得るステップとを有し、 前記ターゲットまでの前記距離が決定されることを特徴する方法。
  21. 【請求項21】 前記ターゲットの光の反射率を表す較正データを得るため
    に、少なくとも前記パルス幅の持続時間にわたって各集積部に電荷を蓄積するス
    テップを、さらに含んでいる請求項20に記載の方法。
  22. 【請求項22】 少なくともいくつかの集積部において光エネルギーの複数
    の前記パルスにわたって電荷を蓄積するステップをさらに含み、測定精度を向上
    させた、請求項20に記載の方法。
  23. 【請求項23】 光パルス生成器を伴って、ICとターゲットとの間の距離
    の決定に用いるCMOSで実現される集積回路(IC)飛行時間(TOF)測定
    システムであって、前記ICは: 生成された光パルスエネルギーであって、前記ターゲットから戻ったものを検
    出する複数のディテクタのアレーを有し、 前記ディテクタのそれぞれに対応して設けられた電荷集積部、および前記電荷
    集積部の対応する前記ディテクタによる電荷出力を集積する能力を管理する対応
    するシャッタを有し、 生成された前記光パルスの開始を表す時刻t0において前記各シャッタを開い
    て、前記パルスに基づいた前記ターゲットからの反射光の検出されたエネルギー
    によって生じる電荷を前記ディテクタが前記対応する集積部に出力するようにし
    たロジック回路を有し、前記ロジックは前記パルスの幅(t1−t0)に近い時
    刻t1において前記各シャッタを閉じて、対応する前記各集積部のさらなる電荷
    の蓄積を停止させ、 前記各集積部に蓄積された電荷を評価して前記各ピクセルの前記ターゲットま
    でのTOFの尺度を得る手段を有し、 評価された蓄積電荷が前記距離の尺度を与えることを特徴とする飛行時間(T
    OF)測定システム。
  24. 【請求項24】 前記ロジック回路は、前記ターゲットの光反射率を表す較
    正データを得るために、少なくとも前記パルスの持続時間のあいだ前記各シャッ
    タを開くことを可能とする請求項23に記載のIC。
  25. 【請求項25】 前記評価された蓄積電荷から、 (a)前記ICから前記ターゲットまでの距離 (b)前記ターゲットの速度 (c)前記ターゲットの対応する形状 (d)前記ターゲットの特定 のうち少なくとも一つを決定するマイクロプロセッサをさらに含んでいる請求項
    23に記載のIC。
JP2001525159A 1999-09-22 2000-09-18 Cmos互換3次元画像センサic Pending JP2003510561A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/401,059 1999-09-22
US09/401,059 US6323942B1 (en) 1999-04-30 1999-09-22 CMOS-compatible three-dimensional image sensor IC
PCT/US2000/025580 WO2001022033A1 (en) 1999-09-22 2000-09-18 Cmos-compatible three-dimensional image sensor ic

Publications (2)

Publication Number Publication Date
JP2003510561A true JP2003510561A (ja) 2003-03-18
JP2003510561A5 JP2003510561A5 (ja) 2007-11-08

Family

ID=23586101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001525159A Pending JP2003510561A (ja) 1999-09-22 2000-09-18 Cmos互換3次元画像センサic

Country Status (6)

Country Link
US (1) US6323942B1 (ja)
EP (1) EP1218692A4 (ja)
JP (1) JP2003510561A (ja)
KR (1) KR20020067032A (ja)
AU (1) AU4018901A (ja)
WO (1) WO2001022033A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004525351A (ja) * 2000-12-11 2004-08-19 カネスタ インコーポレイテッド 量子効率変調を用いたcmosコンパチブルの三次元イメージセンシングのためのシステム
JP2005235893A (ja) * 2004-02-18 2005-09-02 National Univ Corp Shizuoka Univ 光飛行時間型距離センサ
JP2007526448A (ja) * 2003-06-17 2007-09-13 カネスタ インコーポレイテッド 三次元及び色彩検出における電荷管理のための方法及び装置
JP2007536529A (ja) * 2004-05-05 2007-12-13 レイセオン カンパニー インパルス無線周波数信号による3次元画像の生成
JP2008511968A (ja) * 2003-10-13 2008-04-17 ノーブル ピーク ヴィジョン コーポレーション シリコン基板およびシリコン回路と一体化された分離されたゲルマニウム光検出器を備えるイメージ・センサ
JP2011530097A (ja) * 2008-08-03 2011-12-15 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. ローリングカメラシステム
US8338248B2 (en) 2008-12-25 2012-12-25 National University Corporation Shizuoka University Semiconductor element and solid-state imaging device
US8587709B2 (en) 2008-07-31 2013-11-19 National University Corporation Shizuoka University High-speed charge-transfer photodiode, a lock-in pixel, and a solid-state imaging device
KR101502122B1 (ko) * 2013-09-27 2015-03-13 주식회사 비욘드아이즈 깊이 정보를 생성하는 이미지 센서
JP2015081769A (ja) * 2013-10-21 2015-04-27 シャープ株式会社 光学式物体位置検出装置
JP2015172551A (ja) * 2014-03-12 2015-10-01 スタンレー電気株式会社 距離画像生成装置および距離画像生成方法
US9231006B2 (en) 2009-10-05 2016-01-05 National University Corporation Shizuoka University Semiconductor element and solid-state imaging device
JP2016211881A (ja) * 2015-04-30 2016-12-15 株式会社デンソー 光飛行時間測定装置及び光学的測距装置
JP2019536301A (ja) * 2016-11-17 2019-12-12 ノースロップ グルマン システムズ コーポレーションNorthrop Grumman Systems Corporation 画素データとノイズ信号の比較をオーバーサンプリングすることによる画素情報リカバリ
WO2020153182A1 (ja) * 2019-01-25 2020-07-30 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び光検出装置の駆動方法、並びに、測距装置
JP2021004760A (ja) * 2019-06-25 2021-01-14 ファナック株式会社 外光照度測定機能を備えた測距装置及び外光照度測定方法
JP2021048599A (ja) * 2020-11-18 2021-03-25 キヤノン株式会社 光電変換装置および撮像システム
US11558572B2 (en) 2012-02-17 2023-01-17 Canon Kabushiki Kaisha Photoelectric conversion apparatus and image pickup system

Families Citing this family (245)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US7673803B2 (en) 1998-03-24 2010-03-09 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) based engine
US6867808B1 (en) 1999-03-19 2005-03-15 Scott T. Boden Time domain imager
US6988660B2 (en) 1999-06-07 2006-01-24 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) based camera system for producing high-resolution 3-D images of moving 3-D objects
US6448572B1 (en) * 1999-09-29 2002-09-10 Innovative Technology Licensing, Llc Ranging three-dimensional laser imager and method
US20030174125A1 (en) * 1999-11-04 2003-09-18 Ilhami Torunoglu Multiple input modes in overlapping physical space
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
US20030132950A1 (en) * 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US20030132921A1 (en) * 1999-11-04 2003-07-17 Torunoglu Ilhami Hasan Portable sensory input device
JP3574607B2 (ja) * 2000-05-02 2004-10-06 ペンタックス株式会社 3次元画像入力装置
US6526366B1 (en) * 2000-05-18 2003-02-25 Intel Corporation Imaging sensor defect map storage
US6535275B2 (en) 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
US6690354B2 (en) * 2000-11-19 2004-02-10 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
US7954719B2 (en) 2000-11-24 2011-06-07 Metrologic Instruments, Inc. Tunnel-type digital imaging-based self-checkout system for use in retail point-of-sale environments
US6480265B2 (en) * 2001-03-26 2002-11-12 Deep Optic Ltd. Active target distance measurement
JP4930742B2 (ja) * 2001-03-29 2012-05-16 株式会社トプコン 位置検出装置
GB2374743A (en) * 2001-04-04 2002-10-23 Instro Prec Ltd Surface profile measurement
PT1373830E (pt) * 2001-04-04 2006-09-29 Instro Prec Ltd Medicao do perfil de uma superficie
JP2003075137A (ja) * 2001-09-04 2003-03-12 Minolta Co Ltd 撮影システム並びにそれに用いられる撮像装置および3次元計測用補助ユニット
US6583863B1 (en) * 2001-10-15 2003-06-24 The Regents Of The University Of California Single photon imaging and timing array sensor apparatus and method
US7474345B2 (en) * 2001-10-24 2009-01-06 Texas Instruments Incorporated System and method to facilitate time domain sampling for solid state imager
US7071982B2 (en) * 2001-10-24 2006-07-04 Texas Instruments Incorporated Adaptive relative and absolute address coding CMOS imager technique and system architecture
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US9959463B2 (en) 2002-02-15 2018-05-01 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US20030169906A1 (en) * 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
KR100547882B1 (ko) * 2002-02-26 2006-02-01 삼성전자주식회사 안테나 선택 다이버시티를 지원하는 이동통신시스템에서순방향 채널 상태 정보를 송수신하는 방법 및 장치
US6661500B1 (en) * 2002-03-15 2003-12-09 National Semiconductor Corporation Integrated range finder and imager
US6657706B2 (en) * 2002-03-27 2003-12-02 Sarnoff Corporation Method and apparatus for resolving relative times-of-arrival of light pulses
US6924887B2 (en) * 2002-03-27 2005-08-02 Sarnoff Corporation Method and apparatus for generating charge from a light pulse
WO2003088485A1 (en) * 2002-04-10 2003-10-23 The Johns Hopkins University The time of flight system on a chip
US6894771B1 (en) 2002-05-15 2005-05-17 Hunter Engineering Company Wheel alignment apparatus and method utilizing three-dimensional imaging
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US6906302B2 (en) * 2002-07-30 2005-06-14 Freescale Semiconductor, Inc. Photodetector circuit device and method thereof
US6777662B2 (en) * 2002-07-30 2004-08-17 Freescale Semiconductor, Inc. System, circuit and method providing a dynamic range pixel cell with blooming protection
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US6974373B2 (en) 2002-08-02 2005-12-13 Geissler Technologies, Llc Apparatus and methods for the volumetric and dimensional measurement of livestock
FR2848368B1 (fr) * 2002-12-06 2005-05-20 Thales Sa Systeme d'imagerie active tridimensionnelle d'un objet
US20040151074A1 (en) * 2003-01-31 2004-08-05 Spears Kurt E. Time measurement using distance of charge movement
US7075099B2 (en) * 2003-02-05 2006-07-11 Accuweb, Inc. Method and system for detecting the position of an edge of a web
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8284390B1 (en) 2003-02-20 2012-10-09 Hunter Engineering Company Vehicle tire changing system with tool positioning sensor
US7355687B2 (en) 2003-02-20 2008-04-08 Hunter Engineering Company Method and apparatus for vehicle service system with imaging components
US7801645B2 (en) * 2003-03-14 2010-09-21 Sharper Image Acquisition Llc Robotic vacuum cleaner with edge and object detection system
US7171037B2 (en) * 2003-03-20 2007-01-30 Agilent Technologies, Inc. Optical inspection system and method for displaying imaged objects in greater than two dimensions
US7019826B2 (en) * 2003-03-20 2006-03-28 Agilent Technologies, Inc. Optical inspection system, apparatus and method for reconstructing three-dimensional images for printed circuit board and electronics manufacturing inspection
US7352892B2 (en) * 2003-03-20 2008-04-01 Micron Technology, Inc. System and method for shape reconstruction from optical images
US6919549B2 (en) * 2003-04-11 2005-07-19 Canesta, Inc. Method and system to differentially enhance sensor dynamic range
US7176438B2 (en) * 2003-04-11 2007-02-13 Canesta, Inc. Method and system to differentially enhance sensor dynamic range using enhanced common mode reset
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7173605B2 (en) * 2003-07-18 2007-02-06 International Business Machines Corporation Method and apparatus for providing projected user interface for computing device
US7428997B2 (en) * 2003-07-29 2008-09-30 Microvision, Inc. Method and apparatus for illuminating a field-of-view and capturing an image
US7139067B2 (en) * 2003-09-12 2006-11-21 Textron Systems Corporation Three-dimensional imaging with multiframe blind deconvolution
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7095487B2 (en) * 2003-10-09 2006-08-22 Honda Motor Co., Ltd. Systems and methods for determining depth using shuttered light pulses
US7274815B1 (en) 2003-10-09 2007-09-25 Sandia Corporation Parallel phase-sensitive three-dimensional imaging camera
US20050148432A1 (en) * 2003-11-03 2005-07-07 Carmein David E.E. Combined omni-directional treadmill and electronic perception technology
US7110100B2 (en) * 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7317955B2 (en) * 2003-12-12 2008-01-08 Conmed Corporation Virtual operating room integration
US7317954B2 (en) 2003-12-12 2008-01-08 Conmed Corporation Virtual control of electrosurgical generator functions
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
EP1751495A2 (en) * 2004-01-28 2007-02-14 Canesta, Inc. Single chip red, green, blue, distance (rgb-z) sensor
US7379100B2 (en) * 2004-02-12 2008-05-27 Canesta, Inc. Method and system to increase dynamic range of time-of-flight (TOF) and/or imaging sensors
JP3966301B2 (ja) * 2004-03-25 2007-08-29 株式会社デンソー 車両用レーダ装置
US7321111B2 (en) * 2004-04-12 2008-01-22 Canesta, Inc. Method and system to enhance differential dynamic range and signal/noise in CMOS range finding systems using differential sensors
US7157685B2 (en) * 2004-04-12 2007-01-02 Canesta, Inc. Method and system to enhance differential dynamic range and signal/noise in CMOS range finding systems using differential sensors
US7706638B1 (en) 2004-04-26 2010-04-27 National Semiconductor Corporation System, apparatus and method for color machine vision with black and white photoelectric sensor
KR100636483B1 (ko) 2004-06-25 2006-10-18 삼성에스디아이 주식회사 트랜지스터와 그의 제조방법 및 발광 표시장치
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2006105688A (ja) * 2004-10-01 2006-04-20 Denso Corp 車両用レーダ装置
JP4487715B2 (ja) * 2004-10-01 2010-06-23 株式会社デンソー 車両用レーダ装置
JP3774225B2 (ja) * 2004-10-15 2006-05-10 独立行政法人科学技術振興機構 三次元計測センサ
KR100663515B1 (ko) * 2004-11-08 2007-01-02 삼성전자주식회사 휴대 단말 장치 및 이를 위한 데이터 입력 방법
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
CN101166996B (zh) * 2005-02-28 2013-04-17 先进燃料研究股份有限公司 用于辐射检测的装置和方法
JP4612853B2 (ja) * 2005-03-29 2011-01-12 キヤノン株式会社 指示位置認識装置及びそれを有する情報入力装置
US20060244720A1 (en) * 2005-04-29 2006-11-02 Tracy James L Collapsible projection assembly
US8018579B1 (en) 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US8279168B2 (en) 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
CA3034793C (en) 2006-03-15 2023-01-03 Gea Farm Technologies Gmbh Time of flight teat location system
ITUD20060138A1 (it) * 2006-05-30 2007-11-30 Neuricam Spa Dispositivo elettro-ottico per il conteggio di persone, od altro, basato sull'elaborazione di immagini tridimensionali ottenute mediante la tecnica di misura indiretta del tempo di volo, e relativo procedimento
NL1032435C2 (nl) * 2006-09-05 2008-03-06 Maasland Nv Inrichting voor het automatisch melken van een melkdier.
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8589033B2 (en) * 2007-01-11 2013-11-19 Microsoft Corporation Contactless obstacle detection for power doors and the like
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US20080273760A1 (en) * 2007-05-04 2008-11-06 Leonard Metcalfe Method and apparatus for livestock assessment
US7930580B2 (en) * 2007-07-11 2011-04-19 Altasens, Inc. Controlling timing dependencies in a mixed signal system-on-a-chip (SOC)
KR100943949B1 (ko) * 2007-10-09 2010-02-26 삼성모바일디스플레이주식회사 입체 카메라 시스템 및 이의 구동 방법
NZ562739A (en) * 2007-10-19 2010-04-30 Waikatolink Ltd Signal simulation apparatus and method
EP2210123A1 (en) * 2007-11-14 2010-07-28 Raytheon Company System and method for precision collaborative targeting
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US8624744B2 (en) * 2008-01-22 2014-01-07 Delaval Holding Ab Arrangement and method for determining positions of the teats of a milking animal
KR101335346B1 (ko) 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
KR101494344B1 (ko) 2008-04-25 2015-02-17 삼성전자주식회사 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법
AU2009271840B2 (en) 2008-07-15 2014-02-06 Lely Patent N.V. Dairy animal treatment system
GB0813320D0 (en) * 2008-07-21 2008-08-27 Autotrakker Ltd Cargo measurement
LU91464B1 (de) * 2008-07-28 2010-01-29 Lion Systems S A Verfahren und vorrichtung zum erhöhen der auflösung einer Kamera
DE102008035384A1 (de) * 2008-07-29 2010-02-04 Gea Westfaliasurge Gmbh Verfahren und Vorrichtung zum Ansetzen eines Melkbechers an eine Zitze eines Tieres
JP5585903B2 (ja) * 2008-07-30 2014-09-10 国立大学法人静岡大学 距離画像センサ、及び撮像信号を飛行時間法により生成する方法
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
GB2466497B (en) 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
WO2010098954A2 (en) 2009-02-27 2010-09-02 Body Surface Translations, Inc. Estimating physical parameters using three dimensional representations
CN102341085B (zh) 2009-03-06 2014-02-12 阿特雷奥医疗公司 对在表面上的cpr的按压参数的测量
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
KR101613133B1 (ko) * 2009-05-14 2016-04-18 삼성전자주식회사 3차원 영상 처리 장치 및 그 방법
US8376595B2 (en) 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US10335346B2 (en) * 2009-07-22 2019-07-02 Physio-Control Canada Sales Ltd. Optical techniques for the measurement of chest compression depth and other parameters during CPR
US20110285981A1 (en) * 2010-05-18 2011-11-24 Irvine Sensors Corporation Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR
US8681124B2 (en) 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US9645681B2 (en) 2009-09-23 2017-05-09 Pixart Imaging Inc. Optical touch display system
NO20093315A1 (no) * 2009-11-11 2011-05-12 Laerdal Medical As Metode og system for a male parametre for brystkasse, spesielt ved hjertelungeredning
US8638425B2 (en) * 2009-12-03 2014-01-28 Pixart Imaging Inc. Distance-measuring device with increased signal-to-noise ratio and method thereof
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
EP2378310B1 (en) 2010-04-15 2016-08-10 Rockwell Automation Safety AG Time of flight camera unit and optical surveillance system
US20110267264A1 (en) * 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
GB2494081B (en) 2010-05-20 2015-11-11 Irobot Corp Mobile human interface robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8428394B2 (en) 2010-05-25 2013-04-23 Marcus KRIETER System and method for resolving spatial orientation using intelligent optical selectivity
US9161511B2 (en) 2010-07-06 2015-10-20 Technologies Holdings Corp. Automated rotary milking system
US8587771B2 (en) * 2010-07-16 2013-11-19 Microsoft Corporation Method and system for multi-phase dynamic calibration of three-dimensional (3D) sensors in a time-of-flight system
TW201205449A (en) * 2010-07-20 2012-02-01 Hon Hai Prec Ind Co Ltd Video camera and a controlling method thereof
US9760123B2 (en) 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
US10111401B2 (en) 2010-08-31 2018-10-30 Technologies Holdings Corp. System and method for determining whether to operate a robot in conjunction with a rotary parlor
US9149018B2 (en) 2010-08-31 2015-10-06 Technologies Holdings Corp. System and method for determining whether to operate a robot in conjunction with a rotary milking platform based on detection of a milking claw
US8800487B2 (en) 2010-08-31 2014-08-12 Technologies Holdings Corp. System and method for controlling the position of a robot carriage based on the position of a milking stall of an adjacent rotary milking platform
US8720382B2 (en) 2010-08-31 2014-05-13 Technologies Holdings Corp. Vision system for facilitating the automated application of disinfectant to the teats of dairy livestock
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
KR101697519B1 (ko) 2010-09-08 2017-01-19 삼성전자주식회사 깊이 센싱 장치 및 방법
KR101031591B1 (ko) * 2010-11-17 2011-04-27 주식회사 룩센테크놀러지 고속 대면적 광자 계수형 엑스선 동영상 센서, 이를 포함하는 엑스선 동영상 촬상 시스템 및 픽셀 데이터 독출 방법
KR101798063B1 (ko) 2010-12-14 2017-11-15 삼성전자주식회사 조명 광학계 및 이를 포함하는 3차원 영상 획득 장치
KR101691156B1 (ko) 2010-12-14 2016-12-30 삼성전자주식회사 조명 광학계와 결상 광학계가 통합된 광학계 및 이를 포함하는 3차원 영상 획득 장치
DE112011104645T5 (de) 2010-12-30 2013-10-10 Irobot Corp. Mobiler Mensch-Schnittstellen-Roboter
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US9194943B2 (en) 2011-04-12 2015-11-24 Magna Electronics Inc. Step filter for estimating distance in a time-of-flight ranging system
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US9357744B2 (en) 2011-04-28 2016-06-07 Technologies Holdings Corp. Cleaning system for a milking box stall
US9043988B2 (en) 2011-04-28 2015-06-02 Technologies Holdings Corp. Milking box with storage area for teat cups
US9681634B2 (en) 2011-04-28 2017-06-20 Technologies Holdings Corp. System and method to determine a teat position using edge detection in rear images of a livestock from two cameras
US9058657B2 (en) 2011-04-28 2015-06-16 Technologies Holdings Corp. System and method for filtering data captured by a 3D camera
US10127446B2 (en) 2011-04-28 2018-11-13 Technologies Holdings Corp. System and method for filtering data captured by a 2D camera
US9215861B2 (en) 2011-04-28 2015-12-22 Technologies Holdings Corp. Milking box with robotic attacher and backplane for tracking movements of a dairy animal
US9049843B2 (en) 2011-04-28 2015-06-09 Technologies Holdings Corp. Milking box with a robotic attacher having a three-dimensional range of motion
US9161512B2 (en) 2011-04-28 2015-10-20 Technologies Holdings Corp. Milking box with robotic attacher comprising an arm that pivots, rotates, and grips
US8885891B2 (en) 2011-04-28 2014-11-11 Technologies Holdings Corp. System and method for analyzing data captured by a three-dimensional camera
US8903129B2 (en) 2011-04-28 2014-12-02 Technologies Holdings Corp. System and method for filtering data captured by a 2D camera
US8746176B2 (en) 2011-04-28 2014-06-10 Technologies Holdings Corp. System and method of attaching a cup to a dairy animal according to a sequence
US9107378B2 (en) 2011-04-28 2015-08-18 Technologies Holdings Corp. Milking box with robotic attacher
US9107379B2 (en) 2011-04-28 2015-08-18 Technologies Holdings Corp. Arrangement of milking box stalls
US9258975B2 (en) 2011-04-28 2016-02-16 Technologies Holdings Corp. Milking box with robotic attacher and vision system
US8671885B2 (en) 2011-04-28 2014-03-18 Technologies Holdings Corp. Vision system for robotic attacher
US10357015B2 (en) 2011-04-28 2019-07-23 Technologies Holdings Corp. Robotic arm with double grabber and method of operation
US8683946B2 (en) 2011-04-28 2014-04-01 Technologies Holdings Corp. System and method of attaching cups to a dairy animal
US9265227B2 (en) 2011-04-28 2016-02-23 Technologies Holdings Corp. System and method for improved attachment of a cup to a dairy animal
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9269152B1 (en) * 2011-09-07 2016-02-23 Amazon Technologies, Inc. Object detection with distributed sensor array
KR101854188B1 (ko) 2011-10-25 2018-05-08 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
KR101955334B1 (ko) 2012-02-07 2019-03-07 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US9030253B1 (en) 2012-05-30 2015-05-12 Altera Corporation Integrated circuit package with distributed clock network
US8860930B2 (en) 2012-06-02 2014-10-14 Richard Kirby Three dimensional surface mapping system using optical flow
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
TWI684031B (zh) 2012-07-16 2020-02-01 美商唯亞威方案公司 光學濾波器及感測器系統
TW201423965A (zh) 2012-08-03 2014-06-16 Univ Shizuoka Nat Univ Corp 半導體元件及固體攝像裝置
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
KR101858577B1 (ko) 2012-10-10 2018-05-16 삼성전자주식회사 결상 광학계 및 이를 포함하는 3차원 영상 획득 장치
US9402067B2 (en) 2012-10-22 2016-07-26 Samsung Electronics Co., Ltd. Imaging optical system for 3D image acquisition apparatus, and 3D image acquisition apparatus including the imaging optical system
DE102012110538B4 (de) * 2012-11-05 2019-11-21 Odos Imaging Ltd. Vorrichtung und Verfahren zum Messen von Abstandswerten und Abstandsbildern
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
KR102061699B1 (ko) 2013-06-19 2020-01-02 삼성전자주식회사 이미지 센서, 이를 포함하는 이미지 처리 시스템 및 이의 동작 방법
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
DE102013108824A1 (de) * 2013-08-14 2015-02-19 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
CN103472457B (zh) * 2013-09-13 2015-06-10 中国科学院空间科学与应用研究中心 稀疏孔径压缩计算关联飞行时间的三维成像系统及方法
CN103472455B (zh) * 2013-09-13 2015-05-06 中国科学院空间科学与应用研究中心 稀疏孔径压缩计算关联飞行时间四维光谱成像系统及方法
US9543965B1 (en) 2013-10-04 2017-01-10 Altera Corporation Interposer with embedded clock network circuitry
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
CN104020461B (zh) * 2014-05-06 2017-01-04 南京大学 一种基于tdc算法的激光内光路矫正方法
US10502834B2 (en) 2014-09-29 2019-12-10 Politecnico Di Milano Method and device for detecting the form of sails
US9578311B2 (en) * 2014-10-22 2017-02-21 Microsoft Technology Licensing, Llc Time of flight depth camera
KR102317329B1 (ko) 2015-01-02 2021-10-26 삼성전자주식회사 광 스캐닝 프로브 및 이를 이용한 3차원 데이터 생성 장치
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
EP3198350B1 (en) * 2015-03-31 2021-11-10 SZ DJI Technology Co., Ltd. System and method for mobile platform operation
DE102015120534A1 (de) * 2015-11-26 2017-06-01 Valeo Schalter Und Sensoren Gmbh Anordnung wenigstens eines optischen Empfängers einer Sende- und Empfangseinrichtung einer nach einem Lichtimpulslaufzeitverfahren arbeitenden optischen Messvorrichtung
US10191154B2 (en) 2016-02-11 2019-01-29 Massachusetts Institute Of Technology Methods and apparatus for time-of-flight imaging
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10190983B2 (en) 2016-04-15 2019-01-29 Massachusetts Institute Of Technology Methods and apparatus for fluorescence lifetime imaging with pulsed light
KR102076478B1 (ko) * 2017-10-23 2020-04-07 주식회사 유진로봇 이동성 거울을 이용한 광 송수신기, 3차원 거리 측정 장치, 및 이동체
US10928489B2 (en) 2017-04-06 2021-02-23 Microsoft Technology Licensing, Llc Time of flight camera
WO2019014494A1 (en) * 2017-07-13 2019-01-17 Apple Inc. EARLY-DELAYED PULSE COUNTING FOR DEPTH SENSORS EMITTING LIGHT
US10215856B1 (en) 2017-11-27 2019-02-26 Microsoft Technology Licensing, Llc Time of flight camera
WO2019127539A1 (en) * 2017-12-29 2019-07-04 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for determining region of interest in medical imaging
CN111542827B (zh) 2017-12-29 2021-09-28 上海联影医疗科技股份有限公司 一种患者定位的系统和方法
US10901087B2 (en) 2018-01-15 2021-01-26 Microsoft Technology Licensing, Llc Time of flight camera
US10942274B2 (en) 2018-04-11 2021-03-09 Microsoft Technology Licensing, Llc Time of flight and picture camera
US10895640B2 (en) 2018-04-27 2021-01-19 Raytheon Company Digital active optical target detection system
CN110824599B (zh) 2018-08-14 2021-09-03 白金科技股份有限公司 一种红外带通滤波器
US10895925B2 (en) 2018-10-03 2021-01-19 Microsoft Technology Licensing, Llc Touch display alignment
US11435476B2 (en) 2018-10-12 2022-09-06 Microsoft Technology Licensing, Llc Time-of-flight RGB-IR image sensor
EP3683599B1 (de) * 2019-01-16 2022-06-22 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur optischen abstandsmessung
US11079515B2 (en) 2019-12-18 2021-08-03 Microsoft Technology Licensing, Llc Micro lens time-of-flight sensor having micro lens heights that vary based on image height
JP2021110697A (ja) * 2020-01-15 2021-08-02 ソニーセミコンダクタソリューションズ株式会社 観測装置、観測方法、測距システム
US11796715B2 (en) 2020-06-24 2023-10-24 Sloan Valve Company Hybrid time-of-flight sensor and IR sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198378A (ja) * 1983-04-27 1984-11-10 Nissan Motor Co Ltd 光レ−ダ装置
WO1999034235A1 (de) * 1997-12-23 1999-07-08 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4764982A (en) * 1962-07-02 1988-08-16 Pfund Charles E Secure communication system
US4277167A (en) * 1976-08-25 1981-07-07 The United States Of America As Represented By The Secretary Of The Navy Depth mapping system
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
DE3404396A1 (de) * 1984-02-08 1985-08-14 Dornier Gmbh, 7990 Friedrichshafen Vorrichtung und verfahren zur aufnahme von entfernungsbildern
US5001764A (en) * 1988-03-25 1991-03-19 Texas Instruments Incorporated Guardbands for pattern inspector
US5027132A (en) * 1988-03-25 1991-06-25 Texas Instruments Incorporated Position compensation of laser scan for stage movement
US5446529A (en) * 1992-03-23 1995-08-29 Advanced Scientific Concepts, Inc. 3D imaging underwater laser radar
US5682229A (en) * 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
IL116438A (en) * 1995-12-18 2000-01-31 Israel State Laser sensor
US5892575A (en) * 1996-05-10 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for imaging a scene using a light detector operating in non-linear geiger-mode
US5953110A (en) * 1998-04-23 1999-09-14 H.N. Burns Engineering Corporation Multichannel laser radar
US6137566A (en) * 1999-02-24 2000-10-24 Eoo, Inc. Method and apparatus for signal processing in a laser radar receiver

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198378A (ja) * 1983-04-27 1984-11-10 Nissan Motor Co Ltd 光レ−ダ装置
WO1999034235A1 (de) * 1997-12-23 1999-07-08 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004525351A (ja) * 2000-12-11 2004-08-19 カネスタ インコーポレイテッド 量子効率変調を用いたcmosコンパチブルの三次元イメージセンシングのためのシステム
JP2007526448A (ja) * 2003-06-17 2007-09-13 カネスタ インコーポレイテッド 三次元及び色彩検出における電荷管理のための方法及び装置
JP2008511968A (ja) * 2003-10-13 2008-04-17 ノーブル ピーク ヴィジョン コーポレーション シリコン基板およびシリコン回路と一体化された分離されたゲルマニウム光検出器を備えるイメージ・センサ
JP2005235893A (ja) * 2004-02-18 2005-09-02 National Univ Corp Shizuoka Univ 光飛行時間型距離センサ
JP2007536529A (ja) * 2004-05-05 2007-12-13 レイセオン カンパニー インパルス無線周波数信号による3次元画像の生成
US8587709B2 (en) 2008-07-31 2013-11-19 National University Corporation Shizuoka University High-speed charge-transfer photodiode, a lock-in pixel, and a solid-state imaging device
JP2011530097A (ja) * 2008-08-03 2011-12-15 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. ローリングカメラシステム
US8338248B2 (en) 2008-12-25 2012-12-25 National University Corporation Shizuoka University Semiconductor element and solid-state imaging device
US9231006B2 (en) 2009-10-05 2016-01-05 National University Corporation Shizuoka University Semiconductor element and solid-state imaging device
US11558572B2 (en) 2012-02-17 2023-01-17 Canon Kabushiki Kaisha Photoelectric conversion apparatus and image pickup system
KR101502122B1 (ko) * 2013-09-27 2015-03-13 주식회사 비욘드아이즈 깊이 정보를 생성하는 이미지 센서
WO2015046735A1 (ko) * 2013-09-27 2015-04-02 주식회사 비욘드아이즈 깊이 정보를 생성하는 이미지 센서
JP2015081769A (ja) * 2013-10-21 2015-04-27 シャープ株式会社 光学式物体位置検出装置
JP2015172551A (ja) * 2014-03-12 2015-10-01 スタンレー電気株式会社 距離画像生成装置および距離画像生成方法
JP2016211881A (ja) * 2015-04-30 2016-12-15 株式会社デンソー 光飛行時間測定装置及び光学的測距装置
JP2019536301A (ja) * 2016-11-17 2019-12-12 ノースロップ グルマン システムズ コーポレーションNorthrop Grumman Systems Corporation 画素データとノイズ信号の比較をオーバーサンプリングすることによる画素情報リカバリ
JP6994501B2 (ja) 2016-11-17 2022-01-14 ノースロップ グルマン システムズ コーポレーション 画素データとノイズ信号の比較をオーバーサンプリングすることによる画素情報リカバリ
WO2020153182A1 (ja) * 2019-01-25 2020-07-30 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び光検出装置の駆動方法、並びに、測距装置
JP2021004760A (ja) * 2019-06-25 2021-01-14 ファナック株式会社 外光照度測定機能を備えた測距装置及び外光照度測定方法
JP7401211B2 (ja) 2019-06-25 2023-12-19 ファナック株式会社 外光照度測定機能を備えた測距装置及び外光照度測定方法
JP2021048599A (ja) * 2020-11-18 2021-03-25 キヤノン株式会社 光電変換装置および撮像システム
JP7286605B2 (ja) 2020-11-18 2023-06-05 キヤノン株式会社 光電変換装置および撮像システム

Also Published As

Publication number Publication date
EP1218692A1 (en) 2002-07-03
US6323942B1 (en) 2001-11-27
KR20020067032A (ko) 2002-08-21
AU4018901A (en) 2001-04-24
WO2001022033A1 (en) 2001-03-29
EP1218692A4 (en) 2002-12-04

Similar Documents

Publication Publication Date Title
JP2003510561A (ja) Cmos互換3次元画像センサic
US7379163B2 (en) Method and system for automatic gain control of sensors in time-of-flight systems
US6522395B1 (en) Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS
JP4488170B2 (ja) 三次元距離画像を記録するための方法及び装置
US10401147B2 (en) Dimensioning system
JP5325420B2 (ja) 対象物を画像化する方法、対象物の画像化の方法、対象物の3次元画像を作成するシステム、3次元対象物を画像化する装置、装置を較正する方法
US7834985B2 (en) Surface profile measurement
US7379100B2 (en) Method and system to increase dynamic range of time-of-flight (TOF) and/or imaging sensors
CN110221274B (zh) 时间飞行深度相机及多频调制解调的距离测量方法
WO2021051480A1 (zh) 一种动态直方图绘制飞行时间距离测量方法及测量系统
CN110221273B (zh) 时间飞行深度相机及单频调制解调的距离测量方法
WO2021051481A1 (zh) 一种动态直方图绘制飞行时间距离测量方法及测量系统
CA2716980C (en) Light-integrating rangefinding device and method
US20220043129A1 (en) Time flight depth camera and multi-frequency modulation and demodulation distance measuring method
US11733359B2 (en) Configurable array of single-photon detectors
König Optimized distance measurement with 3D-CMOS image sensor and real-time processing of the 3D Data for applications in automotive and safety engineering
JP2000346626A (ja) 3次元画像入力装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101008

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101018

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110630