JP2020514713A - 機械知覚のためのシステム及び方法 - Google Patents

機械知覚のためのシステム及び方法 Download PDF

Info

Publication number
JP2020514713A
JP2020514713A JP2019535248A JP2019535248A JP2020514713A JP 2020514713 A JP2020514713 A JP 2020514713A JP 2019535248 A JP2019535248 A JP 2019535248A JP 2019535248 A JP2019535248 A JP 2019535248A JP 2020514713 A JP2020514713 A JP 2020514713A
Authority
JP
Japan
Prior art keywords
cameras
transmitter
photons
objects
instructing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019535248A
Other languages
English (en)
Other versions
JP7329444B2 (ja
Inventor
ジェラルド ディルク スミッツ
ジェラルド ディルク スミッツ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2020514713A publication Critical patent/JP2020514713A/ja
Application granted granted Critical
Publication of JP7329444B2 publication Critical patent/JP7329444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

1又は2以上の物体の位置を決定するシステムは、フォトンのビームを発して1又は2以上の物体の領域を順次的に照明するための送信機と、フォトンを検出するためのピクセルのアレイを各々が有し互いに離間して配置された複数のカメラと、格納された命令を実行して方法の動作を行う1又は2以上のプロセッサデバイスとを含み、本方法が、フォトンのビームで1又は2以上の物体の領域を順次的に照明するよう送信機に指示する段階と、領域の各々に対して、カメラから1又は2以上の物体の領域によって反射又は散乱されたビームのフォトンを検出した各ピクセルのアレイ位置を受信する段階と、カメラによって検出された領域の各々に対して、当該領域によって反射又は散乱されたビームのフォトンを検出したピクセルの受信されたアレイ位置を用いて領域の位置を決定する段階と、を含む。【選択図】図1

Description

関連出願の相互参照
本出願は、2016年12月27日に以前に出願された米国仮特許出願米国連番第62/498,534号明細書、及び2017年10月10日に出願された米国仮特許出願米国連番第62/606、879号明細書に基づく実用特許出願であり、本件の出願日の利益は、35U.S.C.§119(e)の規定により本明細書で主張され、各々が全体的に引用により組み入れられる。
本発明は、一般的には、画像化システム並びに画像化システムを実施及び使用する方法に関する。本発明はまた、各ボクセルの順次的照明及び複数の受信機を用いた検出を備えた順次的ボクセル画像化システムに関する。
従来の多くの画像化システムは、一連の静止画像として3Dモーションリアリティを取り込もうとしている。画像はフレームとして取り込まれ、すなわち、共有時間期間にわたって並行して取り込まれる数百万のピクセルから構成されるバッチ観測である。フレームとして画像を扱うことによって、従来のマルチビューシステムはフォトンスターベーションとモーションぼけの間のホブソンの選択を強いられる可能性があり、空間−時間的曖昧さとコンピューテーションの複雑さを結果として生じる。従来のフレームベースのモーションキャプチャシステムのレガシーの例は、ステレオカメラ、構造化光3D知覚システム、及びモーションシステムからの構造である。
十分なフォトンが各カメラの数百万のピクセルの最小信号要件を満足できるようにするために、シャッターによって制御されるフレーム露出期間は一般的には数ミリ秒である。各ピクセルは、一般的には、少なくとも100フォトンを必要とし、10メガピクセルカメラで単一のフレームを最小限露出するために少なくとも膨大な数のフォトンを必要とし、これは通常の照明状態の下では数ミリ秒かかる。
この時間期間の間の何れのモーションも重大なモーションのぼけを起こすことがある。例えば、1ミリ秒露出に対して、10m/秒の中程度の速度(22.5mph)の4Kセンサの4メートル視野(FoV)を横断する物体の端が1msで10mm動き、10ピクセルのモーションのぼけを起こす(すなわち、モーションはシステムの空間解像度を1/10、又は4kの代わりにカメラのFoVにわたって400ピクセルだけに効率的に低減する)。短い露出はこのぼけを低減するが、これらは、端及び形の検出が難しくなるようなコントラストを大幅に低減するフォトンの不足を結果として生じる。例えば、1/10露出時間は、フォトンバジェットを3フォトンの固有の(例えば、ポワゾンフラクチュエーション)ノイズを持つ10フォトン(100フォトンの1/10)に低減する(すなわち、33%信号対雑音比)。大きなアパーチャは、一般的には、大きく高価なセンサ及びオプティクスを含み、システムのフォーカスの深度を低減する。
従来のマルチビューシステムは、エッジコントラストが極めて欠落した、ぼけ又は露光不足のノイズの多いモーション画像を生成する可能性がある。これは、推測的で誤りの多い特徴マッチを結果として生じる可能性がある。後者は、SIFT及び勾配降下法などの従来の特徴マッチングアルゴリズムを妨げる統計的グロスアウトライヤーを形成し、RanSacなどのコンピュータ的に強力なアウトライヤー拒絶アルゴリズムを必要とする。多くの従来のマルチビュー知覚システムにおけるフレーム毎の方式は第2の主要な欠点を有し、これは、カメラの数(N)と1つのカメラ当たりのピクセルの数(M)を有する(MN)の大きさで指数的に第2オーダーを増加させる固有のコンピューテーションの複雑さを結果として生じる。
フレームベースのマルチビューシステムでは、ビュー又はピクセルの追加は、コンピューテーションの過負荷を直ちに生じることがあり、大量のセットアップ及び較正問題が付きまとう。複数の画像間の正確なピクセルレベル対応を設定する時に特にコンピューテーション問題が生じる。例えば、3カメラシステム(N=3)における正確な密度(ピクセルレベル)対応の設定は、重なり合う10メガピクセルの間の最大百万の3方向対応を並べ替え捜し出す段階を要求することがあり、これはコンピュ―テーション的に複雑である(例えば、1021可能ピクセル−ピクセル−ピクセル組み合わせ(MN=107x3)を介したサーチ及び並べ替え)。
米国仮特許出願米国連番第62/498,534号明細書 米国仮特許出願米国連番第62/606、879号明細書
オーダー(MN)の同様のコンピュ―テーション的複雑さがモーションからの構造(SfM)システムに生じ、ここで連続するフレーム間の画像(又はピクセル)対応を複数のフレームを通じて発見及び追跡する必要がある。
本発明の様々な実施形態を実施できる例示的環境の実施形態を示す図である。 図1に示すようなシステムに含めることができる例示的モバイルコンピュータの実施形態を示す図である。 図1に示すようなシステムに含めることができる例示的ネットワークコンピュータの実施形態を示す図である。 例示的位置決定システムの一部分の平面図の実施形態を示す図である。 順次的に照明を用いた位置決定の例示的方法の論理的流れ図の実施形態を示す図である。 4つのポイントの照明及び3つのカメラを用いた検出の実施形態を示す図である。 例示的アレイ位置ベクトルを示す例示的位置決定システムの一部分の平面図の実施形態を示す図である。 例示的アレイ位置ベクトルを示す例示的位置決定システムの一部分の平面図の別の実施形態を示す図である。 モータ車両における例示的位置決定システムの実施形態を示す図である。 モータ車両における例示的位置決定システムの別の実施形態を示す図である。 拡張現実(AR)タイプの頭部装着ディスプレイ(HMD)システムにおける例示的位置決定システムの第3の実施形態を示す図である。 2つの送信機を用いた例示的位置決定システムの一部分の実施形態を示す図である。 手持式送信機及び手持式モニタリングデバイスを用いた例示的位置決定システムの実施形態を示す図である。 支援ステレオ構成における例示的位置決定システムの実施形態を示す図である。 頭部装着構成における例示的位置決定システムの実施形態を示す図である。 2つのスキャナ又はプロジェクタを用いた例示的位置決定方法の実施形態を示す図である。 2つのスキャナ又はプロジェクタを用いた例示的位置決定方法の実施形態を示す図である。 2つのスキャナ又はプロジェクタを用いた例示的位置決定方法の実施形態を示す図である。 2つのスキャナ又はプロジェクタを用いた例示的位置決定方法の実施形態を示す図である。 2つのスキャナ又はプロジェクタを用いた例示的位置決定方法の実施形態を示す図である。 2つのスキャナ又はプロジェクタを用いた例示的位置決定方法の実施形態を示す図である。 位置決定システムを組み入れた例示的ロボット又は他のデバイスの実施形態を示す図である。 例示的基準追跡システムの実施形態を示す図である。 例示的基準追跡システムの実施形態を示す図である。 ビーム軌跡マニホールド及び走査物体マニホールドを備えた例示的位置決定システムの実施形態を示す図である。 例示的な確率的通知マルチビューカメラオーバーラップシステムの実施形態を示す図である。 例示的ホログラフィックビデオキャプチャシステムの実施形態を示す図である。 例示的目標選択的3D基準モニタリングシステムの実施形態を示す図である。 例示的目標選択的3D基準モニタリングシステムの実施形態を示す図である。 カラー照明を利用した例示的位置決定システムの実施形態を示す図である。 位置決定システムを備えた例示的車両の実施形態を示す図である。 カメラのスワップアウトを可能にする例示的位置決定システムの実施形態を示す図である。 プロジェクタによって生成される光ビーム軌跡の1つの実施形態を示す図である。 走査及び予測された軌跡部分を備えた1つの光ビーム軌跡の実施形態を示す図である。 表面上の走査パターン及び異なるカメラ視野から観測されるパターンを投影するプロジェクタの応用の実施形態を示す図である。 カメラのピクセルによる検出事象のトレール及びこのトレールに基づくフォトンビームの軌跡の補間の実施形態を示す図である。 カメラ1のピクセルによる検出事象のトレール及びこのトレールに基づくフォトンビームの軌跡の補間の別の実施形態を示す図である。 カメラ2のピクセルによる検出事象のトレール及びこのトレールに基づくフォトンビームの軌跡の補間の別の実施形態を示す図である。 図24A及び図24B(回転)のトレール及び軌跡のオーバレイを示す図である。
特定の実施形態によって実施することができる本発明の一部を形成し且つ例証によって本発明を示す添付の図面に関して様々な実施形態を以下に詳しく説明する。しかしながら、実施形態は、多くの異なる形式で実施でき且つ本明細書に示す実施形態に制限されるものとして解釈すべきではなく、逆にこれらの実施形態は本開示が詳細で完全なものになるよう提供され、当技術に精通した業者に実施形態の範囲を完全に伝えるものとする。とりわけ、様々な実施形態は、方法、システム、媒体、又はデバイスとすることができる。従って、様々な実施形態は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、又はソフトウェアとハードウェアの態様を組み合わせた実施形態の形式を取ることができる。従って以下の詳細な説明は制限の意味に捉えるべきではない。
本明細書及び請求項を通して、以下の用語は、本文脈が他に明確に指示しない限り本明細書に明示的に関連付けられる意味を取る。本明細書で用いる「1実施形態では」という句は、同じ実施形態を示すことができるが必ずしも同じ実施形態を指すとは限らない。本明細書で用いる「別の実施形態では」という句は、異なる実施形態を示すことができるが必ずしも異なる実施形態を指すとは限らない。従って、以下に説明するように、本発明の様々な実施形態は、本発明の範囲又は精神から逸脱することなく容易に組み合わせることができる。
加えて、本明細書で用いる「or」という語は、本文脈が他に明確に指示しない限り、包括的な「or」演算子であり、「and/or」という語と同等である。「に基づいて」という語は、本文脈が他に明確に指示しない限り、排他的であり且つ記述していない追加の要素に基づくことを可能にする。加えて、本明細書全体を通して、「a」、「an」、及び「the」は複数の引用を含む。「in」の意味は「in」及び「on」を含む。
本明細書で用いる「フォトンビーム」、「光ビーム」、「電磁ビーム」、「画像ビーム」、又は「ビーム」という語は、EMスペクトラム内の様々な周波数又は波長のフォトン又は電磁(EM)波の幾分ローカライズされた(時間的及び空間的)ビーム又はバンドルを指す。出射光ビームは、本明細書で開示する様々な実施形態の様々なものによって送信されるビームである。入射光ビームは、本明細書で開示する様々な実施形態の様々なものによって検出されるビームである。
本明細書で用いる「光源」、「フォトン源」、又は「ソース」という語は、EMスペクトラム内の1又は2以上の波長又は周波数の1又は2以上のフォトン又はEM波を発する、提供する、送信する、又は生成することができる様々なデバイスを指す。光又はフォトン源は、1又は2以上の出射光ビームを送信することができる。フォトン源は、レーザ、発光ダイオード(LED)、有機発光ダイオード(OLED)、光バルブなどとすることができる。フォトン源は、原子又は分子の刺激放出、白熱処理、又はEM波又は1又は2以上のフォトンを生成する様々な他の機構を介してフォトンを生成することができる。フォトン源は、事前に決められた周波数の連続又はパルス出射光ビーム、又は周波数の範囲を提供することができる。出射光ビームはコヒーレントな光ビームとすることができる。光源によって発せられたフォトンは、様々な波長又は周波数とすることができる。
本明細書で用いる「受信機」、「フォトン受信機」、「フォトン検出器」、「光検出器」、「検出器」、「フォトンセンサ」、「光センサ」、又は「センサ」という語は、EMスペクトラムの1又は2以上の波長又は周波数の1又は2以上のフォトンの存在を検知する様々なデバイスを指す。フォトン検出器は、複数のフォトン検出又は検知ピクセルの配列などのフォトン検出器のアレイを含むことができる。ピクセルの1又は2以上は、1又は2以上のフォトンの吸収を検知するフォトセンサとすることができる。フォトン検出器は、1又は2以上のフォトンの吸収に応じて信号を生成することができる。フォトン検出器は、ピクセルの1次元(1D)アレイを含むことができる。しかし他の実施形態では、フォトン検出器は少なくともピクセルの2次元(2D)アレイを含むことができる。ピクセルは、能動ピクセルセンサ(APS)、電荷結合素子(CCD)、単一フォトンアバランシェ検出器(SPAD)(アバランシェモード又はガイガーモードで作動)、相補型金属酸化膜半導体(CMOS)デバイス、シリコン光電子増倍管(SiPM)、光電池セル、光トランジスタ、トゥイッチーピクセルなどの様々なフォトン検知技術を含むことができる。フォトン検出器は1又は2以上の入射光ビームを検出することができる。
本明細書で用いる「目標」という語は、入射光、EM波、又はフォトンの少なくとも一部分を反射又は散乱する1又は2以上の様々な2D又は3D本体である。目標は、「物体」を指すこともできる。例えば、目標又は物体は、本明細書で開示する様々な実施形態の様々なものによって送信される出射光ビームを散乱又は反射することができる。本明細書で説明する様々な実施形態では、1又は2以上の光源は、受信機の1又は2以上及び/又は1又は2以上の目標又は物体に対して相対的に動くものとすることができる。同様に、1又は2以上の受信機は、光源の1又は2以上及び/又は1又は2以上の目標又は物体に対して相対的に動くものとすることができる。1又は2以上の目標又は物体は、光源の1又は2以上及び/又は1又は2以上の受信機に対して相対的に動くものとすることができる。
本明細書で用いる「ボクセル」という語は、3D空間マニホールド(例えば、3D型表面)のサンプル表面要素である。
以下は、本発明の一部の態様の基本的な理解を提供するために本発明の実施形態を簡潔に説明する。この簡潔な説明は、広範囲に及ぶ概要として意図するものではない。基本的な又は重要な要素の識別、又は範囲を描写する又はそうでなければ狭めることを意図するものではない。この目的は、単に、後で提示される詳細な説明の前置きとして単純化形式で一部の概念を提示することにある。
簡潔に述べると、様々な実施形態は、1又は2以上の物体の位置を決定する方法又はシステムに向けられる。この方法又はシステムは、物体の領域(又はボクセル)を順次的に照明するためにフォトンのビームを発するためのビーム配列を用いる。この方法及びシステムは、互いに離間して配置された複数のカメラを含み、各カメラは、ピクセルによって受け取られたフォトンを検出する、且つ特に照明された物体によって反射又はそうでなければ散乱されたビームからのフォトンを検出するためのピクセルのアレイを有する。(「反射する」という語が本明細書で用いられるが、この語は、他に指示がない限り、他の光散乱機構を包含することを意図されることが理解されるであろう。)このシステムは、フォトンのビームで物体の領域又はボクセルを順次的に照明するためのビーム配列を向ける。これらの照明される領域の各々に対して、カメラの1又は2以上(好ましくは、少なくとも2又は3)は、この領域によって反射又はそうでなければ散乱されたフォトンを検出し、次にカメラが1又は2以上の物体の領域によって反射又は散乱されたビームのフォトンを検出した画像のアレイ位置を提供する。これらのアレイ位置を用いて物体の領域の位置を決定することができる。
少なくとも一部の実施形態では、このピクセル/ボクセルの順次画像化方式は、(照明された物体の)ボクセルの非常に急速な順次ストリームとして現実を観測する受信機(例えば、カメラ)を利用する。少なくとも一部の実施形態では、このシステム(例えば、PhotonJet VoxelFlowシステム)は、固有のナノ秒照明間隔中の各ボクセル、1度に1つのボクセルを観測する。少なくとも一部の実施形態では、この方式は、1秒当たりの数百万のボクセルの正確な3D位置データの流れを結果として生じることができる。
図示したオペレーティング環境
図1は、本発明の様々な例示的実施形態を実施することができる例示的環境の1つの実施形態の例示的構成要素を示す。本発明を実施するために構成要素の全てを必要とする訳ではなく、構成要素の構成及び種類の何れのバリエーションも、本発明の精神又は範囲から逸脱することなく行い得る。図のように、図1のシステム100は、光源を含む送信機104、複数の受信機(例えば、カメラ)106a、106b、106c、106d、及びシステムコンピュータデバイス110を含む。送信機104からのフォトンは、受信機106a、106b、106c、106dに向けてフォトンの一部を反射する1又は2以上の物体又は目標108上の領域(すなわち、ボクセル)を照明する。一部の実施形態では、システム100は、ネットワーク102、及び限定されないがラップトップコンピュータ112及び/又は限定されないがスマートフォン又はタブレット114などのモバイルコンピュータなどの1又は2以上の他のコンピュータを含むことができるか、又はこれに結合することができる。一部の実施形態では、送信機104及び/又は受信機106a、106b、106c、106dは、限定されないがコンピュータ110、112、又は114の様々なものなどのコンピュータに含まれる1又は2以上の構成要素を含むことができる。送信機104及び受信機106a、106b、106c、106dを、何れかの無線又は有線技術によってコンピュータ110、112、又は114に直接結合することができるか、又はネットワーク102を介してコンピュータ110、112、又は114に結合することができる。
物体108は3次元の物体とすることができ、何れかの数の個々の物体とすることができる。物体108は、理想的な黒い本体ではない、すなわち入射フォトンの少なくとも一部分を反射又は散乱する。
送信機104は、光又はフォトンビームを送信する1又は2以上の光源を含むことができる。適切な光源の例は、レーザ、レーザダイオード、発光ダイオード、有機発光ダイオードなどを含む。例えば、送信機104は、1又は2以上の可視及び/又は不可視レーザ源を含むことができる。少なくとも一部の実施形態では、送信機104は、赤(R)、緑(G)、又は青(B)レーザ源の1又は2以上を含む。少なくとも一部の実施形態では、光源は、近距離(NIR)又は赤外線(IR)レーザなどの1又は2以上の不可視レーザ源を含む。光源は、事前に決められた周波数、又は周波数の範囲の連続又はパルス光ビームを提供することができる。提供される光ビームはコヒーレントな光ビームとすることができる。送信機104は、限定されないが、図2のモバイルコンピュータ200及び/又は図3のネットワークコンピュータ300を含むコンピュータデバイスの特徴、構成要素、又は機能の様々なものを含むことができる。
送信機104は、送信された又は出射光ビームを向ける又はフォーカスするための光学構成要素を含む光学システムを含むことができる。この光学システムは、出射光ビームの空間的及び時間的ビームプロファイルを目指し形作ることができる。この光学システムは、出射光ビームを平行にする、扇形に広げる、又はそうでなければ操作することができる。送信機104は、物体108の上のビームとしてフォトンを走査することができる走査構成を含むことができる。
送信機104は、1又は2以上の物体108上の領域(例えば、ボクセル)を個々に走査する。ボクセルは、3D空間マニホールドのサンプル表面要素(例えば、3D型表面)として説明することができる。少なくとも一部の実施形態では、ボクセルは、比較的小さく、「ピクセルサイズ」として表すことができる。受信機(例えば、カメラ)による順次リアルタイムピクセル位置検出に結合されたボクセルの順次的に照明は、マルチビュー3D検知システムを改善することができる。本システムの性能は、複数のカメラから流れる時間順次ピクセルデータの並行ストリームの同期化コンフルエンスの配列によって「ターボチャージ」される。少なくとも一部の実施形態では、これらの順次ピクセルデータフローは、送信機104の走査レーザプローブビームの反射によって提供される時間的基準のビートに同期される。
少なくとも一部の実施形態では、較正中に短パルスのシーケンスが送信機によって任意選択的に発せられ、これによって反射された信号がカメラによって検出された時に、信号経路の「ジッタ」(例えば、センサ又は信号チェーンの差による)を、中心位置の各検出信号経路の差分到着時間を比較することによって(例えば、図15に示した事象同時並行性チェック(ECC)回路において)決定することができる。
受信機106a、106b、106c、106dは、1又は2以上のフォトン検知、又はフォトン検出のセンサピクセルのアレイを含むことができる。センサピクセルのアレイは、目標108から反射される連続又はパルス光ビームを検出する。ピクセルのアレイは、1次元アレイ又は2次元アレイとすることができる。ピクセルは、照明時に1又は数入射フォトンをアバランシェするSPADピクセル又は他のフォトセンシティブ要素を含むことができる。ピクセルは、数ナノ秒のオーダーである単一又は数フォトンを検出する場合の超高速反応時間を有することができる。ピクセルは、送信機104によって発生又は送信された周波数を検知することができ且つ他の周波数に対しては相対的に検知しない。受信機106a、106b、106c、106dは、ピクセルのアレイ全体に受信ビームを向ける及びフォーカスするための光学構成要素を含む光学システムを含むこともできる。受信機106a、106b、106c、106dは、限定されないが図2のモバイルコンピュータ200及び/又は図3のネットワークコンピュータ300を含むコンピュータデバイスの特徴、構成要素、又は機能の様々なものを含むことができる。
コンピュータデバイス110の様々な構成要素は、図2−3と共に以下に詳しく説明する(例えば、コンピュータデバイス110は、図2のモバイルコンピュータ200及び/又は図3のネットワークコンピュータ300の実施形態とすることができる)。しかしながら、簡潔には、コンピュータデバイス110は、限定されないが物体又は目標108の表面を含む1又は2以上の表面から反射されたフォトンの検出に基づいて本明細書で論じる様々な位置決定処理及び/又は方法を実行できる様々なコンピュータデバイスをバーチャルで含む。検出されたフォトン又は光ビームに基づいて、コンピュータデバイス110は、送信機104及び受信機106a、106b、106c、106dの1又は2以上の構成を改変又はそうでなければ修正することができる。コンピュータデバイス110の機能を、別のデバイスと通信することなく、送信機104、受信機106a、106b、106c、106d、又はこれらの組み合わせによって実行できることを理解すべきである。
一部の実施形態では、位置決定機能の少なくとも一部は、限定されないがラップトップコンピュータ112及び/又は限定されないがスマートフォン又はタブレット114などのモバイルコンピュータを含む他のコンピュータによって実行することができる。このようなコンピュータの様々な実施形態は、図2のモバイルコンピュータ200及び/又は図3のネットワークコンピュータ300と共に以下に詳しく説明する。
ネットワーク102は、送信機104、フォトン受信機106、追跡コンピュータデバイス110、ラップトップコンピュータ112、又はスマートフォン/タブレット114を含む他のコンピュータデバイスにネットワークコンピュータを結合するよう構成することができる。ネットワーク102は、限定されないが、USBケーブル、Bluetooth(登録商標)、Wi−Fi(登録商標)などの遠隔デバイスと通信するための有線及び/又は無線技術を含むことができる。一部の実施形態では、ネットワーク102は、ネットワークコンピュータに他のコンピューティングデバイスを結合するよう構成されたネットワークとすることができる。様々な実施形態では、デバイス間で伝送される情報は、限定されないが、プロセッサ可読命令、遠隔要求、サーバ応答、プログラムモジュール、アプリケーション、生データ、制御データ、システム情報(例えば、ログファイル)、ビデオデータ、音声データ、画像データ、テキストデータ、構造化/未構造化データなどを含む様々な種類の情報を含むことができる。一部の実施形態では、この情報は、1又は2以上の技術及び/又はネットワークプロトコルを用いてデバイス間で伝送することができる。
一部の実施形態では、このようなネットワークは、様々な有線ネットワーク、無線ネットワーク、又はこれらの様々な組み合わせを含むことができる。様々な実施形態では、ネットワーク102は、1つの電子デバイスから別の電子デバイスに情報を伝送するための様々な形態の通信技術、トポロジー、コンピュータ可読媒体などを利用することができる。例えばネットワーク102は、インターネットに加えて、LAN、WAN、パーソナルエリアネットワーク(PAN)、キャンパスエリアネットワーク、都市エリアネットワーク(MAN)、直接通信接続(ユニバーサルシリアルバス(USB)ポートなどを介した)、又はこれらの様々な組み合わせを含むことができる。
様々な実施形態では、ネットワーク内及び/又はネットワーク間の通信リンクは、限定されないが、ツイストペア線、光ファイバ、オープンエアレーザ、同軸ケーブル、一般電話サービス(POTS)、導波、音響、フル又はフラクショナル専用デジタル回線(T1、T2、T3、又はT4など)、E電話会社、総合デジタル通信網(ISDN)、デジタル加入者回線(DSL)、無線リンク(衛星リンクを含む)、又は他のリンク及び/又は当技術に精通した業者に公知の電話会社機構を含むことができる。通信リンクは、制限なしに、例えば、DS−0、DS−1、DS−2、DS−3、DS−4、OC−3、OC−12、OC−48などを含む多種多様なデジタルシグナリング技術の様々なものを用いることができる。一部の実施形態では、ルータ(又は他の中間ネットワークデバイス)は、異なるアーキテクチャ及び/又はプロトコルに基づくものを含む様々なネットワーク間のリンクとして作用し、1つのネットワークから別のネットワークに情報が転送されるようにする。他の実施形態では、遠隔コンピュータ及び/又は他の関係のある電子デバイスをモデム及び一時的電話リンクを介してネットワークに接続することができる。基本的には、ネットワーク102は、情報がそれによってコンピュータデバイス間を移動できる様々な通信技術を含むことができる。
ネットワーク102は、一部の実施形態では、様々な携帯式ネットワークデバイス、遠隔コンピュータ、有線ネットワーク、他の無線ネットワークなどを結合するよう構成することができる様々な無線ネットワークを含むことができる。無線ネットワークは、独立型アドホックネットワークなどにオーバレイすることができる多種多様なサブネットワークの様々なものを含み、少なくともクライアントコンピュータ(例えば、ラップトップコンピュータ112又はスマートフォン又はタブレットコンピュータ114)(又は他の移動デバイス)のインフラストラクチャ指向接続を提供することができる。このようなサブネットワークは、メッシュネットワーク、無線LAN(WLAN)ネットワーク、セルラーネットワーなどを含むことができる。様々な実施形態の1又は2以上では、本発明のシステムは1つより多い無線ネットワークを含むことができる。
ネットワーク102は、複数の有線及び/又は無線通信プロトコル及び/又は技術を用いることができる。ネットワークが用いることができる通信プロトコル及び/又は技術の様々な世代の例(例えば、第3(3G)、第4(4G)、又は第5(5G))は、限定されないが、グローバル・システム・フォー・モバイル・コミュニケーション(GSM(登録商標))、ジェネラル・パケット・ラジオ・サービス(GPRS)、拡張データGSM環境(EDGE)、符号分割多元接続(CDMA)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続2000(CDMA2000)、高速ダウンリンクパケットアクセス(HSDPA)、長期進化(LTE)、ユニバーサル・モバイル・テレコミュニケーション・システム(UMTS)、進化データ最適化(Ev−DO)、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMax)、時分割多元接続(TDMA)、直交周波数分割多重化(OFDM)、超広帯域(UWB)、無線アプリケーションプロトコル(WAP)、ユーザデータグラムプロトコル(UDP)、送信制御プロトコル/インターネットプロトコル(TCP/IP)、オープンシステム相互接続(OSI)モデルプロトコルの様々な部分、セッション初期化プロトコル/リアルタイムトランスポートプロトコル(SIR/RTP)、ショートメッセージサービス(SMS)、マルチメディアメッセージングサービス(MMS)、又は多種多様な他の通信プロトコル及び/又は技術の様々なものを含むことができる。基本的には、ネットワークは、情報が、送信機104、フォトン受信機106、及び追跡コンピュータデバイス110、並びに図示していない他のコンピュータデバイス間でそれによって移動できる通信技術を含むことができる。
様々な実施形態では、ネットワーク102の少なくとも一部分を、様々な通信リンクによって接続することができるノード、リンク、経路、端末、ゲートウェイ、ルータ、スイッチ、ファイヤウォール、ロードバランサ、フォワーダー、リピータ、光学−電気コンバータなどの自律システムとして構成することができる。これらの自律システムは、ネットワークのネットワークトポロジーを修正できるように現在の作動状態及び/又は規則ベースのポリシーに基づいて自己編成するよう構成することができる。
例示的なモバイルコンピュータ
図2は、図示した例示的構成要素より多い又は少ない構成要素を含むことができる例示的モバイルコンピュータ200の1つの実施形態を示す。モバイルコンピュータ200は、例えば、図1のシステム100のラップトップコンピュータ112、スマートフォン/タブレット114、及び/又はコンピュータ110の1又は2以上の実施形態を表すことができる。従ってモバイルコンピュータ200は、移動デバイス(例えば、スマートフォン又はタブレット)、固定/デスクトップコンピュータなどを含むことができる。
クライアントコンピュータ200は、バス206を介してメモリ204と通信するプロセッサ202を含むことができる。クライアントコンピュータ200は、電源208、ネットワークインタフェース210、プロセッサ可読固定ストレージデバイス212、プロセッサ可読取り外し可能ストレージデバイス214、入力/出力インタフェース216、カメラ218、ビデオインタフェース220、タッチインタフェース222、ハードウェアセキュリティモジュール(HSM)224、プロジェクタ226、ディスプレイ228、キーパッド230、照明器232、音声インタフェース234、全地球測位システム(GPS)送受信機236、オープンエアジェスチャインタフェース238、温度インタフェース240、触覚インタフェース242、及びポインティングデバイスインタフェース244を含むことができる。クライアントコンピュータ200は任意選択的に、基地局(図示せず)と、又は別のコンピュータと直接通信することができる。1つの実施形態では、図示していないが、クライアントコンピュータ200の向きを測定及び/又は維持するためにクライアントコンピュータ200の中でジャイロスコープを用いることができる。
電源208は、クライアントコンピュータ200に電力を供給することができる。再充電可能又は再充電不可バッテリを用いて電力を供給することができる。電力は、バッテリを補足する及び/又は再充電するACアダプタ又は給電ドッキングクレードルなどの外部電源によって提供することもできる。
ネットワークインタフェース210は、限定されないが、OSIモデル・フォー・モバイル・コミュニケーション(GSM)、CDMA、時分割多元接続(TDMA)、UDP、TCP/IP、SMS、MMS、GPRS、WAP、UWB、WiMax、SIP/RTP、GPRS、EDGE、WCDMA(登録商標)、LTE、UMTS、OFDM、CDMA2000、EV−DO、HSDPAのPSIモデルの様々な部分、又は多種多様な他の無線通信プロトコルの様々なものを実施するプロトコル及び技術を含む1又は2以上の通信プロトコル及び技術と共に使用するよう構成される。ネットワークインタフェース210は、送受信機、送受信デバイス、又はネットワークインタフェースカード(NIC)として公知であることがある。
音声インタフェース234は、人間の声の音などの音声信号を生成及び受信するよう構成することができる。例えば音声インタフェース234は、スピーカ及びマイクロフォン(図示せず)に結合して、他者との通信を可能にする及び/又はある動作の音声肯定応答を生成することができる。音声インタフェース234のマイクロフォンは、例えば、音声認識、サウンドに基づくタッチの検出などを用いてクライアントコンピュータ200への入力又は制御に使用することができる。
ディスプレイ228は、液晶ディスプレイ(LCD)、ガスプラズマ、電子インク、発光ダイオード(LED)、有機LED(OLED)又はコンピュータと共に使用できる光反射又は光透過ディスプレイの様々な他の種類とすることができる。ディスプレイ228は、スタイラスなどの物体からの入力又は人間の手からのディジットを受信するよう構成されたタッチインタフェース222を含むこともでき、抵抗性、容量性、表面音響波(SAW)、赤外線、レーダ、又は他の技術を用いてタッチ及び/又はジェスチャを検知することができる。
プロジェクタ226は、遠隔の壁又は遠隔画面などの様々な他の反射物体に画像を投影することができる遠隔手持式プロジェクタ又は一体型プロジェクタとすることができる。
ビデオインタフェース220は、静止画像、ビデオセグメント、赤外線ビデオなどのビデオ画像を取り込むよう構成することができる。例えばビデオインタフェース220は、デジタルビデオカメラ、ウェブカメラなどに結合することができる。ビデオインタフェース220は、レンズ、画像センサ、及び他の電子機器を含むことができる。画像センサは、相補型金属酸化膜半導体(CMOS)集積回路、電荷結合素子(CCD)、又は光を検知するための様々な他の集積回路を含むことができる。
キーパッド230は、ユーザからの入力を受信するよう構成された様々な入力デバイスを含むことができる。例えばキーパッド230は、プッシュボタン数字ダイヤル、又はキーボードを含むことができる。キーパッド230は、画像の選択及び送信に関連付けられるコマンドボタンを含むこともできる。
照明器232は、ステータス指示を提供する及び/又は光を提供することができる。照明器232は、特定の期間に又は事象メッセージに応答してアクティブのままにすることができる。例えば、照明器232がアクティブである場合、クライアントコンピュータが給電される間はキーパッド230のボタンをバックライトしてオンに留まることができる。照明器232は、別のクライアントコンピュータをダイヤルするなどの特定の動作が実行された場合に様々なパターンでこれらのボタンをバックライトすることができる。照明器232は、動作に応答してクライアントコンピュータの透明な又は半透明なケース内に位置付けられた光源を明るくすることができる。
クライアントコンピュータ200は、キー、デジタル証明、パスワード、パスフレーズ、2因子認証情報などのセキュリティ/暗号情報を生成、格納及び/又は使用するための追加の不正使用できないセーフガードを提供するHSM224を含むこともできる。一部の実施形態では、ハードウェアセキュリティモジュールを用いて、1又は2以上の標準的公開鍵インフラストラクチャ(PKI)を支援することができ、鍵ペアなどを生成、管理、及び/又は格納するために利用することができる。一部の実施形態では、HSM224は、独立型コンピュータとすることができ、他のケースでは、HSM224をクライアントコンピュータに追加できるハードウェアカードとして構成することができる。
クライアントコンピュータ200は、外部周辺デバイス又は他のクライアントコンピュータ及びネットワークコンピュータなどの他のコンピュータと通信するための入力/出力インタフェース216を含むこともできる。周辺デバイスは、音声ヘッドセット、仮想現実ヘッドセット、ディスプレイ画面グラス、遠隔スピーカシステム、遠隔スピーカ及びマイクロフォンシステムなどを含むことができる。入力/出力インタフェース216は、ユニバーサルシリアルバス(USB)、赤外線、Wi−Fi(商標)、WiMax、Bluetooth(登録商標)などの1又は2以上の技術を用いることができる。
入力/出力インタフェース216は、ジオロケーション(例えば、GPS)を決定する、電力状態をモニタする(例えば、電圧センサ、電流センサ、周波数センサなど)、天気をモニタする(例えば,サーモスタット、バロメータ、風力計、湿度検出器、降水スケールなど)ための1又は2以上のセンサを含むこともできる。センサは、クライアントコンピュータ200の外部にあるデータを収集及び/又は測定する1又は2以上のハードウェアセンサとすることができる。
触覚インタフェース242は、クライアントコンピュータのユーザに触知性フィードバックを提供するよう構成することができる。例えば、触覚インタフェース242を用いて、コンピュータの別のユーザが呼び出している場合に特定の方法でクライアントコンピュータ200を振動させることができる。温度インタフェース240を用いて、温度測定入力及び/又は温度変更出力をクライアントコンピュータ200のユーザに提供することができる。オープンエアジェスチャインタフェース238は、例えば、ユーザによって保持又は身に着けられたコンピュータ内部の単一の又はステレオビデオカメラ、レーダ、ジャイロスコープセンサを用いることによって、クライアントコンピュータ200のユーザの物理的ジェスチャーを検知することができる。カメラ218を用いて、クライアントコンピュータ200のユーザの物理的な眼の動きを追跡することができる。
GPS送受信機236は、一般的に緯度及び経度値として位置を出力する地球の表面上のクライアントコンピュータ200の物理座標を決定することができる。GPS送受信機236は、限定ではないが、三角測量、支援GPS(AGPS)、拡張観測時間差分(E−OTD)、セル識別子(CI)、サービスエリア識別子(SAI)、拡張タイミングアドバンス(ETA)、基地局サブシステム(BSS)などを含む他のジオポジショニング機構を用いて、地球の表面上のクライアントコンピュータ200の物理的位置を決定することができる。異なる条件下で、GPS送受信機236は、クライアントコンピュータ200の物理的位置を決定できることを理解されたい。しかし1又は2以上の実施形態では、クライアントコンピュータ200は、他の構成要素を介して、例えば、媒体アクセス制御(MAC)アドレス、IPアドレスなどを含むクライアントコンピュータの物理的位置を決定するために用いることができる他の情報を提供することができる。
ヒューマンインタフェース構成要素は、クライアントコンピュータ200への遠隔入力及び/又は出力を可能にするクライアントコンピュータ200から物理的に分離した周辺デバイスとすることができる。例えば、ディスプレイ228又はキーパッド230などのヒューマンインタフェース構成要素を介してここで説明するようにルーティングされる情報を、代わりにネットワークインタフェース210を介して遠隔に位置付けられた適切なヒューマンインタフェース構成要素にルーティングすることができる。遠隔とすることができるヒューマンインタフェース周辺構成要素の例は、限定ではないが、音声デバイス、ポインティングデバイス、キーパッド、ディスプレイ、カメラ、プロジェクタなどを含む。これらの周辺構成要素は、Bluetooth(商標)、Zigbee(商標)などのピコネットワークを通じて通信することができる。このような周辺ヒューマンインタフェース構成要素を備えたクライアントコンピュータの1つの制限ではない例は、ウェアラブルコンピュータであり、別々に位置付けられたクライアントコンピュータと遠隔で通信する1又は2以上のカメラと共に遠隔ピコプロジェクタを含み、壁又はユーザの手などの反射された表面にピコプロジェクタによって投影された画像の部分に向けてユーザのジェスチャを検知することができる。
メモリ204は、RAM、ROM、及び/又は他の種類のメモリを含むことができる。メモリ204は、コンピュータ可読命令、データ構造、プログラムモジュール又は他のデータなどの情報のストレージのためのコンピュータ可読ストレージ媒体(デバイス)の例を示す。メモリ204は、クライアントコンピュータ200の低レベル作動を制御するBIOS236を格納することができる。メモリは、クライアントコンピュータ200の作動を制御するオペレーティングシステム248を格納することもできる。この構成要素は、UNIXのバージョン、又はLINUX(商標)などの汎用オペレーティングシステム、又はWindowsPhone(商標)などの特定クライアントコンピュータ通信オペレーティングシステム、又はSymbian(登録商標)オペレーティングシステムを含むことができることが理解されるであろう。オペレーティングシステムは、Java(登録商標)アプリケーションプログラムを介してハードウェア構成要素及び/又はオペレーティングシステム作動の制御を可能にするJava仮想機械モジュールを含むことができるか、又はこれに接続することができる。
メモリ204は、とりわけ、アプリケーション252及び/又は他のデータを格納するためにクライアントコンピュータ200によって利用できる1又は2以上のデータストレージ250を含むことができる。例えば、データストレージ250を用いて、クライアントコンピュータ200の様々な機能を記述する情報を格納することができる。様々な実施形態の1又は2以上では、データストレージ250は位置情報251を格納することができる。情報251は、通信中のヘッダの一部として送信される、要求に応じて送信されるなどを含む多種多様な方法の様々な方法に基づいて別のデバイス又はコンピュータに提供することができる。データストレージ250を用いて、アドレスブック、バディリスト、エイリアス、ユーザプロファイル情報などを含むソーシャルネットワーキング情報を格納することができる。データストレージ250は、プロセッサ202などのプロセッサによって使用するプログラムコード、データ、アルゴリズムなどを含み、動作を実行及び行うことができる。1実施形態では、データストレージ250の少なくとも一部を、限定されないが、非一時的プロセッサ可読固定ストレージデバイス212、プロセッサ可読取り外し可能ストレージデバイス214、又はクライアントコンピュータの外部にあるものを含むクライアント構成要素200の別の構成要素に格納することができる。
アプリケーション252は、クライアントコンピュータ200によって実行された場合に、命令及びデータを送信、受信、及び/又はそうでなければ処理するコンピュータ実行可能命令を含むことができる。アプリケーション252は、例えば、位置決定クライアントエンジン254、他のクライアントエンジン256、ウェブブラウザ258などを含むことができる。クライアントコンピュータは、問合せ、サーチ、メッセージ、通知メッセージ、事象メッセージ、警報、性能尺度、ログデータ、API呼び出し、これらの組み合わせなどの通信を、アプリケーションサーバ、ネットワークファイルシステムアプリケーション、及び/又はストレージ管理アプリケーションと交換するよう構成することができる。
ウェブブラウザエンジン226は、ウェブページ、ウェブベースのメッセージ、グラフィクス、テキスト、マルチメディアなどを受信及び送信するよう構成することができる。クライアントコンピュータのブラウザエンジン226は、無線アプリケーションプロトコルメッセージ(WAP)などを含む様々なプログラミング言語をバーチャルで利用することができる。1又は2以上の実施形態では、ブラウザエンジン258は、手持式デバイスマークアップ言語(HDML)、無線マークアップ言語(WML)、WMLスクリプト、Javaスクリプト、標準的一般化マークアップ言語(SGML)、ハイパーテキストマークアップ言語(HTML)、拡張可能マークアップ言語(XML)、HTML5などを用いることができる。
アプリケーションプログラムの他の例は、カレンダー、サーチプログラム、電子メールクライアントアプリケーション、IMアプリケーション、SMSアプリケーション、ボイス・オーバー・インターネット・プロトコル(VOIP)アプリケーション、コンタクトマネージャ、タスクマネージャ、トランスコーダ、データベースプログラム、ワードプロセッシングプログラム、セキュリティアプリケーション、スプレッドシートプログラム、ゲーム、サーチプログラムなどを含む。
加えて、1又は2以上の実施形態(図示せず)では、クライアントコンピュータ200は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルアレイ論理(PAL)など、又はこれらの組み合わせなどのCPUの代わりに組み込み式論理ハードウェアデバイスを含むことができる。組み込み式論理ハードウェアデバイスは、組み込まれた論理を直接実行して動作を行うことができる。1又は2以上の実施形態(図示せず)では、クライアントコンピュータ200は、CPUの代わりにハードウェアマイクロコントローラを含むことができる。1又は2以上の実施形態では、マイクロコントローラは、それに固有の組み込まれた論理を直接実行して動作を行い、それに固有の内部メモリ及びそれに固有の外部入力及び出力インタフェース(例えば、ハードウェアピン及び/又は無線送受信機)にアクセスして、システムオンチップ(SOC)などの動作を実行することができる。
例示的なネットワークコンピュータ
図3は、様々な実施形態の1又は2以上を実施する例示的システムに含めることができる例示的ネットワークコンピュータ300の1実施形態を示す。ネットワークコンピュータ300は、図3に示したものより多い又は少ない構成要素を含むことができる。しかし、図示した構成要素は、これらの革新を実践する例示的な実施形態を開示するのに十分である。ネットワークコンピュータ300は、デスクトップコンピュータ、ラップトップコンピュータ、サーバコンピュータ、クライアントコンピュータなどを含むことができる。ネットワークコンピュータ300は、例えば、図1のシステム100のラップトップコンピュータ112、スマートフォン/タブレット114、及び/又はコンピュータ110の1又は2以上の1つの実施形態を表すことができる。
図3に示すように、ネットワークコンピュータ300は、バス306を介してメモリ304と通信することができるプロセッサ302を含む。一部の実施形態では、プロセッサ302は、1又は2以上のハードウェアプロセッサ、又は1又は2以上のプロセッサコアを含むことができる。場合によっては、1又は2以上のプロセッサの1又は2以上は、本明細書で説明するものなどの1又は2以上の特定の動作を実行するよう設計された特定のプロセッサとすることができる。ネットワークコンピュータ300は、電源308、ネットワークインタフェース310、プロセッサ可読固定ストレージデバイス312、プロセッサ可読取り外し可能ストレージデバイス314、入力/出力インタフェース316、GPS送受信機318、ディスプレイ320、キーボード322、音声インタフェース324、ポインティングデバイスインタフェース326、及びHSM328を含む。電源308はネットワークコンピュータ300に電力を供給する。
ネットワークインタフェース310は、ネットワークコンピュータ300を1又は2以上のネットワークに結合する回路を含み、限定されないが、オープンシステム相互接続モデル(OSIモデル)、グローバル・システム・フォー・モバイル・コミュニケーション(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、ユーザデータグラムプロトコル(UDP)、送信制御プロトコル/インターネットプロトコル(TCP/IP)、ショートメッセージサービス(SMS)、マルチメディアメッセージングサービス(MMS)、ジェネラルパケットラジオサービス(GPRS)、WAP、超広帯域(UWB)、IEEE802.16ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMax)、セッション初期化プロトコル/リアルタイムトランスポートプロトコル(SIP/RTP)、又は多種多様な他の有線及び無線通信プロトコルの様々なプロトコルを含む1又は2以上の通信プロトコル及び技術と共に使用するよう構成される。ネットワークインタフェース310は、送受信機、送受信デバイス、又はネットワークインタフェースカード(NIC)として公知であることがある。ネットワークコンピュータ300は、基地局(図示せず)と、又は別のコンピュータと直接に任意選択的に通信することができる。
音声インタフェース324は、人間の声の音などの音声信号を生成及び受信するよう構成される。例えば音声インタフェース324は、スピーカ及びマイクロフォン(図示せず)に結合して、他者とのテレコミュニケーションを可能にする及び/又はある動作に対する音声肯定応答を生成することができる。音声インタフェース324のマイクロフォンを、例えば音声認識を用いてネットワークコンピュータ300への入力又はこの制御に使用することができる。
ディスプレイ320は、液晶ディスプレイ(LCD)、ガスプラズマ、電子インク、発光ダイオード(LED)、有機LED(OLED)、又はコンピュータと共に使用することができる光反射又は光透過型ディスプレイの様々な他の種類とすることができる。ディスプレイ320は、壁又は他の物体に画像を投影することができる手持式プロジェクタ又はピコプロジェクタとすることができる。
ネットワークコンピュータ300は、図3に図示していない外部デバイス又はコンピュータと通信する入力/出力インタフェース316を含むこともできる。入力/出力インタフェース316は、USB(商標)、ファイヤウォール(商標)、Wi−Fi(商標)、WiMax、Thunderbolt(商標)、赤外線、Bluetooth(商標)、Zigbee(商標)、シリアルポート、パラレルポートなどの1又は2以上の有線又は無線通信技術を用いることができる。
入力/出力インタフェース316は、ジオロケーション情報(例えば、GPS)を決定する、電力状態をモニタする(例えば、電圧センサ、電流センサ、周波数センサなど)、天気をモニタする(例えば、サーモスタット、バロメータ、風力計、湿度検出器、降水量スケールなど)のための1又は2以上のセンサを含むこともできる。センサは、ネットワークコンピュータ300の外部のデータを収集及び/又は測定する1又は2以上のハードウェアセンサとすることができる。ヒューマンインタフェース構成要素は、ネットワークコンピュータ300から物理的に分離することができ、ネットワークコンピュータ300への遠隔入力及び/又は出力を可能にする。例えば、ディスプレイ320又はキーボード322などのヒューマンインタフェース構成要素を介して本明細書で説明するようにルーティングされる情報を、代わりにネットワークインタフェース310を介してネットワークの他の場所に位置付けられた適切なヒューマンインタフェース構成要素にルーティングすることができる。ヒューマンインタフェース構成要素は、コンピュータがコンピュータのヒューマンユーザから入力を取るか又は出力を送信するのを可能にする様々な構成要素を含む。従って,マウス、スタイラス、トラックボールなどのポインティングデバイスは、ポインティングデバイスインタフェース326を介して通信しユーザ入力を受信することができる。
GPS送受信機318は、一般的に緯度及び経度値として位置を出力する地球の表面上のネットワークコンピュータ300の物理座標を決定することができる。GPS送受信機318は、限定ではないが、三角測量、支援GPS(AGPS)、拡張観測時間差(E−OTD)、セル識別子(CI)、サービスエリア識別子(SAI)、拡張タイミングアドバンス(ETA)、基地局サブシステム(BSS)などを含む他のジオポジショニング機構を用いて、地球の表面上のネットワークコンピュータ300の物理的位置を決定することができる。異なる条件下でGPS送受信機318がネットワークコンピュータ300の物理的位置を決定できることを理解されたい。しかし1又は2以上の実施形態では、ネットワークコンピュータ300は、他の構成要素を介して、例えば媒体アクセス制御(MAC)アドレス、IPアドレスなどを含むクライアントコンピュータの物理的位置を決定するために用いることができる他の情報を提供することができる。
メモリ304は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、及び/又は他の種類のメモリを含むことができる。メモリ304は、コンピュータ可読命令、データ構造、プログラムモジュール又は他のデータなどの情報のストレージのためのコンピュータ可読ストレージ媒体(デバイス)の例を示す。メモリ304は、ネットワークコンピュータ300の低レベルの作動を制御する基本入力/出力システム(BIOS)330を格納する。メモリは、ネットワークコンピュータ300の作動を制御するオペレーティングシステム332を格納する。この構成要素は、UNIX(登録商標)のあるバージョン、又はLINUX(商標)などの汎用オペレーティングシステム、又はMicrosoft社のWindows(登録商標)オペレーティングシステム、又はApple社のIOS(登録商標)オペレーティングシステムなどの特定用途オペレーティングシステムを含むことができる。オペレーティングシステムは、Javaアプリケーションプログラムを介したハードウェア構成要素及び/又はオペレーティングシステム作動の制御を可能にするJava仮想機械モジュールを含むか又はこれに接続することができる。同様に、他のランタイム環境も含めることができる。
メモリ304は、とりわけ、アプリケーション336及び/又は他のデータを格納するためにネットワークコンピュータ300によって用いることができる1又は2以上のデータストレージ334を含むことができる。例えばデータストレージ334は、ネットワークコンピュータ300の様々な機能を記述する情報を格納するために用いることもできる。様々な実施形態の1又は2以上では、データストレージ334は位置情報335を格納することができる。通信中にヘッダの一部として送信、要求時に送信などを含む多種多様な方法の様々な方法に基づいて位置情報335を別のデバイス又はコンピュータに提供することができる。データストレージ334を用いて、アドレスブック、バディリスト、エイリアス、ユーザプロファイル情報などを含むソーシャルネットワーキング情報を格納することができる。データストレージ334は、プロセッサ302などの1又は2以上のプロセッサによって使用するプログラムコード、データ、アルゴリズムなどを含み、以下に説明する動作などの動作を実行且つ実施することができる。1実施形態では、データストレージ334の少なくとも一部を、限定されないが、非一時的プロセッサ可読固定ストレージデバイス312、プロセッサ可読取り外し可能ストレージデバイス314、又はネットワークコンピュータ300内の様々な他のコンピュータ可読ストレージデバイス、又はネットワークコンピュータ300外部を含むネットワークコンピュータ300の別の構成要素に格納することもできる。
アプリケーション336は、ネットワークコンピュータ300によって実行された場合に、メッセージ(例えば、SMS、マルチメディアメッセージングサービス(MMS)、インスタントメッセージ(IM)、電子メール、及び/又は他のメッセージ)、音声、ビデオを送信、受信、及び/又はそうでなければ処理するコンピュータ実行可能命令を含むことができ、別のモバイルコンピュータの別のユーザとのテレコミュニケーションを可能にする。アプリケーションプログラムの他の例は、カレンダー、サーチプログラム、電子メールクライアントアプリケーション、IMアプリケーション、SMSアプリケーション、ボイスオーバーインターネットプロトコル(VOIP)アプリケーション、コンタクトマネージャ、タスクマネージャ、トランスコーダ、データベースプログラム、ワードプロセッシングプログラム、セキュリティアプリケーション、スプレッドシートプログラム、ゲーム、サーチプログラムなどを含む。アプリケーション336は、以下に説明する動作を実行する位置決定エンジン346を含むことができる。様々な実施形態の1又は2以上では、アプリケーションの1又は2以上を別のアプリケーションのモジュール及び/又は構成要素として実施することができる。様々な実施形態の1又は2以上では、オペレーティングシステム拡張、モジュール、プラグインなどとしてアプリケーションを実施することができる。
様々な実施形態の1又は2以上では、位置決定エンジン346をクラウドベースのコンピューティング環境で作動することができる。様々な実施形態の1又は2以上では、これらのアプリケーション及びその他を、クラウドベースのコンピューティング環境で管理することができる仮想機械及び/又は仮想サーバ内で実行することができる。様々な実施形態の1又は2以上では、本文脈においてアプリケーションはクラウドベースの環境内の1つの物理的ネットワークコンピュータから、クラウドコンピューティング環境によって自動的に管理される性能及びスケーリング検討事項に応じた別の物理的ネットワーク環境に流れることができる。同様に、様々な実施形態の1又は2以上では、位置決定エンジン346専用の仮想機械及び/又は仮想サーバを自動的に配備及び配備を外すことができる。
様々な実施形態の1又は2以上では、位置決定エンジン346などを、1又は2以上の特定の物理的ネットワークコンピュータに結び付けられる以外のクラウドベースのコンピューティング環境で実行される仮想サーバに位置付けることができる。
ネットワークコンピュータ300は、キー、デジタル証明、パスワード、パスフレーズ、2因子認証情報などのセキュリティ/暗号情報を生成、格納及び/又は使用する追加の不正使用防止安全装置を提供するHSM328を含むことができる。一部の実施形態では、ハードウェアセキュリティモジュールを用いて、1又は2以上の標準的公開鍵インフラストラクチャ(PKI)を支援することができ、鍵ペアなどを生成、管理、及び/又は格納するために用いることができる。一部の実施形態では、HSM328を独立型ネットワークコンピュータとすることができ、他の例では、HSM328を、ネットワークコンピュータにインストールできるハードウェアカードとして構成することができる。
加えて、1又は2以上の実施形態(図に示していない)では、ネットワークコンピュータは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルアレイ論理(PAL)などの1又は2以上のCPUの代わりに1又は2以上の組み込み式論理ハードウェアデバイスを含むことができる。組み込み式論理ハードウェアデバイスは、組み込み式論理を直接実行して動作を行うことができる。1又は2以上の実施形態(図示せず)では、ネットワークコンピュータは、CPUの代わりに1又は2以上のハードウェアマイクロコントローラを含むことができる。1又は2以上の実施形態では、1又は2以上のマイクロコントローラは、それに固有の組み込み式論理を直接実行して動作を行い、それに固有の内部メモリ及びそれに固有の外部入力及び出力インタフェース(例えば、ハードウェアピン及び/又は無線送受信機)にアクセスして、システムオンチップ(SOC)などの動作を実行することができる。
例示的なシステム
図4Aは、送信機104及びカメラ106a、106b、106c、106dを含むシステム100の一部分を示している。(「カメラ」及び「受信機」という語は、他に指示がない限り本明細書では同義に用いられる。)システム100は、1つの時間に1又は2以上の目標108の1つのボクセルを順次的に照明する。図4Aに示すように、走査されたボクセル照明が複数のカメラ106a、106b、106c、106dによって取り込まれるか又は検出され、ピクセルデータの幾つかのボクセル照明同期化ストリームをシステムコンピュータデバイス110(図1)などの中央処理システムに流すことができる。物体108の単一のボクセルの照明に関連付けられる、各時間期間t(又はt+1又はt−1)に、カメラ106a、106b、106c、106dの各々は、目標108のボクセルから散乱された光を検出して、検出位置、例えば、光が検出されるカメラのアレイにおけるi番目のカメラの(xi、yi)を提供する。例えば、時間tにおいて、4つのカメラ106a、106b、106c、106dは、図4に示すようにt+1及びt−1及び他の時間期間にて類似のセットを備えた位置のセット[x1,y1]t、[x2,y2]t、[x3,y3]t、[x4,y4]tを生成することができる。
各時間期間tは、物体108の単一のボクセルの照明がカメラの各々によって受け取られると予想される時間の長さに対応する。時間期間tの長さは、少なくとも一部には、カメラの間の距離に基づいて選択することができる。例えば、10ナノ秒の時間期間は、4つのカメラの中心の間の相対的距離が10フィートより短い(又は3メートルより短い)場合のカメラのセットに用いることができる。一部の実施形態では、時間期間tは、複数のカメラのクローズインタイム検出事象のセットが送信機104による単一のボクセルの照明に関連付けられるように選択される。少なくとも一部の実施形態では、時間期間tは、少なくとも1、5、10、15、20、25、40、50、又は100ナノ秒又はそれ以上である。物体108の各ボクセルを順次的且つ個々に照明することによって、各照明されるボクセルは、複数のカメラの空間的に分離された検出事例のセットに時間的に関連付けられる。これらの検出事例を用いて、ボクセルの位置を決定することができる。ボクセルは迅速且つ個々に観測することができる。
検出位置のセットは、システムコンピュータデバイス110などの中央処理システムに送信され、該中央処理システムは、複数のカメラからの検出位置のこれらのストリームを組み合わせてコンピュータ的に(例えば、一連の行列乗算によって)組み合わせ、カメラからの複数のピクセルストリーム(好ましくは最小待ち時間を持つ)を、例えばダウンストリーム知覚システムに直接フィードすることができる単一のボクセルフロー(例えば、物体108のボクセルの(xa、ya、za)などの物体108の照明されたボクセルの位置の流れ)に融合させる。
図4Bは、ボクセルの位置を決定する方法の1つの実施形態を示す。ステップ402にて、送信機104は物体108のボクセルを照明する。ボクセルは、カメラ106a、106b、106c、106dによって受信される光を反射する(か又はそうでなければ散乱する)。ステップ404にて、システムコンピュータデバイスが、ボクセルによって反射されたフォトンを検出したピクセルに対するカメラからのアレイ位置を受信する。ステップ406にて、ボクセルの位置が、受信されたアレイ位置から決定される。ステップ408にて、追加のボクセルが観測されるかどうか決定される。観測される場合、ステップ402−406がボクセルの各々に対して繰り返される。多数のピクセル事象(例えば、期間内にトゥイッチする3又は4以上のピクセル)がカメラによって検出される限り、この処理は自動的に反復を継続することができる。
図5は、光源からの走査ビーム(例えば、狭くコリメートされたピクセルサイズのレーザビーム)が特定の容積測定空間セクション(走査コーン)全体を走査する3つのカメラ106a、106b、106cを備えた構成を示している。物体の空間マニホールド(3D形状表面)は走査された軌跡の少なくとも一部分を反射する。図5では、走査ビームが、時間t1、t2、t3及びt4それぞれに4つのポイントP1、P2、P3及びP4を照明する。3D表面の4つのポイントは、カメラ投影中心O1、O2及びO3に位置付けられた3つのカメラに向けてビームの一部分を反射する。各ポイントPから、これらのカメラ中心の各々に対する1つのチーフレイが存在する。12のこのようなチーフレイが存在する。これらのチーフレイは12のピクセル位置のカメラに投影する:P1’、P2’、P3’、P4’、P1’’、P2’’、P3’’、P4’’、P1’’’、P2’’’、P3’’’及びP4’’’。3つのカメラによって取り込まれたこれらの12の離散的な位置は、カメラ中心の全位置及び4つの3DポイントP1、P2、P3及びP4を導くのに十分である。例として、これらの12のセンサ座標ペアは、フル三焦点テンサーの27の要素(3x3x3行列らy)を得るのに十分である。
この順次的に照明は、これまでマルチビューシステムのコンピュータ的にボトルネックであった密度対応問題を取り除くことによって、従来のビューイングと比較して複雑系解決のコンピュータ的な簡便手法を開拓している。このボクセル順次システム100の少なくとも一部の事例では、余分のセンサデータが、物体及び表面の外観、モーション、方は形状、又はこれらの何れかの組み合わせなどの3Dリアリティの顕著な構造的態様を決定するための統計的及びAI方法を好むので、追加のカメラ(又は冗長観測者)の付加が実際にはコンピュータ的な複雑さを低減し、システムの堅牢性を向上させ且つシステム精度を上げることができる。システムにカメラを追加することによって追加の観測を結果として生じ、照明を必要とすることなくシステムを更に堅牢且つ正確にする点に留意されたい。
少なくとも一部の実施形態では、システム100は、厳密に定義された3Dエッジ、並びに物体の3D位置、速度及び加速度を配信することができ、アートカメラ解像度の状態で等しく細粒の画像ピクセルデータ(例えば、RGB画像コントラスト機能)に一致(例えば、融合)できる細粒のボクセルモーションデータをもたらすことができる。
少なくとも一部の実施形態では、ピクセル及び視野(例えば、カメラ又は受信機)が3Dリアリティの堅牢な知覚を結果として生じる。増分的視野によって提供される追加のデータストリームは、新しいレベルのコンピュータ的決定論を可能にすることができる。システム100の少なくとも一部の実施形態では、追加のビュー(例えば、カメラ又は受信機)の付加は、ビューの間の高程度のオーバーラップを結果として生じる。このオーバーラップは、オクルージョンを低減し、カメラポーズ推定及び物体モーション追跡を向上させ、モーションの連続性を向上させ、且つ量子化エラー及び他のサンプリングアーティファクトなどのシステムノイズを低減することができる。
データフローをストリームラインし且つボトルネックアップストリームを取り除くことによって、システム100は、高解像度カメラを用いてカメラ視野におけるオーバーラップの大きな角度を利用することができる。オーバーラップの角度、すなわち3Dビュースペースにおける照明されたボクセルを同時に見るカメラの数は、各照明されたボクセルに対して自動的に設定される。多くの従来のシステムを超える本システムの知覚利点は直感的な感覚を作り、従来のマルチビューセットアップでは、デジタルカメラの各々は、微妙な連続(アナログ)3D光フィールドを2Dカラーコントラストの単純に離散的且つ粗くラスターされたバイヤーパターンモザイクに低減し、これによって道に沿った量子化エラーのホストを固有に導入する。加えて、検知された物体とカメラの間の何れの高速相対モーションも、ぼけ及びセンサノイズを起こす。較正ドリフト又は不十分な光学が更なる組織的なエラーを持ち込むことがある。
システム100などのピクセル順次的照明システムでは、各ボクセルは、制限された時間、例えば、1−10ナノ秒の走査レーザによって照明される。この超短強力照明露出は、モーションのぼけ及びフォトンスターベーションを取り除くことができ、システムが高空間的並びに時間的解像度を備えた特徴を追跡するのを可能にする。例えば、少なくとも一部の実施形態では、1秒当たり最大100万程度の回転速度(1/100度回転/10ナノ秒の期間にわたって観測)を観測することができる。
複数のカメラに渡る観測されたピクセル位置のマッチングは、順次的に照明されたボクセル毎にN個の同時(又はほぼ同時)視野をもたらす。この構成を用いて、システム100は、高ボクセルデータレートで極めて正確な3D位置検出を効率的に達成することができる。
カメラを追加すると、視野が追加される。これらの追加の同時観測により、サンプリングエラーを低減することができる。少なくとも一部の実施形態では、追加されたカメラは、セットアップ又は何れかの特定のアラインメント又は較正を必要としない。少なくとも一部の実施形態では、カメラ位置は、時間の経過に伴って幾何学的に安定である必要はない。これらカメラは、例えばウィング又はフレームストラットなどの変形可能又は振動する構造体に取り付けることができる。
少なくとも一部の実施形態では、カメラの内部較正は、追加のポイント観測によって達成することができる。少なくとも一部の実施形態では、カメラの内部(本質的な)特性(光学系及び歪み)を事前に知る必要はない。多くの観測によって、このような特性を決定することができる。
少なくとも一部の実施形態では、システム100は、カメラ又は受信機(例えば、飛行しているカメラを装備したクアドコプターの小さな群れ)として移動観測者を可能にする。これらの移動カメラを用いて、走査プローブビームによって照明された複雑な動的3Dシーン(3Dシーンのスポットが順次的に照明される場合)を観測し、例えば1秒当たり1億ボクセルの検出速度(又は、各ボクセルに関連付けられる時間tに関係付けることができる早い又は遅い検出速度)で詳しくこのような3Dシーンを正確にマップすることができる。
一般的に、システム100は、N個のカメラ(又は他の光受信機又は検出器)を包含し、Nは少なくとも2又は3であり、4、5、6、7、8、10、12、15、20、又はこれより多いか又は他の何れかの数とすることができる。システム100は、1つのレーザビームなどの光源を備えた送信機104を含み、スペースのセクションをビームアウト及び横断するフォトンのレイを用いて視野を照明する。このフォトンのレイ又はビームは、例えば、2つの座標、すなわち、方位角(α)及び仰角(ε)によって定められる同時ポインティング方向を有する。これらの2つの角座標は、(i)走査システムによって制御することができ、又は(ii)全てが引用により本明細書に組み入れられる米国特許第8,282,222、8,430,512及び8,696,141に記載されるような視覚フィードバックループのある種類によって観測(追跡)することができ、又は(iii)これらの座標は制御又は追跡しなくてもよい。少なくとも一部の実施形態では、何れかの時間での何れかのカメラのビューにおいて、物体108の表面上の領域(例えば、ボクセル)によってレーザビームの反射として生じる1つだけの照明スポットが存在する。本発明のシステムは、スペース内のほとんど1つの位置P(t)の何れかの瞬間に(例えば、物体108上の領域又はボクセル)がプロービングビームを反射するように動作するのが好ましい。ポイントがこのカメラの視野内に入り、この方向の反射される光が検出するのに十分強い、すなわち十分なフォトンがカメラのピクセルの少なくとも1つに達した場合に、Nカメラの何れも、ポイントPでこの反射ビームを観測することができる。
少なくとも一部の実施形態では、各カメラは、即座に又はほぼ即座に(例えば、上述の時間期間tの1/10又は1/100未満の時間に)光を検出するよう構成される。何れかの適切なピクセル化カメラを含む何れかの適切なカメラを用いることができる。ピクセル化カメラの例は、限定されないが、空間−時間並べ替えアレイ(SSA)として、例えば、到着の方向及び時間の両方を記録する高速非同期SPAD(単一フォトンアバランシェダイオード)ピクセルのアレイとして配列されたピクセルを含む。SSAアレイの例は、米国特許第8,282,222号、第8,430,512号、及び第8,696,141号で見出すことができ、これら全てはその全体が引用により本明細書に組み入れられる。空間−時間並べ替えアレイは、入射レイ方向、個々のピクセルとの入射方向のマッチング小バンドルを空間的に量子化する画像化システムの焦点面に位置付けられた検出器アレイを有するカメラに類似することができる。SSAは、実際には2Dアレイのピクセル又は代替として、全ての全体が引用により本明細書に組み入れられる米国特許第8,282,222号、8,430,512号、8,696,141号、8,711,370号、9,377,553号、9,753,126号及び米国特許出願公開第2013/0300637及び2016/0041266に記載される非同期検知アレイの何れかを備えたカメラとすることができる。カメラは、少なくともピクセルの二次元(2D)アレイを含む。ピクセルは、能動ピクセルセンサ(APS)、電荷結合素子(CCD)、単一フォトンアバランシェ検出器(SPAD)(アバランシェモード又はガイガーモードで作動)、相補型金属酸化膜半導体(CMOS)デバイス、シリコン光電子倍増管(SiPM)、光電池セル、光トランジスタ、トゥイッチーピクセルなどの1又は2以上などの様々なフォトン検知技術を含むことができる。フォトン検出器は1又は2以上の入射光ビームを検出することができる。全体が引用により本明細書に組み入れられる米国特許第9,753,125号は、光電流が最小レベルを超えた状態でほぼ即時の信号出力を提供するセンサアレイピクセルとして「トゥイッチーピクセル」を記載している。例えば、少なくとも一部の実施形態では、「トゥイッチーピクセル」は、光ダイオードの電流を瞬時に増幅するソースフォロワー又は他の回路に接続された光ダイオードとすることができる。増幅された信号は検知線に接続される。検知線は、このような「トゥイッチーピクセル」の全列又は行の間の共有機能とすることができる。ピクセルの基本「トゥイッチ」機能はバイナリであり、その主機能は、信号フォトンがカメラに到着した時間及び/又は場所を報告することである。好ましくは、カメラのピクセルは、「トゥイッチーピクセル」であるか、又は数フォトン又は単一のフォトンの到着を検出又は「オントリガ」することができる高度に敏感なCCD、APD、SPADタイプピクセルである。
ビームは連続して照明することができ、空間内でこれら3Dマニホールドを横断するためにビームのFoV内で物体の表面を走査する。少なくとも一部の実施形態では、走査ビームは、急速に、任意選択的に疑似ランダム方式で3D表面を走査することができるが、連続平滑走査方式でFoVのスペースを横断する。
代替として、ビームの照明は、急速及び強力な方式でパルス化することができる。例えば、非連続スイープを用いて、空間内でランダムに又は特異的に選ばれた方向で光の「ピンプリック」又はパルスをプローブするか、又は例えばクアドコプターの飛行経路などの関心の一定の方向の周りの陥凹形式を用いて、又は他の何れかの規則的又は不規則なパターンを用いることができる。高速非連続走査システムの例はフェーズドアレイである(例えば、MEMSリボン光学フェーズドアレイ)。
例として、10ナノ秒間隔でフォトンの短い100psバーストが送信機104などの走査機構(送信機Tx)によって送出することができる。反射パルスは、既知の間隔(例えば、100ピコ秒(ps))に制限され、アレイの単一のピクセルに一意的にマッチされる。
カメラは、連続照明ボクセル位置から反射された光をピクセルが検出した場合にピクセルの位置を順次報告する。一部の実施形態では、ピクセル又はカメラからの報告データは、例えばピクセル位置(例えば、列数及び行数)だけを報告するなどの最小及びバイナリにすることができる。他の実施形態では、例えば、個々のピクセルがフォトンを検出した時のタイムスタンプを含むデータフローを増やすことができる。少なくとも一部の実施形態では、これらのタイムスタンプは、データダウンストリームの限度を超えた事後処理を容易にするか又は正確なモーション補間を提供することになる。
カメラから取得できる追加のデータは、各主要なカラー(又はカラーの他の何らかのセット)の強度又は他の情報を含むことができる。この追加情報は、例えば、光強度(フォトン数又は即時ピークフォトン電流強度又は「グレースケール」)のプロキシとして作用する増幅光ダイオード電圧又は電流などのアナログ値の形式で取り込むことができ、任意選択的にカラー強度値(R、G、B、及び/又はM、C、Y、及び/又は1又は2以上のNIR波長)を観測することができる。
少なくとも一部の実施形態では、コンピュータデバイス110などの受信システムが、各観測事象の後でほぼリアルタイムで(例えば、ナノ秒以内に)このデータ又は情報を受信する。例として、カメラ1は、時間tのカメラの行j、列iのピクセルの多数のフォトンの到着を、任意選択的に赤、緑、及び青の主カラー強度(又は他のセットの色又は波長)と共に検出する。少なくとも一部の実施形態では、カメラからのデータは、6つの値がデータの1又は2以上のバイト各々にすることができる検出ベクトル[カメラ#,i,j,t,r,g,b]を含むことができる。
図6Aは、システム100の一部分の1つの実施形態を示す。走査送信機104によって生成された密にコリメートされたレーザプローブビーム(又は他の光源)が、表面S上の位置Pに交差する。ビームによって送出されたフォトンは、t=0の全方向に(例えば、ランバーティアン方式で)反射する。投影中心O1、O2、O3、及びO4に位置付けられた4つのカメラは各々、数ナノ秒後にこれらの反射の各々からフォトンの小さなバンドルを取り込む。各バンドルは、4つのカメラの各々のアパーチャの中心に入るチーフレイ(CR)を有する。CR1は第1カメラに入り、t1で列番号700及び行番号500に着地する。他の3つのカメラは同様に、10ナノ秒ウィンドウ内の事象を記録する。
従って、表面S上のスポットPから反射された光は、4つのベクトルを生成する4つのカメラによって検出される。
カメラ1:(#1、700、500、t1
カメラ2:(#2、680、250、t2
カメラ3:(#3、350、250、t3
カメラ4:(#4、250、500、t4
第1の値はカメラ番号であり、第2の値は列数であり、第3の値は行数であり、第4の値は到着時間である。この例における4つのタイムスタンプは、4つのカメラ中心の間の相対的距離が10フィート未満であるので互いから10ナノ秒以内である。このような4カメラ構成のカメラ間差分時間制限値は、大きな車両上で構成されるシステムでもほぼ同様に成立する点に留意されたい。多くの場合、観測されたフォトンが5ナノ秒の固有のボクセル照明期間に関連付けられるので、カメラ間の相対的距離は5フィート未満になる。4つのカメラで観測される何れのフォトンも、1秒当たり1憶ボクセルの速度で個々に順次的に照明されるボクセルに明確に関連付けられる。
カメラの相対的向き及び位置は全ての3つの変数を決定する。観測されたポイントPに向けたカメラの相対的向きは、カメラの現在の中心光軸に対してポイントPから反射するチーフレイの方位角及び仰角によって与えられる。図6Aでは、ピクセル位置は、センサの各々に示された上部左ピクセル(0,0)からカウントされる。観測される何れの相対的な時間遅延も、フォトンが表面S上のポイントPの反射ボクセルから4つのカメラの各々のピクセルに移動するのに必要なToF(飛行時間)時間の差(1ナノ秒当たりのフィート)を表す。ポイントPのボクセルの照明で終わるフォトンの出発時間を知ることなく、相対的ToF差分は、ポイントPからのカメラの各々の相対的距離を直接伝えることができる。
単純な高速走査LIDAR(例えば、本明細書に全体が引用により組み入れられる米国特許出願連番第15/799,149号明細書に記載)の特定の場合に、ポイントPの方位が公知である且つ従って走査送信システムTxによって駆動される光源の最新高速走査軌跡中のパルスの暗黙的出発時間も公知であるので、ポイントPからカメラまでの距離を推定することができる。特定の出発時間を推定することができる。これは、ポイントPの方向に光源及び送信システムTxによって送信される光の送信の最新瞬間である。対照的に、例えばSPADがカメラで使用される場合、ピコ秒精度を持つ極めて正確なパルス到着時間が利用可能である。相対的距離は、フィートではなくセンチメートルの高い精度で決定することができる。これは、観測の時間のカメラの各々の所在を伝える。実際に、4つの観測者間の相対的モーションはナノ秒観測間隔にわたって無視することができる。
図6Bに示した4つのビューシステムでは、走査送信システムTx104及びこの光源が時間の関数tの通りに空間軌跡τ(t)を走査する。Tx104及び光源の位置は事前に公知であるか、又は投影中心OTを持つ第5カメラの同等物としてTx104及び光源を扱う三焦点テンサー方法などの幾何学法によって計算することができ、ここで各送信されたレイの方向は電子フィードバック及びTxの制御から公知である(各受信されたレイの方向がセンサのピクセル位置によって決定されるカメラとは対照的に)。従って、他で説明される幾何学法によって、Tx、OTの位置、並びにP、O1、O2、O3及びO4の位置を決定することができる。最新の走査軌跡τ(t)では、一定の固有の時間tに一定の高速光学走査角度α(t)に対応する固有の走査方向OtPが存在する。後者の時間tは、時間t1、t2、t3及びt4に到着する4つの受信カメラによって後で観測されるフォトンの何れかに対する出発の時間tdである。
Pの相対的位置、及び従って方向OtPが幾何学的計算から公知である場合、これらの計算は、Txの走査方向がポイントPの公知の位置に光学的に正確にアラインされることになる瞬間に一致するピコ秒精度によって光源をパルスすることによって、以下のような極めて正確なToF方法によって調整することができる。光源ブリーフ(ピコ秒持続)パルスバースト出発時間はピコ秒で公知になり、ポイントPの反射の後に、4つの到着時間は、(例えば)4つの「トゥイッチーピクセル」のファイヤリングによってピコ秒で等しく解像される(SPAD又は新しいSiPMタイプAPSアバランシェをピコ秒で正確に計ることができる。)。従って、4つのチーフレイ(CR1-4)によって移動される距離をインチに計算することができる(1nsのToFクロック精度=1フィート(約0.3m)、100ps=1インチ(約2.54cm))。
少なくとも一部の実施形態では、システム100などのピクセル順次的照明システムは、多くの従来の照明システム(構造化すなわちコード化照明によるフル2Dフレーム又は1D全走査線を用いる構造化光又は能動ステレオシステムなど)に固有の観測の曖昧さを取り除くか又は低減することができる。少なくとも一部の実施形態では、各追加のポイント観測(例えば、各追加のカメラ又は他の受信機)は、カメラの位置、向き及び内在性を本システムが自己較正するのを可能にするために用いることができる知識を追加する。
少なくとも一部の実施形態では、1秒当たりの数百万の走査ポイントにより、システム100などのポイント順次的照明システムは、急速に収束し、急速かつ効率的に、観測可能な不変性、観測可能なパターン、現実の堅い又は変形可能な構造を明らかにすることができる。
少なくとも一部の実施形態では、機械視野の目的で、脳回神経網(CNN)などのコンピュータ的方法は、これらの結果生じたカメラからの豊富で明白なデータストリームから容易に学習することができる。不変空間図形の数百万の連続観測によってこれらのCNNを訓練することで、これらの新しい機械視野方法は、正確な3Dソリューションを迅速に収束することになる。
少なくとも一部の実施形態では、システム100を用いて取得されるポイント順次的に照明の利点は、a)従来のシステムでは空間測定を厳しく制限するモーションのぼけの除去又は低減、及びb)ナノ秒のオーダー(単一の個々のピクセルの露出時間)までの高解像度で時間が測定される事実によるモーション推定精度の追加の程度の1又は2以上を含むことができる。従って、移動物体の追跡又は非剛性(変形可能)時間変化3D表面図形及びモーションを追跡する手順又はアルゴリズム方法は、ボクセル順次的に照明が追加された時に更に正確になる。
少なくとも一部の実施形態では、追加のカメラの付加がオクルージョン問題を取り除くか又は低減する。多くの観測を生じる多くの観測者(例えば、カメラ又は他の受信機)は、本システムをオクルージョンに対してより堅牢にする。直感的に、システムにおけるビューポイントが多い程、表面の何れか1つのポイントを観測するための多数のカメラが存在する可能性が高い。深い割れ目及びクレーターが塞がれたままである可能性がある。
少なくとも一部の実施形態では、正確なピクセルレベル対応を設定するシステム100などのピクセル順次的照明システムは比較的容易である可能性がある。時間の短い十分なインスタンスにおいて、全入射レイが3Dスペースの同じボクセルから発する。少なくとも一部の事例では、数ナノ秒のスパン内で同時に観測された事象又はほぼ同時に観測された事象は、カメラの位置及び向きを備えた完全な座標セット及び観測されたポイントの3D座標(すなわち、物体上のボクセル)をもたらす。
少なくとも一部の実施形態では、システムに追加されるカメラが多い程、同時に取り込まれる視野も多くなり、オクルージョンの発生が減り、表面を早く且つ大きなモーションフィデリティで走査することができ、詳細を短い間隔で走査することができる。カメラが多くなれば、同じボクセル照明から取り込まれるフォトンが多くなり高い信号精度及び高い確実性又は信頼性を観測にもたらすことができる。内壁、建物及び通りなどの非変形可能表面の3D走査は、細かい詳細を累積的に追加し従ってこの結果生じた3Dポイントクラウド画像が急速にフィデリティを取得する。
図7A−7Cは、ピクセル順次的照明システムの1つの例示的実施形態を示す。図7A(側面図)では、運転者が前方経路の物体を運転者の車両の窓から見ている。走査レーザビーム(送信機から)が物体のポイントPを照明する。運転者は、車両の運転者側の窓の内側の反射を介して見える逆反射表面に立体画像を投影することができるヘッドセットなどの頭部装着ディスプレイデバイス(HMD)を身に着けている。(投影された立体画像化経路は図7Aには示されていない。)AR HUDを生成するためのこのウェアラブルデバイスの使用は、例えば全体が引用により本明細書に組み入れられる米国特許出願公開第2017/0208292の図15Eに図示された構成に類似である。この図のウェアラブルデバイスは、運転者の車内内側の基準による頭部追跡を示し、前方の道路を観測するためにHi−RES機械視野カメラを用いる。本明細書で説明する新しいシステムは、ボクセル毎に外側の世界を照明するビームを有する。
運転者の眼の何れかの側に装着された2つのカメラ(図7BのRxL及びRxR)は、物体上の照明されたボクセルPの広いベースラインビューを見る。運転者の上には、前方の道路を見ることができる第3の高解像度カメラ106がある。第3のカメラは、その高解像度センサの基準面のボクセルPの位置に注目する。合計でボクセルPの3つのビューがあり、従って4つのポイントが物体上で照明された後に、物体位置(物体の表面上の一連のボクセルの位置)とヘッドセット及び高解像度カメラの位置の両方が公知であり、運転者の頭部凝視のかなり正確な向き及び物体の運転者の即座の視野(運転者のHMDの視野)を描写する。従って本発明のシステムは、ユーザの3Dビューボリュームで正確に警告(例えば、「ここに注意!」)などのラベルを位置付けることができる。他のカメラ構成も使用できることが理解されるであろう。
図7Bは、バックミラーの前などの高い中心位置に取り付けられた高解像度カメラと同じ構成の上面図を示している。これに代えて、このカメラ又はカメラのアレイを環境の視界をあまり遮らないように車両の上部に取り付けることができる。図7Cは、組み込み式3Dカメラ(RxT)の付いた拡張現実タイプヘッドセットを示しており、これによって実際には視野を観測する3つのカメラが存在し(装着者に「沿ってみる」)且つこの視野は小さな穴があり、走査システムの陥凹形式が装着者の注意及び凝視によって駆動され、ヘッドセットの視線追跡センサによって追跡される。
図22は、反射されたビーム608を用いて表面114上のプロジェクタ402からの投影(及び投影された画像ビーム606)に対して空間におけるビューワ604の相対的位置の決定を可能にする頭部装着カメラ602を示す。
複数の走査ビームを利用することができる。少なくとも一部の実施形態では、カメラの面を区別するのが難しい2つのスポットの反射に空間及び時間で走査軌跡をオーバーラップさせるマニホールド(物体)表面の何れかの部分における相対的に近い近似に同時に現れる2又は3以上のスポットの曖昧さを回避するために注意が払われる。一部の実施形態では、複数の照明スポットを使用した時に、軌跡のようなサーチビームは同じ表面をローカルに走査してはならず、走査されたスポット軌跡は互いに交差してはならない。軌跡がオーバーラップする時間及び場所で、カメラ面の「衝突」を起こし、これらの「衝突」を検出することができ、ビームの1つを、例えば制御システムフィードバックループによって一時的に消すことができる。複数のビームは、異なる角度で物体の表面から到達して反射するために、例えば影又はオクルージョンを回避するために用いることができる。マルチビーム検出の曖昧さを完全に回避するために、例えばこれらをデューティサイクルすることができる(例えば、交互の時間スロット又は他の何れかの適切な時間構成が与えられる。)
図8では、2つの送信機Tx1及びTx2によって生成された2つのレーザビーム(又は他の光ビーム)が、時間t1のボクセル位置V1から時間t2及びt3のボクセル位置V2及びV3それぞれへの物体108の表面上の同じ線形走査軌跡に沿って走査している(側面図)。Tx1からのビームは、V1からV3への全体の軌跡を照明することができるか、又はこれに代えて、Tx1は、t2でボクセル位置V2に到達するこの軌跡に沿って位置を照明することができ、Tx2は、V2からV3を照明し軌跡を完成する。Tx2はインスタンス1で即時に引き継ぎ且つ同じ軌跡に沿って継続することができるか、又はこれに代えて、ソースTx2は後の時間に完了するようスケジュールすることができる。(この例では2つの走査ソース、及びこの走査モーションが同一平面になるよう並べられる。)少なくとも一部の実施形態では、交互の走査レーザ源のこの構成が、物体の周りに位置付けられたカメラによって観測される明るい反射を結果として生じることができる。この構成は、本発明のシステムがかなり少ないオクルージョンを有する重大な表面屈曲を持つ物体の走査を可能にする。
図9に示すように、部屋又は詳細な3Dアーティファクトを走査する時に、手持式レーザスキャナ104´を用いて、「詳細ボクセル」を累積セットに追加することができる。手持式ツールは、単純なレーザポインタ又は「レーザブラシ」(例えば、固定又は疑似ランダム走査パターンに沿って順次的に照明するレーザ)とすることができ、進行中の「ブラシワーク」を示す図9に示すようなスマートフォンなどの第2手持式デバイス106´を含むことができる。第2手持式デバイス106´自体は、1又は2以上のカメラを包含することができるか、又はカメラC1、C2、C3は、レーザポインタ104´によって照明される各ボクセルが少なくとも3つのカメラで見ることができる構成におけるスペースの周りに別々に大まかに位置付けることができる(図9に図示)。
3つのカメラC1、C2、C3は、近くからの細かい「ブラシワーク」(ブラシの周りの連続照明ポイント)を直接観測することができ、走査される物体(又は顔)の周りに配置される他のカメラは周囲エリアに並べられる。これらの他のカメラは手持式でなくてもよいが、これらを固定する必要はない。走査される物体の周囲のカメラのセット、飛行クアドコプター又はロボットアームに取り付けられたカメラを用いて、可能な限り多くのレーザポイント照明位置を捉えることができる(各ボクセルに対して3つの観測される視野の最小値)。
図9に示した例では、3つのカメラC1、C2、及びC3を物体の周りの三焦点構成で位置付けることができる。手持式モニタリングデバイス106´は、「ブラシワーク」の進行のモニタリングを可能にし、走査される物体の細かい構造的詳細を明らかにする。手持式モニタリングデバイスは移動電話とすることができる。手持式であるレーザブラシデバイスは、物体の表面にレーザ光の数千の「ブラシストローク」を生成する走査レーザビームで物体を照明する。3又は4以上のカメラが各ブラシストロークを追跡する。上述のように、カメラは、「トゥイッチーピクセル」又はSPADアレイセンサタイプとすることができ、細かく三角測量する、又はそうでなければ、例えば物体の表面上にレーザビームの即時位置を位置付けるToF方法によって三角測量することができる。これに代えて、レーザブラシは、3又は4以上のカメラによって異なる視野から観測された各照明ボクセルをカメラが明確にし、識別し且つ一致させるのを可能にする空間−時間符号化方式を発することができる。任意選択的に、DeBruin又は他のカラータイプコード化方式を以下で詳しく説明するように用いることができる。
支援ステレオ構成は、3つの共線デバイス、例えば図10Aに示すようなカメラの立体ペアのベースライン上の画像プロジェクタを有する。この「ステレオ(立体)」構成は、画像トリプレット図形の特別なケースとすることができる。2つのカメラによって観測される投影画像は、合わせて3つの2D画像及び1つの投影現実を結果として生じる。3つの画像の相対的向きは、三焦点テンサーで完全に捉えられる。
図10Aでは、「支援立体」構成には3つのビュー、すなわち1つのプロジェクタ(すなわち、送信機)Tx及びカメラの立体ペア、RxL及びRxRが存在する。送信機Txの共鳴走査システムでは、走査ミラーから跳ね返る走査ビームの即時ポインティング方向は、周期関数であり、何れかの瞬間、tでは、時間的に特別なポインティング方向が、ミラー機構から電気又は光学フィードバックループによって正確に推定できる。従って、4つのポイントP1、P2、P3及びP4は、時間t1からt4に連続して走査ビームによって順次的に照明される。2つのカメラがこれらの4つの証明されたボクセル位置を観測する。4つの照明されるボクセル位置の4つのレーザビームポインティング方向及び4つのペアの投影は、2つのカメラのセンサ面の各々に反射及び画像化される。これらの12の2D観測は、使用できる三焦点テンサーTに完全に取り込まれ、ポイントP1、P2、P3及びP4の位置を決定することができる。
当技術の支援立体システムの状態は、一般的には、レーザ走査プロジェクタによるエピポーラアライン構成のローリングシャッターRGBカメラの立体ペアを用いる。システム100で用いる単純な代替の構成は、高解像度モノクロームトゥイッチーピクセルカメラ及び単一一次レーザスキャナのペアを含む。「予想」起動などの追加の選択肢(例えば、全体が引用により本明細書に組み入れられる米国特許出願連番第15/799,149号明細書を参照)及び狭バンドパスフィルタは、ローリングシャッター、エピポーラアラインメントを必要とすることなくこのような構成を日光で十分ロバストにする。システム100などのシステムは、最小限2つのトゥイッチーピクセルカメラと単一のモノクロームプロジェクタを含むことができる。少なくとも一部の実施形態では、これらの3つの各々を、数立方ミリメートルの容積に合わせることができ、3つの構成要素の各々を、図10Bに示すように融通性のある調節可能な非剛性の快適且つ超軽量の頭部装着デバイスを実現するHMDにおける異なる位置に取り付けることができる。
例えば、双方が引用により本明細書に組み入れられる米国特許出願公開第2015/0278992及びUS2017/028292に記載するように、頭部装着ディスプレイシステムは、ユーザの眼の各々に近く位置付けられる2画像投影デバイスTxL及びTxRを有することができる。投影デバイスは、逆反射投影表面に画像を投影し、逆反射画像が左眼と右眼のビュー視野を提供する。逆反射ディスプレイ表面の狭い逆反射によって角度的に及び狭く限られ且つ分離された2つの別々の「アイボックス」が存在する。原理上は、ユーザが眼の近くにプロジェクタを身に着けているとしても、何れの種類のフィルタ、レンズ又はオプティクスもユーザの視界を塞がない。同じ走査投影システムを「支援立体モード」に用いて、仮想協調セッションの一部として走査されるユーザの手にある物体を走査することができる。
図11A−11Fは、FoV両端の走査線が20マイクロ秒未満を取るように、周囲の高速走査モーション、例えば25kHzを有するよう2つのプロジェクタを構成できることを示している。他の走査速度も用いることができる。各プロジェクタの走査の高速軸は、両方の横方向に正確に指などの物体の輪郭を追跡するように反対側の方向に設定することができる。
図11Aでは、左側のプロジェクタビームが5ミリ秒でユーザの指を横断し、約5マイクロ秒離れたt0とt1の端輪郭ポイントをはっきりとマーキングする。最大500光コード又はボクセルのパターン(各照明に対して各々が約10ナノ秒)が指の両端に生成される。後の瞬間に、図11Bでは、時間t3で始まり時間t4で終わる第2期間中に、第2ビームが対角線上に反対の方向に指を横断し、約500光コード又はボクセルの別のシリーズを広げる。本明細書で説明するシステム及び方法を用いて、少なくとも一部の実施形態では、約1000高精度3Dボクセル位置を示した追跡システムが、1秒の約1/100,000番目を走査することができ、達成されたサブミリメートル精度指位置及びモーションデータは、ほぼゼロの待ち時間で全3次元である。図11Cはユーザの頭部の上面図を示し、左プロジェクタLPが対角線上を上に走査し、図11Dでは右プロジェクタRPが対角線上を下に走査する。
別の実施形態は、図12に示すように複数の手又は把持部又は他の付属物に据え付けられたカメラC1、C2、C3、C4、C5、C6(例えば、「トゥイッチーピクセル」センサアレイを備えたカメラ)を有するマルチアームロボット(又は他のデバイス)である。これらのカメラは、柄の上にあり高度に移動可能である。これらの追跡カメラが検査される物体の周りに最適に位置付けられるように、付属物は6の自由度でカメラを平行移動及び回転することができる。これらを検査中に連続して移動することができ、本システムのリアルタイム且つ一定の再較正特徴によって可能になる。
検査される物体はそれ自体で移動することができる。この表面は変形可能とすることができるか又は動作中にすることもできる。少なくとも一部の実施形態では、少なくとも3つのカメラが反射を検出する方法で、物体の表面の各及びあらゆる隅から隅までを(任意選択的に接触することなく)照明できるように、付属物LB1、LB2の1又は2以上が、送信機、光源、又は制御システムによって器用に操作される光ブラシを保持する。これに代えて又はこれに加えて、本発明のデバイスは、デバイスの本体又は他の付属物以外の部分に配置された送信機又は光源を含むことができる。少なくとも一部の実施形態では、少なくとも3つの反射が各レーザ照明表面ポイントに対して(記録される各ボクセルに対して)観測されるようにする段階は、試行錯誤の反復処理を含むことができる。例えば、小さなエリアを走査するために光源(例えば、レーザ)をオンにすることができる。少なくとも3つのカメラが互いに対して予想される期間内にフォトンを検出するまでカメラの1又は2以上を移動させることができる(例えば、カメラは「トゥイッチー」ピクセルでセンサの「トゥイッチング」を検出することができるか、又は代わりにSPADアレイのピクセルをほぼ同時にアバランシェする)。すぐに、ほぼ同一の時間スタンプを有する事象を持つ事象データのストリームが観測される。各場合の「ほぼ」は、例えば、1、5、10、15、20、又は25ナノ秒の間隔内の事象とすることができる。
3つより多いカメラ及び1つより多い光源を有することが望ましい。例えば、検査ロボット(水中検査又は他の使用に有用とすることができる)は、6つのカメラ及び2つの光源を同時に又はカメラと光源の何れの他の数も用いるよう取り付けることができる。図12は、検査中のエリアの別々のパッチを走査するためのカメラC1−C6及び2つのレーザブラシLB1及びLB2(すなわち、光源)を備えた6つのアームを持つロボットを示す。
少なくとも一部の実施形態では、マルチアームロボットが、複数の表面上の構造的特徴を同時に発見、検査及び追跡できることは有利とすることができる。何れの公知の構造も、写真測量法を用いた6つの自由度(DoF)空間信頼基準として使用できるので、ロボットが環境における何れかの適切な位置基準(例えば、港の水底の錨)(好ましくは、固定)に対して6DoFで極めて精密にその固有の位置及び向きを追跡するのを可能にする。同様に、腕の追加のセットを奇妙な形の障害物の周りで精密なマイクロ操作をするために用いることができ、ロボットはアームの1つのセットを用いて、物体に対して任意選択的に自らを固定し同時にアームの第2セットが物体の細かい3Dクローズアップを迅速に走査する。
一部の実施形態では、デバイスの何れのロボットアーム又は他の付属物も、光源及びカメラの両方を有することができ、作動中にこれらの特徴を交互に配備して、レーザビーム又はパルスを表面に向け反射を観測する。少なくとも一部の実施形態では、プロセッサベースの中央制御システムが進行中の検査をモニタする。少なくとも一部の実施形態では、この処理はCVアルゴリズム及び制御ソフトウェアを用いる。
表面は、摩耗、腐食又は他の損傷などの欠陥を検査することができる。少なくとも一部の実施形態では、異常が、例えばAI(人工知能)ベースのコンピュータビジョンシステムを用いて検出されるエリアにズームインするクローズ検査によって検査処理を完全に自律的且つ自律とすることができる。例として、命綱なしの検査は、中央海嶺の船の船体、掘削基地、パイプライン、又はウェルヘッドの構造的完全性をチェックするための1又は2以上の高度に操作可能な水中ロボット又はデバイスを含むことができる。他の応用は、パイプラインの知的「ピギング」に用いられるいわゆる「スマートピッグ」を含むことができる。「スマートピッグ」は、パイプラインの内部状態に関する情報を記録する検査デバイスである。検査中、「スマートピッグ」はパイプラインに挿入され、パイプラインに流れる生成物によって推し進められる。
これらの応用は、迅速な動作可能知的知覚の例であり、リアルタイムの観測が、即時の「現場での」動作(例えば、クローズ検査、デブリを消すことができる、修復する)をもたらすことができる。動作可能及び迅速な機械知覚は、十分強力且つ低待ち時間のオンボードコンピュータ資源を利用するのが好ましい。
例えば、GPU及び専用AI加速度計の100+TeraFlop(TeraOP)クラスによって提供される十分な処理能力によって、三焦点レーザ知覚を備えた上述のシステム100を用いた超高速走査と組み合わされた時に、図12に示すようなロボットは、好ましくは監督又は介入を必要とすることなく、自律的に、素早く且つ効率的に作動することができる。後者は、データ接続が制限されるか又は存在しない場所で有利である。
迅速で動作可能な3D知覚は、ステルス偵察応用のため、及び惑星探査(光の速度の制限による極端な待ち時間、及び全てのシグナリング)などの極めて遠隔の位置で作動する時、又は遠隔自律衛星検査のために重要である。
システム100の少なくとも一部の実施形態では、物体又は表面のミリメートル毎に、完全で詳細な「細粒度」3D構造マップを結果として生じる1秒当たり1億ボクセル又はそれ以上の速度で検査することができる。このようなマップは、振動及び構造的共振及び変形などの高密度ダイナミクスを明らかにする精密なモーション観測を含むことができる。
各ボクセルが1平方mmである場合、システム100の少なくとも一部の実施形態は、1秒当たり最大100平方メートルを走査することができる。走査処理中、光源から発した反射されたフォトンの3又は4以上の同時検出からのデータ事象だけが次のコンピュータ段階に進む。これらのNタプル(ここでN>=3)事象観測が処理され且つ次に(少なくとも一部の実施形態では、ほぼ即座に)正確なボクセルデータのストリームを結果として生じる。正確な観測によって、3D走査のセクションの全てを迅速かつ正確に互いにスティッチすることができ、少なくとも一部の実施形態では、効率的にオンボードメモリに格納できる。対照的に、多くの従来のシステムは今日、生の未処理マルチビュービデオストリームを格納する必要があり、検査される物体に過度に大きなストレージ及び/又は複数のトリップを要求する。
本発明のシステムは、フィードバックループの一部としてリアルタイムデータストリームを用いて連続して且つ自動的にアームを動かして、ボクセルデータの連続高速フロー、及び従って3D表面の効率的で高速の完全な検査を保証することができる。
少なくとも一部の実施形態では、ナノ秒の精度を持つタイムスタンプを備えたコンピュータ計算されたボクセルが提供される。タイムスタンプは、3Dマニホールドのボクセル位置の順次的に照明に同期されるのでこのナノ秒精度を達成する。
少なくとも一部の実施形態では、個々に観測されたボクセルのこの精密なタイミングが、検査ロボットシステムに異なる視野から観測される表面のパッチの観測に統合、融合及びスティッチし、モーション及び加速度の正確な記録を維持するのを可能にし、少なくとも一部の実施形態では、ナノ秒精密時間スケールで、しかしリアルタイム又は後の1つのシステムの観測を、この精度の損失なしに他の何れかのこのようなボクセル順次システムに統合(スティッチ又は融合−すなわち、データ融合の処理を介して)することができる。少なくとも一部の実施形態では、このようなシステムの2又はそれ以上の観測は、1秒の100万分の1まで観測された表面のmm毎の位置、速度、加速度及びカラーについて同意しなくてはならない。この固有の時間的及び空間的精度は、本発明のシステムの2又は3以上のデータを融合する処理を大幅に単純化する。
少なくとも一部の実施形態では、4つの連続して観測されたボクセルの後に、更なる観測が、知覚システム100を用いたロボットが、移動アームの各々、及び可能であればひじの関節の位置及び向き、速度及び加速度を(6DoFで)較正し、且つ作業スペースでの固有の向き、速度、及び軌跡を再較正できるようにする。作動のマイクロ秒内で、適切に装備されたロボット検査及び操作システムは、身体的自覚と呼ばれる自己受容のバージョンを達成する。アリストテレスの時代の第六感として提案される自己受容は、手足の位置及び動きの正しい感覚、空間における体の認知自覚である。
ロボットの各カメラ(又は眼、例えば、トゥイッチーピクセル又はSPADアレイ)が1秒当たりに最大100万回の速度で固有の位置を知らせるので、ロボットの全ての移動部分及び区分は、6DoFで即座に(又はほぼ即座に)一部分の全てを向ける及び協調するために共有観測を用いることができる。従って、ロボットの各接合位置及び姿勢を追跡することで、追加のハードウェアIMU又は回転復号器の必要性を取り除くことができる。
自己受容は、器用さ、敏捷性及び衝突防止を可能にするか又は拡張することができ、例えばピザデリバリーロボット(又は多くの顧客又は他の個人又は危険を持つ場所の他のロボット又はデバイス)から期待されるように群衆の中をナビゲートするのに必要な基本的な迅速の器用さを向上させることができる。この追加の器用さ、操縦性、動的敏捷性、及び自己受容、平衡及び猶予は、レストラン及び他の類似の使用のロボットウェイター又はウェイトレスに知覚システム100を合わせる。
レーザ「ブラシ」をAR(拡張現実)位置検知システムに加えて、形状を正確に検出及び迅速且つ効率的にチェックすることができるが、現実的な見た目の増強を検出された現実にシームレスに合わせることができる。後者は、人の顔又は指などの生きている変形可能な物に添加物(宝石、王冠、鼻輪、タトゥー、口ひげ、帽子、角など)を付けた時に特に重要である。
システム100を用いて、頭部装着ディスプレイ(HMD)は、三焦点センサ構成を用いて添加物に対して現実世界で効率的に物体を追跡することができる。システム100などのエンドツーエンドピクセル順次システムを用いる(例えば、「トゥイッチーピクセル」センサを用いる)ことができるか、これに代えて、従来のフレームベースのRGBセンサを用いるレーザ及び、例えば、DeBruijnタイプカラー及び/又は強度光コード化構造化光技術、以下に説明するようにコード化レーザ光走査進行を用いてレーザによって順次的に照明されるピクセルを備えたハイブリッドシステムアーキテクチャとすることができる。
機械ビジョン科学者は、畳み込みニューラルネットワーク(CNN又は「CovNets」)などの新しい「AI」ベースのコンピュータ方法に頼ることが多くなっている。RCモデル車を自律運転するためのCNNを訓練する時に、2つの個々のカメラデータストリームとしてカメラのステレオペアを扱うことが十分であることが最近になってUCバークレイの研究者によって示された。CNNは、RC車の運転者訓練セッションの間に取り込まれた視覚モーション画像で訓練された時に暗黙的に立体図形の同等物の学習に終わる。これは、図形変換(コンピュータ集中作動とすることができる右及び左立体ピクセルペアマッチングなど)に対する必要性を取り除く。生ピクセルから運転者動作に直接進むことは、運転時間の高速反応及び乏しいコンピュータ予算を結果として生じる。訓練後に、訓練された神経網は、暗黙的に立体視推定を用いてその動作を通知する。
類推により、Nカメラシステム100からのデータフロー出力を用いて、CNNを訓練して、ロボット、自律運転システム、及び他のデバイス及びシステムのための視覚野のように機能することができる。神経網知覚システムの第1の数層は、効果的な細粒度低待ち時間3D空間−時間知覚能力を提供する。
これは、人間の脳のように、神経ネットワークが、写真測量法、視覚走行距離計測法又はSLAMによって直接通知された数学的に明示的な規則及び訓練された神経網によって神経効果を「直観する」ことによる駆動に基づいて空間図形に関して明示的に知らされる(又は訓練される)ことなく、未知の3Dリアリティ風景における高速ナビゲーションに対する基本的な特性をマスターできることを示唆する。
明示的規則ベースの図形変換がステレオカメラを備えた遠隔制御車に必要ないこと及び一連のステレオ画像ペアにおける3Dリアリティを取り込む2つのカメラから3Dボクセルを明示的に抽出する必要がないことが明らかである。双眼の人間は、一定の動きをする一対の低解像度の眼よりも上手に生き延びる。従って、上述のように、十分なビューポイント(N+ビュー)によってカメラを備えたロボットを未知の3D環境で高速で操作することが有効であることは説得力がある。進化は、ハエトリグモのビジョンシステムに類似の生体模倣の疑似ランダム走査ビジョンシステムを提案する。
バンドル調節は、統計的に最適な方式でシーンポイントの内部及び外部パラメータ及び3D座標を同時に推定する統一された方法である。カメラ及びシーンポイントの数は任意に大きくすることができる。概念的には、逆問題を解決してグラフィクスをコンピュータ計算し、未知のシーンの画像が与えられた場合、タスクは、シーン構造を回復することであり、すなわちカメラを記載するパラメータと共に視覚表面は画像を撮影するために用いられ、従って全ての利用可能な情報を活用する。例えば、全体が引用により本明細書に組み入れられるW Forstner及びB.P.Wrobel、写真測量法コンピュータビジョンの15章を参照されたい。
例えば、SIM(モーションからの構造)では、一連の観測(例えば、移動カメラによって撮影された順次ビデオフレーム)が存在する。各フレームは、時間が観測中に静止状態であると思われる時に準即時観測である。シーンにおける物体に対するカメラ自体のモーションによって起こるフレーム間の変更された視野は、カメラのシーン及び軌跡の元の3D図形を通知する。
上述の三焦点テンサー方法では、4又は5以上の3Dシーンポイントが少なくとも3つのカメラによって観測される。シーンポイント、これらの3Dスペースマニホールド表面、及びカメラを移動させることができる。LSD SLAM(ラージスケール直接単眼同時ローカライゼーション及びマッピング)における移動ステレオカメラのような複数の同時ビューは、SLAM(同時ローカライゼーション及びマッピング)の高度形態を可能にする。
少なくとも一部の実施形態では、システム100は、ボクセル位置の軌跡を順次的に照明して、ほぼ即時の同時検出事象を3又は4以上のカメラ(カメラの複数N、Nは3に等しいか又は大きい)で発生させる。これは、3(又は4以上)のカメラのピクセル位置間の対応、座標ペア、例えば、3つの異なるカメラにフォトンを検出するピクセルの[列数及び行数]を瞬時に設定する。照明の各インスタンス(すなわち、10ナノ秒毎)を意味する原理では、全ての以前の推定(表面、物体、及びカメラ中心の軌跡)に更新を行うことができる。
基本的には、各連続ボクセル照明によって、本発明のシステムは、これらのパラメータを正確に取得することができ、この結果、この方法及びシステムは、多数の連続三焦点観測に基づいて(慣性力学を仮定して)極めて正確な過去、現在及び未来の(予測)3Dモーション軌跡の決定を可能にする。
一連の連続照明ボクセルのN視野からの同時観測を備えた三焦点(マルチビュー)アプリケーション又はシステム100−ここで数Nは3より大きいか又は等しい−は、フレームベースの従来の方法よりも高度なSLAMを可能にする。カメラシステムのエクストリンシックの計算は効率的に行うことができ、パラメータの全セットを毎回再計算する必要がないか、又は再計算する必要がある場合、手順を素早く且つ効率的にすることができ、以前の最新の観測からの値をシードすることができる。モーション「フリーズ」、すなわち変化は、マイクロ秒の時間スケールで最小である。最新の観測に基づく予測、例えばカルマンフィルタ推定は、極めて近い可能性がある。
図13A及び13Bを参照すると、標準的なカメラ画像が、2D画像として又は最初は粗く走査される3D走査として、例えば3D世界の関心ポイントを識別するために使用される従来のステレオ又は構造化光方法によって処理される。スキャナレーザ源Txは、従来のローリングシャッターカメラのビューを照明するために用いられ、このカメラの視野が走査レーザ照明器と同一の場所に位置付けられ、これによってカメラの各ピクセルPijに対する照明瞬間Tijを正確に決定することができる。図13Aでは、Txによって送信された走査レーザビームからの光は、物体Ocの表面ポイントPから反射する。同一場所カメラRxのピクセルPijは、時間Tijの反射パルスを受信し、ポイントPの表面の時間、位置及びカラー(送信されたカラーR、G、Bに対する物体のアルベド)値をマーキングする。図13Bでは、本発明のシステムは、例えば物体上の4つのスポット、基準マークt1、...t4にマーク付けする。ここで他のカメラC1...Cnは、これらの照明されたマークを見る(検出する)ことができ、「crop」がこのビューで物体を選択する。任意選択的に、マークの4(又は5以上)を検出する3又は4以上のカメラは、システム100に関して上述したように三焦点テンサー計算を用いてマーク付けポイントの3D位置を即座に計算することができる。任意選択的に、Nカメラからのデータフローを低減するために、物体を選択的に照明、及び/又は選択的に記録(「3Dクロップ」)することができる。
ピクセルサイズRGBレーザビームは、従って各記録されたピクセルの位置をTijに時間的に(ナノ秒で)且つカメラの解像度の制限値に制限する。後者は、例えば、経済的な8Mピクセル「4k」センサによって、40×20度FoVによって、40度/4000列が良好なオプティクスを仮定する1列当たりの1/100度である場合、方位角又は仰角の何れかで1/100の程度と同じように細かくすることができる。
システム100のピクセル順次的に照明は、高速モーションビデオ記録に対してもモーションのぼけを取り除くか又は低減する。レーザ照明フレームのシーケンスは、コンピュータシステムが関心ポイントの位置を識別、追跡及び予測するのを可能にする。本発明のシステムは特別な照明フレーム(又はわずか数走査線)を挿入することができ、関心ポイントだけが照明される(又はこれに代えて、特別に装備されたカメラが、照明された基準ポイントによって「ブラケットされる」ピクセルだけを選択的に起動又は読み出すことができる)。
観測システムのおける他のカメラ(C1...Cn)は、関心のこれらの選択されたポイントの位置を記録することができる。これらの照明は疎らで順序良くすることができるので、図13A及び13Bの立方体形の物体Ocなどの関心の物体は、容易に識別及び選択的に追跡することができる。
閉ループシステム3D基準追跡システムの手順の1つの例示的な実施形態は以下を含む。
1.第1カメラの全フレームの照明を開始する。(任意選択的に、全モーションのぼけの除去又は低減及び高速高フィデリティモーションキャプチャを可能にするためにシステム100を用いる)。
2.ピクセル毎にフレームの関心ポイントを識別する。
3.後のフレームの関心ポイントを再識別する。(この後のフレームは、次のフレームとすることができ、可能であれば以前に識別された物体位置の周りの小さなエリアにサーチを制限する。)
4.ポイント(2D、ピクセルカメラ位置)の適切なセット及び各ポイントのタイムスタンプが取得されるまで、一連のフレームの上部ステップ3を繰り返す。
5.関心ポイントの(あるとすれば)モーション軌跡を決定する。
6.走査ビームの次の(数)パスの位置を予測する。
7.予測された軌跡に沿って関心のこれらのポイントだけを照明する。(これらは、送信機及び第1カメラの視野から見られる2D軌跡及び2D位置とすることができる。)
8.一連のカメラ位置の各々にできるだけ多くの照明ポイントのピクセル位置をマーク付けする。
9.任意選択的に、ポイントは照明されるカラーコードとすることができる(追加の観測者カメラが、色毎にポイント位置を識別することができる従来のRGBカメラであると仮定する。)
10.公知の測定学技術(例えば、三角測量、PnP及びバンドル調節)を用いて、観測カメラの3D位置及び関心ポイントの3D軌跡をコンピュータ計算する。
ピクセルぼけの不存在及び各観測の極めて細粒の時間的解像度のせいで、世界クラスの3D知覚システムが生成される。
長い距離で、パルス又は他のToF測距方法は、任意選択的に、シーンの3D図形を通知するために用いることができ、例えば観測者の間のベース分離が制限されすぎる距離で(例えば、カメラ中心間の不十分な距離がある時)。
高速走査はモーションエラーを低減することができる。3つのカメラが、1ミリ秒の時間スパン中に最も広いFoV空間(例えば、2つの方向方位角及び仰角における4つの極端な走査ポイント)にわたって、ある期間に渡る4つの連続ポイントを見て且つカメラ間の相対的横軸(正接)速度が第4の限界観測の終わりによって1秒当たり10メートル(36km/h)の速さの程度であると仮定すると、真の移動カメラ位置(観測されるポイントに対する)は1センチメートルだけシフトすることができる。この1ミリ秒の観測期間にわたって、300,000[x,y]カメラ座標観測をもたらす100,000中間走査(毎10ナノ秒に1つ)を存在させることができ(3つの「トゥイッチー」カメラの各々における100,000同時観測)、これによって、十分なリアルタイムコンピュータパワーが与えられると、カメラ軌跡、及びカメラ軌跡の相対的位置を正確に推定することができる。
3Dマニホールド両端の走査は、連続的3D表面から、表面全体の軌跡をモデル化、観測、追跡及び予測するために2つの表面の交差として軌跡を形成することができるが、一時的オクルージョン、「ドロップオフ」及び他の不連続性を扱う。目標は、本発明のシステムの周囲光に対する感度を上げ堅牢にするためにアレイの予測される2D軌跡に沿って個々のピクセルの予想ゲーティング(例えば、「トゥイッチーピクセル」又はSPADピクセル)を達成することである。目的は、3D空間マニホールド小区分及び2Dカメラ小区分でビームが次に現れる関数で表現できるように、すぐ前方の3D走査軌跡の確率的制限の数学的関数のレベルを導くことである。
3又は4以上のカメラで観測された軌跡に基づいて、且つコンピュータ計算された軌跡に基づいて、これらの軌跡は動力学的に(例えば、数学的に)予測可能な仮定平滑非ランダムモーションであり、表面、レーザ源及び観測カメラの各々の間の相対的モーション(6DoF)が走査される。1つの実施形態を図14に示している。走査線は、2つの表面の交差であり、表面Iはビーム軌跡マニホールド(BTM)であり表面IIは走査された物体マニホールド(SOM)である。
3つのカメラC1、C2及びC3は、走査ビームの軌跡の反射を観測する。第1区分は、観測される実際の軌跡であり、第2区分は予測される将来の軌跡である。観測される軌跡に沿った何れのポイントPでも、レーザ照明ポイントが軌跡に沿って速度ベクトルVで移動する。このモーションは、カメラC1、C2及びC3それぞれのセンサ面における3つの2Dベクトル、V’、V’’及びV’’’として3つのカメラに投影される。数百ナノ秒の極めて短い間隔にわたって、ピクセルが次に「トゥイッチ」できる将来の位置を、到着ビームの前の「ジャストインタイム」方式で、予測、予想、及び必要に応じて起動することができる。従って、センサの予測される軌跡に沿った個々のピクセルを1マイクロ秒未満の期間に起動(露出)できる場合、SPADSは、最大利得に逆バイアスすることができ、センサダークノイズ、及び周囲光ノイズを最大値に抑えることができる。
表面I:ビーム軌跡マニホールド(BTM)−走査ビームは、連続平滑方式で3Dスペースを走査する。定義により(古典物理学の法則に従って、すなわち非常に大きな重力場の不存在)、発せられたレーザビームのフォトンが、検出及び追跡される遠い物体又は表面に向けてミラーMから直線で自由空間内を移動する。ミラーMは、回転の瞬間軸r(t)の周りを回転する。
入射高度コリメートレーザビームはミラーに反射して、ピボット、すなわちミラーの角速度の2倍で回転する(正反射のオプティクスに従う)。入射ビーム自体は、例えば、米国特許第8,282,222号、8,430,512号、8,696,141号、8,711,370号、9,377,553号、9,753,126号、及び米国特許出願公開第2013/0300637及び2016/0041266に記載されるようなリレーオプティクスによってリンクされた一連の走査ミラーを含む走査システムで以前の走査ミラーの動作によって事前回転することができ、これらの特許出願の全てはその全体が引用により本明細書に組み入れられる。例えば、長円体リレーは、長円体ミラーリレーの第1焦点F1に配置されたミラーから第2焦点ポイントF2(2つの焦点F1及びF2を有する長円)までの1次元(例えば、方位角水平方向)に走査モーションをリレーすることができる。このリレーの第2焦点で第2方向の回転が、一般的には第1走査ミラーの効果に直交する方向(例えば、垂直方向、又は「上昇」)に、走査ビームに伝えられる。
従って、マイクロ秒で測定される短期間にわたって、ビームは、走査機構によって伝えられる高速回転の結果である高速走査方向に実質的に動くことになる。
最適なマルチミラーリレーシステム、又は適切に設計された2軸ミラーによって、正味の効果は、特異点起点Oから発生するようにビームが走査機構を離れることになる。ビームがミラーの中心の周りをピボット(回転する)時に、Oがこの位置に現れる。他のシステムでは、ビーム起点Oが最後の走査表面全体でわずかに横方向に移動(遷移)することができ、この上にレーザ走査機構を離れる前に反射する。しかし、この遷移はある距離で見られる時にほとんど無視できる。
最終結果は、ビームが空間を通して滑らかに走査し、3D表面に沿って形作られた薄いエンベロープ内のこの空間、わずかに曲線になった空間マニホールドを横断する。モデル化するための別の方法は、ミラーOから発生するレイのバンドルとしてモデル化することであり、時間的に小さな増分で各連続レイはほぼ一定方向(高速走査方向)に小さなステップで(例えば、ナノ秒毎の1/100の程度)回転した。短期間にフリースペースを介して横断する高コリメートされたレーザビームがレイの緊密なバンドルを形成し、時系列のように進行し、各々の微小なステップによってレイは小さな回転フラクションによって進む。
少なくとも一部の実施形態では、第1表面、BTM表面は平滑であり、何れかの1つのポイントの1つの方向にのみわずかに曲線が付けられている。BTM表面上の各ポイントに対して、少なくとも1つのまっすぐな次元が存在し、且つこれに直交してわずかに曲線をつけられた第2の平面次元が存在する。BTM表面上の何れかのポイントPで、まっすぐな次元が起点Oから発生するレイの1つによって形成される。このレイは、走査機構におけるポイントPから発生する時間の異なるポイントでレーザビームによって形成される直線のバンドルの1つである。これに直交するのが走査方向である。何れかのポイントPの走査方向は、レイ方向に対して正接(従って、直交)である。BTMは、わずかに「波打つ」として説明することができる(空間のリボン、又は波打つ表面のような、Oから扇状に広がる)。
表面II−走査された物体マニホールド−第2表面は、本システムによって走査及び追跡され、「走査物体マニホールド」(「SOM])である。ビームが照明するゼロ以外のサイズの何れかの物体に属する表面又は3D空間マニホールドである。発明者らは、ここで物体の表面が実質的に連続しており平滑である(隙間がない、髪がない、樹上突起など)であると仮定する。
ローカルで両方の表面が平滑である(すなわち、「弁別可能」)である場合に、これらの交差は両方の表面によって共有される線であるので、BTM及びSOMの交差は、それ自体が平滑である線であり、従って2つの平滑な表面のこの交差は平滑でなくてはならない(弁別可能)。観測可能な走査線軌跡は平滑でなくてはならず、これは、連続スポットの位置が以前の観測から定義された直線軌跡に沿って予測可能であることを意味する。
図21Aは、本システムがパターン化画像406をその上で操作するプロジェクタ402及び表面114を備えた「疑似ランダム」レーザシステムの例示的な実施例を示している。画像406上の各画面位置408は、1又は2以上の走査線404の上にかかることができる。図21Bは、走査され予測された軌跡部分を備えた1つの疑似ランダムビーム軌跡の実施形態を示す。画像を投影する処理を2つの個別の段階、すなわち走査線404の既に走査された部分が検出されるフィードバック段階、及び組み合わされた画像ビームが走査線404の予測される部分に投影される投影段階に分割することができる。これに対応して、走査線404は2つの個別の部分、1つは走査されたビーム軌跡部分416と2つは予測された軌跡部分410を有する。走査線404の走査されたビーム軌跡部分416は現在のビーム位置412で終わり、この実施形態では、ナノ秒タイミングに基づいて一般的に生成されるパルスのシーケンス414を含む。予測される軌跡部分410は、パルスのシーケンス414に関連付けられるデータに基づいてプロセッサ116によって予測される部分である。組み合わされた画像ビーム120は、一般的には走査線404の予測される軌跡部分410に投影される。
図23は、ビームの画像が真の軌跡に沿ってカメラを横断する場合に反射又は散乱されたフォトンビームとしてカメラのピクセルによって観測される検出事象のトレール2300を示す。このトレール2300は、結果生じた軌跡が空間的な精度(例えば、1/10ピクセル次元)及び時間的(例えば、事象の1/10時間解像度(平均ピクセル全体で送信時間に大体同等である))の両方で精密であるように、線形補間によって(例えば、線フィッティングによって)調整することができる。図23は6つのピクセルトレールを示すが、ピクセルの何れの数のトレールも用いることができる。
例えば、100サンプルが1マイクロ秒にわたって(すなわち、100,000,000生ボクセル/秒の走査速度(大体10ナノ秒毎に1つの事象))取られる場合及び走査が平滑であり連続的である場合、カメラの空間解像度は、1/10ピクセル次元と同じに適切とすることができ、即時軌跡位置をナノ秒に時間的に補間することができる。
図24A及び24Bは、カメラ1及びカメラ2それぞれのピクセルによって観測される検出事象のトレールを示す。2つのカメラのピクセルアレイに(各カメラを位置付ける向けることができる、例えば中心光学軸の周りで―他の全てとは異なるように回転させることができるNカメラのセットの)2つの異なる位置又は方位で)画像化されるので、ピクセル照明の軌跡は、2つの異なる方位から見られる。各トレールは、ギザギザになり、カメラの各々の順次トゥイッチするピクセルから生じる。ピクセルの「トゥイッチ」は、完全に規則的な間隔ではない。しかし各トレールを補間して、実際の3D軌跡の2Dカメラ投影に密に合わせることができ、2つの補間は、図24Cで静的に組み合わせることができる。マニホールド上のボクセル照明軌跡の小さなサブセクションに対するNのこのような補間の重なりは極めて近いフィットとすることができ、地面の観測される3D軌跡及び近い高解像度の観測が真である場合に正確な推定を提供することができる。
各ピクセル化アレイは一部の空間的及び時間的量子化エラーを固有に有するが、ビームの画像がカメラの各々の両端を異なるように横断する場合、カメラが多い程、空間マニホールド上でフォトンビームの3D軌跡を観測する多様なビューポイントが多い程、ビームの即時位置が正確である程、その真の軌跡を決定することができる。個々のピクセルによって観測可能なものより小さな特徴にビーム位置を発見し、且つビームの反射(Nカメラの各々の移動スポットとして画像化)が何れか1つのピクセルを移動するのにかかる時間より短い期間にモーションを見ることができる。
同様に、観測中のカメラ及び/又は位置センサからのフィードバックは、システム100が前方の軌跡を予測し且つ走査された照明(空間のマニホールドである画面上)の予想される軌跡に対して調節された走査パターンを描画するのを可能にする。同じ疑似ランダム非反復走査方法(例えば、オープンLissajour)は、正確な低待ち時間モーション精度追跡システムをもたらす。
連続して又は一連の急速な「曳光弾」又は追跡スポットとしての何れかで、物体の表面の少なくとも一部−照明処理中の何れかの部分を観測することができる何れかの観測カメラC、何れのこのようなカメラも、センサの表面に投影されるスポットの時間進行の通りにアパーチャによって取り込まれ且つオプティクスによってフォーカスされる光からの反射の現在の並びに以前の軌跡の一部を観測できることになる。
平滑な軌跡を観測することによって、センサでのスポットの進行、「次に来る」軌跡、換言すると将来のスポットの位置(将来の反射、すなわち、まだ観測されていない表面ボクセル照明)を予想できることになる。連続スポットの位置は、センサの表面の小さなサブセット以内に狭くすることができる。各観測された実際の位置は次の位置を通知する。軌跡に沿って正確に将来の位置を予測し、且つ直近の将来の(短いナノ秒間隔の)スポットを見ることができるピクセルの発生の位置及び時間であるスポットのピクセル横断軌跡の正確な位置を高確率で予想するための数学的方法(例えば、カルマンフィルタ)が存在する。
重大な飛行時間(ToF)が、例えばLIDARシステムが500フィート距離の物体を走査する時に約1マイクロ秒がある場合、入射光ビームの実際の空間方向は正確に相関付けなくてはならず、本発明のシステムは、センサのピクセルの極めて小さなサブセットの起動をコンピュータ計算及び選択及び制御するための十分な時間を有する(1マイクロ秒は1000の1ナノ秒クロックである)。
走査ビームが、別の視野から見られるように物体から「落ちる」(例えば、表面又は物体の予測しない端に遭遇する)場合、ビームは「ジャンプアヘッド」するように見えることがある。ビームが、予測される範囲を超えて予期しないように、予測される軌跡の前方にある起動されたピクセルを超えて着地するので、センサは、信号を検出できないことがある。このような端が起こった場合、サーチする(例えば、同じ軌跡に沿ったスライディングウィンドウを起動し、ビーム−センサ両端のトレースを再取得する)ことによって回復を即時又はほぼ即時とすることができる。3又は4以上の観測者の場合(例えば、三焦点又は四面体走査LIDAR構成)、SOMの表面上の照明されたボクセル軌跡を観測する3又は4以上のカメラが常に存在する点に留意されたい。従って、これらのカメラのあるサブセットは、信号を失うことはなく、信号の観測が信号の追跡を一時的に失くす残りのセンサの再取得を助けることになる。
このようなジャンプアヘッドが起こった時にも、端又はオクルージョン又はギャップのせいで、ビームは、予測可能な軌跡、観測された実際の走査ディレクトリから正確に予測することができる可能な軌跡のエンベロープに近く従うことになる。予想しない「ジャンプアヘッド」は、同じ予測される軌跡に沿うが、実際にはこれから逸れることはない。
わずかのピクセルだけが何れに1つの時間にも開いているので、外部からの信号の光を効率的にスクリーニングし且つ従ってマスクアウトする(選択起動、又はピクセル固有のシャッタリングによって)、例えば周囲の光を大部分シャッターアウトして、本システムが追跡ビームの検出を強く好むのを可能にできる空間−時間フィルタが生成される。例として、公知の(観測された)軌跡に沿って横断することによるカメラ内の百万ピクセル(1000行1000列)が存在する場合、カメラは、すぐ前方の予測される軌跡に沿って何れかの1つの時間にフォトン検出10ピクセルにだけ開くことができる。従ってカメラは、何れか1つの時間にカメラの1/100,000フラクションだけを露出(起動)し、周囲光が従って抑制され、トレーサ信号検出が100,000対1の因数によって指示される。効果的に、晴れた日の周囲照明が100,000ルクスである場合、カメラでは1ルクスに低減される。
確率論的通知マルチビューカメラオーバーラップ(「SIMCO」)実施形態が図15に示されている。一連のNカメラ又はセンサC1...CN(例えば、SPAD又は「トゥイッチーピクセル」アレイ)は、重なり合うカメラ視野によってビュー(図示せず)を観測する。例として、3つのカメラC1、C3及びC5が(レーザプローブビームの−図示せず)の反射を検出し、事象同時並行性チェック(ECC)処理又は回路とほぼ同時に(すなわち、同じ短10ナノ秒期間内に)事象を報告する。ECCは、3つの事象の発生の(程度)を確認する。3つの事象(サブセットM、ここで3=<M=<N、この場合M=3)十分に同時である(例えば、5ナノ秒以内)と見なすと、事象をレーザプローブビームによって照明された同じボクセルから発した反射光でなくてはならないことになる。別の回路又は処理CVPがボクセル位置をコンピュータ計算しボクセルデータを分析のためのダウンストリーム知覚システムに送信する。任意選択的に、Mカメラの6つのDoF位置の較正データが更新される。
マルチシステムを用いた360度走査物体又は人−例えば引用により全体が本明細書に組み入れられる米国特許第9、813,673号に記載されるホログラフィックビデオ取り込みシステム、又は他のVR没入型モーション取り込みシステムでは、多くのカメラがパフォーマー/ユーザの周りの剛性のフレーム(カメラリグ)に取り付けられる。この開示に記載するようなシステムは、一般的には注意深いセットアップ及び較正を必要とする。
本明細書で説明するシステム100は、何れかの数(N)の視野(例えば、カメラ)から多くの同時事象データストリームを取り込み、規則的な超短(例えば10ns)間隔で同時に記録されたMカメラのサブセットからM事象の各々をマッチさせる及び対にすることができる。システム100がカメラモーションに対して完全に堅牢であるので、マイクロ秒での何れの新しいカメラ位置への継続的な再較正、カメラリギング及び較正は任意選択的である。図16は、較正及びカメラリグをスキップし且つダンサーF(例えば、パーティ)のパフォーマンスを自発的に取り込む6つのカメラ(C1...C6)を備えた「アドホック」自然発生的(自己編成)「カメラクルー」を示す。
「ブリンカー」−目標選択的3D基準インサーション及び測定、RFリフレクタ、及び又はブリンキングレーザダイオードメーカB1、B2、B3及びB4が図17A及び17Bに示されている。次の車両に3又は4以上のカメラ(C1、C2、C3...など)がある。
カメラは、4つの個別の明るく照明されたポイントを発見及び追跡する標準的なカメラとすることができる。又は「ブリンカー」は、システム100の「トゥイッチーピクセル」又はSPADアレイセンサによって即時に検出される明るい単一波長レーザパルスの各々を連続して(同時ではなく)発するレーザダイオードソースとすることができるか、又は4つのポイントを、走査レーザビームを反射する且つ反射がシステム100のカメラによって検出されるレーザ反射器とすることができる。図17Aは、車両の近くに4つの「ブリンカー」ポイントを検出する3つのカメラを示す。図13Bは、「ペロトン」フォーメーションの2つの車両を示し、後方車両が前の車両に近接して従っている。
コード化カラーストリング(別名「カラーベッド」)−レーザプロジェクタは、3又は4以上のカメラ(C1、C2及びC3)の各々が、3Dマニホールド表面のカラーのコード化ストリングを観測して、図18に示すようにシーケンスのカラーを認識できるように、一部の空間的に別々の固有のパターンにおける表面全体に投影されるカラーの公知の固有のシーケンス(例えば、R、G、B又はNIR)を生成する。3又は4以上のビューの間のポジティブ空間−時間マッチは、連続した各カラー照明に対して設定することができる。これは、各照明されたボクセルポイントがその3D位置及び時間シーケンスによって識別できることを意味する(各ボクセルに対するナノ秒の固有の時間スタンプ)。軌跡に沿ったカラーシーケンスは、一意的に識別可能な位置基準、例えばDeBruinコード化によって、一定の期間を通じて及びストリングに沿った一定の長さを通じてローカルに固有である3又は4以上のカラーのシーケンスを提供する。このようなコード化は、隙間及びオクルージョンが起こった時でも、4又は5以上のカラーのフラグメント、ストリングのシーケンスのフラグメントを識別するのに十分とすることができる。カラーシーケンスは、このような照明の長い(ミリ秒)シーケンスを取り込んだフレームにおける時間シーケンスキャプチャをカメラが理解するのを可能にするマーカである。本発明のシステムは、順次的に照明されるボクセルの軌跡に従い、照明のカラーコード化ストリングの空間−時間パターを描くことができる。各カラーベッドが、このフレーム露出で特定のナノ秒正確間隔中に起こった照明であるという知識によって、支援されていない高速グローバルシャッターカメラシステムを超える時間及び位置精度を持つ極めて正確な表面モーションを観測することができる。
ストリングの固有のシーケンスを持つカラーベッドは、空間−時間マーカとして機能する。プロジェクタの空間−時間位置の知識は、本システムが作用するために厳密には必要ない。3つのカメラ及び4つのマッチポイントの三焦点構成は、シーケンスを復号(及びカメラ位置を再較正)するのに十分である。しかし、システムFOVにおけるカラーの正しいシーケンス及びパターンの空間−時間進行の以前の知識を知ることで重要な追加のクルーを提供できる可能性があり、コード化方式を完成し同時に、例えばフィードバックループを介して追跡システムに追加の堅牢性を提供することができ、レーザカラーシーケンス投影を、表面アルベドの変動、構造及びでこぼこなどの物体の観測可能な表面特性に対する強度及び空間周波数を調節することができる。
本発明のシステムのFoVのシーンのある部分は、高い隆起の特別な又は強い関心、例えば前方の軌跡に直接起こる物体、又は切迫した衝突のリスクを提示することがあり、密なカラーシーケンスコード化要件に値する物体とすることができる。パターン又は投影は、クローズ形式(周期的)リサジュー、オープンリサジュー(非反復)又は他の形式の疑似ランダム空間パターン投影とすることができ、密度の高い「斜交平行」パターンの表面に交差する。このようなシステムは、関心の物体上に陥凹3Dクローズアップを提供するのに優れている。
これに代えて、モノクロームシステムは、強度変動コード化方式を使用する3つの急速グローバルシャッターカメラを用いることができる。先行の実施形態では、ストリングシーケンスがカラーバリエーションを用いてコード化され、順次投影されるストリングに沿って時間の進行(ピクセルシーケンシャルのシーケンス)に目に見えるようにマーク付けして、同時に各ポイントに空間アイデンティティ及び認識可能な特異性をストリングセクションに追加し、従来のフレーム露出カメラを用いるNビューモーション追跡システムにおけるNタプルに容易にマッチ可能にする。
代替のレーザ光コード化方式、例えば急速レーザパワー強度変動を用いることができ、高解像度及び完全狭帯域フィルタ化従来カメラがシーケンスを観測するのを可能にする。この方法は、例えばレンズスタックに適用されるかなり単純なグローバル狭帯域パスフィルタを用いることによって電力を消費せず且つ高い周囲堅牢性を獲得することができる。RGBモザイクセンサの全ての第4ではなく各位置を使用することによって空間解像度を2倍大きくすることができ、この方法は空間エイリアシングから影響を受けないはずである。標準的なCMOSカメラのいわゆる8又は10ビットグレースケール精度を十分利用するための直接フィードバックによってソースレーザ光の強度を調節することができる点に留意されたい。
一部の実施形態では、本発明のシステムは、広く空間を開けられた交互のオープンリザジューパターンを用いて3又は4以上の高速グローバルシャッターカメラで観測することができる。強度コード化ストリング状パターンは、各連続フレームの10%未満を満たすことができるが、フレームの短いシーケンス後に数(約10)連続フレームのこのようなコード化ストリングを備えた全表面をカバーする物体の表面の全3D形状を取り込むことになる。100FPSで実行するN(3又は4以上)のカメラによるフレームの出力の各セットによって、Nフレームの各セットは、進行を観測して、合計フレームエリアの極めて小さなサブセット内の個々のNタプル対応にマッチすることができる。例えば、本発明のシステムは、N10メガピクセルカメラを用いることができ、各フレーム中に照明された1メガピクセルを約10%だけ露出する。
ストリングに沿って続けると、セクションがその形状及び相対的位置によって位置付けられる。ストリングのセクション内で、N同時記録カメラフレームの各々にマッチ、位置付ける必要のある100可能位置だけが存在できる。1マイクロ秒で、100コード(又はボクセル)が、10ナノ秒ごとに1つ投影され、これによってサーチスペースが、107Nから102Nの大きさに105Nのオーダーだけ低減される。例えば、三焦点セットアップ(N=3)に対して、これは、1マイクロ秒で百万の組み合わせの初期サーチが空間の100ボクセルの連続をマッチ及び位置付けさせる。後者は、ドゥーエーブル(1クロック当たりGPU1000並行作動)を表す。
図19では、3又はそれ以上の(N)カメラ(C1、C2、C3...、Ci...CN)が、ロービングロボット(例えば、ロボット配送車両)又は他の車両又はデバイスに取り付けられている。カメラCiの各々は、ロボットの周りの環境の一部として一定の視野(FoVi)サンプリングを有する。小型のアクチュエータが、一定の範囲の方位角(アルファ)及び仰角(イプシロン)などの2つの方向の各カメラの視野を回転することができる。従ってカメラは、人間の眼のように陥凹形式にすることができる。陥凹形式が、ズームインし環境における移動する物体を追跡させる。パニング及び傾きカメラと同様に、レーザプローブビーム走査システム(それ自体(モータによって起動される)でパン及び傾斜、又は回転することができる)は、関心の物体を走査するためにそれ自体で有利に向きを合わせることができる。
配送ロボット又は他のデバイス又は車両では、観測者が見られていることを理解できるように、パンティルトカメラを意図的に眼球に似せることができる。差し迫っていない状態で実施される時にこれはユーザ対話を容易にすることができる。眼は、機械を擬人化し(ロボットを人間らしくする)、ロボット画面インタフェースに表示される眼よりも外観上で生体模倣技術に類似する。単純なモーション位置ルーチンは、レーザチップが関心の物体に反射し少なくとも3つの眼(カメラ)によって追跡され、システム100が連続する急速走査で観測されるボクセルの位置をコンピュータ計算することを保証する。
1つの例示的処理では、初期クイック走査が物体の輪郭及び3D位置を発見する。物体連続表面、穴及び端(輪郭)は、初期クイック走査パターンによって登録される。関心の物体の全ビューを遮ることがある他の(最前面)物体によるオクルージョンが、この初期クイック走査で発見されることがある。例えば、関心の物体が車又は歩行者であると推測される場合、スマートCVシステムは、物体の予想される輪郭をサーチし、オクルージョンを取り除けるかどうか見るためにレーザブラシ位置及び/又はカメラの一部を急速に動かす。
第2の処理段階では、意図的なカメラ又はスキャナ源の移動がオクルージョンによる走査の不連続性を克服するのを助ける。オクルージョンの個別のケースが存在でき、すなわち1)最前面物体が背景物体又は表面上に影を投げる、又は2)最前面物体が背景物体を観測するカメラの少なくとも1つに対する背景物体のビューの一部を遮る。ケース1)では、背景物体上のボクセルの軌跡を現在追跡しているカメラ−通常は少なくとも3つ−が、突然及び同時にボクセルを検出するのを止め、3Dスペースの軌跡は突然終わる。新しい物体にシフトすることができるが、突然の空間的不連続性が生じる。ケース2)では、全ての3つ(又は4以上)のカメラが同時に事象の報告を止める可能性が高い。異なる視野によって、あるとすれば、各カメラのオクルージョンは、レーザビームの走査軌跡の異なる瞬間に始まる。
本明細書にはマルチビューピクセル順次モーション追跡システム100を用いる主要な利点がある。まず、追加の(第4)カメラがオクルージョンが起こった時間及び場所をピックアップすることができる。スポーツイベントの制御ルームのように、スマートモーションキャプチャシステムを小さなオクルージョン(例えば、3Dモーションキャプチャリグで捉えられるダンサーの手又は腕)に対してロバストにすることができる。アクティブでスタンバイしている別の第4カメラに即座に切り替えることで、同じ3D軌跡を追跡する(後者は、第4カメラの2D軌跡が、スキャナのビームのポイント及び観測可能(図示)及び予測可能な反応速度まで第1の3つのカメラからコンピュータ計算される空間軌跡の2D再投影に一致することをチェックする方式である)。
図20に示すように、走査スポットが表面S上の軌跡に沿って走査する場合の3つのボクセル位置、V1、V2及びV3が示されている。システム100の4つのカメラC1...C4が図示されている。第1の3つは、表面Sに沿って進行するV1などのレーザ照明ポイントを観測することができる。あるポイントでカメラC3は、V2に達する前にビームの検出を止め、本発明のシステムは自動的に第4カメラC4に切り替える。
少なくとも一部の実施形態では、3つのカメラの各々の単一のピクセルを照明する十分な光がある限り、各特徴(すなわち、レーザがマニホールドに照明されたスポットを形成する現在の位置)が、同時でなく、全て連続してではなく、次々に観測されるので、理論的最小特徴サイズは単一ピクセルである。
システム100は、空間(ピクセル)コントラストを必要とせず、照明中も観測に対しても空間パターンが必要ない。システム100はある方法で時間を用い、他の構造化光システムは時間を用いず、両方のコントラスト及びコード化及び復号の必要性を取り除く。
システム100は、ピクセル、フォトンの最も効率的な使用を提供する。基本的には、あらゆるピクセル観測、あらゆる「トゥイッチ」がカウントする。1メガピクセルカメラを用いる本発明のシステムは、1メガピクセルボクセル空間解像度を達成することができる。
サブピクセル解像度は線形補間によって可能である。本発明のシステムは、物体の3D表面(「空間マニホールド」)を横断する場合にレーザビームのチップによって走査される物理的、数学的軌跡を活用することができる。これらの軌跡は、カメラの各々の表面に投影された時に、2Dピクセル事象軌跡を形成する。一連の画像ポイント(すなわち、ピクセル位置の時系列)を観測した後に、本発明のシステムは、元の真2D走査軌跡並びに各個々の観測の基本的精度より高い精度を持つ3Dマニホールド表面軌跡を直線(又は他の)補間によって推定することができる。従って、観測された輪郭線は、3Dマニホールド上に高い精度で3Dスペース内に適合することができる。
少なくとも一部の実施形態では、本発明のシステムは、3Dマニホールド全体に細かいチップのレーザビームで滑らかな連続弧を走査することができ、(少なくとも)3つのカメラの各々の「トゥイッチ」ピクセルのトレールを起こし、各カメラで、ピクセルはその連続位置を順次アサートにする。トゥイッチピクセル軌跡のこれらの3又は4以上の同時に観測可能な高度に相関付けられるトレール(ピクセルアサーション事象の時間連続トレール)は、空間的、時間的及び/又は波長固有の方法によってまだフィルタアウトされていないセンサ又は周囲光の熱又はダークノイズによって起こるような背景ノイズから統計的に明確に突出する。RANSACなどの統計的方法は、図23に示すような線フィットを行う前に適用し、補間された軌跡2300から統計的に大きく離れた距離の何れの「トゥイッチ」ピクセル、すなわち2つピクセル以上に空間的に離れる及び/又は時間的に異常又は軌跡の時間シーケンスに合わない何れの「トゥイッチ」ピクセルも取り除くことができる。
少なくとも一部の実施形態では、システム100は、例えばセンシティブ高利得「トゥイッチー」検出器(市販されているSPADなど)及び大量のセンサ及び周囲ノイズを克服することができる適度の照明パワー(ミリワットレーザダイオードソースなど)を用いて、効率的及びロバストにすることができる。
少なくとも一部の実施形態では、システム100は、何れか1つの時間に1つのポイント、1つのボクセル位置を照明する走査ビームを用いることによってフォトンを有効利用し、結果ピクセル事象が即時に時間的に連続して観測される。システムフィードバックを用いて、発せられたフォトンの大部分がマニホールド(又は物体)に向けられることが保証され、一部は、少なくとも1つ、好ましくはカメラの少なくとも3つの観測可能な信号を結果として生じる。小型のレーザダイオードは、フォトンの非常に有効なソースとすることができ、タイトビームにかなり容易に且つ効率的にコリメートすることができる。
動力学及び瞬時フィードバックは超効率的3D知覚を可能にする。要求される走査速度、所望の精度に基づいて、一定の距離で要求されるように無線でビームの強度を調節することができ、関心の物体のアルベドを調節する。例えば、大きな且つ変化する被写界深度(例えば、対話型ARで一般的)を持つシーンを動的且つ選択的に走査することができる(例えば、関心の一定の再前面物体だけを綿密に走査する)。
陥凹形式は電力を節約する。一般的なフレーム照明構造光システムとは異なり、システム100の少なくとも一部の実施形態では、レーザダイオードによって生成されるフォトンのほぼ100%を、マニホールドの小さな観測可能な部分を連続的に照明するために向けることができ、この態様はシステム100の電力効率に大きく寄与する。
別の実施形態は、100度×100度の視野で最大1メートル離れた物体を走査することができるAR知覚システムである。本発明のシステムは、約20mワットの屈折力を有するブルーレイダイオードレーザソース(λ=405nm)及び1秒当たり50,000ラインを走査することができる単純2D800ミクロンMEMS共振ミラーなどの何れかの適切な光源を用いることができる。本発明のシステムは、例えば、各々が1000x1000ピクセルを持つ3つのCMOS1Mピクセル「トゥイッチーピクセル」アレイカメラなどの3又は4以上のカメラを用いる。1実施形態では、ピクセルは、各々が最適分離及び最小クロスオーバを備えたわずか1マイクロメートルである(シャロー100フォトンウエル、405nm光に高感度)。この例では、センサのアレイエリアは、1平方mmより大きくなく5t又は6tバイナリ反応「トゥイッチー」ピクセル、固定アドレス行及び列復号器、A/Dなし、及び単純シリアルストリーム出力を備えた安価なモノクロームカメラを提供する。本発明のシステムは、3つの1Mピクセルカメラによって動的にポイントを走査することができ、最大0.1度の空間解像度を結果として生じ、補間によって、0.01度(センサの1/10ピクセル)の空間精度を達成することができる。本発明のシステムは、1M距離でボクセル配置の空間精度<0.5mmを達成するはずである。例えば、10度×10度のRoIを有するフィールドの関心の小さな物体(例えばリンゴを持つ手)を、例えば、このRoI(例えば、10平方度のコーン、10000、10,00000のFoVの1%)における3D陥凹を備えた1秒当たりの1,000,000ポイントで本発明のシステムによって走査することができる。陥凹形式によって、本発明のシステムは、合計システム資源の100mW未満を用いながら最大1m距離の約500マイクロメートル容積測定精度を達成することになる。
流れ図の例示の各ブロック、及び流れ図の例示のブロックの組み合わせ(又は1又は2以上のシステム又はシステムの組み合わせに関して上記に説明した動作)をコンピュータプログラム命令によって実施できることが理解されるであろう。これらのプログラム命令は、プロセッサで実行する命令が、流れ図のブロック又は複数のブロックに指示された動作を実施するための手段を生成するように機械を製作するためにプロセッサに提供することができる。コンピュータプログラム命令は、プロセッサによって実行し、プロセッサで実行する命令が、流れ図のブロック又は複数のブロックに指示された動作を実施するためのステップを提供するようにコンピュータ実施処理を生成させることができる。コンピュータプログラム命令は、流れ図のブロックに示された動作ステップの少なくとも一部を並行して実行させることができる。ステップの一部は、マルチプロセッサコンピュータシステムで生じるように1つより多いプロセッサにわたって実行することもできる。加えて、流れ図の例示の1又は2以上のブロック又はブロックの組み合わせは、本発明の範囲又は精神から逸脱することなく他のブロック又はブロックの組み合わせと同時に又は図示されたものとは異なるシーケンスでも実行することができる。
加えて、1又は2以上のステップ又はブロックでは、コンピュータプログラムの代わりに、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルアレイ論理(PAL)など、又はこれらの組み合わせなどの組み込み式論理ハードウェアを用いて実施することができる。組み込み式論理ハードウェアは、組み込み式論理を直接実行して、1又は2以上のステップ又はブロックにおける動作の一部又は全部を行うことができる。1又は2以上の実施形態(図示せず)では、ステップ又はブロックの1又は2以上の動作の一部又は全部をCPUの代わりにハードウェアマイクロコントローラによって実行することができる。1又は2以上の実施形態では、マイクロコントローラは、それに固有の組み込み式論理を直接実行して、動作を行い且つそれに固有の内部メモリ及びそれに固有の外部入力及び出力インタフェース(例えば、ハードウェアピン及び/又は無線送受信機)にアクセスしてシステムオンチップ(SOC)などの動作を行うことができる。
上記の明細書、実施例、及びデータは、本発明の製造及び使用の完全な説明を提供する。本発明の多くの実施形態を本発明の精神及び範囲から逸脱することなく行い得るので、本発明は以下に添付の請求項に存在する。
100 システム
102 ネットワーク
104 送信機
106a 106b 106c 106d 受信機
108 物体
110 コンピュータ
112 コンピュータ
114 コンピュータ

Claims (30)

  1. 1又は2以上の物体の位置を決定するシステムであって、
    フォトンのビームを発して1又は2以上の物体の領域を順次的に照明するよう構成された送信機と、
    ピクセルのアレイを各々が含む、互いに離間して配置された複数のカメラであって、前記ピクセルの各々が前記ピクセルによって受信されるフォトンを検出するよう構成される、複数のカメラと、
    命令を格納する1又は2以上のメモリデバイスと、
    前記格納された命令を実行して方法の動作を行う1又は2以上のプロセッサデバイスと、
    を備え、前記方法は、
    前記フォトンのビームで1又は2以上の物体の複数の領域を順次的に照明するよう前記送信機に指示する段階と、
    前記領域の各々に対して、前記複数のカメラから、前記1又は2以上の物体の領域によって反射又は散乱される前記ビームのフォトンを検出した前記複数のカメラにおける各ピクセルのアレイ位置を受信する段階と、
    前記複数のカメラによって検出された前記領域の各々に対して、当該領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける前記ピクセルの受信されたアレイ位置を用いて前記領域の位置を決定する段階と、
    を含む、ことを特徴とするシステム。
  2. 前記送信機に指示する段階は、事前に決められた時間期間未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項1に記載のシステム。
  3. 前記送信機に指示する段階は、事前に決められた時間期間未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含み、
    前記アレイ位置を受信する段階は、前記領域の各々に対して、前記事前に決められた時間期間以下の時間間隔内で及び前記複数のカメラから、前記1又は2以上の物体の領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける各ピクセルのアレイ位置を受信する段階を含む、
    ことを特徴とする請求項1に記載のシステム。
  4. 前記送信機に指示する段階は、50ナノ秒未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項1に記載のシステム。
  5. 前記送信機に指示する段階は、10ナノ秒未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項1に記載のシステム。
  6. 前記カメラの各々は、ピクセルの二次元アレイを含み、前記アレイ位置は、前記二次元アレイにおける前記ピクセルの2座標位置を含む、ことを特徴とする請求項1に記載のシステム。
  7. 本体及び複数の付属物を更に備え、前記カメラの各々が前記付属物の1つに配置される、ことを特徴とする請求項1に記載のシステム。
  8. 本体及び複数の付属物を更に備え、前記送信機は、前記付属物の1つに配置される、ことを特徴とする請求項1に記載のシステム。
  9. 本体及び複数の付属物を更に備え、前記カメラの各々は、前記付属物の1つに配置され、前記動作は更に、
    前記カメラの少なくとも3つが前記1又は2以上の物体の領域によって反射又は散乱されたフォトンを検出するまで、前記付属物の1又は2以上を移動させる段階を含む、
    ことを特徴とする請求項1に記載のシステム。
  10. 本体及び複数の付属物を更に備え、前記送信機は、前記付属物の1つに配置され、前記動作は、
    前記カメラの少なくとも3つが前記1又は2以上の物体の領域によって反射又は散乱されたフォトンを検出するまで、前記送信機が配置されている前記付属物を移動させる段階を含む、
    ことを特徴とする請求項1に記載のシステム。
  11. 前記動作は更に、
    前記1又は2以上の物体上の複数の関心ポイント(POI)を識別する段階と、
    前記POIの第1位置を決定する段階と、
    その後の時点で、前記POIの第2位置を決定する段階と、
    前記POIの第1及び第2位置に基づいて前記POIの軌跡を予測する段階と、
    を含む、ことを特徴とする請求項1に記載のシステム。
  12. 前記システムは、ユーザの頭部に装着可能である、ことを特徴とする請求項1に記載のシステム。
  13. 前記送信機は、少なくとも3つの異なるカラーのビームを発するよう構成され、前記カメラの少なくとも1つは、前記3つの異なるカラーのフォトンを区別するよう構成される、ことを特徴とする請求項1に記載のシステム。
  14. 前記送信機及び前記カメラの少なくとも1つは、車両の一部であることを特徴とする請求項1に記載のシステム。
  15. 前記送信機及び前記カメラの全ては、車両の一部であることを特徴とする請求項1に記載のシステム。
  16. 前記送信機に指示する段階は、事前に決められたカラーシーケンスに従って、前記フォトンのビームで前記1又は2以上の物体の複数の領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項1に記載のシステム。
  17. 前記送信機に指示する段階は、ビーム強度の事前に決められたシーケンスに従って、前記フォトンのビームで前記1又は2以上の物体の複数の領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項1に記載のシステム。
  18. 1又は2以上の物体の位置を決定する方法であって、
    フォトンのビームで1又は2以上の物体の複数の領域を順次的に照明するよう送信機に指示する段階と、
    前記領域の各々に対して、複数のカメラから、前記1又は2以上の物体の領域によって反射又は散乱されたビームのフォトンを検出した前記複数のカメラにおける各ピクセルのアレイ位置を受信する段階と、
    前記複数のカメラによって検出された前記領域の各々に対して、当該領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける前記受信されたピクセルのアレイ位置を用いて前記領域の位置を決定する段階と、
    を含む方法。
  19. 前記送信機に指示する段階は、事前に決められた時間期間未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項18に記載の方法。
  20. 前記送信機に指示する段階は、事前に決められた時間期間未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含み、
    前記アレイ位置を受信する段階は、前記領域の各々に対して、前記事前に決められた時間期間以下の時間間隔内で及び前記複数のカメラから、前記1又は2以上の物体の領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける各ピクセルのアレイ位置を受信する段階を含む、ことを特徴とする請求項18に記載の方法。
  21. 前記カメラの各々は、複数の付属物の1つに配置され、
    前記方法は更に、
    前記カメラの少なくとも3つが前記1又は2以上の物体の領域によって反射又は散乱されたフォトンを検出するまで、前記付属物の1又は2以上を移動させる段階を含む、
    ことを特徴とする請求項18に記載の方法。
  22. 前記送信機は、前記付属物の1つに配置され、
    前記方法は更に、
    前記カメラの少なくとも3つが、前記1又は2以上の物体の領域によって反射又は散乱されたフォトンを検出するまで、前記送信機が配置されている前記付属物を移動させる段階を含む、
    ことを特徴とする請求項18に記載の方法。
  23. 前記方法は更に、
    前記1又は2以上の物体上の複数の関心ポイント(POI)を識別する段階と、
    前記POIの第1位置を決定する段階と、
    その後の時点で、前記POIの第2位置を決定する段階と、
    前記POIの第1及び第2位置に基づいて前記POIの軌跡を予測する段階と、
    を含む、ことを特徴とする請求項18に記載の方法。
  24. 前記送信機に指示する段階は、事前に決められたカラーシーケンスに従って、前記フォトンのビームで前記1又は2以上の物体の複数の領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項18に記載の方法。
  25. 前記送信機に指示する段階は、ビーム強度の事前に決められたシーケンスに従って、前記フォトンのビームによって前記1又は2以上の物体の複数の領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項18に記載の方法。
  26. 1又は2以上の物体の位置を決定するための命令を含む非一時的プロセッサ可読ストレージ媒体であって、1又は2以上のプロセッサデバイスによる前記命令の実行により、前記1又は2以上のプロセッサデバイスに方法の動作を実行させ、
    前記方法が、
    フォトンのビームで1又は2以上の物体の複数の領域を順次的に照明するよう送信機に指示する段階と、
    前記領域の各々に対して、複数のカメラから、前記1又は2以上の物体の領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける各ピクセルのアレイ位置を受信する段階と、
    前記複数のカメラによって検出された前記領域の各々に対して、当該領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける前記受信されたピクセルのアレイ位置を用いて前記領域の位置を決定する段階と、
    を含む、非一時的プロセッサ可読ストレージ媒体。
  27. 前記送信機に指示する段階は、事前に決められた時間期間未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含む、ことを特徴とする請求項26に記載の非一時的プロセッサ可読ストレージ媒体。
  28. 前記送信機に指示する段階は、事前に決められた時間期間未満で前記複数の領域の各領域を順次的に照明するよう前記送信機に指示する段階を含み、
    前記アレイ位置を受信する段階は、前記領域の各々に対して、前記事前に決められた時間期間以下の時間間隔内で及び前記複数のカメラから、前記1又は2以上の物体の領域によって反射又は散乱された前記ビームのフォトンを検出した前記複数のカメラにおける各ピクセルのアレイ位置を受信する段階を含む、ことを特徴とする請求項26に記載の非一時的プロセッサ可読ストレージ媒体。
  29. 前記カメラの各々は、複数の付属物の1つに配置され、
    前記方法は更に、
    前記カメラの少なくとも3つが前記1又は2以上の物体の領域によって反射又は散乱されたフォトンを検出するまで、前記付属物の1又は2以上を移動させる段階を含む、
    ことを特徴とする請求項26に記載の非一時プロセッサ可読ストレージ媒体。
  30. 前記送信機は、前記付属物の1つに配置され、
    前記方法は更に、
    前記カメラの少なくとも3つが前記1又は2以上の物体の領域によって反射又は散乱されたフォトンを検出するまで、前記送信機が配置されている前記付属物を移動させる段階を含む、
    ことを特徴とする請求項26に記載の非一時プロセッサ可読ストレージ媒体。
JP2019535248A 2016-12-27 2017-12-23 機械知覚のためのシステム及び方法 Active JP7329444B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662498534P 2016-12-27 2016-12-27
US62/498,534 2016-12-27
US201762606879P 2017-10-10 2017-10-10
US62/606,879 2017-10-10
US15/853,783 2017-12-23
US15/853,783 US10261183B2 (en) 2016-12-27 2017-12-23 Systems and methods for machine perception
PCT/US2017/068377 WO2018125850A1 (en) 2016-12-27 2017-12-23 Systems and methods for machine perception

Publications (2)

Publication Number Publication Date
JP2020514713A true JP2020514713A (ja) 2020-05-21
JP7329444B2 JP7329444B2 (ja) 2023-08-18

Family

ID=62630133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019535248A Active JP7329444B2 (ja) 2016-12-27 2017-12-23 機械知覚のためのシステム及び方法

Country Status (5)

Country Link
US (3) US10261183B2 (ja)
EP (1) EP3563347A4 (ja)
JP (1) JP7329444B2 (ja)
CN (1) CN110226184B (ja)
WO (1) WO2018125850A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181129A1 (ja) * 2021-02-24 2022-09-01 ソニーグループ株式会社 光出力制御装置、および光出力制御方法、並びにプログラム
US11946761B2 (en) 2018-06-04 2024-04-02 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3D space based on mapping and navigation to a precise POI destination using a smart laser pointer device
WO2024075657A1 (ja) * 2022-10-04 2024-04-11 ソフトバンクグループ株式会社 Perfect Cruise Control

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836539B1 (en) 2007-10-10 2024-03-13 Gerard Dirk Smits Image projector with reflected light tracking
US12025807B2 (en) 2010-10-04 2024-07-02 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
JP7329444B2 (ja) * 2016-12-27 2023-08-18 ジェラルド ディルク スミッツ 機械知覚のためのシステム及び方法
CN108874181B (zh) * 2017-05-08 2023-05-09 富泰华工业(深圳)有限公司 具有激光笔标记功能的电子装置及激光笔标记方法
KR102347740B1 (ko) * 2017-09-08 2022-01-06 현대자동차주식회사 레이저를 이용한 순차 점등 방향지시등 및 순차 점등방법
JP7080613B2 (ja) * 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN111869222B (zh) * 2018-03-22 2022-05-17 华为技术有限公司 基于http的dash客户端网元、方法及介质
CN110324601A (zh) * 2018-03-27 2019-10-11 京东方科技集团股份有限公司 渲染方法、计算机产品及显示装置
TWI665461B (zh) * 2018-05-04 2019-07-11 財團法人工業技術研究院 雷射定位系統及使用此系統之位置量測方法
DE112019003952T5 (de) * 2018-08-07 2021-05-06 Sony Semiconductor Solutions Corporation Entfernungsmesser, entfernungsmesssystem, entfernungsmessverfahren und programm
EP3853553A1 (en) * 2018-09-19 2021-07-28 Visiontek Engineering S.R.L. Three-dimensional optical measurement method for ropes or cables and system
US11143599B2 (en) 2018-12-03 2021-10-12 Mistras Group, Inc. Systems and methods for inspecting pipelines using a pipeline inspection robot
US10890505B2 (en) 2018-12-03 2021-01-12 Mistras Group, Inc. Systems and methods for inspecting pipelines using a robotic imaging system
US10783623B2 (en) * 2018-12-03 2020-09-22 Mistras Group, Inc. Systems and methods for inspecting pipelines using a robotic imaging system
DE102019135676A1 (de) * 2018-12-26 2020-07-02 Htc Corporation Objektverfolgungssystem und objektverfolgungsverfahren
EP3906428A4 (en) * 2019-01-03 2022-08-17 Volkswagen Aktiengesellschaft SYSTEM, METHOD AND COMPONENTS PROVIDING ACTIVE RANGE SAMPLING OF COMPRESSION
JP2020118567A (ja) * 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測距装置、車載システム及び測距方法
GB201901059D0 (en) * 2019-01-25 2019-03-13 Fathom Systems Ltd Underwater camera unit and surface controller
EP3922008A1 (en) * 2019-02-04 2021-12-15 Copious Imaging LLC Advanced computational pixel imagers with multiple in-pixel counters
CN109886260B (zh) * 2019-02-27 2024-02-02 上海千映智能科技有限公司 一种智能读码器
TWI701423B (zh) * 2019-07-01 2020-08-11 東元電機股份有限公司 反射貼紙輔助定位系統
US11208117B2 (en) 2019-07-09 2021-12-28 Refraction Ai, Inc. Method and system for autonomous vehicle control
GB2586838B (en) * 2019-09-05 2022-07-27 Sony Interactive Entertainment Inc Free-viewpoint method and system
CN110448267B (zh) * 2019-09-06 2021-05-25 重庆贝奥新视野医疗设备有限公司 一种多模眼底动态成像分析系统及其方法
CN110596724B (zh) * 2019-09-19 2022-07-29 深圳奥锐达科技有限公司 动态直方图绘制飞行时间距离测量方法及测量系统
CN110619368B (zh) * 2019-09-23 2021-07-02 北京理工大学 行星表面导航特征成像匹配检测方法
CN110764090A (zh) * 2019-10-22 2020-02-07 上海眼控科技股份有限公司 图像处理方法、装置、计算机设备及可读存储介质
DE102019131482B3 (de) * 2019-11-21 2020-11-12 Ifm Electronic Gmbh Kamera und Verfahren zur Überprüfung einer Ausrichtung einer solchen
US11036994B1 (en) * 2019-12-02 2021-06-15 Accenture Global Solutions Limited Multi-modal object detection system with 5G array
CN111127324A (zh) * 2019-12-26 2020-05-08 中国航空工业集团公司西安飞机设计研究所 一种针对运动无人机群的超分辨成像方法和装置
CN111202936B (zh) * 2019-12-27 2021-05-14 深圳中科保泰科技有限公司 实况信息智能感知方法及装置
WO2021174227A1 (en) * 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
US11390286B2 (en) * 2020-03-04 2022-07-19 GM Global Technology Operations LLC System and process for end to end prediction of lane detection uncertainty
US11170549B2 (en) * 2020-04-09 2021-11-09 Wisconsin Alumni Research Foundation Systems, methods, and media for high dynamic range quanta burst imaging
US11836940B2 (en) * 2020-06-15 2023-12-05 Zebra Technologies Corporation Three-dimensional sensor acuity recovery assistance
CN111948631B (zh) * 2020-08-12 2023-06-30 天津汇智三维科技有限公司 一种地基式动态定位系统
CN112244705B (zh) * 2020-09-10 2023-05-23 北京石头创新科技有限公司 智能清洁设备、控制方法、计算机存储介质
US11833901B2 (en) * 2020-10-12 2023-12-05 GM Global Technology Operations LLC System and method for adjusting a location and distortion of an image projected onto a windshield of a vehicle by a head-up display
CN112179318A (zh) * 2020-10-14 2021-01-05 刘灿灿 基于电池板特性的轨道机器人倾斜角度检测方法
CN112433193B (zh) * 2020-11-06 2023-04-07 山东产研信息与人工智能融合研究院有限公司 一种基于多传感器的模位置定位方法及系统
US20220187461A1 (en) * 2020-12-14 2022-06-16 Summer Robotics, Inc. Perceiving objects based on sensing surfaces and sensing surface motion
CN112595328B (zh) * 2020-12-18 2024-02-09 西安空间无线电技术研究所 视觉辅助稀疏无线电测量的月球导航定位方法
CN112907730B (zh) * 2021-02-07 2023-03-14 北京理工大学 一种三维点云重建方法、装置和电子设备
DE102021102818B3 (de) 2021-02-08 2022-06-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur dreidimensionalen Rekonstruktion einer Szene in einem Vorfeld eines Fahrzeugs
US20240127568A1 (en) * 2021-02-10 2024-04-18 The Regents Of The University Of California Multi-wavelength structured light camera system for precision positioning and quality control
CN112818968A (zh) * 2021-04-19 2021-05-18 北京三快在线科技有限公司 一种目标物分类方法及装置
CN113376445B (zh) * 2021-06-08 2021-12-14 合肥衡元量子技术有限公司 深度学习增强的里德堡原子多频率微波接收器及探测方法
US12111180B2 (en) * 2021-07-01 2024-10-08 Summer Robotics, Inc. Calibration of sensor position offsets based on rotation and translation vectors for matched trajectories
US11704835B2 (en) 2021-07-29 2023-07-18 Summer Robotics, Inc. Dynamic calibration of 3D acquisition systems
WO2023028226A1 (en) 2021-08-27 2023-03-02 Summer Robotics, Inc. Multi-sensor superresolution scanning and capture system
WO2023046392A1 (en) 2021-09-24 2023-03-30 Terranet Tech Ab Filtering a stream of events from an event-based sensor
WO2023052264A1 (en) * 2021-09-29 2023-04-06 Sony Group Corporation Light-field camera, vision system for a vehicle, and method for operating a vision system for a vehicle
US12106569B2 (en) * 2021-10-11 2024-10-01 Worlds Enterprises, Inc. Tracking two-dimensional objects in a three-dimensional coordinate space
CN114399547B (zh) * 2021-12-09 2024-01-02 中国人民解放军国防科技大学 一种基于多帧的单目slam鲁棒初始化方法
WO2023164064A1 (en) * 2022-02-27 2023-08-31 Summer Robotics, Inc. Association of concurrent tracks using graph crossings
US20230274462A1 (en) * 2022-02-28 2023-08-31 Basis Software, Inc. System and method for camera calibration
WO2023177692A1 (en) 2022-03-14 2023-09-21 Summer Robotics, Inc. Stage studio for immersive 3-d video capture
US11488377B1 (en) * 2022-03-23 2022-11-01 Motional Ad Llc Adding tags to sensor data via a plurality of models and querying the sensor data
US11871130B2 (en) 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
CN114719759B (zh) * 2022-04-01 2023-01-03 南昌大学 一种基于slam算法和图像实例分割技术的物体表面周长和面积测量方法
CN114913213B (zh) * 2022-05-17 2024-03-22 苏州轻棹科技有限公司 一种鸟瞰特征的学习方法和装置
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same
US20240040274A1 (en) * 2022-07-28 2024-02-01 Summer Robotics, Inc. Folded single sensor 3-d capture system
CN115290099B (zh) * 2022-10-09 2022-12-16 南通商翼信息科技有限公司 一种机电设备的定位方法
US11974055B1 (en) 2022-10-17 2024-04-30 Summer Robotics, Inc. Perceiving scene features using event sensors and image sensors
CN118138808B (zh) * 2024-05-08 2024-07-05 广州市艾索技术有限公司 一种高集成多媒体管理控制方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304508A (ja) * 1999-04-16 2000-11-02 Minolta Co Ltd 3次元入力装置
JP2010197227A (ja) * 2009-02-25 2010-09-09 Kyushu Institute Of Technology イメージセンサー及びそれを用いた視差センサー並びに視差画像の生成方法
US20160335778A1 (en) * 2015-04-13 2016-11-17 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects

Family Cites Families (261)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4019262A (en) 1975-12-22 1977-04-26 The United States Of America As Represented By The Secretary Of The Navy Direct fire weapon trainer incorporating hit and data delay responses
GB2043940A (en) 1979-01-11 1980-10-08 Redifon Simulation Ltd Visual Display Apparatus
US5506682A (en) * 1982-02-16 1996-04-09 Sensor Adaptive Machines Inc. Robot vision using targets
US5559322A (en) 1985-03-11 1996-09-24 Trw Inc. Imaging optical tracker
US4820041A (en) 1986-11-12 1989-04-11 Agtek Development Co., Inc. Position sensing system for surveying and grading
US5052820A (en) 1987-06-08 1991-10-01 Electric Power Research Institute, Inc. Thermal refractive materials for optical sensor application
JP2555611B2 (ja) 1987-06-26 1996-11-20 ミノルタ株式会社 マイクロ画像処理装置
KR920009402B1 (ko) 1987-12-15 1992-10-16 미쓰비시덴기 가부시끼가이샤 통신장치 및 시스템
US5115230A (en) 1989-07-19 1992-05-19 Bell Communications Research, Inc. Light-pen system for projected images
CA2070629C (en) 1990-01-31 2000-01-11 Robert Harry Colvill Image handling
US5107122A (en) 1990-10-12 1992-04-21 Hughes Aircraft Company Sparse readout method and apparatus for a pixel array
WO1992018971A1 (en) 1991-04-22 1992-10-29 Evans & Sutherland Computer Corp. Head-mounted projection display system featuring beam splitter
US5245398A (en) 1991-06-21 1993-09-14 Eastman Kodak Company Time-multiplexed multi-zone rangefinder
US5218427A (en) * 1991-09-06 1993-06-08 Koch Stephen K Ranging system for three-dimensional object digitizing
DE4204821A1 (de) 1992-02-18 1993-08-19 Burkhard Katz Verfahren und vorrichtung fuer die praesentation von darstellungen vor den passagieren von sich bewegenden fahrzeugen
JPH07306955A (ja) 1992-07-24 1995-11-21 Walt Disney Co:The 三次元イリュージョンを生み出す方法およびシステム
US5793491A (en) 1992-12-30 1998-08-11 Schwartz Electro-Optics, Inc. Intelligent vehicle highway system multi-lane sensor and method
US5455588A (en) 1993-03-01 1995-10-03 Lew; Hyok S. Method for determining target velocity by measuring phase shift
JPH07261920A (ja) 1994-03-17 1995-10-13 Wacom Co Ltd 光学式位置検出装置および光学式座標入力装置
DE69528212T2 (de) 1994-06-09 2003-04-24 Corp For Nat Res Initiatives R Hinweisanordnungsschnittstelle
US5661506A (en) 1994-11-10 1997-08-26 Sia Technology Corporation Pen and paper information recording system using an imaging pen
DE69532978T2 (de) 1994-12-16 2005-06-16 Hyundai Electronics America, Milpitas Vorrichtung und ein Verfahren für einen Digitalisier-Stylus
US5677795A (en) 1995-01-10 1997-10-14 Hughes Aircraft Company Modular helmet-mounted display
JPH09114367A (ja) 1995-10-24 1997-05-02 Mitsubishi Electric Corp 車載走行制御装置
JPH09212648A (ja) 1996-01-31 1997-08-15 Toshiba Corp 動画像処理方法
US5812664A (en) 1996-09-06 1998-09-22 Pitney Bowes Inc. Key distribution system
US6115022A (en) 1996-12-10 2000-09-05 Metavision Corporation Method and apparatus for adjusting multiple projected raster images
US5914783A (en) 1997-03-24 1999-06-22 Mistubishi Electric Information Technology Center America, Inc. Method and apparatus for detecting the location of a light source
JPH11119184A (ja) 1997-10-20 1999-04-30 Fujitsu General Ltd 液晶プロジェクタ用自動焦点装置
CA2233047C (en) 1998-02-02 2000-09-26 Steve Mann Wearable camera system with viewfinder means
US6130706A (en) 1998-03-25 2000-10-10 Lucent Technologies Inc. Process for determining vehicle dynamics
US6535182B2 (en) 1998-12-07 2003-03-18 Koninklijke Philips Electronics N.V. Head-mounted projection display system
US6545670B1 (en) 1999-05-11 2003-04-08 Timothy R. Pryor Methods and apparatus for man machine interfaces and related activity
US6439706B1 (en) 1999-05-25 2002-08-27 Silverbrook Research Pty Ltd. Printer cartridge with binder
US6563105B2 (en) 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
JP2001045381A (ja) 1999-08-02 2001-02-16 Sony Corp 画像処理装置および方法、並びに媒体
US6515781B2 (en) 1999-08-05 2003-02-04 Microvision, Inc. Scanned imaging apparatus with switched feeds
US7262765B2 (en) 1999-08-05 2007-08-28 Microvision, Inc. Apparatuses and methods for utilizing non-ideal light sources
JP2001075736A (ja) 1999-09-06 2001-03-23 Canon Inc 座標入力装置
JP3994672B2 (ja) 2000-03-31 2007-10-24 セイコーエプソン株式会社 画像処理を用いた指示位置の検出
JP2004503188A (ja) 2000-07-09 2004-01-29 スリーディーヴィー システムズ リミテッド スルー・ザ・レンズ・イルミネータを有するカメラ
US7289110B2 (en) 2000-07-17 2007-10-30 Human Messaging Ab Method and arrangement for identifying and processing commands in digital images, where the user marks the command, for example by encircling it
US6535275B2 (en) 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
DE60124647T2 (de) 2000-09-26 2007-03-08 Fuji Photo Film Co., Ltd., Minami-Ashigara Vorrichtung und Verfahren zur Abstandsmessung
US20020039138A1 (en) 2000-09-29 2002-04-04 Edelson Steven D. Method and apparatus for automatically adjusting video panning and zoom rates
US6607527B1 (en) 2000-10-17 2003-08-19 Luis Antonio Ruiz Method and apparatus for precision laser surgery
WO2002037166A1 (en) 2000-11-03 2002-05-10 Microvision, Inc. Scanned display with switched feeds and distortion correction
US6704000B2 (en) 2000-11-15 2004-03-09 Blue Iris Technologies Method for remote computer operation via a wireless optical device
US6543899B2 (en) 2000-12-05 2003-04-08 Eastman Kodak Company Auto-stereoscopic viewing system using mounted projection
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US7002549B2 (en) 2001-01-18 2006-02-21 Mccahon Stephen William Optically based machine input control device
US20020100884A1 (en) 2001-01-29 2002-08-01 Maddock Brian L.W. Digital 3-D model production method and apparatus
EP1357831A2 (en) 2001-02-09 2003-11-05 Sensomotoric Instruments GmbH Multidimensional eye tracking and position measurement system
US7203383B2 (en) 2001-02-22 2007-04-10 Thinkpen Llc Handwritten character recording and recognition device
JP4530571B2 (ja) 2001-04-16 2010-08-25 Hoya株式会社 3次元画像検出装置
US7277187B2 (en) 2001-06-29 2007-10-02 Quantronix, Inc. Overhead dimensioning system and method
JP2003029201A (ja) 2001-07-11 2003-01-29 Canon Inc 画像投射装置及び画像補正方法
US6448576B1 (en) 2001-08-30 2002-09-10 Bae Systems Information And Electronic Systems Integration, Inc. Programmable chalcogenide fuse within a semiconductor device
EP1419411B1 (de) 2001-10-05 2005-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Projektionsvorrichtung
CN1640153A (zh) 2002-01-04 2005-07-13 纽鲁克公司 使用回归反射屏幕的三维图像投影
GB0203530D0 (en) 2002-02-14 2002-04-03 Lettington Alan H Scanning apparatus
US6894823B2 (en) 2002-04-26 2005-05-17 Corning Intellisense Llc Magnetically actuated microelectromechanical devices and method of manufacture
US7349553B2 (en) 2002-04-29 2008-03-25 The Boeing Company Watermarks for secure distribution of digital data
JP4147054B2 (ja) 2002-05-17 2008-09-10 オリンパス株式会社 立体観察装置
US20030222849A1 (en) 2002-05-31 2003-12-04 Starkweather Gary K. Laser-based user input device for electronic projection displays
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
US20040006424A1 (en) 2002-06-28 2004-01-08 Joyce Glenn J. Control system for tracking and targeting multiple autonomous objects
US20040041996A1 (en) * 2002-08-28 2004-03-04 Fuji Xerox Co., Ltd. Range finder and method
JP4228131B2 (ja) 2002-10-11 2009-02-25 株式会社トプコン 位置測定装置
WO2004040896A2 (en) 2002-10-30 2004-05-13 Nds Limited Interactive broadcast system
US7119965B1 (en) 2003-02-24 2006-10-10 University Of Central Florida Research Foundation, Inc. Head mounted projection display with a wide field of view
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
JP4517601B2 (ja) 2003-07-09 2010-08-04 ソニー株式会社 投射型画像表示装置
WO2005010739A1 (en) 2003-07-29 2005-02-03 Philips Intellectual Property & Standards Gmbh System and method for controlling the display of an image
US7359041B2 (en) 2003-09-04 2008-04-15 Avago Technologies Ecbu Ip Pte Ltd Method and system for optically tracking a target using a triangulation technique
JP3831946B2 (ja) 2003-09-26 2006-10-11 ソニー株式会社 撮像装置
CN1902530A (zh) 2003-12-31 2007-01-24 讯宝科技公司 可控地调制激光投影显示器中激光器的方法及装置
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7182465B2 (en) 2004-02-25 2007-02-27 The University Of North Carolina Methods, systems, and computer program products for imperceptibly embedding structured light patterns in projected color images for display on planar and non-planar surfaces
JP2005249905A (ja) 2004-03-02 2005-09-15 Canon Inc 投射型表示装置
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
EP1584946A3 (en) 2004-04-02 2006-03-22 Omron Corporation Method of adjusting monitor axis of optical sensors
US8153975B2 (en) 2004-12-01 2012-04-10 White Box, Inc. Interfacing devices and systems
US20060028328A1 (en) 2004-08-03 2006-02-09 Cresse William M Active anti-tailgating and collision warning system
JP2006047114A (ja) 2004-08-04 2006-02-16 Fujitsu Ten Ltd レーダ装置
JP4483703B2 (ja) 2004-08-04 2010-06-16 セイコーエプソン株式会社 プロジェクタ
US20060028374A1 (en) 2004-08-06 2006-02-09 Time Domain Corporation System and method for ultra wideband subarray beam steering
DE102004042466A1 (de) 2004-09-02 2006-03-23 Robert Bosch Gmbh Vorrichtung und Verfahren zur optischen Distanzmessung
US8115728B2 (en) 2005-03-09 2012-02-14 Sharp Laboratories Of America, Inc. Image display device with reduced flickering and blur
DE102004060576B4 (de) 2004-12-16 2017-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Projektor zur Bildprojektion
US20060132447A1 (en) 2004-12-16 2006-06-22 Conrad Richard H Method and apparatus for automatically transforming functions of computer keyboard keys and pointing devices by detection of hand location
US7232229B2 (en) 2004-12-17 2007-06-19 Palo Alto Research Center Incorporated Laser-based display with position sensitive detector
US7283301B2 (en) 2004-12-17 2007-10-16 Palo Alto Research Center Incorporated Emissive screen display with laser-based external addressing
US7278745B2 (en) 2004-12-21 2007-10-09 Infocus Corporation Method and apparatus for adjusting relative disposition of projection optics based on operating conditions
US7375804B2 (en) 2005-03-01 2008-05-20 Lockheed Martin Corporation Single detector receiver for multi-beam LADAR systems
CN201159795Y (zh) 2005-04-28 2008-12-03 德克萨斯仪器股份有限公司 具有两个反射表面的扭转铰接镜结构
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US7672504B2 (en) 2005-09-01 2010-03-02 Childers Edwin M C Method and system for obtaining high resolution 3-D images of moving objects by use of sensor fusion
US20090147239A1 (en) 2005-09-02 2009-06-11 Neptec Apparatus and method for tracking an object
JP4508049B2 (ja) 2005-09-05 2010-07-21 株式会社日立製作所 360°画像撮影装置
US20060256133A1 (en) 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US7787134B2 (en) 2005-11-09 2010-08-31 The Boeing Company Multiple fanned laser beam metrology system
WO2007069161A2 (en) 2005-12-13 2007-06-21 Koninklijke Philips Electronics, N.V. Device and method for laser safe operation
US7348528B2 (en) 2005-12-20 2008-03-25 Marshall Daniel R Distance measuring system
US8355117B2 (en) 2005-12-21 2013-01-15 Ecole Polytechnique Federale De Lausanne Method and arrangement for measuring the distance to an object
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
GB0616838D0 (en) 2006-08-25 2006-10-04 Moir Christopher I Velocity detector
US8259239B2 (en) 2007-01-18 2012-09-04 The Arizona Board Of Regents On Behalf Of The University Of Arizona Polarized head-mounted projection display
US8042954B2 (en) 2007-01-24 2011-10-25 Seiko Epson Corporation Mosaicing of view projections
US8297758B2 (en) 2007-02-20 2012-10-30 Daegu Gyeongbuk Institute Of Science And Technology Multimedia player displaying 2 projection images
US8330942B2 (en) 2007-03-08 2012-12-11 Trimble Ab Methods and instruments for estimating target motion
JP2008275460A (ja) 2007-04-27 2008-11-13 Mitsubishi Electric Corp レーダ装置
US8169447B2 (en) 2007-05-22 2012-05-01 International Business Machines Corporation Automatic color display conversion
US20080309913A1 (en) 2007-06-14 2008-12-18 James John Fallon Systems and methods for laser radar imaging for the blind and visually impaired
WO2008152647A2 (en) 2007-06-15 2008-12-18 Ben Gurion University Of The Negev Research And Development Authority Three-dimensional imaging method and apparatus
US7667598B2 (en) 2007-06-19 2010-02-23 Lockheed Martin Corporation Method and apparatus for detecting presence and range of a target object using a common detector
US9939233B2 (en) 2007-10-02 2018-04-10 Doubleshot, Inc. Laser beam pattern projector
EP3836539B1 (en) 2007-10-10 2024-03-13 Gerard Dirk Smits Image projector with reflected light tracking
US7554652B1 (en) 2008-02-29 2009-06-30 Institut National D'optique Light-integrating rangefinding device and method
EP2350985A4 (en) 2008-03-03 2014-01-01 David Chaum SELECTING AND MARKING SYSTEMS WITH HIDDEN CODE
US20130293396A1 (en) 2008-03-15 2013-11-07 James R. Selevan Sequenced guiding systems for vehicles and pedestrians
JP2011519430A (ja) * 2008-03-18 2011-07-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ スペクトル深さに関する較正カメラ
US7905567B2 (en) 2008-05-16 2011-03-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Closed-loop printing registration systems, devices, components and methods
DE112009001652T5 (de) 2008-07-08 2012-01-12 Chiaro Technologies, Inc. Mehrkanal-Erfassung
JP5450380B2 (ja) 2008-07-11 2014-03-26 パナソニック株式会社 画像処理装置、集積回路、および画像処理方法
JP2010025759A (ja) 2008-07-18 2010-02-04 Fuji Xerox Co Ltd 位置計測システム
EP2148220B1 (en) 2008-07-24 2017-08-30 Magneti Marelli S.p.A. A motor-vehicle driving assistance system based on radar sensors for detecting the presence of obstacles in an area behind and/or beside the vehicle, particularly for parking assistance
WO2010013171A1 (en) 2008-07-28 2010-02-04 Koninklijke Philips Electronics N.V. Use of inpainting techniques for image correction
US20100079508A1 (en) 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US8462238B2 (en) 2008-11-04 2013-06-11 Ecole Polytechnique Fëdërale de Lausanne (EPFL) Camera design for the simultaneous capture of near-infrared and visible images
US20100142856A1 (en) 2008-12-10 2010-06-10 Shin Takeuchi Image reading apparatus, and reading method
CN101750012A (zh) * 2008-12-19 2010-06-23 中国科学院沈阳自动化研究所 一种测量物体六维位姿的装置
US20100246902A1 (en) * 2009-02-26 2010-09-30 Lumidigm, Inc. Method and apparatus to combine biometric sensing and other functionality
US8213022B1 (en) 2009-03-04 2012-07-03 University Of Central Florida Research Foundation, Inc. Spatially smart optical sensing and scanning
US9873347B2 (en) 2009-03-12 2018-01-23 Wendell Brown Method and apparatus for automatic charging of an electrically powered vehicle
US8810796B2 (en) 2009-04-21 2014-08-19 Michigan Aerospace Corporation Light processing system and method
CA2760026C (en) 2009-05-01 2018-03-20 Xtralis Technologies Ltd Improvements to particle detectors
EP2430615A2 (en) 2009-05-08 2012-03-21 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
US8015925B2 (en) 2009-06-18 2011-09-13 Simon Abner J Air bus transportation system
US8174374B2 (en) 2009-06-30 2012-05-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for coding digital information in lane markings using an optical sensor
DE102009029372A1 (de) 2009-09-11 2011-03-24 Robert Bosch Gmbh Messvorrichtung zur Messung einer Entfernung zwischen der Messvorrichtung und einem Zielobjekt mit Hilfe optischer Messstrahlung
DE102009029364A1 (de) 2009-09-11 2011-03-24 Robert Bosch Gmbh Messvorrichtung zur Messung einer Entfernung zwischen der Messvorrichtung und einem Zielobjekt mit Hilfe optischer Messstrahlung
WO2011049025A1 (ja) 2009-10-20 2011-04-28 シャープ株式会社 三次元映像表示装置
US20110102763A1 (en) 2009-10-30 2011-05-05 Microvision, Inc. Three Dimensional Imaging Device, System and Method
US8384694B2 (en) 2009-11-17 2013-02-26 Microsoft Corporation Infrared vision with liquid crystal display device
US8123928B2 (en) 2009-12-22 2012-02-28 Rio Tinto Alcan International Limited Shut-down and start-up procedures of an electrolytic cell
WO2011109402A2 (en) 2010-03-01 2011-09-09 Gerard Dirk Smits Safety device for scanned projector and illumination systems
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US8411135B2 (en) 2010-03-17 2013-04-02 Seiko Epson Corporation Methods to eliminate/reduce the crosstalk artifacts of the retro-reflective auto-stereoscopic 3D display
KR101190125B1 (ko) 2010-04-16 2012-10-11 주식회사 고영테크놀러지 3차원 형상 측정 방법
US9019503B2 (en) 2010-04-19 2015-04-28 The United States Of America, As Represented By The Secretary Of The Navy MEMS microdisplay optical imaging and sensor systems for underwater and other scattering environments
US8619265B2 (en) * 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
JP5368369B2 (ja) * 2010-04-28 2013-12-18 株式会社デンソー 車載用撮像装置及び車載用画像処理装置
WO2011146349A2 (en) 2010-05-17 2011-11-24 Piasecki Aircraft Corp. Modular and morphable air vehicle
US9151607B2 (en) 2010-05-31 2015-10-06 University Of North Carolina At Charlotte Dimensional measurement through a combination of photogrammetry and optical scattering
WO2011154950A1 (en) 2010-06-11 2011-12-15 N-Trig Ltd. Object orientation detection with a digitizer
TWI540312B (zh) 2010-06-15 2016-07-01 原相科技股份有限公司 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法
US9134799B2 (en) 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
US10739460B2 (en) 2010-08-11 2020-08-11 Apple Inc. Time-of-flight detector with single-axis scan
WO2012027410A1 (en) 2010-08-23 2012-03-01 Lighttime, Llc Ladar using mems scanning
US9454014B2 (en) 2010-09-08 2016-09-27 Dai Nippon Printing Co., Ltd. Illumination device, projection apparatus and projection-type image display apparatus
US9946076B2 (en) 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US8636367B1 (en) 2010-10-15 2014-01-28 Magic Lantern, Llc System and method for controlling multiple beams illuminating projected images
KR101706093B1 (ko) 2010-11-30 2017-02-14 삼성전자주식회사 3차원 좌표 추출 시스템 및 그 방법
WO2012086070A1 (ja) 2010-12-24 2012-06-28 株式会社日立製作所 路面形状認識装置及びそれを利用した自律移動装置
US8957847B1 (en) 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US8780161B2 (en) 2011-03-01 2014-07-15 Hewlett-Packard Development Company, L.P. System and method for modifying images
US8493573B2 (en) 2011-03-09 2013-07-23 The United States Of America As Represented By The Secretary Of The Army High-resolution optical position sensing with sparse, low-resolution detectors
US8953242B2 (en) 2011-03-31 2015-02-10 Honeywell International Inc. Varible focus stereoscopic display system and method
FR2975669B1 (fr) * 2011-05-24 2013-07-05 Airbus Operations Sas Procede pour pointer une pluralite d'emplacements predetermines a l'interieur d'une structure, et systeme de pointage correspondant
US9026596B2 (en) 2011-06-16 2015-05-05 Microsoft Technology Licensing, Llc Sharing of event media streams
US8773512B1 (en) 2011-06-30 2014-07-08 Aquifi, Inc. Portable remote control device enabling three-dimensional user interaction with at least one appliance
CN102890574A (zh) 2011-07-21 2013-01-23 鸿富锦精密工业(深圳)有限公司 触控装置及使用该触控装置的鼠标
DE102011081428A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zum Bestimmen einer Objektklasse eines Objekts, von dem aus Licht zu einem Fahrzeug ausgesandt und/oder reflektiert wird
US9453914B2 (en) 2011-09-08 2016-09-27 Continental Advanced Lidar Solutions Us, Inc. Terrain mapping LADAR system
WO2013050729A1 (en) 2011-10-06 2013-04-11 Renishaw Plc Measurement method
JP5783568B2 (ja) 2011-10-31 2015-09-24 国立大学法人九州大学 マイクロスキャナ
EP2589980A1 (de) 2011-11-04 2013-05-08 Leica Geosystems AG Entfernungsmesser
JP2015502540A (ja) 2011-11-29 2015-01-22 エフライダーFlidar 動き安定lidarおよび風の速さの測定方法
JP5909365B2 (ja) 2012-01-05 2016-04-26 株式会社ミツトヨ 接触プローブ
CN103196550A (zh) 2012-01-09 2013-07-10 西安智意能电子科技有限公司 一种对发射光源的成像信息进行筛选处理的方法与设备
EP2618175A1 (de) * 2012-01-17 2013-07-24 Leica Geosystems AG Lasertracker mit Funktionalität zur graphischen Zielbereitstellung
EP2812775A1 (en) 2012-02-06 2014-12-17 Sony Mobile Communications AB Gaze tracking with projector
US9651417B2 (en) 2012-02-15 2017-05-16 Apple Inc. Scanning depth engine
US8947755B2 (en) 2012-02-21 2015-02-03 Hitachi-Lg Data Storage Inc. Optical scanning device and image display apparatus
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US10247812B2 (en) 2012-03-22 2019-04-02 Apple Inc. Multi-mirror scanning depth engine
CN110076630B (zh) 2012-04-18 2021-10-08 瑞尼斯豪公司 在机床上测量的方法以及相应的机床设备
US9210392B2 (en) * 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US20130300670A1 (en) 2012-05-09 2013-11-14 Research In Motion Limited Computer input stylus with multiple antennas
WO2013188690A2 (en) 2012-06-15 2013-12-19 Michael Wang Projector based display systems and methods
US9562764B2 (en) 2012-07-23 2017-02-07 Trimble Inc. Use of a sky polarization sensor for absolute orientation determination in position determining systems
US9134402B2 (en) 2012-08-13 2015-09-15 Digital Signal Corporation System and method for calibrating video and lidar subsystems
EP2711667A1 (de) 2012-09-21 2014-03-26 Baumer Electric AG Vorrichtung zur Entfernungsmessung
US8711370B1 (en) 2012-10-04 2014-04-29 Gerard Dirk Smits Scanning optical positioning system with spatially triangulating receivers
US8994780B2 (en) 2012-10-04 2015-03-31 Mcci Corporation Video conferencing enhanced with 3-D perspective control
US9854196B2 (en) 2012-11-28 2017-12-26 Beijing Lenovo Software Ltd. Head-mounted electronic device and audio processing method
US9703473B2 (en) 2013-01-24 2017-07-11 Facebook, Inc. Predicting touch input
CN108828842B (zh) 2013-02-27 2021-07-27 视瑞尔技术公司 相位调制器
US20140273752A1 (en) 2013-03-13 2014-09-18 Applied Materials, Inc. Pad conditioning process control using laser conditioning
US9392225B2 (en) 2013-03-14 2016-07-12 Polycom, Inc. Method and system for providing a virtual cafeteria
EP2972081B1 (en) 2013-03-15 2020-04-22 Apple Inc. Depth scanning with multiple emitters
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9702977B2 (en) * 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
JP2016521480A (ja) 2013-03-22 2016-07-21 セイコーエプソン株式会社 赤外線ビデオ表示アイウェア
US9069080B2 (en) 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US9080866B1 (en) 2013-06-26 2015-07-14 Google Inc. Methods and systems for detection of reflective markers at long range
GB2510001A (en) 2013-07-05 2014-07-23 Digital Barriers Services Ltd Terahertz detector scanning mechanism
JP2015025901A (ja) 2013-07-25 2015-02-05 船井電機株式会社 レーザ走査装置
US9377553B2 (en) 2013-09-12 2016-06-28 Harris Corporation Rigid coaxial transmission line sections joined by connectors for use in a subterranean wellbore
US20150091815A1 (en) 2013-10-01 2015-04-02 Avaya Inc. Method and Apparatus to Support Visually Impaired Users of Touchscreen Based User Interfaces
JP5944876B2 (ja) 2013-10-18 2016-07-05 増田 麻言 レーザ光を用いた距離測定装置
JP2017507340A (ja) 2014-02-10 2017-03-16 ロッキード マーティン コーポレイションLockheed Martin Corporation 非破壊的証拠収集
US9952033B2 (en) 2014-02-14 2018-04-24 Palo Alto Research Center Incorporated Spatial modulation of light to determine object length
US9842514B2 (en) 2014-02-19 2017-12-12 Milwaukee School Of Engineering Dynamic deoxyribonucleic acid (DNA) models and kits
JP6413291B2 (ja) 2014-03-27 2018-10-31 セイコーエプソン株式会社 虚像表示装置、およびヘッドマウントディスプレイ
US9810913B2 (en) 2014-03-28 2017-11-07 Gerard Dirk Smits Smart head-mounted projection system
JP6433268B2 (ja) * 2014-03-31 2018-12-05 国立大学法人 東京大学 検査システムおよび検査方法
US20150286293A1 (en) 2014-04-03 2015-10-08 Qualcomm Incorporated Optical stylus with deformable tip
DE102015205826B4 (de) 2014-04-04 2020-03-12 pmdtechnologies ag Entfernungsmesssystem mit Lichtlaufzeitpixelzeile
US9952323B2 (en) 2014-04-07 2018-04-24 Samsung Electronics Co., Ltd. High resolution, high frame rate, low power image sensor
JP6224232B2 (ja) 2014-05-02 2017-11-08 富士フイルム株式会社 測距装置、測距法、及び測距プログラム
DE102014107765A1 (de) 2014-06-03 2015-12-03 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zum automatischen oder halbautomatischen Einstellen eines Fahrwerks
US9335414B2 (en) 2014-07-11 2016-05-10 Raytheon Company Frequency agile LADAR
DE202014103215U1 (de) 2014-07-11 2014-09-30 Christian Stroetmann Elektronisches, visuelles Gerät, das eine flexible beziehungsweise biegbare Vorrichtung zur optischen Signalisierung von veränderlichen Informationen, ein flexibles beziehungsweise biegbares Gehäuse mit mindestens einem Gelenk/Scharnier und ein Regel-/Steuerungssystem besitzt
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US10088558B2 (en) 2014-08-15 2018-10-02 Aeye, Inc. Method and system for ladar transmission with spiral dynamic scan patterns
EP3186661B1 (en) 2014-08-26 2021-04-07 Massachusetts Institute of Technology Methods and apparatus for three-dimensional (3d) imaging
US10073177B2 (en) 2014-11-14 2018-09-11 Massachusetts Institute Of Technology Methods and apparatus for phased array imaging
US10043091B2 (en) 2014-12-05 2018-08-07 Magna Electronics Inc. Vehicle vision system with retroreflector pattern recognition
GB2533388B (en) 2014-12-17 2021-01-06 Sezanne Marine Ltd Aspects of a sonar system
EP3845427A1 (en) 2015-02-10 2021-07-07 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
EP3257242A4 (en) 2015-02-12 2018-09-26 NEXTVR Inc. Methods and apparatus for making environmental measurements and/or using such measurements
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US10698110B2 (en) 2015-03-05 2020-06-30 Teledyne Digital Imaging, Inc. Laser scanning apparatus and method
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US10460195B2 (en) 2015-03-27 2019-10-29 Mitsubishi Electric Corporation Imaging apparatus and method, operation apparatus and method, and program and recording medium
KR20160126153A (ko) 2015-04-22 2016-11-02 한국전자통신연구원 레이저 레이더 또는 다른 장치를 위한 광 스캐너
KR101665938B1 (ko) 2015-04-28 2016-10-13 전자부품연구원 미러 회전 방식의 다채널 라이더 스캐너 광학계
US10527726B2 (en) 2015-07-02 2020-01-07 Texas Instruments Incorporated Methods and apparatus for LIDAR with DMD
US9675867B2 (en) 2015-07-28 2017-06-13 X-Sports Ski binding equipment
US10281262B2 (en) 2015-08-31 2019-05-07 Arizona Board Of Regents On Behalf Of The University Of Arizona Range-finder apparatus, methods, and applications
US9952036B2 (en) 2015-11-06 2018-04-24 Intel Corporation Systems, methods, and apparatuses for implementing maximum likelihood image binarization in a coded light range camera
EP3411660A4 (en) 2015-11-30 2019-11-27 Luminar Technologies, Inc. LIDAR SYSTEM WITH DISTRIBUTED LASER AND MULTIPLE SENSOR HEADS AND PULSED LASER FOR LIDAR SYSTEM
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
US10908262B2 (en) 2016-02-18 2021-02-02 Aeye, Inc. Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions
US20180113216A1 (en) 2016-10-25 2018-04-26 Innoviz Technologies Ltd. Methods Circuits Devices Assemblies Systems and Functionally Associated Machine Executable Code for Active Optical Scanning of a Scene
US10067230B2 (en) 2016-10-31 2018-09-04 Gerard Dirk Smits Fast scanning LIDAR with dynamic voxel probing
JP7329444B2 (ja) 2016-12-27 2023-08-18 ジェラルド ディルク スミッツ 機械知覚のためのシステム及び方法
US10452926B2 (en) 2016-12-29 2019-10-22 Uber Technologies, Inc. Image capture device with customizable regions of interest
CN110476037B (zh) 2017-04-03 2022-01-11 富士通株式会社 距离信息处理装置、距离信息处理方法以及距离信息处理程序
CN110998365B (zh) 2017-07-05 2024-08-13 奥斯特公司 具有电子扫描发射器阵列和同步传感器阵列的光测距装置
US11513233B2 (en) 2017-08-29 2022-11-29 Adam Wajnberg et al. Drone escort system
US20190080612A1 (en) 2017-09-14 2019-03-14 Qualcomm Incorporated Navigation techniques for autonomous and semi-autonomous vehicles
US10614734B2 (en) 2018-03-06 2020-04-07 Varjo Technologies Oy Display apparatus and method of displaying using controllable scanning mirror
JP2019164213A (ja) 2018-03-19 2019-09-26 株式会社リコー 光走査装置、画像投写装置、移動体、及び、光走査装置の製造方法
JP2019164217A (ja) 2018-03-19 2019-09-26 株式会社リコー 表示装置、表示システムおよび移動体
TWI781243B (zh) 2018-10-31 2022-10-21 國立清華大學 級聯鏡列及包含其之掃描系統

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304508A (ja) * 1999-04-16 2000-11-02 Minolta Co Ltd 3次元入力装置
JP2010197227A (ja) * 2009-02-25 2010-09-09 Kyushu Institute Of Technology イメージセンサー及びそれを用いた視差センサー並びに視差画像の生成方法
US20160335778A1 (en) * 2015-04-13 2016-11-17 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
笠井 健 他: "マルチカメラによる実時間3次元運動計測システム", バイオメカニズム, vol. 第8巻, JPN6021045313, 1986, pages 143 - 151, ISSN: 0004958845 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11946761B2 (en) 2018-06-04 2024-04-02 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3D space based on mapping and navigation to a precise POI destination using a smart laser pointer device
WO2022181129A1 (ja) * 2021-02-24 2022-09-01 ソニーグループ株式会社 光出力制御装置、および光出力制御方法、並びにプログラム
WO2024075657A1 (ja) * 2022-10-04 2024-04-11 ソフトバンクグループ株式会社 Perfect Cruise Control

Also Published As

Publication number Publication date
EP3563347A1 (en) 2019-11-06
US11709236B2 (en) 2023-07-25
EP3563347A4 (en) 2020-06-24
US10564284B2 (en) 2020-02-18
US10261183B2 (en) 2019-04-16
CN110226184A (zh) 2019-09-10
US20190235079A1 (en) 2019-08-01
JP7329444B2 (ja) 2023-08-18
US20180180733A1 (en) 2018-06-28
CN110226184B (zh) 2023-07-14
US20210011154A1 (en) 2021-01-14
WO2018125850A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP7329444B2 (ja) 機械知覚のためのシステム及び方法
JP6854828B2 (ja) 物体のリアルタイム位置検知
CN110352364B (zh) 多光谱照射和传感器模块
EP3586165B1 (en) Single-frequency time-of-flight depth computation using stereoscopic disambiguation
CN110073243A (zh) 利用动态体素探测的快速扫描激光雷达
US10725177B2 (en) Hyper-resolved, high bandwidth scanned LIDAR systems
US11808857B2 (en) Multi-sensor superresolution scanning and capture system
KR20210009316A (ko) 타임 오브 플라이트 카메라의 감소된 전력 동작
TW202115366A (zh) 機率性多機器人slam的系統及方法
US11372320B2 (en) High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
US10554958B2 (en) Systems and methods for interleaving multiple active camera frames
US12111180B2 (en) Calibration of sensor position offsets based on rotation and translation vectors for matched trajectories
US11785200B1 (en) Stage studio for immersive 3-D video capture
US20230403385A1 (en) Spad array for intensity image capture and time of flight capture
Shahnewaz et al. Color and depth sensing sensor technologies for robotics and machine vision
WO2023196225A1 (en) Auxiliary device for augmented reality
US11985433B2 (en) SPAD array for intensity image sensing on head-mounted displays
US20240129645A1 (en) Perceiving scene features using event sensors and image sensors
US20240022819A1 (en) Foveated robotic vision system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R150 Certificate of patent or registration of utility model

Ref document number: 7329444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150