JP2015535925A - 3次元測定システムから取得された画像の解像度を上げること - Google Patents

3次元測定システムから取得された画像の解像度を上げること Download PDF

Info

Publication number
JP2015535925A
JP2015535925A JP2015531114A JP2015531114A JP2015535925A JP 2015535925 A JP2015535925 A JP 2015535925A JP 2015531114 A JP2015531114 A JP 2015531114A JP 2015531114 A JP2015531114 A JP 2015531114A JP 2015535925 A JP2015535925 A JP 2015535925A
Authority
JP
Japan
Prior art keywords
target
implementations
rider
subsystem
measurements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015531114A
Other languages
English (en)
Other versions
JP6463267B2 (ja
Inventor
セバスチャン、リチャード・エル.
ゼレズニャク、アナトレー・ティー.
Original Assignee
デジタル・シグナル・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by デジタル・シグナル・コーポレーション filed Critical デジタル・シグナル・コーポレーション
Publication of JP2015535925A publication Critical patent/JP2015535925A/ja
Application granted granted Critical
Publication of JP6463267B2 publication Critical patent/JP6463267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

システムは、ターゲットの6自由度軌道(6DOF)を推定するために、ライダーシステムからの距離およびドップラ速度測定、並びに、ビデオシステムからの画像を用いる。6DOF変換パラメータは、複数の画像を選択された画像のフレーム時間に変換するのに使用され、依って、同じフレーム時間における複数の画像を取得する。これらの複数の画像は、超解像度画像を収集して、各フレーム時間における画像の解像度を上げるために使用されてもよい。

Description

(関連出願の相互参照)
(01)本願は、その全てをここに参照することでここに組み込まれている2012年9月4日に出願された米国特許仮出願第61/696447号、および、2013年3月15日に出願された米国特許出願第13/841620号に対し優先権を主張する。
(発明の分野)
(02)本発明は、一般的に、ターゲットの3次元画像を生成するために、ライダー(すなわち、レーザ・ライダー)測定およびビデオ画像を結合すること、並びに、とりわけ3次元画像の解像度を上げることに関連している。
(03)画像の解像度を上げるための様々な従来の技術(techniques)が、知られている。しかしながら、これらの技術は、主には、2Dビデオ画像、典型的には、低および高解像度カメラからのデータに依存している。
(04)求められているものは、ライダーおよびビデオ測定を使用して3次元画像(3D)を取り込み、ライダーおよびビデオ測定を使用して3D画像の解像度を上げるシステムおよび方法である。
(05)本発明の様々な実施は、ターゲットの動き(motion)を記述する(describe)6自由度(6DOF)軌道を分析する(resolve)ために、ライダーシステムによって生成された測定をビデオシステムによって生成された画像と結合する。この軌道が分析されると、ターゲットの正確な3次元画像が、生成され得る。6DOF変換パラメータは、複数の画像を、選択された画像のフレーム時間に変換するために使用され、依って、同じフレーム時間における複数の画像を取得する。これらの複数の画像は、超解像度画像を収集して、各フレーム時間における画像の解像度を上げるために使用されてもよい。
(06)本発明のこれらの実施、その特徴、および他の態様は、さらに詳細に以下に記述されている。
(07)本発明の様々な実施に従って、結合されたライダーとビデオカメラシステムを例示している。 (08)本発明の様々な実施に従って、ライダー(すなわち、レーザライダー)を例示している。 (09)本発明の様々な実施に従って、2つのライダービームを用いるライダーサブシステムのスキャンパターンを例示している。 (10)本発明の様々な実施に従って、4つのライダービームを用いるライダーサブシステムのスキャンパターンを例示している。 (11)本発明の様々な実施に従って、ターゲットの角速度のxコンポーネントを推定するのに使用されてもよい、実質的に同じ時間例(instance)における個々のビームからライダーサブシステムから捉えたポイントの間の関係を例示している。 (12)本発明の様々な実施に従って、ターゲットの角速度のyコンポーネントを推定するのに使用されてもよい、実質的に同じ時間段階における個々のビームからライダーサブシステムから捉えたポイントの間の関係を例示している。 (13)本発明の様々な実施に従って、2次元(例えば、xおよびyコンポーネント)並進速度、および、ターゲットの角速度のzコンポーネントを推定するのに使用されてもよい、ビデオサブシステムから捉えたポイントの間の関係を例示している。 (14)本発明の様々な実施に従って、ライダービームのスキャンパターンを例示している。 (15)本発明の様々な実施に従って、ライダーサブシステムから測定に関連付けられた様々なタイミング態様を記述するのに有効であってもよいタイミング図を例示している。 (16)本発明の様々な実施に従って、ビデオサブシステムからの測定に関してライダーサブシステムからの測定に関連付けられた様々なタイミング態様を記述するのに有効であるタイミング図を例示している。 (17)本発明の様々な実施に従って、ライダー測定およびビデオ画像を処理するのに有効なブロック図を例示している。 (18)本発明の様々な実施に従って、ライダー測定およびビデオ画像を処理するのに有効なブロック図を例示している。 (19)本発明の様々な実施に従って、ライダー測定およびビデオ画像を処理するのに有効なブロック図を例示している。 (20)本発明の様々な実施に従って、ライダー測定およびビデオ画像を処理するのに有効なブロック図を例示している。 (21)本発明の様々な実施に従って、ライダー測定およびビデオ画像を処理するのに有効なブロック図を例示している。 (22)本発明の様々な態様に従って、3D画像の解像度を上げるシステムによって実行された実例動作を描くフローチャートを例示している。
(23)図1は、本発明の様々な実施に従って、結合されたライダーとビデオカメラシステム100(3次元測定システム100)を例示している。本発明の様々な実施は、ライダーまたはビデオカメラどちらか単独で可能でない程度まで、ターゲットの動きに対し6自由度を分析するために、ライダー測定とビデオ画像との間の相乗作用を利用する。
(24)結合されたシステム100は、ライダーサブシステム130、ビデオサブシステム150、および、処理システム160を含む。例示されたように、ライダーサブシステム130は、2つ以上のライダービーム出力112(ビーム112A、ビーム112B、ビーム112(n−1)、および、ビーム112nとして例示されている)、ビーム112のうちの1つに各々対応する2つ以上の反射ビーム入力114、(反射ビーム114A、反射ビーム114B、反射ビーム114(n−1)、および、反射ビーム114nとして例示されている)、ビーム112/反射ビーム114のペアに各々関連付けられている2つ以上のライダー出力116(ビーム112A/反射ビーム114Aに関連付けられたライダー出力116A、ビーム112B/反射ビーム114Bに関連付けられたライダー出力116B、ビーム112(n−1)/反射ビーム114(n−1)に関連付けられたライダー出力116(n−1)、ビーム112n/反射ビーム114nに関連付けられたライダー出力116n)を含んでいる。
(25)本発明のいくつかの実施において、ビームステアリングメカニズム140は、1つまたは複数のビーム112を、ターゲット190に向かってステアリングするために用いられてもよい。本発明のいくつかの実施において、ビームステアリングメカニズム140は、各々が独立してビーム112をターゲット190にステアリングする、ステアリングメカニズム140A、ステアリングメカニズム140B、ステアリングメカニズム140C、およびステアリングメカニズム140Dのような個々のメカニズムを含んでもよい。本発明のいくつかの実施において、1つのビームステアリングメカニズム140は、独立して、ビーム112のペアまたはグループをターゲット190に向かって、ステアリングしてもよい。
(26)本発明のいくつかの実施において、ビームステアリングメカニズム140は、各々が個々に、制御されてもよく、または、制御されなくてもよい1つまたは複数の鏡を含んでもよく、各鏡は、1つまたは複数のビーム112をターゲット190にステアリングする。本発明のいくつかの実施において、ビームステアリングメカニズム140は、鏡を使用せずに、ビーム112の光ファイバを直接ステアリングしてもよい。本発明のいくつかの実施において、ビームステアリングメカニズム140は、方位および/または高度でビーム112をステアリングするように制御されてもよい。理解されるように、ビーム112をターゲット190に向けてステアリングするために、様々な技術が、ビームステアリングメカニズム140によって使用され得る。
(27)本発明のいくつかの実施において、ビームステアリングメカニズム140は、2つのビーム112の方位角および仰角の両方をターゲットに向かって制御するために使用されてもよい。方位角および仰角の両方を制御することによって、2つのビーム112は、潜在的なターゲット、または、ターゲット190のような特定なターゲットについてボリュームをスキャンするために使用されてもよい。他のスキャニングメカニズムは、理解されるように用いられてもよい。本発明のいくつかの実施において、2つのビーム112は、お互いにオフセットされてもよい。本発明のいくつかの実施において、2つのビーム112は、所定のオフセットおよび/または所定の角度によって、お互い垂直に(例えば、高度)、または、水平に(例えば、方位)オフセットされてもよく、そのどちらかは、調整可能であるか、または制御されてもよい。
(28)本発明のいくつかの実施において、ビームステアリングメカニズム140は、4つのビーム112の方位角および仰角の両方をターゲットに向かって制御するために使用されてもよい。いくつかの実施において、4つのビーム112は、水平に、および、垂直に分離して配置されてもよい。いくつかの実施において、4つのビームは、少なくとも2つの直交分離を形成するために配置されてもよい。いくつかの実施において、4つのビームは、垂直におよび水平にお互いオフセットされたビーム112のペアを有する矩形のパターンで配置されてもよい。いくつかの実施において、4つのビームは、お互いにオフセットされたビーム112のペアで、他のパターンで配置されてもよい。4つのビーム112の分離は、固定され、調整可能で、および/または制御され得る、所定のオフセットおよび/または所定の角度であってもよい。
(29)各ビーム112の一定の部分は、反射ビーム114のように、ターゲット190からライダーサブシステム130へ反射して戻る。本発明のいくつかの実施において、図1に例示されているように、反射ビーム114は、ビーム112と同じ光路(逆であるが)をたどる。本発明のいくつかの実施において、分離した光路は、反射ビーム114に合わせるために、ライダーサブシステム130で、または、結合されたシステム100で提供される。
(30)本発明の幾つかの実施において、ライダーサブシステム130は各ビーム112に対応する反射ビーム114を受信し、反射ビーム114を処理し、処理システム160にライダー出力116を出力する。
(31)結合されたシステム100はまた、ビデオサブシステム150を含む。ビデオサブシステム150は、ターゲット190の2次元画像155を取り込むビデオカメラを含んでもよい。理解されるように、様々なカメラが使用されてもよい。本発明のいくつかの実施において、ビデオカメラは、特定の解像度で、および、特定の画像またはフレームレートで、画素として画像155を出力してもよい。ビデオサブシステム150によって取り込まれたビデオ画像155は、処理システム160に転送される。本発明のいくつかの実施において、ライダーサブシステム130およびビデオサブシステム150は、位置と方向について、お互いにオフセットされる。特に、ビデオ画像は、典型的に、2次元(例えば、xおよびy)に対応するが、ライダー測定は、典型的に、3次元(例えば、x、y、およびz)に対応する。発明の様々な実施は、理解されるように、各システムによって提供されたデータが所与の座標系における同じロケーションにあてはまることを確実にするために、ライダーサブシステム130を、ビデオサブシステム150とキャリブレートする。
(32)結合されたシステム110は、理解されるように、異なる位置、遠近法、または角度から、追加のターゲット190の2次元画像155を取り込むために、1つまたは複数の任意のビデオサブシステム(例示されていないけれども)を含んでもよい。
(33)本発明のいくつかの実施において、処理システム160は、ライダーサブシステム130からライダー出力116を、ビデオサブシステム150から画像155を受信し、それらを、続く処理のためにメモリまたは他の記憶デバイス165に記憶する。処理システム160は、ライダー出力116および画像155を処理して、ターゲット190の3次元画像を生成する。本発明のいくつかの実施において、処理システム160は、ライダー出力116と画像155との組み合わせからターゲット190の軌道を決定し、軌道を使用しターゲット190の動き安定化3次元画像を生成する。
(34)本発明のいくつかの実施は、ライダーサブシステム130は、ビーム112の各々について、ターゲット190上のポイントの距離およびドップラ速度の両方を明白に、同時に測定することが可能である、デュアル周波数、チャープコヒーレントレーザレーダシステムを含んでもよい。このようなレーザレーダシステムは、その全体を参照することによってここに組み込まれている、”Chirped Coherent Laser Radar System and Method”(「チャープライダー明細書」)と題された同時係属の米国出願第11/353123号に記述されている。明瞭にするために、チャープライダー明細書で言及されている「ビーム」は、本記述で言及されている「ビーム」とは同一でない。さらに詳しくは、チャープライダー明細書において、2つのビームが、レーザレーダシステムからの出力、すなわち、ターゲット上のポイントで同時に一致し、ターゲット上のポイントの距離およびドップラ速度の両方の同時測定を提供する、第1の周波数(チャープまたはそうでないか)を有する第1のビーム、第2の周波数(チャープまたはそうでないか)を有する第2のビームとして記述されている。簡潔および明瞭にするために、ここで議論されるような単数の「ビーム」は、チャープライダー明細書に記述されたレーザレーダシステムからの結合された第1および第2のビーム出力のことを指してもよい。チャープライダー明細書で議論されている個々のビームを、ここでは以降「信号」と呼ぶ。それでもなお、本発明の様々な実施は、これらのビームが、ターゲット上のポイントで同時の距離およびドップラ速度測定を提供すると仮定すると、チャープライダー明細書で記述されているビーム以外のビームを用いてもよい。
(35)図2は、本発明の様々な実施にしたがって、ライダー出力116を提供するために、ビーム112および反射ビーム114を生成および処理するために使用されてもよいライダー210を例示している。各ライダー210は、ライダー210に関連するターゲット上のポイントの距離およびドップラ速度を明白に決定する。ライダー210は、第1の周波数ライダー小区分274および第2の周波数ライダー小区分276を含む。第1の周波数ライダー小区分274は、ターゲット190に向かって第1の周波数ターゲット信号212を発し、第2の周波数ライダー小区分276は、ターゲット190に向かって第2の周波数ターゲット信号214を発する。第1のターゲット信号212および第2のターゲット信号214の周波数は、デュアルチャープシステムを作成するようにチャープされてもよい。
(36)第1の周波数ライダー小区分274は、レーザソースコントローラ236、第1のレーザソース218、第1の光学カプラ222、第1の信号遅延244、第1の局部発振器光学カプラ230、および/または、他のコンポーネントを含んでもよい。第2の周波数ライダー小区分276は、レーザソースコントローラ238、第2のレーザソース220、第2の光学カプラ224、第2の信号遅延250、第2の局部発振器光学カプラ232、および/または、他のコンポーネントを含んでもよい。
(37)第1の周波数ライダー小区分274は、第1のターゲット信号212および第1の参照信号242を生成する。第1のターゲット信号212および第1の参照信号242は、第1のチャープレートで変調されてもよい第1の周波数で、第1のレーザソース218によって生成されてもよい。第1のターゲット信号212は、独立して、または、第2のターゲット信号214と結合されるかして、ターゲット190上の測定ポイントに向かって向けられても良い。第1の周波数ライダー小区分274は、ターゲット190から反射されたターゲット信号256を、周知のまたはそうでなければ固定された経路長さを有する経路を通じて向けられる第1の参照信号242と結合し、結合された第1のターゲット信号262をもたらしてもよい。
(38)第2の周波数ライダー小区分276は、第1の周波数ライダー小区分274を基準にして、一緒に置かれ固定されてもよい(すなわち、ライダー210内)。さらに詳しくは、それぞれのレーザ信号を送信および受信するための関連する光学コンポーネントが、一緒に置かれ固定されてもよい。第2の周波数ライダー小区分276は、第2のターゲット信号214および第2の参照信号248を生成されてもよい。第2のターゲット信号214および第2の参照信号248は、第2のチャープレートで変調されてもよい第2の周波数で、第2のレーザソース220によって生成されてもよい。本発明のいくつかの実施は、第2のチャープレートが、第1のチャープレートと異なる。
(39)第2のターゲット信号214は、第1のターゲットビーム212と同じターゲット190上の測定ポイントに向かって向けられてもよい。第2の周波数ライダー小区分276は、ターゲット190から反射されたターゲット信号256の1つの部分を、周知のまたはそうでなければ固定された経路長さを有する経路を通じて向けられる第2の参照信号248と結合し、結合された第2のターゲット信号264をもたらしてもよい。
(40)プロセッサ234は、結合された第1のターゲット信号262および結合された第2のターゲット信号264を受信し、反射ターゲット信号の各々とその対応する参照信号との間の経路長さにおける差によって、および、ライダー210に関連するターゲットの動きによって作成される何らかのドップラ周波数によって引き起こされるうなり(beat)周波数を測定する。うなり周波数は、チャープライダー明細書に記載されているように、ターゲット190の距離およびドップラ速度の明白な決定を生成するために、線状に結合されてもよい。いくつかの実施において、プロセッサ234は、処理システム160に対し距離およびドップラ速度測定を提供する。いくつかの実施において、プロセッサ234は、処理システム160に結合され、このような実施において、処理システム160は、結合された第1のターゲット信号262および結合された第2のターゲット信号264を受信し、それらを使用し、距離およびドップラ速度を決定する。
(41)記述したように、各ビーム112は、ライダー210に関連するターゲット190上のポイントの距離およびドップラ速度の同時測定を提供する。本発明の様々な実施にしたがって、ビーム112の様々な数が、ターゲット190のこれらの測定を提供するために使用されてもよい。本発明のいくつかの実施において、2つ以上のビーム112が使用されてもよい。本発明のいくつかの実施において、3つ以上のビーム112が使用されてもよい。本発明のいくつかの実施において、4つ以上のビーム112が使用されてもよい。本発明のいくつかの実施において、5つ以上のビーム112が使用されてもよい。
(42)本発明の様々な実施において、ビーム112は、異なる目的のために測定を収集するために使用されてもよい。例えば、本発明のいくつかの実施において、特定のビーム112は、ターゲット190を含むボリュームをスキャンするために使用されてもよい。本発明のいくつかの実施において、複数のビーム112は、このようなスキャンを遂行するために使用されてもよい。本発明のいくつかの実施において、特定のビーム112は、ターゲット190上の特別な特徴または位置をモニタするために使用されてもよい。本発明のいくつかの実施において、複数のビーム112は、ターゲット190上の1つまたは複数の特徴および/または位置を個別にモニタするために使用されてもよい。本発明のいくつかの実施において、1つまたは複数のビーム112は、ターゲット190をスキャンするために使用されてもよく、一方、1つまたは複数の他のビームは、ターゲット190上の1つまたは複数の特徴および/または位置をモニタするために使用されてもよい。
(43)本発明のいくつかの実施において、1つまたは複数のビーム112は、ターゲット190の3次元画像を取得するためにターゲット190をスキャンされてもよく、一方、1つまたは複数の他のビーム112は、ターゲット190上の1つまたは複数の特徴および/または位置をモニタしてもよい。本発明のいくつかの実施において、ターゲット190の3次元画像が取得された後で、1つまたは複数のビーム112は、ターゲット190の動き態様をモニタおよび/または更新するために、ターゲット190をスキャンし続けてもよく、一方、1つまたは複数の他のビーム112が、ターゲット110上の1つまたは複数の特徴および/または位置をモニタしてもよい。
(44)本発明のいくつかの実施において、ターゲット190の動き態様をモニタおよび/または更新するために使用された1つまたは複数のビーム112を介して取得された測定は、ターゲット190上の1つまたは複数の特徴および/または位置をモニタするのに使用される、1つまたは複数の他のビーム112を介して取得された測定を補償するのに使用されてもよい。本発明のこれらの実施において、ターゲット190の大まかな動きは、ターゲット190上の特定のポイントまたは領域の細かい動きを取得するために、ターゲット190上の様々な特徴および/または位置に関連付けられた測定から取り除かれても良い。本発明の様々な実施において、ターゲット190の細かい動きは、例えば、質量中心、回転の中心に関連するターゲット190の表面上のある位置、ターゲット190の表面上の別の位置または他の位置の様々な振動、発振または動きを含んでもよい。本発明の様々な実施において、ターゲット190の細かい動きは、例えば、目、まぶた、唇、口角、顔面筋または神経、鼻孔、首表面など、または、ターゲット190の他の特徴のような様々な特徴の関連する動きを含んでもよい。
(45)本発明のいくつかの実施において、ターゲット190の大まかな動きおよび/または細かい動きに基づいて、ターゲット190の1つまたは複数の生理学的機能および/または身体的活動は、モニタされてもよい。例えば、その全体を参照することによってここに組み込まれている、”System and Method for Remotely Monitoring Physiological Functions”と題された同時係属の米国特許出願第11/230546号は、個人の生理学の機能および/または身体的活動をモニタする様々なシステムおよび方法を記述している。
(46)本発明のいくつかの実施形態において、1つまたは複数のビーム112は、ターゲット190の眼球上の1つまたは複数の位置をモニタするために使用され、これらの位置の各々において、眼球の様々な位置および動き態様を測定してもよい。その全体を参照することによってここに組み込まれている、”System and Method for Tracking Eyeball Motion”と題された同時係属の米国特許出願第11/610867号は、眼球の運動を追跡する様々なシステムおよび方法を記述している。
(47)本発明のいくつかの実施形態において、1つまたは複数のビーム112は、ターゲット190の顔面上の様々な特徴または位置に焦点を合わせ、ターゲット190の顔面上の特徴または位置に対して顔の様々な態様を測定するために使用されてもよい。例えば、ある顔面の特徴または顔面の表情は、ターゲット190の精神状態を推論し、ターゲット190の意思を推論し、ターゲット190の欺きレベルを推論し、または、ターゲット190に関連付けられた事象を予言するために(例えば、ある顔面筋が、表情の変化の直前または発話の前にピクピク動くかもしれない)、時間期間にわたって、モニタされてもよい。
(48)本発明のいくつかの実施において、1つまたは複数のビーム112は、ターゲット190の首の上の1つまたは複数の位置をモニタするために使用されてもよい。ターゲット190の首の測定された動き態様は、喉の運動パターン、声帯振動、脈拍数、および/または呼吸数を決定するために使用されてもよい。本発明のいくつかの実施において、1つまたは複数のビーム112は、ターゲット190の発話に関連付けられた振動を検出および測定するために、ターゲット190の上唇の1つまたは複数の位置をモニタするために使用されてもよい。これらの振動は、ターゲット190の発話を実質的に再現するのに使用されてもよい。
(49)本発明のいくつかの実施において、1つまたは複数のビーム112は、結合されたシステム100の動作の第1の期間またはモードの間1つの目的に役立ってもよく、結合されたシステム100の動作の第2の期間またはモードの間異なる目的に役立つように切り替わってもよい。例えば、本発明のいくつかの実施において、処理システム160が、ターゲット190の軌道を決定または捉えてもよいように、複数のビーム112は、ターゲット190の様々な動き態様を測定するために使用されてもよい。ターゲット190の軌道が捉えられると、複数のビーム112のいくつかは、ターゲット190の一定の他の面または特徴をモニタすることに切り替わり、一方、複数のビーム112のうち他のいくつかは、軌道が維持されることができるようにターゲット190の動き態様を測定する。
(50)本発明のいくつかの実施において、5つのビーム112は、ターゲット190の3次元画像を取得するために、ターゲット190をスキャンする。これらの実施において、これらのビーム112のうちの4つはそれぞれ、(さらに詳細に以下に記述されているように様々なスキャニングパターンを使用して)ターゲット190の部分をスキャンし、一方、5つ目のビーム112は、ターゲット190の「オーバスキャン」を実行する。オーバスキャンは、円形(circular)、卵形(oval)、楕円形(elliptical)もしくは類似の円形(round)のスキャンパターン、または、矩形(rectangular)、正方形(square)、ひし形(diamond)もしくは類似のスキャンパターン、または、比較的短い時間間隔内で、ターゲット190上の様々なポイント(または少なくともお互いに近接近内のポイント)の複数の測定を取り込むのに有効である他のスキャンパターンであってもよい。これらの複数の測定は、5つ目のビーム112によって成される他の測定(すなわち、5つ目のビーム112による同じポイントへの複数訪問)、または、他の4つのビーム112のうち1つまたは複数によって成される測定(すなわち、5つ目のビームおよび他の4つのビーム112のうち1つまたは複数による同じポイントへの訪問)に対応してもよい。いくつかの実施において、オーバスキャンのパターンは、ターゲット190の測定間で追加の垂直および/または水平広がりを提供するために選択されてもよい。複数の測定および追加の広がりの両方は、ターゲット190の動きの推定値を改善するために使用されてもよい。ターゲット190をオーバスキャンするために5番目のビーム112を使用することは、上記に言及した動作の異なるモードの各々の間に発生してもよい。
(51)本発明のいくつかの実施において、ターゲット190の軌道が十分に捉えられると、1つまたは複数のビーム112は、ターゲット190の特徴の他の態様をモニタするのと同様に、ターゲット190の軌道を維持するのに有効である測定を提供してもよい。このような実施において、他のビーム112は、ボリュームをスキャンする際に、他のターゲットについてスキャンするために使用されてもよい。
(52)図1に例示されるように、ターゲット座標フレーム180は、ターゲット190に関連付けられた様々な測定を表示するために使用されてもよい。理解されるように、様々な座標フレームが使用されてもよい。本発明のいくつかの実施において、理解されるように、サブシステム130、150のうちの様々なものは、ターゲット座標フレーム180以外の座標フレームにおけるターゲット190の態様を表してもよい。例えば、本発明のいくつかの実施において、球状の座標フレーム(例えば、方位、高度、距離)は、ライダーサブシステム130を介して取得された測定を表すために使用されてもよい。同様に、例えば、本発明のいくつかの実施において、2次元の画素に基づく座標フレームは、ビデオサブシステム150を介して取得された画像155を表すために使用されてもよい。理解されるように、本発明の様々な実施は、処理の様々なステージで、これらの座標フレームの1つまたは複数、または、他の座標フレームを使用してもよい。
(53)理解されるように、本発明のいくつかの実施において、様々な座標変換は、ライダーサブシステム130(ライダー測定空間とも呼ばれる)に関して球座標で表されてもよいライダーサブシステム130からの測定を、ターゲット190(ターゲット空間とも呼ばれる)に関してカルテシアン座標で表されてもよいターゲット190の動き態様に変換することが要求され得る。同様に、様々な座標変換は、ビデオサブシステム150(ビデオ測定空間とも呼ばれる)に関連して、カルテシアンまたは画素座標で表されてもよいビデオサブシステム150からの測定を、ターゲット190の動き態様に変換するように要求される。加えて、結合されたシステム100からの測定は、補助ビデオ、赤外線、ハイパースペクトル、マルチスペクトル、または、他の補助イメージングシステムのような外部測定システムに関連付けられた座標フレームに変換されてもよい。座標変換は、一般的に、良く知られている。
(54)理解されるように、本発明のいくつかの実施において、様々な座標変換は、ライダーサブシステム130および/またはビデオサブシステム150からの測定を、各々のこのようなサブシステム130、150の位置および/または方向における差を説明するために、変換することが要求されてもよい。
(55)図3は、本発明の様々な実施にしたがって、ターゲット190のボリュームをスキャンするために使用されてもよいスキャンパターン300を例示している。スキャンパターン300は、第1のスキャンパターンセクション310および第2のスキャンパターンセクション320を含んでもよい。第1のスキャンパターンセクション310は、ボリューム(またはその一部)をスキャンするのに使用されてもよい第1のビーム112(例えば、ビーム112A)のスキャンパターンに対応してもよい。第2のスキャンパターンセクション320は、ボリューム(またはその一部)をスキャンするのに使用されてもよい第2のビーム112(例えば、ビーム112B)のスキャンパターンに対応してもよい。
(56)図3に例示されているように、第2のビーム112が、スキャンパターン300の下部領域をスキャンするのに対して、第1のビーム112は、スキャンパターン300の上部領域をスキャンする。本発明のいくつかの実施において、スキャンパターンセクション310、320は、重複領域330を含んでもよい。重複領域330は、第1のスキャンパターンセクション310を第2のスキャンパターンセクション320と直線に並べるか、または、「まとめる(stitch together)」ために使用されてもよい。本発明のいくつかの実施において、スキャンパターン310、320は、重複領域330を形成するために重複していない(例示されていないけれども)。
(57)ライダーサブシステム130が垂直に変位されたスキャンパターン300(図3に例示されているように)を用いる本発明の実施において、第1のビーム112は、第2のビーム112から垂直に(すなわち、いくつかの垂直距離、仰角、または他の垂直変位によって)変位される。このようにして、ビーム112のペアは、周知の、またはそうれなければ、確定できる垂直の変位でスキャンされてもよい。
(58)スキャンパターン300は、図3において、垂直に変位されたスキャンパターンセクション310、320を有するように例示されているが、本発明のいくつかの実施において、スキャンパターンは、水平に変位されたスキャンセクションを有してもよい。ライダーサブシステム130が水平に変位されたスキャンパターン(例示されていないけれども)を用いる本発明の実施において、第1のビーム112は、第2のビーム112から水平に(すなわち、いくつかの水平距離、方位の角度、または他の水平変位)変位される。このようにして、ビーム112のペアは、周知の、またはそうれなければ、確定できる水平の変位でスキャンされてもよい。
(59)理解されるように、図3は、2つの垂直に変位されたスキャンパターンセクション310、320をともなうスキャンパターン300を例示するが、様々な数のビームが、対応する数のスキャンパターンセクションを作成するために積み重ねられてもよい。例えば、3つのビームは、3つのスキャンパターンセクションを提供するために、垂直変位または水平変位のどちらかで構成されてもよい。理解されるように、他の数のビームは、水平または垂直どちらかで使用されてもよい。
(60)図4は、本発明の様々な実施に従って、4つのビーム112を用いるライダーサブシステム130のスキャンパターン400を例示している。図4で例示されるように、ライダーサブシステム130は、スキャンパターン400をスキャンするように配置された4つのビーム112を含む。スキャンパターン400は、お互いに水平に変位された第1のビームのペア112と、お互いに水平におよび第1のビームのペア112から垂直に変位された第2のビームのペア112とを有することによって達成され、依って、矩形スキャニング配置を形成する。理解されるように、他のスキャニング幾何学が使用されてもよい。スキャンパターン400は、ビームスキャニングメカニズム140を介して、ペアとして(水平にまたは垂直のどちらかで)、または、集合的に、ビームをお互い独立して制御することにより達成されてもよい。
(61)スキャンパターン400は、第1のスキャンパターンセクション410、第2のスキャンパターンセクション420、第3のスキャンパターンセクション430、および、第4のスキャンパターンセクション440を含んでもよい。本発明のいくつかの実施において、それぞれスキャンパターンセクション410、420、430、440は、ある量だけ、隣接するスキャンパターン部分と重複してもよい(重複領域450として図4に集合的に例示されている)。例えば、本発明のいくつかの実施において、スキャンパターン400は、第1のスキャンパターンセクション410および第3のスキャンパターンセクション430間の重複領域450を含む。同様に、重複領域450は、第1のスキャンパターンセクション410と第2のスキャンパターンセクション420との間に存在する。本発明のいくつかの実施において、これらの重複領域450の様々なものは、発生しないかもしれない、またはそうでなければ、利用されなくてもよい。本発明のいくつかの実施において、例えば、垂直重複領域450だけが、発生するか、または、利用されてもよい。本発明のいくつかの実施において、水平の重複領域450だけが、発生するか、または、使用されてもよい。本発明のいくつかの実施において、水平の重複領域450は、発生せしないか、または、使用されなくてもよい。本発明のいくつかの実施において、重複領域450の他の組み合わせが、使用されてもよい。
(62)図3および図4に例示されるように、複数のビーム112のライダーサブシステム130による使用は、特定のボリューム(またはボリューム内の固有のターゲット)がスキャンされ得るレートで増加してもよい。例えば、所与のボリュームは、1つのビーム112で同じボリュームをスキャンするのに対し、2つのビーム112を使用して、2倍の速さでスキャンされてもよい。同じく、所与のボリュームは、2つのビーム112で同じボリュームをスキャンするのに対し、4つのビーム112を使用して、2倍の速さで、および、1つのビーム112で同じボリュームをスキャンするより4倍の速さでスキャンされてもよい。加えて、複数のビーム112は、下記にさらに詳細に議論されるように、ターゲット190の動きに関連付けられた様々なパラメータを測定または推定するのに使用されてもよい。
(63)本発明の様々な実施にしたがって、特定のスキャンパターン(およびその対応するビームコンフィギュレーション)は、ターゲット190の動き態様の測定値および/または推定値を提供するのに使用されてもよい。上述されているように、各ビーム112は、スキャンされた各ポイントで、距離測定およびドップラ速度測定を同時に提供するために使用されてもよい。
(64)本発明のいくつかの実施例において、各ビーム112について、そのビーム112によってスキャンされたポイントは、方位角、仰角、および、時間で記述されてもよい。各ビーム112は、そのポイントおよび時間において、距離測定およびドップラ速度測定を提供する。本発明のいくつかの実施において、ビーム112によってスキャンされた各ポイントは、方位角、仰角、距離測定、ドップラ速度測定、および、時間として表されてもよい。本発明のいくつかの実施において、ビーム112によってスキャンされた各ポイントは、位置(x、y、z)、ドップラ速度、および、時間としてカルテシアン座標で表されてもよい。
(65)本発明の様々な実施にしたがって、ライダーサブシステム130からの測定(すなわち、ライダー出力116)およびビデオサブシステム150からの測定(フレーム155)は、ターゲット190の様々な方向および/または動き態様を測定および/または推定するために使用されてもよい。ターゲット190のこれらの方向および/または動き態様は、位置、速度、加速度、角度位置、角速度、角加速度、などを含んでもよい。これらの方向および/または動き態様は、測定および/または推定されるので、ターゲット190の軌道は、決定されるか、またはそうでなければ、近似されてもよい。本発明のいくつかの実施において、ターゲット190は、所与の時間間隔を通して剛体とみなされ得て、その動きは、vxtrans、vytrans、およびvztransとして3次元で表される並進(translational)速度コンポーネント、並びに、所与の時間間隔を通して、ω、ω、およびωとして3次元で表される角速度コンポーネントとして表されてもよい。ひとまとめにして、これらの並進速度および角速度は、特定の時間間隔にわたる、ターゲット190の動きの6自由度に対応する。本発明のいくつかの実施において、これらの6コンポーネントの測定値および/または推定値は、ターゲット190の軌道を表すために使用されてもよい。本発明のいくつかの実施において、これらの6コンポーネントの測定値および/または推定値が、ターゲット190の3次元ビデオ画像を生成するために、ライダーサブシステム130から取得されたターゲット190の3次元画像を、ビデオサブシステム150から取得されたターゲット190の3次元画像と合併させるために使用されてもよい。
(66)本発明のいくつかの実施において、明白なように、ターゲット190上のポイントの瞬間速度コンポーネントv(t)は、ライダーサブシステム130からの距離測定、ドップラ速度測定、方位角、および仰角に基づいて、計算されてもよい。
(67)ライダーサブシステム130は、ターゲット190の並進速度v trans、および、2つの角速度、すなわちωおよびωを測定および/または推定するのに使用されてもよい。例えば、図5は、本発明の様々な実施にしたがって、ターゲット190の角速度のxおよびyコンポーネントを推定するのに使用されてもよい2つのビーム112からの対応する測定値をともなうポイントの間の例である関係を例示している。さらに詳しくは、一般的に言えば、図5で例示されているように、ビーム112が、y軸に沿ってお互い変位されている実施において、第1のビーム112を介して決定されたポイントPのz軸に沿った局部速度、第2のビーム112を介して決定されるポイントPの速度、および、PAおよびPB間の隔たり(distance)は、理解されるように、x軸についてこれらのポイントの角速度(ここでは、ωと呼ぶ)を推定するのに使用されてもよい。本発明のいくつかの実施において、これらの測定は、ωの最初の推定値を提供するのに使用されてもよい。
(68)図6は、本発明の様々な実施にしたがって、角速度を推定するために使用されてもよい2つのビーム112からの対応する測定値を伴うポイントの間の別の例である関係を例示している。さらに詳しくは、図6で例示されているように、ビーム112が、x軸に沿ってターゲット190上で、お互い変位されている実施において、第1のビーム112を介して決定されたポイントPの速度、第2のビーム112によって決定されたポイントPの速度、x軸に沿ったターゲット190上のPおよびP間の隔たりは、y軸についてこれらのポイントの角速度(ここでは、ωと呼ぶ)を推定するのに使用されてもよい。本発明のいくつかの実施において、これらの測定は、ωの最初の推定値を提供するのに使用されてもよい。
(69)図5および6は、2つのビーム112が、それぞれ垂直軸または水平軸に沿ってお互いに変位され、各ポイントにおける(3次元座標のx、y、およびzで表され得る)対応する距離およびドップラ速度が、実質的に同じ時間で測定される発明の実施を例示している。単一軸に沿ってビーム112を用いる本発明の実施において(例示されていないけれども)、角速度は、単一の軸に沿って、異なる時間で、異なるポイントで測定されたドップラ速度に基づいて推定されてもよい。理解されるように、角速度のよりよい推定値は、1)ターゲット190の範囲のポイントでの測定値(すなわち、お互いより大きな隔たり)、および2)最小時間間隔内で取られた測定値(加速度による何らかの効果を最小にするため)、を使用して、取得されてもよい。
(70)図5および6は、異なる軸、すなわち、x軸およびy軸、について角速度の概念的な推定を例示している。一般的に、第1のビーム112が、第2のビーム112から第1の軸に沿ってターゲット190上で変位されるところで、第1の軸に直交する第2の軸に関する角速度は、それぞれのポイントの各々で、第1および第2の軸の両方に直交する第3の軸に沿った速度から決定され得る。
(71)本発明のいくつかの実施において、2つのビームが、お互いにy軸に沿って変位され(すなわち、垂直に変位される)、スキャン間の垂直分離を有して水平にスキャンされ、ωおよびωの両方の推定値が出されてもよい。x軸に沿った同時測定は、利用できなくても、加速度効果を無視する様々な実施において、時間的に十分近いべきである。2つのビーム112がお互いにx軸に沿って変位され、少なくとも第3のビーム112が、ビーム112のペアからy軸に沿って変位される本発明のいくつかの実施において、ω、ω、および、v transの推定値が出されてもよい。本発明のいくつかの実施において、矩形式に配置された4つのビーム112を使用して、ω、ω、および、v transの両方の測定値が、出されてもよい。このような実施において、4つのビーム112から取得された測定は、ω、ω、および、v transを推定するために必要であるより多くの情報を含む。理解されるように、この所謂「過剰決定系(overdetermined system)」は、ω、ω、および、v transの推定値を改善するために使用されてもよい。
(72)記述したように、ライダーサブシステム130によって、様々な方位角および仰角で、並びに、様々な時間におけるポイントで取られた距離およびドップラ速度測定は、弾道的な動きを受ける剛体について、並進速度v transを推定し、2つの角速度、すなわち、ωおよびωを推定するために使用されてもよい。
(73)本発明のいくつかの実施において、理解されるように、ω、ωおよびv transは、様々なポイントで取得された測定から各測定時間で決定されてもよい。本発明のいくつかの実施において、ω、ωおよびv transは、特定の時間の間隔にわたって、一定であるものとしてもよい。本発明のいくつかの実施において、理解されるように、ω、ωおよびv transは、様々な測定時間で決定され、続いて、特定の時間の間隔を通して平均され、その特定の時間の間隔のω、ωおよびv transの推定値を提供してもよい。本発明のいくつかの実施において、特定の時間間隔は、例えば、ターゲット190の動き態様に依存して固定される、または、可変であってもよい。本発明のいくつかの実施において、理解されるように、最小二乗推定器は、特定の時間の間隔にわたって、ω、ωおよびv transの推定値を提供するのに使用されてもよい。理解されるように、ω、ωおよびv transの推定値は、他の仕方で取得されてもよい。
(74)本発明のいくつかの実施において、ビデオサブシステム150からの画像は、所与の時間の間隔を通じて、ターゲット190の3つの他の動き態様、すなわち、並進速度コンポーネントv transおよびv transおよび角速度コンポーネントωを推定するのに使用されてもよい。本発明のいくつかの実施において、ビデオサブシステム150によって取り込まれたフレーム155は、ターゲット190がフレーム155間で動くので、ターゲット190のポイントに対する、速度のxおよびyコンポーネントを推定するのに使用されてもよい。図7は、時間Tにおけるフレーム155と続く時間T+Δtにおけるフレーム155との間の特定のポイントまたは特徴(feature) IAの位置における変化を例示する。
(75)本発明のいくつかの実施において、この位置の変化は、フレーム155における少なくとも2つの特定のポイントまたは特徴の各々について決定される(例示されていないけれども)。本発明のいくつかの実施において、位置の変化は、多くのポイントまたは特徴の各々のために決定される。本発明のいくつかの実施において、ターゲット190の並進速度コンポーネントv transおよびv trans、ならびに、角速度コンポーネントωは、フレーム155間の特徴IA(T)とIA(T+Δt)との位置における差と、時間Δtにおける差とに基づいて推定されてもよい。位置および時間におけるこれらの差は、特徴の一定の速度、すなわち、ターゲット190の並進速度コンポーネントv transおよびv trans、並びに、角速度コンポーネントωを推定するのに順に使用され得るv featおよびv featを決定するのに使用されてもよい。理解されるように、画像フレーム間のこのような速度の推定および特徴の角速度は、一般的に解釈される。
(76)本発明のいくつかの実施において、ターゲット190の多くの特徴は、連続フレーム155から抽出される。連続フレーム155間の時間間隔にわたってこれらの特徴の速度v featおよびv featは、連続フレーム155間の各それぞれの特徴の位置における変化に基づいて決定されてもよい。最小二乗推定器は、抽出された特徴各々の位置変化から、並進速度v transおよびv trans、並びに、角速度ωを推定するために使用されてもよい。
(77)本発明のいくつかの実施において、最小二乗推定器は、ターゲット190の並進速度v trans、v trans、およびv trans、並びに、角速度ω、ω、ωを推定するために、ライダーサブシステム130からの測定と、ビデオサブシステム150からのフレーム155における特徴の位置における変化とを使用してもよい。
(78)上述したように、ライダーサブシステム130およびビデオサブシステム150は、ターゲット190の動きを記述するために使用されてもよい6つのコンポーネントを推定するために使用されてもよい。これらの動きのコンポーネントは、ターゲット190の軌道を計算するために経時的に収集されてもよい。この軌道は、ターゲット190の動き安定化3次元画像を取得するために、ターゲット190の動きを補うために使用されてもよい。本発明の様々な実施において、ターゲット190の軌道は、様々な時間の間隔にわたって、軌道の動きを描くものとされてもよい。ターゲット190のさらに正確な軌道が決定されると、さらに正確な結合されたシステム100が、例えば、ターゲット190の3次元画像、または、他の態様を描くために、ターゲット190の測定を調整してもよい。
(79)本発明の様々な実施において、ライダーサブシステム130によって測定がされるレートは、ビデオサブシステム150によってフレーム155が取り込まれるレートとは異なる。本発明のいくつかの実施において、ライダーサブシステム130によって測定がされるレートは、ビデオサブシステム150によってフレーム155が取り込まれるレートより実質的に高い。加えて、ビーム112は、ライダーサブシステム130によってスキャンボリュームを通してスキャンされるので、スキャンボリュームにおける異なるポイントにおける測定は、お互いに異なる時間で行われてもよいが、しかし、所与のフレーム155の画素は、実質的に同時に取り込まれる(ビデオ画像のコンテクスト内で)。本発明の様々な実施において、これらの時間の差は、ターゲット190のさらに正確な軌道を提供するために、分析される。
(80)図8に例示されるように、本発明のいくつかの実施において、スキャンパターン840は、ターゲットについてボリュームをスキャンするのに使用されてもよい。説明のために、スキャンパターン840は、単一のビームによってされた測定のパターンを描く。いくつかの実施において、明白であるように、複数のビームが、その対応するスキャンパターンを伴って各々使用されてもよい。例示されているように、特定のスキャンボリュームがスキャンされるまで、スキャンパターン840は、第1の高度831における方位で左から右へ、第2の高度832における方位で右から左へ、第3の高度833における方位で左から右に等、測定された個々のポイント810を含む。いくつかの実施において、スキャンパターン840は、結合されたシステム100に関連付けられた様々なタイミング態様に対応する間隔に分割されてもよい。例えば、本発明のいくつかの実施において、スキャンパターン840は、ビデオサブシステム150のフレームレートに関連付けられた時間間隔に分割されてもよい。本発明のいくつかの実施において、スキャンパターン840は、特定の高度をスキャンすること(すなわち、全体の左から右、または、右から左スキャン)に関連付けられた時間間隔に分割されてもよい。本発明のいくつかの実施において、スキャンパターン840は、1つまたは複数の高度(すなわち、同じまたは異なる高度どちらかで、左から右、復路右から左スキャン)での往復スキャン820(往復スキャン820A、往復スキャン820B、往復スキャン820Cとして図8に例示されている)に関連付けられた時間間隔に分割されてもよい。同様のタイミング態様は、(方位において水平にするのに対し)高度において垂直にスキャンする実施において使用されてもよい。他のタイミング態様が、同様に使用されてもよい。
(81)図8において例示されるように、再び目的のために、各間隔は、単一のスキャン(例えば、831、832、833など)または往復スキャン820におけるポイント810の数に順に対応し得るNポイント810を含んでもよい。特定の間隔でのポイント810の収集は、ここではサブ‐ポイントクラウドと呼び、完全なスキャンパターン840のポイント810の収集は、ここでポイントクラウドと呼ぶ。本発明のいくつかの実施において、各ポイント810は、特定の方位、高度での距離およびドップラ速度のライダー測定、および、測定がされた時間に対応する。本発明のいくつかの実施において、各ポイント810は、距離(x、y、z座標表された)およびドップラ速度のライダー測定、並びに、測定がされた時間に対応する。
(82)図9は、本発明の様々な実施に従って、ライダーサブシステム130からの測定に関連付けられた様々なタイミング態様を記述するのに有効であるタイミング図900を例示している。タイミングダイアグラム900は、ビーム112によってスキャンされたポイント810、それぞれのサブ‐ポイントクラウド920に対応する間隔にわたって収集された複数のポイント810から形成されたサブ‐ポイントクラウド920、および、スキャンパターンを通して収集された複数のサブ‐ポイントクラウド920から形成されたポイントクラウド930を含む。タイミングダイアグラム900は、理解されるように、複数のビーム112によってスキャンされたポイント810を取り囲むように拡張されてもよい。
(83)各ポイント810は、ビーム112によってスキャンされ、各ポイント810に関連付けられた測定は、ライダーサブシステム130によって決定される。本発明のいくつかの実施において、ポイント810は、スキャンパターン(またはスキャンパターンセクション)を介してスキャンされる。ライダーサブシステム130が特定のサブ‐ポイントクラウド920のための測定を収集する間隔は、TSPCと呼ばれる時間持続を有してもよい。本発明のいくつかの実施において、サブ‐ポイントクラウド920における個々のポイント810に関連付けられた測定のタイミングの差は、サブ‐ポイントクラウド920の特定の基準時間(例えば、tRSPC)にポイントを調整するために、各ポイントに対する動き態様(例えば、並進速度および角速度)を使用することによって合わせられてもよい(例えば、並進速度および角速度)。この処理は、ターゲット190の動き態様に対し、個々のポイント810を安定化するものとして言及されてもよい。
(84)本発明のいくつかの実施において、速度は、時間間隔(すなわち、時間持続TSPC間)にわたって一定であるものとしてもよい。本発明のいくつかの実施において、理解されるように、速度は、スキャンパターンの期間の間一定であるものとしてもよく、加速度効果は、基準時間に対するポイント810の測定を調整することが考慮される必要があるかもしれない。本発明のいくつかの実施において、時間間隔の副分割のための調整はまた、合わせられる必要があってもよい。図9に例示されるように、各サブ‐ポイントクラウド920の基準時間は、間隔のと中心点で選択されてもよい、しかし、他の基準時間が使用されてもよい。
(85)本発明のいくつかの実施において、サブ‐ポイントクラウド920をポイントクラウド930に結合する場合に、類似の調整が、なされてもよい。さらに詳しくは、本発明のいくつかの実施において、ポイントクラウド930におけるサブ‐ポイントクラウド920に関連付けられた測定のタイミングにおける差が、測定に関連付けられた動き態様を使用することにより合わせられてもよい。
(86)本発明のいくつかの実施において、ポイントクラウド930に合併された各サブポイントクラウド920に関連付けられた測定は、ポイントクラウド930に関連付けられた基準時間に個別に調整される。本発明のいくつかの実施において、基準時間は、フレーム時間(例えば、フレーム155に関連付けられた時間)に対応する。本発明の他の実施において、基準時間は、ポイントクラウド930におけるポイント1110の最も早い測定時間に、ポイントクラウド930におけるポイント1110の最も遅い測定時間に、ポイントクラウド930におけるポイント1110の測定時間の平均もしくは中心点に、または、ポイントクラウド930に関連付けられた他の基準時間に対応する。
(87)例示されてないけれども、本発明のいくつかの実施において、類似の調整は、個々のビーム112からのポイントクラウド930を、特定の基準時間における集計されたポイントクラウドに結合するようにされてもよい。本発明のいくつかの実施において、理解されるように、これは個々のポイントレベル、サブ‐ポイントクラウドレベルまたはポイントクラウドレベルで遂行されてもよい。この記述の残りのために、サブ‐ポイントクラウド920およびポイントクラウド930は、ターゲット190をスキャンするために、ライダーサブシステム130によって用いられたビーム112の各々から、それぞれの基準時間における、ポイント810の収集を参照する。
(88)本発明のいくつかの実施において、ターゲット190の動き態様は、様々な時間間隔にわたって一定であるものとしてもよい。例えば、ターゲット190の動き態様は、TSPCまたは他の時間持続を通して一定であるものとしてもよい。本発明のいくつかの実施において、ターゲット190の動き態様は、所与のTSPCにわたって一定であるが、必ずしもTPCにわたって一定でないとものとしてもよい。本発明のいくつかの実施において、ターゲット190の動き態様は、TSPCの増加部分にわたって一定であるが、必ずしもTSPCにわたって一定でないものとしてもよい。結果として、本発明のいくつかの実施において、ターゲット190の軌道は、各々の個々の時間間隔にわたったターゲット190の動き態様に対応する各「区分(piece)」を有する、時間の区分的関数(piece-wise function)として表されてもよい。
(89)いくつかの実施において、動きを補償するためのタイミング調整は、第1の時間から第2の時間へのポイントの動きを説明する変換として表されてもよい。この変換は、例えばライダーサブシステム130からの測定に適用されるとき、所望の基準時間まで、特定のポイント(またはサブ‐ポイントクラウドまたはポイントクラウド、など)に関連付けられた測定時間からタイミング調整を実行してもよい。その上、測定は、ベクトルとして表される場合、この変換は、変換行列として表されてもよい。このような変換行列およびその特質は、一般的に知られている。
(90)理解されるように、変換行列は、ターゲット190の動きに基づいて、いずれかの時間におけるポイントの位置および方向ベクトルを、時間的に前か後いずれかの他の時間におけるそのポイントにとって対応する位置および方向ベクトルに置くのに容易に使用されてもよい。変換行列は、同様にサブ‐ポイントクラウド、複数のサブ‐ポイントクラウド、およびポイントクラウドに適用されてもよい。いくつかの実施において、変換行列は、ある間隔に表されたポイントクラウドを次の順次間隔で表されたポイントクラウドに調整するのに使用されるように、各間隔(またはサブ間隔)のために決定されてもよい。これらの実施において、各間隔は、ターゲット190の軌道のためのポイントクラウドを次の間隔に調整するために、関連付けられた変換行列を有する。いくつかの実施において、変換行列は、ある間隔に表されたポイントクラウドを前の順次間隔で表されたポイントクラウドに調整のに使用されるように、各間隔(またはサブ間隔)のために決定されてもよい。様々な間隔に変換行列を用いて、ポイントクラウドは、前か後いずれかの時間に対し、参照されてもよい。
(91)図10は、本発明の様々な実施に従って、ビデオサブシステム150からの測定に関連するライダーサブシステム130からの測定に関連付けられた様々なタイミング態様を記述するのに有効であるタイミング図1000を例示している。本発明のいくつかの実施において、ポイントクラウド930は、フレーム155間の時間間隔またはフレーム155間の他の時間の中心点に対し参照されてもよい。本発明のいくつかの実施において、ポイントクラウド930は、特定のフレーム155に対応するフレーム時間に対し参照されてもよい。理解されるように、ポイントクラウド930は、特定のフレーム155に関する他の仕方で参照されてもよい。
(92)図10に例示されるように、PCm-1は、フレームIn-1のフレーム時間で参照されるポイントクラウド930の表現であり、PCmは、フレームInのフレーム時間で参照されるクラウド930の表現であり、PCm+1は、フレームIn+1のフレーム時間で参照されるポイントクラウド930の表現であり、PCm+2は、フレームIn+2のフレーム時間で参照されるポイントクラウド930の表現である。いくつかの実施例において、理解されるように、ポイントクラウド930は、フレームに関連する他の時間およにフレーム時間で参照されてもよい。
(93)上述されているように、変換行列Ti,i+1は、ithフレーム時間におけるポイントクラウド表現を、(i+1)thフレーム時間におけるポイントクラウド930の表現に変換するために、決定されてもよい。図10を参照すると、変換行列Tm-1,mは、PCm-1をPCmに変換するように使用されてもよく、変換行列Tm,m+1は、PCmをPCm+1に変換するのに使用されてもよく、変換行列Tm+1,m+2は、PCm+1をPCm+2に変換するのに使用されてもよい。このように、変換行列は、フレーム155に対応する異なる時間のポイントクラウド930を表すのに使用されてもよい。
(94)本発明の様々な実施にしたがって、第1の時間から第2の時間へポイントクラウド930を表すために、ポイントクラウド930に適用される変換行列は、異なる処理ステージで決定される。一般的に言えば、変換行列は、6度の動きパラメータω、ω、ω、v trans、v trans、およびv trans―これは、2つのステップで計算されてもよい:ライダーサブシステムからの第1にω、ωおよびv trans、並びに、ビデオサブシステムからの第2にv trans、v transおよびω―と直接関連する。
(95)図11は、本発明の様々な実施にしたがって、ターゲット190の軌道を推定するために第1の処理ステージの第1フェーズの間使用されてもよい、処理システム160のコンフィギュレーションのブロック図を例示する。本発明のいくつかの実施において、第1ステージの第1フェーズの間、一連の初期の変換行列(ここではTi,i+1 (0)と呼ぶ)は、ターゲット190の動き態様の様々な測定値から決定される。例示されるように、ライダーサブシステム130は、一連の時間間隔の各々を通して、角速度ωおよびω、並びに、並進速度vz transを推定するように構成された最小二乗推定器1110への入力として各ポイントにおいての距離、ドップラ速度、方位、高度、および時間を提供する。本発明のいくつかの実施において、明らかなように、角速度ωおよびω、並びに、並進速度vz transは、各特定の時間間隔についての最小二乗推定器1110からの何らかの残余のエラーが、許容レベルに到達するまで、上述したように、時間間隔のサイズを変える(または、時間間隔をサブ間隔に分ける)ことによって反復して推定される。この処理は、ライダーサブシステム130によってターゲット190の測定がされる時間の間各継続時間について繰り返されてもよい。
(96)ターゲット190が、弾道的な動きを受ける(すなわち、加速度なしの一定の速度)剛体(すなわち、ターゲット190の表面上のポイントは、お互いに関して固定されたままである)として所与の時間間隔を通して描かれることができるとすると、ターゲット190上の所与のポイント810の瞬間速度は、次のように表される:
v = vtrans + [ω x (R − Rc − vtrans * Δt)] 数式(1)
ここで、
vは、所与のポイントの瞬間速度ベクトルであり、
vtransは、剛体の並進速度ベクトルであり、
ωは、剛体の回転速度ベクトルであり、
Rは、ターゲット上の所与のポイントの位置であり、
は、ターゲットの回転の中心であり、
Δtは、所与の基準時間からの各測定時間の時間差である。
(97)ライダーサブシステム130から利用可能である測定があれば、瞬間速度のzコンポーネントは、次のように表される:
vz = vz trans + [ω x (R − Rc − vtrans * Δt)] z 数式(2)
は、瞬間速度ベクトルのzコンポーネントであり、
transは、並進速度ベクトルのzコンポーネントであり、
[ω x (R − Rc − vtrans * Δt)] zは、クロス積のzコンポーネントである。
(98)本発明のいくつかの実施において、画像155からの様々な特徴に対応するフレーム間測定がなされてもよい。これらの測定は、特徴の各々に対し、および各フレーム間時間間隔に対し位置(例えば、xfeat、yfeat)、および、速度(例えば、v feat、v feat)に対応してもよい。位置のz座標は、ビデオサブシステム150から利用可能でない実施において、zの初期推定値は、例えば、ライダーサブシステム130からのポイントから平均zコンポーネントを使用してなされてもよい。最小二乗推定器1120は、関連する時間間隔の各々に対し、変換行列Ti,i+1 (0)として表されてもよい、角速度ω、ω、および、ω、並びに、並進速度v trans、v trans、およびv transを推定する。本発明のいくつかの実施において、任意のフレーム間時間間隔に対応する累積する変換行列が、決定されてもよい。
(99)図12は、本発明の様々な実施にしたがって、ターゲット190の軌道を推定するために第1の処理ステージの第2フェーズの間使用されてもよい、処理システム160のコンフィギュレーションのブロック図を例示する。本発明のいくつかの実施において、第1ステージの第2フェーズの間、新しい変換行列(ここではTi,i+1 (1)と呼ぶ)は、ターゲット190の動き態様の様々な推定値から決定される。例示されているように、Nポイントの各々について、距離、ドップラ速度、方位、高度、および、時間のライダーサブシステム130からの測定は、第1フェーズの間上述されたような仕方と類似の仕方で、一連の時間間隔の各々にわたって、角速度ωおよびω、並びに、並進速度v transを推定するために、変換行列Ti,i+1 (0)に沿って、処理システム160の最小二乗推定器1110に入力される。
(100)第2のフェーズと第1のフェーズとの間の主要な差は、最小二乗推定器1120が、z位置の単なる平均とは対照的に、Ti,i+1 (0)に基づいた特徴の計算された特徴のz位置を使用するものである。最小二乗推定器1120は、関連する時間間隔の各々について、変換行列Ti,i+1 (1)として表され得る新しい角速度ω、ω、および、ω、並びに、新しい並進速度v trans、v trans、およびv transを推定する。また、本発明のいくつかの実施において、フレーム間時間間隔に対応する累積する変換行列が、決定されてもよい。
(101)図13は、本発明の様々な実施にしたがって、ターゲット190の軌道を推定するために第1の処理ステージの第3フェーズの間使用されてもよい、処理システム160のコンフィギュレーションのブロック図を例示する。本発明のいくつかの実施において、第1ステージの第3フェーズの間、新しい変換行列(ここではTi,i+1 (2)と呼ぶ)は、ターゲット190の動き態様の様々な推定値から決定される。例示されるように、ライダーサブシステム130は、第1フェーズの間、上述された仕方と類似の仕方で、一連の時間間隔の各々にわたって、角速度ω、ω、および、並進速度v transを推定するために最小二乗推定器1110への入力として、各ポイントについての距離、ドップラ速度、方位、高度、および時間を提供する。このフェーズにおいて、前のフェーズの間に決定されたようなTi,i+1 (1)に基づく各ポイントに対するvおよびvの計算された値が、上記で使用された特徴測定に対し、最小二乗推定器1120に入力される。
(102)第3フェーズと第2フェーズとの間の主要な差は、関連するフレーム155の間の動きを記述するためにTi,i+1 (1)を使用することである。最小二乗推定器1110、1120は、関連する時間間隔の各々に対する変換行列Ti,i+1 (2)として表され得る新しい角速度ω、ω、および、ω、並びに、新しい並進速度v trans、v trans、およびv transを推定する。また、本発明のいくつかの実施において、フレーム間時間間隔に対応する累積する変換行列が、決定されてもよい。
(103)本発明の様々な実施において、第1の処理ステージのフェーズのいずれかは、追加の情報が、ターゲット190の動きに関して取得されると、何回でも繰り返され得る。例えば、変換行列が改善されると、各ポイント810は、その測定時間に関して、所与の基準時間でよりよく表されてもよい。
(104)第1の処理ステージの間、各ポイントの並進速度は(ライダー測定から利用可能ではないが)、フレーム155からの特徴を利用して推定されてもよい。全ての速度コンポーネントが、各ポイントに対し知られ、推定されると、変換行列は、図13に例示されるように、特徴測定を使用せずに決定されてもよい。
(105)図14は、本発明の様々な実施にしたがって、ターゲット190の軌道を精密化(refine)するために第2の処理ステージの第1フェーズの間使用されてもよい、処理システム160のコンフィギュレーションのブロック図を例示する。第1の処理ステージは、画像155がフレーム時間のいずれかで画像にマップされることが可能になるのに十分な変換行列を提供する。そのようにマップされると、同じフレーム時間に変換された異なる画像からの(画像155における特徴とは対照的に)画素自身における差は、ターゲット190の軌道をさらに精密化するのに使用されてもよい。いくつかの実施において、様々な複数フレーム修正が決定されてもよく、これは、順に、最小二乗推定器を通して、連続画像の間のオフセットΔxi,i+1、Δyi,i+1、Δθzi,i+1を取得するために使用されることができる。これらの修正は、変換行列を精密化するのに使用されてもよい(例えば、行列Ti,i+1 (2)からTi,i+1 (3)へ)。本発明のいくつかの実施において、第2の処理ステージの第1フェーズの間、一連の新しい変換行列(ここでは、Ti,i+1 (3)と呼ぶ)は、画像Iiおよび画像Ij、すなわち、Δxi,j、Δyi,j、Δθzi,j、の間のオフセットに基づくTi,i+1 (2)の精密化である。例示されているように、推定器1410は、同じフレーム時間の画像を表すために、適切な変換行列Ti,j (2) を使用して、画像Iiと画像Ijとの間の差を決定する。
(106)図15は、本発明の様々な実施にしたがって、ターゲット190の軌道をさらに精密化するために第2の処理ステージの第2フェーズの間使用されてもよい、処理システム160のコンフィギュレーションのブロック図を例示する。更なる正確性が必要である限りにおいて、第2の処理ステージの第1フェーズ(例えば、Ti,i+1 (3))からの変換行列は、さらに変換行列を精密化するために(ここでは、Ti,i+1 (4)と呼ぶ)ライダーサブシステム130からの測定と関係して、使用されてもよい。本発明のいくつかの実施において、このフェーズの間、何れかの重複領域360、450内で発生するライダーサブシステム130からの測定が、使用される。これらの測定は、異なる時間の、同じポイント(または実質的に同じポイント)についてされた複数の測定に対応する。このフェーズは、異なる時間でされたターゲット190上の同じポイントの座標測定が、完璧な変換行列でお互いに精密に変換するべきであるという前提に基づいている。すなわち、同じxおよびy座標を有する異なる時間に測定されたポイントは、同じz座標を有するべきである。言い換えると、基礎的ポイントの全ての座標は、時間的に異なるポイントでお互いに直接マップされるべきである。異なる時間の測定間のz座標における差(すなわち、修正)は、抽出され、最小二乗推定器に入力される。最小二乗推定器を通じて、連続フレーム間の変換パラメータに対する修正は、取得されてもよく、Δzi,i+1、Δθxi,i+1、およびΔθyi,i+1として表されてもよい。これらの修正は、変換行列を行列Ti,i+1 (3) からTi,i+1 (4)へ精密化するのに使用されてもよい。本発明のいくつかの実施において、オーバスキャンビームの使用に対応する複数の測定は、類似の仕方で使用されてもよい。
(107)ここで記述されているように、正確な変換パラメータを取得することは、一方で、ターゲットの6自由度(6DOF)トラッキングを可能にし、他方で、スキャンの間いずれかのフレーム時間に再現されることができるターゲットの動き補償3D画像の生成を可能にする。各フレーム時間で動き補償画像を有することはまた、それぞれの画素の運動の情報を携えており、各それぞれの画像についての動きのぼけを取り除くために使用されることができる。ターゲットの各静止した3D画像はまた、いずれかの所与の時間で、姿勢について調整されることができる。加えて、変換パラメータは、複数の画像を、選択された画像のフレーム時間に変換するために使用され、依って、同じフレーム時間における複数の画像を取得する。これらの複数の画像は、超解像度画像を収集して、各フレーム時間における画像の解像度を上げるために使用されてもよい。本発明の様々な実施にしたがって、解像向上は、6DOFトラッキングおよび3D画像の安定化を通して発生する。いくつかの実施において、ライダーサブシステム130からの3D測定およびビデオサブシステム150からの2Dビデオ画像は、画像の解像および質を向上するのに使用されてもよい。
(108)ここに記述されているように、動いているターゲットのスキャンの間、一連のビデオ画像は、ライダーサブシステム130から3Dポイントクラウドを形成する一連のポイントに沿って、ビデオサブシステム150によって取得される。典型的に、ビデオ画像は、1.5秒の典型的なスキャン時間を通して46ビデオ画像またはフレームが取得され得るように(t=0sおよびt=1.5sの両方におけるフレームを説明する)、毎秒30フレームのレートで取得され得る。動き安定化の処理の間、静止した3D画像は、各フレーム時間で決定されてもよく、このような3D画像のうちの46画像は、スキャン時間を通して決定されてもよい。いくつかの実施において、このことは、本質的に、いずれかのポイントの軌道を定義し、その動きが、いずれかのフレーム時間(または他の時間)で決定されるのを可能にする様々な変換パラメータ(すなわち、v、v、v、ω、ωおよびω)を決定することによって遂行されてもよい。いくつかの実施において、変換パラメータは、スキャン時間の間に取られた各画像における各画素の動きを定義するのに使用されてもよく、依って、各フレーム時間の各画像におけるその位置を決定する。一般性を失うことなく、これらの3Dビデオ画像の各々はまた、オリジナルの画像が任意のおよび/または可変の位置で取り込まれたとしても、「関心のある姿勢(posture of interest)」(例えば、正面像、側面像など)に変換されることができる。
(109)いくつかの実施において、画像における各ポイントの軌道を知ることで、処理システム160が、関心のある姿勢における各像から動きのぼけを取り除くために様々なぼけ除去技術を適用することを可能にする。
(110)「System and Method for Refining Coordinate-Based Three-Dimensional Images Obtained from a Three-Dimensional Measurement System」と題された関連する米国特許出願に記述されるように、いくつかの実施において、処理システム160は、ライダーパラメータ(例えばライダーサブシステム130によってなされた3D測定から取得されるv、ω、ω)、および、ビデオパラメータ(例えば、ビデオサブシステム150からの2Dビデオ画像に関連付けられた測定から取得されるv、v、ω)を精密化することにより、(フレーム間のポイントの軌道を定義する)変換パラメータを精密化してもよい。いくつかの実施において、変換パラメータは、変換された画像(すなわち、所与のフレーム時間に変換された画像)が、その所与のフレーム時間におけるオリジナル画像(すなわち、所与のフレーム時間に実際に取り込まれた画像)に一致するように、精密化されてもよい。この処理は、オリジナル画像のフレーム時間に変換された”積み重ねられた(stacked)”45の独立した画像のセットを(および、46番目の独立した画像も)もたらす。言い換えると、(スキャン時間にわたって)各フレーム時間で決定された3D画像は、オリジナル画像のフレーム時間(すなわち、オリジナル2D画像が、ビデオサブシステムによって取り込まれるフレーム時間、および/または、オリジナル2D画像のオリジナル2D画像/フレーム時間に対応するオリジナル3D画像のフレーム時間)に変換されてもよい。
(111)いくつかの実施において、処理システム160は、変換された3D画像に基づいて、向上した(enhanced)情報を決定してもよい。いくつかの実施において、変換された画像は、向上した情報が、いずれかの所与のフレーム時間における変換された画像の1つまたは複数のポイント(座標および/または画素位置)で決定されてもよいように、”積み重ねられ”てもよい。いくつかの実施において、いずれかの所与のフレーム時間における向上した情報の積み重ねは、オリジナル3D画像の解像を向上するために、標準超解像方法論(例えば、バックプロパゲーション)で使用されてもよい。いくつかの実施において、向上した情報は、各変換された画像のポイントに関連付けられた、ライダーに基づくまたはビデオに基づく測定における変化、差、および/または向上を含んでもよい。いくつかの実施において、向上した情報は、ポイントに関連付けられた画素強度情報および/または他の情報を含んでもよい。いくつかの実施において、向上した情報は、画像の解像を上げるためにオリジナル3D画像に追加されてもよい。いくつかの実施において、標準超解像アプローチとは対照的に、積み重ねられた変換された画像は、1つまたは複数の関心のビデオフレームに変換されてもよい。
(112)いくつかの実施において、追加の/さらに高い解像が達成される向上した情報を提供するために、ターゲットは、スキャン時間(並進もしくは回転のどちらか、または、両方)の間動いているべきである。代替的に、静止したターゲットの場合では、獲得システム100が(すなわち、結合されたライダーおよびビデオシステム)、ターゲットに関して動く場合、画像のさらに高い解像度は、取得されることができる。いくつかの実施において、さらに高い解像度を達成するのに必要な運動の量は、連続ビデオフレーム間の画素のおおよそ少なくとも小数部(0.5)である。
(113)図16は、本発明の様々な態様に従って、3D画像の解像度を上げるシステムによって実行された実例動作を描くフローチャートを例示している。いくつかの実施において、記述された動作は、ここに記述されたコンポーネントの1つまたは複数を使用して遂行されてもよい。いくつかの実施において、様々な動作は、異なるシーケンスで実行されてもよい。他の実施において、追加の動作は、図16に示された動作のいくつかまたは全てに沿って実行されてもよい。さらに他の実施において、1つまたは複数の動作は、同時に実行されてもよい。さらに他の実施において、1つまたは複数の動作は、実行されなくてもよい。これにしたがって、図16に記述された動作および他の図面の図は、本質的に例であり、そのようにして、制限としてみなされるべきでない。
(114)いくつかの実施において、動作1602では、処理1600は、ターゲット上の複数のポイントに対する(例えば、ライダーサブシステム130からの)複数の3D測定、および、(例えば、ビデオサブシステム150からの)ターゲットの複数の2D画像を受信してもよい。
(115)いくつかの実施において、動作1604では、処理1600は、複数の3D測定および複数の2D画像に基づいてターゲットの複数の3D画像を生成してもよい。いくつかの実施において、各3D画像は、ターゲットの各2D画像に関連付けられたフレーム時間に生成される。
(116)いくつかの実施において、動作1606では、処理1600は、複数の3D画像の各々における動きのぼけを取り除いてもよい。いくつかの実施において、処理1600は、6DOFトラッキング(すなわち、6DOF変換パラメータ)から取得されたそれぞれの画素速度の基礎的情報に基づいて全ての2D画像の動きのぼけを取り除いてもよい。
(117)いくつかの実施において、動作1608では、処理1600は、6DOF変換パラメータに基づいて、複数の3D画像の各々を、選択された画像(例えば、オリジナルの3D画像または2D画像)のフレーム時間に変換してもよい。
(118)いくつかの実施において、動作1610において、処理1600は、同じフレーム時間に変換された、変換された複数の画像に基づいて向上した情報を決定し、各画素における強度の正確さを上げ、および/またはオリジナル画像の解像を上げ、最終的に3D画像の向上した解像を備えてもよい。言い換えると、処理1600は、変換された複数の画像に基づいて所与のフレーム時間における元の画像に対する向上した情報を決定してもよい。
(119)本発明は、様々な実施についてここに記述されているが、そのように制限されずに、当業者に明白であるように、続く特許請求の範囲の範囲によってのみ制限される。本発明のこれらのおよび他の実施は、上記に提供された開示および添付の図面を熟慮して、明らかになるだろう。加えて、本発明の1つの実施に関して記述された様々なコンポーネントおよび特徴は、同様に他の実施で使用されてもよい。

Claims (4)

  1. ターゲットの3次元画像の解像度を上げるシステムであって、
    前記システムは、
    前記ターゲットに向かって少なくとも2つのビームを向け、および、前記少なくとも2つのビームの各々について前記ターゲット上の複数のポイントに対し複数の3次元(3D)測定を生成するように構成されたライダーサブシステムと、
    前記ターゲットの複数の2次元(2D)画像を提供するように構成されたビデオサブシステムと、
    前記ライダーサブシステムから、前記ターゲット上の前記複数のポイントに対する前記3D測定を受信し、
    前記ビデオサブシステムから、前記ターゲットの前記複数の2D画像を受信し、
    前記ターゲット上の複数のポイントに対する前記3D測定と、前記ターゲットの前記2D画像とに基づいて、前記ターゲットの複数の3次元(3D)画像を生成し、前記3D画像の各々は、前記ターゲットの前記2D画像の各々に関連付けられたフレーム時間で生成され、
    前記複数の3D画像の各々において、動きのぼけを取り除き、
    前記複数の3D画像の各々を、複数の変換パラメータに基づいてオリジナルの3D画像のフレーム時間に変換し、
    前記変換された複数の3D画像の各々に基づいて、前記オリジナルの3D画像について向上した情報を決定する
    ように構成されたプロセッサと
    を備える、システム。
  2. 前記ターゲットは、動くターゲットである請求項1に記載のシステム。
  3. 前記ターゲットは、静止したターゲットであり、ここで、前記ライダーサブシステムおよび前記ビデオサブシステムは、前記静止したターゲットに関連して動く請求項1に記載のシステム。
  4. 動きのぼけを取り除くように構成された前記プロセッサは、
    前記複数の変換パラメータから取得された画素速度情報に基づいて動きのぼけを取り除くようにさらに構成された請求項1に記載のシステム。
JP2015531114A 2012-09-04 2013-08-24 3次元測定システムから取得された画像の解像度を上げること Active JP6463267B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261696447P 2012-09-04 2012-09-04
US61/696,447 2012-09-04
US13/841,620 2013-03-15
US13/841,620 US8948497B2 (en) 2012-09-04 2013-03-15 System and method for increasing resolution of images obtained from a three-dimensional measurement system
PCT/US2013/056537 WO2014039295A1 (en) 2012-09-04 2013-08-24 Increasing resolution of images obtained from a three-dimensional measurement system

Publications (2)

Publication Number Publication Date
JP2015535925A true JP2015535925A (ja) 2015-12-17
JP6463267B2 JP6463267B2 (ja) 2019-01-30

Family

ID=50187662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015531114A Active JP6463267B2 (ja) 2012-09-04 2013-08-24 3次元測定システムから取得された画像の解像度を上げること

Country Status (7)

Country Link
US (6) US8948497B2 (ja)
EP (1) EP2893295A4 (ja)
JP (1) JP6463267B2 (ja)
CN (1) CN104956180A (ja)
AU (2) AU2013313140A1 (ja)
CA (1) CA2885318A1 (ja)
WO (1) WO2014039295A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015197402A (ja) * 2014-04-03 2015-11-09 三菱電機株式会社 レーザ画像計測装置
JP2018526743A (ja) * 2015-12-22 2018-09-13 三菱電機株式会社 検知された測定値を融合する方法及びシステム
JP2019518957A (ja) * 2016-06-07 2019-07-04 ディーエスシージー ソルーションズ,インコーポレイテッド Lidarを使用した運動の推定
WO2021019906A1 (ja) * 2019-07-26 2021-02-04 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置
JP2022515162A (ja) * 2018-12-21 2022-02-17 ライカ ジオシステムズ アクチェンゲゼルシャフト レーザスキャナ及びカメラによるリアリティキャプチャ

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140036332A1 (en) * 2012-08-01 2014-02-06 Digital Signal Corporation System and Method for Positioning a Mirror in a Lidar System Using Open Loop and Closed Loop Control
US8948497B2 (en) * 2012-09-04 2015-02-03 Digital Signal Corporation System and method for increasing resolution of images obtained from a three-dimensional measurement system
US9374532B2 (en) 2013-03-15 2016-06-21 Google Inc. Cascaded camera motion estimation, rolling shutter detection, and camera shake detection for video stabilization
US10012734B2 (en) * 2014-05-21 2018-07-03 DSCG Solutions, Inc. Devices, systems, and methods for real time tracking of an object
US10185030B2 (en) * 2014-09-05 2019-01-22 GM Global Technology Operations LLC Object boundary detection for automotive radar imaging
WO2017106734A1 (en) * 2015-12-16 2017-06-22 Martineau Pierre R Method and apparatus for remanent imaging control
US11442149B2 (en) * 2016-10-06 2022-09-13 GM Global Technology Operations LLC LiDAR system
US11675078B2 (en) 2016-10-06 2023-06-13 GM Global Technology Operations LLC LiDAR system
TWI624170B (zh) 2016-10-19 2018-05-11 財團法人工業技術研究院 影像掃描系統及其方法
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
CN108469624B (zh) * 2018-03-26 2021-06-25 西安电子科技大学 基于激光探测器阵列超分辨的卫星定标方法
CN110704673B (zh) * 2018-07-09 2022-09-23 上海交通大学 基于视频内容消费的反馈信息标识方法、系统及存储介质
US11435479B2 (en) 2018-08-06 2022-09-06 Luminar, Llc Determining relative velocity based on an expected configuration
CN112689776A (zh) 2018-09-16 2021-04-20 苹果公司 使用彩色图像数据校准深度感测阵列
CN109375191B (zh) * 2018-09-18 2022-09-20 南京航空航天大学 共照射源3d激光雷达和2d探测器超空间分辨率信息获取方法及装置
EP3857259A1 (en) * 2018-09-25 2021-08-04 Apple Inc. Enhanced depth mapping using visual inertial odometry
WO2020104423A1 (en) * 2018-11-20 2020-05-28 Volkswagen Aktiengesellschaft Method and apparatus for data fusion of lidar data and image data
US11650316B1 (en) * 2019-02-22 2023-05-16 Aeva, Inc. Fast frequency modulation lidar system through sub-sweep sampling
US11906628B2 (en) 2019-08-15 2024-02-20 Apple Inc. Depth mapping using spatial multiplexing of illumination phase
US20210156881A1 (en) * 2019-11-26 2021-05-27 Faro Technologies, Inc. Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking
US11236990B2 (en) * 2020-02-08 2022-02-01 The Boeing Company De-jitter of point cloud data
US11536843B2 (en) 2020-02-08 2022-12-27 The Boeing Company De-jitter of point cloud data for target recognition
CN111489292B (zh) * 2020-03-04 2023-04-07 北京集朗半导体科技有限公司 视频流的超分辨率重建方法及装置
US11763472B1 (en) 2020-04-02 2023-09-19 Apple Inc. Depth mapping with MPI mitigation using reference illumination pattern
CN111650601B (zh) * 2020-06-01 2022-10-25 孙建锋 车载相干激光雷达高分辨3d成像方法及装置
US11558569B2 (en) 2020-06-11 2023-01-17 Apple Inc. Global-shutter image sensor with time-of-flight sensing capability
US20220107414A1 (en) * 2020-10-07 2022-04-07 Luminar, Llc Velocity determination with a scanned lidar system
CN112731359B (zh) * 2020-12-31 2024-04-09 无锡祥生医疗科技股份有限公司 超声探头的速度确定方法、装置及存储介质
US20230184950A1 (en) * 2021-12-09 2023-06-15 Raytheon Company Non-Contiguous 3D LIDAR Imaging Of Targets With Complex Motion
CN114415143B (zh) * 2021-12-21 2024-04-30 西北工业大学 一种匀速运动目标的多帧相参积累方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194845A (ja) * 1998-12-25 2000-07-14 Canon Inc 画像処理装置及びその方法、及び画像処理システム
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
US20100128109A1 (en) * 2008-11-25 2010-05-27 Banks Paul S Systems And Methods Of High Resolution Three-Dimensional Imaging
JP2012518793A (ja) * 2009-02-20 2012-08-16 デジタル・シグナル・コーポレーション ライダーとビデオ測定を使用する3次元画像の生成システム及び方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963613A (en) * 1997-12-31 1999-10-05 Siemens Corporate Research, Inc. C-arm calibration method for 3D reconstruction in an imaging system
FR2798761B1 (fr) * 1999-09-17 2002-03-29 Thomson Multimedia Sa Procede de construction d'un modele de scene 3d par analyse de sequence d'images
US8497131B2 (en) * 1999-10-06 2013-07-30 Becton, Dickinson And Company Surface enhanced spectroscopy-active composite nanoparticles comprising Raman-active reporter molecules
US6792575B1 (en) * 1999-10-21 2004-09-14 Equilibrium Technologies Automated processing and delivery of media to web servers
US7227116B2 (en) * 2000-04-26 2007-06-05 Arete Associates Very fast time resolved imaging in multiparameter measurement space
US7954719B2 (en) * 2000-11-24 2011-06-07 Metrologic Instruments, Inc. Tunnel-type digital imaging-based self-checkout system for use in retail point-of-sale environments
US8042740B2 (en) * 2000-11-24 2011-10-25 Metrologic Instruments, Inc. Method of reading bar code symbols on objects at a point-of-sale station by passing said objects through a complex of stationary coplanar illumination and imaging planes projected into a 3D imaging volume
US7540424B2 (en) * 2000-11-24 2009-06-02 Metrologic Instruments, Inc. Compact bar code symbol reading system employing a complex of coplanar illumination and imaging stations for omni-directional imaging of objects within a 3D imaging volume
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
US7262790B2 (en) * 2002-01-09 2007-08-28 Charles Adams Bakewell Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring
US8224064B1 (en) * 2003-05-21 2012-07-17 University Of Kentucky Research Foundation, Inc. System and method for 3D imaging using structured light illumination
US7343035B1 (en) * 2003-10-20 2008-03-11 Open Invention Network Llc Method and system for three-dimensional feature attribution through synergy of rational polynomial coefficients and projective geometry
US7939046B2 (en) * 2004-06-21 2011-05-10 Raytheon Company Microporous graphite foam and process for producing same
US7894647B2 (en) * 2004-06-21 2011-02-22 Siemens Medical Solutions Usa, Inc. System and method for 3D contour tracking of anatomical structures
JP2006033570A (ja) * 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
JP4861636B2 (ja) * 2005-04-19 2012-01-25 パナソニック株式会社 画像処理装置及び画像処理プログラム
US7477777B2 (en) * 2005-10-28 2009-01-13 Aepx Animation, Inc. Automatic compositing of 3D objects in a still frame or series of frames
US8300048B2 (en) * 2005-12-16 2012-10-30 Ihi Corporation Three-dimensional shape data recording/display method and device, and three-dimensional shape measuring method and device
US7944547B2 (en) * 2006-05-20 2011-05-17 Zheng Wang Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
US8493445B2 (en) * 2006-05-31 2013-07-23 Sigma Space Corp Scanner/optical system for three-dimensional lidar imaging and polarimetry
US8063995B2 (en) * 2007-02-23 2011-11-22 Samsung Electronics Co., Ltd. System and method for video noise reduction using a unified three-dimensional non-linear filtering
US8059207B2 (en) * 2007-02-23 2011-11-15 Samsung Electronics Co., Ltd. System and method for video noise reduction using an adaptive temporal method with motion detection and motion compensation
US8395760B2 (en) * 2007-03-13 2013-03-12 Zheng Wang Unified spectral and geospatial information model and the method and system generating it
WO2009019848A1 (ja) * 2007-08-03 2009-02-12 Panasonic Corporation 撮影装置、撮影方法、およびプログラム
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
US8149336B2 (en) * 2008-05-07 2012-04-03 Honeywell International Inc. Method for digital noise reduction in low light video
WO2010037436A1 (en) * 2008-09-30 2010-04-08 Mediri Gmbh 3d motion detection and correction by object tracking in ultrasound images
US8553783B2 (en) * 2008-12-29 2013-10-08 Stmicroelectronics Asia Pacific Pte Ltd. Apparatus and method of motion detection for temporal mosquito noise reduction in video sequences
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
US8670909B2 (en) 2009-07-14 2014-03-11 Ford Global Technologies, Llc Automotive vehicle
US8494687B2 (en) * 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
EP2549762B1 (en) * 2010-03-19 2017-05-03 Panasonic Intellectual Property Management Co., Ltd. Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
WO2012063467A1 (ja) * 2010-11-11 2012-05-18 パナソニック株式会社 画像処理装置、画像処理方法、プログラム及び撮影装置
US8948497B2 (en) * 2012-09-04 2015-02-03 Digital Signal Corporation System and method for increasing resolution of images obtained from a three-dimensional measurement system
KR102040152B1 (ko) * 2013-04-08 2019-12-05 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서의 깊이 영상 생성 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194845A (ja) * 1998-12-25 2000-07-14 Canon Inc 画像処理装置及びその方法、及び画像処理システム
JP2005216160A (ja) * 2004-01-30 2005-08-11 Secom Co Ltd 画像生成装置、侵入者監視装置及び画像生成方法
US20100128109A1 (en) * 2008-11-25 2010-05-27 Banks Paul S Systems And Methods Of High Resolution Three-Dimensional Imaging
JP2012518793A (ja) * 2009-02-20 2012-08-16 デジタル・シグナル・コーポレーション ライダーとビデオ測定を使用する3次元画像の生成システム及び方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015197402A (ja) * 2014-04-03 2015-11-09 三菱電機株式会社 レーザ画像計測装置
JP2018526743A (ja) * 2015-12-22 2018-09-13 三菱電機株式会社 検知された測定値を融合する方法及びシステム
JP2019518957A (ja) * 2016-06-07 2019-07-04 ディーエスシージー ソルーションズ,インコーポレイテッド Lidarを使用した運動の推定
JP7057289B2 (ja) 2016-06-07 2022-04-19 ディーエスシージー ソルーションズ,インコーポレイテッド Lidarを使用した運動の推定
JP2022515162A (ja) * 2018-12-21 2022-02-17 ライカ ジオシステムズ アクチェンゲゼルシャフト レーザスキャナ及びカメラによるリアリティキャプチャ
US11493599B2 (en) 2018-12-21 2022-11-08 Leica Geosystems Ag 3D surveillance system comprising LiDAR and multispectral imaging for object classification
WO2021019906A1 (ja) * 2019-07-26 2021-02-04 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置

Also Published As

Publication number Publication date
US8948497B2 (en) 2015-02-03
EP2893295A4 (en) 2016-06-22
US11408997B2 (en) 2022-08-09
CN104956180A (zh) 2015-09-30
JP6463267B2 (ja) 2019-01-30
AU2013313140A1 (en) 2015-04-09
US11841431B2 (en) 2023-12-12
US20230213653A1 (en) 2023-07-06
US9606233B2 (en) 2017-03-28
US20190033456A1 (en) 2019-01-31
EP2893295A1 (en) 2015-07-15
US20140064555A1 (en) 2014-03-06
US20210041563A1 (en) 2021-02-11
US20180024244A1 (en) 2018-01-25
US9983309B2 (en) 2018-05-29
US20150260844A1 (en) 2015-09-17
CA2885318A1 (en) 2014-03-13
AU2017213589A1 (en) 2017-08-31
WO2014039295A1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
JP6463267B2 (ja) 3次元測定システムから取得された画像の解像度を上げること
US11378396B2 (en) System and method for generating motion-stabilized images of a target using lidar and video measurements
US20210396885A1 (en) System and method for refining coordinate-based three-dimensional images obtained from a three-dimensional measurement system
US9188676B2 (en) System and method for detecting a face contour using a three-dimensional measurement system
JP2012518793A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180706

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181228

R150 Certificate of patent or registration of utility model

Ref document number: 6463267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250