JP6854387B2 - 同期スピニングlidarおよびローリングシャッターカメラシステム - Google Patents

同期スピニングlidarおよびローリングシャッターカメラシステム Download PDF

Info

Publication number
JP6854387B2
JP6854387B2 JP2020517102A JP2020517102A JP6854387B2 JP 6854387 B2 JP6854387 B2 JP 6854387B2 JP 2020517102 A JP2020517102 A JP 2020517102A JP 2020517102 A JP2020517102 A JP 2020517102A JP 6854387 B2 JP6854387 B2 JP 6854387B2
Authority
JP
Japan
Prior art keywords
row
camera
sensor
lidar sensor
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020517102A
Other languages
English (en)
Other versions
JP2020535407A (ja
Inventor
ガッサン,ブレイズ
イングラム,ベンジャミン
ウェンデル,アンドリアス
アレクサンダー シャンド,マーク
アレクサンダー シャンド,マーク
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2020535407A publication Critical patent/JP2020535407A/ja
Priority to JP2021041076A priority Critical patent/JP7146004B2/ja
Application granted granted Critical
Publication of JP6854387B2 publication Critical patent/JP6854387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Stroboscope Apparatuses (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

関連出願の相互参照
この出願は、2017年9月28日に出願された米国特許出願第15/719,366号の優先権を主張し、該米国特許出願は、その全体が参照により本明細書に組み込まれる。
数ある中でも、光検知測距(LIDAR)センサ、無線検知測距(RADAR)センサ、および音声ナビゲーション測距(SONAR)センサなどのアクティブセンサは、環境に向けて信号を放出し、放出された信号の反射を検知することにより、環境を走査できる。とりわけ画像センサおよびマイクロフォンなどのパッシブセンサは、環境内の発生源から発生する信号を検知できる。
例示的なLIDARセンサは、シーン全体を走査して反射面を示す「ポイントクラウド」を組み立てながら、環境特徴までの距離を判定できる。ポイントクラウドの個々の点は、例えば、レーザーパルスを送信し、環境内のオブジェクトから反射された戻りパルスがあればそれを検知し、次いで、パルスの送信とその反射の受信との間の時間遅延によりオブジェクトまでの距離を判定することによって判定できる。このようにして、環境内の反射特徴の位置を示す点の3次元マップが生成され得る。
例示的な画像センサは、画像センサから見えるシーンの画像を撮像することができる。例えば、画像センサは、相補型金属酸化膜半導体(CMOS)アクティブ画素センサのアレイ、または他のタイプの光センサを含み得る。各CMOSセンサは、アレイに入射するシーンから光の一部を受光することができる。次に、各CMOSセンサは、CMOSセンサがシーンからの光にさらされている露出時間中に、CMOSセンサに入射する光の量の測定値を出力する。この配置により、シーンの画像を生成することができ、画像の各画素は、CMOSセンサのアレイからの出力に基づく1つまたは複数の値(例えば、色など)を示す。
一例では、システムは、送信機および受信機を含む光検知測距(LIDAR)センサを含む。送信機はLIDARセンサの環境に向けて光パルスを放出する。受信機は、放出された光パルスの反射を検知する。LIDARセンサは、軸を中心としたLIDARセンサの回転に基づいて環境を走査する。システムはまた、1つまたは複数の外部光源から発生する外部光を検知する1つまたは複数のカメラを含む。1つまたは複数のカメラは一緒になって、感知素子の複数の行を提供する。感知素子の各行は、LIDARセンサの回転軸と整列している。システムはまた、1つまたは複数のカメラを操作して画像画素行のシーケンスを取得するコントローラを含む。シーケンスの第1の画像画素行は、第1の露出時間中の感知素子の第1の行による外部光の測定を示す。シーケンス内の第2の画像画素行は、第2の露出時間中の第2の行の感知素子による外部光の測定値を示す。
別の例では、装置は、複数の光ビームを放出し、LIDARセンサの指向方向によって定義される視野(FOV)に向かって複数の光ビームを方向付ける光検知測距(LIDAR)センサを含み、放出された光ビームの反射を検知する。装置はまた、1つまたは複数の外部光源から発生する外部光を検知する画像センサを含む。画像センサは、感知素子の隣接する行のアレイを備える。アレイ内の感知素子の所与の行は、LIDARセンサの所与の指向方向に関して、LIDARセンサによって方向付けられた所与の光ビームの配置に従って配置される。装置には、LIDARセンサの指向方向を調整するために、LIDARセンサを、軸を中心に回転させるアクチュエータも含まれている。LIDARセンサによって放出された複数の光ビームの配置は、少なくとも指向方向の調整に基づいている。装置はまた、少なくともLIDARセンサによって放出された複数の光ビームの配置に基づく特定の順序で画像画素のシーケンスを取得するために画像センサを操作するコントローラを含む。画像画素のシーケンスは、外部光への、それぞれの感知素子のそれぞれの露出時間に従う、アレイ内のそれぞれの感知素子による測定を示す。それぞれの露出時間は、少なくとも特定の順序に基づいている。
さらに別の例では、方法は、光検知測距(LIDAR)センサを、軸を中心に回転させて、LIDARセンサの環境を走査することを含む。LIDARセンサは環境に向けて光パルスを放出し、放出された光パルスの反射を検知する。本方法はまた、1つまたは複数の外部光源から発生する外部光を検知する1つまたは複数のカメラを使用して画像画素行のシーケンスを取得することを含む。1つまたは複数のカメラは一緒になって、感知素子の複数の行を提供する。感知素子の各行は、LIDARセンサの回転軸と整列している。シーケンスの第1の画像画素行は、第1の露出時間中の感知素子の第1の行による外部光の測定を示す。シーケンスの第2の画像画素行は、第2の露出時間中の感知素子の第2の行による外部光の測定値を示す。
さらに別の例では、システムは、光検知測距(LIDAR)センサを、軸を中心に回転させて、LIDARセンサの環境を走査する手段を含む。LIDARセンサは環境に向けて光パルスを放出し、放出された光パルスの反射を検知する。システムはまた、1つまたは複数の外部光源から発生する外部光を検知する1つまたは複数のカメラを使用して画像画素行のシーケンスを取得するための手段を含む。1つまたは複数のカメラは一緒になって、感知素子の複数の行を提供する。感知素子の各行は、LIDARセンサの回転軸と整列している。シーケンスの第1の画像画素行は、第1の露出時間中の感知素子の第1の行による外部光の測定を示す。シーケンスの第2の画像画素行は、第2の露出時間中の感知素子の第2の行による外部光の測定値を示す。
これらの態様ならびに他の態様、利点、および代替物は、当業者には、以下の詳細な説明を添付の図面を適宜参照して読み取ることにより明らかになるであろう。さらに、この概要セクションおよびこの文書の他の場所で提供される説明は、限定ではなく例として請求される主題を例示すことを意図していることを理解されたい。
例示的な実施形態による、システムの簡略化されたブロック図である。 例示的な実施形態による、回転LIDARセンサおよびローリングシャッターカメラ配置を含む装置を示す。 図2Aのローリングシャッターカメラ配置の断面図である。 図2Aの装置の操作の概念図である。 図2Aの装置の上面図を示す。 図2Aの装置の別の上面図を示す。 例示的な実施形態による、別のローリングシャッターカメラ配置の断面図を示す。 例示的な実施形態による方法のフローチャートである。
本明細書では、例示的な実装について説明する。「例示的」という単語は、本明細書では「例、事例、または例証としての役割を果たす」ことを意味するために使用されることを理解されたい。本明細書で「例示的(exemplary)」または「例示的(illustrative)」として説明される実装または機能は、他の実装または機能よりも好ましいまたは有利であると必ずしも解釈されるべきではない。図では、特に文脈によって説明しない限り、同様の記号は通常、同様の構成素子を指している。本明細書において説明される例示的な実施形態は、限定することを意図していない。本明細書に概して説明され、図面に例示される本開示の態様が、多種多様な異なる構成で配置し、置き換え、組み合わせ、分離し、および設計することができることが、本明細書において容易に理解される。
I.概要
センサフュージョンアルゴリズムを使用して、例えば、画像センサおよびLIDARセンサなどの複数のセンサからのデータをマージし、走査された環境の表現を生成できる。例えば、走査された環境の3D表現は、LIDARセンサを使用して判定された他の情報(例えば、距離、深度、強度、テクスチャ、反射光パルス長など)と組み合わされた画像センサを使用して判定された色情報を示す。
本明細書に記載の例示的な装置、システム、および方法は、周囲環境を感知する2つ以上のセンサの空間的および/または時間的同期に関する。1つの例示的な装置は、回転LIDARセンサおよび1つまたは複数のカメラを含み得る。1つまたは複数のカメラは、一緒になって、画像感知素子の隣接する行のアレイを提供することができる。アレイの行は、LIDARセンサの回転軸と整列させる(例えば、実質的に平行である)ことができる。例えば、LIDARセンサが垂直軸を中心に回転する場合、感知素子の各行は、LIDARセンサの垂直軸に平行な感知素子の垂直線として配置できる。
この配置により、例えば、装置は、(i)1つまたは複数のカメラによって撮像された画像画素および(ii)LIDARセンサによって検知された反射光パルスに関連するタイミングおよび視線方向の同期を改善することができる。
例として、LIDARセンサは、実質的に垂直である回転軸を有し得、LIDARセンサが回転するときに繰り返し垂直パターンで(例えば、LIDARセンサの回転軸に平行に)光パルスを放出するように構成され得る。垂直パターンで放出された光パルスは、LIDARセンサの回転速度と比較して非常に迅速に放出される。したがって、この例では、垂直方向は、LIDARセンサの「速軸」として説明することができ、LIDARセンサの水平回転方向は、LIDARセンサの「遅軸」として説明することができる。LIDARセンサの速軸は、例えば、LIDARセンサを使用して生成されたデータポイントクラウドにおける垂直方向に対応し得、LIDARセンサの遅軸は、例えば、データポイントクラウドにおける水平方向に対応し得る。
装置のコントローラは、1つまたは複数のカメラを操作して、LIDARセンサが光パルスを放出(および検知)する順序と同様の順序で画像画素のシーケンスを取得できる。例えば、シーケンスの画像画素の第1のラインは、アレイの感知素子の第1の行(例えば、垂直行)を、光パルスがLIDARセンサによって放出されるのと同様の順序で測定され得る。シーケンスの画像画素の(第1のラインに続く)第2のラインは、アレイ内の感知素子の隣接する垂直行を使用して測定することができ、以下同様である。
シーケンスの画像画素の各ラインは、アレイ内の感知素子のそれぞれの行のそれぞれの露出時間に従って測定することができる。例えば、画像画素の第1のラインは、第1の露出時間中に感知素子の第1の行に入射する外部光の量を示し得、画像画素の第2の後続のラインは、(第1の露出時間の開始後に開始する)第2の露出時間中に第2の(隣接する)感知素子の行に入射する外部光の量を示し得る。いくつかの実施形態では、第2の露出時間は、第1の露出時間が開始した後であるが、第1の露出時間が終了する前に開始することができる。あるいは、他の実施形態では、第2の露出時間は、第1の露出時間が終了した後に開始することができる。
このプロセスを通じて、1つまたは複数のカメラの「速軸」は、LIDARセンサの速軸に対応し得、1つまたは複数のカメラの「遅軸」は、LIDARセンサの遅軸に対応し得る。例えば、例示的な装置に1つまたは複数のカメラを取り付ける場合、カメラ(複数可)は、次々に測定されるセンサ素子の行(つまり、カメラ(複数可)の速軸)がLIDARセンサの回転軸(つまり、LIDARセンサの速軸)に平行になるまで、LIDARセンサに対して物理的に(例えば、水平配向から垂直配向になど)回転させることができる。
いくつかの実施形態では、装置のコントローラは、1つまたは複数のカメラを操作して、コントローラによって提供されるタイミング構成に従って画像画素のシーケンスを取得することができる。タイミング構成は、例えば、LIDARセンサの回転軸を中心としたLIDARセンサの配向(例えば、視線方向、指向方向、角度位置など)に基づくことができる。
例えば、コントローラは、LIDARセンサの現在のFOV付近か、またはそれに(少なくとも部分的に)重なる視野(FOV)を画像化する画像感知素子の行を使用して測定された画像画素を取得することができる。例えば、画像感知素子の行は、環境の特定の領域からの外部光を検知するように構成され得る。画像画素の収集をLIDARデータの収集と同期させるために、装置は、LIDARセンサがまた環境の特定の領域を走査している(例えば、回転LIDARのFOVが環境の特定の領域と重なる)時間を含む露出時間中に、感知素子の行を外部光にさらし得る。そうすることにより、例えば、装置は、画像画素のシーケンスを、類似の時間フレームの間および類似の視線方向からLIDARセンサによって検知された対応する光パルス反射と一致させる可能性を改善することができる。
このプロセスにより、LIDARセンサおよびカメラ(複数可)からのセンサデータをより効果的に組み合わせることができる。より一般的には、本明細書に記載の例示的な実装は、時間領域および/または空間領域で2つ(以上)のセンサのセンサデータ収集操作を同期させることにより、2つ(以上)のセンサからのセンサデータを組み合わせることに関する、精度および/または効率を改善し得る。
II.センサの例
本明細書で説明される例示的なセンサは、LIDARセンサおよびカメラ(または画像センサ)を含むが、他のタイプのセンサも同様に可能である。本開示の範囲から逸脱することなく本明細書で代替的に使用することができる例示的なセンサの非網羅的なリストは、RADARセンサ、SONARセンサ、音センサ(例えば、マイクロフォンなど)、運動センサ、温度センサ、圧力センサなどを含む。
そのために、本明細書に記載の例示的なセンサは、センサに提供される変調電力に基づいて信号(例えば、パルスまたは任意の他の変調信号のシーケンス)を放出し、次に周囲環境のオブジェクトから放出された信号の反射を検知するアクティブなセンサを含み得る。代替的に、または追加的に、本明細書に記載の例示的なセンサは、環境内の外部ソース(複数可)から発生する外部信号(例えば、バックグラウンド信号など)を検知するパッシブセンサ(例えば、カメラ、マイクロフォン、アンテナ、圧力センサなど)を含み得る。
次に図を参照すると、図1は、例示的な実施形態による、同期されたセンサを含むシステム100の簡略化されたブロック図である。図示のように、システム100は、電源装置102、コントローラ104、1つまたは複数のセンサ106、1つまたは複数のセンサ108、回転プラットフォーム110、1つまたは複数のアクチュエータ112、静止プラットフォーム114、回転リンク116、ハウジング118、およびディスプレイ140を含む。
他の実施形態では、システム100は、より多い、より少ない、または異なる構成素子を含み得る。さらに、示された構成素子は、任意の数の方法で結合または分割することができる。例えば、センサ(複数可)108は、単一の物理的構成素子(例えば、カメラリング)として実装され得る。あるいは、例えば、センサ(複数可)108は、別個の物理的構成素子の配置として実装することができる。他の例も可能である。したがって、図1の機能ブロックは、説明の便宜のためにのみ示されるように例示されている。本開示の範囲から逸脱することなく、他の例示的な構成素子、配置、および/または構成も可能である。
電源装置102は、システム100の様々な構成素子に電力を供給、受信、および/または分配するように構成され得る。そのために、電源装置102は、システム100内に配設され、任意の実現可能な方法でシステム100の様々な構成素子に接続されて、それらの構成素子に電力を供給するための電源(例えば、バッテリーセルなど)を含むか、そうでなければその形態をとり得る。追加的に、または代替的に、電源装置102は、(例えば、システム100が取り付けられている車両に配置された電源からなど)1つまたは複数の外部電源から電力を受け、受けた電力をシステム100の様々な構成素子に送信するように構成された電源アダプタを含むか、そうでなければその形態をとり得る。
コントローラ104は、システム100の特定の操作を容易にするように構成された1つまたは複数の電子構成素子および/またはシステムを含み得る。コントローラ104は、任意の実現可能な方法でシステム100内に配設することができる。一実施形態では、コントローラ104は、少なくとも部分的に、回転リンク116の中央空洞領域内に配設されてもよい。別の実施形態では、コントローラ104の1つまたは複数の機能は、システム100のそれぞれの構成素子(例えば、センサ(複数可)106、108など)内にそれぞれ配設される1つまたは複数の物理的に別個のコントローラによって代替的に実行できる。
いくつかの例では、コントローラ104は、システム100の様々な構成素子への制御信号の転送および/またはシステム100の様々な構成素子からコントローラ104へのデータの転送に使用される配線を含むか、そうでなければそれに結合され得る。一般に、コントローラ104が受信するデータは、数ある可能性の中でもとりわけ、LIDAR106および/またはカメラ(複数可)108による光の検知に基づくセンサデータを含み得る。さらに、コントローラ104によって送信された制御信号は、センサ(複数可)106(例えば、LIDARなど)による光または他の信号の放出および/または検知を制御し、(例えば、センサ(複数可)108に含まれる)カメラを介して画像画素撮像速度または時間を制御し、かつ/または、数ある可能性の中でもとりわけ、回転プラットフォーム110を回転させるためにアクチュエータ(複数可)112を制御することなどによって、システム100の様々な構成素子を操作することができる。
そのために、いくつかの例では、コントローラ104は、1つまたは複数のプロセッサ、データストレージ、および1つまたは複数のプロセッサによって実行可能な(データストレージに格納された)プログラム命令を含み得、システム100に本明細書に記載の様々な操作を実行させることができる。場合によっては、コントローラ104は、外部コントローラとシステム100の様々な構成素子との間の制御信号および/またはデータの転送を容易にするのに役立つように、外部コントローラなど(例えば、車両、ロボット、またはシステム100が取り付けられる他の機械装置に配置されたコンピューティングシステム)と通信することができる。
追加的に、または代替的に、いくつかの例では、コントローラ104は、本明細書で説明される様々な機能を実行するように配線された回路を含み得る。追加的に、または代替的に、いくつかの例では、コントローラ104は、1つまたは複数の専用プロセッサ、サーボ、または他のタイプのコントローラを含み得る。例えば、コントローラ104は、特定の周波数または位相に従って回転プラットフォーム110の回転を変調するようにアクチュエータ(複数可)112を操作する比例積分微分(PID)コントローラまたは他の制御ループフィードバック装置を含み得る。他の例も可能である。
センサ106および108は、システム100の周囲環境を走査する、LIDAR、カメラ、ジャイロスコープ、加速度計、エンコーダー、マイクロフォン、RADAR、SONAR、温度計などの1つまたは複数のセンサを任意に含むことができる。
センサ(複数可)106は、信号を放出し、放出された信号の反射を検知することによって周囲環境を走査するように構成された任意の装置を含み得る。例えば、センサ(複数可)106は、任意のタイプのアクティブセンサを含み得る。そのために、図示のように、センサ106は、送信機120および受信機122を含む。いくつかの実施形態では、センサ106はまた、1つまたは複数の光学素子124を含み得る。
送信機120は、システム100の環境に向けて信号を送信するように構成され得る。
センサ106がLIDARセンサとして構成される第1の例では、送信機120は、波長範囲内の波長を有する1つまたは複数の光ビームおよび/またはパルスを放出する1つまたは複数の光源(図示せず)を含み得る。波長範囲は、例えば、光源の構成に応じて、電磁スペクトルの紫外、可視、および/または赤外部分にあってもよい。いくつかの例では、波長範囲は、レーザーおよび/またはいくつかの発光ダイオードによって提供されるような、狭い波長範囲であり得る。いくつかの例では、送信機120の光源(複数可)は、レーザーダイオード、ダイオードバー、発光ダイオード(LED)、垂直キャビティ面発光レーザー(VCSEL)、有機発光ダイオード(OLED)、ポリマー発光ダイオード(PLED)、発光ポリマー(LEP)、液晶ディスプレイ(LCD)、微小電気機械システム(MEMS)、ファイバーレーザー、および/または選択的に光を送信し、反射し、かつ/または放出して、複数の放出された光ビームおよび/またはパルスを提供するように構成された任意の他の装置を含んでもよい。
センサ106がアクティブ赤外線(IR)カメラとして構成される第2の例では、送信機120は、シーンを照らすためにIR放射を放出するように構成され得る。そのために、送信機120は、IR放射を提供するように構成された任意のタイプの装置(例えば、光源など)を含み得る。
センサ106がRADARセンサとして構成される第3の例では、送信機120は、変調された無線周波数(RF)信号をシステム100の環境に向けて放出するように構成される1つまたは複数のアンテナを含み得る。
センサ106がSONARセンサとして構成される第4の例では、送信機120は、変調された音信号をシステム100の周囲環境に向けて放出するように構成される、圧電トランスデューサ、磁歪トランスデューサ、静電トランスデューサなどの1つまたは複数の音響トランスデューサを含み得る。いくつかの実施形態では、音響トランスデューサは、特定の波長範囲内(例えば、超音波(infrasonic)、超音波(ultrasonic)など)で音信号を発するように構成することができる。他の例も可能である。
受信機122は、送信機120によって放出された信号の反射を検知するように構成された1つまたは複数の検知器を含み得る。
センサ106がRADARセンサとして構成される第1の例では、受信機122は、送信機120によって送信されたRF信号の反射を検知するように構成された1つまたは複数のアンテナを含み得る。そのために、いくつかの実施形態では、送信機120および受信機122の1つまたは複数のアンテナは、同じ物理アンテナ構造として物理的に実装することができる。
センサ106がSONARセンサとして構成される第2の例では、受信機122は、送信機120によって放出される音信号の反射を検知するように構成される1つまたは複数の音センサ(例えば、マイクロフォンロホンなど)を含み得る。
センサ106がアクティブIRカメラとして構成される第3の例では、受信機122は、送信機120によって送信され、シーンから受信機122に向けて反射するIR光の光源波長を検知するように構成される1つまたは複数の光検知器(例えば、アクティブ画素センサなど)を含み得る。
センサ106がLIDARセンサとして構成される第4の例では、受信機122は、送信機120によって放出され、システム100の周囲環境の1つまたは複数のオブジェクトから反射する光パルスの反射を遮断し、かつ検知するように配置される1つまたは複数の光検知器(例えば、フォトダイオード、アバランシェフォトダイオードなど)を含み得る。そのために、受信機122は、送信機120によって放出された光と同じ波長範囲の波長を有する光を検知するように構成され得る。このようにして、例えば、センサ106(例えば、LIDAR)は、送信機120によって発生する反射光パルスを、環境内の外部光源から発生する他の光から区別することができる。
場合によっては、受信機122は、(例えば、送信機120によって放出される光の波長範囲内の)検知光を、検知光を示す電気信号に変換するようにそれぞれ構成される、1つまたは複数の検知器を含み得る光検知器アレイを含み得る。実際には、そのような光検知器アレイは、様々な方法のうちの1つで配置することができる。例えば、検知器は、1つまたは複数の基板(例えば、プリント回路基板(PCB)、フレキシブルPCBなど)上に配設され、入射光を検知するように配置され得る。また、そのような光検知器アレイは、任意の実行可能な方法で整列された任意の実行可能な数の検知器を含むことができる。さらに、アレイ内の検知器は様々な形をとることができる。例えば、検知器は、フォトダイオード、アバランシェフォトダイオード(例えば、ガイガーモードおよび/または線形モードアバランシェフォトダイオード)、シリコン光電子増倍管(SiPM)、フォトトランジスター、カメラ、アクティブ画素センサ(APS)、電荷結合素子(CCD)、極低温検知器、および/または放出された光の波長範囲内の波長を有する集束された光を受光するように構成された任意の他の光センサの形をとることができる。
いくつかの実施形態では、(例えば、LIDAR構成の)センサ106は、LIDARの回転速度を変更し、かつ/または送信機120によって放出される光パルスのパルス速度を調整することによって、水平走査分解能を選択するか、または調整することができる。具体的な例として、送信機120は、毎秒15,650光パルスのパルス速度で光パルスを放出するように構成することができる。この例では、LIDAR106は、10Hz(すなわち、毎秒10回の完全な360°回転)で回転するように構成されてもよい。したがって、受信機122は、0.23°の水平角度分解能で光を検知することができる。さらに、0.23°の水平角分解能は、LIDAR106の回転速度を変更するか、またはパルス速度を調整することによって調整することができる。例えば、LIDAR106が代わりに20Hzで回転する場合、水平角分解能は0.46°であってもよい。あるいは、送信機120が10Hzの回転速度を維持しながら毎秒31,300光パルスの速度で光パルスを放出する場合、水平角分解能は0.115°になってもよい。他の例も可能である。さらに、いくつかの例では、LIDAR106は、LIDAR106の完全な360°回転未満で特定の範囲の視野を走査するように代替的に構成することができる。
光学素子(複数可)124は、送信機120および/または受信機122に任意に含まれるか、または他の方法で結合され得る。一例(例えば、センサ106がLIDARセンサを含む場合)では、光学素子(複数可)124は、送信機120内の光源からの光を環境に方向付けるように配置することができる。別の例では、光学素子(複数可)124は、環境からの光を集束し、かつ/または受信機122に導くように配置することができる。したがって、光学素子(複数可)124は、ミラー(複数可)、導波路(複数可)、光フィルタ、レンズ(複数可)、または物理的空間を通る光の伝搬を導き、かつ/または特定の照明特性を調整するように配置された他の任意の光学構成素子の任意の実現可能な組み合わせを含むことができる。例えば、光学素子124は、送信機120によって放出された光の波長範囲外の波長を有する光が受信機122に向かって伝搬するのを低減するか、または防止するように配置された光フィルタを含み得る。例えば、このような構成では、光フィルタは、走査環境から伝搬し、送信機120の光源とは異なる外部光源から発生する背景光によるノイズを低減することができる。
センサ(複数可)108は、周囲環境を走査するように構成された任意のタイプのセンサを含み得る。図示のように、センサ108は、感知素子128のアレイを含む。さらに、図示のように、センサ108は、1つまたは複数の光学素子130を任意に含むことができる。
いくつかの例では、センサ108は、信号を送信し、その反射を検知するアクティブセンサ(例えば、LIDAR、RADAR、SONARなど)を含み得る。したがって、図示されていないが、センサ108は、それぞれ送信機120および受信機122と同様の送信機および受信機を含み得る。他の例では、センサ(複数可)108は、1つまたは複数の外部ソースから発生する外部信号を検知するパッシブセンサ(例えば、マイクロフォン、カメラ、画像センサ、温度計など)を含むことができる。
センサ108が音センサとして構成される第1の例では、感知素子128は、アレイ内のそれぞれのマイクロフォンに入射する音(例えば、外部信号)をそれぞれ検知するマイクロフォンのアレイを含み得る。
センサ(複数可)108が1つまたは複数のカメラとして構成される第2の例では、カメラ(複数可)は、システム100が位置する環境の画像を撮像するように構成された任意のカメラ(例えば、スチルカメラ、ビデオカメラなど)を含むことができる。例えば、センサ108のカメラは、画像を示すデータを検知して提供する任意の画像化装置を含み得る。例えば、感知素子128は、それぞれに入射する光の測定値を提供する光感知素子の1つまたは複数の配置を含み得る。そのために、感知素子128は、数ある可能性の中でもとりわけ、電荷結合装置(CCD)、アクティブ画素センサ、相補型金属酸化膜半導体(CMOS)光検知器、N型金属酸化膜半導体(NMOS)光検知器を含み得る。
さらに、いくつかの例では、感知素子128からのデータは、感知素子128の配置に従って組み合わされて、画像を生成することができる。一例では、感知素子の二次元(2D)アレイからのデータは、画像内の画像画素の2Dアレイに対応することがある。別の例では、感知素子の3D配置(例えば、曲面に沿って配置された感知素子)を同様に使用して、画像内の画像画素の2Dアレイを生成することができる。他の例も可能である。
いくつかの例では、感知素子は複数の隣接する光検知器(または他のタイプの信号の検知器)を任意に含むことができ、各検知器は特定の波長または波長範囲を有する光(または他の信号)を検知するように構成される。例えば、画像画素は、赤色光の強度を検知する第1の検知器、緑色光の強度を検知する第2の検知器、および青色光の強度を検知する第3の検知器からのデータの組み合わせに基づいて、色情報(例えば、赤/緑/青色またはRGB)を示し得る。他の例も可能である。
一実施形態では、センサ(複数可)108は、シーンから伝搬する可視光を検知するように構成され得る。さらに、この実施形態では、センサ106の受信機122(例えば、LIDAR受信機)は、送信機120によって放出される光の波長範囲内の不可視光(例えば、赤外線など)を検知するように構成され得る。この実施形態では、システム100(またはコントローラ104)は、次に、センサ106(例えば、LIDAR)からのデータをセンサ108(例えば、カメラ)からのデータと組み合わせて、走査された環境のカラーの3次元(3D)表現(例えば、ポイントクラウド)を生成することができる。
いくつかの例では、センサ(複数可)108は、センサ106(例えば、LIDAR)の回転軸を中心に円形配置で配設された複数のカメラ(例えば、カメラリング)を含み得る。例えば、第1のカメラは、センサ106が軸を中心に回転するとき(または、送信機120によって送信される信号が、他の方法で軸を中心とした異なる指向方向にステアリングされるとき)、センサ106の指向方向の範囲と少なくとも部分的に重なる環境の第1の視野(FOV)を画像化するように構成され得る。さらに、第1のカメラに隣接し、かつ/または重なる第2のカメラは、第1のカメラの第1のFOVに隣接する第2のFOVを画像化することができ、以下同様である。このようにして、例えば、システム100は、センサ106が軸を中心に回転するとき、センサ106による環境の走査と同時に(かつ/または同期的に)それぞれのFOVの画像のシーケンスを撮像するように構成され得る。
いくつかの例では、センサ(複数可)108は、ローリングシャッターモードで操作するように構成され得る。
センサ(複数可)108がマイクロフォンアレイを含む第1の例では、アレイ内のマイクロフォンからの各出力は、センサ108に入射する外部音への対応する感知素子(例えば、マイクロフォン)のそれぞれの露出時間に関連付けられ得る。
センサ(複数可)108が1つまたは複数のカメラを含む第2の例では、カメラ(複数可)によって出力された各画素または画素のグループは、外部光への対応する感知素子または感知素子のグループのそれぞれの露出時間に関連付けられ得る。例として、カメラ(複数可)108は一緒に、感知素子128の隣接する行のアレイを提供することができる。さらに、カメラ(複数可)108は、アレイ内の対応する感知素子による外部光の測定値に対応する画像画素のシーケンスを出力するように構成することができる。例えば、カメラ(複数可)108は、アレイ内の感知素子の第1の行からのデータに基づいて画像画素の第1の行を出力し、続いて、アレイ内の感知素子の第2の隣接する行からのデータに基づいて第2の画像画素行を出力してもよく、以下同様である。
このようにして、第1の画像画素行は、感知素子の第1の行が光にさらされる第1の露出時間に関連付けられてもよく、第2の画像画素行は、第2の感知素子の隣接する行が光にさらされる第2の露出時間に関連付けられるなどしてもよい。第1の露出時間は、第2の露出時間が開始する前に開始する場合がある。例えば、第1の露出時間の開始時間からの時間遅延の後(および任意には第1の露出時間が経過する前に)、カメラ(複数可)108は感知素子の第2の隣接する行の露出を開始することができる。さらに、第1の露出時間は、第2の露出時間が終了する前に終了してもよい。例えば、コントローラ104は、第1の露出時間が終了した後、第2の感知素子行が依然として外部光にさらされている間に感知素子の第1の行から出力を読み取り、次に、第2の露出時間が終了した後、第3の行の感知素子が依然として外部光にさらされている間に感知素子の第2の行から出力を読み取ってもよく、以下同様である。
いくつかの例では、センサ106が画像センサを含む場合、システム100は、送信機120が光パルス(または他の信号)を放出する順序に基づいて、ローリングシャッターモードで感知素子128から画像画素のシーケンスが取得される順序を選択するように構成され得る。例えば、感知素子128のアレイ内の感知素子の所与の行は、LIDAR(例えば、センサ106)の回転軸と整列(例えば、平行に、など)されてもよい。例えば、LIDARの回転軸が垂直軸である場合、所与の行は、感知素子の垂直行(例えば、LIDARの回転軸に平行な垂直線形配置)に対応し得る。さらに、送信機120は、LIDAR(例えば、センサ106)が軸を中心に回転するときに、1つまたは複数の垂直線の配置で複数の光ビームを繰り返し出力するように構成されてもよい。したがって、例えば、センサ(複数可)108(例えば、カメラ(複数可))は、送信機120によって放出された複数の光ビームと同様に(例えば、垂直に、など)配置された感知素子の第1の行を使用して、画像画素の第1の行を出力することができる。次に、カメラ(複数可)108は、LIDAR(または他のセンサ106)の回転方向に感知素子の第2の隣接する行を使用して、画像画素の第2の行を出力することができる。したがって、例えば、画像画素の第2の行は、センサ106が感知素子の第2の行に向かって回転した後に、送信機120によって放出される光ビームの第2の垂直線と整列されてもよく、以下同様である。
例えば、感知素子の垂直行を次々に走査することにより、カメラ(複数可)108から取得された画像画素のシーケンスは、(例えば、送信機120が垂直軸を中心に回転するときに)送信機120によって放出されるLIDAR光パルス(または他の信号)の時間および方向に類似した時間で(および視線方向から)撮像された十分な数の画素を含むことができる。例えば、カメラ(複数可)(例えば、センサ(複数可)108)が、代わりに、第1の水平方向の感知素子の行と、それに続く第2の水平方向の感知素子などを使用して画像画素のシーケンスを撮像した場合、より少ない画像画素が、LIDAR光パルスの時間および方向に類似した時間で(および視線方向から)撮像されてもよい。
光学素子(複数可)130は、レンズ(複数可)、ミラー(複数可)、導波路(複数可)、光フィルタ(複数可)、または、光学素子(複数可)124と同様の他の任意のタイプの光学構成素子などの光学構成素子の任意の組み合わせを含むことができる。さらに、光学素子130は、感知素子128に向かって伝搬するために、入射光の光特性を集束し、方向付け、かつ/または調整するように構成することができる。さらに、例えば、センサ(複数可)108が複数のカメラを含む場合、光学素子(複数可)130は、外部光をカメラのそれぞれの画像センサに集束させる複数のそれぞれのカメラレンズを含むことができる。
いくつかの例では、光学素子(複数可)130は、センサ106の1つまたは複数の特定の感知素子に向かって光の特定の波長の選択的に送信する1つまたは複数の光フィルタを含むことができる。
第1の例では、光学素子(複数可)130は、送信機120によって放出された光の光波長を減衰させる1つまたは複数の光フィルタを含み得る。この構成により、例えば、システム100は、送信機120によって放出された高強度の光パルス(または他の信号)に関連する(感知素子(複数可)128による)ノイズ測定値を低減することができる。
第2の例では、センサ108は、入射光の色を示すように構成されたカラー画像センサ(例えば、ベイヤーフィルターセンサ、層状画素センサアレイなど)を含み得る。この例では、光学素子(複数可)130は、カラーフィルタアレイを含むことができ、アレイの各カラーフィルタは、赤、緑、または青の光を、カラーフィルタに隣接する特定の感知素子に送信する(かつ、他の波長の光を減衰させる)。次に、システム100は、(例えば、異なる色を有する光を感知する複数の感知素子からの出力を組み合わせることにより)色情報(例えば、赤、緑、および青など)を示す画像画素を生成することができる。
第3の例では、光学素子(複数可)130は、送信機120によって放出される光(または他の信号)の波長を減衰させる1つまたは複数のフィルタおよび、これらの波長の送信を可能にする1つまたは複数の他のフィルタを含み得る。例えば、光学素子(複数可)130は、緑、赤、および青の光フィルタを含むカラーフィルタアレイを含み得る。この場合、比較的多数のカラーフィルタを構成して、送信機120の放出光の波長を減衰させて、送信機120によって放出される高強度信号の影響を低減することができる。さらに、比較的少数のカラーフィルタ(例えば、1つまたは複数の緑色光フィルタなど)は、送信機120によって放出された光(または他の信号)の波長の送信を(少なくとも部分的に)可能にするように構成され得る。この構成では、(システム100の環境でオブジェクトを反射する)送信機120の高強度光を使用して、暗い外部光条件(例えば、夜間)で1つまたは複数の感知素子を照らすことができる。
回転プラットフォーム110は、軸を中心に回転するように構成され得る。例えば、センサ106(および/またはその送信機120および受信機122)は、これらの構成素子のそれぞれが回転プラットフォーム110の回転に応答して環境に対して動くように、回転プラットフォーム110によって(直接的または間接的に)支持され得る。特に、これらの構成素子のそれぞれは、センサ106が様々な方向から情報を取得できるように、軸に対して(同時に)回転され得る。いくつかの例では、回転プラットフォーム110の回転軸は垂直であり、センサ106の指向方向は、その垂直回転軸を中心とした回転プラットフォーム110の回転によって水平に調整することができる。回転プラットフォーム110は、その上に取り付けられた1つまたは複数の構成素子(例えば、センサ106)を支持するのに適した任意の固体材料から形成することができる。
このようにしてプラットフォーム110を回転させるために、1つまたは複数のアクチュエータ112が回転プラットフォーム110を作動させることができる。そのために、アクチュエータ112は、数ある可能性の中でもとりわけ、モータ、空気圧アクチュエータ、油圧ピストン、および/または圧電アクチュエータを含み得る。
この構成では、コントローラ104は、アクチュエータ112を操作して、環境に関する情報を取得するように回転プラットフォーム110を様々な方法で回転させることができる。一例では、回転プラットフォーム110は、いずれかの方向に回転させることができる。別の例では、回転プラットフォーム110は、センサ106(例えば、LIDAR)が環境の360°の水平FOVを提供するように完全な回転を実行することができる。さらに、回転プラットフォーム110は、センサ106に環境を様々なリフレッシュレートおよび/または走査分解能で走査させるように、様々な周波数で回転することができる。
代替的に、または追加的に、システム100は、(送信機120によって放出された)放出された信号の指向方向を様々な方法で調整するように構成されてもよい。いくつかの例では、送信機120の信号源(例えば、光源、アンテナ、音響トランスデューサなど)は、フェーズドアレイ構成または他のタイプのビームステアリング構成に従って操作することができる。
センサ106がLIDARセンサとして構成される第1の例では、送信機120の光源は、光源によって放出された光波の位相を制御するフェーズドアレイ光学系(例えば、光学素子124)に結合され得る。例えば、コントローラ104は、フェーズドアレイ光学系(例えば、フェーズドアレイビームステアリング)を調整して、(例えば、回転プラットフォーム110が回転していない場合でも)送信機120によって放出される光信号の有効指向方向を変更するように構成できる。
センサ106がRADARセンサとして構成される第2の例では、送信機120はアンテナのアレイを含んでもよく、コントローラ104は、アレイ内の個々のアンテナごとにそれぞれの位相シフト制御信号を提供して、アレイからの組み合わされたRF信号(フェーズドアレイビームステアリングなど)の指向方向を修正することができる。
センサ106がSONARセンサとして構成される第3の例では、送信機120は、音響トランスデューサのアレイを含み得、コントローラ104は、(例えば、位相シフト制御信号などを介して)音響トランスデューサのアレイを同様に操作し、(例えば、回転プラットフォーム110が回転していない場合などでも)アレイによって放出される、組み合わされた音信号の目標指向方向を達成し得る。
他の例では、センサ(複数可)106の指向方向は、送信機120によって放出された信号のステアリング方向を調整するためにコントローラ104からの制御信号に応答して変形され得る、変形可撓性構造(例えば、MEMなど)を使用して制御され得る。他の例も可能である。
静止プラットフォーム114は、任意の形状または形態をとることができ、例えば車両の上部などの様々な構造に結合するように構成することができる。また、静止プラットフォーム114の結合は、任意の実現可能なコネクタ構成(例えば、ボルトおよび/またはねじ)を介して実行されてもよい。このようにして、システム100は、本明細書に記載されているような様々な目的に使用されるように構造に結合され得る。一例では、センサ(複数可)108は、静止プラットフォーム114に結合することができる。この例では、センサ(複数可)108は、センサ(複数可)106の回転運動(または送信機120によって放出される信号の別の方法で変化するビーム方向)に対して静止したままであり得る。別の例では、センサ(複数可)108は、静止プラットフォーム114とは異なる別の物理的構造に取り付けることができる。
回転リンク116は、静止プラットフォーム114を回転プラットフォーム110に直接的に、または間接的に結合する。そのために、回転リンク116は、静止プラットフォーム114に対する軸を中心とした回転プラットフォーム110の回転を提供する任意の形状、形態、および材料をとることができる。いくつかの例では、回転リンク116は、アクチュエータ112からの作動に基づいて回転するシャフトなどの形態を取り得、それにより、アクチュエータ112から回転プラットフォーム110に機械力を伝達する。一実施形態では、回転リンク116は、システム100の1つまたは複数の構成素子を配設することができる中央空洞を有することができる。いくつかの例では、回転リンク116はまた、静止プラットフォーム114と回転プラットフォーム110(および/またはセンサ(複数可)106などのその上の構成素子)との間でデータおよび/または命令を転送するための通信リンクを提供し得る。
ハウジング118は、任意の形状、形態、および材料をとることができ、システム100の1つまたは複数の構成素子を収容するように構成することができる。一例では、ハウジング118は、ドーム型のハウジングとすることができる。さらに、いくつかの例では、ハウジング118は、少なくとも部分的に不透明な材料で構成されてもよく、これにより、少なくとも一部の光がハウジング118の内部空間に入るのを遮断でき、したがって、システム100の1つまたは複数の構成素子への周囲光の熱およびノイズの影響を緩和するのに役立ち得る。ハウジング118の他の構成も可能である。いくつかの実施形態では、ハウジング118は、回転プラットフォーム110の回転に基づいて上記の軸を中心に回転するように構成されるように、回転プラットフォーム110に結合され得る。このような実施形態では、センサ(複数可)106は、ハウジング118と共に回転することができる。他の実施形態では、センサ(複数可)106がハウジング118内で回転する間、ハウジング118は静止したままであり得る。システム100はまた、特定のサブシステムまたはシステム100の構成素子の組み合わせを収容するためのハウジング118と同様の複数のハウジングを含み得る。例えば、システム100は、センサ(複数可)106のための第1のハウジングと、センサ(複数可)108のための別個のハウジングとを含み得る。他の例も可能である。
ディスプレイ140は、システム100の1つまたは複数の構成素子に関する情報を表示するために、システム100に任意に含めることができる。例えば、コントローラ104は、ディスプレイ140を操作して、カメラ(例えば、センサ108)、センサ106からのLIDARデータによって示されるシステム100の環境の表現(例えば、3Dポイントクラウドなど)および/または、センサ106および108からのデータの組み合わせに基づく環境の表現(例えば、カラーのポイントクラウド、温度インジケーターが重ねられた画像など)を使用して撮像された画像を表示すことができる。そのために、ディスプレイ140は、任意のタイプのディスプレイ(例えば、液晶ディスプレイ、LEDディスプレイ、ブラウン管ディスプレイ、プロジェクタなど)を含むことができる。さらに、いくつかの例では、ディスプレイ140は、センサ108によって撮像された画像、センサ106を使用して撮像されたLIDARデータ、および/または、システム100の様々な構成素子に関する他の情報(例えば、電源装置102を介して残っている電力)を表示し、かつ/またはそれと対話するためのグラフィカルユーザインターフェース(GUI)を有することができる。例えば、ユーザは、GUIを操作して、センサ106および/または108の走査構成(例えば、走査リフレッシュレート、走査分解能など)を調整することができる。
システム100の様々な構成素子は、多種多様な異なる構成に組み合わせるか、または分離することができることに留意されたい。例えば、センサ106および108は別個の構成素子として示されているが、センサ106および108の1つまたは複数の構成素子は、代替として、単一の装置内に物理的に実装することができる。したがって、システム100のこの配置は、例示の目的でのみ説明されており、限定することを意味するものではない。
図2Aは、例示的な実施形態による、回転LIDARセンサ206およびカメラリング208を含む装置200を示す。図示のように、装置200は、LIDAR206、カメラリング208(例えば、ローリングシャッターカメラ配置など)、回転プラットフォーム210、静止プラットフォーム214、ハウジング218、LIDARレンズ224、および、カメラレンズ230、232、234を含み、それぞれが、例えば、センサ(複数可)106、センサ(複数可)108、回転プラットフォーム110、静止プラットフォーム114、ハウジング118、光学素子124、および光学素子130と同様であってもよい。
図示のように、LIDAR206によって放出された光ビーム250は、レンズ224からLIDAR206の指向方向に沿ってLIDAR206の環境に向かって伝搬し、環境内の1つまたは複数のオブジェクト(図示せず)で反射光260として反射する。さらに、図示のように、その後、LIDAR206は、(例えば、レンズ224を介して)反射光290を受光することができる。したがって、例えば、LIDAR206は、センサ106の上記の説明と同様に、反射光290の検知(複数可)に基づいて1つまたは複数のオブジェクトとLIDAR206との間の距離を示すデータ(例えば、データポイントクラウドなど)を提供することができる。
さらに、図示のように、カメラリング208の各カメラは、それぞれのカメラに入射する外部光270のそれぞれの部分を受光し、検知することができる。そのために、外部光270は、数ある可能性の中でもとりわけ、太陽、街灯などの1つまたは複数の外部光源から発生する光を含むことができる。例えば、外部光270は、外部光源からカメラレンズ230、232、および/または234に向かって直接伝搬する光を含み得る。代替的に、または追加的に、外部光270は、外部光源から発生し、レンズ230、232、および/または234に向かって伝搬する前に、装置200の環境において1つまたは複数のオブジェクト(図示せず)で反射する光を含み得る。したがって、例えば、カメラリング208のカメラは、外部光270に基づいて環境の1つまたは複数の画像を生成することができる。さらに、特定のカメラによって生成された各画像は、装置200に対する特定のカメラの特定のFOVに対応し得る。
そのために、いくつかの例では、カメラリング208は、互いに対してリング構成(例えば、円形配置、楕円形配置など)で配置される複数のカメラを含み得る。複数の各カメラは、特定の角度および/または配向で位置付け(例えば、装置200および/またはカメラリング208に取り付け)られ得る。したがって、例えば、第1のカメラのFOVは、他の2つの隣接するカメラのFOVに隣接し、かつ/または部分的に重なり得る。この配置により、例えば、個々のカメラからの画像は、装置200の360度FOVの画像に組み合わせることができる。さらに、例えば、装置200の組み立てまたは較正中に、各カメラのそれぞれの角度および/または配向を調整して、死角(例えば、カメラリング208内のすべてのカメラのFOV内にない周囲環境の領域)を低減するか、または防止することができる。例えば、2つの隣接するカメラのそれぞれのFOVは、2つのカメラのFOV間の環境の領域(例えば、「死角」)が装置200からの閾値距離未満であるように(例えば、2つのカメラの相対的な取り付け位置などを移動させ、回転させ、かつ/または他の方法で調整することによって)、整列することができる。
これを容易にするために、一実施形態では、カメラリング208は、特定のそれぞれの取り付け位置(例えば、角度、配向)でカメラを受容し、かつ/または支持する1つまたは複数の(例えば、リング形状などの)くぼみを有するハウジングを任意に含み得る。別の実施形態では、例示的なシステム(例えば、システム100、較正システムなど)は、カメラによって撮像された画像を比較し、比較に基づいて、それぞれのカメラの目標FOVをそれぞれ達成する整列オフセットを判定するように構成され得る。例示的なシステムはまた、ロボットアーム、アクチュエータ、および/または任意の他の整列装置を含み、かつ/または操作して、判定された整列オフセットに従ってカメラリング208内のカメラの位置を調整することができる。他の例も可能である。
いくつかの例では、装置200(またはそれに結合された別のコンピューティング装置)は、カメラリング208のカメラを操作し、かつ/またはそこから撮像された画像を処理して(例えば、撮像された画像の一部を組み合わせるなど)、装置200の環境の密着円形視野を形成してもよい。例えば、装置200または別の装置のコンピューティングシステム(図示せず)は、カメラリング208によって撮像された画像の特徴を一致させて、カメラのFOVの組み合わせに及ぶ組み合わせ画像を生成することができる。
一実施形態では、レンズ230は、装置200の第1の90度FOVからの光を集束させてもよく、レンズ232は、第2の隣接する90度FOVからの光を集束させてもよく、以下同様である。第1のFOVは、第1のFOVと部分的に任意に重なり得る。他の実施形態では、各カメラによって画像化されたFOVは、90度を上回るか、または下回ってもよい。さらに、上記の議論に沿って、カメラリング208内の任意のカメラによって撮像された画像は、他の例の中でもとりわけ、外部光270の異なる波長(例えば、色など)の光強度などの様々なタイプの情報を示し得る。
いくつかの例では、LIDAR206(および/またはハウジング218)は、例えば、LIDAR206を支持する回転プラットフォーム210の回転に基づいて、実質的に円筒形状を有し、軸242を中心に回転するように構成できる。さらに、いくつかの例では、回転軸242は実質的に垂直であってもよい。したがって、例えば、軸242を中心にLIDAR206を回転させることにより、装置200(および/または装置200を操作するコンピューティングシステム)は、装置200の環境の360度視野のLIDAR206からのデータに基づいて3次元マップを判定することができる。追加的に、または代替的に、いくつかの例では、装置200は、(静止プラットフォーム214に対して)回転プラットフォーム210の回転軸を傾けように構成でき、それにより、LIDAR206のFOVを調整する。例えば、回転プラットフォーム210は、1つまたは複数の方向に傾斜する傾斜プラットフォームを含み得る。
いくつかの例では、図示のように、LIDARレンズ224は光強度を有して、放出された光ビーム250をLIDAR206の環境に向けてコリメート(および/または方向付け)することと、環境から受信した反射光260をLIDAR206のLIDAR受信機(図示せず)を集束することの両方を行い得る。一例では、レンズ224は、約120mmの焦点距離を有する。他の焦点距離の例も可能である。コリメート用の送信レンズおよび集束用の受信レンズの代わりに、同じレンズ224を使用してこれらの機能の両方を実行することにより、サイズ、コスト、および/または複雑さに関する利点を提供することができる。しかしながら、代替として、LIDAR206は、別個の送信および受信レンズを含み得る。したがって、図示されていないが、LIDAR206は、代替として、放出光250を環境に方向付ける送信レンズおよび、LIDAR206の受信機による検知のために反射光260を集束させる別個の受信レンズを含むことができる。
装置200は、示されるものよりも多い、少ない、または異なる構成素子を含み得、示される構成素子のうちの1つまたは複数は、異なる方法で組み合わされ得るかまたは分離され得ることに留意されたい。一例では、複数のカメラレンズ230、232、234の代わりに、装置200は代替として、カメラリング208の周囲の周りに延在する単一のカメラレンズを含み得る。別の例では、カメラリング208は静止プラットフォーム214に結合されるように示されているが、カメラリング208は、代替として、別個の物理的構造として実装され得る。さらに別の例では、カメラリング208は、回転プラットフォーム214によって回転することなく、LIDAR206の上に位置付けることができる。さらに別の例では、カメラリング208は、示されるよりも多いか、または少ないカメラを含み得る。他の例も可能である。
図2Bは、例示的な実施形態による、カメラリング208の断面図を示す。図2Bの断面図では、軸242(すなわち、LIDAR206の回転軸)は、ページを通って延在する。図示のように、カメラリング208は、回転軸242を中心として配置される4つのカメラ208a、208b、208c、208dを含む。したがって、示される例では、カメラのそれぞれは、装置200の環境のそれぞれの90度FOVを撮像するように構成され得る。しかしながら、他の実施形態では、カメラリング208は、示されるよりも少ないか、または多いカメラを含み得る。特定の一実施形態では、カメラリング208は、代替として、8つのカメラを含むことができ、各カメラは、環境の(少なくとも)それぞれの45度FOVからの光をカメラの画像センサに集束させるそれぞれのレンズに結合される。他の例も可能である。したがって、カメラリング208は、多種多様な異なる構成を有することができ、したがって、示される構成は、説明の便宜のためにのみ4つのカメラを含む。
さらに、図示のように、カメラ208aは、装置200の環境からの外部光(例えば、光270)の第1の部分をカメラ208aの画像センサ226上に集束させるレンズ230を含む。さらに、図示のように、カメラ208bは、カメラ232の画像センサ246上に外部光の第2の部分を集束させるレンズ232を含む。同様に、カメラ208cおよび208dは、外部光のそれぞれの部分をカメラのそれぞれの画像センサに集束させるように構成され得る。
さらに、図示のように、各画像センサは、例えば、感知素子128と同様の感知素子のアレイを含み得る。例えば、カメラ208aの画像センサ226は、(例えば、感知素子128と同様であり得る)感知素子228a〜228fによって例示される感知素子の隣接する行のアレイを含み得る。例として、画像センサ226の感知素子の第1の行は、感知素子228aおよび、ページを通して垂直に(例えば、軸242に平行に)配置される1つまたは複数の他の感知素子(図示せず)を含み得る。さらに、第1の行に隣接する感知素子の第2の行は、感知素子228bおよび、ページを通して垂直に配置される1つまたは複数の他の感知素子(図示せず)などを含むことができ、以下同様である。
このようにして、例えば、カメラ208a、208b、208c、208dは一緒に、軸242を中心として配置された感知素子の隣接する行のアレイを提供し、これにより、装置200の周りの360度(水平)FOVの様々な対応する部分を画像化することが可能である。例えば、カメラ204bの画像センサ246内の感知素子の所与の行は、感知素子248a(およびページを通して軸242に平行に配置された1つまたは複数の他のセンサ)を含むことができる。さらに、この例では、カメラ208bの感知素子の所与の行はまた、感知素子228fを含むカメラ208aの感知素子の行に隣接してもよい。したがって、例示的なシナリオでは、カメラリング208から取得された画像画素のシーケンスは、感知素子228fを含む感知素子の行からのデータを使用して取得された画像画素の行および、その後に続く、感知素子248aを含む感知素子の行からのデータを使用して取得された画像画素の行を含み得る。
画像センサ(例えば、センサ226、246など)のそれぞれにおける感知素子の行の数は、説明の便宜のためにのみ示されるように例示されていることに留意されたい。しかしながら、いくつかの実施形態では、画像センサ226(および/または246)は、示されているよりも多いか、または少ない感知素子の行を含み得る。特定の一実施形態では、画像センサ226は、代替として、3000行の感知素子を含むことができ、各行は、(ページ全体に延在する)1000個の感知素子を含むことができる。したがって、この実施形態では、カメラ208aは、3000×1000画素の画像を出力するように構成され得る。さらに、この実施形態では、カメラ208aは、60Hzの速度で画像を撮像するように構成され得る。他のカメラ設定パラメーターも可能である。
装置200の様々な構成素子のサイズ、形状、および位置は必ずしも縮尺どおりではなく、説明の便宜のためにのみ示されるように例示されていることに留意されたい。一例では、図2Bに示されるレンズ230、232、234、236、およびセンサ226、246などのサイズは、示されるサイズとは異なり得る。別の例では、レンズ230と画像センサ226との間の距離は、示された距離とは異なり得る。一実施形態では、レンズ230からセンサ226までの距離は、レンズ230の直径の約2倍に対応し得る。しかしながら、他の実施形態では、画像センサ226およびカメラレンズ230は、他のサイズ、形状、および/または互いに対する位置を有することができる。
図2Cは、例示的な実施形態による、装置200の操作の概念図である。図2Cの図では、カメラ208aの画像センサ226の感知素子は、ページの平面にある。例えば、カメラレンズ230およびLIDAR206などの装置200の構成素子のうちのいくつかは、説明の便宜上、図2Cの図から省略されていることに留意されたい。
いくつかの実施形態では、装置200は、ローリングシャッター構成でカメラ208a、208b、208c、および/または208dを操作して、画像画素のシーケンスを取得するように構成され得る。例えば、図2Cのシナリオでは、感知素子228aおよび228gを含む感知素子の第1の行は、第1の露出時間中にそこに入射する外部光の量を測定するように構成され得る。装置200はまた、装置200のコントローラ(例えば、コントローラ104)への送信のために(第1の露出時間が経過した後)感知素子の第1の行による測定値を読み取り変換するアナログデジタルコンバータ(図示せず)を含み得る。第1の露出時間の開始時間からの(かつ、任意には第1の露出時間が終了する前の)時間遅延の後、装置200は、第2の露出時間中に、感知素子228bおよび228hを含む感知素子の第2の行の露出を開始することができる。したがって、いくつかの例では、感知素子の複数の行の露出時間が部分的に重なる場合がある(例えば、第1および第2の露出時間の開始時間の間の時間遅延が、第1の露出時間未満である場合がある、など)。このようにして、ローリングシャッター構成のカメラは、露出時間の開始時間をずらして、(例えば、それぞれの露出時間の重なり合う部分の間に感知素子の複数の行を同時にさらすことにより)画像のリフレッシュレートを上げることができる。
シナリオを続けると、第2の露出時間が経過した後、装置200は、同様に、感知素子の第2の行による測定値を測定し、コントローラに送信することができる。このプロセスは、感知素子のすべての行(つまり、完全な画像フレーム)が走査されるまで繰り返される。例えば、第2の露出時間の開始時間の後(かつ、任意には第2の露出時間が経過する前に)、装置200は、感知素子の(第2の行に隣接する)第3の行を外部光270にさらし始めることができ、以下同様である。
さらに、上記のように、装置200は、光パルスがLIDAR206によって放出される順序と同様の順序で画像画素のシーケンスを取得するように構成され得る。そうすることにより、例えば、画像画素のシーケンスが別の順序で取得される実施形態よりも多くのカメラ208a〜dによって撮像された画像画素が、(例えば、放出された光パルス)LIDARデータと(時間と視線方向の両方で)重なり合う場合がある。
例えば、図2Cのシナリオを続けると、LIDAR206が軸242を中心として第1の指向方向または配向にあるとき、光ビーム250a、250b、250cは、図2Aに示される放出光250に対応し得る。シナリオでは、装置200は、(例えば、素子228bおよび228hを含む)感知素子の第2の(垂直)行を走査する前に、(例えば、素子228aおよび228gを含む)感知素子の第1の(垂直)行を走査するように構成され得る。そうすることにより、感知素子の第1の行を使用して撮像された画像画素は、時間および視線方向の両方に関して、光ビーム250a〜250cの検知された反射と一致する可能性が高くなる。シナリオでは、LIDAR206は、次に、軸242を中心に(例えば、反時計回りに)回転し、光ビーム252a〜252cを放出することができる。次に、装置200は、検知された光ビーム252a〜252cの反射と(時間および視線方向の両方で)整列する可能性が高い(例えば、感知素子228bおよび228hを含む)感知素子の第2の行を使用して第2の行の画像画素を取得してもよく、以下同様である。
一方、装置200は代わりに、感知素子228a〜228fを含む行(例えば、水平行)の順序で画像画素のシーケンスを取得し、その後に感知素子の隣接する(水平)行などが続く場合、その後、画像画素のシーケンスは、光ビーム250a〜250cおよび252a〜252cの検知された反射と一致する可能性が低くなる。例として、画像センサ226が水平(行ごとの)走査順序を使用して60Hzのリフレッシュレート(すなわち、毎秒60画像)で操作する場合、取得されたシーケンスの感知素子228gに関連付けられた画像画素は、光ビーム250cの放出時間と比較して約16ミリ秒の時間遅延を有し得る。他の例のリフレッシュレートや時間遅延が可能である。
いくつかの実施形態では、装置200はまた、LIDAR206による光パルス/ビームの放出の順序に従ってシーケンス内の画像画素の行を取得するように構成され得る。例えば上記のシナリオの変形例として、LIDAR206が光ビーム250a、250b、250cをその順序で放出する場合、装置200は、(例えば、感知素子228aで開始し、感知素子228gで終了する)同様の順序で感知素子の第1の行に関連付けられた画像画素行を取得するように構成され得る。一方、例えば、LIDAR206が光ビーム250c、250b、250aをその順序で放出する場合、装置200は、代わりに、画像画素行を(例えば、感知素子228gで開始し、感知素子228aで終了する)反対の順序で取得するように構成され得る。
さらに、いくつかの実施形態では、装置200は、LIDAR206の回転速度に基づいて、画像画素のシーケンスにおける後続の画像画素行を撮像する間の時間遅延を調整するように構成され得る。例えば、LIDAR206が(例えば、アクチュエータ(複数可)112などを介して)その回転速度を上げる場合、装置200は、(例えば、感知素子228aおよび228gを含む)感知素子の第1の行に関連する画像画素の第1の行を取得することと、感知素子の第2の隣接する行に関連して応じる画像画素の第2の行を取得することとの間の時間遅延を低減し得る。上記のように、例えば、感知素子の各行に関連付けられた露出開始時間は、対応する画像画素を取得する順序と時間に依存する可能性があるため、時間遅延を調整すると、画像画素撮像時間(および視線方向)の、および対応するLIDARパルス放出時間(および/または対応する反射の検知)と一致する範囲が向上し得る。
図2Dは、装置200の上面図を示す。図2Dの例示では、LIDAR206は、軸242を中心とした(例えば、ページの下部に向かう)0°の角度位置に対応する第1の指向方向を有することができる。この構成では、例えば、LIDAR206は、レンズ234を含む、(図2Bに最もよく示されている)カメラ208cを使用して撮像された画像の中心に対応する周囲環境の領域を走査することができる。
図2Eは、装置200の別の上面図を示す。図2Eの例示では、LIDAR206は、軸242を中心とした(例えば、ページの上部に向かう)180°の角度位置に対応する第2の指向方向を有することができる。例えば、LIDAR206が図2Dの第1の指向方向から軸242を中心とした完全な回転の半分だけ回転した後、LIDAR206は図2Eの第2の指向方向を有することができる。さらに、例えばこの構成では、LIDAR206は、レンズ230を含む、(図2Bに最もよく示されている)カメラ208aを使用して撮像された画像の中心に対応する環境の領域を走査することができる。
いくつかのシナリオでは、LIDAR206が軸242を中心に回転するとき、LIDAR206のFOVがカメラ208aのFOVと重なる時間は、カメラ208aを使用して画像を撮像するのに適した露出時間(および読み出し時間)未満である場合がある。
カメラ208aが(例えば、カメラ208a内の感知素子の行が異なる露出開始時間に従ってさらされる)ローリングシャッター構成で操作される1つの例示的なシナリオでは、カメラ208aの画像センサ226は、60msの時間にわたって画像フレーム(すなわち、画像センサ226のすべての感知素子からの画素データ)を測定し、出力し得る。さらに、シナリオでは、LIDAR206は、10Hzの回転速度(すなわち、100msごとに軸242を中心とした1回の完全な回転)で回転するように構成され得る。したがって、LIDAR206は、100ms/4=25ms(例えば、t=37.5msからt=62.5msまで)の時間内でカメラ208aのFOVと重なるFOVの範囲を走査することができる。カメラとLIDARの走査時間の違いを明らかにするために、いくつかの実施形態では、装置200は、LIDAR206によって放出されたLIDAR光パルスを、カメラのすべてではないがいくつかの画像感知素子によって撮像された画像画素と同期するように構成され得る。
例えば、装置200は、LIDAR206が画像の特定の領域と整列された特定の指向方向を指しているときに、画像の特定の領域(例えば、画像の中心か、またはその付近の画像画素の垂直行(複数可)など)が外部光にさらされるように、特定のカメラによる画像の撮像をトリガするように構成され得る。
例えば(LIDAR206が10Hzの周波数で回転する)上記のシナリオを続けると、時間t=0msにおいて、(図2Dに示されるような)LIDAR206は第1の指向方向(例えば、軸242を中心とした角度位置=0o)を有し得る。さらに、時間t=50msにおいて、(図2Eに示されるような)LIDAR206は、第2の指向方向(例えば、軸242を中心とした角度位置=180°)を有し得る。
このシナリオでは、装置200は、画像センサ226(カメラ208aの内側)の露出時間の中心を、LIDAR206のFOVがカメラ208aのFOVの中心と重なる時間(例えば、t=50ms)と同期するように構成され得る。例えば、画像センサ226の露出時間が60msである場合、画像センサ226内の感知素子の中央の垂直行は、時間t=30msで外部光にさらされ得る。この例では、カメラ208aは、時間t=50−30=20msで画像撮像をトリガして、(時間領域と空間領域の両方で)画像センサ226の中心付近の感知素子の垂直行(複数可)の露出を、LIDAR206が画像の中心に対応するFOVを走査しているときに(例えば、t=50msで)放出されるLIDAR光パルスと整列させる。
この構成では、(例えば、感知素子228cを含む垂直行か、または感知素子228dを含む行を使用して撮像された)画像の中心付近の画像画素は、これらの画像画素が測定されたときに放出され/検知されたLIDAR光パルスと(タイミングおよび視線方向に関して)比較的整列している。一方、画像センサの中心からさらに離れた感知素子の行を使用して撮像された画像画素は、これらの画像画素が測定されたときに放出され/検知されたLIDAR光パルスと(時間または視線方向で)比較的不整合になる可能性がある。例として、回転するLIDARのFOVは、時間t=37.5msとt=62.5msとの間でカメラ208aのカメラFOVと重なる場合がある。しかしながら、上記のシナリオでは、カメラ208aは、時間t=20ms(すなわち、LIDARのFOVが、カメラのFOVと重なるときの時間の範囲外)で、(図2Cに最もよく示されている)感知素子228aを含む感知素子の列をさらし始めてもよい。
この不整合を緩和するために、いくつかの例では、カメラ208a、208b、208c、208dは、FOVが部分的に重なるように構成することができる。例えば、(図2Bに最もよく示されている)カメラ208dは、隣接するカメラ208aのFOVと部分的に重なるFOVを有するように構成され得る。さらに、カメラ208dを使用して撮像された画像の中心領域に関連付けられた露出時間は、LIDAR206が、カメラ208dを使用して撮像された中心に関連するFOVに向かって指向する時間(例えば、t=25ms)と同期され得る。したがって、これらの例では、装置200(または他のコンピュータ)は、カメラ208a(例えば、画像画素)を使用して撮像された不整合画像画素データ(画像の中心からさらに遠く離れている画像画素)の代わりに、LIDARデータとのマッピングのために、カメラ208dからの整列画像画素データ(例えば、撮影画像の中心付近の画像画素)を使用できる。
図3は、例示的な実施形態による、別のローリングシャッターカメラ配置308(例えば、カメラリング)の断面図を示す。カメラリング308は、図2Bに示されるカメラリング208と同様であり得る。図示のように、例えば、軸342は、軸242と同様に、LIDARの回転軸であり得る。さらに、例えば、画像センサ326は、画像センサ226(および/または246)と同様であり得、感知素子228a〜228fと同様であり得る感知素子328a〜328eによって例示される感知素子のアレイを含み得る。例えば、画像センサ326は、(例えば、ページに対して垂直な)線形配置(例えば、ページに対して垂直)で感知素子328aおよび1つまたは複数の他の感知素子(図示せず)を含む感知素子の第1の行と、(例えば、ページに対して垂直な)線形配置で感知素子328bおよび1つまたは複数の他の感知素子(図示せず)を含む感知素子の第2の隣接する行とを備えてもよい。
図示されていないが、カメラリング308はまた、カメラリング308に入射する外部光の部分を画像センサ326内のそれぞれの感知素子に向けて集束する(例えば、カメラレンズ230、232、234、236などと同様の)1つまたは複数のカメラレンズを含み得る。追加的に、または代替的に、カメラリング308は、システム100および/または装置200のうちのいずれかに示される構成素子のうちの1つまたは複数を含み得る。
図示のように、カメラリング308は、軸342を中心とした、湾曲した表面(例えば、円形の表面)に沿って配設される画像センサ326を含む。一例では、画像センサ326は、(感知素子328a〜328eなどを含む)感知素子の配置を取り付けるフレキシブル基板(例えば、フレキシブルPCBなど)上に実装することができる。したがって、この配置では、画像センサ326内の感知素子の行のそれぞれは、回転軸342に対して同じ所与の距離(例えば、感知素子の円形または円筒状の配置)にあり得る。別の例では、画像センサ326は、回転軸342を中心として互いに隣接して配置された感知素子の複数の物理的に分離された行として実装することができる。例えば、感知素子の物理的に分離された各行は、他の行と同じように回転軸に対して同じ所与の距離に配置されてもよい。他の例も可能である。実装に関係なく、カメラリング308の構成では、画像センサ326の感知素子の各行が取り付けられる曲面は、感知素子によって撮像された画像画素と、軸342を中心に回転するLIDARセンサによって放出される光ビームとの間の(例えば、視線方向に関する)重なりを改善することができる。
例えば、LIDARセンサが軸342を中心に回転するとき、LIDAR装置の視点(例えば、LIDARレンズの位置)は、円形経路で移動することがある。したがって、この配置では、画像センサ326の曲面は、放出され/検知されたLIDAR光パルスの円形経路に似ており、センサ326によって収集された画像画素を(同様の湾曲した経路に沿ってLIDARセンサの回転の水平方向で検知される)LIDAR光パルスと一致させる可能性を向上させる。
III.例示的な方法およびコンピュータ可読媒体
図4は、例示的な実施形態による方法400のフローチャートである。方法400は、例えば、システム100、装置200、および/またはカメラリング308のうちのいずれかと共に使用され得る方法の実施形態を提示す。方法400は、ブロック402〜404のうちの1つまたは複数によって図示のように、1つまたは複数の操作、機能、またはアクションを含み得る。ブロックは連続した順序で示されているが、これらのブロックは、いくつかの例では、並行に、かつ/または本明細書で説明された順序とは異なる順序で実行され得る。また、様々なブロックは、より少ないブロックに組み合わされ、追加のブロックに分割され、かつ/または所望の実装に基づいて除去されてもよい。
さらに、方法400ならびに本明細書で開示される他のプロセスおよび方法について、フローチャートは、本実施形態のうちの1つの可能な実装の機能および操作を示す。これに関して、各ブロックは、モジュール、セグメント、製造または操作プロセスの一部、またはプログラムコードの一部を表すことができ、それにはプロセス内の特定の論理機能またはステップを実行するためのプロセッサによって実行可能な1つまたは複数の命令が含まれる。プログラムコードは、例えば、ディスクまたはハードドライブを含むストレージ装置のような任意のタイプのコンピュータ可読媒体に格納することができる。コンピュータ可読媒体は、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)のような、データを短時間にわたって格納するコンピュータ可読媒体などの非一時的なコンピュータ可読媒体を含むことができる。コンピュータ可読媒体は、例えばリードオンリーメモリ(ROM)、光ディスクまたは磁気ディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)のような補助ストレージまたは永続長期ストレージなどの非一時的なコンピュータ可読媒体を含むこともできる。コンピュータ可読媒体は、任意の他の揮発性または不揮発性ストレージシステムとすることもできる。コンピュータ可読媒体は、例えばコンピュータ可読記憶媒体、または有形のストレージ装置であると考えることができる。さらに、方法400および本明細書で開示される他のプロセスおよび方法について、図4の各ブロックは、プロセス内の特定の論理機能を実行するように配線された回路を表すことができる。
ブロック402で、方法400は、LIDARセンサの環境を走査するために、LIDARセンサを、軸を中心に回転させることを含む。例えば、LIDARセンサ206は、LIDARセンサ206の指向方向を調整するために軸242を中心に回転する回転プラットフォーム210に取り付けられてもよい。さらに、LIDARセンサ206は、回転中に、LIDAR206の指向方向によって画定される環境の視野に向けて1つまたは複数の光ビームまたはパルス250を放出し、その後、放出光250の反射(例えば、反射260)を検知することができる。さらに、例示的なシステムは、検知された反射を(例えば、コントローラ104を介して)処理して、LIDARセンサ206の環境内の1つまたは複数のオブジェクトに関する情報(例えば、距離、テクスチャ、材料など)を判定することができる。
いくつかの例では、LIDARセンサによって環境に方向付けられた1つまたは複数の光ビームの配置は、LIDARセンサの回転特性に基づいていてもよい。例えば、図2Cを再び参照すると、LIDARセンサは、LIDARセンサが軸242を中心として第1の指向方向にあるときに、光ビーム250a、250b、250cを、LIDARセンサが軸242を中心として第2の指向方向にあるときに、光ビーム252a、252b、252cを放出してもよい。LIDARセンサの回転特性が修正されると、光ビーム250a、250b、250c、252a、252b、252cの配置がそれに応じて変化する可能性がある。例えば、LIDARセンサがより速い速度で回転する場合、光ビーム250a、250b、250cと光ビーム252a、252b、252cとの間の距離が増大し得る。別の例として、LIDARセンサが反対方向に回転する場合、光ビーム250a、250b、250cの方向に対する光ビーム252a、252b、252cの方向は、図2Cに示されるものとは異なる場合がある。他の例も可能である。
ブロック404で、方法400は、LIDARセンサを回転させている間に、1つまたは複数の外部光源から発生する外部光を検知する1つまたは複数のカメラを使用して画像画素のシーケンスを取得することを含む。例えば、1つまたは複数のカメラは、(図2Bに示される)カメラ208a、208b、208c、208dにおける感知素子の配置と同様に、感知素子の複数の隣接する行を一緒に提供し得る。さらに、感知素子の行のうちの1つまたは複数は、LIDARセンサの回転軸の方向に従って配置されてもよい。例えば、図2Cを再び参照すると、素子228aおよび228gを含む感知素子の第1の行は、軸242の垂直方向と同様の垂直配置であり得、素子228bおよび228hを含む感知素子の第2の行もまた、軸242の垂直方向と同様の垂直配置であり得、以下同様である。
さらに、いくつかの例では、シーケンスの第1の画像画素行は、第1の露出時間中の感知素子の第1の行による外部光の測定値を示してもよく、シーケンスの第2の画像画素行は、第2の露出時間中の感知素子の第2の行による外部光の測定値を示してもよい。例えば、1つまたは複数のカメラは、画像感知素子(または行)が連続的に測定(例えば、読み出し)されて画像画素のシーケンスを取得するローリングシャッター構成で操作され得る。さらに、上記の議論に沿って、感知素子の第1の行の第1の露出時間は、感知素子の第2の(後続の)行の第2の露出時間が開始する前に開始してもよい。
例えば、第1の露出時間の開始時間は、第2の露出時間の開始時間より前であってもよい。この場合、(ブロック404で取得された)シーケンス内の画像画素の第1のラインまたは行は、(第1の露出時間中にさらされた)感知素子の第1の行からのデータに基づくことができ、シーケンス内の画像画素の第2の後続のラインまたは行は、(第2の露出時間中にさらされた)感知素子の第2の行からのデータに基づくことができる。
この配置では、例えば、感知素子の第1の行は、第2の行が環境の第2の(例えば、水平方向に隣接する)領域の画像化を開始する前に、第1の行の第1のFOV内の環境の第1の領域の画像化を開始し得る。さらに、LIDARセンサは、軸を中心に回転方向に回転させることができ、これにより、LIDARセンサは、感知素子の第2の行によって画像化される第2のFOVを走査する前に、感知素子第1の行によって画像化される第1のFOVを走査する。
したがって、いくつかの実施形態では、画像画のシーケンス(または画像画素行)を取得することは、LIDARセンサの少なくとも1つまたは複数の回転特性(および/または、LIDARセンサによって環境に方向付けられた光ビームの配置)に基づいて1つまたは複数のカメラを操作するためのタイミング構成を判定することを含み得る。これらの実施形態では、方法400は、判定されたタイミング構成に従ってブロック404で画像画素のシーケンスを取得するために1つまたは複数のカメラを操作することも含み得る。
例えば、図2Cを再び参照すると、装置200は、対応する光ビームがLIDARセンサによって放出された順序に基づいて、感知素子の特定の行のシーケンスにおける画像画素の順序を選択することができる。例えば、LIDAR206が光ビーム250c、250b、250aを(この順序で)放出する場合、装置200は、感知素子228gに関連付けられた画素で開始し、感知素子228aに関連付けられた画素で終了するシーケンスの画像画素の第1の行を取得することができる。一方、LIDAR206が光ビーム250a、250b、250cを(この順序で)放出する場合、装置200は、感知素子228aに関連する画素で開始し、感知素子228gに関連する画素で終了するシーケンスの画像画素の第1の行を取得することができる。したがって、いくつかの実施形態では、方法400は、LIDARセンサによって放出された複数の光ビームの配置(および/または放出の順序)に基づいて特定の順序で測定される画像画素のシーケンスを取得するために、(例えば、1つまたは複数のカメラの)画像センサを操作することを含み得る。
別の例として、装置200は、LIDAR206の配向または指向方向に応じて、画像画素を読み取るためにセンサ226内の感知素子のどの行かを選択することができる。例えば、装置200は、画像センサ226の露出時間の中心が、LIDAR206のFOVが画像の中心と重なる時間(例えば、LIDAR206が図2Eに示す配向にある時間)と同期されるように、(図2Bに示す)画像センサ226の露出をトリガしてもよい。
したがって、いくつかの実施形態では、方法400は、LIDARセンサの少なくとも角度方向(例えば、指向方向、視線方向など)に基づいて画像画素のシーケンスを取得することを含む。さらに、いくつかの実施形態では、方法400は、LIDARセンサが回転軸を中心として特定の配向にあることに関連する時間に基づいて、1つまたは複数のカメラの特定のカメラのカメラ露出時間の開始時間を判定することを含み得る。いくつかの例では、特定の配向は、特定のカメラを使用して撮像された画像の一部(例えば、カメラの中央領域など)で表される環境の領域と少なくとも部分的に重なるLIDARセンサの特定のFOVを画定してもよい。
例えば、図2Bを再度参照すると、カメラ208aは、カメラ208aのFOVからの外部光を画像センサ226に向けて集束することができる。さらに、カメラ208aは、カメラが素子228aを含む感知素子の第1の行の露出を開始し、その後、時間遅延の後に素子228bを含む第2の行の露出を開始し、以下同様であるローリングシャッターモードで操作することができる。カメラ208aのカメラ露出時間は、画像センサ226内の感知素子のすべての行のそれぞれの露出時間を含み得る。さらに、この例では、方法400のシステムは、カメラの露出時間の中心が、LIDAR206がカメラ208aのFOVの中心に向かって指向している所与の時間(例えば、LIDAR206が図2Eに示される配向にある所与の時間)に対応する。
いくつかの実施形態では、方法400は、LIDARセンサによって放出された1つまたは複数の光パルス(またはビーム)の1つまたは複数の放出時間に基づいて(感知素子の第1の行の)第1の露出時間の開始時間を判定することと、上記の説明に沿って、判定された開始時間に基づく1つまたは複数のカメラを操作することと、を含む(例えば、それぞれの光ビームを放出するときに光ビーム250a〜250cおよび/または252a〜252cの放出時間およびLIDARセンサの指向方向に応じて適切な行を選択する)。
いくつかの実施形態では、方法400は、少なくともLIDARセンサの回転の方向に基づいて、感知素子の隣接する行の外部光への、それぞれの露出開始時間の順序を判定することと、判定された順序に基づいて1つまたは複数のカメラを操作することと、を含む。例えば図2Cを再び参照すると、素子228bおよび228hに関連する画像画素行を取得した後、装置200は、次に、LIDAR206が時計回り方向に回転している場合、感知素子228aおよび228gに関連する画像画素行を取得し得る。一方、LIDAR207が反時計回り方向に回転している場合、装置200は、代わりに、素子228cを含む感知素子の行に関連する画像画素行を取得することができる。
いくつかの実施形態では、方法400は、LIDARセンサの回転速度に基づいて時間遅延を判定することと、感知素子の第1の行を使用して第1の画像画素行を取得することと、第1の画像画素行を取得してから判定された時間遅延が経過した後に、感知素子の第2の行を使用して第2の画像画素行を取得することと、を含む。例えば、図2Cを再び参照すると、装置200は、LIDAR206の回転速度が下がる場合、(素子228aおよび228gを含む)第1の画像画素行と(素子228bおよび228hを含む)第2の画像画素行を取得する間の時間遅延を増大し得、または、LIDAR装置206の回転速度が上がる場合、時間遅延を減少させ得る。
上記の例の変形例として、装置200は、第1の開始時間に(素子228aおよび228gを含む)感知素子の第1の行の第1の露出時間を開始し、次に第2の開始時(すなわち、判定された時間遅延の経過後)に(素子228bおよび228hを含む)感知素子の第2の行の第2の露出時間を開始することができる。したがって、いくつかの実施形態では、方法400は、LIDARセンサの回転特性(例えば、回転速度など)に基づいて、第1の露出時間の開始時間と第2の露出時間の開始時間との間の時間遅延を判定することと、および判定された時間遅延に従って1つまたは複数のカメラを操作することと、を含む。
いくつかの実施形態では、方法400は、LIDARセンサの指向方向(および/または回転特性)に基づいて、1つまたは複数のカメラのそれぞれのカメラ露出時間を制御することを含む。他の実施形態では、方法400は、1つまたは複数のカメラのそれぞれのカメラ露出時間時間に基づいて、LIDARセンサの1つまたは複数の回転特性を修正することを含む。例えば、図2Bを再び参照すると、カメラ208a、208b、208c、208dは、ブロック404で取得された画像画素のシーケンスにおける画像画素の順序を定義する特定のローリングシャッター構成でそれぞれの画像センサを使用して画像を撮像するように操作され得る。この例では、方法400のシステムは、LIDARセンサを操作して、カメラによって測定された画像画素の順序および配置と一致する順序および配置で光ビームを放出することができる。
例えば、図2Cを再び参照すると、方法400のシステムは、放出された光ビーム250a、250b、250cの順序を制御し、その順序を、素子228aおよび228gを含む感知素子の第1の行が測定される順序(例えば、上から下、または下から上)と一致させることができる。別の例として、システムは、第1の行に関連する画像画素の測定値と、感知素子228bおよび228hを含む第2の行に関連する画像画素の測定値との間の時間遅延に従って、LIDAR206の回転の周波数を調整することができる。さらに別の例として、システムは、LIDAR206の回転の方向を調整して、カメラ208aの「遅軸」の方向と一致させることができる。他の例も可能である。
いくつかの実施形態では、方法400は、少なくともタイミング構成に基づいて、LIDARセンサからのデータを画像画素のシーケンス(または画像画素行)内の1つまたは複数の画像画素に関連付けることを含む。例えば、例示的なシステムは、個々の画像画素が撮像された時間、ならびに反射されたLIDARパルスが検知された時間を追跡し続けることができる。さらに、例示的なシステムは、次いで、閾値時間で撮像された画像画素を、対応するLIDARパルス検知にマッピングすることができる。
代替的に、または追加的に、いくつかの実施形態では、方法400は、LIDARセンサの少なくとも、アレイ内の感知素子の指向方向および視線方向に基づいて、LIDARセンサからのデータを画像画素のシーケンス内の1つまたは複数の画像画素に関連付けることを含む。例えば、図2Cを再び参照すると、LIDAR206が第1の指向方向にあるときに、光パルス250a、250b、250cの反射を検知するLIDAR206に基づくデータは、(例えば、光パルス250a、250b、250cが放出されたLIDAR指向方向と同じか、または同様の視線方向を有する画像感知素子に対応する)感知素子228aおよび228gを含む行内の1つまたは複数の画像感知素子を使用して収集された画像画素と一致し得る。したがって、いくつかの実施形態では、方法400は、シーケンス内の所与の画像画素行を、少なくとも、感知素子の第1の行の視野(FOV)の視野の、LIDARセンサによって特定のデータが収集されたときのLIDARセンサのFOVとの比較に基づいて、LIDARセンサによって収集された所与のデータに関連付けることを含む。
いくつかの実施形態では、方法400は、LIDARセンサからのデータおよび画像画素のシーケンス(または画像画素行)に基づいて環境の3次元(3D)表現を判定することを含む。例えば、例示的なシステムは、LIDARベースの情報(例えば、環境内の1つまたは複数のオブジェクトまでの距離など)をカメラベースの情報(例えば、色など)と組み合わせて、3D表現を生成することができる。LIDARと画像データの組み合わせに基づく他のタイプの表現(例えば、2D画像、タグ付きの画像、シェーディングまたはテクスチャ情報を示す拡張画像など)が可能である。したがって、いくつかの実施形態では、方法400は、画像画素のシーケンス(または画像画素行)および、LIDARセンサによって示される情報(例えば、距離、深度、テクスチャ、反射率、吸光度、反射光パルス長など)によって示される色情報に基づいて環境の表現を判定することを含む。
第1の例では、方法400のシステムは、LIDARセンサからのデータに基づいて、シーケンス内の画像画素の深度情報を判定することができる。例えば、システムは画像内の画像画素に深度値を割り当てることができる。さらに、例えば、システムは、環境内の1つまたは複数のオブジェクト(例えば、環境内の3D特徴を示すカラー3Dモデルなど)の3Dオブジェクトデータモデル(例えば、3Dレンダリング)を(例えば、ディスプレイ140を介して)生成できる。別の例では、画像処理システムは、それぞれのオブジェクトの深度情報(関連するLIDARデータによって示される)を比較することによって、画像内の複数のオブジェクトを識別し、かつ区別することができる。他の適用も可能である。したがって、いくつかの実施形態では、方法400は、LIDARセンサを使用して収集されたLIDARデータポイントを、1つまたは複数のカメラを使用して収集された画像画素にマッピングすることを含む。例えば、LIDARデータは、画像センサまたはカメラによって出力された画像の座標系にマッピングできる。
第2の例では、方法400のシステムは、(1つまたは複数のカメラからのデータに基づいて)色をLIDARポイントクラウド内の個々の点に割り当てることができる。次に、例示的なシステムは、1つまたは複数のカメラの画像センサ(複数可)によって示される色(例えば、カラーポイントクラウドなど)情報と共に環境内の特徴までの距離を示す、走査された環境の3Dレンダリングを(例えば、ディスプレイ140を介して)生成できる。したがって、いくつかの実施形態では、方法400は、シーケンスからの画像画素を、LIDARセンサを使用して取得された対応するLIDARデータポイントにマッピングすることを含む。例えば、画像画素データは、LIDARセンサによって出力されるLIDARデータの座標系にマッピングできる。
第3の例では、方法400のシステムは、特定のLIDARデータポイント(複数可)および特定の画像画素(複数可)を識別し、別の空間(例えば、3D空間など)内の特定の位置(複数可)に割り当てることができる。例えば、システムは、システムにアクセス可能なLIDARセンサ、1つまたは複数のカメラ、および/または他のセンサ(例えば、RADAR、SONARなど)からのデータを使用して、環境の表現を(例えば、ディスプレイ140を介して)表示し、かつ更新することができる。したがって、いくつかの実施形態では、方法400は、シーケンスからの画像画素およびLIDARセンサからのLIDARデータポイントを所与の3D空間にマッピングすることを含む。したがって、例えば、LIDARデータおよび画像画素データは、LIDARおよびカメラ(複数可)によって定義された座標系以外の座標系にマッピングできる。
いくつかの実施形態では、方法400は、1つまたは複数のカメラをリング配置で取り付けることを含む。例えば、図2Bを再び参照すると、カメラ208a、208b、208c、208dは、(例えば、軸242を中心として)リングまたは円形配置に取り付けられて、カメラリング208の環境のそれぞれの部分を撮像することができる。
第1の実施形態では、1つまたは複数のカメラを取り付けることは、リング配置における1つまたは複数のうちの所与のカメラの1つまたは複数の特性に基づくことができる。例えば、所与のカメラを個別にテストして、所与のカメラによって撮像された所与のFOVの範囲が目標FOVからの閾値範囲内(例えば、90度、45度など)であることを確実にすることができる。これを容易にするために、例えば、例示的なシステムは、所与のカメラによって取得された画像を目標FOVの格納された画像などと比較することができる。これにより、いくつかの例において、方法400はまた、判定された1つまたは複数の特性に基づいて、1つまたは複数のカメラを調整することを含んでもよい。
第2の実施形態では、1つまたは複数のカメラを取り付けることは、リング配置における1つまたは複数のカメラの相対的な取り付け位置に関連する1つまたは複数の特性に基づくことができる。一例では、方法400のシステムは、2つの隣接するカメラによって撮像されたFOVが交差するか、または重なる(カメラを含む装置からの)距離を判定することができる。判定された距離内の環境内のオブジェクトは、隣接するカメラを使用するシステムによって検知されない可能性がある(例えば、「ブラインドスポット」)。さらに、例えば、距離の判定は、カメラを使用して撮像された画像、環境の同じ領域などを画像化する他のセンサによって撮像されたセンサデータ(例えば、LIDARデータなど)に基づくことができる。別の例では、システムは、1つまたは複数のカメラの相対的な回転配向を判定するように構成されてもよい。例えば、ロール、ピッチ等のそれぞれのオフセット、カメラの方向は、(例えば、カメラなどにより撮像された画像に基づいて)判定され、かつ/または互いに比較され得る。したがって、いくつかの例では、方法400はまた、判定された1つまたは複数の特性に基づいて、1つまたは複数のカメラの相対的な取り付け位置を調整することを含み得る。
第3の実施形態では、1つまたは複数のカメラを取り付けることは、リング配置内の1つまたは複数のカメラによって画像化された環境を走査する1つまたは複数の他のセンサに関連する1つまたは複数の特性を判定することを含み得る。例えば、システムは、1つまたは複数のカメラのFOVを、LIDARのFOV、RADARのFOV、またはシステム内の任意の他のセンサのFOVと比較することができる。さらに、いくつかの例では、システムは、1つまたは複数のカメラのFOVと1つまたは複数のセンサのFOVとの間の目標重なりを達成するために、特定の取り付け位置でリング配置の1つまたは複数のカメラを取り付けることができる。したがって、いくつかの例では、方法400はまた、1つまたは複数のセンサに関連する判定された1つまたは複数の特性に基づいて1つまたは複数のカメラの取り付け位置を調整することを含み得る。
第4の実施形態では、1つまたは複数のカメラを取り付けることは、リング配置内の1つまたは複数のカメラを使用して撮像された画像が環境内の1つまたは複数のオブジェクトを示すかどうかを判定することを含み得る。例えば、システムは、カメラ(複数可)のFOVがシステムに対する特定の位置にあるオブジェクト(例えば、様々な照明条件下の信号機、歩行者、建設用コーンなど)を検知するのに適しているかどうかを判定することができる。さらに、いくつかの例では、方法400は、撮像された画像が1つまたは複数のオブジェクトを示すかどうかの判定に基づいて、1つまたは複数のカメラの取り付け位置または他の特性(例えば、露出時間、画像の明るさなど)を調整することも含み得る。
IV.結論
さらに、図に示されている特定の配置は、限定であると見なされるべきではない。他の実施形態は、所与の図に示される各素子をより多く、またはより少なく含むことができることを理解されたい。さらに、図示の素子のうちのいくつかは、組み合わせることができるか、または省略することができる。さらには、例示的な実施形態は、図に示されていない素子を含んでいてもよい。様々な態様および実装態様が本明細書において開示されているが、他の態様および実装態様は当業者には明らかであろう。本明細書において開示される様々な態様および実装態様は、例示を目的とするものであり、限定することを意図するものではなく、真の範囲および趣旨は、以下の特許請求の範囲により示される。本明細書において提示される主題の趣旨または範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行なうことができる。本明細書に概して記載され、図面に例示される本開示の態様は、多種多様な異なる構成で配置し、置き換え、組み合わせ、分離し、かつ設計することができることが、容易に理解される。

Claims (19)

  1. 送信機および受信機を含む光検知測距(LIDAR)センサであって、前記送信機が前記LIDARセンサの環境に向けて光パルスを放出し、前記受信機が前記放出された光パルスの反射を検知し、前記LIDARセンサが、軸を中心とした前記LIDARセンサの回転に基づいて前記環境を走査し、前記軸を中心とした前記LIDARセンサの前記回転により、前記LIDARセンサの視野(FOV)が調整される、LIDARセンサと、
    複数の行の感知素子を含み、外部光を検知するように構成されたカメラであって、前記外部光はカメラ露出時間中に前記カメラのFOVの範囲内から受光され、各行の感知素子が、前記LIDARセンサの前記に沿って配列され、前記カメラ露出時間が、各行の感知素子に対するそれぞれの露出時間を含む、カメラと、
    前記カメラ露出時間に前記LIDARセンサの前記FOVが前記カメラの前記FOVに少なくとも部分的に重なる時間が含まれるように前記カメラを操作して画像画素行のシーケンスを取得するように構成されたコントローラであって、前記シーケンスの第1の画像画素行が、第1の露出時間中の第1の行の感知素子による前記外部光の測定値を示し、前記シーケンスの第2の画像画素行が、第2の露出時間中の第2の行の感知素子による前記外部光の測定値を示す、コントローラと、を備える、システム。
  2. 各行の感知素子が、前記LIDARセンサの前記に実質的に平行である、請求項1に記載のシステム。
  3. 前記第1の行の感知素子が、前記LIDARセンサの前記に対して所与の距離に位置し、前記第2の行の感知素子が、前記に対して前記所与の距離に位置する、請求項1に記載のシステム。
  4. 前記カメラが、前記LIDARセンサの前記を中心に実質的に円形の配置で配設された複数のカメラのうちの1つである、請求項1に記載のシステム。
  5. 前記コントローラが、前記LIDARセンサの前記FOVが前記カメラの前記のFOVの中心に少なくとも部分的に重なる特定の時間に、前記カメラ露出時間の中心を合わせる、請求項1に記載のシステム。
  6. 前記コントローラが、前記LIDARセンサの前記回転の方向に少なくとも基づいて、前記外部光に対する隣接する行の感知素子それぞれの露出開始時間の順序を決定し、前記コントローラが、前記決定された順序に基づいて、前記カメラを操作する、請求項1に記載のシステム。
  7. 前記コントローラが、前記軸を中心とした前記LIDARセンサの回転速度に少なくとも基づいて、前記第1の露出時間の開始時間と前記第2の露出時間の開始時間との間の時間遅延を決定し、前記コントローラが、前記決定された時間遅延に基づいて前記カメラを操作する、請求項1に記載のシステム。
  8. 前記コントローラが、前記LIDARセンサによって前記第1の行の感知素子の視野(FOV)に向けて放出される1つまたは複数の光パルスの少なくとも1つまたは複数の放出時間に基づいて、前記第1の露出時間の開始時間を決定し、前記コントローラが、前記決定された開始時間に基づいて前記カメラを操作する、請求項1に記載のシステム。
  9. 前記画像画素行のシーケンスが、前記コントローラによって決定されたタイミング構成に従って測定され、前記コントローラが、前記軸を中心とした前記LIDARセンサの配向に少なくとも基づいて、前記タイミング構成を決定する、請求項1に記載のシステム。
  10. 前記コントローラが、少なくとも前記タイミング構成に基づいて、前記LIDARセンサからのデータを、前記画像画素行のシーケンスにおける1つまたは複数の画像画素に関連付ける、請求項9に記載のシステム。
  11. 所与のデータが前記LIDARセンサによって収集されたときに、前記コントローラが、前記第1の行の感知素子の視野(FOV)と前記LIDARセンサのFOVとの比較に少なくとも基づいて、前記第1の画像画素行を前記LIDARセンサによって収集された前記所与のデータに関連付ける、請求項1に記載のシステム。
  12. 前記コントローラが、前記LIDARセンサからのデータおよび前記画像画素行のシーケンスに基づいて、前記環境の3次元(3D)表現を決定する、請求項1に記載のシステム。
  13. 前記コントローラが、前記画像画素行のシーケンスによって示される色情報と、前記LIDARセンサによって示される距離情報とに基づいて、前記環境の表現を決定する、請求項1に記載のシステム。
  14. 複数の光ビームを放出する光検知測距(LIDAR)センサであって、前記LIDARセンサの指向方向によって画定される視野(FOV)に前記複数の光ビームを方向付け、前記放出された光ビームの反射を検知するLIDARセンサと、
    1つまたは複数の外部光源から発生する外部光を検知する画像センサであって、前記画像センサが、隣接する行の感知素子のアレイを備え、前記アレイ内の所与の行の感知素子が、前記LIDARセンサの所与の指向方向に関して前記LIDARセンサによって方向付けられた所与の光ビームの配置に従って配置される、画像センサと、
    軸を中心として前記LIDARセンサを回転させて、前記LIDARセンサの前記指向方向を調整するアクチュエータであって、前記LIDARセンサによって放出された前記複数の光ビームの配置が、少なくとも前記指向方向の前記調整に基づく、アクチュエータと、
    前記LIDARセンサによって放出された前記複数の光ビームの前記配置に少なくとも基づく特定の順序で画像画素のシーケンスを取得するように前記画像センサを操作するコントローラであって、前記画像画素のシーケンスが、前記外部光に対する前記アレイ内のそれぞれの感知素子のそれぞれの露出時間に従う、前記それぞれの感知素子による測定値を示し、前記それぞれの露出時間が、少なくとも前記特定の順序に基づく、コントローラと、を備える、装置。
  15. 前記画像画素のシーケンスの前記特定の順序が、前記軸を中心とした前記LIDARセンサの前記回転の方向にさらに基づく、請求項14に記載の装置。
  16. 前記画像画素のシーケンスが、複数の連続する画像画素行を含み、前記コントローラが、前記アレイ内の第1の行の感知素子を使用して、第1の画像画素行を取得するように前記画像センサを操作し、前記コントローラが、前記アレイ内の前記第1の行の感知素子に隣接する第2の行の感知素子を使用して、前記シーケンスの前記第1の画像画素行に続く第2の画像画素行を取得するように前記画像センサを操作する、請求項14に記載の装置。
  17. 前記コントローラが、前記所与の行の感知素子の所与の露出時間に、前記LIDARセンサの前記FOVが前記所与の行の感知素子の所与のFOVと少なくとも部分的に重なる所与の時間を含めさせる、請求項14に記載の装置。
  18. 光検知測距(LIDAR)センサの環境を走査するために、前記LIDARセンサを、軸を中心に回転させることであって、前記LIDARセンサが、前記環境に向けて光パルスを放出し、前記放出された光パルスの反射を検知し、前記軸を中心に前記LIDARセンサを回転させることで前記LIDARセンサの視野(FOV)が調整される、回転させることと、
    前記LIDARセンサを回転させながら、外部光を検知するようにカメラを操作することであって、前記外部光は、カメラ露出時間中に前記カメラのFOVの範囲内から受光され、前記カメラ露出時間は、前記LIDARセンサの前記FOVが前記カメラの前記FOVに少なくとも部分的に重なる時間を含み、前記カメラは複数の行の感知素子を含み、各行の感知素子が前記LIDARセンサの前記に沿って配列され、前記カメラ露出時間が、各行の感知素子に対するそれぞれの露出時間を含む、操作することと、を含み、
    前記カメラ露出時間中に前記カメラの前記FOVの範囲内から受光される外部光を検知するように前記カメラを操作することは、画像画素行のシーケンスを取得することを含み、前記シーケンスの第1の画像画素行が、第1の露出時間中の第1の行の感知素子による前記外部光の測定値を示し、前記シーケンスの第2の画像画素行が、第2の露出時間中の第2の行の感知素子による前記外部光の測定値を示す、方法。
  19. 前記LIDARセンサの少なくとも1つまたは複数の回転特性に基づいてタイミング構成を決定することをさらに含み、
    前記タイミング構成が、前記カメラにおけるそれぞれの行の感知素子のそれぞれの露出時間の開始時間を示し、
    前記画像画素のシーケンスを取得することが、前記決定されたタイミング構成に従って前記画像画素のシーケンスを取得することを含む、請求項18に記載の方法。
JP2020517102A 2017-09-28 2018-07-13 同期スピニングlidarおよびローリングシャッターカメラシステム Active JP6854387B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021041076A JP7146004B2 (ja) 2017-09-28 2021-03-15 同期スピニングlidarおよびローリングシャッターカメラシステム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/719,366 US10523880B2 (en) 2017-09-28 2017-09-28 Synchronized spinning LIDAR and rolling shutter camera system
US15/719,366 2017-09-28
PCT/US2018/042095 WO2019067068A1 (en) 2017-09-28 2018-07-13 SYNCHRONIZED ROTARY LIDAR AND ROLLING SHUTTER CAMERA SYSTEM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021041076A Division JP7146004B2 (ja) 2017-09-28 2021-03-15 同期スピニングlidarおよびローリングシャッターカメラシステム

Publications (2)

Publication Number Publication Date
JP2020535407A JP2020535407A (ja) 2020-12-03
JP6854387B2 true JP6854387B2 (ja) 2021-04-07

Family

ID=65808450

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020517102A Active JP6854387B2 (ja) 2017-09-28 2018-07-13 同期スピニングlidarおよびローリングシャッターカメラシステム
JP2021041076A Active JP7146004B2 (ja) 2017-09-28 2021-03-15 同期スピニングlidarおよびローリングシャッターカメラシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021041076A Active JP7146004B2 (ja) 2017-09-28 2021-03-15 同期スピニングlidarおよびローリングシャッターカメラシステム

Country Status (10)

Country Link
US (4) US10523880B2 (ja)
EP (1) EP3688489B1 (ja)
JP (2) JP6854387B2 (ja)
KR (2) KR102277447B1 (ja)
CN (2) CN118033649A (ja)
AU (2) AU2018341833B2 (ja)
CA (2) CA3077071C (ja)
IL (4) IL299642A (ja)
SG (1) SG11202002584YA (ja)
WO (1) WO2019067068A1 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
JP7037830B2 (ja) 2017-03-13 2022-03-17 オプシス テック リミテッド 眼安全性走査lidarシステム
WO2018213338A1 (en) * 2017-05-15 2018-11-22 Ouster, Inc. Augmenting panoramic lidar results with color
WO2019022941A1 (en) 2017-07-28 2019-01-31 OPSYS Tech Ltd. VCSEL LIDAR TRANSMITTER WITH LOW ANGULAR DIVERGENCE
US10523880B2 (en) 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
IL255559A0 (en) * 2017-11-09 2017-12-31 Eshel Aviv Ltd A system and method for electro-optical photography and event detection in large format and wide sectorial coverage
JP7388720B2 (ja) 2017-11-15 2023-11-29 オプシス テック リミテッド ノイズ適応ソリッドステートlidarシステム
US11195353B2 (en) * 2018-01-17 2021-12-07 Uatc, Llc Methods, devices, and systems for communicating autonomous-vehicle status
US11019326B2 (en) * 2018-02-09 2021-05-25 Jenoptik Optical Systems, Llc Light-source characterizer and associated methods
JP7324518B2 (ja) 2018-04-01 2023-08-10 オプシス テック リミテッド 雑音適応型固体ライダシステム
US20190331756A1 (en) * 2018-04-25 2019-10-31 Honeywell International Inc. Apparatus and method for risley prism based star tracker and celestial navigation system
US11971485B2 (en) * 2018-06-19 2024-04-30 Analog Devices, Inc. Metasurface array for lidar systems
WO2020041075A1 (en) * 2018-08-20 2020-02-27 Zodiac Pool Systems Llc Mapping and tracking methods and systems principally for use in connection with swimming pools and spas
US10531075B1 (en) * 2018-09-27 2020-01-07 Honda Motor Co., Ltd. Synchronization controller unit for sensor node
US11169271B2 (en) * 2018-09-27 2021-11-09 Cyngn, Inc. Obstacle detection systems
US11086018B2 (en) * 2018-10-22 2021-08-10 The Government of the United States of America, as represented by the Secretary of Homeland Security Orbiting actuated three-dimensional spinning sensor
DE102018221530A1 (de) * 2018-12-12 2020-06-18 Robert Bosch Gmbh LiDAR-System sowie Kraftfahrzeug
EP3953727A4 (en) 2019-04-09 2023-01-04 Opsys Tech Ltd. SOLID STATE LIDAR TRANSMITTER WITH LASER CONTROL
CN109991617B (zh) * 2019-04-26 2020-08-07 上海禾赛光电科技有限公司 激光雷达
KR20220003600A (ko) 2019-05-30 2022-01-10 옵시스 테크 엘티디 액추에이터를 사용하는 눈-안전 장거리 lidar 시스템
CN113924506A (zh) 2019-06-10 2022-01-11 欧普赛斯技术有限公司 眼睛安全的长范围固态lidar系统
US10510155B1 (en) 2019-06-11 2019-12-17 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
KR20220024177A (ko) 2019-06-25 2022-03-03 옵시스 테크 엘티디 적응형 다중 펄스 lidar 시스템
US11835627B2 (en) * 2019-07-05 2023-12-05 WeRide Corp. Image capturing method and device
US11227194B2 (en) * 2019-07-16 2022-01-18 Baidu Usa Llc Sensor synchronization offline lab validation system
CN112308783B (zh) * 2019-07-24 2024-06-28 株式会社理光 一种卷帘效应校正方法、装置及计算机可读存储介质
CN113866784B (zh) * 2019-08-08 2023-02-03 上海禾赛科技有限公司 激光雷达及其控制方法
CN110488318A (zh) * 2019-08-16 2019-11-22 长沙行深智能科技有限公司 环视相机与雷达同步的曝光控制方法、装置、介质及设备
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
CN112449086A (zh) * 2019-08-30 2021-03-05 Oppo广东移动通信有限公司 一种成像装置及成像方法
US11287530B2 (en) 2019-09-05 2022-03-29 ThorDrive Co., Ltd Data processing system and method for fusion of multiple heterogeneous sensors
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
CN110703265B (zh) * 2019-09-25 2023-04-28 上海工程技术大学 一种机械旋转式激光雷达测试系统及方法
JP7408334B2 (ja) 2019-10-03 2024-01-05 Thk株式会社 画像処理装置及び移動体制御システム
USD959305S1 (en) * 2019-10-31 2022-08-02 Hesai Technology Co., Ltd. Lidar
KR20210054920A (ko) * 2019-11-06 2021-05-14 삼성전자주식회사 전자 장치 및 그 제어 방법
US11252366B2 (en) 2019-11-19 2022-02-15 Waymo Llc Sensor read out mode for high resolution and low light imaging in-sync with LIDAR timing
US11977167B2 (en) 2019-12-04 2024-05-07 Waymo Llc Efficient algorithm for projecting world points to a rolling shutter image
US11557127B2 (en) 2019-12-30 2023-01-17 Waymo Llc Close-in sensing camera system
US11493922B1 (en) * 2019-12-30 2022-11-08 Waymo Llc Perimeter sensor housings
CN111231842A (zh) * 2020-01-14 2020-06-05 北京小马智行科技有限公司 检测平台及具有其的智能驾驶车辆
CN113138393B (zh) * 2020-01-17 2024-05-31 浙江菜鸟供应链管理有限公司 环境感测系统、控制装置以及环境感测数据融合装置
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
GB202004950D0 (en) * 2020-04-03 2020-05-20 Secr Defence Computer implemented method for detecting pulsed radiation
US11836420B1 (en) * 2020-06-29 2023-12-05 Amazon Technologies, Inc. Constructing a 3D model of a facility based on video streams from cameras at the facility
US12055632B2 (en) * 2020-10-13 2024-08-06 Waymo Llc LIDAR based stereo camera correction
US11346923B1 (en) * 2020-11-13 2022-05-31 Lyteloop Technologies, Llc LiDAR system implementing wavelength conversion
US11211707B1 (en) 2020-11-13 2021-12-28 Lyteloop Technologies, Llc Apparatus for broadband wavelength conversion of dual-polarization phase-encoded signal
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
GB2602154A (en) * 2020-12-21 2022-06-22 Nissan Motor Mfg Uk Ltd Lidar sensor assembly and mount
US11706507B2 (en) 2020-12-30 2023-07-18 Waymo Llc Systems, apparatus, and methods for generating enhanced images
CN112819877B (zh) * 2021-01-12 2024-07-09 深圳辰视智能科技有限公司 一种激光线点云生成方法、装置及计算机可读存储介质
WO2022271750A1 (en) * 2021-06-21 2022-12-29 Cyngn, Inc. Three-dimensional object detection with ground removal intelligence
KR102490526B1 (ko) * 2021-09-30 2023-01-27 주식회사 모빌테크 회전형 라이다와 카메라의 동기화 방법 및 그 장치
KR102490525B1 (ko) * 2021-09-30 2023-01-27 주식회사 모빌테크 카메라의 반응시간을 고려한 회전형 라이다와 카메라의 동기화 방법 및 그 장치
CN114089373B (zh) * 2022-01-20 2022-05-17 探维科技(北京)有限公司 基于图像融合激光的雷达系统扫描方法及装置
CN114895280A (zh) * 2022-04-27 2022-08-12 深圳玩智商科技有限公司 图像传感器、光学测距方法及装置
KR102631376B1 (ko) * 2022-12-15 2024-02-01 한국전자기술연구원 이종 디바이스 융복합 센서 장치
ES2956935A1 (es) * 2023-08-04 2024-01-04 Oliva Rossello Gabriel Juan Sistema de captación y transmisión de imágenes de eventos deportivos
CN116709035B (zh) * 2023-08-07 2023-11-21 深圳市镭神智能系统有限公司 图像帧的曝光调节方法、装置和计算机存储介质
CN118091609A (zh) * 2024-04-29 2024-05-28 深圳阜时科技有限公司 接收模组、mems振镜激光雷达系统及电子设备

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10160835A (ja) * 1996-11-29 1998-06-19 Sumitomo Electric Ind Ltd 先行車両認識方法
US8965677B2 (en) 1998-10-22 2015-02-24 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
PT1373830E (pt) 2001-04-04 2006-09-29 Instro Prec Ltd Medicao do perfil de uma superficie
JP2004265396A (ja) * 2003-02-13 2004-09-24 Vingo:Kk 映像生成システム及び映像生成方法
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
JP2005215917A (ja) * 2004-01-29 2005-08-11 Hitachi Plant Eng & Constr Co Ltd 施工図作成支援方法およびリプレースモデル作成方法
US7544945B2 (en) 2006-02-06 2009-06-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Vertical cavity surface emitting laser (VCSEL) array laser scanner
US8139109B2 (en) 2006-06-19 2012-03-20 Oshkosh Corporation Vision system for an autonomous vehicle
KR20080113982A (ko) * 2007-06-26 2008-12-31 주식회사 뉴크론 입체 지형 및 지물 정보 제공장치 및 그 제공방법
KR101188584B1 (ko) * 2007-08-28 2012-10-05 주식회사 만도 카메라와 레이저 스캐너를 이용한 차량 전방 물체 판별장치
US7697126B2 (en) * 2008-04-02 2010-04-13 Spatial Integrated Systems, Inc. Three dimensional spatial imaging system and method
JP2010128792A (ja) * 2008-11-27 2010-06-10 Mitsubishi Electric Corp 表示装置および表示システム
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
JP2011099683A (ja) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd 物体検出装置
JP2011191253A (ja) * 2010-03-16 2011-09-29 Sanpa Kogyo Kk レーザ形状認識センサ及び計測装置
EP3901653A3 (en) 2010-05-17 2022-03-02 Velodyne Lidar USA, Inc. High definition lidar system
US20130021474A1 (en) * 2011-07-20 2013-01-24 Raytheon Company Rolling-shutter imaging system with synchronized scanning illumination and methods for higher-resolution imaging
US8797512B2 (en) 2011-09-15 2014-08-05 Advanced Scientific Concepts, Inc. Automatic range corrected flash ladar camera
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
WO2013179280A1 (en) * 2012-05-29 2013-12-05 Brightway Vision Ltd. Gated imaging using an adaptive depth of field
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US20150301328A1 (en) * 2012-11-16 2015-10-22 Molecular Devices, Llc System and method of acquiring images with a rolling shutter camera while asynchronously sequencing microscope devices
JP2014134475A (ja) * 2013-01-11 2014-07-24 Chiyuugai Technos Kk 座標測定方法
US8836922B1 (en) * 2013-08-20 2014-09-16 Google Inc. Devices and methods for a rotating LIDAR platform with a shared transmit/receive path
FR3010221A1 (fr) * 2013-09-03 2015-03-06 Rizze Dispositif d'identification d'infractions routieres par lidar
DE102013110583C5 (de) * 2013-09-24 2017-12-14 Faro Technologies, Inc. Verfahren und Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9831630B2 (en) 2014-02-06 2017-11-28 GM Global Technology Operations LLC Low cost small size LiDAR for automotive
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
DE102014211071A1 (de) 2014-06-11 2015-12-17 Robert Bosch Gmbh Fahrzeug-Lidar-System
EP3195010A4 (en) 2014-08-15 2018-04-11 Aeye, Inc. Methods and systems for ladar transmission
KR20160034719A (ko) 2014-09-22 2016-03-30 한화테크윈 주식회사 라이다 시스템
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US9651658B2 (en) 2015-03-27 2017-05-16 Google Inc. Methods and systems for LIDAR optics alignment
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
JP2017026487A (ja) * 2015-07-23 2017-02-02 株式会社東芝 形状測定装置、形状測定システムおよび形状測定方法
US10048058B2 (en) * 2015-07-29 2018-08-14 Microsoft Technology Licensing, Llc Data capture system for texture and geometry acquisition
JP5962830B2 (ja) * 2015-09-03 2016-08-03 株式会社ニコン 焦点検出装置
US10712446B1 (en) * 2015-09-25 2020-07-14 Apple Inc. Remote sensing for detection and ranging of objects
JP6579706B2 (ja) * 2015-10-06 2019-09-25 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
US10267908B2 (en) * 2015-10-21 2019-04-23 Waymo Llc Methods and systems for clearing sensor occlusions
EP3165874B1 (en) * 2015-11-04 2020-08-19 Hexagon Technology Center GmbH Method and device for triangulation-based distance measurement
JP2017101965A (ja) * 2015-11-30 2017-06-08 京セラ株式会社 装置
JP6620563B2 (ja) * 2016-01-15 2019-12-18 株式会社Ihi 計測装置
JP2017139691A (ja) * 2016-02-05 2017-08-10 ソニー株式会社 画像処理装置および画像処理方法
JPWO2017159382A1 (ja) * 2016-03-16 2019-01-24 ソニー株式会社 信号処理装置および信号処理方法
CA3017811C (en) * 2016-03-21 2021-04-27 Velodyne Lidar, Inc. Lidar based 3-d imaging with varying pulse repetition
JP7258554B2 (ja) * 2016-03-21 2023-04-17 ベロダイン ライダー ユーエスエー,インコーポレイテッド 可変照射場密度を有するlidarに基づく三次元撮像
US20180136314A1 (en) * 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system for analyzing the distance to an object in an image
US10261513B2 (en) * 2016-12-19 2019-04-16 drive.ai Inc. Methods for communicating state, intent, and context of an autonomous vehicle
WO2018213338A1 (en) 2017-05-15 2018-11-22 Ouster, Inc. Augmenting panoramic lidar results with color
US10678260B2 (en) * 2017-07-06 2020-06-09 GM Global Technology Operations LLC Calibration methods for autonomous vehicle operations
US10523880B2 (en) 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system

Also Published As

Publication number Publication date
IL273524B (en) 2021-08-31
CA3077071A1 (en) 2019-04-04
IL291712A (en) 2022-05-01
EP3688489A4 (en) 2021-01-06
US20230147270A1 (en) 2023-05-11
KR102454144B1 (ko) 2022-10-14
US20200404197A1 (en) 2020-12-24
SG11202002584YA (en) 2020-04-29
US20210203864A1 (en) 2021-07-01
CA3209232A1 (en) 2019-04-04
CN111149015B (zh) 2024-01-23
CN111149015A (zh) 2020-05-12
US11558566B2 (en) 2023-01-17
KR20210089792A (ko) 2021-07-16
IL291712B2 (en) 2023-06-01
US20190098233A1 (en) 2019-03-28
KR20200046131A (ko) 2020-05-06
IL284730A (en) 2021-08-31
IL299642A (en) 2023-03-01
CN118033649A (zh) 2024-05-14
AU2021200905A1 (en) 2021-03-04
AU2018341833A1 (en) 2020-04-23
US10939057B2 (en) 2021-03-02
IL273524A (en) 2020-05-31
CA3077071C (en) 2023-10-03
JP7146004B2 (ja) 2022-10-03
US10523880B2 (en) 2019-12-31
IL284730B (en) 2022-05-01
AU2021200905B2 (en) 2021-11-11
WO2019067068A1 (en) 2019-04-04
EP3688489A1 (en) 2020-08-05
JP2020535407A (ja) 2020-12-03
EP3688489B1 (en) 2023-11-08
JP2021105611A (ja) 2021-07-26
KR102277447B1 (ko) 2021-07-14
AU2018341833B2 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6854387B2 (ja) 同期スピニングlidarおよびローリングシャッターカメラシステム
US20220357427A1 (en) Hybrid lidar receiver and lidar methods
US20210208283A1 (en) Efficient algorithm for projecting world points to a rolling shutter image
JP2004523769A (ja) 表面形状測定
JP2018152632A (ja) 撮像装置および撮像方法
US11867841B2 (en) Methods and systems for dithering active sensor pulse emissions
KR20200059159A (ko) 광 검출기 어레이 및 아날로그 판독 회로가 개재된 lidar 수신기용 멀티 검출기
JP2021534415A (ja) 視野の光学捕捉のためのlidarセンサ、lidarセンサを備えた作動装置または車両、および視野の光学捕捉のための方法
Choudhury et al. High Speed Imaging with Wide Field-of-View Laser Scanning for a MEMS Mirror-based Lidar

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200918

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6854387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250