JP2019502974A - センサー遮蔽を取り除くための方法およびシステム - Google Patents

センサー遮蔽を取り除くための方法およびシステム Download PDF

Info

Publication number
JP2019502974A
JP2019502974A JP2018518604A JP2018518604A JP2019502974A JP 2019502974 A JP2019502974 A JP 2019502974A JP 2018518604 A JP2018518604 A JP 2018518604A JP 2018518604 A JP2018518604 A JP 2018518604A JP 2019502974 A JP2019502974 A JP 2019502974A
Authority
JP
Japan
Prior art keywords
sensor
vehicle
environment
target area
scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018518604A
Other languages
English (en)
Other versions
JP6600089B2 (ja
Inventor
ダグラス ルダース,ブランドン
ダグラス ルダース,ブランドン
キャンベル,ティム
フェアフィールド,ナサニエル
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2019502974A publication Critical patent/JP2019502974A/ja
Application granted granted Critical
Publication of JP6600089B2 publication Critical patent/JP6600089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93273Sensor installation details on the top of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Burglar Alarm Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Electric Clocks (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

移動物体が存在するかどうか監視すべき自律走行車の環境の対象領域を識別することを伴う方法が提供される。本方法は、対象領域の少なくとも一部および自律走行車と対象領域との間の中間領域を含む環境の一部のスキャンを取得するために第1のセンサーを作動させることも伴う。本方法は、第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを、第1のセンサーによって取得されたスキャンに少なくとも基づいて判断することも伴う。本方法は、第2のセンサーが対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために第2のセンサーを作動させることも伴う。本方法を実行するように構成された自律走行車も提供される。【選択図】図4

Description

関連出願の相互参照
[0001] 本出願は、2015年10月21日に出願された、米国特許出願第14/919,667号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
[0002] 本明細書で特に指示のない限り、本節に記載する事柄は、本出願におけるクレームに対する従来技術ではなく、本節に包含することによって従来技術と認めるものではない。
[0003] 車両は、運転者からの入力がほとんど、または全くなしで、環境を走行する自律モードで作動するように構成できる。かかる自律走行車は、その車両が作動する環境に関する情報を検出するように構成される1つ以上のセンサーを含むことができる。
[0004] 1つのセンサー例は、光検知測距(LIDAR)センサーである。LIDARセンサーは、環境内の反射面を示す「点群(point cloud)」を組み立てるために場面(scene)全体をスキャンしながら、環境特徴までの距離を推定できる。点群内の個々の点は、レーザーパルスを送信して、もしあれば、環境内の物体から反射して戻るパルスを検出し、送信したパルスと反射パルスの受信との間の時間遅延に従って物体までの距離を判断することによって決定できる。レーザー、またはレーザーのセットは、場面内の反射物体までの距離に関する連続的なリアルタイム情報を提供するために、場面にわたって迅速かつ反復してスキャンできる。各距離を測定しながら、測定された距離と、レーザー(複数可)の向きを組み合わせると、3次元位置を、戻ってくる各パルスと関連付けるのが可能になる。このようにして、環境内の反射特徴の位置を示す点の3次元マップがスキャン範囲全体に対して生成できる。
[0005] 別のセンサー例は、レーダー(RADAR)センサーである。RADARセンサーは、無線信号を放出し、反射して返ってくる信号を検出することによって、環境特徴までの距離を能動的に推定するために使用できる。例えば、無線反射特徴までの距離が、送信と受信との間の時間遅延に従って判断できる。さらに、例えば、RADARセンサーは、時間的に変化する周波数ランプをもつ信号など、周波数が経時的に変化する信号を放出でき、次いで、システムは、放出された信号と反射された信号との間の周波数における差を距離範囲推定と関連付けることができる。いくつかのシステムは、受信した反射信号におけるドップラー周波数シフトに基づいて反射物体の相対運動も推定し得る。
[0006] 一例では、移動物体が存在するかどうか監視すべき自律走行車の環境の対象領域を識別することを伴う方法が提供される。本方法は、対象領域の少なくとも一部および自律走行車と対象領域との間の中間領域を含む環境の一部のスキャンを取得するために自律走行車上の第1のセンサーを作動させることも含む。本方法は、第1のセンサーによって取得されたスキャンに少なくとも基づいて、自律走行車上の第2のセンサーが、移動物体が存在するかどうか対象領域を監視するために十分にはっきりとした視界を有しているかどうか判断することも伴う。本方法は、第2のセンサーが対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために第2のセンサーを作動させることも伴う。
[0007] 別の例では、車両の環境をスキャンするように構成された第1のセンサーを含む車両が提供される。車両は、車両の環境をスキャンするように構成された第2のセンサーも含む。車両は、1つ以上のプロセッサ、および車両に機能を実行させるために1つ以上プロセッサによって実行可能な命令を格納するように構成されたデータ記憶も含む。機能は、移動物体が存在するかどうか監視すべき車両の環境の対象領域を識別することを含む。機能は、対象領域の少なくとも一部および車両と対象領域との間の中間領域を含む環境の一部のスキャンを取得するために第1のセンサーを作動させることも含む。機能は、第1のセンサーによって取得されたスキャンに少なくとも基づいて、第2のセンサーが、移動物体が存在するかどうか対象領域を監視するために対象領域の十分にはっきりとした視界を有しているかどうか判断することも含む。機能は、第2のセンサーが対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために第2のセンサーを作動させることも含む。
[0008] さらに別の例では、持続性コンピュータ可読媒体が提供される。持続性コンピュータ可読媒体は、コンピューティング装置によって実行される場合に、コンピューティング装置に機能を実行させる命令を内部に格納し得る。機能は、移動物体が存在するかどうか監視すべき自律走行車の環境の対象領域を識別することを含む。機能は、対象領域の少なくとも一部および自律走行車と対象領域との間の中間領域を含む環境の一部のスキャンを取得するために自律走行車上の第1のセンサーを作動させることをさらに含む。機能は、第1のセンサーによって取得されたスキャンに少なくとも基づいて、自律走行車上の第2のセンサーが、移動物体が存在するかどうか対象領域を監視するために対象領域の十分にはっきりとした視界を有しているかどうか判断することをさらに含む。機能は、第2のセンサーが、対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために第2のセンサーを作動させることをさらに含む。
[0009] さらに別の例では、移動物体が存在するかどうか監視すべき自律走行車の環境の対象領域を識別するための手段を含むシステムが提供される。本システムは、対象領域の少なくとも一部および自律走行車と対象領域との間の中間領域を含む環境の一部のスキャンを取得するために自律走行車上の第1のセンサーを作動させるための手段も含む。本システムは、第1のセンサーによって取得されたスキャンに少なくとも基づいて、自律走行車上の第2のセンサーが、移動物体が存在するかどうか対象領域を監視するために対象領域の十分にはっきりとした視界を有しているかどうか判断するための手段も含む。本システムは、第2のセンサーが、対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために第2のセンサーを作動させるための手段も含む。
[0010] これらの、ならびに他の態様、利点、および代替は、添付の図面を、適切な場合には、参照しながら、以下の詳細な記述を読むことにより、当業者には明らかになるであろう。
[0011]実施形態例に従った、車両を示す。 [0012]実施形態例に従った、図1Aに示す車両の上側に配置されたセンサー装置の斜視図である。 [0013]実施形態例に従った、図1Aに示す車両の前側に配置されたセンサー装置の斜視図である。 [0014]実施形態例に従って、周辺環境をスキャンしている図1Aに示す車両を側面図で示す。 [0015]実施形態例に従って、周辺環境をスキャンしている図1Aに示す車両を上面図で示す。 [0016]実施形態例に従って、周辺環境をスキャンしている図1Aに示す車両の別の上面図で示す。 [0017]実施形態例に従った、車両のブロック図である。 [0018]実施形態例に従って、環境内で作動している車両を示す。 [0019]実施形態例に従って、周辺環境をスキャンしている図3Aの車両を示す。 [0020]実施形態例に従った、方法の流れ図である。 [0021]実施形態例に従って構成されたコンピュータ可読媒体を示す。
[0022] 以下の詳細な記述では、開示するシステム、装置および方法の様々な特徴および機能を添付の図を参照して説明する。図では、その内容について別段の指示がない限り、同様のシンボルは同様の構成要素を識別する。本明細書で説明する例示のシステム、装置および方法実施形態は、制限することを意図していない。開示するシステム、装置および方法のある態様は、幅広い異なる構成で配列および組み合わせることができ、その全ては本明細書で企図されることが、当業者によって容易に理解され得る。
I.概要
[0023] 例中、車両の経路に沿って他の車両および/または障害物を含む環境内での車両のナビゲーションを容易にするために、車両は、他の可能性の中でとりわけ、レーダー(RADAR)センサーまたは光検知測距(LIDAR)センサーなどの、1つ以上のセンサーを作動させ得る。例えば、他の可能性の中でとりわけ、交差点の横断や、車線への合流などの、ナビゲーション操作を安全に実行するために、車両は、かかる操作を実行する前および/または実行中に、移動物体(例えば、他の車両など)が存在するかどうか周辺環境を監視するために1つ以上のセンサーを利用し得る。
[0024] いくつかの例では、車両は、操作を安全に進める前に、車両から複数の方向に沿って周辺環境を監視するように構成され得る。一例では、車両は、両方向の規制されていない交通量のある多車線の高速道路へ左折することを決定し得る。この例では、車両は、左折操作を安全に実行するために、高速道路の両方向に沿って対向交通を監視するように構成され得る。
[0025] しかし、いくつかのシナリオでは、環境の1つ以上の対象領域が、様々な要因に起因して、特定のセンサーの視界から遮蔽され得る。一例では、車両上の特定のセンサーの位置(例えば、車両の上、車両の側面など)により、特定のセンサーが対象領域の十分にはっきりとした視界を有するのを阻み得る。別の例では、センサーの機能(例えば、RADAR断面、空間分解能、特定の物体の特定のセンサーに対する透過性など)は、少なくとも移動物体の検出に関して、特定のセンサーによる対象領域の視界を遮蔽し得る。さらに別の例では、特定のセンサーの見通し線に沿った環境内の障害物(例えば、木、道路標識、他の車両、デブリなど)が、特定のセンサーによる対象領域の視界を遮蔽し得る。さらに別の例では、電磁干渉(例えば、背景雑音、環境内の他のセンサーからの放射など)が、少なくとも移動物体の検出に関して、特定のセンサーによる対象領域の視界を遮蔽し得る。他のシナリオも同様に考えられ得る。
[0026] 本明細書の実施形態例は、センサーの環境の対象領域に関して、センサーに対する遮蔽を取り除くための方法およびシステムを含む。本明細書のいくつかの例では、用語「遮蔽を取り除くこと(clearing occlusions)」は、センサーが、移動物体が存在するかどうか対象領域を監視できるために、環境の対象領域の十分にはっきりとした視界を有する可能性を判断および/または評価するためのプロセスを指し得る。
[0027] いくつかの例では、センサーは、移動物体が存在するかどうか対象領域を監視できるために対象領域の十分にはっきりとした視界を有しているという判断は、1つ以上の要因に基づき得る。例えば、センサーが対象領域に関して見通し線視界を有する(例えば、センサーの見通し線が、センサーと対象領域との間の物体によって遮られていない、など)という判断に少なくとも基づいて、センサーは十分にはっきりとした視界を有していると考えられ得る。追加または代替として、例えば、環境内の(例えば、他のセンサー/送信機などからの)電磁干渉が十分に低いためにセンサーが対象領域内の移動物体の存在を検出することが可能であり得るという判断に少なくとも基づいて、センサーは、十分にはっきりとした視界を有していると考えられ得る。追加または代替として、例えば、環境内の背景雑音が十分に低いためにセンサーが対象領域内の移動物体の存在を検出することが可能であり得るという判断に少なくとも基づいて、センサーは、十分にはっきりとした視界を有していると考えられ得る。他の要因も同様に可能であり、本開示の例示的な実施形態内でさらに詳細に説明する。従って、いくつかの例では、用語「十分にはっきりとした視界(sufficiently clear view)」は、移動物体が存在するかどうか対象領域を監視するのにセンサーが適しているかどうかを決定するために、他の可能性の中でとりわけ,前述した判断のいずれかなど、複数の考慮事項を伴うと広く解釈される。
[0028] 一実施形態例は、車両の環境をスキャンするように構成された、第1のセンサーおよび第2のセンサーを含む、複数のセンサーに連結された車両を伴う。例えば、第1のセンサーは、第1のセンサーの視野角に沿って第1のセンサーから離れて延在する環境の一部をスキャンするために、車両の上側に配置されて、水平および垂直の範囲によって画定される視野(FOV)を有する、LIDARセンサーであり得る。さらに、この例では、第2のセンサーは、少なくとも閾値RADAR断面を有する物体が存在するかどうか、第2のセンサーのFOV内の環境の一部をスキャンするために、車両の乗客側(または運転者側)に配置されたRADARセンサーであり得る。他のセンサー構成および/または位置も可能であり、本明細書の例示的な実施形態内でさらに詳細に説明する。
[0029] この実施形態では、車両は、移動物体が存在するかどうか監視すべき環境の対象領域を識別するように構成され得る。例えば、車両は、ナビゲーション操作(例えば、左折、右折、Uターンなど)を実行することを決定し得、操作を実行している間(および/または実行前)に対向交通を監視するために環境の1つ以上の対象領域を識別し得る。
[0030] 追加として、この実施形態では、車両は、次いで、対象領域の少なくとも一部および車両と対象領域との間の中間領域を含む環境の一部のスキャンを取得するために第1のセンサー(例えば、LIDARなど)を作動させるように構成され得る。例えば、車両は、第1のセンサーのFOVが対象領域と少なくとも部分的に重なり合うように第1のセンサーの視野角を調整し得、次いで、FOVをスキャンするために第1のセンサーを作動させ得る。
[0031] 追加として、この実施形態では、車両は、次いで、第1のセンサーによるスキャンに少なくとも基づいて、第2のセンサーが、移動物体が存在するかどうか対象領域を監視するのに適していると判断するように構成され得る。例えば、車両は、第2のセンサーが対象領域の十分にはっきりとした視界を有する(例えば、遮蔽が取り除かれている、など)と判断し得、それにより、車両によって操作を実行する前(および/または実行中)に、対象領域を監視するために第2のセンサーを割り当て得る。
[0032] 第1のセンサーがLIDARセンサーであり、第2のセンサーがRADARセンサーである、一例では、RADARセンサーによる物体の検出(または検出がないこと)は、RADARセンサーが対象領域のはっきりとした見通し線視界(例えば、十分にはっきりとした視界)を有するかどうか、または検出が対象領域内の移動物体の存在を示しているかどうか、を必ずしも示すものではない可能性がある。例えば、この例においてRADARセンサーによって示される検出は、他の可能性の中でとりわけ、対象領域外の物体からの電波反射、他のRADARセンサーからの干渉、環境内の背景雑音、または静止物体の存在に起因し得る。従って、この例では、RADARセンサー(第2のセンサー)が、移動物体が存在するかどうか対象領域を監視できるために対象領域の十分にはっきりとした視界を有しているかどうかを判断するために、LIDARセンサー(第1のセンサー)が車両によって作動され得る。
[0033] 本明細書のいくつかの実施形態例では、車両は、移動物体が存在するか監視すべき複数の対象領域を識別するように構成され得る。例えば、車両が多車線道路への左折を実行することを決定するシナリオでは、車両は、多車線道路の両方向に沿って対向交通を監視することを決定し得る。さらに、この例では、第1のセンサー(および/または第2のセンサー)のFOVは、複数の対象領域の全部を同時には包含しない可能性がある。従って、この例では、車両は、多車線道路の1つの方向に沿って対象領域を監視するために第2のセンサーを割り当て得、それにより、第1のセンサーが、対向交通の別の方向に関連付けられた別の対象領域の少なくとも一部を自由にスキャンできるようにする。一例として、車両は、1つの方向に沿って移動物体の存在を監視するために第1のセンサーを割り当て得、また車両は、別の方向に沿って移動物体の存在を監視するために第2のセンサーを割り当て得る。別の例では、車両は、第2のセンサーに対して遮蔽を取り除くために第1のセンサーを作動させるのと同様に、第3のセンサーが、移動物体が存在するかどうか他の対象領域を監視するために、遮蔽を取り除くために第1のセンサーを作動させ得る。
[0034] 本明細書で説明するいくつかの実装では、車両は、複数の対象領域に関連付けられた複数のスキャンを取得するために第1のセンサーを作動させるように構成され得る。例えば、車両は、第1のセンサーによって取得されるそれぞれのスキャンが、それぞれのスキャンと関連付けられたそれぞれの対象領域と少なくとも部分的に重なり合うように、第1のセンサーの視野角を繰り返して調整するように構成され得る。従って、かかる実装では、車両は、それぞれのセンサーが、移動物体が存在するかどうか、それぞれの対象領域を監視するのに適していることを示す複数のスキャンに基づいて、複数の対象領域を監視するために1つ以上の特定のセンサーを選択するように構成され得る。
II.例示的なシステムおよび装置
[0035] ここで、システムおよび装置の例をさらに詳細に説明する。一般に、本明細書で開示する実施形態は、システムの環境をスキャンするためにシステム内に物理的に配列された複数のセンサーを含む任意のシステムで使用できる。本明細書で説明する例示的な実施形態は、環境をスキャンするために、例えば、LIDAR、RADAR、ソナー、超音波センサーなどの、センサーを採用する車両を含む。しかし、システム例は、また、他の可能性の中でとりわけ、定置式システム、検出プラットフォーム、ロボット装置、産業システム(例えば、組立ラインなど)、医療機器(例えば、医用画像装置など)、または移動通信システムなどの、他の装置内に実装され得るか、または他の装置の形も取り得る。
[0036] 用語「車両(vehicle)」は、本明細書では、他の例の中でとりわけ、例えば、航空機、船舶、宇宙船、自動車、トラック、小型トラック、セミトレーラートラック、オートバイ、ゴルフカート、オフロード車、倉庫輸送車両、または農耕用作業車、およびジェットコースター、路面電車、トラム、または列車の車両などの軌道上を走る運搬装置を含む、任意の移動物体を包含するように広く解釈される。
[0037] 図1Aは、実施形態例に従った、車両100を示す。具体的には、図1Aは、車両100の右側面図、前面図、背面図および上面図を示す。車両100は図1Aでは自動車として例示されているが、前述のとおり、他の実施形態も可能である。さらに、車両例100は、自律モードで作動するように構成され得る車両として示されているが、本明細書で説明する実施形態は、自律的に作動するように構成されていない車両にも適用可能である。従って、車両例100は、制限することを意図していない。図のように、車両100は、5つのセンサー装置102、104、106、108、および110、ならびに、車輪112によって例示される、4つの車輪を含む。
[0038] いくつかの実施形態では、センサー装置102〜110の各々は、車両100の周辺環境をスキャンできるようにする特定の構成特性を有する1つ以上の光検知測距装置(LIDAR)を含み得る。追加または代替として、いくつかの実施形態では、センサー装置102〜110は、他の可能性の中でとりわけ、全地球測位システムセンサー、慣性測定装置、レーダー(RADAR)装置、カメラ、レーザー距離計、LIDAR、および/または音響センサーなどの、センサーの任意の組み合わせを含み得る。
[0039] 図のように、センサー装置102は、車輪112が取り付けられている車両100の下部側と反対側の車両100の上部側に取り付けられる。さらに、センサー装置104〜110は各々、上部側以外の車両100の所与の側に取り付けられる。例えば、センサー装置104は、車両100の前側に配置され、センサー106は、車両100の後側に配置され、センサー装置108は車両100の右側に配置され、センサー装置110は車両100の左側に配置される。
[0040] センサー装置102〜110は、車両100上の特定の位置に取り付けられると示されているが、いくつかの実施形態では、センサー装置102〜110は、車両100の内側または外側のいずれかの、車両100上の他の場所に取り付けられ得る。例えば、図1Aは、車両100のバックミラーに取り付けられたセンサー装置108を示しているが、センサー装置108は、代替として、車両100の右側に沿った別の位置に配置され得る。さらに、5つのセンサー装置が示されているが、いくつかの実施形態では、より多いか、またはより少ないセンサー装置が車両100に含まれ得る。しかし、例のために、センサー装置102〜110は、図1Aに示すように配置される。
[0041] いくつかの実施形態では、センサー装置102〜110の1つ以上は、センサーがその上に取り外し可能に取り付けられ得る1つ以上の可動台を含み得る。可動台は、例えば、回転台を含み得る。回転台上に取り付けられたセンサーは、センサーが、車両100の周囲の様々な方向から情報を取得し得るように回転できる。例えば、センサー装置102のLIDARは、回転台を異なる方向に作動させるなどによって調整できる視野角を有し得る。代替または追加として、可動台は、傾斜台を含み得る。傾斜台上に取り付けられたセンサーは、センサーが様々な角度から情報を取得し得るように、所与の範囲の角度および/または方位角内で傾斜できる。可動台は、他の形もとり得る。
[0042] さらに、いくつかの実施形態では、センサー装置102〜110の1つ以上は、センサー装置内のセンサーの位置および/または向きを、センサーおよび/または可動台を動かすことによって調整するように構成された1つ以上のアクチュエータを含み得る。アクチュエータ例は、モーター、空気圧式アクチュエータ、油圧ピストン、継電器、ソレノイド、および圧電アクチュエータを含む。他のアクチュエータも可能である。
[0043] 図のように、車両100は、運転面に沿って車両を走らせるために回転するように構成される、車輪112などの1つ以上の車輪を含む。いくつかの実施形態では、車輪112は、車輪112のリムに連結された少なくとも1つのタイヤを含み得る。その目的のため、車輪112は、金属とゴムの任意の組み合わせ、または他の材料の組み合わせを含み得る。車両100は、図示したものに加えて、またはそれの代わりに、1つ以上の他の構成要素を含み得る。
[0044] 図1Bは、図1Aに示す車両100の上部に配置されたセンサー装置102の斜視図である。図のように、センサー装置102は、第1のLIDAR120、第2のLIDAR122、分割構造124、および光フィルタ126を含む。前述したように、センサー装置102は、追加または代替として、図1Bに示すもの以外のセンサーを含み得る。しかし、例のために、センサー装置102は、図1Bに示す構成要素を含む。
[0045] いくつかの例では、第1のLIDAR120は、例えば、1つ以上の光パルスを放出して、車両の環境内の物体に反射した光パルスを検出しながら、軸(例えば、垂直軸など)の周りを回転することにより、車両100の周辺の環境をスキャンするように構成され得る。いくつかの実施形態では、第1のLIDAR120は、環境内の物体を迅速に検出するために十分に高いリフレッシュレートで環境をスキャンできるように、軸の周りを繰り返して回転するように構成され得る。例えば、第1のLIDAR120は、10Hzのリフレッシュレート(例えば、1秒あたり第1のLIDAR120の完全な10回転)を有し得、それにより、車両の周囲360度の視野(FOV)を毎秒10回、スキャンする。このプロセスを通して、例えば、周囲の環境の3Dマップが、第1のLIDAR120からのデータに基づいて決定され得る。一実施形態では、第1のLIDAR120は、905nmの波長を有する64のレーザービームを放出する複数の光源を含み得る。この実施形態では、第1のLIDAR120からのデータに基づいて決定された3Dマップは、0.2°(水平)×0.3°(垂直)角度分解能を有し得、第1のLIDAR120は、環境の360°(水平)×20°(垂直)FOVを有し得る。この実施形態では、3Dマップは、例えば、車両100から100メートルの中距離範囲内の物体を検出または識別するのに十分な分解能を有し得る。しかし、他の構成(例えば、光源数、角度分解能、波長、距離範囲など)も可能である。
[0046] いくつかの実施形態では、第2のLIDAR122は、車両100の周辺の環境のさらに狭いFOVをスキャンするように構成され得る。例えば、第2のLIDAR122は、同様の軸の周りを完全な1回転未満しか(水平方向に)回転しないように構成され得る。さらに、いくつかの例では、第2のLIDAR122は、第1のLIDAR120よりも低いリフレッシュレートを有し得る。このプロセスを通して、車両100は、第2のLIDAR122からのデータを使用して、環境のさらに狭いFOVの3Dマップを決定し得る。この例における3Dマップは、第1のLIDAR120からのデータに基づいて決定された対応する3Dマップよりも高い角度分解能を有し得、従って、第1のLIDAR120の中距離範囲よりも遠い物体の検出/識別、および中距離範囲内のさらに小さい物体の識別を可能にし得る。一実施形態では、第2のLIDAR122は、8°(水平)×15°(垂直)のFOV、4Hzのリフレッシュレートを有し得、1550nmの波長を有する1つの狭ビームを放出し得る。この実施形態では、第2のLIDAR122からのデータに基づいて決定された3Dマップは、0.1°(水平)×0.03°(垂直)の角度分解能を有し得、それにより、車両100まで300メートルの長距離範囲内の物体を検出/識別を可能にする。しかし、他の構成(例えば、光源数、角度分解能、波長、距離範囲など)も可能である。
[0047] いくつかの例では、車両100は、第2のLIDAR122の視野角を調整するように構成され得る。例えば、第2のLIDAR122は、狭い水平FOV(例えば、8度)を有しているが、第2のLIDAR122は、第2のLIDAR122の視野角を図1Bに示す以外の方向に調整できるステッパーモーター(図示せず)に取り付けられ得る。従って、いくつかの例では、第2のLIDAR122は、車両100から任意の視野角に沿って狭いFOVをスキャンするために操縦可能であり得る。
[0048] 第1のLIDAR120および第2のLIDAR122の構造、動作、および機能性は、本明細書の例示的な実施形態内でさらに詳細に説明する。
[0049] 分割構造124は、第1のLIDAR120の支持および/または任意選択として第1のLIDAR120の第2のLIDAR122からの分離に適した任意の固体材料で形成され得る。材料例は、他の可能性の中でとりわけ、金属、プラスチック、発泡体を含み得る。
[0050] 光フィルタ126は、1つの波長範囲をもつ波長を有する光に対して実質的に透過的であって、その波長範囲外の波長を有する光を実質的に透さない、任意の材料で形成され得る。例えば、光フィルタ126は、第1のLIDAR120の第1の波長(例えば、905nm)および第2のLIDAR122の第2の波長(例えば、1550nm)を有する光が、光フィルタ126を通して伝搬できるようにし得る。図のように、光フィルタ126は、第1のLIDAR120および第2のLIDAR122を取り囲むように成形される。従って、いくつかの例では、光フィルタ126は、他の可能性の中でとりわけ、ほこりの集積または空気中のデブリとの衝突など、第1のLIDAR120および第2のLIDAR122に対する環境的損傷を防ぐようにも構成され得る。いくつかの例では、光フィルタ126は、光フィルタ126を通って伝搬する可視光を低減するように構成され得る。その結果として、光フィルタ126は、第1のLIDAR120および第2のLIDAR122を取り囲むことにより、例えば、センサー装置102の構成要素が傍観者の観点から見える度合いを減らしながら、車両100の審美的外観を改善し得る。他の例では、光フィルタ126は、可視光ならびに第1のLIDAR120および第2のLIDAR122からの光を許可するように構成され得る。
[0051] いくつかの実施形態では、光フィルタ126の部分は、異なる波長範囲が光フィルタ126を通って伝搬できるように構成され得る。例えば、分割構造124より上側の光フィルタ126の上部は、第1のLIDAR120の第1の波長を含む第1の波長範囲内の光の伝搬を許可するように構成され得る。さらに、例えば、分割構造124より下側の光フィルタ126の下部は、第2のLIDAR122の第2の波長を含む第2の波長範囲内の光の伝搬を許可するように構成され得る。他の実施形態では、光フィルタ126と関連付けられた波長範囲は、第1のLIDAR120の第1の波長と第2のLIDAR122の第2の波長の両方を含み得る。
[0052] 一実施形態では、図のように、光フィルタ126は、ドーム形を有して、第1のLIDAR120および第2のLIDAR122に対してドーム形の覆いを提供する。例えば、ドーム形の覆い(例えば、光フィルタ126)は、第1のLIDAR120と第2のLIDAR122との間に配置される分割構造124を含み得る。従って、この実施形態では、第1のLIDAR120は、ドーム形の覆い内に配置され得る。さらに、この実施形態では、第2のLIDAR122も、ドーム形の覆い内に配置され得、図1Bに示すように、第1のLIDAR120と車両100の上部との間に配置され得る。
[0053] 図1Cは、図1Aに示す車両100の前側に配置されたセンサー装置104の斜視図である。いくつかの例では、センサー装置106、108、および110は、図1Cに例示するセンサー装置104と同様に構成され得る。図のように、センサー装置104は、第3のLIDAR130および光フィルタ132を含む。前述したとおり、センサー装置104は、追加または代替として、図1Cに示す以外のセンサーを含み得る。しかし、例のために、センサー装置104は、図1Cに示す構成要素を含む。
[0054] 第3のLIDAR130は、第3のLIDAR130が配置されている車両100の所与の側(すなわち、前側)から離れて延在する車両100の周辺の環境のFOVをスキャンするように構成され得る。従って、いくつかの例では、第3のLIDAR130は、第3のLIDAR130の配置に起因して、第2のLIDAR122よりも広いが、第1のLIDAR120の360度FOVよりも狭いFOVにわたって、(例えば、水平に)回転するように構成され得る。一実施形態では、第3のLIDAR130は、270°(水平)×110°(垂直)のFOV、4Hzのリフレッシュレートを有し得、905nmの波長を有する1つのレーザービームを放出し得る。この実施形態では、第3のLIDAR130からのデータに基づいて決定された3Dマップは、1.2°(水平)×0.2°(垂直)の角度分解能を有し得、それにより、車両100まで30メートルの近距離範囲内の物体を検出/識別を可能にする。しかし、他の構成(例えば、光源数、角度分解能、波長、距離範囲など)も可能である。第3のLIDAR130の構造、動作、および機能性は、本開示の例示的な実施形態内でさらに詳細に説明する。
[0055] 光フィルタ132は、図1Bの光フィルタ126と同様であり得る。例えば、光フィルタ132は、第3のLIDAR130を取り囲むように成形され得る。さらに、例えば、光フィルタ132は、第3のLIDAR130からの光の波長を含む波長範囲内の光が、光フィルタ132を通って伝搬するのを可能にするように構成され得る。いくつかの例では、光フィルタ132は、光フィルタ132を通って伝搬する可視光を低減するように構成され得、それにより、車両100の審美的外観を改善し得る。
[0056] 図1D、図1E、および図1Fは、実施形態例に従って、周辺環境をスキャンしている図1Aに示す車両100を示す。
[0057] 図1Dは、車両100が表面140上で作動しているシナリオを示す。例えば、表面140は、道路もしくは幹線道路などの運転面、または任意の他の表面であり得る。図1Dでは、矢印142、144、146、148、150、152は、センサー装置102および104の様々なLIDARによって放出された、それぞれのLIDARの垂直FOVの端部における光パルスを示す。
[0058] 例として、矢印142および144は、図1Bの第1のLIDAR120によって放出された光パルスを示す。この例では、第1のLIDAR120は、矢印142と144との間の環境の領域内に一連のパルスを放出し得、その領域から反射された光パルスを受信して、その領域内の物体を検出および/または識別し得る。車両100の上部におけるセンサー装置102の第1のLIDAR120(図示せず)の位置決めに起因して、第1のLIDAR120の垂直FOVは、図1Dに示すように車両100の構造(例えば、屋根など)によって制限される。しかし、車両100の上部におけるセンサー装置102内の第1のLIDAR120の位置決めは、第1のLIDAR120が、実質的に垂直な軸170の周りを回転することによって車両100の周囲の全ての方向をスキャンできるようにする。同様に、例えば、矢印146および148は、図1Bの第2のLIDAR122によって放出された、第2のLIDAR122の垂直FOVの端部における光パルスを示す。さらに、第2のLIDAR122はまた、第2のLIDAR122の視野角を、説明に沿って、車両100の周囲の任意の方向に調整するように操縦可能でもあり得る。一実施形態では、第1のLIDAR120の垂直FOV(例えば、矢印142と144との間の角度)は、20°であり、第2のLIDAR122の垂直FOVは15°(例えば、矢印146と148との間の角度)である。しかし、例えば、車両100の構造またはそれぞれのLIDARの構成などの要因に応じて、他の垂直FOVも可能である。
[0059] 図1Dに示すように、センサー装置102(第1のLIDAR120および/または第2のLIDAR122を含む)は、車両100の周囲の任意の方向で、車両100の環境内の物体を探して(例えば、回転することなどにより)スキャンし得るが、車両100にごく近接した物体を探して環境をスキャンするのにはあまり適していない可能性がある。例えば、図のように、車両100までの距離154内の物体は、検出されない可能性があるか、または、かかる物体の位置が、矢印142と144によって示される光パルスの間の領域の外側にあるため、センサー装置102の第1のLIDAR120によって部分的にだけ検出され得る。同様に、距離156内の物体も検出されない可能性があるか、またはセンサー装置102の第2のLIDAR122によって部分的にだけ検出され得る。
[0060] その結果、センサー装置104の第3のLIDAR130(図示せず)が、車両100に近接している物体の環境をスキャンするために使用され得る。例えば、車両100の前側におけるセンサー装置104の位置決めに起因して、第3のLIDAR130は、少なくとも、車両100の前側から離れて延在している環境の一部にとっては、車両100までの距離154および/または距離156内の物体の環境をスキャンするのに適し得る。図のように、例えば、矢印150および152は、第3のLIDAR130によって放出された、第3のLIDAR130の垂直FOVの端部における光パルスを示す。従って、例えば、センサー装置104の第3のLIDAR130は、車両100に近接している物体を含む、矢印150と152との間の環境の一部をスキャンするように構成され得る。一実施形態では、第3のLIDAR130の垂直FOVは110°(例えば、矢印150と152との間の角度)である。しかし、他の垂直FOVも可能である。
[0061] 図1Dに示す様々な矢印142〜152の間の角度は、原寸に比例しておらず、単に例示を目的とするものであることに留意されたい。従って、いくつかの例では、様々なLIDARの垂直FOVも同様に変化し得る。
[0062] 図1Eは、車両100が周辺環境をスキャンしているシナリオにおける車両100の上面図を示す。前述の議論を踏まえて、車両100の様々なLIDARの各々は、そのそれぞれのリフレッシュレート、FOV、または任意の他の要因に従って特定の分解能を有し得る。その結果として、様々なLIDARは、車両100までのそれぞれの距離範囲内の物体の検出および/または識別に適し得る。
[0063] 図1Eに示すように、輪郭160および162は、センサー装置102の第1のLIDAR120からのデータに基づいて物体が検出および/または識別され得る車両100までの距離範囲例を示す。図に示すように、例えば、輪郭160内の近くの物体は、車両100の上部上のセンサー装置102の位置決めに起因して、適切に検出および/または識別されない可能性がある。しかし、例えば、輪郭160の外側であって、輪郭162によって画定される中距離範囲(例えば、100メートルなど)内の物体は、第1のLIDAR120からのデータを使用して適切に検出および/または識別され得る。さらに、図のように、第1のLIDAR120の水平FOVは、車両100の周囲の全方向に360°広がり得る。
[0064] さらに、図1Eに示すように、輪郭164は、センサー装置102の第2のLIDAR122からのより高い分解能データを使用して物体が検出および/または識別され得る環境の範囲を示す。図のように、輪郭164は、例えば、長距離範囲(例えば、300メートルなど)内の車両100からさらに離れた物体を含む。輪郭164は、第2のLIDAR122のより狭いFOV(水平)を示すが、いくつかの例では、車両100は、第2のLIDAR122の視野角を、図1Eに示すもの以外の任意の他の方向に調整するように構成され得る。例として、車両100は、第1のLIDAR120からのデータ(例えば、輪郭162内)を使用して物体を検出して、第2のLIDAR122の視野角をその物体を含むFOVに調整し、次いで、第2のLIDAR122からのより高い分解能データを使用して物体を識別し得る。一実施形態では、第2のLIDAR122の水平FOVは8°であり得る。
[0065] さらに、図1Eに示すように、輪郭166は、センサー装置104の第3のLIDAR130によってスキャンされる環境の領域を示す。図のように、輪郭166によって示される領域は、例えば、第1のLIDAR120および/または第2のLIDAR122によってスキャンされない可能性のある環境の部分を含む。さらに、例えば、第3のLIDAR130からのデータは、車両100までの短距離(例えば、30メートルなど)内の物体を検出および/または識別するのに十分な分解能を有する。
[0066] 前述した距離範囲、分解能、およびFOVは、例示のみを目的としており、車両100の様々な構成に従って変化し得ることに留意されたい。さらに、図1Eに示す輪郭160〜166は、原寸に比例していないが、説明の便宜のために図のように示されている。
[0067] 図1Fは、車両100が周辺環境をスキャンしているシナリオにおける車両100の別の上面図を示す。前述の議論を踏まえて、車両100は、例えば、LIDAR、RADAR、ソナー、超音波音センサー(ultrasound sensor)などの、複数のタイプのセンサーを含み得る。さらに、例えば、様々なセンサーは、それぞれのセンサーのそれぞれのFOV内の物体の検出および/または識別に適し得る。
[0068] 図1Fでは、輪郭164は、図1Eに関する上の議論を踏まえて、センサー装置102の第2のLIDAR122からのより高い分解能データを使用して、物体が検出および/または識別され得る環境の領域を示す。
[0069] さらに、図1Fに示すように、矢印182aおよび182bは、図1Aのセンサー装置108内のセンサーなどの、車両100の側面に沿って取り付けられたセンサーのFOVによって画定される環境の領域を示す。例えば、矢印182aおよび182bと関連付けられたセンサーは、矢印182aと182bとの間の車両100のセンサー装置108から離れて延在する環境の部分をスキャンするように構成されるRADARセンサーであり得る。追加または代替として、いくつかの例では、矢印182aおよび182bと関連付けられたセンサーは、任意の他のタイプのセンサー(例えば、LIDAR、カメラなど)を含み得る。しかし、例のために、矢印182aおよび182bは、図1Fでは、センサー装置108内のRADARセンサーのFOVの広がりとして記述される。この例では、RADARセンサーは、少なくとも閾値RADAR断面を有する矢印182aおよび182bによって画定される領域内の物体を検出するように構成され得る。一実施形態では、閾値RADAR断面は、オートバイ、スクーター、自動車、および/または任意の他の車両の寸法(例えば、0.5平方メートルなど)に関連し得る。他の閾値RADAR断面値例も可能である。
[0070] 同様に、図1Fに示すように、矢印184aおよび184bは、例えば、図1Aのセンサー装置110内のセンサーなどの、車両100の反対側に沿って取り付けられた別のセンサーのFOV内である環境の領域を示す。
[0071] 図1Fに示す矢印182a、182bおよび/または184a、184bの間の角度は、原寸に比例しておらず、例示のみを目的とすることに留意されたい。従って、いくつかの例では、センサー装置108および110内のセンサーの水平FOVも同様に変化し得る。
[0072] 図2は、実施形態例に従った、車両200の簡略化したブロック図である。車両200は、例えば、車両100と類似し得る。図のように、車両200は、推進システム202、センサーシステム204、制御システム206、周辺機器208、およびコンピュータシステム210を含む。他の実施形態では、車両200は、さらに多いか、少ないか、または異なるシステムを含み得、各システムは、さらに多いか、少ないか、または異なる構成要素を含み得る。追加として、図示するシステムおよび構成要素は、任意の数の方法で組み合わされるか、または分割され得る。
[0073] 推進システム202は、車両200に対して動力移動を提供するように構成され得る。図のように、推進システム202は、エンジン/モーター218、エネルギー源220、変速装置222、および車輪/タイヤ224を含む。
[0074] エンジン/モーター218は、内燃エンジン、電気モーター、蒸気エンジン、およびスターリングエンジンの任意の組み合わせであり得るか、またはそれらを含み得る。他のモーターおよびエンジンも可能である。いくつかの実施形態では、推進システム202は、複数のタイプのエンジンおよび/またはモーターを含み得る。例えば、ガソリン電気ハイブリッド車は、ガソリンエンジンおよび電気モーターを含み得る。他の例も可能である。
[0075] エネルギー源220は、エンジン/モーター218に完全に、または部分的に動力を供給するエネルギー源であり得る。すなわち、エンジン/モーター218は、エネルギー源220を機械的エネルギーに変換するように構成され得る。エネルギー源220の例は、ガソリン、ディーゼル、プロパン、他の圧縮ガス燃料、エタノール、太陽電池パネル、電池、および他の電力源を含む。エネルギー源(複数可)220は、追加または代替として、燃料タンク、電池、コンデンサ、および/またははずみ車の任意の組み合わせを含み得る。いくつかの実施形態では、エネルギー源220は、車両200の他のシステムにもエネルギーを供給し得る。
[0076] 変速装置222は、エンジン/モーター218からの機械力を車輪/タイヤ224に伝達するように構成され得る。この目的のため、変速装置222は、ギアボックス、クラッチ、差動装置、駆動軸、および/または他の要素を含み得る。変速装置222が駆動軸を含む実施形態では、駆動軸は、車輪/タイヤ224に連結されるように構成される1つ以上の車軸を含み得る。
[0077] 車両200の車輪/タイヤ224は、一輪車、二輪車/オートバイ、三輪車、または自動車/トラック四輪形式を含む、様々な形式で構成され得る。六輪以上を含むものなど、他の車輪/タイヤ形式も可能である。任意の事例では、車輪/タイヤ224は、他の車輪/タイヤ224に関して、差動回転するように構成され得る。いくつかの実施形態では、車輪/タイヤ224は、変速装置222に固定して取り付けられる少なくとも1つの車輪および運転面と接触し得る車輪のリムに連結された少なくとも1つのタイヤを含み得る。車輪/タイヤ224は、金属とゴムの任意の組み合わせ、または他の材料の組み合わせを含み得る。推進システム202は、追加または代替として、図示したもの以外の構成要素を含み得る。
[0078] センサーシステム204は、車両200が位置している環境に関する情報を検知するように構成された、いくつかのセンサー、ならびにセンサーの位置および/または向きを変更するように構成された1つ以上のアクチュエータ236を含み得る。図のように、センサーシステム204のセンサーは、全地球測位システム(GPS)226、慣性計測装置(IMU)228、RADAR装置230、レーザー距離計および/またはLIDAR装置232、ならびにカメラ234を含む。センサーシステム204は、例えば、他の可能性の中でとりわけ、車両200の内部システムを監視するセンサー(例えば、Oモニター、燃料計、エンジンオイル温度など)、距離センサー(例えば、ソナー、超音波センサーなど)を含む、追加のセンサーも含み得る。その上、センサーシステム204は、複数のLIDARを含み得る。いくつかの例では、センサーシステム204は、各々がそれぞれの位置(例えば、上部側、下部側、前面、背面、右側、左側など)で車両に取り付けられた複数のセンサー装置として実装され得る。他のセンサーも可能である。
[0079] GPS226は、車両200の地理的位置を推定するように構成された任意のセンサー(例えば、位置センサー)であり得る。この目的のため、GPS226は、車両200の位置を地球に関して推定するように構成された送受信機を含み得る。GPS226は、他の形式も取り得る。
[0080] IMU228は、慣性加速度に基づいて、車両200の位置と方向の変化を検知するように構成されたセンサーの任意の組み合わせであり得る。いくつかの実施形態では、センサーの組み合わせには、例えば、加速度計とジャイロスコープを含み得る。センサーの他の組み合わせも可能である。
[0081] RADAR装置230は、車両200が位置している環境内の物体を無線信号を使用して検知するように構成された任意のセンサーであり得る。いくつかの実施形態では、物体の検知に加えて、RADAR装置230は、追加として、物体の速度および/または進行方向を検知するように構成され得る。
[0082] 同様に、レーザー距離計またはLIDAR装置232は、レーザーを使用して、車両200が位置している環境内の物体を検知するように構成された任意のセンサーであり得る。具体的には、レーザー距離計またはLIDAR装置232は、レーザーを放出するように構成されたレーザー源および/またはレーザースキャナならびにレーザーの反射を検出するように構成された検出器を含み得る。レーザー距離計またはLIDAR232は、コヒーレント(例えば、ヘテロダイン検波を使用)またはインコヒーレント検出モードで動作するように構成され得る。いくつかの例では、LIDAR装置232は、各々が車両200の周囲の環境の特定の領域をスキャンするのに適した固有の位置および/または構成を有する複数のLIDARを含み得る。
[0083] カメラ234は、車両200が位置している環境の画像を捕捉するように構成された任意のカメラ(例えば、スチルカメラ、ビデオカメラなど)であり得る。この目的のため、カメラは前述した任意の形を取り得る。センサーシステム204は、追加または代替として、図示したもの以外の構成要素を含み得る。
[0084] 制御システム206は、車両200およびその構成要素の動作を制御するように構成され得る。この目的のため、制御システム206は、ステアリング装置238、スロットル240、ブレーキ装置242、センサーフュージョンアルゴリズム244、コンピュータビジョンシステム246、ナビゲーションまたは経路設定システム248、および障害物回避システム250を含み得る。
[0085] ステアリング装置238は、車両200の進行方向を調整するように構成された機構の任意の組み合わせであり得る。スロットル240は、エンジン/モーター218の動作速度、および、その結果として、車両200の速度を制御するように構成された機構の任意の組み合わせであり得る。ブレーキ装置242は、車両200を減速させるように構成された機構の任意の組み合わせであり得る。例えば、ブレーキ装置242は、摩擦を使用して、車輪/タイヤ224の速度を落とし得る。別の例として、ブレーキ装置242は、車輪/タイヤ224の運動エネルギーを電流に変換し得る。ブレーキ装置242は、他の形も取り得る。
[0086] センサーフュージョンアルゴリズム244は、センサーシステム204からのデータを入力として受け入れるように構成されたアルゴリズム(またはアルゴリズムを格納しているコンピュータプログラム製品)であり得る。データは、例えば、センサーシステム204のセンサーで検知された情報を表すデータを含み得る。センサーフュージョンアルゴリズム244は、例えば、カルマンフィルタ、ベイジアンネットワーク、本明細書の方法の機能のいくつかのためのアルゴリズム、または任意の別のアルゴリズムを含み得る。センサーフュージョンアルゴリズム244は、例えば、車両100が位置している環境内の個々の物体および/もしくは特徴の評価、特定の状況の評価、ならびに/または特定の状況に基づいて考えられる影響の評価を含む、センサーシステム204からのデータに基づいて、様々な評価を提供するように、さらに構成され得る。他の評価も可能である。
[0087] コンピュータビジョンシステム246は、例えば、交通信号および障害物を含む、車両200が位置している環境内の物体および/または特徴を識別するために、カメラ234によって捕捉された画像を処理および解析するように構成された任意のシステムであり得る。この目的のため、コンピュータビジョンシステム246は、物体認識アルゴリズム、Structure from Motion(SFM)アルゴリズム、ビデオトラッキング、または他のコンピュータビジョン技術を使用し得る。いくつかの実施形態では、コンピュータビジョンシステム246は、追加として、環境のマッピング、物体の追跡、物体速度の推定などを行うように構成され得る。
[0088] ナビゲーションおよび経路設定システム248は、車両200に対する運転経路を決定するように構成された任意のシステムであり得る。ナビゲーションおよび経路設定システム248は、追加として、車両200の走行中に、運転経路を動的に更新するように構成され得る。いくつかの実施形態では、ナビゲーションおよび経路設定システム248は、車両200に対する運転経路を決定するために、センサーフュージョンアルゴリズム244、GPS226、LIDAR装置232、および1つ以上の所定のマップからのデータを統合するように構成され得る。
[0089] 障害物回避システム250は、車両200が位置している環境内の障害物を識別し、評価し、かつ回避するか、または別の方法で切り抜けるように構成された任意のシステムであり得る。制御システム206は、追加または代替として、図示したもの以外の構成要素を含み得る。
[0090] 周辺機器208は、車両200が、外部センサー、他の車両、外部コンピューティング装置、および/またはユーザーとやり取りできるように構成され得る。この目的のため、周辺機器208は、例えば、無線通信システム252、タッチスクリーン254、マイクロホン256、および/またはスピーカー258を含み得る。
[0091] 無線通信システム252は、1つ以上の他の車両、センサー、または他のエンティティを、直接、または通信ネットワークを経由してのいずれかで、無線で接続するように構成された任意のシステムであり得る。この目的のため、無線通信システム252は、他の車両、センサー、サーバー、または他のエンティティと、直接または通信ネットワークを経由してのいずれかで通信するための、アンテナおよびチップセットを含み得る。チップセットまたは無線通信システム252は一般に、他の可能性の中でとりわけ、Bluetooth、IEEE 802.11(任意のIEEE 802.11リビジョンを含む)に記載された通信プロトコル、移動電話技術(GSM、CDMA、UMTS、EV−DO、WiMAX、またはLTEなど)、Zigbee、狭帯域通信(DSRC)、および無線自動識別(RFID)通信などの、1つ以上のタイプの無線通信(例えば、プロトコル)に従って通信するように配列され得る。無線通信システム252は、他の形も取り得る。
[0092] タッチスクリーン254は、車両200に対して命令を入力するためにユーザーによって使用され得る。この目的のため、タッチスクリーン254は、ユーザーの指の位置および動きの少なくとも1つを、他の可能性の中でとりわけ、容量感知、抵抗感知、または表面弾性波プロセスによって感知するように構成され得る。タッチスクリーン254は、タッチスクリーン表面と平行もしくは平面の方向、タッチスクリーン表面と垂直な方向、またはその両方への指の動きを感知することが可能であり得、また、タッチスクリーン表面に印加された圧力レベルを感知することも可能であり得る。タッチスクリーン254は、1つ以上の半透明または透明な絶縁層および1つ以上の半透明または透明な導電層から形成され得る。タッチスクリーン254は、他の形も取り得る。
[0093] マイクロホン256は、車両200のユーザーから音声(例えば、音声命令または他の音声入力)を受信するように構成され得る。同様に、スピーカー258は、車両200のユーザーに音声を出力するように構成され得る。周辺機器208は、追加または代替として、図示したもの以外の構成要素を含み得る。
[0094] コンピュータシステム210は、推進システム202、センサーシステム204、制御システム206、および周辺機器208の1つ以上にデータを送信し、それらからデータを受信し、それらとやり取りし、かつ/またはそれらを制御するように構成され得る。この目的のため、コンピュータシステム210は、推進システム202、センサーシステム204、制御システム206、および周辺機器208の1つ以上に、システムバス、ネットワーク、および/または他の接続機構(図示せず)によって通信可能に接続され得る。
[0095] 一例では、コンピュータシステム210は、燃料効率を改善するために、変速装置222の動作を制御するように構成され得る。別の例として、コンピュータシステム210は、カメラ234に環境の画像を捕捉させるように構成され得る。さらに別の例として、コンピュータシステム210は、センサーフュージョンアルゴリズム244に対応する命令を格納および実行するように構成され得る。さらに別の例として、コンピュータシステム210は、LIDAR装置232を使用して、車両200の周囲の環境の3D表現を決定するための命令を格納および実行するように構成され得る。他の例も可能である。
[0096] 図のように、コンピュータシステム210は、プロセッサ212およびデータ記憶装置214を含む。プロセッサ212は、1つ以上の汎用プロセッサおよび/または1つ以上の専用プロセッサを含み得る。プロセッサ212が2つ以上のプロセッサを含む範囲において、かかるプロセッサは別々に、または組み合わせて、動作し得る。データ記憶装置214は、その結果として、光学式、磁気、および/もしくは有機記憶装置などの、1つ以上の揮発性ならびに/または1つ以上の不揮発性記憶装置構成要素を含み得、データ記憶装置214は、全体として、または一部がプロセッサ212と統合され得る。
[0097] いくつかの実施形態では、データ記憶装置214は、様々な車両機能(例えば、方法400)を実行するためにプロセッサ212によって実行可能な命令216(例えば、プログラム論理)を含み得る。データ記憶装置214は、推進システム202、センサーシステム204、制御システム206、および/または周辺機器208の1つ以上にデータを送信し、それらからデータを受信し、それらとやり取りし、かつ/またはそれらを制御するための命令を含む、追加の命令も含み得る。コンピュータシステム210は、追加または代替として、図示したもの以外の構成要素を含み得る。
[0098] 図のように、車両200は、電源260をさらに含み、電源260は、車両200の構成要素の一部または全部に電力を供給するように構成され得る。この目的のため、電源260は、例えば、リチウムイオン二次電池または鉛酸蓄電池を含み得る。いくつかの実施形態では、電池の1つ以上のバンクが、電力を供給するように構成され得る。他の電源材料および構成も可能である。いくつかの実施形態では、電源260およびエネルギー源220は、いくつかの完全な電気自動車におけるように、1つの構成要素として一緒に実装され得る。
[0099] いくつかの実施形態では、車両200は、図示したものに加えて、またはその代わりに、1つ以上の要素を含み得る。例えば、車両200は、1つ以上の追加のインタフェースおよび/または電源を含み得る。他の追加の構成要素も可能である。かかる実施形態では、データ記憶装置214は、追加の構成要素を制御し、かつ/またはそれらと通信するために、プロセッサ212によって実行可能な命令をさらに含み得る。
[0100] なおさらに、構成要素およびシステムの各々は車両200に統合されると示されているが、いくつかの実施形態では、1つ以上の構成要素またはシステムは、有線もしくは無線接続を使用して車両200に、取り外し可能に取り付けられるか、または別の方法で(機械的に、または電気的に)連結され得る。一例では、センサーシステム204内の1つ以上のセンサーに対する動作命令を決定するコンピューティングシステム210の一部が、無線通信インタフェース(例えば、無線通信システム252など)を経由して車両200と通信する車両200の外部(例えば、リモートサーバー内など)に配置され得る。車両200は、他の形も取り得る。
[0101] いくつかの実施形態では、前述のとおり、車両200は、他の可能性の中でとりわけ、センサーシステム204内のセンサーの1つ以上および/または周辺機器208の1つ以上などの、1つ以上の構成要素を回転させ得る。例として図1Eに戻って参照すると、車両100は、センサー装置102〜110のそれぞれのセンサーを回転させることにより、輪郭162〜166によって示される環境の部分をスキャンする。同様に、車両200は、いくつかの実施形態では、その様々な構成要素の1つ以上をそれぞれの回転台上に取り付けて、様々な構成要素の方向を調整し得る。
III.例示的シナリオ
[0102] 実施形態例が実装され得るシナリオ例をここでさらに詳細に説明する。本明細書で説明する例示的シナリオは、車両が左折操作を実行するシナリオを含む。しかし、車両が他の自律運転操作(例えば、Uターン、右折、車線変更、ドライブウェイから出る、道路に合流するなど)を実行するシナリオなどの、実施形態例が実装され得る他のシナリオも可能である。さらに、前述の議論を踏まえて、車両以外のシステムまたは装置を伴う他のシナリオも可能である。
[0103] 図3Aは、環境302内で作動する車両300を示す。車両300は、車両100および/または200と類似し得る。環境302は、例えば、道路網、河川系、空中ナビゲーションシステムなどの、車両300の作動に適した任意の環境を含み得る。しかし、例のために、図3Aに示す環境302は、多車線道路306につながる車道304のある道路網を含む。さらに、図のように、道路306は、車線マーク390によって例示される、車線マークによって分離され得る、車線306a、306b、306c、および306dを含む。図3Aは車両300を自動車として示しているが、前述のとおり、車両300は、環境302および車両300の用途に従って、他の形(例えば、ボート、航空機、ヘリコプターなど)も取り得る。従って、本開示の実施形態は、周囲の環境をスキャンするように構成された複数のセンサーを含む様々なタイプのシステムと使用できる。
[0104] 図3Aは、車両300がナビゲーション操作を実行することを決定する、車両動作例を示す。図のように、例えば、車両300は、矢印308によって示される経路に沿って、車道304から道路306の車線306bへの左折を実行することを決定し得る。前述の議論を踏まえて、本明細書の方法およびシステムの例が使用できる他の車両動作も可能である(例えば、ドライブウェイから抜け出す、右折する、バックする、Uターンする、車線内にとどまる、など)。しかし、例のために、図3Aのシナリオは左折している車両300を伴う。
[0105] かかる操作を安全に実行するために、例えば、車両300は、移動物体が存在するかどうか監視すべき対象領域310、312、および314を識別し得る。いくつかの例では、図のように、対象領域310、312、314は、対向交通が存在し得る、車線306b、306c、および306dの車線区分(またはその部分)に対応し得る。対象領域310、312、および314の形状および位置は変化し得、必ずしも図3Aに示すとおりではないことに留意されたい。例えば、対象領域310および312は、代替として、他の可能性の中でとりわけ、1つの対象領域として組み合わされ得るか、または図示したものとは異なる寸法を有し得る。
[0106] 図のように、対象領域310、312、および314は、それぞれ、移動物体320、322、および324を含み得る。さらに、例のために、移動物体320、322、および324は、それぞれ、矢印330、332、および334によって示されるように、進路308に向かって移動している可能性がある。移動物体320、322、および324は、例えば、車両、動いているデブリなどの、任意の移動物体を含み得る。移動物体320、322、および324は、図3Aでは自動車として図示されているが、追加または代替として、移動物体320、322、および324は、いくつかの例では、他の可能性の中でとりわけ、オートバイ、スクーター、自転車乗り、歩行者(例えば、ジョギングする人、ウォーキングしている歩行者、など)、または動いているデブリなどの、他の物体を含み得る。さらに、図3Aは、対象領域310、312、および314内の3つの移動物体320、322、および324を示しているが、いくつかの例では、対象領域310、312、および314は、代替として、追加の、または図示したものより少ない移動物体を含み得る。一例では、対象領域310、312、および314は、いかなる移動物体も含まない可能性がある。
[0107] 矢印308によって示される車両動作を安全に実行するために、いくつかの例では、車両300は、左折操作を実行する前に、移動物体320、322、324の1つ以上が進路308を横断するのを待つべきかどうかを評価し得る。それに応じて、いくつかの例では、車両300は、矢印308によって示される操作を実行する前(および/または実行中)に、移動物体が存在するかどうか対象領域310、312、314を監視するために、様々なセンサー(例えば、RADAR、LIDARなど)を利用し得る。前述したとおり、いくつかの例では、様々なセンサーは各々、移動物体が存在するかどうか対象領域310、312、314を監視するためのそれぞれのセンサーの適合性に影響を及ぼす、異なる取付け位置、分解能、FOV、および/または他の構成を有し得る。
[0108] 図3Bは、実施形態例に従った、作動中の車両300を示す。例えば、移動物体320、322、324、車線マーク390などの、図3Aに示す特徴のいくつかは、説明の便宜のために、図3Bの例示から省略されていることに留意されたい。いくつかの例では、車両300は、他の可能性の中でとりわけ、車両100のセンサー装置102〜110内に含まれるセンサーの1つ以上、または車両200のセンサーシステム204内に含まれるセンサーの1つ以上に類似した複数のセンサー(図示せず)を含み得る。
[0109] 例えば、輪郭364は、図1Fの輪郭164と類似し得る。例えば、第1のセンサーによってスキャンされる環境302の一部(例えば、輪郭364)が、対象領域314の少なくとも一部を含むように、第1のセンサーが対象領域314の方に向けられている場合、輪郭364は、車両300の第1のセンサー(図示せず)によってスキャンされる環境302の一部を表し得る。例えば、第1のセンサーは、輪郭364と関連付けられた環境302の一部をスキャンできるようにするために十分に高い分解能および距離範囲を有するLIDARセンサー(例えば、車両100のLIDARセンサー122など)であり得る。追加または代替として、第1のセンサーは、対象領域314の少なくとも一部を含む環境302の一部をスキャンするように構成された任意の他のセンサー(例えば、LIDAR120、LIDAR124、RADARセンサー、カメラ、超音波センサー、超音波音センサー、マイクロホン、ソナー、車両200のセンサーシステム204内のセンサーのいずれか、など)であり得る。
[0110] 前述したとおり、いくつかのシナリオでは、第1のセンサーは、移動物体が存在するかどうか対象領域310、312、または314の1つ以上を監視するのに適し得るが、移動物体が存在するかどうか対象領域310、312、および314の2つ以上の特定の組み合わせを同時に監視するのにはあまり適していない可能性がある。例えば、図のように、輪郭364によって示される環境の一部は、図1Eおよび図1Fの輪郭164と同様に、第1のセンサー(例えば、LIDAR122など)のFOVの水平の広がりによって画定され得る。この例では、かかる水平FOVは、対象領域310と対象領域314の組み合わせ、または対象領域312と対象領域314の組み合わせなどを、同時に包含するのにあまり適していない可能性がある。
[0111] 従って、いくつかの例では、第1のセンサーが、輪郭364によって示される環境の一部をスキャンした後、車両300は、第1のセンサーのFOVが対象領域310の少なくとも一部と重なり合うように、第1のセンサー(図示せず)の視野角を調整するように構成され得る。この例では、車両300は、次いで、輪郭366によって示されるように対象領域310を含む環境の一部をスキャンし得る。
[0112] さらに、図のように、矢印382aと382bとの間の環境302の一部が、図1Fの矢印182aおよび182bによって示される環境の一部と同様に、車両300の第2のセンサー(図示せず)によってスキャンされ得る。さらに、図のように、矢印384aと384bとの間の環境302の一部が、図1Fの矢印184aおよび184bによって示される環境の一部と同様に、車両300の第3のセンサー(図示せず)によってスキャンされ得る。
[0113] 前述したとおり、いくつかのシナリオでは、矢印382aと382bとの間の環境302の一部のスキャンと関連付けられた第2のセンサー(図示せず)は、たとえ、第2のセンサーのFOVが対象領域314と重なり合っていても、移動物体が存在するかどうか対象領域314を監視するのにあまり適していない可能性がある。
[0114] 第1のシナリオ例では、第2のセンサーは、矢印382aと382bとの間の環境302の一部を見るために車両の側面に(例えば、車両100のセンサー装置108内など)取り付けられたカメラであり得る。このシナリオでは、たとえ、カメラのFOVが対象領域314と重なり合っていても、カメラは、対象領域314の視界から遮蔽され得る。一例として、対象領域314自体内、カメラと対象領域314との間の環境302の中間領域344、または対象領域314の近くか、もしくは隣接している環境302の任意の他の領域内の1つ以上の物体(例えば、木、壁、道路標識、車両、歩行者など)の存在に起因して、カメラは、対象領域314の十分にはっきりとした視界を有していない可能性がある。別の例では、対象領域314は、他の可能性の中でとりわけ、強い光源、鏡、または環境内の背景光による干渉に起因して、カメラの視界から遮蔽され得る。
[0115] 第2のシナリオ例では、第2のセンサーは、矢印382aと382bとの間の環境302の一部をスキャンするために車両の側面に(例えば、車両100のセンサー装置108内など)取り付けられたRADARセンサーであり得る。このシナリオでは、たとえ、RADARセンサーのFOVが対象領域314と重なり合っていても、RADARセンサーは、対象領域314の視界から遮蔽され得る。一例として、1つ以上の物体が、RADARセンサーによって送信された電磁波の波長(複数可)に対して透過的ではない、中間領域344、対象領域314、または対象領域314の近くか、もしくは隣接している環境302の任意の他の領域内の1つ以上の物体の存在に起因して、RADARセンサーは、対象領域314の十分にはっきりとした視界を有していない可能性がある。別の例では、対象領域314は、他の可能性の中でとりわけ、無線送信機(例えば、アンテナ、別のRADARセンサーなど)、反射面(例えば、道路標識など)、または環境302内の背景放射(例えば、雑音など)に起因して、RADARセンサーの視界から遮蔽され得る。さらに別の例では、対象領域314は、初めはRADARセンサーによって検出されない可能性があるが、デブリの近くで動いている物体を静止物体として識別させ得る(例えば、デブリが移動物体のRADAR断面にバイアスを導入し得る)、静止/移動デブリ(例えば、クラッタなど)を含み得る。
[0116] 第3のシナリオ例では、第2のセンサーからのデータは、第2のセンサーが対象領域314を見る(および/または移動物体が存在するかどうか対象領域314を監視する)のを遮蔽されているかどうかを判断するのに(第1のセンサーからのデータよりも)あまり適していない可能性がある。例えば、第2のセンサーがRADARセンサーである場合には、RADARセンサーによる検出は、環境302内の他のRADARセンサー、環境302内の背景雑音などによる干渉に起因し得る。追加または代替として、この例では、RADARセンサーによって検出されないこと(例えば、中間領域344内の物体などに対して)は、RADARセンサーが対象領域314を見るのを遮蔽されていないことを必ずしも示していない可能性がある。一例として、RADARセンサーによって検出されないことは、RADARセンサーから放出された電波を、RADARセンサーに向けて反射する代わりに、RADARセンサーから離れて、電波を反射している反射器(図示せず)に起因し得る。別の例では、RADARセンサーによって検出されないことは、RADARセンサーから放出された電波をRADARセンサーに向けて反射する代わりに、RADARセンサーから放出された電波を吸収するか、または放出された電波が対象領域314に向かって伝搬し続けるのを可能にする、物体(図示せず)に起因し得る。他の例も可能である。従って、この例では、第1のセンサー(例えば、LIDARセンサー)からのデータは、対象領域314に関して、第2のセンサー(例えば、RADARセンサー)に対するかかる遮蔽を取り除くのにより適し得る。
[0117] 同様に、いくつかのシナリオでは、矢印384aと384bとの間の環境302の一部のスキャンと関連付けられた第3のセンサー(図示せず)は、たとえ、第3のセンサーのFOVが対象領域310および/または312(図のように)と重なり合っていても、移動物体が存在するかどうか対象領域310および/または312を監視するのにあまり適していない可能性がある。例えば、第3のセンサーは、第2のセンサーに関して前述したシナリオ例と同様に、中間領域346における物体の存在、対象領域310および/または312における物体の存在、環境302の他の領域における物体の存在、第3のセンサーに対する(例えば、他のセンサー/送信機などからの)電磁干渉、背景雑音、第3のセンサーの性能などに起因して、対象領域310および/または312を見るのを遮蔽され得る。
[0118] 他のタイプのセンサー(例えば、超音波センサー、マイクロホンセンサー、ソナーセンサー、LIDARセンサーなど)、異なる移動物体、異なる環境要因などを伴うシナリオなどの、実施形態例が使用できる他のシナリオも可能である。例えば、シナリオ例は、他の可能性の中でとりわけ、環境302内の音源および/または雑音からの干渉によって影響を及ぼされ得る音響センサーを伴い得る。
[0119] 様々な領域310、312、314、344、および346の位置、寸法、および形状は、必ずしも原寸に比例しておらず、図3Aおよび図3Bに示す図とは異なり得ることに留意されたい。さらに、輪郭364、366、および矢印382a、382b、384a、384bによって示される様々なスキャン領域の方向、形状、および寸法は、必ずしも原寸に比例しておらず、図3Aおよび図3Bに示す図とは異なり得ることに留意されたい。従って、様々な特徴は変化し得、説明の便宜のために、図3Aおよび図3Bに示されるように例示しているだけである。
IV.例示的な方法およびコンピュータ可読媒体
[0120] 例中、本明細書の方法は、センサーが、少なくとも別のセンサーによる環境のスキャンに基づいて、移動物体が存在するかどうか環境の対象領域を監視するのに適しているかどうかを判断することを伴い得る。さらに、いくつかの例では、本明細書の方法は、特定のセンサーが、移動物体が存在するかどうか1つ以上の特定の対象領域を監視するのに適しているかどうかの判断に少なくとも基づいて、環境の1つ以上の特定の対象領域を監視するために特定のセンサーを割り当てることを伴い得る。
[0121] 図4は、実施形態例に従った、方法400の流れ図である。図4に示す方法400は、例えば、車両100、200、および/または300のいずれかと使用され得る方法の一実施形態を提示する。方法400は、ブロック402〜408の1つ以上によって例示されるような1つ以上の操作、機能、または動作を含み得る。ブロックは順番に示されているが、こられのブロックは、いくつかの例では、並列して、かつ/または本明細書に記述するものとは異なる順番で、実行され得る。また、様々なブロックは、所望の実装に基づいて、さらに少ないブロックに結合され、追加のブロックに分割され、かつ/または取り除かれ得る。
[0122] 加えて、方法400ならびに本明細書で開示する他のプロセスおよび方法に対して、流れ図は、本実施形態の1つの可能な実装の機能および操作を示す。これに関連して、各ブロックは、プロセス内の特定の論理機能またはステップを実装するためにプロセッサによって実行可能な1つ以上の命令を含む、モジュール、セグメント、製造もしくは作業工程の一部、またはプログラムコードの一部を表し得る。プログラムコードは、例えば、ディスクまたはハードドライブを含む、記憶装置などの、任意のタイプのコンピュータ可読媒体上に格納され得る。コンピュータ可読媒体は、例えば、レジスタメモリ、プロセッサキャッシュおよびランダムアクセスメモリ(RAM)のような、データを短期間、格納するコンピュータ可読媒体などの、持続性コンピュータ可読媒体を含み得る。コンピュータ可読媒体は、例えば、読み取り専用メモリ(ROM)、光または磁気ディスク、コンパクトディスク読み取り専用メモリ(CD−ROM)のような、二次的または永続的長期記憶装置などの、持続性媒体も含み得る。コンピュータ可読媒体は、任意の他の揮発性または不揮発性記憶システムでもあり得る。コンピュータ可読媒体は、例えば、コンピュータ可読記憶媒体、または有形的記憶装置と考えられ得る。
[0123] 加えて、方法400ならびに本明細書で開示する他のプロセスおよび方法に対して、図4の各ブロックは、プロセス内の特定の論理機能を実行するために配線される回路を表し得る。
[0124] ブロック402において、方法400は、移動物体が存在するかどうか監視すべき環境の対象領域を識別することを伴う。例えば、図3Aに戻って参照すると、対象領域は、対象領域310、312、314のいずれかと類似し得、移動物体は、移動物体320、322、324のいずれかと類似し得る。この例では、車両に配置されたコンピューティング装置(例えば、車両200のコンピュータシステム210など)または車両の外側に配置されたコンピューティング装置(例えば、リモートサーバなど)は、(例えば、操作を実行するための決定に応答して、など)対象領域を識別するように構成され得る。
[0125] ブロック404において、方法400は、対象領域の少なくとも一部を含む環境の一部のスキャンを取得するために第1のセンサーを作動させることを伴う。第1のセンサーは、他の可能性の中でとりわけ、車両100のセンサー装置102〜110内に含まれるセンサーのいずれか、または車両200のセンサーシステム204内に含まれるセンサーのいずれかと類似し得る。いくつかの例では、環境の一部は、対象領域と第1のセンサーとの間の中間領域も含み得る。例えば、図3Bに戻って参照すると、第1のセンサーによってスキャンされる環境の一部は、対象領域314の少なくとも一部、および車両300と対象領域314との間の中間領域344を含む輪郭364によって示される部分に類似し得る。
[0126] いくつかの例では、方法400は、第1のセンサーの視野が対象領域の少なくとも一部を含むように、第1のセンサーの視野角を調整することも伴い得る。例えば、図3Bに戻って参照すると、第1のセンサーが、最初に、輪郭364と関連付けられた方向以外の方向に向けられる場合、方法400のシステムは、第1のセンサーが輪郭364と関連付けられた環境の一部をスキャンしているように、第1のセンサーの視野角を調整するために第1のセンサーを作動し得る。この例では、第1のセンサーは、車両100のLIDAR装置120および122と同様に、回転台に取り付けられ得、方法400のシステムは、輪郭364と関連付けられた視野角を有するためにアクチュエータを作動させて第1のセンサーを回転させ得る。
[0127] ブロック406において、方法400は、移動物体が存在するかどうか対象領域を監視するために、第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することを伴う。いくつかの例では、ブロック406における判断は、ブロック404において第1のセンサーによって取得されたスキャンに少なくとも基づき得る。
[0128] いくつかの例では、ブロック406において第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、ブロック404において第1のセンサーによって取得されたスキャンに基づいて、第2のセンサーによる対象領域の視界が、環境の中間領域内の1つ以上の物体によって遮蔽されるかどうかを判断することを伴い得る。例えば、図3Bに戻って参照すると、輪郭364によって示される環境の一部のスキャンは、矢印382aおよび382bと関連付けられた第2のセンサーが、中間領域344内の物体(例えば、デブリ、木、他の車両、道路標識、強い光源、無線信号塔、反射物体など)のために、対象領域314を見るのを遮蔽されていないことを示し得る。
[0129] いくつかの例では、ブロック406において第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、ブロック404において第1のセンサーによって取得されたスキャンに基づいて、第2のセンサーによる対象領域の視界が、環境の対象領域内の1つ以上の物体によって遮蔽されるかどうかを判断することを伴い得る。例えば、図3Bに戻って参照すると、輪郭364によって示される環境の一部のスキャンは、矢印382aおよび382bと関連付けられた第2のセンサーが、対象領域314内の物体(例えば、デブリ、他の車両、道路標識、強い光源、反射物体など)のために、対象領域314を見るのを遮蔽されていないことを示し得る。
[0130] いくつかの例では、ブロック406において第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、第2のセンサーによって取得された環境のスキャンにも基づく。例えば、方法400のシステムは、ブロック404において第1のセンサーによって取得されたスキャンに基づいて環境の特徴(例えば、移動物体、静止物体、車両、木など)を識別し得る。特徴は、例えば、対象領域内または対象領域の近くに含まれ得る。この例では、システムは、次いで、第2のセンサーによって取得された環境のスキャンも識別された特徴を示しているかどうか判断し得る。従って、この例では、システムは、少なくとも第2のセンサーによって取得されたスキャンも識別された特徴の存在を示していることに基づいて、第2のセンサーは、対象領域の十分にはっきりとした視界を有していることを決定し得る。
[0131] いくつかの例では、方法400は、対象領域の少なくとも一部を含む環境の一部の第2のスキャンを取得するために第1のセンサーを作動させることも伴い得る。これらの例では、ブロック406において第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、第2のスキャンにも基づく。
[0132] 第1の例では、第2のスキャンを取得するために第1のセンサーを作動させることは、ブロック404において第1のスキャンを取得した後、所定の期間の経過に応答して行われ得る。例えば、図3Bに戻って参照すると、方法400のシステムは、最初に、ブロック406において、矢印382aおよび382bと関連付けられた第2のセンサーが、対象領域314の十分にはっきりとした視界を有することを判断し得る。しかし、この例では、最初の判断が行われた(例えば、自動車が中間領域344に入り得る、第2のセンサーに干渉する背景放射が存在するようになり得る、など)後、対象領域314が第2のセンサーに対して遮蔽されるようになり得る。従って、この例では、所定の期間の経過後、方法400のシステムは、第2のセンサーが対象領域314の十分にはっきりとした視界を依然として有しているかどうかを判断するために第2のスキャンを取得し得る。一実施形態では、所定の期間は4秒であり得る。しかし、他の実施形態では、所定の期間は異なり得る。例えば、所定の期間は、自律走行車の環境、自律走行車によって実行されている操作(例えば、高速道路が関与する操作のための時間は、低速道路が関与する操作のための時間よりも少ない、など)、または任意の他の要因に基づいて変化し得る。
[0133] 第2の例では、第2のスキャンを取得するために第1のセンサーを作動させることは、第1のスキャンが(例えば、ブロック404において)第1のセンサーによって取得された後、方法400の車両が少なくとも閾値距離だけ移動したという判断に応答して行われ得る。例えば、図3Bに戻って参照すると、輪郭364によって示される第1のスキャンの後、車両300が閾値距離だけ移動した場合、第2のセンサーと対象領域314との間の中間領域344は変化し得る。この例では、第1のスキャンに基づいて以前は検出されなかった遮蔽が、変化した中間領域内に存在し得る。それに応じて、いくつかの実施形態では、方法400は、第1のセンサーがブロック404において第1のスキャンを取得した後、車両の位置における変化が閾値よりも大きいと判断すること、および第2のスキャンを取得するために第1のセンサーを応答して作動させることも伴い得る。一実施形態では、車両の位置における閾値変化は1メートルである。しかし、例えば、第1のセンサーおよび/または第2のセンサーのタイプ(またはFOV)、車両の環境などの、様々な要因に応じて、位置における他の閾値変化も可能である。
[0134] 第3の例では、第2のスキャンを取得するために第1のセンサーを作動させることは、第1のセンサーが、1つ以上の対象領域と関連付けられた環境の1つ以上の部分のスキャンを完了しているという判断に応答して行われ得る。例えば、図3Bに戻って参照すると、車両300は、複数の対象領域310、312、および314の識別を完了し得る。この例では、方法400は、ブロック404において、輪郭364(および対象領域314)と関連付けられた第1のスキャンを取得するために第1のセンサーを作動させること、および輪郭366(および対象領域310または312)と関連付けられた環境の他の部分のスキャンを取得するために第1のセンサーの視野角を調整することを伴い得る。次に、この例では、方法400は、次いで、第1のセンサーが3つ全部の対象領域310、312、314と関連した遮蔽を取り除くためにスキャンを完了していることを判断し得、それにより、輪郭364(および対象領域314)と関連付けられた環境の一部の第2のスキャンを取得するために第1のセンサーの視野角を調整し得る。従って、この例では、第1のセンサーが、他の対象領域および/または他のセンサーと関連した遮蔽を取り除くために他のスキャンの実行を完了した後、車両300は、第2のセンサーが対象領域314の十分にはっきりとした視界を依然として有しているかどうかを検証し得る。
[0135] いくつかの例では、ブロック406において第2のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、方法400の車両の速度が閾値速度よりも遅いという判断にも基づく。例えば、図3Bに戻って参照すると、車両300が閾値速度よりも高速で走行している場合、対象領域314と第2のセンサーとの間の中間領域344は急速に変化し得る。結果として、この例では、ブロック404において環境の一部(例えば、輪郭364)のスキャンが第1のセンサーによって取得された後、新しい遮蔽が存在するようになり得る。従って、一方では、方法400は、この例では、車両300が閾値速度よりも高速で走行しているという判断に少なくとも基づいて、第2のセンサーが対象領域314の十分にはっきりとした視界を有していないと判断し得る。他方では、方法400は、この例では、車両300が閾値速度よりも低速で走行しているという判断に少なくとも基づいて、第2のセンサーが対象領域314の十分にはっきりとした視界を有していると判断し得る。一実施形態では、閾値速度は0.1メートル/秒である。しかし、他の閾値速度も可能である。例えば、閾値速度は、他の可能性の中でとりわけ、第2のセンサーの構成(例えば、タイプ、分解能、FOV、など)、または環境内の物体の平均速度などの、様々な要因によって決まり得る。
[0136] ブロック408において、方法400は、第2のセンサーが対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために第2のセンサーを作動させることを伴う。例えば、図3Bに戻って参照すると、第2のセンサーが、矢印382aおよび382bによって示される環境の一部と関連付けられている場合、第2のセンサーが対象領域314を見るのを遮蔽されていないという判断(例えば、ブロック406などにおいて)に基づいて、対象領域314を監視するために第2のセンサーが割り当てられ得る。
[0137] いくつかの例では、方法400は、第2のセンサーからのデータに基づいて環境内の電磁干渉を判断することも伴い得る。これらの例では、ブロック408において対象領域を監視するために第2のセンサーを作動させることは、電磁干渉が閾値より少ないという判断にも基づき得る。例えば、第2のセンサーは、RADARセンサーであり得、RADARセンサーからのデータは、電磁干渉(例えば、別の車両に取り付けられた別のRADARセンサーから、環境内の背景雑音から、信号対雑音比など)を示し得る。この例では、電磁干渉は、第2のセンサーからのデータに基づいて、対象領域内の移動物体を検出する際に方法400のシステムの信頼性に影響を及ぼし得る。従って、この例では、方法400は、第2のセンサーによって検出された電磁干渉の評価にも基づいて、ブロック408において対象領域を監視するために、第2のセンサーを作動させることを伴い得る。いくつかの実施形態では、方法400のシステムは、環境内の放射源および/または雑音(すなわち、電磁干渉)を受動的にリッスンするために第2のセンサーを作動させるように構成され得る。追加または代替として、いくつかの実施形態では、方法400のシステムは、第2のセンサーが環境を能動的にスキャンしている間に、第2のセンサーからのデータに基づいて電磁干渉を検出するように構成され得る。
[0138] いくつかの例では、方法400は、第2のセンサーが対象領域の十分にはっきりとした視界を有していないという判断に少なくとも基づいて、移動物体が存在するかどうか対象領域を監視するために別のセンサーを作動させることも伴い得る。例えば、図3Bに戻って参照すると、矢印382aおよび382bと関連付けられた第2のセンサーが(例えば、背景放射からの干渉、第2のセンサーの見通し線に沿った障害物、環境内の反射物体などのために)対象領域314の十分にはっきりとした視界を有していないと方法400が判断した場合、方法400は、次いで、対象領域を監視するために、別のセンサーを割り当て得る。
[0139] 第1の例では、他のセンサーは、第1のセンサー自体であり得る。例えば、前述の例を続けると、方法400は、対象領域314の少なくとも一部を含む環境302の部分を継続してスキャンするために、輪郭364と関連付けられた第1のセンサーを割り当て得る。この例では、車両300が図3Aの矢印308によって示される左折操作を実行している間に、車両300は、第1のセンサーを継続して使用して、対象領域314を監視し得る。代替として、この例では、車両300は、第2のセンサー(または任意の他のセンサー)が対象領域314の十分にはっきりとした視界を有するまで、対象領域314を監視するために第1のセンサーを継続して作動させ得る。例えば、遮蔽が、第2のセンサーの見通し線に沿った(例えば、中間領域344または対象領域314内の)別の車両に起因する場合、第1のセンサーは、他の車両が第2のセンサーの見通し線から出るまで、継続して対象領域314を監視し得る。
[0140] 第2の例では、他のセンサーは、第1のセンサーおよび第2のセンサー以外の第3のセンサーであり得る。例えば、方法400のシステムは、対象領域と重なり合うFOVを有する他のセンサーを含み得る。例として図1Eに戻って参照すると、方法400のシステムは、対象領域を監視するために、輪郭162、166などと関連付けられたLIDARセンサーのいずれかを利用し得る。別の例として、図2に戻って参照すると、方法400のシステムは、対象領域と重なり合うFOVを同様に有する、カメラなどの、センサーシステム204内のセンサーのいずれか(第1のセンサーおよび第2のセンサー以外)を識別し得る。さらに別の例として、図3Bに戻って参照すると、車両300は、矢印382a〜382bと関連付けられた第2のセンサーが(第2のセンサーの位置決めなどに起因して)対象領域310または312の十分にはっきりとした視界を有していないと判断し得る。この例では、方法400は、次いで、矢印384a〜384bと関連付けられた第3のセンサー(または任意の他のセンサー)が対象領域310または312の十分にはっきりとした視界を有しているかどうかを判断し得、次いで、例えば、それぞれの対象領域を監視するために第3のセンサーを割り当て得る。それに応じて、いくつかの実施形態では、方法400は、第3のセンサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断すること、およびその判断に基づいて、移動物体が存在するかどうか対象領域を監視するために第3のセンサーを作動させることも伴い得る。
[0141] いくつかの例では、方法400は、移動物体が存在するかどうか監視すべき環境の第2の対象領域を識別すること、第2の対象領域の少なくとも一部を含む環境の第2の部分のスキャンを取得するために第1のセンサーを作動させること、および第1のセンサーによって取得された環境の第2の部分のスキャンに少なくとも基づいて、第2の対象領域を監視するために特定のセンサーを選択することも伴い得る。例えば、図3Bに戻って参照すると、車両300は、輪郭364と関連付けられた第1のスキャンを取得して、対象領域314を監視するために矢印382a〜382bと関連付けられた第2のセンサーを割り当て得る。次に、この例では、車両300は、第1のセンサーの視野角を第2の対象領域312に向けて調整して、第2の対象領域312を含む環境の第2の部分の第2のスキャンを取得し得る。次に、この例では、車両300は、前述の議論を踏まえて、特定のセンサーが第2の対象領域312の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、第2の対象領域312を監視するために矢印384a〜384bと関連付けられた特定のセンサーを選択し得る。
[0142] 図5は、実施形態例に従って構成されたコンピュータ可読媒体を示す。いくつかの実施形態では、システム例は、1つ以上のプロセッサ、1つ以上の形式のメモリ、1つ以上の入力装置/インタフェース、1つ以上の出力装置/インタフェース、および1つ以上のプロセッサによって実行される場合に、前述した、様々な機能、タスク、機能性などをシステムに実行させるマシン可読命令を含み得る。
[0143] 前述したとおり、いくつかの実施形態では、開示した技法(例えば、方法400など)は、コンピュータ可読記憶媒体上にマシン可読フォーマットで、または他の媒体もしくは製造業者の製品上に、コード化されたコンピュータプログラム命令(例えば、車両200の命令216など)によって実装され得る。図5は、本明細書で開示する少なくともいくつかの実施形態に従って配列された、コンピューティング装置上でコンピュータプロセスを実行するためのコンピュータプログラムを含むコンピュータプログラム製品例の概念部分図を示す概略図である。
[0144] 一実施形態では、コンピュータプログラム製品例500は、信号担持媒体502を使用して提供される。信号担持媒体502は、1つ以上のプロセッサによって実行される場合に、図1〜図4に関連して前述した機能または機能の一部を提供し得る1つ以上のプログラミング命令504を含み得る。いくつかの実装では、信号担持媒体502は、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリなどであるが、それらに限定されない、持続性コンピュータ可読媒体506であり得る。いくつかの実装では、信号担持媒体502は、メモリ、読取り/書込み(R/W)CD、R/W DVDなどであるが、それらに限定されない、コンピュータ記録可能媒体508であり得る。いくつかの実施態様では、信号担持媒体502は、通信媒体510(例えば、光ファイバーケーブル、導波管、有線通信リンクなど)であり得る。従って、例えば、信号担持媒体502は、無線形式の通信媒体510によって伝達され得る。
[0145] 1つ以上のプログラミング命令504は、例えば、コンピュータ実行可能および/または論理実装命令であり得る。いくつかの例では、コンピューティング装置は、コンピュータ可読媒体506、コンピュータ記録可能媒体508、および/または通信媒体510の1つ以上によってコンピューティング装置に伝達されたプログラミング命令504に応答して、様々な操作、機能、または動作を提供するように構成され得る。
[0146] コンピュータ可読媒体506は、相互に遠隔に配置され得る、複数のデータ記憶装置要素間で分散もされ得る。格納された命令の一部または全部を実行するコンピューティング装置は、外部コンピュータ、またはスマートフォン、タブレット装置、パーソナルコンピュータ、ウェアラブルデバイスなどの、モバイルコンピューティングプラットフォームでもよい。代替として、格納された命令の一部または全部を実行するコンピューティング装置は、サーバーなどの、遠隔に配置されたコンピュータシステムでもよい。
V.結論
[0147] 例中、本明細書のシステム、装置および方法は、環境の対象領域に関してセンサーに対する遮蔽を取り除いて、センサーが、移動物体が存在するかどうか対象領域を監視できるかどうかを評価できるようにし得る。一例では、別のセンサーによって取得された環境のスキャンに少なくとも基づいて、センサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断することを伴う方法が提供される。さらに、本明細書の例示的な実施形態は、他の可能性の中でとりわけ、センサーの見通し線に沿った物体の存在、対象領域内の物体の存在、対象領域の近くもしくは対象領域内の反射物体の存在、環境内の背景雑音、および/または環境内の他の送信機/センサーからの干渉などの、センサーが対象領域の十分にはっきりとした視界を有しているかどうかを判断するための様々な要因の評価を伴い得る。さらに、本明細書の例示的な実施形態は、特定のセンサーが、移動物体が存在するかどうか1つ以上の特定の対象領域を監視するのに適しているかどうかの判断に少なくとも基づいて、環境の1つ以上の特定の対象領域を監視するために特定のセンサーを割り当てることを伴い得る。
[0148] 本明細書で説明する配列は例示のみを目的としていることを理解すべきである。そのため、当業者は、他の配列および他の要素(例えば、マシン、インタフェース、機能、順番、および機能のグループ化など)が代わりに使用でき、いくつかの要素は、所望の結果に従って完全に省略され得ることを理解するであろう。さらに、説明される要素の多くは、個別もしくは分散構成要素として、または任意の適切な組み合わせおよび位置で、他の構成要素と組み合わせて、実装され得るか、または独立構造として説明される他の構造要素が組み合わされ得る、機能エンティティである。
[0149] 本明細書では様々な態様および実施形態が開示されているが、当業者には他の態様および実施形態が明らかであろう。本明細書で開示する様々な態様および実施形態は、例示のためであり、制限することを意図しておらず、真の範囲は以下のクレームで、かかるクレームが権利を与えられる同等物の完全な範囲と共に、示されている。本明細書で使用する用語は、特定の実施形態を説明するためだけであり、制限することを意図していないことも理解されたい。

Claims (20)

  1. 移動物体が存在するかどうか監視すべき自律走行車の環境の対象領域を識別することと、
    前記対象領域の少なくとも一部と、前記自律走行車と前記対象領域との間の中間領域とを含む前記環境の一部のスキャンを取得するために前記自律走行車上の第1のセンサーを作動させることと、
    前記第1のセンサーによって取得された前記スキャンに少なくとも基づいて、前記自律走行車上の第2のセンサーが、移動物体が存在するかどうか前記対象領域を監視するために前記対象領域の十分にはっきりとした視界を有しているかどうか、判断することと、
    前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか前記対象領域を監視するために前記第2のセンサーを作動させることと
    を含む、方法。
  2. 前記第1のセンサーの視野が前記対象領域の前記少なくとも一部を含むように、前記第1のセンサーの視野角を調整すること
    をさらに含む、請求項1に記載の方法。
  3. 前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、
    前記第1のセンサーによって取得された前記スキャンに基づいて、前記第2のセンサーによる前記対象領域の視界が、前記環境の前記中間領域内の1つ以上の物体によって遮蔽されているかどうかを判断すること
    を含む、請求項1に記載の方法。
  4. 前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、
    前記第1のセンサーによって取得された前記スキャンに基づいて、前記第2のセンサーによる前記対象領域の視界が、前記環境の前記対象領域内の1つ以上の物体によって遮蔽されているかどうかを判断すること
    を含む、請求項1に記載の方法。
  5. 前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、前記第2のセンサーによって取得された前記環境のスキャンにも基づく、請求項1に記載の方法。
  6. 前記第1のセンサーによって取得された前記スキャンが第1のスキャンであり、前記方法は、
    前記対象領域の前記少なくとも一部を含む前記環境の前記一部の第2のスキャンを取得するために前記第1のセンサーを作動させることをさらに含み、前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、前記第2のスキャンにも基づく、
    請求項1に記載の方法。
  7. 前記第2のスキャンを取得するために前記第1のセンサーを作動させることが、前記第1のスキャン後、所定の期間の経過に応答し行われる、請求項6に記載の方法。
  8. 前記第1のセンサーが前記第1のスキャンを取得した後、前記自律走行車の位置における変化が閾値よりも大きいと判断することをさらに含み、前記第2のスキャンを取得するために前記第1のセンサーを作動させることが、前記判断に応答して行われる、請求項6に記載の方法。
  9. 移動物体が存在するかどうか前記対象領域を監視するために前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することは、前記自律走行車の速度が閾値速度よりも遅いという判断にも基づく、請求項1に記載の方法。
  10. 前記第2のセンサーからのデータに基づいて、前記環境内の電磁干渉を判断することをさらに含み、前記対象領域を監視するために前記第2のセンサーを作動させることは、前記電磁干渉が閾値よりも少ないという判断にも基づく、請求項1に記載の方法。
  11. 前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有していないという判断に少なくとも基づいて、移動物体が存在するかどうか前記対象領域を監視するために前記自律走行車上の別のセンサーを作動させること
    をさらに含む、請求項1に記載の方法。
  12. 前記他のセンサーは前記第1のセンサーである、請求項11に記載の方法。
  13. 前記自律走行車上の第3のセンサーが、移動物体が存在するかどうか前記対象領域を監視するために前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することと、
    前記第3のセンサーが前記対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか前記対象領域を監視するために前記第3のセンサーを作動させることと
    をさらに含む、請求項11に記載の方法。
  14. 移動物体が存在するかどうか監視すべき前記自律走行車の前記環境の第2の対象領域を識別することと、
    前記第2の対象領域の少なくとも一部を含む前記環境の第2の部分のスキャンを取得するために前記第1のセンサーを作動させることと、
    前記第1のセンサーによって取得された前記環境の前記第2の部分の前記スキャンに少なくとも基づいて、移動物体が存在するかどうか前記環境の前記第2の対象領域を監視するために前記自律走行車上の特定のセンサーを選択することと
    をさらに含む、請求項1に記載の方法。
  15. 車両であって、
    前記車両の環境をスキャンするように構成された第1のセンサーと、
    前記車両の前記環境をスキャンするように構成された第2のセンサーと、
    1つ以上のプロセッサと、
    前記車両に、
    移動物体が存在するかどうか監視すべき前記車両の前記環境の対象領域を識別することと、
    前記対象領域の少なくとも一部と、前記車両と前記対象領域との間の中間領域とを含む前記環境の一部のスキャンを取得するために前記第1のセンサーを作動させることと、
    前記第1のセンサーによって取得された前記スキャンに少なくとも基づいて、前記第2のセンサーが、移動物体が存在するかどうか前記対象領域を監視するために前記対象領域の十分にはっきりとした視界を有しているかどうかを判断することと、
    前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか前記対象領域を監視するために前記第2のセンサーを作動させることと
    を実行させるために、前記1つ以上プロセッサによって実行可能な命令を格納するように構成されたデータ記憶装置と
    を備える、車両。
  16. 前記第1のセンサーが光検知測距(LIDAR)センサーであり、前記第2のセンサーがレーダー(RADAR)センサーである、請求項15に記載の車両。
  17. 前記第1のセンサーが第1の空間分解能を有し、前記第2のセンサーが第2の空間分解能を有する、請求項15に記載の車両。
  18. 内部に格納された命令を有する持続性コンピュータ可読媒体であって、前記命令が、コンピューティング装置によって実行された場合に、前記コンピューティング装置に機能を実行させ、前記機能は、
    移動物体が存在するかどうか監視すべき自律走行車の環境の対象領域を識別することと、
    前記対象領域の少なくとも一部と、前記自律走行車と前記対象領域との間の中間領域とを含む前記環境の一部のスキャンを取得するために前記自律走行車上の第1のセンサーを作動させることと、
    前記第1のセンサーによって取得された前記スキャンに少なくとも基づいて、前記自律走行車上の第2のセンサーが、移動物体が存在するかどうか前記対象領域を監視するために前記対象領域の十分にはっきりとした視界を有しているかどうか判断することと、
    前記第2のセンサーが前記対象領域の十分にはっきりとした視界を有しているという判断に少なくとも基づいて、移動物体が存在するかどうか前記対象領域を監視するために前記第2のセンサーを作動させることと
    を含む、持続性コンピュータ可読媒体。
  19. 前記コンピューティング装置が前記自律走行車内に配置され、前記機能は、
    第1の動作命令を前記第1のセンサーに、第2の動作命令を前記第2のセンサーに提供すること
    をさらに含む、請求項18に記載の持続性コンピュータ可読媒体。
  20. 前記コンピューティング装置が前記自律走行車の外部に配置され、前記機能は、
    無線通信インタフェースを経由して、第1の動作命令を前記第1のセンサーに、第2の動作命令を前記第2のセンサーに提供すること
    をさらに含む、請求項18に記載の持続性コンピュータ可読媒体。
JP2018518604A 2015-10-21 2016-10-19 センサー遮蔽を取り除くための方法およびシステム Active JP6600089B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/919,667 2015-10-21
US14/919,667 US10267908B2 (en) 2015-10-21 2015-10-21 Methods and systems for clearing sensor occlusions
PCT/US2016/057562 WO2017070127A1 (en) 2015-10-21 2016-10-19 Methods and systems for clearing sensor occlusions

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019182885A Division JP7102380B2 (ja) 2015-10-21 2019-10-03 センサー遮蔽を取り除くための方法およびシステム

Publications (2)

Publication Number Publication Date
JP2019502974A true JP2019502974A (ja) 2019-01-31
JP6600089B2 JP6600089B2 (ja) 2019-10-30

Family

ID=58557981

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018518604A Active JP6600089B2 (ja) 2015-10-21 2016-10-19 センサー遮蔽を取り除くための方法およびシステム
JP2019182885A Active JP7102380B2 (ja) 2015-10-21 2019-10-03 センサー遮蔽を取り除くための方法およびシステム
JP2021078930A Pending JP2021121541A (ja) 2015-10-21 2021-05-07 センサー遮蔽を取り除くための方法およびシステム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2019182885A Active JP7102380B2 (ja) 2015-10-21 2019-10-03 センサー遮蔽を取り除くための方法およびシステム
JP2021078930A Pending JP2021121541A (ja) 2015-10-21 2021-05-07 センサー遮蔽を取り除くための方法およびシステム

Country Status (10)

Country Link
US (3) US10267908B2 (ja)
EP (1) EP3347784A4 (ja)
JP (3) JP6600089B2 (ja)
KR (4) KR102063111B1 (ja)
CN (2) CN112904343B (ja)
AU (3) AU2016341202B2 (ja)
CA (1) CA3002537A1 (ja)
HK (1) HK1257317A1 (ja)
SG (1) SG11201802882TA (ja)
WO (1) WO2017070127A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535407A (ja) * 2017-09-28 2020-12-03 ウェイモ エルエルシー 同期スピニングlidarおよびローリングシャッターカメラシステム
KR20210102042A (ko) * 2020-02-11 2021-08-19 주식회사 라이드플럭스 기 설정된 영역정보를 이용한 자율 주행 차량의 제어 방법, 장치 및 컴퓨터프로그램
JP2021128116A (ja) * 2020-02-17 2021-09-02 株式会社デンソー 車載用の計測装置ユニットおよび車載用の計測装置ユニットにおける統合データ生成方法
JP2022041923A (ja) * 2020-08-31 2022-03-11 株式会社日立製作所 接続されたデータ分析プラットフォームを用いた車両経路指定
JP2022524316A (ja) * 2019-03-14 2022-05-02 ウェイモ エルエルシー センサハウジングの障害物を検出するための方法およびシステム
JP2022542041A (ja) * 2019-08-06 2022-09-29 イベオ オートモーティブ システムズ ゲーエムベーハー 2つのライダー測定装置を有するライダー測定システム
US11531355B2 (en) 2020-01-21 2022-12-20 Rideflux Inc. Method, apparatus, and computer program for controlling autonomous vehicle using preset area information
JP7308591B2 (ja) 2017-12-19 2023-07-14 株式会社ダイヘン 移動体

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4516515B2 (ja) * 2005-11-30 2010-08-04 株式会社日立製作所 形状制御装置、及び形状制御方法
US10267908B2 (en) * 2015-10-21 2019-04-23 Waymo Llc Methods and systems for clearing sensor occlusions
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
US11106030B2 (en) 2016-05-11 2021-08-31 Texas Instruments Incorporated Optical distance measurement system using solid state beam steering
KR101784611B1 (ko) * 2016-06-09 2017-11-06 재단법인대구경북과학기술원 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법
US10604120B2 (en) 2016-07-07 2020-03-31 Nio Usa, Inc. Sensor cleaning devices and systems
US10821987B2 (en) * 2016-07-20 2020-11-03 Ford Global Technologies, Llc Vehicle interior and exterior monitoring
US10471904B2 (en) * 2016-08-08 2019-11-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adjusting the position of sensors of an automated vehicle
JP6698479B2 (ja) * 2016-09-06 2020-05-27 シャープ株式会社 自律走行装置
US10146223B1 (en) * 2016-10-21 2018-12-04 Waymo Llc Handling sensor occlusions for autonomous vehicles
US10515390B2 (en) * 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
US11151447B1 (en) * 2017-03-13 2021-10-19 Zoox, Inc. Network training process for hardware definition
WO2018170074A1 (en) 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
JP6914065B2 (ja) * 2017-03-17 2021-08-04 シャープ株式会社 障害物検出装置、走行装置、障害物検出システムおよび障害物検出方法
BE1024929B1 (nl) 2017-05-09 2018-08-13 Cnh Industrial Belgium Nv Verbeteringen in of met betrekking tot voertuig/aanhangwagen-combinaties
US20180372875A1 (en) * 2017-06-27 2018-12-27 Uber Technologies, Inc. Sensor configuration for an autonomous semi-truck
US10866313B2 (en) * 2017-07-07 2020-12-15 Waymo Llc Vehicle sensor synchronization using an external clock source
EP3667232A4 (en) * 2017-08-09 2021-05-05 Pioneer Corporation DATA STRUCTURE OF A COUNTRY FEATURE
US10816666B2 (en) * 2017-11-21 2020-10-27 Magna Electronics Inc. Vehicle sensing system with calibration/fusion of point cloud partitions
KR102472768B1 (ko) * 2017-11-23 2022-12-01 삼성전자주식회사 자율 주행 차량을 위한 오브젝트 검출 방법 및 장치
US10634772B2 (en) * 2017-11-27 2020-04-28 Atieva, Inc. Flash lidar with adaptive illumination
US20190204845A1 (en) * 2017-12-29 2019-07-04 Waymo Llc Sensor integration for large autonomous vehicles
US10994748B2 (en) * 2018-02-28 2021-05-04 Nissan North America, Inc. Transportation network infrastructure for autonomous vehicle decision making
US10884115B2 (en) * 2018-03-09 2021-01-05 Waymo Llc Tailoring sensor emission power to map, vehicle state, and environment
US10928507B2 (en) * 2018-06-13 2021-02-23 GM Global Technology Operations LLC Apparatus and method for improved radar beamforming
US10706724B2 (en) 2018-08-01 2020-07-07 GM Global Technology Operations LLC Controlling articulating sensors of an autonomous vehicle
US11186234B2 (en) * 2018-10-15 2021-11-30 Cyngn, Inc. Vehicle sensor systems
EP3644095A1 (en) * 2018-10-23 2020-04-29 Veoneer Sweden AB Object detection system
CN109459734B (zh) * 2018-10-30 2020-09-11 百度在线网络技术(北京)有限公司 一种激光雷达定位效果评估方法、装置、设备及存储介质
CN113287031A (zh) * 2018-11-02 2021-08-20 伟摩有限责任公司 车辆的多个旋转传感器的同步
US10976420B2 (en) * 2018-11-02 2021-04-13 Waymo Llc Methods and systems for detecting sensor occlusions
US10768307B2 (en) * 2018-12-31 2020-09-08 Lyft, Inc. Systems and methods for estimating vehicle speed based on radar
US11280897B2 (en) * 2019-03-31 2022-03-22 Waymo Llc Radar field of view extensions
US11226624B2 (en) * 2019-04-11 2022-01-18 Motorola Solutions, Inc. System and method for enabling a 360-degree threat detection sensor system to monitor an area of interest surrounding a vehicle
US20200341111A1 (en) * 2019-04-24 2020-10-29 GM Global Technology Operations LLC Method and apparatus for radar detection confirmation
US11242098B2 (en) * 2019-07-26 2022-02-08 Waymo Llc Efficient autonomous trucks
WO2021124110A1 (en) 2019-12-17 2021-06-24 Foretellix Ltd. System and methods thereof for monitoring proper behavior of an autonomous vehicle
WO2021154201A1 (en) * 2020-01-27 2021-08-05 Hewlett-Packard Development Company, L.P. Detection fields of view
US11827352B2 (en) * 2020-05-07 2023-11-28 Skydio, Inc. Visual observer for unmanned aerial vehicles
US11608055B2 (en) 2020-06-04 2023-03-21 Nxp Usa, Inc. Enhanced autonomous systems with sound sensor arrays
US11551429B2 (en) 2020-06-05 2023-01-10 Uatc, Llc Photorealistic image simulation with geometry-aware composition
CN111522020A (zh) * 2020-06-23 2020-08-11 山东亦贝数据技术有限公司 一种园区活动要素混合定位系统及方法
JP2022074732A (ja) * 2020-11-05 2022-05-18 パナソニックホールディングス株式会社 自己位置推定装置および移動体
EP3995922B1 (en) 2020-11-10 2023-08-23 Yandex Self Driving Group Llc Method and system for providing perception scan data for controlling a self-driving vehicle
CN112455353A (zh) * 2021-01-07 2021-03-09 蔚来汽车科技(安徽)有限公司 一种支架、支架总成、车顶装置以及车辆
DE102021206983A1 (de) * 2021-07-02 2023-01-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Unterstützen einer Umfelderkennung für ein automatisiert fahrendes Fahrzeug
USD1014398S1 (en) 2021-12-23 2024-02-13 Waymo Llc Vehicle
USD1018337S1 (en) 2021-12-23 2024-03-19 Waymo Llc Sensor assembly
US12021107B2 (en) 2022-06-03 2024-06-25 Lg Innotek Co., Ltd. Systems and methods for breakdown voltage correction in Geiger-mode avalanche photodiode (APD) focal plane arrays (FPA)
DE102022206547A1 (de) * 2022-06-28 2023-12-28 Zf Friedrichshafen Ag Automatisiert betreibbares Fahrzeug, insbesondere Shuttle

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651904U (ja) * 1992-12-18 1994-07-15 株式会社小松製作所 走行車両の衝突防止装置
JPH11142168A (ja) * 1997-11-07 1999-05-28 Nissan Motor Co Ltd 環境認識装置
JPH11258339A (ja) * 1997-12-16 1999-09-24 Caterpillar Inc 距離選択検出のための複数センサーを用いる障害物検出方法及びその装置
JP2000330636A (ja) * 1999-05-21 2000-11-30 Komatsu Ltd 車両の無人走行システム
JP2001063500A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 車両周辺障害物監視装置
DE10149115A1 (de) * 2001-10-05 2003-04-17 Bosch Gmbh Robert Objekterfassungsvorrichtung
JP2005263028A (ja) * 2004-03-18 2005-09-29 Ichikoh Ind Ltd 自動車のアウトサイドミラー
DE102005009702A1 (de) * 2005-03-03 2006-09-07 Robert Bosch Gmbh Abstandsmessvorrichtung und Verfahren zur Funktionsprüfung einer Abstandsmessung
DE102005013146A1 (de) * 2005-03-22 2006-09-28 Robert Bosch Gmbh Ortungssystem mit Blindheitserkennung
JP2006337216A (ja) * 2005-06-03 2006-12-14 Tcm Corp 移動体用人検知器
JP2008009929A (ja) * 2006-06-30 2008-01-17 Secom Co Ltd 移動ロボット
JP2008129899A (ja) * 2006-11-22 2008-06-05 Sharp Corp 自走式移動体
US20120194674A1 (en) * 2011-01-27 2012-08-02 Thermal Matrix USA, Inc. Method and System of Progressive Analysis for Assessment of Occluded Data and Redendant Analysis for Confidence Efficacy of Non-Occluded Data
JP2012202990A (ja) * 2011-03-25 2012-10-22 Young Wee Jay 車両の物体距離認識システム及び作動方法{vehicularobjectrangingsystemandmethodofoperation}
US8473171B2 (en) * 2008-10-09 2013-06-25 GM Global Technology Operations LLC Apparatus and method for optimizing a vehicle collision preparation response
JP2014515527A (ja) * 2011-06-01 2014-06-30 グーグル・インク センサー場の選択
JP2014182590A (ja) * 2013-03-19 2014-09-29 Ihi Aerospace Co Ltd 移動体の環境地図生成制御装置、移動体、及び移動体の環境地図生成方法
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
WO2017070127A1 (en) * 2015-10-21 2017-04-27 Google Inc. Methods and systems for clearing sensor occlusions

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6250148B1 (en) * 1998-01-07 2001-06-26 Donnelly Corporation Rain sensor mount for use in a vehicle
US7498970B2 (en) * 2004-09-15 2009-03-03 Panasonic Corporation Monitor
US7493202B2 (en) * 2004-11-12 2009-02-17 Takata Corporation Vehicle safety control system by image processing
EP1853937A2 (en) * 2005-02-10 2007-11-14 Systems Laboratory Inc. Automotive Automotive radar system with guard beam
US8103442B2 (en) * 2006-04-28 2012-01-24 Panasonic Corporation Navigation device and its method
DE102006047637A1 (de) * 2006-10-09 2008-04-10 Robert Bosch Gmbh Verfahren zum Abtasten eines Umfeld eines Fahrzeugs
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
EP2148220B1 (en) * 2008-07-24 2017-08-30 Magneti Marelli S.p.A. A motor-vehicle driving assistance system based on radar sensors for detecting the presence of obstacles in an area behind and/or beside the vehicle, particularly for parking assistance
US8165796B2 (en) 2008-09-05 2012-04-24 Robert Bosch Gmbh Collision avoidance system and method
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
US8976061B2 (en) * 2010-03-05 2015-03-10 Sazzadur Chowdhury Radar system and method of manufacturing same
US8692980B2 (en) * 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
WO2012068064A1 (en) 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
DE102012203209A1 (de) * 2011-03-02 2012-09-06 Continental Teves Ag & Co. Ohg Intelligente Fahrzeugsensoreinrichtung
US9620017B2 (en) * 2011-12-14 2017-04-11 Robert Bosch Gmbh Vehicle merge assistance system and method
US9145140B2 (en) 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
US8712624B1 (en) 2012-04-06 2014-04-29 Google Inc. Positioning vehicles to improve quality of observations at intersections
US9626599B2 (en) * 2012-04-09 2017-04-18 GM Global Technology Operations LLC Reconfigurable clear path detection system
ES2567413T3 (es) 2012-05-16 2016-04-22 Heraeus Medical Gmbh Cemento óseo en forma de pasta
US20130321627A1 (en) 2012-05-31 2013-12-05 John C. Turn, JR. Road departure sensing and intelligent driving systems and methods
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US8825371B2 (en) * 2012-12-19 2014-09-02 Toyota Motor Engineering & Manufacturing North America, Inc. Navigation of on-road vehicle based on vertical elements
JP6032034B2 (ja) * 2013-02-05 2016-11-24 日産自動車株式会社 物体検知装置
JP2014154125A (ja) * 2013-02-14 2014-08-25 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
US9069080B2 (en) 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
US9834207B2 (en) * 2014-04-15 2017-12-05 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects
US9733348B2 (en) * 2014-07-03 2017-08-15 GM Global Technology Operations LLC Vehicle radar with beam adjustment
US20160231746A1 (en) * 2015-02-06 2016-08-11 Delphi Technologies, Inc. System And Method To Operate An Automated Vehicle
KR20160115448A (ko) * 2015-03-27 2016-10-06 주식회사 만도 차량의 운전 보조 시스템 및 운전 보조 방법

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651904U (ja) * 1992-12-18 1994-07-15 株式会社小松製作所 走行車両の衝突防止装置
JPH11142168A (ja) * 1997-11-07 1999-05-28 Nissan Motor Co Ltd 環境認識装置
JPH11258339A (ja) * 1997-12-16 1999-09-24 Caterpillar Inc 距離選択検出のための複数センサーを用いる障害物検出方法及びその装置
JP2000330636A (ja) * 1999-05-21 2000-11-30 Komatsu Ltd 車両の無人走行システム
JP2001063500A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 車両周辺障害物監視装置
DE10149115A1 (de) * 2001-10-05 2003-04-17 Bosch Gmbh Robert Objekterfassungsvorrichtung
JP2005505074A (ja) * 2001-10-05 2005-02-17 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 対象検出装置
JP2005263028A (ja) * 2004-03-18 2005-09-29 Ichikoh Ind Ltd 自動車のアウトサイドミラー
DE102005009702A1 (de) * 2005-03-03 2006-09-07 Robert Bosch Gmbh Abstandsmessvorrichtung und Verfahren zur Funktionsprüfung einer Abstandsmessung
DE102005013146A1 (de) * 2005-03-22 2006-09-28 Robert Bosch Gmbh Ortungssystem mit Blindheitserkennung
JP2006337216A (ja) * 2005-06-03 2006-12-14 Tcm Corp 移動体用人検知器
JP2008009929A (ja) * 2006-06-30 2008-01-17 Secom Co Ltd 移動ロボット
JP2008129899A (ja) * 2006-11-22 2008-06-05 Sharp Corp 自走式移動体
US8473171B2 (en) * 2008-10-09 2013-06-25 GM Global Technology Operations LLC Apparatus and method for optimizing a vehicle collision preparation response
US20120194674A1 (en) * 2011-01-27 2012-08-02 Thermal Matrix USA, Inc. Method and System of Progressive Analysis for Assessment of Occluded Data and Redendant Analysis for Confidence Efficacy of Non-Occluded Data
JP2012202990A (ja) * 2011-03-25 2012-10-22 Young Wee Jay 車両の物体距離認識システム及び作動方法{vehicularobjectrangingsystemandmethodofoperation}
JP2014515527A (ja) * 2011-06-01 2014-06-30 グーグル・インク センサー場の選択
JP2014182590A (ja) * 2013-03-19 2014-09-29 Ihi Aerospace Co Ltd 移動体の環境地図生成制御装置、移動体、及び移動体の環境地図生成方法
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
WO2017070127A1 (en) * 2015-10-21 2017-04-27 Google Inc. Methods and systems for clearing sensor occlusions

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535407A (ja) * 2017-09-28 2020-12-03 ウェイモ エルエルシー 同期スピニングlidarおよびローリングシャッターカメラシステム
JP7308591B2 (ja) 2017-12-19 2023-07-14 株式会社ダイヘン 移動体
JP2022524316A (ja) * 2019-03-14 2022-05-02 ウェイモ エルエルシー センサハウジングの障害物を検出するための方法およびシステム
JP7227391B2 (ja) 2019-03-14 2023-02-21 ウェイモ エルエルシー センサハウジングの障害物を検出するための方法およびシステム
JP2022542041A (ja) * 2019-08-06 2022-09-29 イベオ オートモーティブ システムズ ゲーエムベーハー 2つのライダー測定装置を有するライダー測定システム
JP7323738B2 (ja) 2019-08-06 2023-08-09 マイクロビジョン,インク. 2つのライダー測定装置を有するライダー測定システム
US11531355B2 (en) 2020-01-21 2022-12-20 Rideflux Inc. Method, apparatus, and computer program for controlling autonomous vehicle using preset area information
KR102364616B1 (ko) * 2020-02-11 2022-02-18 주식회사 라이드플럭스 기 설정된 영역정보를 이용한 자율 주행 차량의 제어 방법, 장치 및 컴퓨터프로그램
KR20210102042A (ko) * 2020-02-11 2021-08-19 주식회사 라이드플럭스 기 설정된 영역정보를 이용한 자율 주행 차량의 제어 방법, 장치 및 컴퓨터프로그램
JP2021128116A (ja) * 2020-02-17 2021-09-02 株式会社デンソー 車載用の計測装置ユニットおよび車載用の計測装置ユニットにおける統合データ生成方法
JP7283413B2 (ja) 2020-02-17 2023-05-30 株式会社デンソー 車載用の計測装置ユニットおよび車載用の計測装置ユニットにおける統合データ生成方法
JP2022041923A (ja) * 2020-08-31 2022-03-11 株式会社日立製作所 接続されたデータ分析プラットフォームを用いた車両経路指定
JP7181354B2 (ja) 2020-08-31 2022-11-30 株式会社日立製作所 接続されたデータ分析プラットフォームを用いた車両経路指定

Also Published As

Publication number Publication date
KR20200083668A (ko) 2020-07-08
CN108292135B (zh) 2021-03-09
JP7102380B2 (ja) 2022-07-19
AU2016341202A1 (en) 2018-05-10
CN112904343A (zh) 2021-06-04
US20190018131A1 (en) 2019-01-17
AU2020200989A1 (en) 2020-02-27
KR20210084685A (ko) 2021-07-07
US10267908B2 (en) 2019-04-23
WO2017070127A1 (en) 2017-04-27
AU2016341202B2 (en) 2019-11-14
CN108292135A (zh) 2018-07-17
US20170115387A1 (en) 2017-04-27
US11249182B2 (en) 2022-02-15
KR102130630B1 (ko) 2020-07-06
AU2022200408A1 (en) 2022-02-17
HK1257317A1 (zh) 2019-10-18
SG11201802882TA (en) 2018-05-30
KR20200003285A (ko) 2020-01-08
AU2022200408B2 (en) 2023-05-11
KR20180061375A (ko) 2018-06-07
KR102273527B1 (ko) 2021-07-07
AU2020200989B2 (en) 2021-11-25
CN112904343B (zh) 2024-05-17
CA3002537A1 (en) 2017-04-27
KR102063111B1 (ko) 2020-01-08
JP6600089B2 (ja) 2019-10-30
JP2021121541A (ja) 2021-08-26
US20220128681A1 (en) 2022-04-28
KR102399363B1 (ko) 2022-05-18
EP3347784A1 (en) 2018-07-18
JP2020024212A (ja) 2020-02-13
EP3347784A4 (en) 2019-04-17

Similar Documents

Publication Publication Date Title
JP6600089B2 (ja) センサー遮蔽を取り除くための方法およびシステム
JP7041236B2 (ja) 長距離操縦可能lidarシステム
JP7266064B2 (ja) 自律乗物の知覚および計画のためのレーダによって生成される占有グリッド
JP5890585B2 (ja) 自律モードで運転するよう構成された車両および該車両を制御する方法
JP5857364B2 (ja) 車両横方向レーン位置決め制御

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180726

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R150 Certificate of patent or registration of utility model

Ref document number: 6600089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250