JP7013284B2 - 移動体挙動予測装置 - Google Patents

移動体挙動予測装置 Download PDF

Info

Publication number
JP7013284B2
JP7013284B2 JP2018042742A JP2018042742A JP7013284B2 JP 7013284 B2 JP7013284 B2 JP 7013284B2 JP 2018042742 A JP2018042742 A JP 2018042742A JP 2018042742 A JP2018042742 A JP 2018042742A JP 7013284 B2 JP7013284 B2 JP 7013284B2
Authority
JP
Japan
Prior art keywords
unit
moving body
prediction
vehicle
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018042742A
Other languages
English (en)
Other versions
JP2019159535A (ja
Inventor
昌義 石川
浩朗 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2018042742A priority Critical patent/JP7013284B2/ja
Priority to PCT/JP2019/008009 priority patent/WO2019172104A1/ja
Priority to DE112019000325.9T priority patent/DE112019000325T5/de
Publication of JP2019159535A publication Critical patent/JP2019159535A/ja
Application granted granted Critical
Publication of JP7013284B2 publication Critical patent/JP7013284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、車両の周囲の移動体の挙動を予測する移動体挙動予測装置に関する。
従来から車両周囲の環境状態を推定する車両環境推定装置に関する発明が知られている(下記特許文献1を参照)。特許文献1に記載された発明は、死角領域を移動する移動体などの予測進路に基づいて自車両周辺の走行環境を的確に推定できる車両環境推定装置を提供することを目的としている(同文献、第0005段落等を参照)。
上記目的を達成するために、上記従来の発明に係る車両環境推定装置は、自車両周辺の移動体の挙動を検出する挙動検出手段と、前記移動体の挙動に基づいて前記移動体の走行に影響を与える環境を推定する推定手段とを備えている(同文献、請求項1等を参照)。
この従来の発明によれば、自車両周辺の移動体の挙動を検出し、その移動体の挙動に基づいて移動体の走行に影響を与える環境を推定することにより、自車両から認識できないが自車両周辺の移動体から認識できる車両走行環境を推定することが可能となる(同文献、第0007段落等を参照)。
特開2010-267211号公報
前記従来の車両環境推定装置は、未検出障害物の有無や数、状態等の設定の異なる複数の走行環境を仮定する未検出障害物設定部を備えている。この未検出障害物設定部は、自車両が障害物検出できない死角領域において未検出障害物の存否を設定する(同文献、第0031段落等を参照)。
たとえば、この未検出障害物設定部は、交差点などにおいて自車両が障害物検出できない死角領域に未検出の他車両が存在すると仮定して他車両の存在を設定したり、死角領域に未検出の他車両が存在していないと仮定したりする。このとき、死角領域の障害物の個数、各障害物の位置、速度などの属性に対し複数の仮説が設定される(同文献、第0031段落等を参照)。
上記従来の車両環境推定装置のように、死角領域の全域にわたって、複数の障害物の多様な属性に対して複数の仮説を設定すると、装置の演算負荷が過大になるおそれがある。
本開示は、従来よりも演算負荷を抑制しつつ、自車両から直接的に認識できない死角領域の移動体または静止体の存在を予測し、その予測された移動体または静止体の存在に基づく他の移動体の挙動を予測することが可能な移動体挙動予測装置を提供する。
本開示に係る移動体挙動予測装置は、自車両の周囲の移動体および静止体を認識する認識部と、前記認識部によって前記移動体および前記静止体を直接的に認識することができない死角領域に該死角領域よりも狭い予測領域を設定する限定部と、前記移動体の予測挙動と実挙動との誤差を算出する評価部と、前記誤差を減少させるように前記予測領域に前記移動体または前記静止体の存在を推定する推定部と、前記推定部の推定結果に基づいて前記認識部の認識結果を修正する修正部と、前記修正部によって修正された前記認識部の認識結果に基づいて前記移動体の挙動を予測する予測部と、を備える。
本開示によれば、従来よりも演算負荷を抑制しつつ、自車両から直接的に認識できない死角領域の移動体または静止体の存在を予測し、その予測された移動体または静止体の存在に基づく他の移動体の挙動を予測することが可能な移動体挙動予測装置を提供することができる。
移動体挙動予測装置が搭載される車両の構成の一例を示すブロック図。 移動体挙動予測装置の構成の一例を示すブロック図。 移動体挙動予測装置の限定部の構成の一例を示すブロック図。 移動体挙動予測装置の動作の一例を示すフロー図。 自車両の周囲の移動体を示す模式図。 自車両の周囲の移動体を示す模式図。 自車両の周囲の移動体を示す模式図。 自車両の周囲の移動体を示す模式図。 自車両の周囲の移動体を示す模式図。 移動体挙動予測装置の予測部の構成を示すブロック図。 図6Aの予測部の空間埋め込み部の詳細を示すブロック図。 移動体挙動予測装置の演算負荷等の時刻による変化の一例を示すグラフ。 移動体挙動予測装置による予測領域の推定が行われる状況を示す模式図。 移動体挙動予測装置による予測領域の推定後の状況を示す模式図。 移動体挙動予測装置による新たな予測領域の推定の状況を示す模式図。 移動体挙動予測装置の構成の他の一例を示すブロック図。 従来の車両環境推定装置による死角領域の一例を示す模式図。
以下、図面を参照して本開示の移動体挙動予測装置の実施形態を説明する。
図1は、本開示の一実施形態に係る移動体挙動予測装置が搭載される車両の構成の一例を示すブロック図である。図2は、本開示の一実施形態に係る移動体挙動予測装置100の構成の一例を示すブロック図である。
本実施形態に係る移動体挙動予測装置100は、たとえば、車両に搭載され、車両の周囲の移動体の挙動を予測する装置である。移動体挙動予測装置100は、たとえば、自動車などの車両の自動運転制御システムまたは運転支援システムに適用することが可能である。
以下の説明において、「自車両」は本実施形態の移動体挙動予測装置100が搭載された制御対象の車両であり、「他車両」は自車両の周囲の車両である。また、「移動体」は、たとえば、自動車、自動二輪車および自転車を含む他車両、電動車いす、歩行者、動物、またはボールなど、時間の経過とともに移動する障害物である。また、「静止体」は、静止または停止した状態の移動体や、自ら移動しない落下物などを含む障害物である。
移動体挙動予測装置100は、たとえば、車両に搭載されたセンサ1、地図情報2、全地球測位システム(Global Positioning System:GPS)3、電子制御ユニット(Electronic Control Unit:ECU)4、およびアクチュエータ5によって構成されている。センサ1は、たとえば、単眼カメラやステレオカメラなどのカメラ、ライダー(Light Detection and Ranging:LIDAR)、レーダ(Radar)などを含む。地図情報2は、たとえば、地形や道路網の情報などを含む静的な情報である。
ECU4は、たとえば、中央処理装置(Central Processing Unit:CPU)4a、RAMやROMなどを含むメモリ4b、およびアクセラレータ4cなどによって構成されている。アクセラレータ4cは、たとえば、FPGA(Field-Programmable Gate Array)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、GPU(Graphics Processing Unit)などを含む。
アクチュエータ5は、たとえば、ECU4から出力される制御信号に応じて自車両の走行を制御する駆動部である。アクチュエータ5は、たとえば、自車両の制動状態を制御するブレーキアクチュエータ、自車両のアクセル開度を制御するアクセルアクチュエータ、自車両の変速を制御する変速アクチュエータ、自車両の操舵系を制御する操舵アクチュエータなどを含む。
本実施形態の移動体挙動予測装置100は、認識部10と、限定部20と、評価部30と、推定部40と、修正部50と、予測部60と、を備えている。認識部10は、たとえば、センサ1、地図情報2、GPS3およびECU4によって構成され、自車両Vsの周囲の移動体Moおよび静止体So(図5A参照)の三次元空間における位置情報などを認識する。限定部20は、たとえば、ECU4によって構成され、認識部10によって移動体Moおよび静止体Soを直接的に認識することができない死角領域BAに、その死角領域BAよりも狭い予測領域PA(図5B参照)を設定する。
評価部30は、たとえば、ECU4によって構成され、認識部10の認識結果に基づく移動体Moの予測挙動Tpと実挙動Tr(図5C参照)との間の誤差を算出する。推定部40は、たとえば、ECU4によって構成され、評価部30によって算出された誤差を減少させるように予測領域PAに移動体Moまたは静止体Soの存在を推定する。より具体的には、推定部40は、予測部60において微分可能な関数で記述された情報に基づいて勾配降下法により誤差を減少させる。
修正部50は、たとえば、ECU4によって構成され、推定部40の推定結果に基づいて認識部10の認識結果を修正する。ここで、修正部50は、たとえば、自車両Vsが前時刻における過去の位置から現時刻における現在位置まで移動した場合に、自車両Vsの現在位置における座標を用いて認識部10の認識結果を修正する。予測部60は、たとえば、ECU4によって構成され、修正部50によって修正された認識部10の認識結果に基づいて移動体Moの挙動を予測する。
図3は、図2に示す限定部20の構成の一例を示すブロック図である。限定部20は、たとえば、第1判定部21と、第2判定部22と、第3判定部23と、範囲推定部24と、参照部25と、を含んでいる。
第1判定部21は、たとえば、認識部10によって移動体Moおよび静止体Soを直接的に認識することができない死角領域BAを判定する、死角領域判定部として機能する。より具体的には、第1判定部21は、たとえば、認識部10を構成するセンサ1によって、自車両Vsから移動体Moおよび静止体Soを直接的に認識することができない領域を死角領域BAとして判定する。
第2判定部22は、たとえば、移動体Moによって他の移動体Moまたは静止体Soを認識可能な範囲を判定し、その範囲に予測領域PAを設定する、予測領域設定部として機能する。より具体的には、第2判定部22は、たとえば、一般的な車両に搭載されるカメラの画角に基づいて、他車両Voが移動体Moまたは静止体Soを認識可能な範囲を判定する。なお、第2判定部22によって他車両Voが備えるセンサの種類が認識可能である場合には、第2判定部22は、認識した他車両Voのセンサの種類に応じて、他車両Voが移動体Moまたは静止体Soを認識可能な範囲を判定してもよい。
第3判定部23は、たとえば、第2判定部22による前時刻の処理ですでに予測領域PAが設定されているか否かを判定する、予測領域判定部として機能する。また、第3判定部23は、たとえば、前時刻の処理ですでに予測領域PAが設定されている場合に、次時刻の処理で新たに予測領域PAを設定する領域から、前時刻の処理で予測領域PAが設定されている領域を除外する、予測領域除外部としても機能する。
範囲推定部24は、たとえば、移動体Moの挙動に影響を与える範囲を推定し、その範囲に含まれる領域のみを予測領域PAとする、予測領域限定部として機能する。より具体的には、範囲推定部24は、たとえば、センサ1、地図情報2、GPS3等から得られた情報に基づいて、自車両Vsの前方の道路上とその道路に隣接する歩道上を、移動体Moの挙動に影響を与える範囲と推定し、その範囲に含まれない領域を予測領域PAから除外する。
また、範囲推定部24は、たとえば、センサ1、地図情報2、GPS3等から得られた情報に基づいて、自車両Vsからの距離が一定の範囲である領域を移動体Moの挙動に影響を与える範囲と推定したり、対向車線を移動体Moの挙動に影響を与える範囲から除外したりすることも可能である。また、範囲推定部24は、たとえば、センサ1、地図情報2、GPS3等から得られた地形や道路網などの情報に基づいて、自車両Vsの走行車線に交差する道路などを移動体Moの挙動に影響を与える範囲と推定することも可能である。
参照部25は、たとえば、地図情報2に基づいて、移動体Moが存在し得る領域を参照し、予測領域PAを補正する、予測領域補正部として機能する。より具体的には、参照部25は、地図情報2に基づいて、道路上および歩道上などの領域を参照し、その参照した情報に基づいて予測領域PAを補正する。
以下、本実施形態の移動体挙動予測装置100の動作を説明する。図4は、本実施形態の移動体挙動予測装置100の動作の一例を示すフロー図である。図5Aから図5Eは、自車両Vsの周囲の移動体Moおよび静止体Soを示す模式図である。
本実施形態の移動体挙動予測装置100は、前述のように、自車両Vsに搭載され、認識部10と、限定部20と、評価部30と、推定部40と、修正部50と、予測部60とを備えている。認識部10は、自車両Vsの周囲の移動体Moおよび静止体Soを認識する。限定部20は、認識部10によって移動体Moおよび静止体Soを直接的に認識することができない死角領域BAに、その死角領域BAよりも狭い予測領域PAを設定する。評価部30は、認識部10の認識結果に基づく移動体Moの予測挙動Tpと実挙動Trとの誤差を算出する。推定部40は、評価部30によって算出された誤差を減少させるように予測領域PAに移動体Moまたは静止体Soの存在を推定する。修正部50は、推定部40の推定結果に基づいて認識部10の認識結果を修正する。予測部60は、修正部50によって修正された認識部10の認識結果に基づいて移動体Moの挙動を予測する。
移動体挙動予測装置100は、まず、図4のステップS1において、自車両Vsの周囲の情報を取得する。具体的には、たとえば、図5Aに示すように、自車両Vsが直線道路の左車線を前方へ走行し、自車両Vsの前方に他車両Voが走行しており、その他車両Voに前方に停車中の他車両Voが存在する場合を想定する。また、停車中の他車両Voの前方で、歩行者Pが道路を横断しようとしている。この場合、移動体挙動予測装置100は、たとえば、認識部10によって、自車両Vsの周囲の情報を取得し、三次元空間上で自車両Vsの周囲の移動体Moおよび静止体Soの位置情報を認識する。この段階では、認識部10は、死角領域BAの移動体Moである歩行者Pを認識していない。
移動体挙動予測装置100は、次に、図4のステップS2において、移動体Moまたは静止体Soの存在を予測する領域である予測領域PAを決定する。具体的には、移動体挙動予測装置100は、たとえば、限定部20により、認識部10によって移動体Moおよび静止体Soを直接的に認識することができない死角領域BAに、その死角領域BAよりも狭い予測領域PAを設定する。
より具体的には、本実施形態の移動体挙動予測装置100において、限定部20は、たとえば、図3に示す第1判定部21により、認識部10によって移動体Moおよび静止体Soを直接的に認識することができない死角領域BAを判定する。さらに、限定部20は、たとえば、図3に示す第2判定部22により、前方を走行中の他車両Voである移動体Moによって他の移動体Moまたは静止体Soを認識可能な範囲を判定し、その範囲に予測領域PAを設定する。
これにより、図5Bに示すように、限定部20によって、自車両Vsからセンサ1によって直接観測を行うことができない死角領域BAで、かつ、他車両Voである移動体Moによって他の移動体Moまたは静止体Soを認識可能な範囲に、死角領域BAよりも狭い予測領域PAを設定することができる。なお、限定部20は、このように、移動体Moによって他の移動体Moまたは静止体Soを認識可能な範囲に予測領域PAを設定する構成に限定されない。
本実施形態の移動体挙動予測装置100において、限定部20は、たとえば、前時刻の処理で予測領域PAが設定されていない死角領域BAの一部の領域に、新たに予測領域PAを設定してもよい。より具体的には、限定部20は、たとえば、図4のステップS3において、既定の予測領域PAの存在の有無を判定する。より詳細には、限定部20は、たとえば、図3に示す第3判定部23によって、前時刻の第2判定部22による処理ですでに予測領域PAが設定されているか否かを判定する。そして、前時刻の処理ですでに予測領域PAが設定されている場合に、限定部20は、たとえば、次時刻の処理で新たに予測領域PAを設定する領域から、前時刻の処理で予測領域PAが設定されている領域を除外する。
また、本実施形態の移動体挙動予測装置100において、限定部20は、たとえば、移動体Moの挙動に影響を及ぼす可能性のある、その移動体Moの近傍の領域に、予測領域PAを設定してもよい。より具体的には、限定部20は、たとえば、図3に示す範囲推定部24によって、他車両Voである移動体Moからの距離が、その移動体Moの前方の数メートルから数十メートル以内の移動体Moの近傍の領域を、移動体Moの挙動に影響を与える範囲と推定し、その範囲に含まれる領域のみを予測領域PAとする。
また、本実施形態の移動体挙動予測装置100において、限定部20は、たとえば、自車両Vsの周囲の地図情報2およびGPS3等の情報に基づいて、移動体Moの挙動に影響を及ぼす範囲に予測領域PAを設定してもよい。より具体的には、限定部20は、たとえば、図3に示す範囲推定部24によって、他車両Voである移動体Moの前方の道路上および歩道上の領域を、その移動体Moの挙動に影響を与える範囲と推定し、その範囲に含まれる領域のみを予測領域PAとする。
図4に示す例では、ステップS3の判定で既定の予測領域PAが存在する場合(Y)、移動体挙動予測装置100は、ステップS4からステップS6までの処理を行うことなく、ステップS7の挙動予測を行う。一方、ステップS3の判定で既定の予測領域PAが存在しない場合(N)、移動体挙動予測装置100は、ステップS4の誤差算出を実行する。
移動体挙動予測装置100は、図4に示すステップS4において、たとえば、図2に示す評価部30により、認識部10の認識結果に基づく移動体Moの予測挙動Tpと実挙動Trとの誤差を算出する。より具体的には、評価部30は、まず、認識部10の認識結果に基づいて、移動体Moである他車両Voの各時刻における位置、速度、移動方向を算出し、図5Cに示す移動体Moの予測挙動Tpとして、他車両Voの軌道を予測する。そして、評価部30は、他車両Voの予測された軌道、すなわち移動体Moの予測挙動Tpと、認識部10によって測定された他車両Voの実際の軌道、すなわち移動体Moの実挙動Trとの誤差を算出する。
次に、移動体挙動予測装置100は、図4に示すステップS5において、予測領域PAの状態を推定する。より具体的には、移動体挙動予測装置100は、たとえば、図2に示す推定部40により、評価部30によって算出された誤差を減少させるように、予測領域PAの道路、移動体Moまたは静止体Soの存在を推定する。これにより、図5Dに示すように、予測領域PAにおいて、たとえば歩行者Pなどの移動体Moの存在が推定される。
次に、移動体挙動予測装置100は、図4に示すステップS6において、予測領域PAの認識結果を修正する。より具体的には、移動体挙動予測装置100は、たとえば、図2に示す修正部50により、推定部40の推定結果に基づいて認識部10の認識結果を修正する。これにより、たとえば、図5Dに示す推定部40による予測領域PAにおける移動体Moの推定結果が、認識部10の認識結果に追加される。
次に、移動体挙動予測装置100は、図4に示すステップS7において、移動体Moの挙動を予測する。より具体的には、移動体挙動予測装置100は、たとえば、図2に示す予測部60により、修正部50によって修正された認識部10の認識結果に基づいて移動体Moの挙動を予測する。これにより、予測領域PAにおける移動体Moである歩行者Pの推定結果が反映された状態で、移動体Moである他車両Voの軌道が予測され、図5Eに示すように、移動体Moの実挙動Trにより近い予測挙動Tpが得られる。
図6Aは、図2に示す予測部60の構成を示すブロック図である。詳細については後述するが、本実施形態の移動体挙動予測装置100において、予測部60は、第1のニューラルネットワーク(RNN61(1,…,N))と、第2のニューラルネットワーク(畳み込み層64)と、第3のニューラルネットワーク(畳み込み層66)と、空間埋め込み部62(1,…,N)と、結合部(結合層65)と、を備えている。第1のニューラルネットワークは、N(Nは正の整数)個の移動体Mo(1,…,N)の各々の将来位置をベクトル表現で予測する。第2のニューラルネットワークは、自車両Vsの周囲の地形情報をテンソル表現で認識する。第3のニューラルネットワークは、地形情報と一つ以上の移動体Moの処理結果を組み合わせて処理する。空間埋め込み部62(1,…,N)は、ベクトル表現である第1のニューラルネットワークの内部状態をテンソル表現である第2のニューラルネットワークの内部状態に次元が合うように変換し結合する。結合部は、移動体Moごとに空間埋め込み部62(1,…,N)で変換された情報を集約して第2のニューラルネットワークの内部状態を結合する。予測部60は、結合部で結合されたテンソル表現に第3のニューラルネットワークを適用して移動体Mo(1,…,N)の将来時刻ごとの将来位置を予測する。
より具体的には、予測部60には、たとえば、N(Nは正の整数)個の移動体Mo(1,…,N)のそれぞれに対し、第1のニューラルネットワークであるリカレントニューラルネットワーク(Recurrent Neural Network:RNN)61(1,…,N)と空間埋め込み部62(1,…,N)とが設けられる。さらに、予測部60は、N個の移動体Mo(1,…,N)に共通の総和層63、畳み込み層64,66、および結合層65を有している。これらはN個の移動体Mo(1,…,N)に対して一度だけ処理を行う。
予測部60は、自車両Vsの周辺の移動体Mo(1,…,N)ごとにRNN61(1,…,N)による位置予測を行う。移動体Mo(1,…,N)は、認識部10で認識されたN個の物体である。予測部60は、各移動体Mo(1,…,N)のRNN61(1,…,N)の中間状態を、空間埋め込み部62(1,…,N)および総和層63により集約し、自車両Vsの周辺の道路状況および交通状況と結合し、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)によって、各移動体Mo(1,…,N)および道路情報との相互作用を考慮した挙動の予測を行う。RNN61(1,…,N)は、通常のRNNでもよいし、GRU(Gated Recurrent Unit)やLSTM(Long-Short Term Memory)などのRNNの派生系でもよい。
各RNN61(1,…,N)は、各移動体Mo(1,…,N)の現在時刻における位置データPc(1,…,N)を入力として、各移動体Mo(1,…,N)の将来時刻における位置データPf(1,…,N)を出力する。各移動体Mo(1,…,N)の現在時刻における位置データPc(1,…,N)は、各移動体Mo(1,…,N)の車両座標系における相対的な位置情報である。各移動体Mo(1,…,N)の将来時刻における位置データPf(1,…,N)は、各移動体Mo(1,…,N)の現時刻の車両座標系における将来時刻での相対位置である。これは、各移動体Mo(1,…,N)が、現在時刻から時刻t0,t1,…,tT後に、どの程度移動するかを示している。移動体Mo(1,…,N)の現在時刻における移動データおよび移動体Mo(1,…,N)の将来時刻における移動データは、各移動体Mo(1,…,N)の現在時刻における位置を基準とした車両座標系で計算される。
移動体Mo(1,…,N)の将来時刻における位置データPf(1,…,N)は、各移動体Mo(1,…,N)の将来位置を、各移動体Mo(1,…,N)の過去の移動軌跡のみを用いて予測するものである。この位置データPf(1,…,N)は、精度のよい予測情報とはならないため、各移動体Mo(1,…,N)の挙動予測の結果としては用いない。これら各移動体Mo(1,…,N)の将来時刻における位置データPf(1,…,N)を結合層65で地形情報と組み合わせることで、交通情報や移動体Mo(1,…,N)間の相互作用などの空間的な影響を考慮して将来時刻における挙動データBfを予測し、その予測された挙動データBfを、予測部60における挙動予測の結果として用いる。
各移動体Mo(1,…,N)の将来時刻における位置データPf(1,…,N)は、RNN61(1,…,N)をより簡易に学習するために用いることができる。RNN61(1,…,N)を学習する際には、各移動体Mo(1,…,N)の将来時刻における位置データPf(1,…,N)から各移動体Moの将来時刻t0,t1,…,tTにおける位置を教師情報として与えることができる。
RNN61(1,…,N)は、車両座標系における位置情報で移動体Moの状態遷移を認識し、将来位置を予測するため、グリッドマップで与えられるマップデータMdおよびマップデータMdにCNNを適用して得られた特徴マップと直接組み合わせることが難しい。そこで、本実施形態では、空間埋め込み部62(1,…,N)を用いて、車両座標系の表現であるRNN61(1,…,N)の内部状態を、グリッドマップの表現である特徴マップに容易に結合できる形式に変換する。移動体Mo(1,…,N)ごとに得られた空間埋め込み部62(1,…,N)の出力を総和層63で総和演算により集約し、結合層65でマップデータMdに畳み込み層64を適用して得られた特徴マップと結合する。その後、CNNによる各移動体Mo(1,…,N)と道路情報の相互作用を考慮した予測を行う。
マップデータMdは、たとえば、自車両Vsの周辺の道路情報が格納されたデータであるとともに、認識部10による認識結果のうちセマンティックセグメンテーションで得られた各ピクセルのクラス情報を視差画像によって変換し、自車両Vsの周囲の俯瞰画像とした移動体Mo(1,…,N)の情報を含む情報である。
畳み込み層64の出力と総和層63の出力との結合は、例えば、畳み込み層64の出力結果のチャンネル方向に、総和層63の出力を追加することで行われる。なお、総和層63と結合層65との間に畳み込み層などのニューラルネットワークを追加してもよい。
畳み込み層66は、総和層63の出力と畳み込み層64の出力の結合結果に対してCNNを適用し、将来時刻における挙動データBfを出力する。将来時刻における挙動データBfは、自車両Vsの周辺の座標系上で将来時刻t0,t1,…,tTにおける各座標に移動体Mo(1,…,N)が存在する確率を表す。将来時刻における挙動データBfの形式は、たとえば、マップデータMdの形式と同様の形式である。
畳み込み層64,66は、必ずしも1層である必要はなく、複数層であってもよいし、マップデータMd、畳み込み層64,66および結合層65は、将来時刻における挙動データBfを通して各中間状態および出力の幅と高さを一定に保ってもよいし、縮小または拡大を行ってもよい。本実施形態では、N個の移動体Mo(1,…,N)が存在する状況での構成を示したが、移動体Moの数は限定されず、1つ以上であればよい。
図6Bは、図6Aに示す空間埋め込み部62(1,…,N)の詳細を示すブロック図である。本実施形態の移動体挙動予測装置100において、空間埋め込み部62は、たとえば、ベクトル表現の情報から埋め込みに用いるクエリを生成するクエリ生成部62aと、ベクトル表現の情報から埋め込む情報を生成する埋め込み値生成部62cと、テンソル表現の情報から埋め込みに用いるキーを生成するキー生成部62bと、を備えている。空間埋め込み部62は、上記のクエリ、埋め込む情報、およびキーから埋め込みテンソルを生成する。
より具体的には、空間埋め込み部62は、たとえば、クエリ生成部62aと、キー生成部62bと、埋め込み値生成部62cと、埋め込み荷重決定部62dと、埋め込み処理部62eとによって構成される。空間埋め込み部62は、埋め込む車両座標系の情報からクエリと埋め込み値を生成するとともに、埋め込み先である畳み込み層64の出力からキーを生成し、クエリとキーが類似する領域に埋め込み値の値を大きく反映させる。これにより、より小さい次元の特徴量である車両座標系の情報を、より大きい次元の特徴量であるグリッドマップの特定の領域に埋め込むことができ、高精度な挙動予測が可能になる。
クエリ生成部は、RNN61の内部状態を入力として、クエリを生成する。これは、たとえば、全結合層や多層パーセプトロンによって、入力ベクトルを次元dに変換することで行われる。また、クエリ生成部は、移動体Moの現在時刻における位置データPcを入力としてもよい。キー生成部は、畳み込み層64の情報を用いてキーを生成する。ここでキーとはチャンネル数がクエリの次元dと同じであり、高さおよび幅が畳み込み層64の出力である特徴マップと同じである三次元テンソルである。この三次元テンソルは、空間符号化情報または空間符号化情報に畳み込み層64の出力の特徴マップをチャンネル方向に結合したものに、CNNを適用することで得られる。ここで、空間符号化情報SEncは、以下の式で定義される。
Figure 0007013284000001
Figure 0007013284000002
ここで、SEncに付随する角括弧内の値は、それぞれ、チャンネル、高さ、幅方向のインデックスを表している。aは、事前に与えられる定数である。このような空間符号化情報SEncによれば、チャンネル方向の情報により特徴マップ上の高さ、幅の位置情報を一意に求めることができる。また、連続する高さ、幅の位置では連続的な符号化情報が与えられる。これにより、キー生成部は高さと幅が畳み込み層64の出力の特徴マップの高さと幅と同じであり、チャンネル方向に位置ごとにユニークな情報を持つ三次元テンソルであるキーマップを生成できる。
埋め込み値生成部62cはRNN61の内部状態から埋め込み値を生成する。この埋め込み値は、次元dのベクトルであり、たとえばRNN61の出力に単層もしくは多層の全結合層を適用することによって得ることができる。埋め込み荷重決定部62dは、クエリ生成部62aおよびキー生成部62bにおいてそれぞれ生成されたクエリおよびキーを用いて、埋め込み荷重を決定する。この埋め込み荷重は、畳み込み層64の出力の特徴マップと同じ高さと幅を持つ二次元テンソルであり、その総和は1に正規化されている。これは、たとえば、キーマップとクエリから、キーマップの各高さと幅の座標でのキーとクエリの類似度を内積によって求め、空間方向にソフトマックス演算を行うことによって得ることができる。
その後、埋め込み処理部62eにおいて、埋め込み値と埋め込み荷重からチャンネル方向の次元がd、高さと幅が畳み込み層64の出力の特徴マップと同じ三次元テンソルを生成する。これは、たとえば埋め込み値と埋め込み荷重のそれぞれを、埋め込み処理部62eの出力と同じ次元になるようにブロードキャストし、要素積を取ることによって得ることができる。また、本実施形態では、埋め込み荷重が二次元テンソルである例について記載したが、クエリとキーマップを複数生成することで三次元テンソルに拡張してもよい。これら空間埋め込み部62で行う処理はすべて微分可能であるため、誤差逆伝播により畳み込み層およびRNNを同時に学習することができる。
図7は、本実施形態の移動体挙動予測装置100の演算負荷または消費電力の時刻による変化の一例を示すグラフである。なお、図7において、直線L1は前記従来の車両環境推定装置の演算負荷または消費電力を示し、曲線L2は本実施形態の移動体挙動予測装置100の演算負荷または消費電力を示している。図8Aは、移動体挙動予測装置100による予測領域PAの推定が行われる状況を示す模式図である。図8Bは、移動体挙動予測装置100による予測領域PAの推定後の状況を示す模式図である。図8Cは、移動体挙動予測装置100による新たな予測領域PAの推定が行われる状況を示す模式図である。
本実施形態の移動体挙動予測装置100において、限定部20は、たとえば認識部10によって移動体Moが認識されていない場合、予測領域PAを設定しない。そのため、認識部10によって移動体Moが認識されるまでの間は、移動体挙動予測装置100の演算負荷または消費電力は、図7の曲線L2に示すように、比較的に低い値に維持される。
図10は、前記従来の車両環境推定装置900による死角領域BAの一例を示す模式図である。前記従来の車両環境推定装置900は、移動体Moの有無に関係なく、死角領域BAの全域で未検出障害物の存否を演算する。そのため、図7において直線L1で示す従来の車両環境推定装置900による演算負荷または消費電力は、常に本実施形態の移動体挙動予測装置100の演算負荷または消費電力よりも高くなる。
その後、移動体挙動予測装置100は、たとえば図8Aに示すように、認識部10によって自車両Vsの周囲の移動体Moおよび静止体Soを認識すると、限定部20によって予測領域PA(図5B参照)が設定され、推定部40によって予測領域PAに移動体Moまたは静止体Soの存在が推定される。これにより、図7の曲線L2に示すように、移動体挙動予測装置100の演算負荷または消費電力は、一時的に高くなる。
しかし、本実施形態の移動体挙動予測装置100において、限定部20は、前述のように、認識部10によって移動体Moおよび静止体Soを直接的に認識することができない死角領域BAに、その死角領域BAよりも狭い予測領域PAを設定する。そのため、図10に示す従来の車両環境推定装置900のように、死角領域BAの全域で未検出障害物の存否を演算する場合と比較して、演算負荷または消費電力を抑制することができる。
この本実施形態の移動体挙動予測装置100における演算負荷または消費電力の抑制効果は、前述の限定部20による予測領域PAの設定方法のいずれか一つ、または、いずれか二以上の組み合わせによって得ることができる。なお、二以上の予測領域PAの設定方法は、安全性と演算負荷または消費電力の抑制効果とのバランスにより、状況に応じて適宜組み合わせることが可能である。
また、移動体挙動予測装置100において、限定部20が前時刻において予測領域PAが設定されていない領域に予測領域PAを設定する場合を想定する。この場合、最初に認識部10によって自車両Vsの周囲の移動体Moおよび静止体Soが認識され、限定部20によって予測領域PAが設定された後は、自車両Vsの周囲の移動体Moの状況が変化するまでの間、図7の曲線L2に示すように、移動体挙動予測装置100の演算負荷または消費電力は、比較的に低い値に維持される。
その後、図8Bに示すように自車両Vsおよび他車両Voが前進して、自車両Vsの周囲の移動体Moの状況が変化すると、移動体挙動予測装置100は、限定部20によって前時刻において予測領域PAが設定されていない領域に予測領域PAを設定する。また、限定部20は、修正部50によって修正された認識部10の認識結果と認識部10によって認識された自車両Vsの移動量とに基づいて、死角領域BAの状態を推定する。
これにより、図7の曲線L2に示すように、移動体挙動予測装置100の演算負荷または消費電力が再び増加する。しかし、限定部20が前時刻において予測領域PAが設定されていない領域に予測領域PAを設定することで、最初に予測領域PAを設定するときよりも、移動体挙動予測装置100の演算負荷または消費電力の増加が抑制される。
さらに、図8Cに示すように自車両Vsおよび他車両Voが前進して、自車両Vsの周囲の移動体Moの状況が変化しても、移動体挙動予測装置100は、限定部20によって前時刻において予測領域PAが設定されている領域には、予測領域PAを設定しない。これにより、図7に曲線L2で示すように、移動体挙動予測装置100の演算負荷または消費電力が減少する。したがって、移動体挙動予測装置100の演算負荷または消費電力の増加を抑制することができる。
これに対し、従来の車両環境推定装置900の演算負荷または消費電力は、図7に直線L1で示すように、本実施形態の移動体挙動予測装置100の演算負荷または消費電力よりも高いおおむね一定の値である。このように、本実施形態の移動体挙動予測装置100の演算負荷または消費電力が従来の車両環境推定装置900の演算負荷または消費電力よりも低下するのは、本実施形態の移動体挙動予測装置100が死角領域BAよりも狭い予測領域PAを設定する限定部20を有しているためである。
以上説明したように、本実施形態によれば、従来よりも演算負荷を抑制しつつ、自車両Vsから直接的に認識できない死角領域BAの移動体Moまたは静止体Soの存在を予測し、その予測された移動体Moまたは静止体Soの存在に基づく他の移動体Moの挙動を予測することが可能な移動体挙動予測装置100を提供することができる。
なお、本開示に係る移動体挙動予測装置100は、前述の実施形態に限定されない。以下、前述の実施形態に係る移動体挙動予測装置100の変形例について説明する。
図9は、前述の実施形態に係る移動体挙動予測装置100の構成の変形例を示すブロック図である。本変形例に係る移動体挙動予測装置100Aは、追従判定部70と軌道計画部80とを備える点で、図2に示す前述の実施形態に係る移動体挙動予測装置100と異なっている。本変形例に係る移動体挙動予測装置100Aのその他の構成は、前述の実施形態に係る移動体挙動予測装置100と同様であるので、同一の部分には同一の符号を付して説明を省略する。
本変形例に係る移動体挙動予測装置100Aは、認識部10と、限定部20と、評価部30と、推定部40と、修正部50と、予測部60と、追従判定部70と、軌道計画部80と、を備える。追従判定部70は、たとえば、ECU4によって構成され、評価部30によって算出された誤差がしきい値以上である場合に、自車両Vsが先行する他車両Voである移動体Moに追従することを決定する。軌道計画部80は、追従判定部70によって先行車両に追従する決定が行われた場合に、自車両Vsを先行する他車両Voに追従させる。また、軌道計画部80は、追従判定部70によって先行車両に追従する決定が行われなかった場合に、予測部60の予測結果に基づいて自車両Vsの目標軌道を決定する。
本変形例に係る移動体挙動予測装置100Aによれば、たとえば、自車両Vsの前方を走行する他車両Voが、評価部30によって算出される誤差がしきい値以上となるような急な進路変更を行った場合に、自車両Vsを他車両Voに追従させて危険を回避することができる。また、自車両Vsの前方を走行する他車両Voが、評価部30によって算出される誤差がしきい値よりも小さくなるような通常の進路変更を行った場合に、軌道計画部80によって生成された目標軌道で自車両Vsを走行させることができる。
以上、図面を用いて本発明の実施の形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更等があっても、それらは本発明に含まれるものである。
2 地図情報
10 認識部
20 限定部
30 評価部
40 推定部
50 修正部
60 予測部
61 RNN(第1のニューラルネットワーク)
62 空間埋め込み部
62a クエリ生成部
62c 埋め込み値生成部
62b キー生成部
64 畳み込み層(第2のニューラルネットワーク)
65 結合層(結合部)
66 畳み込み層(第3のニューラルネットワーク)
70 追従判定部
80 軌道計画部
100 移動体挙動予測装置
100A 移動体挙動予測装置
BA 死角領域
PA 予測領域
Mo 移動体
So 静止体
Tp 予測挙動
Tr 実挙動
Vs 自車両

Claims (11)

  1. 自車両の周囲の移動体および静止体を認識する認識部と、
    前記認識部によって前記移動体および前記静止体を直接的に認識することができない死角領域に該死角領域よりも狭い予測領域を設定する限定部と、
    前記移動体の予測挙動と実挙動との誤差を算出する評価部と、
    前記誤差を減少させるように前記予測領域に前記移動体または前記静止体の存在を推定する推定部と、
    前記推定部の推定結果に基づいて前記認識部の認識結果を修正する修正部と、
    前記修正部によって修正された前記認識部の認識結果に基づいて前記移動体の挙動を予測する予測部と、
    を備えることを特徴とする移動体挙動予測装置。
  2. 前記限定部は、前記移動体によって他の移動体または静止体を認識可能な範囲に前記予測領域を設定することを特徴とする請求項1に記載の移動体挙動予測装置。
  3. 前記限定部は、前記予測領域が設定されていない領域に前記予測領域を設定することを特徴とする請求項1または請求項2に記載の移動体挙動予測装置。
  4. 前記限定部は、前記移動体の挙動に影響を及ぼす可能性のある該移動体の近傍の領域に前記予測領域を設定することを特徴とする請求項1から請求項3のいずれか一項に記載の移動体挙動予測装置。
  5. 前記限定部は、前記自車両の周囲の地図情報に基づいて前記移動体の挙動に影響を及ぼす範囲に前記予測領域を設定することを特徴とする請求項1から請求項4のいずれか一項に記載の移動体挙動予測装置。
  6. 前記限定部は、前記修正部によって修正された前記認識部の認識結果と前記認識部によって認識された前記自車両の移動量とに基づいて前記死角領域の状態を推定することを特徴とする請求項1から請求項5のいずれか一項に記載の移動体挙動予測装置。
  7. 前記限定部は、前記認識部によって前記移動体が認識されていない場合、前記予測領域を設定しないことを特徴とする請求項1に記載の移動体挙動予測装置。
  8. 前記推定部は、前記予測部において微分可能な関数で記述された情報に基づいて勾配降下法により前記誤差を減少させることを特徴とする請求項1に記載の移動体挙動予測装置。
  9. 前記評価部によって算出された前記誤差がしきい値以上である場合に先行車両である前記移動体に追従することを決定する追従判定部と、
    前記追従判定部によって前記先行車両に追従する決定が行われた場合に前記自車両を前記先行車両に追従させ、前記追従判定部によって前記先行車両に追従する決定が行われなかった場合に前記予測部の予測結果に基づいて前記自車両の目標軌道を決定する軌道計画部と、を備えることを特徴とする請求項1に記載の移動体挙動予測装置。
  10. 前記予測部は、
    各々の前記移動体の将来位置をベクトル表現で予測する第1のニューラルネットワークと、
    前記自車両の周囲の地形情報をテンソル表現で認識する第2のニューラルネットワークと、
    前記地形情報と一つ以上の前記移動体の処理結果を組み合わせて処理する第3のニューラルネットワークと、
    前記第1のニューラルネットワークの内部状態を前記第2のニューラルネットワークの内部状態に次元が合うように変換し結合する空間埋め込み部と、
    前記移動体ごとに前記空間埋め込み部で変換された情報を集約して前記第2のニューラルネットワークの内部状態を結合する結合部と、を備え、
    前記結合部で結合されたテンソル表現に前記第3のニューラルネットワークを適用して前記移動体の将来時刻ごとの将来位置を予測することを特徴とする請求項1に記載の移動体挙動予測装置。
  11. 前記空間埋め込み部は、
    前記ベクトル表現の情報から埋め込みに用いるクエリを生成するクエリ生成部と、
    前記ベクトル表現の情報から埋め込む情報を生成する埋め込み値生成部と、
    前記テンソル表現の情報から埋め込みに用いるキーを生成するキー生成部と、を備え、
    前記クエリ、前記埋め込む情報、および前記キーから埋め込みテンソルを生成することを特徴とする請求項10に記載の移動体挙動予測装置。
JP2018042742A 2018-03-09 2018-03-09 移動体挙動予測装置 Active JP7013284B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018042742A JP7013284B2 (ja) 2018-03-09 2018-03-09 移動体挙動予測装置
PCT/JP2019/008009 WO2019172104A1 (ja) 2018-03-09 2019-03-01 移動体挙動予測装置
DE112019000325.9T DE112019000325T5 (de) 2018-03-09 2019-03-01 Vorrichtung zur vorhersage des verhaltens eines sich bewegenden objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018042742A JP7013284B2 (ja) 2018-03-09 2018-03-09 移動体挙動予測装置

Publications (2)

Publication Number Publication Date
JP2019159535A JP2019159535A (ja) 2019-09-19
JP7013284B2 true JP7013284B2 (ja) 2022-01-31

Family

ID=67846116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042742A Active JP7013284B2 (ja) 2018-03-09 2018-03-09 移動体挙動予測装置

Country Status (3)

Country Link
JP (1) JP7013284B2 (ja)
DE (1) DE112019000325T5 (ja)
WO (1) WO2019172104A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11550325B2 (en) 2020-06-10 2023-01-10 Nvidia Corp. Adversarial scenarios for safety testing of autonomous vehicles
US11390301B2 (en) * 2020-06-10 2022-07-19 Nvidia Corp. Tensor-based driving scenario characterization
JP7321983B2 (ja) 2020-08-20 2023-08-07 株式会社東芝 情報処理システム、情報処理方法、プログラムおよび車両制御システム
CN113655469B (zh) * 2021-07-12 2023-12-12 之江实验室 基于智能驾驶的预测感知盲区中存在物体的方法及系统
JPWO2023189680A1 (ja) * 2022-04-01 2023-10-05

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267211A (ja) 2009-05-18 2010-11-25 Toyota Motor Corp 車両環境推定装置
JP2017204145A (ja) 2016-05-11 2017-11-16 株式会社豊田中央研究所 走行経路生成装置、モデル学習装置、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267211A (ja) 2009-05-18 2010-11-25 Toyota Motor Corp 車両環境推定装置
JP2017204145A (ja) 2016-05-11 2017-11-16 株式会社豊田中央研究所 走行経路生成装置、モデル学習装置、及びプログラム

Also Published As

Publication number Publication date
DE112019000325T5 (de) 2020-10-15
WO2019172104A1 (ja) 2019-09-12
JP2019159535A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7013284B2 (ja) 移動体挙動予測装置
US11860636B2 (en) Providing actionable uncertainties in autonomous vehicles
US11561542B2 (en) Safety and comfort constraints for navigation
US11932284B2 (en) Trajectory setting device and trajectory setting method
US11714417B2 (en) Initial trajectory generator for motion planning system of autonomous vehicles
US11645916B2 (en) Moving body behavior prediction device and moving body behavior prediction method
US11708093B2 (en) Trajectories with intent
US11554790B2 (en) Trajectory classification
US9708004B2 (en) Method for assisting a driver in driving an ego vehicle and corresponding driver assistance system
JP2021527591A (ja) オクルージョン認識プランニング
CN114072841A (zh) 根据图像使深度精准化
US11400942B2 (en) Vehicle lane trajectory probability prediction utilizing kalman filtering with neural network derived noise
WO2022093891A1 (en) Collision avoidance planning system
GB2576206A (en) Sensor degradation
CN117980212A (zh) 基于优化的规划系统
JP2020052667A (ja) 物体検出装置、物体検出方法及び車両制御装置
US20240161398A1 (en) Late-to-early temporal fusion for point clouds
RU2790105C2 (ru) Способ и электронное устройство для управления беспилотным автомобилем
US20240046656A1 (en) Systems and methods for detecting traffic objects
KR20180058436A (ko) 오브젝트 분류 장치 및 방법
JP2023093270A (ja) 車両制御装置、車両制御方法および車両制御プログラム
WO2024097093A1 (en) Determining lanes from drivable area
JP2022146384A (ja) 物体検出装置
CN116907520A (zh) 用于运载工具的方法和系统以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220119

R150 Certificate of patent or registration of utility model

Ref document number: 7013284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150