JP2018205237A - 物体認識装置、物体認識方法および車両制御システム - Google Patents

物体認識装置、物体認識方法および車両制御システム Download PDF

Info

Publication number
JP2018205237A
JP2018205237A JP2017113497A JP2017113497A JP2018205237A JP 2018205237 A JP2018205237 A JP 2018205237A JP 2017113497 A JP2017113497 A JP 2017113497A JP 2017113497 A JP2017113497 A JP 2017113497A JP 2018205237 A JP2018205237 A JP 2018205237A
Authority
JP
Japan
Prior art keywords
data
time
detected
vehicle
object data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017113497A
Other languages
English (en)
Other versions
JP6490747B2 (ja
Inventor
森 正憲
Masanori Mori
正憲 森
公司 飯田
Koji Iida
公司 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017113497A priority Critical patent/JP6490747B2/ja
Priority to US15/817,633 priority patent/US10793145B2/en
Priority to DE102018201713.1A priority patent/DE102018201713A1/de
Publication of JP2018205237A publication Critical patent/JP2018205237A/ja
Application granted granted Critical
Publication of JP6490747B2 publication Critical patent/JP6490747B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/085Taking automatic action to adjust vehicle attitude in preparation for collision, e.g. braking for nose dropping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Abstract

【課題】自車が移動する場合であっても、自車に搭載されたセンサによって検出される物体の状態を推定することのできる物体認識装置等を得る。
【解決手段】物体認識装置等は、前回処理時刻から今回処理時刻までの期間に各センサから受信した検出物体データおよび検出自車データについて、検出物体データごとに物体データ時刻を関連付け、検出自車データごとに自車データ時刻を関連付け、物体データ時刻における検出自車データを予測し、その予測結果を補正自車データとして生成し、物体データ時刻における更新物体データを予測し、その予測結果を予測物体データとして生成するように構成されている。
【選択図】図1

Description

本発明は、自車に搭載されたセンサによって検出される物体の状態を推定する物体認識装置および物体認識方法と、その物体認識装置を備えた車両制御システムに関する。
従来の物体認識装置は、自車に搭載され、物体の状態に関する情報を検出物体データとして検出する単数または複数のセンサから受信したデータを処理することで、自車の周辺物体を認識するように構成されている。また、自動運転システム等の車両制御システムは、物体認識装置が物体を認識した結果を用いて、自動ブレーキ、車間維持制御などの様々な車両制御を行うように構成されている。
ここで、自車が移動しながら物体を正確に認識するには、例えば、センサによって検出される検出物体の絶対速度を算出し、その検出物体が移動物であるか静止物であるかを判定することが必要である。そこで、従来において、自車速度と、センサによって検出される検出物体のセンサに対する相対速度とを取得し、自車速度を取得した時刻をずれ量dだけずらした前提の下で、その検出物体の絶対速度を算出し、その絶対速度(すなわち、自車速度と相対速度との差)が0となる物体数が最大となるずれ量dを推定することで、自車速度の時刻ずれを補正する技術が提案されている(例えば、特許文献1参照)。
特許第5698618号公報
特許文献1に記載の従来技術では、センサが検出する物体の多くは静止物体であると仮定して、自車速度の時刻ずれを、センサによって検出される検出物体の相対速度から推定するように構成されている。
しかしながら、上記の構成では、自車が停止、または一定速度で移動している場合、静止物体の相対速度および自車速度がともに変化しないので、時刻ずれ量dを推定することができない。また、上記の構成では、検出物体の相対速度に誤差が含まれ、静止物体の相対速度と自車速度との差をもたらす要因として、その誤差と時刻ずれを区別できないので、時刻ずれ量dの推定を誤ってしまう。
したがって、自車が移動しながら物体を正確に認識するにあたって、特許文献1に記載の従来技術とは異なる技術が求められる。
本発明は、例えば上記のような課題を解決するためになされたものであり、自車が移動する場合であっても、自車に搭載されたセンサによって検出される物体の状態を推定することのできる物体認識装置および物体認識方法と、その物体認識装置を備えた車両制御システムを得ることを目的とする。
本発明における物体認識装置は、物体情報センサから受信した検出物体データと、車両情報センサから受信した検出自車データから、更新物体データおよび補正自車データを生成して出力する物体認識装置であって、時刻を計測する時刻計測部と、今回処理時刻よりも1つ前の前回処理時刻から今回処理時刻までの期間に受信した検出物体データおよび検出自車データについて、検出物体データごとに、時刻計測部によって計測された時刻を物体データ時刻として関連付け、検出自車データごとに、時刻計測部によって計測された時刻を自車データ時刻として関連付け、検出物体データ、物体データ時刻、検出自車データおよび自車データ時刻を出力するデータ受信部と、データ受信部によって出力される物体データ時刻、検出自車データおよび自車データ時刻を入力として、物体データ時刻における検出自車データを予測し、予測結果を補正自車データとして生成して出力し、更新物体データと、データ受信部によって出力される物体データ時刻を入力として、物体データ時刻における更新物体データを予測し、予測結果を予測物体データとして生成して出力する予測処理部と、データ受信部によって出力される検出物体データと、予測処理部によって出力される予測物体データおよび補正自車データを入力として、検出物体データと予測物体データとの対応関係を決定し、補正自車データと、検出物体データと、予測物体データと、対応関係とをまとめたものを相関データとして生成して出力する相関処理部と、相関処理部によって出力される相関データを入力として、対応する検出物体データおよび予測物体データを用いて、物体データ時刻における更新物体データを生成し、物体データ時刻における更新物体データおよび補正自車データを出力する更新処理部と、を備えたものである。
本発明における物体認識方法は、物体情報センサから受信した検出物体データと、車両情報センサから受信した検出自車データから、更新物体データおよび補正自車データを生成して出力する物体認識方法であって、今回処理時刻よりも1つ前の前回処理時刻から今回処理時刻までの期間に受信した検出物体データおよび検出自車データについて、検出物体データごとに物体データ時刻を関連付け、検出自車データごとに自車データ時刻を関連付け、検出物体データ、物体データ時刻、検出自車データおよび自車データ時刻を出力するステップと、物体データ時刻、検出自車データおよび自車データ時刻を入力として、物体データ時刻における検出自車データを予測し、予測結果を補正自車データとして生成して出力し、更新物体データと、物体データ時刻を入力として、物体データ時刻における更新物体データを予測し、予測結果を予測物体データとして生成して出力するステップと、検出物体データと、予測物体データおよび補正自車データを入力として、検出物体データと予測物体データとの対応関係を決定し、補正自車データと、検出物体データと、予測物体データと、対応関係とをまとめたものを相関データとして生成して出力するステップと、相関データを入力として、対応する検出物体データおよび予測物体データを用いて、物体データ時刻における更新物体データを生成し、物体データ時刻における更新物体データおよび補正自車データを出力するものである。
本発明における車両制御システムは、物体認識装置と、物体認識装置によって出力される更新物体データおよび補正自車データに従って車両を制御する車両制御装置と、を備えたものである。
本発明によれば、自車が移動する場合であっても、自車に搭載されたセンサによって検出される物体の状態を推定することのできる物体認識装置および物体認識方法と、その物体認識装置を備えた車両制御システムを得ることができる。
本発明の実施の形態1における車両制御システムの構成を示すブロック図である。 本発明の実施の形態1における物体認識装置の動作を示すフローチャートである。 本発明の実施の形態1における予測処理部による補正自車データの生成の第1の処理例を示すタイミングチャートである。 本発明の実施の形態1における予測処理部による補正自車データの生成の第2の処理例を示すタイミングチャートである。 本発明の実施の形態1における予測処理部による補正自車データの生成の第3の処理例を示すタイミングチャートである。
以下、本発明による物体認識装置、物体認識方法および車両制御システムを、好適な実施の形態にしたがって図面を用いて説明する。なお、図面の説明においては、同一部分または相当部分には同一符号を付し、重複する説明を省略する。
実施の形態1.
図1は、本発明の実施の形態1における車両制御システムの構成を示すブロック図である。図1において、車両制御システムは、物体情報センサ1、車両情報センサ2、物体認識装置3、情報報知装置4および車両制御装置5を備える。
物体情報センサ1は、自車に搭載されており、検出可能な範囲に存在する自車周辺の物体の状態に関する情報を検出物体データとして検出し、その検出物体データを物体認識装置3に送信する。
なお、検出物体データには、例えば、物体情報センサ1を搭載する自車に対する物体の相対位置、物体の相対速度、物体種類等の情報が含まれる。
物体情報センサ1として、例えば、物体から放射された光、電磁波等の検出波を受信し、受信した検出波に対して信号処理、画像処理等の処理が行われることで、物体までの距離、物体の方位角、物体の相対速度等を検出するタイプのセンサを用いればよい。物体情報センサ1として、物体に検出波を照射し、その物体から反射した検出波を受信し、受信した検出波に対して処理が行われることで、物体までの距離、物体の方位角、物体の相対速度等を検出するタイプのセンサを用いてもよい。
具体的には、物体情報センサ1として、例えば、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ、光学カメラ等を用いることができる。なお、以下では、具体例として、物体情報センサ1の数が単数である場合について説明するが、物体情報センサ1の数が複数であってもよい。
車両情報センサ2は、自車の状態に関する情報を検出自車データとして検出し、その検出自車データを物体認識装置3に送信する。
なお、検出自車データには、例えば、自車の速度、車輪速、ステアリング角、ヨーレート等の情報が含まれる。
物体認識装置3は、時刻計測部31、データ受信部32、データ記憶部33、予測処理部34、相関処理部35および更新処理部36を備える。物体認識装置3は、例えば、演算処理を実行するマイクロコンピュータと、プログラムデータ、固定値データ等のデータを記憶するROM(Read Only Memory)と、格納されているデータを更新して順次書き換えられるRAM(Random Access Memory)と、データを送受信する通信機と、時間を計測するタイマによって実現される。
時刻計測部31は、物体認識装置3において時刻を計測する。なお、以下、時刻計測部31が計測した時刻を共通時刻と呼ぶ。
データ受信部32は、物体情報センサ1から検出物体データを受信し、車両情報センサ2から検出自車データを受信する。また、データ受信部32は、受信したデータごとに、時刻計測部31によって計測された共通時刻を関連時刻として関連付ける。なお、必ずしも、各センサが各データを検出するタイミングは同期している必要はないし、データ受信部32が各データを受信するタイミングも同期している必要はない。
各データと関連付けられる関連時刻について、各データを受信した順に各データの関連時刻が並んでいれば、各データと関連付ける時刻としては、どのような時刻を採用してもよい。
例えば、データ受信部32がデータを受信する時刻を、時刻計測部31によって計測し、その時刻を、そのデータと関連付ける関連時刻とすればよい。本実施の形態1では、データ受信部32は、物体情報センサ1から検出物体データを受信した受信時刻を、その検出物体データと関連付け、車両情報センサ2から検出自車データを受信した受信時刻を、その検出自車データと関連付けるように構成される場合を例示する。
なお、以下、検出物体データと関連付けられた関連時刻を物体データ時刻と呼び、検出自車データと関連付けられた関連時刻を自車データ時刻と呼ぶ。
データ受信部32は、物体情報センサ1から受信した検出物体データを相関処理部35に出力し、その検出物体データと関連付けられた物体データ時刻を予測処理部34に出力する。また、データ受信部32は、車両情報センサ2から受信した検出物体データと、その検出物体データと関連付けられた自車データ時刻を、予測処理部34に出力する。
データ記憶部33は、必要に応じて、データ受信部32が受信したデータを、各データと関連付けられた関連時刻とともに記憶する。
予測処理部34は、データ受信部32によって出力される検出自車データ、その検出自車データと関連付けられた自車データ時刻、および物体データ時刻を入力として、その物体データ時刻における検出自車データを予測し、その予測結果を補正自車データとして生成する。なお、補正自車データの生成方法の例については後述する。
予測処理部34は、後述する更新処理部36によって出力される更新物体データと、データ受信部32から入力される物体データ時刻を入力として、その物体データ時刻における更新物体データを予測し、その予測結果を予測物体データとして生成する。なお、物体データ時刻における更新物体データを予測する方法としては、公知の技術を適用すればよく、ここでは当該方法の詳細な説明を省略する。
なお、更新物体データには、物体情報センサ1によって検出された物体の状態に関する情報が含まれ、例えば、物体情報センサ1を搭載する自車に対する物体の相対位置、物体の相対速度、物体の相対加速度、物体種類等の情報が含まれる。
相関処理部35は、データ受信部32によって出力される検出物体データと、予測処理部34によって出力される予測物体データおよび補正自車データを入力として、必要に応じて補正自車データを用いて、検出物体データと予測物体データの対応関係を決定する。
なお、物体情報センサ1の数が複数である場合には、更新物体データは、各物体情報センサ1によって検出される検出物体データを統合ないし融合したセンサフュージョンの結果である。
相関処理部35は、決定した対応関係とともに、検出物体データと、予測物体データと、補正自車データとをまとめた相関データを更新処理部36に出力する。
更新処理部36は、相関処理部35によって出力される相関データを入力として、相関データに含まれる、対応する検出物体データおよび予測物体データを用いて、さらに必要に応じて補正自車データを用いて、更新物体データを更新する。また、更新処理部36は、その更新物体データを予測処理部34に出力し、その更新物体データおよび補正自車データを情報報知装置4および車両制御装置5に出力する。
情報報知装置4は、更新処理部36によって出力される更新物体データおよび補正自車データを入力として、その更新物体データおよび補正自車データに従って情報を視覚的ないし聴覚的に報知する。例えば、情報報知装置4は、更新物体データおよび補正自車データから、自車と前方車両との衝突を予想した場合、警報器が警報を鳴らすように制御したり、ディスプレイがその旨を表示するように制御したりする。
車両制御装置5は、更新処理部36によって出力される更新物体データおよび補正自車データを入力として、その更新物体データおよび補正自車データに従って車両の動作を制御する。例えば、車両制御装置5は、更新物体データおよび補正自車データから、自車と前方車両との衝突を回避できないと判断した場合、ブレーキを作動させる制御を行う。
例えば、物体情報センサ1、車両情報センサ2、物体認識装置3、情報報知装置4および車両制御装置5は、CAN(Control Area Network)、Ethernet(登録商標)などの車載ネットワークに接続し、それぞれ所定のプロトコルに基づいてデータを送受信する形態であってもよい。
次に、本実施の形態1における物体認識装置3の動作について、図2を参照しながら説明する。図2は、本発明の実施の形態1における物体認識装置3の動作を示すフローチャートである。なお、物体認識装置3は、所定の動作周期で、以下の動作を繰り返し実行する。図2では、或る動作周期(処理時刻tk)における動作について示している。
ステップS101において、データ受信部32は、物体情報センサ1から検出物体データを受信し、車両情報センサ2から検出自車データを受信する。また、データ受信部32は、受信した検出物体データおよび検出自車データを、各データを受信した時刻とともにデータ記憶部33に格納する。
続いて、ステップS102において、データ受信部32は、データ記憶部33に格納されている、1つ前の処理時刻tk−1から処理時刻tkまでの期間に受信した検出物体データについて、その検出物体データを受信した時刻を、その検出物体データと関連付ける物体データ時刻として確定する。同様に、データ受信部32は、データ記憶部33に格納されている、処理時刻tk−1から処理時刻tkまでの期間に受信した検出自車データについて、その検出自車データを受信した時刻を、その検出自車データと関連付ける自車データ時刻として確定する。
なお、ステップS102で確定される物体データ時刻および自車データ時刻のそれぞれは、前回の処理時刻tk−1よりも大きく、かつ今回の処理時刻tk以下である実数値である。
例えば、物体情報センサ1と車両情報センサ2において内部時刻を同期させておき、物体情報センサ1が検出物体データを生成した生成時刻をその検出物体データに含め、車両情報センサ2が検出自車データを生成した生成時刻をその検出自車データに含めて、データ受信部32に入力するようにしてもよい。この場合、データ受信部32は、受信した検出物体データについて、その検出物体データが生成された生成時刻を、その検出物体データと関連付ける物体データ時刻として確定する。同様に、データ受信部32は、受信した検出自車データについて、その検出自車データが生成された生成時刻を、その検出自車データと関連付ける自車データ時刻として確定する。
ただし、物体情報センサ1と車両情報センサ2において内部時刻を同期させることができるとは限らず、また、そもそも各センサが生成時刻を計測できるとは限らない。そこで、上記のとおり、時刻計測部31が共通時刻を計測し、データ受信部32は、物体情報センサ1から検出物体データを受信したタイミングの共通時刻を物体データ時刻として確定し、車両情報センサ2から検出自車データを受信したタイミングの共通時刻を自車データ時刻として確定することが望ましい。
データ受信部32は、自車データとともに、確定した物体データ時刻および自車データ時刻を予測処理部34に出力する。また、データ受信部32は、検出物体データを相関処理部35に出力する。
このように、データ受信部32は、前回処理時刻(処理時刻tk−1)から今回処理時刻(処理時刻tk)までの期間に受信した検出物体データおよび検出自車データについて、検出物体データごとに物体データ時刻を関連付け、検出自車データごとに自車データ時刻を関連付け、検出物体データ、物体データ時刻、検出自車データおよび自車データ時刻を出力する。
続いて、ステップS103において、予測処理部34は、データ受信部32から入力される自車データ時刻における検出自車データを用いて、物体データ時刻における検出自車データを予測し、その予測結果を補正自車データとして生成する。なお、補正自車データの生成の例については後述する。予測処理部34は、生成した補正自車データを相関処理部35に出力する。
続いて、ステップS104において、予測処理部34は、更新処理部36から入力される更新物体データを用い、必要に応じて補正自車データをさらに用いて、物体データ時刻における更新物体データを予測し、その予測結果を予測物体データとして生成する。予測処理部34は、生成した予測物体データを相関処理部35に出力する。
このように、予測処理部34は、自車データ時刻における検出自車データについて、物体データ時刻における検出自車データを予測し、その予測結果を補正自車データとして生成して出力する。また、予測処理部34は、更新処理部36から入力される更新物体データについて、物体データ時刻における更新物体データを予測し、その予測結果を予測物体データとして生成して出力する。
続いて、ステップS105において、相関処理部35は、必要に応じて補正自車データを用いて、検出物体データと予測物体データとの対応関係を決定する。
なお、相関処理部35は、検出物体データと予測物体データとの対応関係を、例えば、SNN(Simple Nearest Neighbor)アルゴリズム、GNN(Global Nearest Neighbor)アルゴリズム、JPDA(Joint Probabilistic Data Association)アルゴリズムなどを用いて決定する。
相関処理部35は、検出物体データと、予測物体データと、補正自車データと、検出物体データおよび予測物体データの対応関係とをまとめた相関データを更新処理部36に出力する。
このように、相関処理部35は、検出物体データと予測物体データとの対応関係を決定し、補正自車データと、検出物体データと、予測物体データと、その対応関係とをまとめたものを相関データとして生成して出力する。
続いて、ステップS106において、更新処理部36は、相関データに含まれる検出物体データと予測物体データとの対応関係に基づいた、対応する検出物体データおよび予測物体データを用いて、処理時刻tk−1に更新して出力した更新物体データを更新することで、物体データ時刻における更新物体データを生成する。
なお、更新処理部36は、例えば、最小二乗法、カルマンフィルタ、粒子フィルタなどを用いて、更新物体データを更新する。
更新処理部36は、処理時刻tkに更新した更新物体データ、すなわち物体データ時刻における更新物体データを予測処理部34に出力し、さらに、この更新物体データと、物体データ時刻における補正自車データを、情報報知装置4および車両制御装置5に出力する。その後、処理時刻tkでの処理が終了となる。
このように、更新処理部36は、対応する検出物体データおよび予測物体データを用いて、物体データ時刻における更新物体データを生成し、物体データ時刻における更新物体データおよび補正自車データを出力する。
次に、補正自車データの生成方法の例について、図3〜図5を参照しながら説明する。図3〜図5は、本発明の実施の形態1における予測処理部34による補正自車データの生成の第1〜第3の処理例を示すタイミングチャートである。
ここで、物体情報センサ1による検出物体データの検出と、車両情報センサ2による検出自車データの検出は同期しているとは限らないため、一般的には、物体データ時刻と自車データ時刻は異なる。また、自車が停止、または一定速度で直進、あるいは一定速度かつ一定舵角で旋回している状況では、検出自車データが一定となるので、補正自車データを生成する必要はない。
しかしながら、自車が加減速、または舵角が変化しながら旋回している状況では、検出自車データは一定ではない。このような状況では、例えば、検出物体データに対応する物体の絶対速度を算出したり、検出物体データに対応する物体が静止物体であるか否かを判定したりするためには、その検出物体データと関連付けた物体データ時刻における自車データを正確に推定する必要がある。つまり、検出物体データと検出自車データの時間的な整合を取る必要がある。
そこで、本実施の形態1では、上記のような状況に対応するために、検出物体データと関連付けた物体データ時刻における検出自車データを予測し、その予測結果を補正自車データとして生成するように構成されている。
まず、図3を参照しながら、補正自車データの生成の第1の処理例について説明する。なお、図3では、予測処理部34が、以下のように、物体データ時刻、検出自車データおよび自車データ時刻をデータ受信部32から取得したと仮定している。
(1)処理時刻tk−1において、検出自車データを、その検出自車データと関連付けた自車データ時刻TE1とともに取得する。
(2)処理時刻tkにおいて、検出自車データを、その検出自車データと関連付けた自車データ時刻TE2とともに取得し、さらに、物体データ時刻TO1を取得する。
(3)処理時刻tk+1において、検出自車データを、その検出自車データと関連付けた自車データ時刻TE3とともに取得し、さらに、物体データ時刻TO2を取得する。
(4)処理時刻tk+2において、検出自車データを、その検出自車データと関連付けた自車データ時刻TE4とともに取得し、さらに、物体データ時刻TO3を取得する。
処理時刻tkにおいて、予測処理部34は、処理時刻tkよりも前の複数の任意の自車データ時刻における検出自車データを用いて、物体データ時刻TO1における検出自車データを予測し、その予測結果を補正自車データとして生成する。
具体的には、例えば、予測処理部34は、図3に示す座標系において、TE1における検出自車データと、TE2における検出自車データとを、TO1において内分する、換言すれば、TO1において線形近似することで得られる自車データを、TO1における補正自車データとして生成する。
処理時刻tk+1において、予測処理部34は、処理時刻tk+1よりも前の複数の任意の自車データ時刻における検出自車データを用いて、物体データ時刻TO2における検出自車データを予測し、その予測結果を補正自車データとして生成する。
具体的には、例えば、予測処理部34は、図3に示す座標系において、TE2における検出自車データと、TE3における検出自車データとを、TO2において内分することで得られる自車データを、TO2における補正自車データとして生成する。
処理時刻tk+2においても、予測処理部34は、上記と同様の動作を行うことで、TO3における補正自車データを生成する。
なお、予測処理部34は、上述した具体例のような方法に限らず、今回処理時刻よりも前の複数の任意の自車データ時刻における検出自車データを用いて、物体データ時刻における補正自車データを予測して生成可能であれば、どのような方法で補正自車データを予測してもよい。
なお、予測処理部34は、上述した具体例のような方法に限らず、今回処理時刻よりも前の自車データ時刻における検出自車データを時系列フィルタによって処理することで、物体データ時刻における検出自車データを予測して補正自車データを生成してもよい。具体的には、例えば、予測処理部34は、自車が一定の加速度で運動すると仮定した上で、最小二乗法、カルマンフィルタなどを用いて、物体データ時刻における自車速度などを予測する。
続いて、図4を参照しながら、補正自車データの生成の第2の処理例について説明する。なお、図4では、予測処理部34が、以下のように、物体データ時刻、検出自車データおよび自車データ時刻をデータ受信部32から取得したと仮定している。
(1)処理時刻tk−1において、2つの検出自車データを、各検出自車データと関連付けた自車データ時刻とともに取得する。
(2)処理時刻tkにおいて、5つの検出自車データを、各検出自車データと関連付けた自車データ時刻とともに取得し、さらに、物体データ時刻TO1を取得する。
(3)処理時刻tk+1において、5つの検出自車データを、各検出自車データと関連付けた自車データ時刻とともに取得する。
(4)処理時刻tk+2において、5つの検出自車データを、各検出自車データと関連付けた自車データ時刻とともに取得し、さらに、物体データ時刻TO2を取得する。
また、図4に示す状況では、先の図3に示す状況と比較して、データ受信部32が車両情報センサ2から取得する検出自車データの取得レートが高い。第2の処理例は、データ受信部32が車両情報センサ2から取得する検出自車データの取得レートが高い場合に有効な処理である。
処理時刻tkにおいて、予測処理部34は、処理時刻tkよりも前の複数の任意の自車データ時刻における検出自車データを用いて、物体データ時刻TO1における検出自車データを予測し、その予測結果を補正自車データとして生成する。
前述したとおり、これらの検出自車データは、各検出自車データと関連付けた自車データ時刻とともに、データ記憶部33に格納されているので、予測処理部34は、予測するのに必要な検出自車データを自車データ時刻とともにデータ記憶部33から取得する。
具体的には、例えば、予測処理部34は、図4に示す座標系において、処理時刻tk+1よりも前の複数の任意の自車データ時刻における検出自車データから、物体データ時刻TO1に対して時間的に前後に隣り合う2つの検出自車データを選択する。予測処理部34は、これら2つの検出自車データを、TO1において内分することで得られる自車データを、TO1における補正自車データとして生成する。
処理時刻tk+2においても同様に、予測処理部34は、上記と同様の動作を行うことで、TO2における補正自車データを生成する。
このように、予測処理部34は、今回処理時刻よりも前の自車データ時刻における検出自車データのうちの、物体データ時刻に対して時間的に前後に隣り合う自車データ時刻における検出自車データを線形近似することで、物体データ時刻における検出自車データを予測して補正自車データを生成する。
続いて、図5を参照しながら、補正自車データの生成の第3の処理例について説明する。なお、図5では、予測処理部34が、以下のように、物体データ時刻、検出自車データおよび自車データ時刻をデータ受信部32から取得したと仮定している。
(1)処理時刻tk−2において、検出自車データを、その検出自車データと関連付けた自車データ時刻TE1とともに取得する。
(2)処理時刻tk−1において、検出自車データを、その検出自車データと関連付けた自車データ時刻TE2とともに取得する。
(3)処理時刻tkにおいて、検出自車データを、その検出自車データと関連付けた自車データ時刻TE3とともに取得し、さらに、TO1に対して遅延時間を考慮した物体データ時刻TO’1を取得する。
(4)処理時刻tk+1において、検出自車データを、その検出自車データと関連付けた自車データ時刻TE4とともに取得し、さらに、TO2に対して遅延時間を考慮した物体データ時刻TO’2を取得する。
また、図5に示す状況では、先の図3に示す状況と比較して、物体情報センサ1が検出物体データを検出した時刻に対して、データ受信部32がその検出物体データを受信した時刻が遅延している。すなわち、データ受信部32は、処理時刻tk−1から処理時刻tkまでの期間に物体情報センサ1から検出物体データを受信した受信時刻を物体データ時刻TO1として、そのTO1を検出物体データと関連付けるのではなく、上記の遅延を考慮して、TO1よりも前の時刻TO’1を検出物体データと関連付ける。物体データ時刻TO2と、遅延を考慮した時刻TO’2の関係についても同様である。
第3の処理例は、物体情報センサ1が検出物体データを検出した時刻に対して、データ受信部32がその検出物体データを受信した時刻が遅延する際の遅延時間を考慮する場合に有効な処理である。
処理時刻tkにおいて、データ受信部32は、受信時刻TO1から遅延時間を減算することで得られる時刻TO’1を物体データ時刻として、時刻TO1に受信した検出物体データと関連付ける。なお、遅延時間、すなわち、TO1とTO’1の時間差は、予め分かっている値である。
この場合、上記のとおり、予測処理部34は、検出自車データを、その検出自車データと関連付けた自車データ時刻TE3とともに取得し、さらに、物体データ時刻TO’1をデータ受信部32から取得する。
処理時刻tkにおいて、予測処理部34は、処理時刻tkよりも前の複数の任意の自車データ時刻における検出自車データを用いて、物体データ時刻TO’1における検出自車データを予測し、その予測結果を補正自車データとして生成する。
前述したとおり、これらの検出自車データは、各検出自車データと関連付けた自車データ時刻とともに、データ記憶部33に格納されているので、予測処理部34は、予測するのに必要な検出自車データを自車データ時刻とともにデータ記憶部33から取得する。
具体的には、例えば、予測処理部34は、図5に示す座標系において、TE1における検出自車データと、TE2における検出自車データとを、TO’1において内分することで得られる自車データを、TO’1における補正自車データとして生成する。
処理時刻tk+1においても同様に、予測処理部34は、上記と同様の動作を行うことで、TO’2における補正自車データを生成する。
このように、データ受信部32は、受信した検出物体データごとに、時刻計測部31によって計測された時刻から受信時刻を確定し、確定した受信時刻から遅延時間を減算した時刻をさらに確定して物体データ時刻として関連付ける。
なお、データ受信部32は、上記の物体データ時刻TO1’、TO2’の確定と同様に、車両情報センサ2が検出自車データを検出した時刻に対して、データ受信部32がその検出自車データを受信した時刻が遅延する際の遅延時間を考慮して、自車データ時刻を確定してもよい。つまり、データ受信部32は、受信した検出自車データごとに、時刻計測部31によって計測された時刻から受信時刻を確定し、確定した受信時刻から遅延時間を減算した時刻をさらに確定して自車データ時刻として関連付けるようにしてもよい。
以上、本実施の形態1によれば、前回処理時刻から今回処理時刻までの期間に各センサから受信した検出物体データおよび検出自車データについて、検出物体データごとに物体データ時刻を関連付け、検出自車データごとに自車データ時刻を関連付け、物体データ時刻における検出自車データを予測し、その予測結果を補正自車データとして生成し、物体データ時刻における更新物体データを予測し、その予測結果を予測物体データとして生成するように構成されている。
さらに、上記の構成に対して、検出物体データと予測物体データとの対応関係を決定し、補正自車データと、検出物体データと、予測物体データと、対応関係とをまとめたものを相関データとして生成し、相関データに含まれる対応する検出物体データおよび予測物体データを用いて、物体データ時刻における更新物体データを生成し、物体データ時刻における更新物体データおよび補正自車データを出力するように構成されている。
これにより、更新物体データおよび補正自車データを参照することで、自車に搭載されたセンサによって検出される物体の状態を推定することができる。また、物体情報センサと車両情報センサから入力されるデータの受信タイミングが非同期的であったり、各センサの入力遅れがあったりした場合であっても、検出物体データと関連付けられた時刻に合わせてその時刻における検出自車データを予測して、検出物体データと検出自車データの時間的な整合を取っているので、物体の状態のより正確な推定が期待できる。
1 物体情報センサ、2 車両情報センサ、3 物体認識装置、4 情報報知装置、5 車両制御装置、31 時刻計測部、32 データ受信部、33 データ記憶部、34 予測処理部、35 相関処理部、36 更新処理部。
本発明における物体認識装置は、物体情報センサから受信した検出物体データと、車両情報センサから受信した検出自車データから、更新物体データおよび補正自車データを生成して出力する処理を行う物体認識装置であって、時刻を計測する時刻計測部と、物体認識装置が処理を開始する処理時刻よりも1つ前の処理時刻である前回処理時刻から処理時刻までの期間に受信した検出物体データおよび検出自車データについて、検出物体データごとに、時刻計測部によって計測された時刻を物体データ時刻として関連付け、検出自車データごとに、時刻計測部によって計測された時刻を自車データ時刻として関連付け、検出物体データ、物体データ時刻、検出自車データおよび自車データ時刻を出力するデータ受信部と、データ受信部によって出力される物体データ時刻、検出自車データおよび自車データ時刻を入力として、物体データ時刻における検出自車データを予測し、予測結果を補正自車データとして生成して出力し、更新物体データと、データ受信部によって出力される物体データ時刻を入力として、物体データ時刻における更新物体データを予測し、予測結果を予測物体データとして生成して出力する予測処理部と、データ受信部によって出力される検出物体データと、予測処理部によって出力される予測物体データおよび補正自車データを入力として、検出物体データと予測物体データとの対応関係を決定し、補正自車データと、検出物体データと、予測物体データと、対応関係とをまとめたものを相関データとして生成して出力する相関処理部と、相関処理部によって出力される相関データを入力として、対応する検出物体データおよび予測物体データを用いて、物体データ時刻における更新物体データを生成し、物体データ時刻における更新物体データおよび補正自車データを出力する更新処理部と、を備えたものである。
本発明における物体認識方法は、物体情報センサから受信した検出物体データと、車両情報センサから受信した検出自車データから、更新物体データおよび補正自車データを生成して出力する処理を行う物体認識方法であって、処理が開始される処理時刻よりも1つ前の処理時刻である前回処理時刻から処理時刻までの期間に受信した検出物体データおよび検出自車データについて、検出物体データごとに物体データ時刻を関連付け、検出自車データごとに自車データ時刻を関連付け、検出物体データ、物体データ時刻、検出自車データおよび自車データ時刻を出力するステップと、物体データ時刻、検出自車データおよび自車データ時刻を入力として、物体データ時刻における検出自車データを予測し、予測結果を補正自車データとして生成して出力し、更新物体データと、物体データ時刻を入力として、物体データ時刻における更新物体データを予測し、予測結果を予測物体データとして生成して出力するステップと、検出物体データと、予測物体データおよび補正自車データを入力として、検出物体データと予測物体データとの対応関係を決定し、補正自車データと、検出物体データと、予測物体データと、対応関係とをまとめたものを相関データとして生成して出力するステップと、相関データを入力として、対応する検出物体データおよび予測物体データを用いて、物体データ時刻における更新物体データを生成し、物体データ時刻における更新物体データおよび補正自車データを出力するものである。

Claims (9)

  1. 物体情報センサから受信した検出物体データと、車両情報センサから受信した検出自車データから、更新物体データおよび補正自車データを生成して出力する物体認識装置であって、
    時刻を計測する時刻計測部と、
    今回処理時刻よりも1つ前の前回処理時刻から前記今回処理時刻までの期間に受信した前記検出物体データおよび前記検出自車データについて、前記検出物体データごとに、前記時刻計測部によって計測された時刻を物体データ時刻として関連付け、前記検出自車データごとに、前記時刻計測部によって計測された時刻を自車データ時刻として関連付け、前記検出物体データ、前記物体データ時刻、前記検出自車データおよび前記自車データ時刻を出力するデータ受信部と、
    前記データ受信部によって出力される前記物体データ時刻、前記検出自車データおよび前記自車データ時刻を入力として、前記物体データ時刻における前記検出自車データを予測し、予測結果を前記補正自車データとして生成して出力し、前記更新物体データと、前記データ受信部によって出力される前記物体データ時刻を入力として、前記物体データ時刻における前記更新物体データを予測し、予測結果を予測物体データとして生成して出力する予測処理部と、
    前記データ受信部によって出力される前記検出物体データと、前記予測処理部によって出力される前記予測物体データおよび前記補正自車データを入力として、前記検出物体データと前記予測物体データとの対応関係を決定し、前記補正自車データと、前記検出物体データと、前記予測物体データと、前記対応関係とをまとめたものを相関データとして生成して出力する相関処理部と、
    前記相関処理部によって出力される前記相関データを入力として、対応する前記検出物体データおよび前記予測物体データを用いて、前記物体データ時刻における前記更新物体データを生成し、前記物体データ時刻における前記更新物体データおよび前記補正自車データを出力する更新処理部と、
    を備えた物体認識装置。
  2. 前記データ受信部は、
    受信した前記検出物体データごとに、前記時刻計測部によって計測された時刻から受信時刻を確定して前記物体データ時刻として関連付け、
    受信した前記検出自車データごとに、前記時刻計測部によって計測された時刻から受信時刻を確定して前記自車データ時刻として関連付ける
    請求項1に記載の物体認識装置。
  3. 前記データ受信部は、
    受信した前記検出物体データごとに、前記時刻計測部によって計測された時刻から受信時刻を確定し、確定した前記受信時刻から遅延時間を減算した時刻をさらに確定して前記物体データ時刻として関連付ける
    請求項1に記載の物体認識装置。
  4. 前記データ受信部は、
    受信した前記検出自車データごとに、前記時刻計測部によって計測された時刻から受信時刻を確定し、確定した前記受信時刻から遅延時間を減算した時刻をさらに確定して前記自車データ時刻として関連付ける
    請求項3に記載の物体認識装置。
  5. 前記予測処理部は、
    前記今回処理時刻よりも前の前記自車データ時刻における前記検出自車データを時系列フィルタによって処理することで、前記物体データ時刻における前記検出自車データを予測して前記補正自車データを生成する
    請求項1から4のいずれか1項に記載の物体認識装置。
  6. 前記予測処理部は、
    前記今回処理時刻よりも前の前記自車データ時刻における前記検出自車データのうちの、前記物体データ時刻に対して時間的に前後に隣り合う前記自車データ時刻における前記検出自車データを線形近似することで、前記物体データ時刻における前記検出自車データを予測して前記補正自車データを生成する
    請求項1から4のいずれか1項に記載の物体認識装置。
  7. 請求項1から6のいずれか1項に記載の物体認識装置と、
    前記物体認識装置によって出力される前記更新物体データおよび前記補正自車データに従って車両を制御する車両制御装置と、
    を備えた車両制御システム。
  8. 前記更新物体データおよび前記補正自車データに従って情報を報知する情報報知装置をさらに備えた
    請求項7に記載の車両制御システム。
  9. 物体情報センサから受信した検出物体データと、車両情報センサから受信した検出自車データから、更新物体データおよび補正自車データを生成して出力する物体認識方法であって、
    今回処理時刻よりも1つ前の前回処理時刻から前記今回処理時刻までの期間に受信した前記検出物体データおよび前記検出自車データについて、前記検出物体データごとに物体データ時刻を関連付け、前記検出自車データごとに自車データ時刻を関連付け、前記検出物体データ、前記物体データ時刻、前記検出自車データおよび前記自車データ時刻を出力するステップと、
    前記物体データ時刻、前記検出自車データおよび前記自車データ時刻を入力として、前記物体データ時刻における前記検出自車データを予測し、予測結果を前記補正自車データとして生成して出力し、前記更新物体データと、前記物体データ時刻を入力として、前記物体データ時刻における前記更新物体データを予測し、予測結果を予測物体データとして生成して出力するステップと、
    前記検出物体データと、前記予測物体データおよび前記補正自車データを入力として、前記検出物体データと前記予測物体データとの対応関係を決定し、前記補正自車データと、前記検出物体データと、前記予測物体データと、前記対応関係とをまとめたものを相関データとして生成して出力するステップと、
    前記相関データを入力として、対応する前記検出物体データおよび前記予測物体データを用いて、前記物体データ時刻における前記更新物体データを生成し、前記物体データ時刻における前記更新物体データおよび前記補正自車データを出力するステップと、
    を備えた物体認識方法。
JP2017113497A 2017-06-08 2017-06-08 物体認識装置、物体認識方法および車両制御システム Active JP6490747B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017113497A JP6490747B2 (ja) 2017-06-08 2017-06-08 物体認識装置、物体認識方法および車両制御システム
US15/817,633 US10793145B2 (en) 2017-06-08 2017-11-20 Object recognition device, object recognition method, and vehicle control system
DE102018201713.1A DE102018201713A1 (de) 2017-06-08 2018-02-05 Objekterkennungsvorrichtung, Objekterkennungsverfahren und Fahrzeugsteuersystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113497A JP6490747B2 (ja) 2017-06-08 2017-06-08 物体認識装置、物体認識方法および車両制御システム

Publications (2)

Publication Number Publication Date
JP2018205237A true JP2018205237A (ja) 2018-12-27
JP6490747B2 JP6490747B2 (ja) 2019-03-27

Family

ID=64332909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113497A Active JP6490747B2 (ja) 2017-06-08 2017-06-08 物体認識装置、物体認識方法および車両制御システム

Country Status (3)

Country Link
US (1) US10793145B2 (ja)
JP (1) JP6490747B2 (ja)
DE (1) DE102018201713A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149630A (ja) * 2020-03-19 2021-09-27 マツダ株式会社 物体認識装置および物体認識方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904849B2 (ja) * 2017-08-14 2021-07-21 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム。
DE102018009433A1 (de) * 2018-11-30 2020-06-04 Zf Active Safety Gmbh Objekterkennung durch indirekte Signalreflexion
CN110009765B (zh) * 2019-04-15 2021-05-07 合肥工业大学 一种自动驾驶车辆场景数据系统的场景格式转化方法
CN113505716B (zh) * 2021-07-16 2022-07-01 重庆工商大学 静脉识别模型的训练方法、静脉图像的识别方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06504131A (ja) * 1991-11-01 1994-05-12 モトローラ・インコーポレイテッド 車両ナビゲーション用の改善された精度の検出装置
JP2001043499A (ja) * 1999-07-29 2001-02-16 Toyota Central Res & Dev Lab Inc 車両検出装置
JP2001324560A (ja) * 2000-05-16 2001-11-22 Sony Corp ナビゲーション装置、およびgps受信機
JP2002341014A (ja) * 2001-05-18 2002-11-27 Hitachi Ltd マルチセンサ航跡の相関処理をする装置及びそのプログラム
WO2003008996A1 (de) * 2001-07-17 2003-01-30 Robert Bosch Gmbh Verfahren zur zeitlichen synchronisation mehrerer fahrzeugsensoren
JP2003223224A (ja) * 2002-01-30 2003-08-08 Furuno Electric Co Ltd 移動体姿勢検出装置およびコース維持支援装置
JP2006099633A (ja) * 2004-09-30 2006-04-13 Toyota Motor Corp 前方車両の走行状態検出装置及び車両走行状態検出装置
JP2006349602A (ja) * 2005-06-20 2006-12-28 Alpine Electronics Inc 車載レーダ装置
JP2007200074A (ja) * 2006-01-27 2007-08-09 Alpine Electronics Inc 周辺物体追尾装置及び周辺物体位置予測方法
JP2007279892A (ja) * 2006-04-04 2007-10-25 Honda Motor Co Ltd 衝突予知システムの制御装置、衝突予知方法および乗員保護システム
US20120089292A1 (en) * 2010-02-14 2012-04-12 Leonid Naimark Architecture and Interface for a Device-Extensible Distributed Navigation System

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2952268A1 (de) 1979-12-24 1981-07-02 Vdo Adolf Schindling Ag, 6000 Frankfurt Einrichtung zur anzeige des kraftstoff-streckenverbrauchs eines kraftfahrzeugs
DE60226817D1 (de) * 2001-08-23 2008-07-10 Nissan Motor Fahrassistenzsystem
US8224564B2 (en) * 2007-02-14 2012-07-17 Fuji Jukogyo Kabushiki Kaisha Vehicle drive assist system
JP2011048470A (ja) * 2009-08-25 2011-03-10 Toyota Motor Corp 環境予測装置
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
US8949018B2 (en) * 2011-06-13 2015-02-03 Toyota Jidosha Kabushiki Kaisha Driving assistance device and driving assistance method
JP5698618B2 (ja) 2011-07-04 2015-04-08 本田技研工業株式会社 絶対速度推定装置
DE112016003285B4 (de) * 2015-07-22 2022-12-22 Honda Motor Co., Ltd. Routengenerator, Routenerzeugungsverfahren und Routenerzeugungsprogramm

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06504131A (ja) * 1991-11-01 1994-05-12 モトローラ・インコーポレイテッド 車両ナビゲーション用の改善された精度の検出装置
JP2001043499A (ja) * 1999-07-29 2001-02-16 Toyota Central Res & Dev Lab Inc 車両検出装置
JP2001324560A (ja) * 2000-05-16 2001-11-22 Sony Corp ナビゲーション装置、およびgps受信機
JP2002341014A (ja) * 2001-05-18 2002-11-27 Hitachi Ltd マルチセンサ航跡の相関処理をする装置及びそのプログラム
WO2003008996A1 (de) * 2001-07-17 2003-01-30 Robert Bosch Gmbh Verfahren zur zeitlichen synchronisation mehrerer fahrzeugsensoren
JP2003223224A (ja) * 2002-01-30 2003-08-08 Furuno Electric Co Ltd 移動体姿勢検出装置およびコース維持支援装置
JP2006099633A (ja) * 2004-09-30 2006-04-13 Toyota Motor Corp 前方車両の走行状態検出装置及び車両走行状態検出装置
JP2006349602A (ja) * 2005-06-20 2006-12-28 Alpine Electronics Inc 車載レーダ装置
JP2007200074A (ja) * 2006-01-27 2007-08-09 Alpine Electronics Inc 周辺物体追尾装置及び周辺物体位置予測方法
JP2007279892A (ja) * 2006-04-04 2007-10-25 Honda Motor Co Ltd 衝突予知システムの制御装置、衝突予知方法および乗員保護システム
US20120089292A1 (en) * 2010-02-14 2012-04-12 Leonid Naimark Architecture and Interface for a Device-Extensible Distributed Navigation System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149630A (ja) * 2020-03-19 2021-09-27 マツダ株式会社 物体認識装置および物体認識方法
JP7439362B2 (ja) 2020-03-19 2024-02-28 マツダ株式会社 物体認識装置および物体認識方法

Also Published As

Publication number Publication date
US20180356820A1 (en) 2018-12-13
US10793145B2 (en) 2020-10-06
DE102018201713A1 (de) 2018-12-13
JP6490747B2 (ja) 2019-03-27

Similar Documents

Publication Publication Date Title
JP6490747B2 (ja) 物体認識装置、物体認識方法および車両制御システム
JP6256531B2 (ja) 物体認識処理装置、物体認識処理方法および自動運転システム
KR102075110B1 (ko) V2v 통신 기반 차량 식별 장치 및 그 식별 방법
EP3888276B1 (en) Verifying timing of sensors used in autonomous driving vehicles
CN109099920B (zh) 基于多传感器关联的传感器目标精确定位方法
DK180393B1 (en) DATA FUSION SYSTEM FOR A VEHICLE EQUIPPED WITH NON-SYNCHRONIZED PERCEPTION SENSORS
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
US20190001978A1 (en) Vehicle control method and apparatus
JP2007310741A (ja) 立体物認識装置
US20140297063A1 (en) Vehicle specifying apparatus
JP6239047B1 (ja) 物体認識統合装置および物体認識統合方法
JP2002352399A (ja) 車両周辺監視装置
KR20160056129A (ko) 주변차량의 위치정보 보정 시스템 및 방법
JP2004037239A (ja) 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2014025925A (ja) 車両用コントローラ、車両システム
CN112204423B (zh) 物体识别装置和物体识别方法
JP2009230389A (ja) 認識システム
JP6169146B2 (ja) 物体認識統合装置および物体認識統合方法
JP6333437B1 (ja) 物体認識処理装置、物体認識処理方法および車両制御システム
JP5067091B2 (ja) 衝突判定装置
US11555913B2 (en) Object recognition device and object recognition method
CN112652006A (zh) 感测车辆周围环境中的物体的方法,数据处理设备,计算机程序产品和计算机可读数据介质
JP7412254B2 (ja) 物体認識装置および物体認識方法
WO2022034815A1 (en) Vehicle surroundings recognition device
WO2024013839A1 (ja) 物体認識装置及び物体認識方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190227

R150 Certificate of patent or registration of utility model

Ref document number: 6490747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250