JPWO2020166253A1 - 車両制御装置および電子制御システム - Google Patents

車両制御装置および電子制御システム Download PDF

Info

Publication number
JPWO2020166253A1
JPWO2020166253A1 JP2020572126A JP2020572126A JPWO2020166253A1 JP WO2020166253 A1 JPWO2020166253 A1 JP WO2020166253A1 JP 2020572126 A JP2020572126 A JP 2020572126A JP 2020572126 A JP2020572126 A JP 2020572126A JP WO2020166253 A1 JPWO2020166253 A1 JP WO2020166253A1
Authority
JP
Japan
Prior art keywords
calculation block
control device
vehicle control
output
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020572126A
Other languages
English (en)
Other versions
JP7078763B2 (ja
Inventor
坂本 英之
広津 鉄平
泰輔 植田
英達 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2020166253A1 publication Critical patent/JPWO2020166253A1/ja
Priority to JP2022082088A priority Critical patent/JP7281000B2/ja
Application granted granted Critical
Publication of JP7078763B2 publication Critical patent/JP7078763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両周囲のセンサまたはセンサフュージョンを処理する演算ブロックに動作異常が発生した場合でも、安全に制御移行することができ、信頼性の高い車両制御装置および電子制御システムを実現する。
複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算ブロックと、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算ブロックと、前記第1の演算ブロックの出力結果と前記第2の演算ブロックの出力結果を用いて、前記第1の演算ブロックの出力結果を診断する第3の演算ブロックを備える。

Description

本発明は、自動運転システムの車両制御装置および電子制御システムに関する。
高度な自動運転システムの実現に向け、自動運転を制御する上位の制御装置である自動運転ECU(Electronic Control Unit)は、ECU内部の演算処理装置(以下、マイコン)を搭載し、センサフュージョン処理を行うことで車体周囲の物体を検知し、周囲物体の接触を避けるように車両の軌道を決定する機能が要求されている。ここでセンサフュージョン処理とは検出原理の異なる2つ以上のセンサ、例えばカメラの撮像画像やレーダ等の検出データを統合的に処理することによって、単一センサからでは得られない高度な認識機能を実現する技術である。さらに近年、自動運転の高度化に伴い、外界認識の精度向上及びセンサ側処理の低レイテンシ化が求められている。実現の施策として、センサから出力されたローデータを自動運転ECU内の演算ブロックに実装したニューラルネットワークに入力することでセンサフュージョン処理を行い、対象物データを出力する制御方法が検討されている。また上記方法を実施する際には、集中処理によるセンサフュージョン出力結果の妥当性についての診断機構が要求される。
かかる技術として、例えば特許文献1に記載の技術がある。
特表2017−513162号公報
特許文献1の技術は、各周囲センサから出力される対象物ベースの融合データと、ローデータの融合によるロー対象物データを相互に比較し、その差異がエラー許容範囲外にある場合に、データの破棄ならびに再計算を実施している。
ここでローデータフュージョンの結果と対象物データフュージョンの結果を比較する際には、それぞれデータ処理方法に違いがあることに起因して、検知可能対象物が異なる場合がある。そのためシーンによっては、お互いに正常な出力であったとしても、検知された対象物に差分が生じる場合がある。したがってローデータフュージョンの結果と対象物データフュージョン結果を単純に比較するだけでは、それぞれのデータの確からしさを診断することは困難である。しかしながら、この点は特許文献1では考慮されていない。本発明は、上記問題点に鑑みなされたものであり、その目的は自動運転制御システムにおけるセンサまたはセンサフュージョン処理する演算ブロックからの出力データを精度よく診断することにある。
本発明は上記課題を解決するための複数の手段を備えている。例えば本発明の一態様は以下の構成を採用する。
複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算ブロックと、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算ブロックと、前記第1の演算ブロックの出力結果と前記第2の演算ブロックの出力結果を用いて、前記第1の演算ブロックの出力結果を診断する第3の演算ブロックを備えることを特徴とする車両制御装置。
本発明の一態様によれば、安全性の向上が可能な車両制御装置および電子制御システムを実現することができる。
実施例1における車両制御装置(第1ECU)11の内部構成と、センサならびにアクチュエータの接続を示す図である。 実施例1におけるセンサフュージョン結果の診断方法を示す図である。 実施例1における診断ならびに診断結果に基づく制御フローを示す図である。 実施例2における車両制御装置(第1ECU)11の内部構成とセンサならびにアクチュエータの接続を示す図である。 実施例3における車両制御装置(第1ECU)11及び車両制御装置(第2ECU)12の内部構成とセンサ並びにアクチュエータの接続を示す図である。
以下、本発明の実施形態について添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例にすぎず、本発明の技術的範囲を限定するものではない。各図において共通の構成については同一の参照符号が付されている。
(自動運転システムの構成)
はじめに本発明が適用される自動運転システム(車両制御システム)の構成(図示しない)について説明する。本発明における自動運転システムは外界センサから得た情報に基づいて車両の挙動を制御する車両制御装置である。
本発明において、外界センサとは例えばカメラやライダー、レーダ、レーザ等を想定するが、その他のセンサであってもよい。また本発明において車両制御システムは車両に備えられたアクチュエータ群に接続し、アクチュエータ群を駆動させることにより車両を制御する。アクチュエータ群とは、例えばブレーキ制御、エンジン制御、パワーステアリング制御であるが、それに限定されるものではない。
(実施例1)
以下、実施例1について図1から図3を用いて、本発明を説明する。
図1は実施例1における車両制御装置(第1ECU)11の内部構成と、センサならびにアクチュエータの接続を示す図である。
前述したとおり近年自動運転の実現のため車両制御装置は、より精度が高く情報量が大きいセンサデータを入力し、センサフュージョンを行うことより、高精度な軌道生成を行うことが求められている。
自車の周辺環境認識に用いられるセンサは複数存在する。例えば画像データを得るためのカメラ、距離データを得るためのライダーやレーダなどである。カメラは路面標識など色認識は高い信頼性を持つが、雨、霧、強い日差しの際、認識が困難という課題がある。
一方で例えばレーダは、距離の検知は有用である一方で、低分解能であるという課題がある。それぞれのセンサには長所、短所が存在し、一つのセンサのみで周辺環境認識をすることはできない。
ここでセンサフュージョンとは、2つ以上のセンサ、例えばカメラの撮像画像やレーダ等の検出データを統合的に処理することによって、単一センサからでは得られない高度な認識機能を実現する技術である。これまでセンサフュージョンを実施する際は、それぞれのセンサデータを前処理(オブジェクトデータ化)してセンサフュージョンする(オブジェクトデータフュージョン)ことにより、高い信頼性を担保していた。一方で昨今は、より高度な周辺環境認識を行うために各センサから得たローデータをセンサフュージョンする必要性が高まっている。具体的には以下にて説明する。
本実施例における車両制御装置11には、各センサから前処理をしていない大量のローデータが入力される。そして車両制御装置11に備えられたマイコン111は各センサから入力されたローデータに基づいて、ローデータフュージョン処理を実施する。具体的にはマイコン111の演算ブロック211では、各センサから得られたローデータ104、204、304をデータフュージョン処理することにより、ローデータフュージョン結果701を生成する。
車両制御装置11には、各センサからローデータの他にオブジェクトデータが入力される。第1センサ1、第2センサ2、第3センサ3は、各センサに備えた情報処理部102、202、302にて、各センサデータのオブジェクトデータ103、203、303をそれぞれ生成する。車両制御装置11に備えられたマイコン112は各センサから入力されたオブジェクトデータに基づいて、オブジェクトデータフュージョン処理を実施する。
具体的にはマイコン112の演算ブロック212では、各センサから得られたオブジェクトデータ103、203、303をデータフュージョン処理することにより、オブジェクトデータフュージョン結果702を生成する。例として、以下のようなセンサを用い、フュージョンに係るフローを説明する。
例えば、カメラ1はセンサ101と情報処理部102を内蔵するセンサモジュールである。センサ101より取得されたローデータは情報処理部102及び第1ECU内の演算ブロック211に送信される。また情報処理部102はセンサ101より取得されたローデータに基づいてオブジェクトデータを生成する。その後オブジェクトデータ103は、第1ECU内の演算ブロック212に送信される。
レーダ2はセンサ201と情報処理部202を内蔵するセンサモジュールである。センサ201より取得されたローデータは、情報処理部202及び第1ECU内の演算ブロック211に送信される。また情報処理部202は、センサ201より取得されたローデータを基にオブジェクトデータ203を生成する。その後、オブジェクトデータ203は、第1ECU内の演算ブロック212に送信する。
レーザ3はセンサ301と情報処理部302を内蔵するセンサモジュールである。センサ301より取得されたローデータは、情報処理部302と第1ECU内の演算ブロック211に送信される。また情報処理部302はセンサ301より取得されたローデータを基にオブジェクトデータを生成する。その後、オブジェクトデータ303は、第1ECU内の演算ブロック212に送信される。情報処理部の例として、マイコンやFPGA(Field Programmable Gate Array)が挙げられる。
上記の通り、演算ブロック211にはそれぞれのセンサから得られたデータのローデータが入力される。演算ブロック211は、各センサから入力されるローデータを融合し、周囲のオブジェクトデータであるローデータフュージョン結果701を生成する。そのため演算ブロック211は、大量のデータを一括処理可能である必要がある。ローデータフュージョン結果701は、機械学習により出力される。ここでいう機械学習とは、たとえば各センサからのローデータを演算ブロック211に設けたNN(Neural Network)もしくはDNN(Deep Neural Network)に入力することにより、ローデータをセンサフュージョンしたローデータフュージョン結果701を生成することを指す。ここでNN、DNNを例とする機械学習により演算されるローデータフュージョン結果701は、大量のデータを含むため精度の高い軌道生成が可能となる。演算ブロック211は、生成したローデータフュージョン結果701をマイコン113に送信する。またマイコン111は、ローデータフュージョン結果701を基に自車周囲の物体の行動予測を行い、行動予測の結果を基に自車の軌道データ711を生成し、軌道追従制御部214に送信する。
演算ブロック212は、ロックステップ機能を搭載する信頼性の高いマイコン112に実装される。ここでロックステップマイコン112は、CPUやメモリを備えており、各系のCPUサブシステムは、クロック単位で完全に同期して動作するように、二重化制御回路によって制御されるものであるため、信頼性が高い。
マイコン112はカメラ1、レーダ2、レーザ3で個々に前処理したオブジェクトデータを扱う。
カメラ1、レーダ2、レーザ3等各センサに設けられた情報処理部102、202、302にて前処理を行うことにより得られた各オブジェクトデータ103、203、303を演算ブロック212にてオブジェクトデータフュージョンすることにより、オブジェクトデータフュージョン結果702を生成する。
その後マイコン112は生成したオブジェクトデータフュージョン結果702をマイコン113へ送信する。またマイコン112は、オブジェクトデータフュージョン結果702を基に自車周囲の物体の行動予測を行い、行動予測の結果を基に自車の軌道データ712を生成し、軌道追従制御部214へと送信する。
本実施例では、演算ブロック211が実装される第1のマイコン111、演算ブロック212が実装される第2のマイコン112、比較診断を行う演算ブロック213が実装された第3のマイコン113を備える車両制御装置の例を示している。
演算ブロック211においてセンサフュージョンしたローデータフュージョン結果701と、演算ブロック212でセンサフュージョンしたオブジェクトデータフュージョン結果702は、演算ブロック213が有する比較診断機能によって診断が行われる。そして、演算ブロック213の診断結果に基づいて軌道追従制御を行う。具体的な診断については後述する。
制御追従制御部214はマイコン111の軌道生成部あるいはマイコン112の軌道生成部で演算した軌道情報に基づいて、軌道追従制御指令を生成する。軌道追従制御部214は、比較診断の結果、演算ブロック211が正常であった場合に、マイコン111で生成された軌道データ711に基づいて自車両を追従させるように、アクチュエータ制御ECU13、14、15への制御指令を生成して送信する。
また、演算ブロック211が異常と診断された場合においてはマイコン112で生成された軌道データ712に自車両を追従させるように、制御追従制御部214はアクチュエータ制御ECU13、14、15への制御指令を生成して送信する。
図2は、実施例1におけるセンサフュージョン結果の診断方法を示す図である。
図2は自車801の近傍に他車802、803、自車801の遠方に他車804が走行している場合における自車801のセンサフュージョン結果の例を示している。
図2の左側にある図2−1a、図2−1bは、各センサより得られるローデータを基に演算ブロック211においてセンサフュージョンして得られたローデータフュージョン結果701を示す。図2の右側にある図2−2a、図2−2bは各センサの演算ブロックで処理されたデータを基に演算ブロック212によりフュージョンしたオブジェクトデータフュージョン結果702を示す。
ここで、図2の上段が診断結果が正常のケースを示し、下段が診断結果が異常のケースを示している。診断の具体的態様については以下に説明する。
先述したとおり、各センサ101、201、301から得られたセンサデータは、各センサに備えられた情報処理部102、202、302により情報処理される。前記情報処理により得られた各センサのオブジェクトデータ103、203、303の情報は演算ブロック212へ送られる。演算ブロック212は、得られた各オブジェクトデータ103、203、303をフュージョンすることにより、オブジェクトデータフュージョン結果702を生成する。
演算ブロック212により行われるセンサフュージョンは、センサ側に設けられた演算ブロック(プロセッサ)やロックステップマイコンを用いて行われる。さらに確からしさの検証のため、ロックステップマイコンは各センサから出力されるオブジェクトデータを多数決で採用する等の方策を取るのが望ましい。
ただし、オブジェクトデータフュージョン結果702では、図2−2aに示すように、自車周辺に走行する他車802、803の認識については信頼性の高い出力が期待できる。一方で、データがあらかじめ信頼性の担保のため処理されることに起因して、遠方を走行する他車(例えば図2−2aの他車804)の認識をすることは難しい場合がある。
ここで演算ブロック211では、各センサから得られたデータ(例えばデータ104、204、304)を直接得て、ローデータフュージョン処理を行い、ローデータフュージョン結果701を出力する。出力の例を図2−1aに示す。演算ブロック211は、各センサからの大量のローデータを扱っているため、認識できる物体群の情報量も多くなる。
ここで物体群とは車両周辺に存在する物体のことを指し、例えば車両や歩行者である。よって、自車の近傍を走行する他車802、803の認識が可能なだけではなく、図2−1aでは、図2−2aでは認識できなかった、遠方を走行する他車804も認識することが可能となる。
基本的に演算ブロック212においてセンサフュージョンして生成されるオブジェクトデータフュージョン結果702は、大量のローデータが入力される演算ブロック211で出力されるデータフュージョン結果701と比較して、認識できる周辺の情報量が少ない。ここで演算ブロック211により生成されるローデータフュージョン結果701は、例えばLVDS通信レベルであり10Mbps以上のデータ量である。一方、演算ブロック212により生成されるオブジェクトフュージョン結果702は、例えばCAN−FD通信レベルの10Mbps未満である。
演算ブロック211と演算ブロック212のローデータフュージョン結果701、オブジェクトフュージョン結果702の出力、認識の確からしさを判断するために、ローデータフュージョン結果701、オブジェクトフュージョン結果702を単純に照合すると、前述したとおり、データ量や認識できる物体群にいつも相違が発生してしまうことに起因して常に診断では診断結果:異常と判断してしまうことになる。
そこで、本実施例においては、演算ブロック212が複数のプロセッサ及びロックステップマイコンを用いたフローを用いて、近傍の他車の認識について高い信頼性を有することを前提として、演算ブロック212で認識された近傍の外界情報の認識と同様の外界情報認識を演算ブロック211が認識できているかどうかを診断する。
具体的には演算ブロック212で出力されるオブジェクトフュージョン結果702が、演算ブロック211で出力されるローデータフュージョン結果701に含まれている場合においては診断結果:正常と判定する。演算ブロック212で出力されるローデータフュージョン結果702が、演算ブロック211で出力されるローデータフュージョン結果701に含まれていない場合、演算ブロック213は診断結果:異常と判定する。
以下、図2を例に具体的に説明する。
図2の上段の図では、演算ブロック211のローデータフュージョン結果701においては遠方の他車804を認識している(図2−1a)のに対し、演算ブロック212では、他車804を認識していない(図2−2a)が、近傍を走行する車両については双方認識できているため、診断結果:正常とする。
一方、図2の下段の図では演算ブロック212で近傍の他車802を認識している(図2−2b)のに対し、演算ブロック211で他車802を認識していない(図2−1b)。よって、演算ブロック213は演算ブロック212において生成されるオブジェクトデータフュージョン結果702が、演算ブロック211において生成されるローデータフュージョン結果701に含まれていない場合に診断結果:異常とする。この場合は、ローデータフュージョン結果701に誤りがあると判断し、信頼性の高い演算ブロック212より出力されたオブジェクトフュージョン結果702を正しいとする。
演算ブロック212で計算されたオブジェクトデータフュージョン結果702で認識できているにも関わらず、演算ブロック211で演算されたローデータフュージョン結果701で認識できていない物体がある場合には、演算ブロック213は診断結果を異常とする。また、演算ブロック212で計算されたオブジェクトデータフュージョン結果702で認識できている物体を、演算ブロック211で演算されたローデータフュージョン結果701で認識できている場合には診断結果を正常と判断する。
ここで、演算ブロック213が演算ブロック211の診断結果を異常と診断した場合には、センサの故障や不具合発生の可能性を有する。
上記のような不具合発生を検知した場合には、好ましくは、演算ブロック213もしくは演算ブロック211はローデータフュージョン結果701の出力を禁止する。あるいは、演算ブロック211はローデータフュージョン結果の出力を停止する。演算ブロック212により出力された車両の軌道に従い、走行することする。その理由は、演算ブロック212の出力に関しては、複数のセンサのデータの確からしさを多数決で判断するため、1つのセンサが故障したとしても、依然として信頼性の高い出力を得ることができるからである。継続して演算ブロック212の出力結果を使うことにより、信頼性の高い軌道追従制御が可能となる。
そして、より好ましくはマイコン112において、縮退軌道データ712を生成し、車両が縮退動作を選択してもよい。縮退動作については後で詳述する。
本診断方法では演算ブロック212で出力されるセンサフュージョン結果を正として演算ブロック211の出力するセンサフュージョン結果701を診断している。演算ブロック212の出力結果を正とするために、車両制御装置、システムは以下のような構成を備えることが望ましい。
機械学習(例えばDNN)を用いたフュージョン処理(演算ブロック211)は経験・マッチングでの生成であるのに対し、演算ブロック212によるフュージョンはルールベースのアルゴリズムで生成されるものであることが望ましい。機械学習を用いたフュージョン処理はリアルタイムで変動する因果関係(例えばDNN)に基づくものであり、演算ブロック212によるフュージョン処理は、あらかじめ定められた相関関係(例えばロックステップマイコン)に基づくものである。そのため、機械学習によるフュージョン処理とは独立した系により算出された軌道に基づき、ローデータフュージョン結果の診断が可能となる。その結果、より信頼性の高いローデータフュージョン結果の診断の実現が可能となる。
演算ブロック212は、信頼性の高いロックステップマイコンで実行されることが望ましい。演算ブロック211の軌道生成に用いられるローデータフュージョン結果701の確からしさを、信頼性の高い演算ブロック212の出力するオブジェクトフュージョン結果702に基づいて診断することができる。その結果、信頼性の高いローデータフュージョン結果の診断を行うことができる。
また演算ブロック212は、複数のセンサ・電子制御プロセッサ(演算ブロック211とは異なる原理・方式、アルゴリズムを用いるもの)からの出力に基づいて多数決を取ることが望ましい。上記の構成によると、演算ブロック212は確からしいデータを用いて演算を行うことが可能となり信頼性が高い。
演算ブロック212は、演算ブロック211とは異なる電子制御プロセッサを用いることが必要である。ひとつのセンサあるいはひとつの電子制御プロセッサが故障した場合であっても、多数決により、他のセンサ、電子制御プロセッサを活かし、正しく判断することが可能となる。
車両制御装置11にセンサデータを供給する複数のセンサは、少なくとも2つ以上のバッテリから電源を供給されていることが望ましい。例えばカメラ1はバッテリA、レーダ2はバッテリBから電源供給を受ける。この構成により車両制御装置11は電源の冗長化を実現することが可能となり、より信頼性の高い車両軌道生成を行うことが可能となる。
図3は実施例1における診断ならびに診断結果に基づく制御フローを示す図である。マイコン111に備えられた演算ブロック211によるフュージョン結果701とマイコン112に備えられた演算ブロック212によるフュージョン結果702は、マイコン113に備えられた演算ブロック213により比較される。
ここで正常と判定した場合には、マイコン111においてセンサフュージョンならびに軌道生成した軌道データ712が採用される。マイコン111において演算されたローデータフュージョン結果701のデータを基に演算ブロック214にて軌道追従制御を行うため、車両制御装置11より軌道追従制御のためのアクチュエータ制御指令がアクチュエータ側に送信される。
一方で、演算ブロック211で出力されるセンサフュージョンして生成されるローデータフュージョン結果701が、演算ブロック212で出力されるセンサフュージョンして生成されるオブジェクトデータフュージョン結果702に含まれていない場合に異常と診断する。ここで、演算ブロック213が演算ブロック211の演算結果を異常と診断した場合は、マイコン112においてセンサフュージョンならびに軌道生成した軌道データ712が採用され、このデータを基に演算ブロック214にて軌道追従制御のためのアクチュエータ駆動指令(アクチュエータ制御指令)がアクチュエータECUへ送信される。
ここで、演算ブロック213において、演算ブロック211により演算されたローデータフュージョン結果701の出力が異常であると診断された場合には、各センサ異常が生じている可能性がある。そのような状態のまま走行を続けるリスクは高い。そのため診断結果が異常と判断された場合には、図示したマイコン112による生成軌道データ711は縮退軌道を生成することが可能である。ここで縮退とは、運転中にひとつの基幹部品が破損して機能停止に陥る場合に自動運転システムが継続できるよう機能不全回避用の緊急回避を行うこと、あるいは基幹部品の破損による機能停止時においても、一定期間自動運転を継続し、安全かつスムーズにドライバーへ運転を引き継ぐよう、安全に退避することを指す。また縮退軌道とは上記のような動作を実現するために生成する安全退避軌道、緊急退避軌道のことを指す。上記のような構成を有することにより、センサに不具合が生じたと演算ブロック213が検知した場合は、マイコン112は縮退軌道を生成するため、安全に停車することが可能となる。
本実施例において、演算ブロック211と演算ブロック212は絶え間なく、並列してそれぞれ別のアルゴリズムにより、軌道生成のための演算を実施している。そのため、もしも演算ブロック211のローデータフュージョン結果701について演算ブロック213が異常と診断した場合においても演算ブロック212でのオブジェクトデータフュージョン結果702の生成した軌道へスイッチすることが可能となり、タイムラグ発生の抑制が可能となる。
また演算ブロック212においても演算ブロック211で行っているような高度な演算処理を行う場合(完全冗長系の場合)、演算ブロック211、演算ブロック212の両方が、重い演算負荷に耐えうる高度なプロセッサである必要がある。しかしながら縮退軌道の生成を行う場合は、それほど高度なプロセッサは要求されないため、低コストなプロセッサで演算可能である。そのため演算ブロック212を縮退軌道生成のみ行わせることにすると、車両制御装置の低コスト化が可能となる。
この構成により、センサあるいはセンサに設けられた各マイコン、各演算ブロックの異常に起因する不安定な軌道追従制御を防止することが可能となる。
本実施例は、複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算ブロック(演算ブロック211)と、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算ブロック(演算ブロック212)と、前記第1の演算ブロックの出力結果と前記第2の演算ブロックの出力結果を用いて、前記第1の演算ブロックの出力結果を診断する第3の演算ブロック(演算ブロック213)を備える。
演算ブロック211の出力結果は、演算ブロック212の出力結果と比較すると、情報量が多いことが想定される。しかし演算ブロック211と演算ブロック212の出力結果を単純比較することとなれば、それらの情報量の違いから、お互いが正常な出力であったとしても差分が生じてしまうため、ほとんどの出力を破棄することになりかねない。そこで本実施例は上記のような構成を有することにより、演算ブロック212の信頼性の高い出力結果に基づいて、情報量の多い演算ブロック211の出力結果を判断することが可能となる。
好ましくは第3の演算ブロック(演算ブロック213)は、第2の演算ブロック(演算ブロック212)によるセンサフュージョン結果として出力される車両周辺の物体群が、第1の演算ブロック(演算ブロック211)によるセンサフュージョン結果として出力される車両周辺の物体群に含まれていない場合に第1の演算ブロック(演算ブロック211)を異常であると判断する。また、第3の演算ブロック(演算ブロック213)は、第2の演算ブロック(演算ブロック212)によるセンサフュージョン結果として出力される車両周辺の物体群が、第1の演算ブロック(演算ブロック211)によるセンサフュージョン結果として出力される車両周辺の物体群に含まれている場合に第1の演算ブロック(演算ブロック211)を異常であると判断する。上記の構成を有することにより、演算ブロック212で出力される信頼性が高く情報量の少ないデータに基づき、演算ブロック211の出力を診断することが可能となり、演算ブロック211が演算ブロック212よりも大きな情報を持っていたとしても、必要最小限の情報をお互いに出力できていれば正常と診断することができる。その結果、信頼性を担保したうえで、高精度の情報を含む演算ブロック211の情報を用いた軌道生成を行うことが可能となるという効果を奏する。
(実施例2)
図4は実施例1における車両制御装置(第1ECU)11の内部構成(特にマイコン111、マイコン112)と、センサならびにアクチュエータの接続を示す図である。
本実施例において、自動運転システムの軌道生成に関わる演算は、実施例1と同様、すべて第1ECU内で行われる。マイコン111の演算ブロック211においてローデータフュージョンを行い、ローデータフュージョン結果701を出力する。
ここで本実施例では、実施例1とは異なり、マイコン112内にオブジェクトフュージョン結果を出力する演算ブロック212と演算ブロック213を備える。
このような構成を備えることにより、演算ブロック211と演算ブロック212は別のアルゴリズムで演算することが可能となる。そのため演算ブロック213は、より信頼性の高いセンサデータと照合することが可能となる。よって第1の演算ブロックは信頼性の高いデータを用いた軌道生成が可能となる。通常、オブジェクトデータフュージョン結果を生成するマイコン112は安全性を担保するため、非常に信頼性の高いものが用いられる。そのため、演算ブロック213においても信頼性の担保が期待できる。なお、実施例1と同様の構成につき説明は省略する。
(実施例3)
図5は実施例1における車両制御装置(第1ECU)11、車両制御装置(第2ECU)12の内部構成と、センサ並びにアクチュエータの接続を示す図である。
本実施例においては、第1ECU内に備えられたマイコン111の演算ブロック211においてローデータフュージョン結果701を算出する。第2ECUのマイコン112はオブジェクトデータフュージョン結果702を算出する演算ブロック212と演算ブロック213を備える。すなわちローデータフュージョン結果701と、オブジェクトデータフュージョン702の出力が別々のECUにより実施されることとなる。
この構成により、電子制御装置は、電源等の冗長化及び信頼性の高い診断が可能になるという効果を有する。
ここで、第1ECUと第2ECUは全く別の機能を有するものあってもよい。例えば、第1ECUは自動運転の車両制御用ECU、第2ECUは自動駐車用やADAS用ECUであってもよい。なお、実施例1と同様の構成につき説明は省略する。
以上に述べたとおり、発明者は実施例1〜3を例として本発明を説明した。図示の車両に搭載のセンサは、本発明に適用可能なセンサの一例であって、本発明を適用可能な車両のセンサを限定するものではない。
以上のように、本実施例によれば結果的に信頼性の高い車両制御装置および電子制御システムを実現することが可能となる。
1・・・カメラ
2・・・レーダ
3・・・レーザ
11・・・車両制御装置
13・・・第3ECU
14・・・第4ECU
15・・・第5ECU
101・・・センサ1
201・・・センサ2
301・・・センサ3
102・・・センサ1の情報処理部
202・・・センサ2の情報処理部
302・・・センサ3の情報処理部
103・・・第1センサより出力されたオブジェクトデータ
203・・・第2センサより出力されたオブジェクトデータ
303・・・第3センサより出力されたオブジェクトデータ
104・・・第1センサより出力されたローデータ
204・・・第2センサより出力されたローデータ
304・・・第3センサより出力されたローデータ
211・・・演算ブロック1
212・・・演算ブロック2
213・・・演算ブロック3(診断用ブロック)
214・・・制御指令生成部
701・・・ローデータフュージョン結果
702・・・オブジェクトデータフュージョン結果
711・・・ローデータフュージョン結果を基に生成した軌道データ
712・・・オブジェクトデータフュージョン結果を基に生成した軌道データ

Claims (19)

  1. 複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算ブロックと、
    前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算ブロックと、
    前記第1の演算ブロックの出力結果と前記第2の演算ブロックの出力結果を用いて、前記第1の演算ブロックの出力結果を診断する第3の演算ブロックを備えることを特徴とする車両制御装置。
  2. 請求項1に記載の車両制御装置において、
    前記第3の演算ブロックは、前記第2の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群が、前記第1の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群に含まれていない場合に前記第1の演算ブロックを異常と診断する車両制御装置。
  3. 請求項1に記載の車両制御装置において、
    前記第2の演算ブロックは、前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行うものであって、
    前記第3の演算ブロックは、前記第2の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群が、前記第1の演算ブロックによるセンサフュージョン結果として出力される車両周辺の物体群に含まれている場合に前記第1の演算ブロックを正常と診断する車両制御装置。
  4. 請求項1に記載の車両制御装置において、
    前記第1の演算ブロックには、
    前記複数の外界センサから出力されたデータを入力する機械学習部が設けられ、
    前記機械学習部に前記ローデータが入力されることにより前記センサフュージョン結果が出力され、
    前記第2の演算ブロックにおいては、前記複数の外界センサから出力された前記ローデータをそれぞれ処理して得られるオブジェクトデータが入力され、前記オブジェクトデータをセンサフュージョン処理することによりオブジェクトデータフュージョン結果が出力され、
    前記オブジェクトデータフュージョン結果を正として、前記ローデータフュージョン結果を診断することを特徴とする車両制御装置。
  5. 請求項1乃至4の何れかに記載の車両制御装置において、
    前記第2の演算ブロックはロックステップマイコンを用いることを特徴とする車両制御装置。
  6. 請求項5に記載の車両制御装置において、
    前記ロックステップマイコンは前記複数の外界センサから出力されたデータを比較し多数決を取り、採用されたデータに基づいてオブジェクトデータフュージョン処理を行うことを特徴とする車両制御装置。
  7. 請求項1乃至4の何れかに記載の車両制御装置において、
    前記第3の演算ブロックが前記第1の演算ブロックを異常と判断した場合、前記第2の演算ブロックにより出力されたセンサフュージョン結果に基づき前記第2のマイコンで生成した軌道を用いて車両追従制御を行うことを特徴とする車両制御装置。
  8. 請求項1乃至4の何れかに記載の車両制御装置において、
    前記第2のマイコンで生成された軌道は縮退軌道であることを特徴とする車両制御装置。
  9. 請求項1に記載の車両制御装置において、
    前記第2の演算ブロックは前記外界センサ内の演算ブロックにて前処理されたデータを基にセンサフュージョン処理を行うことを特徴とする車両制御装置。
  10. 請求項1に記載の車両制御装置において、
    前記第2の演算ブロックに入力されるデータは、前記外界センサ内の演算ブロックにて生成される物体認識データであることを特徴とする車両制御装置。
  11. 請求項1に記載の車両制御装置において、
    前記車両制御装置は、
    前記第1の演算ブロックを有する第1のマイコンと、
    前記第2の演算ブロックと前記第3の演算ブロックを有する第2のマイコンを備えることを特徴とする車両制御装置。
  12. 請求項1に記載の車両制御装置において、
    前記車両制御装置は、
    前記第1の演算ブロックを有する第1のマイコンと、
    前記第2の演算ブロックを有する第2のマイコンと、
    前記第3の演算ブロックを有する第3のマイコンと、を備えることを特徴とする車両制御装置。
  13. 請求項1乃至4の何れかに記載の車両制御装置において、
    前記第1の演算ブロックと前記第2の演算ブロックの電源はそれぞれ独立していることを特徴とする車両制御装置。
  14. 請求項2乃至3の何れかに記載の車両制御装置において、
    前記第3の演算ブロックは、前記第1の演算ブロックを異常と診断した場合、前記第1の演算ブロックで演算した前記センサフュージョン結果の出力を禁止することを特徴とする車両制御装置。
  15. 請求項2乃至3の何れかに記載の車両制御装置において、
    前記第3の演算ブロックが前記第1の演算ブロックを異常と診断した場合、第1の演算ブロックは、第1の演算ブロックで演算した前記センサフュージョン結果の出力を停止することを特徴とする車両制御装置。
  16. 請求項11又は12の何れかに記載の車両制御装置において
    前記第1のマイコン及び前記第2のマイコンは、前記センサフュージョン結果に基づいてそれぞれ車両追従軌道を生成すること特徴とする車両制御装置。
  17. 請求項11又は12に記載の車両制御装置において、
    前記第1のマイコン及び前記第2のマイコンは、前記センサフュージョン結果に基づいてそれぞれ車両追従軌道を生成し、
    前記第3の演算ブロックが前記第1の演算ブロックを正常と診断している限りにおいて、前記第1のマイコンの出力する車両追従軌道に基づいて車両を制御することを特徴とする車両制御装置。
  18. 請求項4に記載の車両制御装置において、
    前記機械学習部はディープニューラルネットのアルゴリズムを用いるものであることを特徴とする車両制御装置。
  19. 複数の外界センサから出力されるローデータに基づいてセンサフュージョン処理を行う第1の演算部と、
    前記複数の外界センサから出力される前記ローデータをそれぞれ処理して生成されたオブジェクトデータに基づいてセンサフュージョン処理を行う第2の演算部と、
    前記第1の演算部の出力結果と前記第2の演算部の出力結果を用いて、前記第1の演算部の出力結果を診断する第3の演算部を備えることを特徴とする車両制御システム。
JP2020572126A 2019-02-13 2020-01-15 車両制御装置および電子制御システム Active JP7078763B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022082088A JP7281000B2 (ja) 2019-02-13 2022-05-19 車両制御方法および車両制御システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019023118 2019-02-13
JP2019023118 2019-02-13
PCT/JP2020/000947 WO2020166253A1 (ja) 2019-02-13 2020-01-15 車両制御装置および電子制御システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022082088A Division JP7281000B2 (ja) 2019-02-13 2022-05-19 車両制御方法および車両制御システム

Publications (2)

Publication Number Publication Date
JPWO2020166253A1 true JPWO2020166253A1 (ja) 2021-10-14
JP7078763B2 JP7078763B2 (ja) 2022-05-31

Family

ID=72045564

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020572126A Active JP7078763B2 (ja) 2019-02-13 2020-01-15 車両制御装置および電子制御システム
JP2022082088A Active JP7281000B2 (ja) 2019-02-13 2022-05-19 車両制御方法および車両制御システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022082088A Active JP7281000B2 (ja) 2019-02-13 2022-05-19 車両制御方法および車両制御システム

Country Status (4)

Country Link
US (1) US20220089179A1 (ja)
JP (2) JP7078763B2 (ja)
CN (1) CN113412506B (ja)
WO (1) WO2020166253A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11476894B2 (en) 2019-12-10 2022-10-18 AR & NS Investment, LLC Edge communication system with cascaded repeater devices over wired medium
US11989965B2 (en) * 2020-06-24 2024-05-21 AR & NS Investment, LLC Cross-correlation system and method for spatial detection using a network of RF repeaters
US11283510B2 (en) 2020-06-24 2022-03-22 AR & NS Investment, LLC Phase noise removal in a network of radio frequency (RF) repeaters
US11711126B2 (en) 2020-06-24 2023-07-25 AR & NS Investment, LLC Wireless communication system based on mmWave RF repeaters
US11177872B1 (en) 2020-06-24 2021-11-16 AR & NS Investment, LLC Managing a network of radio frequency (RF) repeater devices
KR20220052163A (ko) * 2020-10-20 2022-04-27 주식회사 에이치엘클레무브 전자 제어 장치 및 방법
US11789542B2 (en) * 2020-10-21 2023-10-17 International Business Machines Corporation Sensor agnostic gesture detection
CN112991735B (zh) * 2021-03-05 2022-10-14 北京百度网讯科技有限公司 交通流量监测系统的测试方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207348A (ja) * 2016-05-18 2017-11-24 三菱電機株式会社 レーダ装置およびこれを用いたセンサフュージョン装置
JP2018060281A (ja) * 2016-10-03 2018-04-12 日立オートモティブシステムズ株式会社 車載処理装置
JP2018184021A (ja) * 2017-04-24 2018-11-22 日立オートモティブシステムズ株式会社 車両の電子制御装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207077A (ja) * 2001-01-09 2002-07-26 Hitachi Ltd 車載レーダ走行支援装置
US7249268B2 (en) * 2004-06-29 2007-07-24 Intel Corporation Method for performing performance optimization operations for a processor having a plurality of processor cores in response to a stall condition
JP4595833B2 (ja) * 2006-02-24 2010-12-08 トヨタ自動車株式会社 物体検出装置
JP5470762B2 (ja) * 2008-07-08 2014-04-16 富士通株式会社 物体検出装置、物体検出プログラム、および物体検出方法
JP4969628B2 (ja) * 2009-09-29 2012-07-04 本田技研工業株式会社 走行区分線検出装置
JP5416630B2 (ja) * 2010-03-24 2014-02-12 株式会社日立製作所 移動体異常判断支援システム
US8639426B2 (en) * 2010-07-15 2014-01-28 George C Dedes GPS/IMU/video/radar absolute/relative positioning communication/computation sensor platform for automotive safety applications
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US10740658B2 (en) * 2016-09-08 2020-08-11 Mentor Graphics Corporation Object recognition and classification using multiple sensor modalities
CN106408940B (zh) * 2016-11-02 2023-04-14 南京慧尔视智能科技有限公司 基于微波和视频数据融合的交通检测方法及装置
US10073456B2 (en) * 2016-11-17 2018-09-11 GM Global Technology Operations LLC Automated co-pilot control for autonomous vehicles
CN108196535B (zh) * 2017-12-12 2021-09-07 清华大学苏州汽车研究院(吴江) 基于增强学习和多传感器融合的自动驾驶系统
CN108447256B (zh) * 2018-03-22 2023-09-26 连云港杰瑞电子有限公司 基于电警和定点检测器数据融合的干道车辆轨迹重构方法
CN109212513B (zh) * 2018-09-29 2021-11-12 河北德冠隆电子科技有限公司 多目标在雷达间数据传递、数据融合及连续跟踪定位方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207348A (ja) * 2016-05-18 2017-11-24 三菱電機株式会社 レーダ装置およびこれを用いたセンサフュージョン装置
JP2018060281A (ja) * 2016-10-03 2018-04-12 日立オートモティブシステムズ株式会社 車載処理装置
JP2018184021A (ja) * 2017-04-24 2018-11-22 日立オートモティブシステムズ株式会社 車両の電子制御装置

Also Published As

Publication number Publication date
JP7281000B2 (ja) 2023-05-24
US20220089179A1 (en) 2022-03-24
JP2022107660A (ja) 2022-07-22
CN113412506A (zh) 2021-09-17
CN113412506B (zh) 2023-06-13
WO2020166253A1 (ja) 2020-08-20
JP7078763B2 (ja) 2022-05-31

Similar Documents

Publication Publication Date Title
JP7078763B2 (ja) 車両制御装置および電子制御システム
US11352019B2 (en) Electronic control device for vehicle
CN110709303B (zh) 车辆控制装置
JP2022107660A5 (ja) 車両制御方法および車両制御システム
JP6923458B2 (ja) 電子制御装置
CN109562764B (zh) 车辆控制装置
US20160103450A1 (en) Fail-Safe EE Architecture for Automated Driving
KR102452555B1 (ko) 차량 고장 처리 제어 장치 및 그 방법
CN107531250A (zh) 车辆安全电子控制系统
CN110077420A (zh) 一种自动驾驶控制系统和方法
CN111976623B (zh) 面向智能汽车的底盘域控制器、车辆的控制方法及车辆
JP7089026B2 (ja) 車両モジュールを制御する装置および方法
CN110785742A (zh) 用以依赖于状态信号驱控车辆模块的设备和方法
JPWO2019176603A1 (ja) 異常診断システム及び異常診断方法
WO2022133997A1 (zh) 控制方法、监控方法、电子控制单元、控制器和控制系统
EP3998182A1 (en) Vehicle control system
CN110893862A (zh) 用于确保自主行驶系统的故障安全功能的装置和方法
US11066080B2 (en) Vehicle control device and electronic control system
CN115176287A (zh) 识别自动驾驶系统的环境内的对象的装置、系统及方法
US20230192139A1 (en) Method and system for addressing failure in an autonomous agent
CN112550313A (zh) 通过云计算的容错嵌入式汽车应用程序
US20220032966A1 (en) On-vehicle control apparatus and on-vehicle control system
Zarrouki et al. Fault-tolerance by graceful degradation for car platoons
KR20210113463A (ko) Sbw 시스템 진단 장치 및 방법
JP2020131860A (ja) 車両搭載機器の制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R150 Certificate of patent or registration of utility model

Ref document number: 7078763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150