JP7019503B2 - 電子制御装置、演算方法 - Google Patents

電子制御装置、演算方法 Download PDF

Info

Publication number
JP7019503B2
JP7019503B2 JP2018084266A JP2018084266A JP7019503B2 JP 7019503 B2 JP7019503 B2 JP 7019503B2 JP 2018084266 A JP2018084266 A JP 2018084266A JP 2018084266 A JP2018084266 A JP 2018084266A JP 7019503 B2 JP7019503 B2 JP 7019503B2
Authority
JP
Japan
Prior art keywords
area
unit
sensors
measurement target
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018084266A
Other languages
English (en)
Other versions
JP2019191945A (ja
Inventor
勇太 武藤
哲 栗山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2018084266A priority Critical patent/JP7019503B2/ja
Priority to DE112019001545.1T priority patent/DE112019001545T5/de
Priority to US17/049,220 priority patent/US11958480B2/en
Priority to PCT/JP2019/016010 priority patent/WO2019208271A1/ja
Publication of JP2019191945A publication Critical patent/JP2019191945A/ja
Application granted granted Critical
Publication of JP7019503B2 publication Critical patent/JP7019503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、電子制御装置、および演算方法に関する。
近年、自動車の自動走行の開発が盛んである。自動運転では、複数のセンサの測定結果を組み合わせて使うことが多い。特許文献1には、カメラ手段により自車より前方の状況を撮影して得た画像を、画像処理して先行車を認識し、この先行車を追尾しつつ走行するようエンジン出力を制御する自動車の走行制御装置において、レーザビームを水平面内でスキャンしつつ自車から前方に向けて出射すると共に反射してきたレーザビームを受信することにより、自車の前方に存在する物体の位置を検出するレーザレーダと、画像を画像処理して先行車を認識する際に、前記レーザレーダで検出した物体の位置に対応して画面内の処理エリアを設定し、この処理エリアの画像についてのみ画像処理して先行車を認識する画像処理手段とを有することを特徴とする自動車の走行制御装置の先行車検出機構が開示されている。
特開平7-125567号公報
特許文献1に記載されている発明では、測定対象が多数存在する場合に計算量が膨大になる。
本発明の第1の態様による電子制御装置は、複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部と、位置に関する分類の条件である位置判定情報を記憶する記憶部と、前記測定対象を前記位置判定情報を用いて分類する位置判定部と、前記位置判定部により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させるフュージョン部とを備え、前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象であり、位置判定情報により分類されるそれぞれの領域は、前記複数のセンサのうち少なくとも2つのセンサと関連付けられ、前記フュージョン部は、前記位置判定部により同一の領域に分類される前記測定対象であって、前記同一の領域に関連付けられた異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させ、前記複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得する性能推定情報取得部と、前記性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように前記位置判定情報を変更する領域変更部とを備える。
本発明の第2の態様による演算方法は、複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部、および位置に関する分類の条件である位置判定情報を記憶する記憶部を備える電子制御装置が実行する演算方法において、前記測定対象を前記位置判定情報を用いて分類を行うことと、前記分類により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行うこととを含み、前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象であり、前記記憶部には、前記分類の条件により分類されるそれぞれの領域について、前記複数のセンサのうち少なくとも2つのセンサとの関連付けであるセンサ領域関連付け情報がさらに格納され、前記融合では、前記分類により同一の領域に分類される前記測定対象であって、前記センサ領域関連付け情報により前記同一の領域に関連付けられた異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行い、前記複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得することと、前記性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように前記位置判定情報を変更することとをさらに含む。
本発明によれば、計算量を減らすことができる。
車両Cの構成図 図2(a)はセンサ群1のデータ取得領域を示す図、図2(b)は定義する領域の可視図 領域判定テーブル3211の一例を示す図 処理前テーブル3212の一例を示す図 処理後テーブル3213の一例を示す図 第1領域テーブル3221Aの一例を示す図 処理部31が実行する処理を表すフローチャート 図7のS103の詳細を示すフローチャート 第2の実施の形態における車両Cの構成を示す図 パタン判定テーブル3214の一例を示す図 第2の実施の形態における領域判定テーブル3211Aの一例を示す図 センサ領域関連付け情報3217の一例を示す図 第2の実施の形態において処理部31の処理を表すフローチャート 第3の実施の形態における車両Cの構成を示す図 将来領域判定テーブル3215の一例を示す図 将来テーブル3216の一例を示す図 第3の実施の形態における処理部31の処理を表すフローチャート
―第1の実施の形態―
以下、図1~図8を参照して、本発明に係る電子制御装置の第1の実施の形態を説明する。
(構成図)
図1は車両Cの構成図である。車両Cは、センサ群1と、電子制御装置3と、アクチュエータ群4とを備える。電子制御装置3には、センサ群1およびアクチュエータ群4が接続される。
センサ群1は2以上のセンサ、たとえば左カメラLC、右カメラRC、左レーダLR、および右レーダRRから構成される。左カメラLCは車両Cの左前方を撮影するカメラであり、右カメラRCは車両Cの右前方を撮影するカメラである。左レーダLRは車両Cの左前方の障害物を測定するレーダ、たとえばミリ波レーダであり、右レーダRRは車両Cの右前方の障害物を測定するレーダ、たとえばミリ波レーダである。
センサ群1を構成するそれぞれのセンサは、それぞれのセンサが測定可能な対象である測定対象の情報を取得し、取得した情報から測定対象の位置および速度を算出する。そしてそれぞれのセンサは、位置および速度を状態量として電子制御装置3に出力する。ただし状態量には位置および速度以外の情報、たとえば角速度が含まれてもよい。たとえば左カメラLCおよび右カメラRCのそれぞれは、撮影して得られた画像を解析して、輝度や彩度の連続性、およびそれらの時系列変化などから測定対象の位置や速度などを算出する。たとえば左レーダLRおよび右レーダRRのそれぞれは、距離の連続性および時系列変化から測定対象の位置や速度などを算出する。それぞれのセンサは、測定対象の位置をそれぞれのセンサを基準として出力してもよいし、電子制御装置3を基準として出力してもよい。
なお「測定対象」はセンサごとに異なるため、複数のセンサの測定可能範囲が重複している場合でも、あるセンサでのみ測定対象となる物体も存在する。また測定対象には、煙のように車両Cの移動の障害にならないものも含まれる。車両Cの移動の障害とならない煙のようなものであっても、測定可能なセンサで測定することにより周囲環境の把握に資するためである。
図2(a)はセンサ群1のデータ取得領域を示す図であり、図2(b)は定義する領域の可視図である。ただし図2(a)ではそれぞれのセンサのデータ取得領域にそのセンサの符号を付している。図2(a)に示すように、図示左側では左カメラLCと左レーダLRのデータ取得領域が重複し、図示中央付近では2個~4個のセンサのデータ取得領域が重複し、図示右側では右カメラRCと右レーダRRのデータ取得領域が重複する。
本実施の形態では、図2(b)に示すようにZ1~Z3の3つの領域を定義する。第1領域Z1は、左カメラLCと左レーダLRのデータ取得領域が重複する領域である。第2領域Z2は、2~4のセンサのデータ取得領域が重複する領域である。第3領域Z3は、右カメラRCと右レーダRRのデータ取得領域が重複する領域である。ただしそれぞれのセンサは、図2(a)に示すデータ取得領域よりも広い領域のデータを取得可能であってもよい。この場合に、図2(a)に示す範囲外のセンサが取得した情報を考慮してもよいし無視してもよい。たとえば右カメラRCが取得した測定対象の位置が第1領域Z1である場合に、その測定対象の情報を考慮して処理を行ってもよいし存在しないものと扱ってもよい。図1に戻って説明を続ける。
アクチュエータ群4は、車両の向きや速度を制御する複数のアクチュエータであり、たとえばステアリングホイール、ブレーキ、およびアクセルを含む。アクチュエータ群4は電子制御装置3の動作指令により動作する。ただしアクチュエータ群4は、ユーザの操作により動作してもよい。
電子制御装置3は、処理部31と、記憶部32と、入出力部33とを備える電子制御装置(Electronic Control Unit)である。処理部31は、中央電子制御装置であるCPU、読み出し専用の記憶装置であるROM、および読み書き可能な記憶装置であるRAMを備え、CPUがROMに格納されるプログラムをRAMに展開して実行することで次の機能を実現する。処理部31はその機能として、位置判定部311と、フュージョン部312と、車両制御処理部313とを備える。これらの機能は後述する。入出力部33は、センサ群1およびアクチュエータ群4と通信を行う通信インタフェースである。入出力部33は、CAN(登録商標)やIEEE802.3などの通信規格に対応する。
フュージョン部312は、第1領域Z1を処理対象とする第1フュージョン部312Aと、第2領域Z2を処理対象とする第2フュージョン部312Bと、第3領域Z3を処理対象とする第3フュージョン部312Cとを備える。フュージョン部312は、異なるセンサから状態量を取得した測定対象について一致の判断を行い、一致すると判断した複数の測定対象の状態量を融合する。以下では、状態量が融合された測定対象を「融合された測定対象」と呼ぶ。また、フュージョン部312毎に、センサ群1の中で処理対象外とするセンサを事前設定してもよい。たとえば第1フュージョン部312Aは、左カメラLCおよび左レーダLRの測定対象のみを処理対象とし、右カメラRCおよび右レーダRRを処理対象外とするセンサとして事前設定してもよい。
記憶部32は、不揮発性の記憶装置、たとえばフラッシュメモリである。記憶部32は、処理部31の全体から参照可能な共通記憶部321と、それぞれのフュージョン部312のみが読み書き可能な専用記憶部322とに分かれている。共通記憶部321と専用記憶部322は、同一のハードウエアにより実現されてもよいし、別々のハードウエアにより実現されてもよい。共通記憶部321には、領域判定テーブル3211と、処理前テーブル3212と、処理後テーブル3213とが格納される。
専用記憶部322には、第1フュージョン部312Aのみが読み書きする第1領域テーブル3221Aと、第2フュージョン部312Bのみが読み書きする第2領域テーブル3221Bと、第3フュージョン部312Cのみが読み書きする第3領域テーブル3221Cとが格納される。なお本実施の形態では、特定の領域の処理において他の領域の情報を参照する必要がないという意味で、たとえば”第1領域テーブル3221Aは第1フュージョン部312Aのみが読み書きする”と説明しているにすぎない。そのため本実施の形態において、第1領域テーブル3221Aなどに特段のアクセス制限手段、たとえばパーミッションの設定やファイルロックの機構などは不要である。
(領域判定テーブル3211)
図3は、領域判定テーブル3211の一例を示す図である。領域判定テーブル3211には、測定対象の位置に関する条件と領域番号の対応が格納される。位置に関する条件は、たとえば条件式により表され、図3に示す例では条件式を車両Cを基準とする極座標系にて記載している。すなわち、車両Cに設けられた基準点からの距離Rと、車両Cの正面方向をゼロ度として右側を正とする測定対象の角度θの条件が記載される。図3の右側に示す領域番号は、図2(b)に示した領域番号Z1~Z3である。すなわち領域判定テーブル3211は、図2(b)に示した第1領域Z1、第2領域Z2、および第3領域Z3の領域を条件式で表現したものである。
位置判定部311は、領域判定テーブル3211を参照してたとえば以下のように判断する。たとえば、ある測定対象の位置を極座標形式で表した場合に、基準点からの距離Rが所定の閾値R1a~閾値R1Aの範囲にあり、かつ基準方向からの角度θが閾値θ1a~閾値θ1Aの範囲にある場合は、その測定対象は第1領域Z1に属すると判断する。
(処理前テーブル3212)
図4は、処理前テーブル3212の一例を示す図である。処理前テーブル3212には、入出力部33がセンサ群1から取得した情報、および位置判定部311が作成した情報が格納される。処理前テーブル3212には、フュージョン部312が処理を行う前の測定対象の状態量が格納される。処理前テーブル3212は複数のレコードから構成され、各レコードは、ID、取得センサ、位置、速度、および領域のフィールドを有する。IDのフィールドには、測定対象を識別するための便宜的な識別子が格納される。この識別子はたとえば処理前であることを示す「B」と、取得した順番を示す連番の数字との組み合わせである。
取得センサのフィールドには、入出力部33が状態量を取得したセンサの名称が格納される。位置および速度のフィールドには、入出力部33が取得した状態量が格納される。速度のフィールドには、位置判定部311が判断した領域の名称が格納される。すなわち処理前テーブル3212のフィールドのうち、領域のフィールド以外は入出力部33により書き込まれ、領域のフィールドのみ位置判定部311により書き込まれる。
(処理後テーブル3213)
図5は、処理後テーブル3213の一例を示す図である。処理後テーブル3213には、第1フュージョン部312A、第2フュージョン部312B、および第3フュージョン部312Cが算出した融合された測定対象の状態量が格納される。処理後テーブル3213は複数のレコードから構成され、各レコードは、新ID、元ID、位置、および速度のフィールドを有する。新IDのフィールドには、融合された測定対象を識別するための便宜的な識別子が格納される。この識別子はたとえば処理後であることを示す「A」と、算出した順番を示す連番の数字との組み合わせである。
元IDのフィールドには、融合された測定対象の作成に用いた測定対象のID、すなわち処理前テーブル3212のIDの値が格納される。位置および速度のフィールドには、融合された測定対象の位置および速度が格納される。なお新IDおよび元IDのフィールドは便宜的に設けているにすぎず、処理後テーブル3213がこれらのフィールドを有さなくてもよい。
(第1領域テーブル3221A)
図6は、第1領域テーブル3221Aの一例を示す図である。第1領域テーブル3221Aには主に、センサ群1が取得した第1領域Z1に存在する測定対象の状態量が格納される。第1領域テーブル3221Aは複数のレコードから構成され、それぞれのレコードはID、取得センサ、位置、速度、およびマッチングのフィールドを有する。ID、取得センサ、位置、および速度のフィールドには、処理前テーブル3212と同様の情報が格納される。マッチングのフィールドには、第1フュージョン部312Aが後述する処理で用いる内部変数が格納される。マッチングのフィールドの初期値は「未」である。第1領域テーブル3221Aは、第1フュージョン部312Aが処理前テーブル3212から領域が「Z1」であるレコードを抜き出すことにより作成される。なお図6に示す例では領域のフィールドを削除しているが、領域のフィールドを残したままでもよい。
以上、第1領域テーブル3221Aの構成を説明したが、第2領域テーブル3221Bおよび第3領域テーブル3221Cの構成も第1領域テーブル3221Aと同様である。ただし第2領域テーブル3221Bは、第2フュージョン部312Bにより作成され、主に第2領域Z2に存在する測定対象の状態量を格納する。また第3領域テーブル3221Cは、第3フュージョン部312Cにより作成され、主に第3領域Z3に存在する測定対象の状態量を格納する。
(処理部31の動作)
図7は処理部31が実行する処理を表すフローチャートである。処理部31は、図7に示す処理を所定の処理周期ごとに、たとえば100msごとに実行する。処理部31はまず、入出力部33がセンサ群1から測定対象の状態量を取得し、処理前テーブル3212を作成する(S101)。なおS101の時点では、処理前テーブル3212の領域フィールドは空白である。次に処理部31の位置判定部311が、S101において取得した状態量のそれぞれを処理対象として領域を決定する(S102)。すなわち位置判定部311は、処理前テーブル3212の位置のフィールドと領域判定テーブル3211を参照して各レコードの領域を決定し、各レコードの領域フィールドに決定した領域の名称を格納する。
次に第1フュージョン部312Aは、S101において取得した状態量のうち、第1領域Z1に属する状態量のみを処理対象としてフュージョン処理を行う(S103)。次に第2フュージョン部312Bは、S101において取得した状態量のうち、第2領域Z2に属する状態量のみを処理対象としてフュージョン処理を行う(S104)。次に第3フュージョン部312Cは、S101において取得した状態量のうち、第3領域Z3に属する状態量のみを処理対象としてフュージョン処理を行う(S105)。
なおS103~S105の詳細は後述するが、第1フュージョン部312A、第2フュージョン部312B、および第3フュージョン部312Cは処理結果を処理後テーブル3213に書き込む。またここではS103~S105を順番に実行したが、順番を入れ替えてもよいし並列に実行してもよい。最後に車両制御処理部313は、処理後テーブル3213を参照して車両Cの制御処理を決定し、アクチュエータ群4に動作指令を出力する。なお車両制御処理部313は、S106の実行前またはS106の実行後に、第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cに格納された情報を削除してもよい。
(フュージョン処理)
図8は第1フュージョン部312Aが実行するフュージョン処理、すなわち図7のS103の詳細を示すフローチャートである。はじめに処理部31は、処理前テーブル3212を参照し、第1領域Z1に属する測定対象を抽出して第1領域テーブル3221Aを作成する(S210)。なお前述のとおり、作成した時点では第1領域テーブル3221Aにおける全ての測定対象のマッチング欄は「未」である。
次に処理部31は、S210において作成した第1領域テーブル3221Aに記載される測定対象のうち、IDが最も小さい測定対象を処理対象に設定する(S211)。次に処理部31は、第1領域テーブル3221Aに記載される測定対象から、マッチング欄が「未」であり、処理対象の測定対象と取得センサが異なり、かつ処理対象との位置の差が所定値以内である測定対象を抽出する(S212)。次に処理部31は、S212において抽出した測定対象のうち、処理対象の測定対象との速度の差が所定値以内である測定対象を抽出する(S213)。
次に処理部31は、S213において抽出された測定対象が存在するか否かを判断する(S214)。処理部31は、S213において抽出された測定対象が存在する、すなわち処理対象である測定対象に対して、S212およびS213の条件を満たす他の測定対象が存在すると判断する場合は、これらの測定対象が一致すると判断してS215に進み、存在しないと判断する場合はS218に進む。S215では処理部31は、処理対象およびS213において抽出された測定対象の位置および速度を融合する。融合はたとえば、単純平均である。次に処理部31は、S215の計算結果を処理後テーブル3213に書き込むとともに、第1領域テーブル23221Aの処理対象である測定対象、およびS213において抽出された測定対象のマッチング欄を「済」に書き換える(S216)。
次に処理部31は、領域テーブル3221Aに記載される測定対象であって、まだ処理対象となっておらず、かつマッチング欄が「未」である測定対象が存在するか否かを判断する(S217)。処理部31はS217を肯定判断する場合は、まだ処理対象となっておらず、かつマッチング欄が「未」である測定対象のいずれかを新たな処理対象として決定し(S218)、S212に戻る。処理部31は、S217を否定判断する場合は図8に示す処理を終了する。
なお図8では第1フュージョン部312Aが実行するフュージョン処理を説明したが、第2フュージョン部312Bおよび第3フュージョン部312Cが実行するフュージョン処理も同様なので説明を省略する。ただし第2フュージョン部312Bは第2領域Z2に属する測定対象のみを処理対象とし、第3フュージョン部312Cは第3領域Z3に属する測定対象のみを処理対象とする点が異なる。
上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)センサ群1に含まれる複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する入出力部33と、位置に関する分類の条件である領域判定テーブル3211を記憶する記憶部32と、測定対象を分類条件を用いて分類する位置判定部311と、位置判定部311により同一に分類される測定対象であって、異なるセンサが測定した複数の測定対象の一致を状態量を参照して判断し、一致すると判断した複数の測定対象の位置を融合させるフュージョン部312とを備える。測定対象とは、複数のセンサのそれぞれが測定可能な対象である。
フュージョン部312は、位置判定部311により同一に分類された測定対象同士を対象として測定対象の一致を判断する。そのためフュージョン部312がある測定対象との一致を判断する対象が、位置判定部311による分類により限定されるので、フュージョン部312の処理負荷を軽減できる。また、電子制御装置3が処理可能な測定対象の上限を増加できる。
ここでは、位置判定部311による分類を行わない場合を「比較例」と呼んで、位置判定部311を備える電子制御装置3の効果を説明する。たとえば、左カメラLC、右カメラRC、左レーダLR、および右レーダRRのそれぞれが10個、合計40個の測定対象を測定した場合を考える。このとき比較例では、左カメラLCが測定したある測定対象について、他の3つのセンサが測定した合計30個の測定対象との一致を判断することになる。そのため単純計算では、40個の測定対象のそれぞれについて30個の測定対象との一致を判断するので、比較例では1200の組み合わせについて検討が必要となる。これに対して位置判定部311による分類を行う場合は、第1領域Z1~第3領域Z3のそれぞれの領域で測定対象の組み合わせが検討されるので、組み合わせの総数が減少する。
また処理部31の処理は所定の処理周期ごとに行われるので、検討が可能な組み合わせの数に上限がある。それぞれのセンサが測定した測定対象の合計が同一でも、比較例よりも電子制御装置3の方が検討する組み合わせの数が少ない。換言すると比較例と電子制御装置3では、検討可能な組み合わせの数が同一の場合に、電子制御装置3の方が処理可能な測定対象の上限が多い。
(変形例1)
第1の実施の形態におけるセンサ群1を構成するセンサの種類や数、各センサのデータ取得領域、および定義した領域は例示であり、第1の実施の形態と異なっていてもよい。センサ群1には少なくとも2つのセンサが含まれればよい。各センサのデータ取得領域は、少なくとも1カ所で重複していればよい。領域の定義は、各センサのデータ取得領域、とくに他のセンサとのデータ取得領域の重複数に基づき決定されればよい。また領域判定テーブル3211は、表形式以外で表現されてもよいし、数式により位置の条件が記載されてもよい。さらに領域判定テーブル3211では位置を直交座標系の座標で表してもよい。
(変形例2)
センサ群1に含まれるそれぞれのセンサは、センサの出力をそのまま電子制御装置3に出力してもよい。その場合は電子制御装置3は、それぞれのセンサを用いて測定対象の状態量を算出する状態量算出部をさらに備える。状態量算出部は、処理部31により実現されてもよいし、ハードウエア回路により実現されてもよい。
(変形例3)
電子制御装置3はマウスやキーボードなどの入力装置と接続され、入出力部33を介して入力装置に入力されたオペレータの入力を記憶部32に格納された情報の書き換えに使用してもよい。
(変形例4)
電子制御装置3の外部でフュージョン処理が行われ、その演算結果が電子制御装置3に入力される場合は、電子制御装置3はそのフュージョン処理を省略してもよい。たとえば左カメラLCと右カメラRCとが出力する画像を用いて視差画像が作成され、その視差画像が電子制御装置3に入力される。この場合に視差画像は左カメラLCおよび右カメラRCのいずれかが作成してもよいし、その他の装置が作成してもよい。
この変形例4によれば、電子制御装置3におけるフュージョン処理を省略することで処理量を削減し、処理遅延を低減できる。また電子制御装置3に要求される処理能力が低下するので、電子制御装置3の製造コストを引き下げることができる。
―第2の実施の形態―
図9~図12を参照して、本発明に係る電子制御装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、領域判定テーブルに複数のパタンが記載されセンサの性能低下により使用されるパタンが変更される点で、第1の実施の形態と異なる。また本実施の形態では、それぞれの領域にセンサが関連付けられ、それぞれの領域は重複してもよい。
(構成)
図9は、第2の実施の形態における車両Cの構成を示す図である。本実施の形態では車両Cは、第1の実施の形態における構成を全て備え、周囲の明るさを測定する照度センサ21と、車両Cのワイパーの動作を監視するワイパーセンサ22とをさらに備える。ただし以下では、照度センサ21とワイパーセンサ22とをあわせて、環境モニタ2とも呼ぶ。電子制御装置3は、環境モニタ2の測定値を入出力部33を用いて取得する。また本実施の形態では共通記憶部321に、パタン判定テーブル3214およびセンサ領域関連付け情報3217がさらに格納され、領域判定テーブル3211の代わりに領域判定テーブル3211Aが格納される。処理部31はその機能として、領域変更部314をさらに有する。
領域変更部314は、センサ群1から取得した測定対象の状態量や環境モニタ2から取得する周辺環境の情報に基づいて1個以上のセンサの性能低下を推定し、あらかじめ定められた複数のパタンのいずれに該当するかを判定する。このパタンは領域を定義するパタンである。性能の低下とは、得られる情報量や情報の質の低下、および感度の低下が含まれる。換言すると領域変更部314は、センサ群1の性能低下を推定するための性能推定情報をセンサ群1および環境モニタ2から取得する。なお領域変更部314の動作を上位概念化すると次のようになる。すなわち、領域変更部314は、入出力部33が取得した性能推定情報を用いて性能が低下したセンサを特定し、そのセンサに関連付けられる領域が狭くなるように領域判定テーブル3211Aの座標条件を変更する。
第2の実施の形態における領域判定テーブル3211Aには、領域変更部314が判断するそれぞれのパタンに対応する座標条件が記載される。なお以下では、座標条件を「位置条件」とも呼ぶ。そのため本実施の形態では、まず領域変更部314がパタンを決定してから位置判定部311が領域判定テーブル3211Aを参照する。すなわち位置判定部311は、領域判定テーブル3211Aに記載された座標条件であって、領域変更部314が決定したパタンに対応する座標条件に基づき、それぞれの測定対象の領域を決定する。また本実施の形態では、第1の実施の形態における第2領域Z2の代わりに、第2A領域Z2A~第2F領域Z2Fの6つの領域が定義され、合計で8つの領域が定義される。
なお図9では第2フュージョン部312Bは1つのみ記載しているが、第2フュージョン部312Bが第2A領域Z2A~第2F領域Z2Fの6つの領域を処理してもよいし、前述の6つの領域を処理するフュージョン部が独立に存在してもよい。その場合は、処理部31は全部で8つのフュージョン部を備えることになる。
パタン判定テーブル3214には、センサ群1の状態が領域を定義する複数のパタンのいずれに該当するかを判断するための情報が記載される。前述のように本実施の形態では領域判定テーブル3211Aには複数のパタンが記載されているので、位置判定部311はそのいずれを使用すべきかを判断するためにパタン判定テーブル3214を参照する。
センサ領域関連付け情報3217には、それぞれの領域についてセンサの関連付けが示されており、各領域には少なくとも2つのセンサが関連付けられる。フュージョン処理部312は、センサ領域関連付け情報3217を参照して、領域ごとに関連付けられたセンサの測定対象のみを処理対象とする。詳しくは後述する。
(パタン判定テーブル3214)
図10は、パタン判定テーブル3214の一例を示す図である。パタン判定テーブル3214には、条件と領域パタンの組み合わせが記載される。条件のフィールドには、センサの性能に関する条件が記載され、領域パタンのフィールドには対応する領域パタンの名称が記載される。たとえば図10の最初のレコードは、照度センサ21から取得する照度Eが所定の閾値Eaよりも小さい場合に、領域パタンを「パタンB」とすることが記載されている。次のレコードには、ワイパーセンサ22の出力からワイパーのスイッチがONと判断される場合に、領域パタンを「パタンC」とすることが記載されている。
次のレコードには、左カメラLCが出力する測定対象の速度が不連続である場合に、領域パタンを「パタンD」とすることが記載されている。左カメラLCが出力する測定対象の速度の連続性は、たとえば次のように評価できる。左カメラLCが出力するある測定対象について、前回測定した時刻をt0、前回測定した位置をR(t0)、前回測定した速度をV(t0)、今回測定した時刻をt1、今回測定した位置をR(t1)、今回測定した速度をV(t1)とおく。このとき、左カメラLCの全ての測定対象について所定の回数N回以上連続で以下の式(1)が成り立つ場合に速度が不連続と判断する。
|R(t1)-{R(t0)+V(t0)(t1-t0)}|>ΔR・・・(1)
次のレコードには、左カメラLCが故障していると判断される場合は領域パタンを直前のレコードと同様に「パタンD」とすることが記載されている。そして最後のレコードには、いずれのケースに該当しない場合は、すなわちセンサ群1に特段の問題がない場合は領域パタンを「パタンA」とすることが記載されている。なお第1の実施の形態における領域パタンは「パタンA」に相当する。また図10に示す例では多数のパタンが記載されているが、パタンの数に制限はなく、パタンは2以上あればよい。
(領域判定テーブル3211A)
図11は、第2の実施の形態における領域判定テーブル3211Aの一例を示す図である。領域判定テーブル3211Aには、位置条件について複数のパタンが記録される。たとえば図11に示す例では、領域判定テーブル3211AにはパタンAとパタンBの2つの位置条件が明示されており、他のパタンの具体的な値が省略されている。領域判定テーブル3211Aには、パタン判定テーブル3214に記載される全てのパタンの座標条件が含まれる。
(センサ領域関連付け情報3217)
図12は、センサ領域関連付け情報3217の一例を示す図である。図12に示す例では、第1領域Z1には左カメラLCと左レーダLRが関連付けられ、第2A領域Z2A~第2F領域Z2Fには左カメラLC、右カメラRC、左レーダLR、右レーダRRの4つから選択されたいずれか2つのセンサが関連付けられ、第3領域Z3には右カメラRCと右レーダRRが関連付けられることが示されている。
なお図11では図示が省略されているパタンDは、パタンAに比べて左カメラLCに関連付けられた第1領域Z1、第2A領域Z2A、第2B領域Z2B、および第2C領域Z2Cの広さが同等以下になり、左カメラLCに関連付けられていない上記以外の領域の広さが広くなる。たとえばパタンDではパタンAに比べて第1領域Z1が狭くなり、第2A領域Z2A~第2F領域Z2Fの面積は変わらず、第3領域Z3の面積が広くなる。
(処理部31の動作)
図13は第2の実施の形態において処理部31が実行する処理を表すフローチャートである。第1の実施の形態における図7に示す処理との違いは、S101とS102との間にS101AおよびS101Bが追加されている点、およびS102がS102Aに変更されている点である。以下では第1の実施の形態との相違点を説明する。
S101Aでは、入出力部33が環境モニタ2の出力を受信する。続くS101Bでは領域変更部314がS101およびS101Aにおいて取得した情報、およびパタン判定テーブル3214を参照していずれかの領域パタンを決定する。S102Aでは位置判定部311が、S101Bにおいて決定された領域パタンと領域判定テーブル3211Aにより特定される位置条件を用いて、S101において取得した処理対象の属する領域を決定する。
(フュージョン処理)
第2の実施の形態におけるフュージョン部312の動作は、センサ領域関連付け情報3217も考慮して処理対象を決定する点で第1の実施の形態と異なる。たとえば第1フュージョン部312Aは、処理対象の位置が第1領域Z1であり、かつその処理対象を取得したセンサがセンサ領域関連付け情報3217において第1領域と関連付けられているセンサである測定対象を処理対象とする。第2の実施の形態における第1フュージョン部312Aの動作をフローチャートで表すと、第1の実施の形態における図8のS210を以下のように変更すればよい。
すなわちS210において第1フュージョン部312Aは、処理前テーブル3212およびセンサ領域関連付け情報3217を参照し、第1領域Z1に属し、かつ取得センサが左カメラLCまたは左レーザLRである測定対象を抽出して第1領域テーブル3221Aを作成する。なお第1の実施の形態では、右カメラRCが取得した測定対象の位置が第1領域Z1である場合に、その測定対象の情報を考慮して処理を行ってもよいし存在しないものと扱ってもよいとしていたが、本実施の形態では右カメラRCが取得した第1領域Z1の測定対象は無視することになる。
上述した第2の実施の形態によれば、次の作用効果が得られる。
(2)領域判定テーブル3211Aにより分類されるそれぞれの領域は、複数のセンサのうち少なくとも2つのセンサと関連付けられる。フュージョン部312は、位置判定部311により同一の領域に分類される測定対象であって、同一の領域に関連付けられた異なるセンサが測定した複数の測定対象の一致を状態量を参照して判断し、一致すると判断した複数の測定対象の位置を融合させる。電子制御装置3は、複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得する入出力部33と、性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように領域判定テーブル3211Aの参考すべき領域を変更する領域変更部314とを備える。
たとえば、左カメラLCの性能が低下したと判断された場合には領域パタンとしてパタンDが選択されるので、左カメラLCに関連付けられた第1領域Z1を狭くし、左カメラLCが関連付けられていない第3領域Z3を広くする。そのため、性能が低下した左カメラLCを使う領域が縮小し、領域変更前に比べて相対的にセンサ性能が高いセンサの検知結果を用いたフュージョン処理が選択されやすくなる。したがって電子制御装置3は、総処理量を増やさずに、相対的にセンサ性能が高いセンサの検知結果を用いたフュージョン処理を選択できる。そのためセンサ性能に変化が生じた場合であっても、少ない処理量で高い安全性を確保できる。
またワイパスイッチがONの場合にはパタンCが選択され、左カメラLCおよび右カメラRCの少なくとも一方に関連付けられた領域を狭くする。具体的には次の3つの構成が考えられる。第1に、左レーダLRおよび右レーダRRに関連付けられた第2F領域Z2Fのみを非空集合とし、それ以外の領域を空集合とする構成である。すなわち第1の構成では第2F領域Z2F以外の領域の面積はゼロである。第2に、左カメラLCおよび右カメラRCに関連付けられた第2C領域Z2Cのみを空集合とし、他の領域はパタンAと同一とする構成である。第3に、第1の構成と第2の構成の中間とする構成である。理由は以下のとおりである。
ワイパスイッチがONの場合には雨天であると考えられる。そして、カメラは降雨の影響を受けやすく、ミリ波レーダは降雨の影響を受けにくい。そのため降雨の影響を受けにくい左レーダLRおよび右レーダRRを活用するために、上述した3つの構成をとりうる。
(3)記憶部32には、センサ群1に含まれる複数のセンサの性能の低下と分類条件の対応を定めるパタン判定テーブル3214が格納される。領域変更部314は、性能推定情報を用いてパタン判定テーブル3214に含まれるいずれのパタンを用いるかを決定する。そのため簡便に領域を変更することができる。
(第2の実施の形態の変形例1)
環境モニタ2はセンサ群1で代用してもよい。すなわちパタン判定テーブル3214に記載される条件がセンサ群1の出力を用いて判断可能であれば、電子制御装置3は環境モニタ2を備えなくてもよい。さらに電子制御装置3は、処理部31を構成するCPUなどが時計やカレンダーの機能を有する場合は、パタン判定テーブル3214の判断に処理部31の出力を用いてもよい。
(第2の実施の形態の変形例2)
上述した第2の実施の形態では、領域判定テーブル3211Aに複数のパタンが予め登録された。しかし電子制御装置3は、領域判定テーブル3211Aを備えずそれぞれの領域を演算により決定してもよい。たとえば処理部31が、センサ群1に含まれるそれぞれのセンサの観測量に含まれる誤差を推定するカルマンフィルタをさらに備え、領域変更部314はカルマンフィルタが推定する誤差の大きさに基づいてそれぞれの領域を決定してもよい。この場合も第2の実施の形態と同様の考えに基づき、推定される誤差が大きいセンサに関連付けられる領域が狭くなり、推定される誤差が小さいセンサに関連付けられる領域が広くなるようにする。すなわち本変形例では、誤差の大きさに応じて領域の広さを柔軟に変更することができる。
(第2の実施の形態の変形例3)
第2の実施の形態では、センサ領域関連付け情報3217によりセンサと領域が関連付けられた。しかしセンサとそれぞれのフュージョン部312とを関連付けてもよい。この場合には、フュージョン部312はたとえば第1~第8の8つのフュージョン部から構成され、それぞれが異なる領域と関連付けられる。
―第3の実施の形態―
図14~図17を参照して、本発明に係る電子制御装置の第3の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、融合した測定対象の将来の位置を推定し、フュージョン処理では推定した将来の位置も対象とする点で、第1の実施の形態と異なる。
(構成)
図14は、第3の実施の形態における車両Cの構成を示す図である。本実施の形態では電子制御装置3は、第1の実施の形態の構成に加えて、処理部31に将来位置推定部315をさらに備える。また記憶部32には将来領域判定テーブル3215と、将来テーブル3216とがさらに格納される。
将来位置推定部315は、処理後テーブル3213に記載される融合された状態量に基づき将来の状態量を推定して将来テーブル3216に書き込む。以下では、将来位置推定部315が推定する状態量に含まれる位置を「将来位置」と呼ぶ。たとえば将来位置推定部315は、処理周期ごとの時間間隔および融合された状態量の速度を用いて位置の差分を算出し、融合された状態量の位置と算出した差分とから将来位置を推定する。将来位置推定部315は、たとえば将来の速度を融合された状態量の速度とすることができる。さらに将来位置推定部315は、推定した位置が将来領域判定テーブル3215に記載されたいずれの領域に該当するかを判断し、その判断結果を将来領域判定テーブル3215に格納する。
現在の処理周期の時刻がt1、次回の処理周期の時刻がt2、融合された状態量の位置がR(t1)、融合された状態量の速度がV(t1)のとき、たとえば将来位置推定部315は、将来位置R(t2)を以下の式2のように算出してもよい。
R(t2)=R(t1)+V(t1)(t2-t1)・・・(2)
(将来領域判定テーブル3215)
図15は将来領域判定テーブル3215の一例を示す図である。将来領域判定テーブル3215には、融合された測定対象の将来の位置、すなわち将来位置推定部315が推定する位置に関する条件と領域番号の対応が格納される。将来領域判定テーブル3215の構成は領域判定テーブル3211と同様である。将来領域判定テーブル3215に含まれる領域番号は領域判定テーブル3211と同様であり、位置条件は領域判定テーブル3211と同一でもよいし異なっていてもよい。
(将来テーブル3216)
図16は将来テーブル3216の一例を示す図である。将来テーブル3216には、融合された測定対象の将来の状態量、および融合された測定対象の将来の位置の分類が格納される。将来テーブル3216は将来位置推定部315によって書き込まれる。
(処理部31の動作)
図17は第3の実施の形態における処理部31の処理を表すフローチャートである。第1の実施の形態における図7に示す処理との違いは、S102の次にS102Bが追加され、S106の次にS107およびS108が追加されている点である。以下では第1の実施の形態との相違点を説明する。
S102Bでは将来位置推定部315は、将来テーブル3216の転記、すなわち将来テーブル3216の全体を読み込み、領域番号のフィールドの値に応じてそれぞれのレコードを対応する領域テーブルに記録する。たとえば図16に示す例では、先頭の2つのレコードはいずれも将来領域が「Z2」なので、そのレコードの情報を第2領域テーブル3221Bに記録する。ただしS102Bにおいて領域テーブルに書き込む取得センサのフィールドの値は、それぞれのセンサとは異なる値、たとえば「融合」とする。将来位置推定部315は、将来テーブル3216を全て読み込むと将来テーブル3216に格納されていた情報をすべて削除する。
S107では将来位置推定部315は、処理後テーブル3213に記載された全ての融合された処理対象について将来位置を含む次の処理周期における状態量を算出し、将来テーブル3216に記載する。続くS108では将来位置推定部315は、将来テーブル3216および将来領域判定テーブル3215を参照し、将来位置を分類して将来テーブル3216の領域番号のフィールドを埋める。詳述すると将来位置推定部315は、将来位置が将来領域判定テーブル3215に記載されたいずれの領域に該当するかを判断し、その判断結果を将来テーブル3216の領域番号のフィールドに記載する。以上が図17の説明である。
なおS103~S105に示すそれぞれの領域におけるフュージョン処理は第1の実施の形態と同様であるが、S102Bの影響により実質的に以下のように変化する。たとえば第1フュージョン部312Aは、図8のS212において将来位置を含めて抽出を行い、S214においてS212およびS213の条件を満たす将来位置も融合の対象とする。S214では処理部31は、第1の実施の形態と同様に単純平均を用いてもよいし、予測位置とその他の位置では重みを変化させた加重平均を用いてもよい。
上述した第3の実施の形態によれば、次の作用効果が得られる。
(4)記憶部32には、測定対象の将来の位置である将来位置に関する分類の条件である将来領域判定テーブル3215と、将来領域判定テーブル3215により将来領域が分類された将来位置を含む将来テーブル3216とが格納される。処理部31は、測定対象の将来位置を推定し、将来領域判定テーブル3215を用いて将来位置を分類する将来位置推定部315を備える。フュージョン部312は、測定対象の一致の判断において将来位置推定部315により同一に分類される測定対象も判断の対象に含め、一致すると判断した複数の測定対象の位置および将来位置を融合させる。
一般に、融合された測定対象の精度を高めるには、過去の測定値に基づく予測値をフュージョン処理の対象に含めることが有効である。しかし処理対象の増加に伴い組み合わせの数が大きく増加し、処理量の増加および処理周期内に処理可能な測定対象の数が減少する問題がある。そこで電子制御装置3は、算出した将来位置の領域を判断し、組み合わせは同一の領域内に限定する。そのため、処理負荷の増加を抑えて融合された測定対象の状態量の精度を高めることができる。
(5)将来位置推定部315は、フュージョン部312が融合した測定対象の将来位置を推定する。そのため複数のセンサ出力を用いて算出した状態量の将来位置を用いて、次の処理周期における測定対象の状態量を高精度に算出できる。
(第3の実施の形態の変形例1)
将来位置推定部315は推定した将来位置を将来テーブル3216に書き込む代わりに、第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cのいずれかに書き込んでもよい。すなわち将来位置推定部315は、算出した将来位置が分類される領域に応じて第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cのいずれかに将来位置を書き込む。この場合は、図17のS102Bを削除できる。
(第3の実施の形態の変形例2)
上述した第3の実施の形態では、状態量の推定対象は融合された測定対象のみであった。しかし将来位置推定部315は、融合されていない測定対象のみを状態量の推定対象としてもよいし、融合された測定対象および融合されていない測定対象の両方を状態量の推定対象としてもよい。
さらに将来位置推定部315は、推定した状態量を将来テーブル3216に書き込む代わりに以下の処理を行ってもよい。すなわち将来位置推定部315は、将来領域判定テーブル3215を参照して融合されていない測定対象の将来位置を分類し、分類された領域に対応する第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cのいずれかに書き込んでもよい。この場合の処理は、異なる領域に移動すると判断された測定対象を移動元の領域テーブルから削除し、移動先の領域テーブルに移動させる処理ともいえる。
本変形例によれば次の作用効果が得られる。
(6)位置判定部311および将来位置推定部315は、領域判断テーブル3211Aおよび将来テーブル3216を参照して決定した分類結果ごとに、専用記憶部322のそれぞれの関連付けられた領域に保存する。そのため将来テーブル3216から専用記憶部322に状態量を転記する必要がなく、処理を簡便にできる。
上述した各実施の形態および変形例において、電子制御装置3のプログラムは不図示のROMに格納されるとしたが、プログラムは記憶部32に格納されていてもよい。また、入出力部33と電子制御装置3が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、たとえば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部または全部がハードウエア回路やFPGAにより実現されてもよい。
上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
1…センサ群
2…環境モニタ
3…電子制御装置
4…アクチュエータ群
31…処理部
32…記憶部
33…入出力部
311…位置判定部
312…フュージョン部
313…車両制御処理部
314…領域変更部
315…将来位置推定部
321…共通記憶部
322…専用記憶部
3211…領域判定テーブル
3212…処理前テーブル
3213…処理後テーブル
3214…パタン判定テーブル
3215…将来領域判定テーブル
3216…将来テーブル
3221A…第1領域テーブル
3221B…第2領域テーブル
3221C…第3領域テーブル
C…車両

Claims (4)

  1. 複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部と、
    位置に関する分類の条件である位置判定情報を記憶する記憶部と、
    前記測定対象を前記位置判定情報を用いて分類する位置判定部と、
    前記位置判定部により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させるフュージョン部とを備え、
    前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象であり、
    位置判定情報により分類されるそれぞれの領域は、前記複数のセンサのうち少なくとも2つのセンサと関連付けられ、
    前記フュージョン部は、前記位置判定部により同一の領域に分類される前記測定対象であって、前記同一の領域に関連付けられた異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させ、
    前記複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得する性能推定情報取得部と、
    前記性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように前記位置判定情報を変更する領域変更部とを備える電子制御装置。
  2. 請求項に記載の電子制御装置において、
    前記記憶部には、複数の前記分類の条件、および前記複数のセンサの性能の低下と前記分類の条件の対応を定めるパタン判定情報がさらに格納され、
    前記領域変更部は、前記性能推定情報を用いて前記パタン判定情報に含まれるいずれの前記分類の条件を用いるかを決定する電子制御装置。
  3. 複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部、および位置に関する分類の条件である位置判定情報を記憶する記憶部を備える電子制御装置が実行する演算方法において、
    前記測定対象を前記位置判定情報を用いて分類を行うことと、
    前記分類により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行うこととを含み、
    前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象であり、
    前記記憶部には、前記分類の条件により分類されるそれぞれの領域について、前記複数のセンサのうち少なくとも2つのセンサとの関連付けであるセンサ領域関連付け情報がさらに格納され、
    前記融合では、前記分類により同一の領域に分類される前記測定対象であって、前記センサ領域関連付け情報により前記同一の領域に関連付けられた異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行い、
    前記複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得することと、
    前記性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように前記位置判定情報を変更することとをさらに含む演算方法。
  4. 請求項に記載の演算方法において、
    前記記憶部には、複数の前記分類の条件、および前記複数のセンサの性能の低下と前記分類の条件の対応を定めるパタン判定情報がさらに格納され、
    前記性能推定情報を用いて前記パタン判定情報に含まれるいずれの前記分類の条件を新たな前記位置判定情報とするかを決定することをさらに含む演算方法。
JP2018084266A 2018-04-25 2018-04-25 電子制御装置、演算方法 Active JP7019503B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018084266A JP7019503B2 (ja) 2018-04-25 2018-04-25 電子制御装置、演算方法
DE112019001545.1T DE112019001545T5 (de) 2018-04-25 2019-04-12 Elektronische steuervorrichtung und betriebsverfahren
US17/049,220 US11958480B2 (en) 2018-04-25 2019-04-12 Electronic control device and operation method
PCT/JP2019/016010 WO2019208271A1 (ja) 2018-04-25 2019-04-12 電子制御装置、演算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018084266A JP7019503B2 (ja) 2018-04-25 2018-04-25 電子制御装置、演算方法

Publications (2)

Publication Number Publication Date
JP2019191945A JP2019191945A (ja) 2019-10-31
JP7019503B2 true JP7019503B2 (ja) 2022-02-15

Family

ID=68295458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018084266A Active JP7019503B2 (ja) 2018-04-25 2018-04-25 電子制御装置、演算方法

Country Status (4)

Country Link
US (1) US11958480B2 (ja)
JP (1) JP7019503B2 (ja)
DE (1) DE112019001545T5 (ja)
WO (1) WO2019208271A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019503B2 (ja) * 2018-04-25 2022-02-15 日立Astemo株式会社 電子制御装置、演算方法
JP7283413B2 (ja) * 2020-02-17 2023-05-30 株式会社デンソー 車載用の計測装置ユニットおよび車載用の計測装置ユニットにおける統合データ生成方法
KR102303854B1 (ko) * 2020-07-10 2021-09-23 경일대학교산학협력단 페일 세이프 시스템 및 이의 동작 방법
US12080072B2 (en) * 2021-03-18 2024-09-03 Aptiv Technologies AG History-based identification of incompatible tracks
JP7449907B2 (ja) 2021-09-22 2024-03-14 ダイハツ工業株式会社 車両用制御装置
JP2023069374A (ja) * 2021-11-05 2023-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176669A (ja) 2010-01-25 2010-08-12 Fujitsu Ten Ltd 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP2010244474A (ja) 2009-04-09 2010-10-28 Hitachi Automotive Systems Ltd 自動車の外界認識装置
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2014006123A (ja) 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2014197325A (ja) 2013-03-29 2014-10-16 株式会社日本自動車部品総合研究所 横断判定装置およびプログラム
JP2016099635A (ja) 2014-11-18 2016-05-30 日立オートモティブシステムズ株式会社 走行制御システム
JP2017182771A (ja) 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264060B2 (ja) 1993-11-04 2002-03-11 三菱自動車工業株式会社 自動車の走行制御装置の先行車検出機構
CN107226091B (zh) 2016-03-24 2021-11-26 松下电器(美国)知识产权公司 物体检测装置、物体检测方法以及记录介质
JP6787102B2 (ja) * 2016-12-14 2020-11-18 株式会社デンソー 物体検出装置、物体検出方法
JP7019503B2 (ja) * 2018-04-25 2022-02-15 日立Astemo株式会社 電子制御装置、演算方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244474A (ja) 2009-04-09 2010-10-28 Hitachi Automotive Systems Ltd 自動車の外界認識装置
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2010176669A (ja) 2010-01-25 2010-08-12 Fujitsu Ten Ltd 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP2014006123A (ja) 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2014197325A (ja) 2013-03-29 2014-10-16 株式会社日本自動車部品総合研究所 横断判定装置およびプログラム
JP2016099635A (ja) 2014-11-18 2016-05-30 日立オートモティブシステムズ株式会社 走行制御システム
JP2017182771A (ja) 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム

Also Published As

Publication number Publication date
US11958480B2 (en) 2024-04-16
WO2019208271A1 (ja) 2019-10-31
US20210256328A1 (en) 2021-08-19
DE112019001545T5 (de) 2020-12-24
JP2019191945A (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
JP7019503B2 (ja) 電子制御装置、演算方法
US10220841B2 (en) Method and system for assisting a driver of a vehicle in driving the vehicle, vehicle and computer program
JP7388971B2 (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US20200020117A1 (en) Pose estimation
US20180173232A1 (en) System and method for sensing the driving environment of a motor vehicle
JP2005310140A (ja) オブジェクトの認識及び/又は追跡方法
CN108535727B (zh) 跟踪主车辆附近的多个对象的方法
JP2020046706A (ja) 物体検出装置、車両制御システム、物体検出方法及び物体検出用コンピュータプログラム
CN113635894B (zh) 用于确定可行驶区域的方法
JP6717240B2 (ja) 物標検出装置
CN111971725B (zh) 用于确定车辆的变道说明的方法、可读存储介质以及车辆
CN111937036A (zh) 用于处理传感器数据的方法、设备和具有指令的计算机可读存储介质
US11087147B2 (en) Vehicle lane mapping
CN112801225B (zh) 极限工况下自动驾驶多传感器融合感知方法及系统
KR102456151B1 (ko) 레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법
JP7115502B2 (ja) 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
KR102305673B1 (ko) 카메라와 v2v를 이용한 주변차량 차선변경 의도 및 경로 예측 방법
CN116703966A (zh) 多对象跟踪
CN111989541B (zh) 立体摄像机装置
US20210365039A1 (en) Target tracking method and device
JP7142468B2 (ja) 移動体追跡装置
CN113744518B (zh) 一种车辆可行驶区域的检测方法及装置
JP6611334B2 (ja) 区画線認識装置
CN111295566A (zh) 物体识别装置及物体识别方法
JP2007233487A (ja) 歩行者検出方法、装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220202

R150 Certificate of patent or registration of utility model

Ref document number: 7019503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150