JP6664371B2 - 物体認識装置、物体認識方法及び車両 - Google Patents

物体認識装置、物体認識方法及び車両 Download PDF

Info

Publication number
JP6664371B2
JP6664371B2 JP2017238857A JP2017238857A JP6664371B2 JP 6664371 B2 JP6664371 B2 JP 6664371B2 JP 2017238857 A JP2017238857 A JP 2017238857A JP 2017238857 A JP2017238857 A JP 2017238857A JP 6664371 B2 JP6664371 B2 JP 6664371B2
Authority
JP
Japan
Prior art keywords
sensor
ecu
vehicle
detection result
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017238857A
Other languages
English (en)
Other versions
JP2019105568A (ja
Inventor
拓幸 向井
拓幸 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017238857A priority Critical patent/JP6664371B2/ja
Priority to CN201811310772.XA priority patent/CN110007301B/zh
Priority to US16/199,616 priority patent/US11364921B2/en
Publication of JP2019105568A publication Critical patent/JP2019105568A/ja
Application granted granted Critical
Publication of JP6664371B2 publication Critical patent/JP6664371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Description

本発明は、物体認識装置、物体認識方法及び車両に関する。
車両の自動運転に関する様々な技術が開発されている。特許文献1には、車両に搭載されたレーダセンサや及びCCDカメラにより検出された周囲の走行環境情報に基づいて前方に障害物があるか否かを判定する技術が記載されている。レーダセンサにより検出された周囲状況に関する取得情報の信頼度と、CCDカメラにより検出された周囲状況に関する取得情報の信頼度とがそれぞれ演算される。これらの信頼度は、レーダセンサ及びCCDカメラにより検出された障害物に関する大きさや位置等の合致度が高いほど高くなるように演算される。
特開2007−176265号
複数のセンサの検出結果を統合して物体を判定する判定部が複数系統ある場合に、それらの判定結果が食い違う場合がある。従来の方法では、このような場合に信頼度が高い物体認識を行うことが困難であった。本発明の一部の側面は、信頼度の高い物体認識を行うことを目的とする。
一部の実施形態によれば、物体を認識するための物体認識装置であって、少なくとも第1センサ及び第2センサによる前記物体の検出結果に基づいて前記物体を判定する第1物体判定部と、少なくとも第3センサ及び第4センサによる前記物体の検出結果に基づいて前記物体を判定する第2物体判定部と、前記第1物体判定部及び前記第2物体判定部の少なくとも一方による判定結果に基づいて前記物体を認識する物体認識部と、前記第1センサによる検出結果と前記第2センサによる検出結果との差を算出する第1算出部と、前記第3センサによる検出結果と前記第4センサによる検出結果との差を算出する第2算出部と、前記第1算出部及び前記第2算出部による算出結果に基づいて、前記第1物体判定部及び前記第2物体判定部による判定結果の信頼度を決定する信頼度決定部と、を備え、前記第1センサ、前記第2センサ、前記第3センサ及び前記第4センサは、別個のセンサであることを特徴とする物体認識装置が提供される。
本発明によれば、信頼度の高い物体認識を行うことが可能になる。
実施形態に係る車両用制御システムのブロック図。 実施形態に係る車両用制御システムのブロック図。 実施形態に係る車両用制御システムのブロック図。 実施形態に係る車両用制御システムのブロック図。 実施形態に係る物体認識方法を説明するフローチャート。 実施形態に係る自車の外部の物体を説明する模式図。
図1〜図4は、本発明の一実施形態に係る車両用制御システム1のブロック図である。制御システム1は、車両Vを制御する。図1および図2において、車両Vはその概略が平面図と側面図とで示されている。車両Vは一例としてセダンタイプの四輪の乗用車である。制御システム1は、制御装置1Aと制御装置1Bとを含む。図1は制御装置1Aを示すブロック図であり、図2は制御装置1Bを示すブロック図である。図3は主に、制御装置1Aと制御装置1Bとの間の通信回線及び電源の構成を示している。
制御装置1Aと制御装置1Bとは車両Vが実現する一部の機能を多重化又は冗長化したものである。これによりシステムの信頼性を向上することができる。制御装置1Aは、例えば、自動運転制御や、手動運転における通常の動作制御の他、危険回避等に関わる走行支援制御も行う。制御装置1Bは主に危険回避等に関わる走行支援制御を司る。走行支援のことを運転支援と呼ぶ場合がある。制御装置1Aと制御装置1Bとで機能を冗長化しつつ、異なる制御処理を行わせることで、制御処理の分散化を図りつつ、信頼性を向上できる。
本実施形態の車両Vはパラレル方式のハイブリッド車両であり、図2には、車両Vの駆動輪を回転させる駆動力を出力するパワープラント50の構成が模式的に図示されている。パワープラント50は内燃機関EG、モータMおよび自動変速機TMを有している。モータMは車両Vを加速させる駆動源として利用可能であると共に減速時等において発電機としても利用可能である(回生制動)。
<制御装置1A>
図1を参照して制御装置1Aの構成について説明する。制御装置1Aは、ECU群(制御ユニット群)2Aを含む。ECU群2Aは、複数のECU20A〜29Aを含む。各ECUは、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、記憶デバイスおよびインタフェース等を複数備えていてもよい。なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、あるいは、統合したりすることが可能である。なお、図1および図3においてはECU20A〜29Aの代表的な機能の名称を付している。例えば、ECU20Aには「自動運転ECU」と記載している。
ECU20Aは、車両Vの走行制御として自動運転に関わる制御を実行する。自動運転においては車両Vの駆動(パワープラント50による車両Vの加速等)、操舵または制動の少なくとも1つを、運転者の運転操作に依らず自動的に行う。本実施形態では、駆動、操舵および制動を自動的に行う。
ECU21Aは、車両Vの周囲状況を検知する検知ユニット31A、32Aの検知結果に基づいて、車両Vの走行環境を認識する環境認識ユニットである。ECU21Aは周辺環境情報として後述する物標データを生成する。
本実施形態の場合、検知ユニット31Aは、撮像により車両Vの周囲の物体を検知する撮像デバイス(以下、カメラ31Aと表記する場合がある。)である。カメラ31Aは車両Vの前方を撮影可能なように、車両Vのルーフ前部に設けられている。カメラ31Aが撮影した画像の解析により、物標の輪郭抽出や、道路上の車線の区画線(白線等)を抽出可能である。
本実施形態の場合、検知ユニット32Aは、光により車両Vの周囲の物体を検知するライダ(Light Detection and Ranging)であり(以下、ライダ32Aと表記する場合がある)、車両Vの周囲の物標を検知したり、物標との距離を測距したりする。本実施形態の場合、ライダ32Aは5つ設けられており、車両Vの前部の各隅部に1つずつ、後部中央に1つ、後部各側方に1つずつ設けられている。ライダ32Aの数や配置は適宜選択可能である。
ECU29Aは、検知ユニット31Aの検知結果に基づいて、車両Vの走行制御として走行支援(換言すると運転支援)に関わる制御を実行する走行支援ユニットである。
ECU22Aは、電動パワーステアリング装置41Aを制御する操舵制御ユニットである。電動パワーステアリング装置41Aは、ステアリングホイールSTに対する運転者の運転操作(操舵操作)に応じて前輪を操舵する機構を含む。電動パワーステアリング装置41Aは操舵操作をアシストしたり、あるいは、前輪を自動操舵するための駆動力を発揮したりするモータや、モータの回転量を検知するセンサや、運転者が負担する操舵トルクを検知するトルクセンサ等を含む。
ECU23Aは、油圧装置42Aを制御する制動制御ユニットである。油圧装置42Aは例えばESB(電動サーボブレーキ)を実現する。ブレーキペダルBPに対する運転者の制動操作はブレーキマスタシリンダBMにおいて液圧に変換されて油圧装置42Aに伝達される。油圧装置42Aは、ブレーキマスタシリンダBMから伝達された液圧に基づいて、四輪にそれぞれ設けられたブレーキ装置(例えばディスクブレーキ装置)51に供給する作動油の液圧を制御可能なアクチュエータであり、ECU23Aは油圧装置42Aが備える電磁弁等の駆動制御を行う。本実施形態の場合、ECU23Aおよび油圧装置23Aは電動サーボブレーキを構成し、ECU23Aは、例えば、4つのブレーキ装置51による制動力と、モータMの回生制動による制動力との配分を制御する。
ECU24Aは、自動変速機TMに設けられている電動パーキングロック装置50aを制御する停止維持制御ユニットである。電動パーキングロック装置50aは、主としてPレンジ(パーキングレンジ)選択時に自動変速機TMの内部機構をロックする機構を備える。ECU24Aは電動パーキングロック装置50aによるロックおよびロック解除を制御可能である。
ECU25Aは、車内に情報を報知する情報出力装置43Aを制御する車内報知制御ユニットである。情報出力装置43Aは例えばヘッドアップディスプレイ等の表示装置や音声出力装置を含む。更に、振動装置を含んでもよい。ECU25Aは、例えば、車速や外気温等の各種情報や、経路案内等の情報を情報出力装置43Aに出力させる。
ECU26Aは、車外に情報を報知する情報出力装置44Aを制御する車外報知制御ユニットである。本実施形態の場合、情報出力装置44Aは方向指示器(ハザードランプ)であり、ECU26Aは方向指示器として情報出力装置44Aの点滅制御を行うことで車外に対して車両Vの進行方向を報知し、また、ハザードランプとして情報出力装置44Aの点滅制御を行うことで車外に対して車両Vへの注意力を高めることができる。
ECU27Aは、パワープラント50を制御する駆動制御ユニットである。本実施形態では、パワープラント50にECU27Aを1つ割り当てているが、内燃機関EG、モータMおよび自動変速機TMのそれぞれにECUを1つずつ割り当ててもよい。ECU27Aは、例えば、アクセルペダルAPに設けた操作検知センサ34aやブレーキペダルBPに設けた操作検知センサ34bにより検知した運転者の運転操作や車速等に対応して、内燃機関EGやモータMの出力を制御したり、自動変速機TMの変速段を切り替えたりする。なお、自動変速機TMには車両Vの走行状態を検知するセンサとして、自動変速機TMの出力軸の回転数を検知する回転数センサ39が設けられている。車両Vの車速は回転数センサ39の検知結果から演算可能である。
ECU28Aは、車両Vの現在位置や進路を認識する位置認識ユニットである。ECU28Aは、ジャイロセンサ33A、GPSセンサ28b、通信装置28cの制御および検知結果あるいは通信結果の情報処理を行う。ジャイロセンサ33Aは車両Vの回転運動を検知する。ジャイロセンサ33の検知結果等により車両Vの進路を判定することができる。GPSセンサ28bは、車両Vの現在位置を検知する。通信装置28cは、地図情報や交通情報を提供するサーバと無線通信を行い、これらの情報を取得する。データベース28aには、高精度の地図情報を格納することができ、ECU28Aはこの地図情報等に基づいて、車線上の車両Vの位置をより高精度に特定可能である。
入力装置45Aは運転者が操作可能に車内に配置され、運転者からの指示や情報の入力を受け付ける。
<制御装置1B>
図2を参照して制御装置1Bの構成について説明する。制御装置1Bは、ECU群(制御ユニット群)2Bを含む。ECU群2Bは、複数のECU21B〜25Bを含む。各ECUは、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、記憶デバイスおよびインタフェース等を複数備えていてもよい。なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、あるいは、統合したりすることが可能である。なお、ECU群2Aと同様、図2および図3においてはECU21B〜25Bの代表的な機能の名称を付している。
ECU21Bは、車両Vの周囲状況を検知する検知ユニット31B、32Bの検知結果に基づいて、車両Vの走行環境を認識する環境認識ユニットであると共に、車両Vの走行制御として走行支援(換言すると運転支援)に関わる制御を実行する走行支援ユニットである。ECU21Bは周辺環境情報として後述する物標データを生成する。
なお、本実施形態では、ECU21Bが環境認識機能と走行支援機能とを有する構成としたが、制御装置1AのECU21AとECU29Aのように、機能毎にECUを設けてもよい。逆に、制御装置1Aにおいて、ECU21Bのように、ECU21AとECU29Aの機能を1つのECUで実現する構成であってもよい。
本実施形態の場合、検知ユニット31Bは、撮像により車両Vの周囲の物体を検知する撮像デバイス(以下、カメラ31Bと表記する場合がある。)である。カメラ31Bは車両Vの前方を撮影可能なように、車両Vのルーフ前部に設けられている。カメラ31Bが撮影した画像の解析により、物標の輪郭抽出や、道路上の車線の区画線(白線等)を抽出可能である。本実施形態の場合、検知ユニット32Bは、電波により車両Vの周囲の物体を検知するミリ波レーダであり(以下、レーダ32Bと表記する場合がある)、車両Vの周囲の物標を検知したり、物標との距離を測距したりする。本実施形態の場合、レーダ32Bは5つ設けられており、車両Vの前部中央に1つ、前部各隅部に1つずつ、後部各隅部に1つずつ設けられている。レーダ32Bの数や配置は適宜選択可能である。
ECU22Bは、電動パワーステアリング装置41Bを制御する操舵制御ユニットである。電動パワーステアリング装置41Bは、ステアリングホイールSTに対する運転者の運転操作(操舵操作)に応じて前輪を操舵する機構を含む。電動パワーステアリング装置41Bは操舵操作をアシストしたり、あるいは、前輪を自動操舵するための駆動力を発揮したりするモータや、モータの回転量を検知するセンサや、運転者が負担する操舵トルクを検知するトルクセンサ等を含む。また、ECU22Bには後述する通信回線L2を介して操舵角センサ37が電気的に接続されており、操舵角センサ37の検知結果に基づいて電動パワーステアリング装置41Bを制御可能である。ECU22Bは、運転者がステアリングハンドルSTを把持しているか否かを検知するセンサ36の検知結果を取得可能であり、運転者の把持状態を監視することができる。
ECU23Bは、油圧装置42Bを制御する制動制御ユニットである。油圧装置42Bは例えばVSA(Vehicle Stability Assist)を実現する。ブレーキペダルBPに対する運転者の制動操作はブレーキマスタシリンダBMにおいて液圧に変換されて油圧装置42Bに伝達される。油圧装置42Bは、ブレーキマスタシリンダBMから伝達された液圧に基づいて、各車輪のブレーキ装置51に供給する作動油の液圧を制御可能なアクチュエータであり、ECU23Bは油圧装置42Bが備える電磁弁等の駆動制御を行う。
本実施形態の場合、ECU23Bおよび油圧装置23Bには、四輪それぞれに設けられた車輪速センサ38、ヨーレートセンサ33B、ブレーキマスタシリンダBM内の圧力を検知する圧力センサ35が電気的に接続され、これらの検知結果に基づき、ABS機能、トラクションコントロールおよび車両Vの姿勢制御機能を実現する。例えば、ECU23Bは、四輪それぞれに設けられた車輪速センサ38の検知結果に基づき各車輪の制動力を調整し、各車輪の滑走を抑制する。また、ヨーレートセンサ33Bが検知した車両Vの鉛直軸回りの回転角速度に基づき各車輪の制動力を調整し、車両Vの急激な姿勢変化を抑制する。
また、ECU23Bは、車外に情報を報知する情報出力装置43Bを制御する車外報知制御ユニットとしても機能する。本実施形態の場合、情報出力装置43Bはブレーキランプであり、制動時等にECU23Bはブレーキランプを点灯可能である。これにより後続車に対して車両Vへの注意力を高めることができる。
ECU24Bは、後輪に設けられている電動パーキングブレーキ装置(例えばドラムブレーキ)52を制御する停止維持制御ユニットである。電動パーキングブレーキ装置52は後輪をロックする機構を備える。ECU24Bは電動パーキングブレーキ装置52による後輪のロックおよびロック解除を制御可能である。
ECU25Bは、車内に情報を報知する情報出力装置44Bを制御する車内報知制御ユニットである。本実施形態の場合、情報出力装置44Bはインストルメントパネルに配置される表示装置を含む。ECU25Bは情報出力装置44Bに車速、燃費等の各種の情報を出力させることが可能である。
入力装置45Bは運転者が操作可能に車内に配置され、運転者からの指示や情報の入力を受け付ける。
<通信回線>
ECU間を通信可能に接続する、制御システム1の通信回線の例について図3を参照して説明する。制御システム1は、有線の通信回線L1〜L7を含む。通信回線L1には、制御装置1Aの各ECU20A〜27A、29Aが接続されている。なお、ECU28Aも通信回線L1に接続されてもよい。
通信回線L2には、制御装置1Bの各ECU21B〜25Bが接続されている。また、制御装置1AのECU20Aも通信回線L2に接続されている。通信回線L3はECU20AとECU21Aを接続する。通信回線L5はECU20A、ECU21AおよびECU28Aを接続する。通信回線L6はECU29AとECU21Aを接続する。通信回線L7はECU29AとECU20Aを接続する。
通信回線L1〜L7のプロトコルは同じであっても異なっていてもよいが、通信速度、通信量や耐久性等、通信環境に応じて異ならせてもよい。例えば、通信回線L3およびL4は通信速度の点でEthernet(登録商標)であってもよい。例えば、通信回線L1、L2、L5〜L7はCANであってもよい。
制御装置1Aは、ゲートウェイGWを備えている。ゲートウェイGWは、通信回線L1と通信回線L2を中継する。このため、例えば、ECU21Bは通信回線L2、ゲートウェイGWおよび通信回線L1を介してECU27Aに制御指令を出力可能である。
<電源>
制御システム1の電源について図3を参照して説明する。制御システム1は、大容量バッテリ6と、電源7Aと、電源7Bとを含む。大容量バッテリ6はモータMの駆動用バッテリであると共に、モータMにより充電されるバッテリである。
電源7Aは制御装置1Aに電力を供給する電源であり、電源回路71Aとバッテリ72Aとを含む。電源回路71Aは、大容量バッテリ6の電力を制御装置1Aに供給する回路であり、例えば、大容量バッテリ6の出力電圧(例えば190V)を、基準電圧(例えば12V)に降圧する。バッテリ72Aは例えば12Vの鉛バッテリである。バッテリ72Aを設けたことにより、大容量バッテリ6や電源回路71Aの電力供給が遮断あるいは低下した場合であっても、制御装置1Aに電力の供給を行うことができる。
電源7Bは制御装置1Bに電力を供給する電源であり、電源回路71Bとバッテリ72Bとを含む。電源回路71Bは、電源回路71Aと同様の回路であり、大容量バッテリ6の電力を制御装置1Bに供給する回路である。バッテリ72Bは、バッテリ72Aと同様のバッテリであり、例えば12Vの鉛バッテリである。バッテリ72Bを設けたことにより、大容量バッテリ6や電源回路71Bの電力供給が遮断あるいは低下した場合であっても、制御装置1Bに電力の供給を行うことができる。
<全体構成>
図4を参照して車両Vの全体構成を別の観点から説明する。車両Vは、制御装置1A、制御装置1B、外界認識装置群82及びアクチュエータ群83を含む。
外界認識装置群82は、車両Vに搭載された外界認識装置(センサ)の集合である。外界認識装置群82は、上述のカメラ31A、カメラ31B、ライダ32A及びレーダ32Bを含む。カメラ31A及びライダ32AはECU21Aを介してECU20Aに接続されている。カメラ31A及びライダ32Aで得られた外界情報は、ECU20Aに供給され、カメラ31A及びライダ32AはECU20Aからの指示に従って動作する。カメラ31B及びレーダ32BはECU21Bに接続されている。カメラ31B及びライダ32Bで得られた外界情報は、ECU21Bに供給され、カメラ31B及びレーダ32BはECU21Bからの指示に従って動作する。ECU21Bは、カメラ31B及びライダ32Bで得られた外界情報をECU20Aに供給してもよい。これによって、ECU20Aは、カメラ31A、カメラ31B、ライダ32A及びレーダ32Bのそれぞれから得られた外界情報を用いて自動運転の制御を実行できる。カメラ31Aとカメラ31Bとは互いに等しい検出特性を有する。例えば、カメラ31A及びカメラ31Bは可視光を検出対象とする。
アクチュエータ群83は、車両Vに搭載されたアクチュエータの集合である。アクチュエータ群83は、上述の電動パワーステアリング装置41A、電動パワーステアリング装置41B、油圧装置42A、油圧装置42B及びパワープラント50を含む。電動パワーステアリング装置41A、油圧装置42A及びパワープラント50はECU22A、ECU23A及びECU27Aを介してECU20Aに接続されている。これに代えて、ECU20Aは、電動パワーステアリング装置41A、油圧装置42A及びパワープラント50のうちの一部のみに接続されていてもよい。電動パワーステアリング装置41A、油圧装置42A及びパワープラント50はECU20Aからの指示に従って動作する。電動パワーステアリング装置41B及び油圧装置42Bは、ECU22B及びECU22Bを介してECU21Bに接続されている。これに代えて、ECU21Bは、電動パワーステアリング装置41B及び油圧装置42Bの一部のみに接続されていてもよい。電動パワーステアリング装置41B及び油圧装置42BはECU21Bからの指示に従って動作する。
パワープラント50は、車両Vの駆動を行うので、縦制御アクチュエータの一種である。さらに、パワープラント50は、左右の車輪の駆動力の分配を変更することによって車両Vの方向を変更可能であるので、横制御アクチュエータの一種でもある。油圧装置42A及び油圧装置42Bはそれぞれ、車両Vの制動を行うので、縦制御アクチュエータの一種である。さらに、油圧装置42A及び油圧装置42Bはそれぞれ、ブレーキトルクベクタリングによって車両Vの方向を変更可能であるので、横制御アクチュエータの一種でもある。電動パワーステアリング装置41A及び電動パワーステアリング装置41Bはそれぞれ、車両Vの操舵を制御するので、横制御アクチュエータの一種である。
ECU20Aは、通信路を通じて外界認識装置群82の一部(カメラ31A及びライダ32A)と通信し、別の通信路を通じてアクチュエータ群83の一部(電動パワーステアリング装置41A、油圧装置42A、パワープラント50)と通信する。ECU21Bは、通信路を通じて外界認識装置群82の一部(カメラ31B及びレーダ32B)と通信し、別の通信路を通じてアクチュエータ群83の一部(電動パワーステアリング装置41B、油圧装置42B)と通信する。ECU20Aに接続されている通信路とECU21Bに接続されている通信路とは互いに異なっていてもよい。これらの通信路は例えばCAN(コントローラエリアネットワーク)であるが、イーサネット(登録商標)であってもよい。また、ECU20AとECU21Bとが通信路を通じて互いに接続されている。この通信路は例えばCAN(コントローラエリアネットワーク)であるが、イーサネットであってもよい。また、CANとイーサネットとの両方で接続されていてもよい。
<制御例>
図5を参照して、車両Vにおいて物体を認識するための方法について説明する。上述の制御システム1がこの方法を実行する。すなわち、制御システム1は、物体認識装置と呼ばれうる。認識される物体は車両Vの外部にある物体であり、例えば車両Vの周囲にある他車両、歩行者、固定された障害物(ガードレールなど)を含む。以下の説明では、物体の例として先行車両601を扱う。この方法は、例えば車両Vの自動運転中に反復して(例えば、1msの周期で)実行される。ECU20Aは、物体の認識結果に基づいて自動運転を行う。車両Vの周囲に複数の物体が存在する場合に、それぞれの物体に対して以下の処理が行われてもよい。
ステップS501で、ECU21Aは、少なくともカメラ31A及びライダ32Aによる先行車両601の検出結果に基づいて先行車両601を判定する。この処理において、ECU21Aは、物体認識部として機能する。カメラ31Aによる先行車両601の検出結果には、例えば、車両Vと先行車両601との間の距離、先行車両601の大きさ(幅や高さ)、先行車両601の速度などが含まれる。ライダ32Aによる先行車両601の検出結果も同様のものを含みうる。先行車両601を判定することは、例えばカメラ31Aによる検出結果とライダ32Aによる検出結果とを統合することによって、先行車両601との距離や先行車両601の大きさ、先行車両601の速度を判定することを含む。ステップS501をECU21Aが行う代わりに、例えばECU20Aが行ってもよい。
ステップS502で、ECU21Bは、少なくともカメラ31B及びレーダ32Bによる先行車両601の検出結果に基づいて先行車両601を判定する。この処理において、ECU21Bは、物体認識部として機能する。カメラ31B及びレーダ32Bによる先行車両601の検出結果はカメラ31Aによる先行車両601の検出結果も同様のものを含みうる。ステップS502をECU21Bが行う代わりに、例えばECU20Aが行ってもよい。ステップS501とステップS502とは逆の順序で実行されてもよいし、並行して実行されてもよい。
ステップS503で、ECU21Aは、カメラ31Aによる検出結果とライダ32Aによる検出結果との差を算出する。この処理において、ECU21Aは、算出部として機能する。例えば、検出結果が車両Vと先行車両601との間の距離を含む場合に、ECU21Aは、カメラ31Aによって検出された距離とライダ32Aによって検出された距離との差を算出する。別の例で、検出結果が先行車両601の速度を含む場合に、ECU21Aは、カメラ31Aによって検出された速度とライダ32Aによって検出された速度との差を算出する。ステップS503をECU21Aが行う代わりに、例えばECU20Aが行ってもよい。
ステップS504で、ECU21Bは、カメラ31Bによる検出結果とレーダ32Bによる検出結果との差を算出する。この処理において、ECU21Bは、算出部として機能する。例えば、検出結果が車両Vと先行車両601との間の距離を含む場合に、ECU21Bは、カメラ31Bによって検出された距離とレーダ32Bによって検出された距離との差を算出する。別の例で、検出結果が先行車両601の速度を含む場合に、ECU21Bは、カメラ31Bによって検出された速度とレーダ32Bによって検出された速度との差を算出する。ステップS504をECU21Bが行う代わりに、例えばECU20Aが行ってもよい。ステップS503とステップS504とは逆の順序で実行されてもよいし、並行して実行されてもよい。
ステップS505で、ECU20Aは、カメラ31A又はライダ32Aによる検出結果と、カメラ31B又はレーダ32Bによる検出結果との間に所定のばらつきがあるかどうかを判定する。例えば、ECU20Aは、カメラ31Aによる検出結果とカメラ31Bによる検出結果との間に所定のばらつきがあるかどうかを判定する。ECU20Aは、一方の検出結果が他方の検出結果の95%以下又は105%以上の場合にばらつきがあると判定してもよい。ばらつきがある場合(ステップS505でYES)、処理はステップS506に進み、ばらつきがない場合(ステップS505でNO)、処理はステップS508に進む。
ステップS508で、ECU20Aは、S501での判定結果とS502での判定結果とをさらに統合して先行車両601を認識する。この処理において、ECU20Aは、物体認識部として機能する。認識するために基づく判定結果はどちらのものであってもよい。例えば、S501での判定結果を使用することが事前に設定されていてもよい。ステップS508で、ECU20Aは、S501での判定結果とS502での判定結果とのいずれか一方に基づいて先行車両601を認識してもよい。
ステップS506で、ECU20Aは、ステップS503及びステップS504での算出結果に基づいて、ステップS501及びステップS502での判定結果の信頼度を決定する。この処理において、ECU20Aは、信頼度判定部として機能する。例えば、ECU20Aは、一方の検出結果に対する差の比率をステップS501の判定結果の信頼度としてもよい。ステップS504での算出結果に基づくステップS502での判定結果の信頼度についても同様である。
例えば、カメラ31Aによって検出された先行車両601との距離が95mであり、ライダ32Aによって検出された先行車両601との距離が105mであったとする。この場合に、ステップS503での算出結果は両者の差の10mとなる。したがって、ECU20Aは、「10/95」をステップS501での判定結果の信頼度とする。同様に、カメラ31Bによって検出された先行車両601との距離が95mであり、レーダ32Bによって検出された先行車両601との距離が100mであったとする。この場合に、ECU20Aは、「5/95」をステップS502での判定結果の信頼度とする。
ステップS507で、ECU20Aは、ステップS506で決定した信頼度が所定の条件を満たすかどうかを判定する。所定の条件とは、車両Vの制御にステップS501又はステップS502の判定結果を使用することが不適であることを判断するための条件である。例えば、ECU20Aは、少なくとも一方の信頼度が所定の閾値を超えた場合に所定の条件を満たすと判定する。所定の条件を満たす場合(ステップS507でYES)、処理はステップS509に進み、所定の条件を満たさない場合(ステップS507でNO)、処理はステップS508に進む。
ステップS509で、ECU20Aは、ECU21BとECU21Aとのうち信頼度が低い方による判定結果には基づかずに信頼度が高い方による判定結果に基づいて先行車両601を認識する。ステップS506で決定した信頼度は、2つのセンサ(例えば、カメラ31Aとライダ32A)との検出誤差に反比例する。そのため、低い信頼度は検出誤差が大きいことを意味するので、これらのセンサによって行われた物体の判定結果を使わずに物体を認識する方が精度の高い車両Vの制御が可能になる。上記の方法において、センサの検出精度(例えば、検知距離の誤差など)に優れた所定の範囲内(例えば、距離の差を算出する場合に30m〜50m)にある物体を用いて判定が行われてもよい。
<実施形態のまとめ>
[構成1]
物体(601)を認識するための物体認識装置(1)であって、
少なくとも第1センサ(31A)及び第2センサ(32A)による前記物体の検出結果に基づいて前記物体を判定する第1物体判定部(21A)と、
少なくとも第3センサ(31B)及び第4センサ(32B)による前記物体の検出結果に基づいて前記物体を判定する第2物体判定部(21B)と、
前記第1物体判定部及び前記第2物体判定部の少なくとも一方による判定結果に基づいて前記物体を認識する物体認識部(20A)と、
前記第1センサによる検出結果と前記第2センサによる検出結果との差を算出する第1算出部(20A)と、
前記第3センサによる検出結果と前記第4センサによる検出結果との差を算出する第2算出部(20A)と、
前記第1算出部及び前記第2算出部による算出結果に基づいて、前記第1物体判定部及び前記第2物体判定部による判定結果の信頼度を決定する信頼度決定部(20A)と、
を備えることを特徴とする物体認識装置。
この構成によれば、信頼度が高い物体認識を行えるようになる。
[構成2]
前記物体認識部は、前記第1物体判定部及び前記第2物体判定部の少なくとも一方による判定結果の前記信頼度が所定の条件を満たす場合に、前記信頼度が低い方の物体判定部による判定結果には基づかずに前記信頼度が高い方の物体判定部による判定結果に基づいて前記物体を認識することを特徴とする構成1に記載の物体認識装置。
この構成によれば、信頼度が高い物体判定部に基づいて物体認識を行うことができるようになる。
[構成3]
前記第1センサと前記第3センサとは互いに等しい検出特性を有することを特徴とする構成1又は2に記載の物体認識装置。
この構成によれば、検出特性が等しいセンサを基準として信頼度の比較を行えるようになる。
[構成4]
前記信頼度決定部は、前記第1センサ又は前記第2センサによる検出結果と、前記第3センサ又は前記第4センサによる検出結果との間に所定のばらつきがあった場合に前記信頼度を決定することを特徴とする構成1乃至3の何れか1項に記載の物体認識装置。
この構成によれば、信頼度が低いと考えられる場合に信頼度の決定を行えるようになる。
[構成5]
前記第1センサ及び前記第3センサはそれぞれカメラ(31A、31B)であり、
前記第2センサはライダ(32A)であり、
前記第4センサはレーダ(32B)であることを特徴とする構成1乃至4の何れか1項に記載の物体認識装置。
この構成によれば、特性が互いに異なるセンサ間での検出結果の差に基づいて信頼度が決定される。
[構成6]
構成1乃至5の何れか1項に記載の物体認識装置(1)と、
前記第1センサ、前記第2センサ、前記第3センサ及び前記第4センサと、
アクチュエータ群(83)と
を備える車両(V)。
この構成によれば、信頼度が高い物体認識を行える車両が提供される。
[構成7]
物体(601)を認識するための方法であって、
少なくとも第1センサ(31A)及び第2センサ(32A)による前記物体の検出結果に基づいて前記物体を判定する第1物体判定工程(S501)と、
少なくとも第3センサ(31B)及び第4センサ(32B)による前記物体の検出結果に基づいて前記物体を判定する第2物体判定工程(S502)と、
前記第1物体判定工程及び前記第2物体判定工程の少なくとも一方による判定結果に基づいて前記物体を認識する物体認識工程(S508、S509)と、
前記第1センサによる検出結果と前記第2センサによる検出結果との差を算出する第1算出工程(S503)と、
前記第3センサによる検出結果と前記第4センサによる検出結果との差を算出する第2算出工程(S504)と、
前記第1算出部及び前記第2算出部による算出結果に基づいて、前記第1物体判定部及び前記第2物体判定部による判定結果の信頼度を決定する信頼度決定工程(S506)と、
を有することを特徴とする方法。
この構成によれば、信頼度が高い物体認識を行えるようになる。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
1 車両用制御システム、20A ECU、21A ECU 21B ECU、31A カメラ、31B カメラ、32A ライダ、32B レーダ

Claims (7)

  1. 物体を認識するための物体認識装置であって、
    少なくとも第1センサ及び第2センサによる前記物体の検出結果に基づいて前記物体を判定する第1物体判定部と、
    少なくとも第3センサ及び第4センサによる前記物体の検出結果に基づいて前記物体を判定する第2物体判定部と、
    前記第1物体判定部及び前記第2物体判定部の少なくとも一方による判定結果に基づいて前記物体を認識する物体認識部と、
    前記第1センサによる検出結果と前記第2センサによる検出結果との差を算出する第1算出部と、
    前記第3センサによる検出結果と前記第4センサによる検出結果との差を算出する第2算出部と、
    前記第1算出部及び前記第2算出部による算出結果に基づいて、前記第1物体判定部及び前記第2物体判定部による判定結果の信頼度を決定する信頼度決定部と、
    を備え
    前記第1センサ、前記第2センサ、前記第3センサ及び前記第4センサは、別個のセンサであることを特徴とする物体認識装置。
  2. 前記物体認識部は、前記第1物体判定部及び前記第2物体判定部の少なくとも一方による判定結果の前記信頼度が所定の条件を満たす場合に、前記信頼度が低い方の物体判定部による判定結果には基づかずに前記信頼度が高い方の物体判定部による判定結果に基づいて前記物体を認識することを特徴とする請求項1に記載の物体認識装置。
  3. 前記第1センサと前記第3センサとは互いに等しい検出特性を有することを特徴とする請求項1又は2に記載の物体認識装置。
  4. 前記信頼度決定部は、前記第1センサ又は前記第2センサによる検出結果と、前記第3センサ又は前記第4センサによる検出結果との間に所定のばらつきがあった場合に前記信頼度を決定することを特徴とする請求項1乃至3の何れか1項に記載の物体認識装置。
  5. 前記第1センサ及び前記第3センサはそれぞれカメラであり、
    前記第2センサはライダであり、
    前記第4センサはレーダであることを特徴とする請求項1乃至4の何れか1項に記載の物体認識装置。
  6. 請求項1乃至5の何れか1項に記載の物体認識装置と、
    前記第1センサ、前記第2センサ、前記第3センサ及び前記第4センサと、
    アクチュエータ群と
    を備える車両。
  7. 物体を認識するための方法であって、
    少なくとも第1センサ及び第2センサによる前記物体の検出結果に基づいて前記物体を判定する第1物体判定工程と、
    少なくとも第3センサ及び第4センサによる前記物体の検出結果に基づいて前記物体を判定する第2物体判定工程と、
    前記第1物体判定工程及び前記第2物体判定工程の少なくとも一方による判定結果に基づいて前記物体を認識する物体認識工程と、
    前記第1センサによる検出結果と前記第2センサによる検出結果との差を算出する第1算出工程と、
    前記第3センサによる検出結果と前記第4センサによる検出結果との差を算出する第2算出工程と、
    前記第1算出工程及び前記第2算出工程での算出結果に基づいて、前記第1物体判定工程及び前記第2物体判定工程での判定結果の信頼度を決定する信頼度決定工程と、
    を有し、
    前記第1センサ、前記第2センサ、前記第3センサ及び前記第4センサは、別個のセンサであることを特徴とする方法。
JP2017238857A 2017-12-13 2017-12-13 物体認識装置、物体認識方法及び車両 Active JP6664371B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017238857A JP6664371B2 (ja) 2017-12-13 2017-12-13 物体認識装置、物体認識方法及び車両
CN201811310772.XA CN110007301B (zh) 2017-12-13 2018-11-06 物体识别装置、物体识别方法以及车辆
US16/199,616 US11364921B2 (en) 2017-12-13 2018-11-26 Object recognition apparatus, object recognition method, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238857A JP6664371B2 (ja) 2017-12-13 2017-12-13 物体認識装置、物体認識方法及び車両

Publications (2)

Publication Number Publication Date
JP2019105568A JP2019105568A (ja) 2019-06-27
JP6664371B2 true JP6664371B2 (ja) 2020-03-13

Family

ID=66735095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238857A Active JP6664371B2 (ja) 2017-12-13 2017-12-13 物体認識装置、物体認識方法及び車両

Country Status (3)

Country Link
US (1) US11364921B2 (ja)
JP (1) JP6664371B2 (ja)
CN (1) CN110007301B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7082545B2 (ja) * 2018-08-01 2022-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置およびプログラム
JP7221669B2 (ja) * 2018-12-04 2023-02-14 株式会社デンソー 駐車支援装置
US20230325983A1 (en) * 2020-11-10 2023-10-12 Mitsubishi Electric Corporation Sensor noise removal device and sensor noise removal method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06508946A (ja) * 1991-03-22 1994-10-06 トムソン−セーエスエフ 障害物を検出するための道路画像のシーケンス分析方法および装置
JP4792289B2 (ja) 2005-12-27 2011-10-12 トヨタ自動車株式会社 車輌の走行制御装置
JP4819166B2 (ja) * 2010-01-25 2011-11-24 富士通テン株式会社 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP5893601B2 (ja) * 2013-10-31 2016-03-23 富士重工業株式会社 車両制御システム
EP2922033B1 (en) * 2014-03-18 2018-11-21 Volvo Car Corporation A vehicle sensor diagnosis system and method and a vehicle comprising such a system
RU2660425C1 (ru) * 2014-10-22 2018-07-06 Ниссан Мотор Ко., Лтд. Устройство вычисления маршрута движения
JP6046190B2 (ja) 2015-03-31 2016-12-14 本田技研工業株式会社 運転支援装置
JP6269566B2 (ja) * 2015-05-08 2018-01-31 トヨタ自動車株式会社 誤認識判定装置
JP6975945B2 (ja) * 2016-02-24 2021-12-01 パナソニックIpマネジメント株式会社 判定装置、判定方法、プログラムおよびプログラムを記録した記録媒体
US10545229B2 (en) * 2016-04-22 2020-01-28 Huawei Technologies Co., Ltd. Systems and methods for unified mapping of an environment
JP6795909B2 (ja) * 2016-05-13 2020-12-02 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6650851B2 (ja) * 2016-09-12 2020-02-19 本田技研工業株式会社 表示装置
CN106708040B (zh) * 2016-12-09 2019-10-08 重庆长安汽车股份有限公司 自动驾驶系统的传感器模块、自动驾驶系统及方法

Also Published As

Publication number Publication date
JP2019105568A (ja) 2019-06-27
CN110007301A (zh) 2019-07-12
US11364921B2 (en) 2022-06-21
US20190176839A1 (en) 2019-06-13
CN110007301B (zh) 2023-02-28

Similar Documents

Publication Publication Date Title
JP7203898B2 (ja) 車両用制御システムおよび制御方法
JP6992087B2 (ja) 車両並びにその制御システム及び制御方法
JP7048353B2 (ja) 走行制御装置、走行制御方法およびプログラム
CN109515430B (zh) 行驶控制系统以及车辆的控制方法
JP6889241B2 (ja) 車両用制御システム
JP7145257B2 (ja) 車両用制御システムおよび制御方法
JP6872025B2 (ja) 車両並びにその制御装置及び制御方法
US20180162390A1 (en) Vehicle Control Device and Vehicle Control Method
JPWO2019003295A1 (ja) 走行制御システムおよび車両の制御方法
JP6919056B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP6992088B2 (ja) 車両並びにその制御システム及び制御方法
CN111201554A (zh) 行驶模型生成系统、行驶模型生成系统中的车辆、处理方法以及程序
US20210229667A1 (en) Vehicle control apparatus and vehicle control method
JP6664371B2 (ja) 物体認識装置、物体認識方法及び車両
JP6979091B2 (ja) 車両制御装置、車両、車両制御方法及びプログラム
JP6765357B2 (ja) 走行制御装置、走行制御方法およびプログラム
JP7202112B2 (ja) 車両用制御システムおよび車両の制御方法
CN113264061B (zh) 车辆控制装置、车辆、车辆控制方法以及存储介质
JP2020095474A (ja) 運転支援装置、車両、運転支援装置の制御方法および運転支援プログラム
US20230245470A1 (en) Driving assistance apparatus, vehicle, driving assistance method, and storage medium
US20230202464A1 (en) Vehicle control apparatus, vehicle control method, and storage medium
JP7113089B2 (ja) 車両、通信装置及び方法
JP2021148572A (ja) 車載装置、車両、および制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200218

R150 Certificate of patent or registration of utility model

Ref document number: 6664371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150