JP2021123234A - 車両用制御システム - Google Patents

車両用制御システム Download PDF

Info

Publication number
JP2021123234A
JP2021123234A JP2020018014A JP2020018014A JP2021123234A JP 2021123234 A JP2021123234 A JP 2021123234A JP 2020018014 A JP2020018014 A JP 2020018014A JP 2020018014 A JP2020018014 A JP 2020018014A JP 2021123234 A JP2021123234 A JP 2021123234A
Authority
JP
Japan
Prior art keywords
unit
vehicle
recognition
output
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020018014A
Other languages
English (en)
Inventor
真人 石橋
Masato Ishibashi
真人 石橋
浄之 土山
Kiyoshi Tsuchiyama
浄之 土山
大輔 濱野
Daisuke Hamano
大輔 濱野
智嗣 布田
Tomotsugu Fuda
智嗣 布田
大介 堀籠
Daisuke Horigome
大介 堀籠
篤 田崎
Atsushi Tazaki
篤 田崎
陽介 橋本
Yosuke Hashimoto
陽介 橋本
裕介 木原
Yusuke Kihara
裕介 木原
永一 寳神
Eiichi HOJIN
永一 寳神
ヴァン デン ボッシュ アーノルド
Van Den Bossche Arnaud
ヴァン デン ボッシュ アーノルド
マーシャル レイ
Marshal Ray
マーシャル レイ
スリコ レオナルド
Surico Leonardo
スリコ レオナルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
NXP BV
Original Assignee
Mazda Motor Corp
NXP BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp, NXP BV filed Critical Mazda Motor Corp
Priority to JP2020018014A priority Critical patent/JP2021123234A/ja
Priority to CN202110096172.3A priority patent/CN113291289B/zh
Priority to EP21153702.2A priority patent/EP3862240B1/en
Priority to US17/159,178 priority patent/US20210241001A1/en
Publication of JP2021123234A publication Critical patent/JP2021123234A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/023Avoiding failures by using redundant parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0006Digital architecture hierarchy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • B60W2050/0297Control Giving priority to different actuators or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • B60W2510/182Brake pressure, e.g. of fluid or between pad and disc
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両の走行制御の継続性を向上させる。
【解決手段】複数の第1カメラ(11a)は、車両(100)の周囲を囲うように車両(100)に設けられる。複数の第2カメラ(11b)は、車両(100)の周囲を囲うように車両(100)に設けられる。制御部(20)は、複数の第1カメラ(11a)の出力および複数の第2カメラ(11b)の出力の両方に基づいて車両(100)の走行制御のための制御信号を出力する第1動作と、複数の第1カメラ(11a)の出力に基づいて制御信号を出力する第2動作と、複数の第2カメラ(11b)の出力に基づいて制御信号を出力する第3動作とを行う。
【選択図】図1

Description

ここに開示する技術は、車両用制御システムに関する。
特許文献1には、自動車走行支援装置が開示されている。この自動車走行支援装置は、赤外センサと、レーダと、重ね合わせ手段と、判断手段と、障害物判断手段とを備える。赤外センサは、自車外のある方向の画像を撮影する。レーダは、赤外センサが撮影する方向へ電波を発射し、物体からの反射波を受けて物体までの距離と方向とを検出する。重ね合わせ手段は、赤外センサで得られ情報とレーダで得られた情報とを電子回路内で重ね合わせる。判断手段は、レーダから得た物体が赤外センサの画像上の温点であるか否かを判断する。障害物判断手段は、判断手段の結果に基づいて、温点が自車の走行上の障害物か否かを判断する。
特開平11−16099号公報
ところで、特許文献1のような装置では、車両の周囲に広がる環境(車両の外部環境)を監視するために、複数のカメラ(特許文献1では赤外センサ)が設けられている。しかしながら、複数のカメラを含む信号系統に異常が発生すると、複数のカメラの出力に基づく車両の走行制御を継続することが困難となる。
ここに開示する技術は、かかる点に鑑みてなされたものであり、その目的とするところは、車両の走行制御の継続性を向上させることにある。
ここに開示する技術は、車両を制御する車両用制御システムに関する。この車両用制御システムは、前記車両の周囲を囲うように前記車両に設けられる複数の第1カメラと、前記車両の周囲を囲うように前記車両に設けられる複数の第2カメラと、前記複数の第1カメラの出力および前記複数の第2カメラの出力の両方に基づいて前記車両の走行制御のための制御信号を出力する第1動作と、前記複数の第1カメラの出力に基づいて前記制御信号を出力する第2動作と、前記複数の第2カメラの出力に基づいて前記制御信号を出力する第3動作とを行う制御部とを備える。
前記の構成では、車両の周囲を囲うように設けられた複数のカメラの組が2組ある。車両の周囲を囲うように複数の第1カメラを設けることにより、複数の第1カメラの出力に基づいて、車両の周囲に広がる環境(車両の外部環境)を監視することができる。これと同様に、車両の周囲を囲うように複数の第2カメラを設けることにより、複数の第2カメラの出力に基づいて、車両の外部環境を監視することができる。このように、複数の第1カメラの出力および複数の第2カメラの出力のうち少なくとも一方に基づいて、車両の外部環境を監視することができる。したがって、複数の第1カメラを含む第1信号系統および複数の第2カメラを含む第2信号系統のいずれか一方に異常が発生した場合であっても、第2動作または第3動作を行うことにより、第1信号系統および第2信号系統の他方に含まれる複数のカメラの出力に基づいて、車両の走行制御を継続することができる。これにより、車両の走行制御の継続性を向上させることができる。
なお、前記車両用制御システムにおいて、前記制御部は、前記複数の第1カメラを含む第1信号系統および前記複数の第2カメラを含む第2信号系統の両方に異常が発生していない場合に、前記第1動作を行い、前記第1信号系統および前記第2信号系統のうち前記第2信号系統に異常が発生している場合に、前記第2動作を行い、前記第1信号系統および前記第2信号系統のうち前記第1信号系統に異常が発生している場合に、前記第3動作を行うように構成されてもよい。
前記の構成では、第1信号系統および第2信号系統における異常の有無に応じて第1動作と第2動作と第3動作を自動的に切り換えることができる。これにより、第1信号系統および第2信号系統のいずれか一方に異常が発生した場合に、第2動作または第3動作を自動的に行うことができるので、車両の走行制御を自動的に継続することができる。
また、前記車両用制御システムにおいて、前記複数の第1カメラは、前記車両の前方を撮像する第1前方カメラと、前記車両の斜め右後方を撮像する第1斜め右後方カメラと、前記車両の斜め左後方を撮像する第1斜め左後方カメラとを含んでもよい。前記複数の第2カメラは、前記車両の前方を撮像する第2前方カメラと、前記車両の斜め右後方を撮像する第2斜め右後方カメラと、前記車両の斜め左後方を撮像する第2斜め左後方カメラとを含んでもよい。
前記の構成では、車両の周囲に広がる環境(車両の外部環境)のうち少なくとも車両の前方エリアと斜め右後方エリアと斜め左後方エリアに基づいて、車両の走行制御を継続することができる。これにより、第1信号系統および第2信号系統のいずれか一方に異常が発生した場合であっても、車両の前方エリアに基づく走行制御(例えば自車両の前方を走行する他車両との車間距離を適切に維持するための制御)と、車両の斜め右後方エリアおよび斜め左後方エリアに基づく制御(例えば自車両の車線変更の際に危険を察知するための制御)とを継続することができる。
また、前記車両用制御システムにおいて、前記制御部は、前記複数の第1カメラの出力に基づいて前記車両の外部環境を認識する認識処理を行う第1認識処理ICユニットと、前記複数の第2カメラの出力に基づいて前記認識処理を行う第2認識処理ICユニットとを有してもよい。そして、前記制御部は、前記第1動作では、前記第1認識処理ICユニットの認識処理の結果および前記第2認識処理ICユニットの認識処理の結果の両方に基づいて前記制御信号を出力し、前記第2動作では、前記第1認識処理ICユニットの認識処理の結果に基づいて前記制御信号を出力し、前記第3動作では、前記第2認識処理ICユニットの認識処理の結果に基づいて前記制御信号を出力するように構成されてもよい。
前記の構成では、第1認識処理ICユニットおよび第2認識処理ICユニットの両方において認識処理を行うことにより、第1認識処理ICユニットおよび第2認識処理ICユニットのいずれか一方のみにおいて認識処理を行う場合よりも、認識精度を向上させることができる。
ここに開示する技術によれば、車両の走行制御の継続性を向上させることができる。
実施形態による車両用制御システムを備えた車両を例示する平面図である。 カメラおよびレーダの監視エリアを例示する平面図である。 第1カメラおよび第1レーダの監視エリアを例示する平面図である。 第2カメラおよび第2レーダの監視エリアを例示する平面図である。 実施形態による車両用制御システムの構成を例示するブロック図である。 車両用制御システムの機能構成を例示するブロック図である。 車両用制御システムの機能構成を例示するブロック図である。 実施形態の変形例による車両用制御システムの構成を例示するブロック図である。
以下、実施の形態を図面を参照して詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。
(実施形態)
図1は、実施形態による車両用制御システム1を備える車両100の外観を例示する。車両用制御システム1は、車両100(具体的には自動四輪車)に設けられる。車両100は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、ドライバの操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、ドライバの操作を支援して走行する運転である。自動運転は、ドライバの操作なしに走行する運転である。車両用制御システム1は、アシスト運転および自動運転において、車両100を制御する。具体的には、車両用制御システム1は、車両100に設けられたアクチュエータ(図示を省略)を制御することで車両100の動作(特に走行)を制御する。なお、以下の説明では、車両用制御システム1が設けられている車両100を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。
〔アクチュエータ〕
車両100に設けられるアクチュエータは、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
〔車両用制御システムの構成〕
車両用制御システム1は、情報取得部10と、制御部20とを備える。制御部20は、例えば、乗員の座席下部やトランクルームなど、車両100内の特定の場所に設置された単一の筐体内に格納される。
〔情報取得部〕
情報取得部10は、車両100の制御(特に走行制御)に用いられる各種情報を取得する。図1,図5,図6に示すように、情報取得部10は、複数のカメラ11と、複数のレーダ12と、位置センサ13と、外部入力部14と、メカセンサ15と、ドライバ入力部16とを含む。なお、図1および図5では、位置センサ13と外部入力部14とメカセンサ15とドライバ入力部16の図示を省略している。
〔カメラ〕
複数のカメラ11は、互いに同様の構成を有する。複数のカメラ11は、車両100の周囲を囲うように車両100に設けられる。複数のカメラ11の各々は、車両100の周囲に広がる環境(車両100の外部環境)の一部を撮像することで、車両100の外部環境の一部を示す画像データを取得する。複数のカメラ11の各々により得られた画像データは、制御部20に送信される。
この例では、カメラ11は、広角レンズを有する単眼カメラである。例えば、カメラ11は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ11は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。
また、複数のカメラ11は、複数の第1カメラ11aと、複数の第2カメラ11bとを含む。この車両100には、車両100の周囲を囲うように車両100に設けられる複数のカメラ11の組が2組ある。
〈第1カメラ〉
複数の第1カメラ11aは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第1カメラ11aは、複数の第1カメラ11aの撮像エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第1カメラ11aは、第1前方カメラ111aと、第1斜め右後方カメラ112aと、第1斜め左後方カメラ113aと、第1後方カメラ114aとを含む。第1前方カメラ111aは、車両100の前方を撮像する。第1斜め右後方カメラ112aは、車両100の斜め右後方を撮像する。第1斜め左後方カメラ113aは、車両100の斜め左後方を撮像する。第1後方カメラ114aは、車両100の後方を撮像する。
〈第2カメラ〉
複数の第2カメラ11bは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第2カメラ11bは、複数の第2カメラ11bの撮像エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第2カメラ11bは、第2前方カメラ111bと、第2斜め右後方カメラ112bと、第2斜め左後方カメラ113bと、第2後方カメラ114bとを含む。第2前方カメラ111bは、車両100の前方を撮像する。第2斜め右後方カメラ112bは、車両100の斜め右後方を撮像する。第2斜め左後方カメラ113bは、車両100の斜め左後方を撮像する。第2後方カメラ114bは、車両100の後方を撮像する。
〔レーダ〕
複数のレーダ12は、互いに同様の構成を有する。複数のレーダ12は、車両100の周囲を囲うように車両100に設けられる。複数のレーダ12の各々は、車両100の外部環境の一部を検出する。具体的には、レーダ12は、車両100の外部環境の一部へ向けて電波を送信して車両100の外部環境の一部からの反射波を受信することで、車両100の外部環境の一部を検出する。複数のレーダ12の検出結果は、制御部20に送信される。
例えば、レーダ12は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。
また、複数のレーダ12は、複数の第1レーダ12aと、複数の第2レーダ12bとを含む。この車両100には、車両100の周囲を囲うように車両100に設けられる複数のレーダ12の組が2組ある。
〈第1レーダ〉
複数の第1レーダ12aは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第1レーダ12aは、複数の第1レーダ12aの検出エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第1レーダ12aは、第1前方レーダ121aと、第1斜め右後方レーダ122aと、第1斜め左後方レーダ123aとを含む。第1前方レーダ121aは、車両100の前方の外部環境を検出する。第1斜め右後方レーダ122aは、車両100の斜め右後方の外部環境を検出する。第1斜め左後方レーダ123aは、車両100の斜め左後方の外部環境を検出する。
〈第2レーダ〉
複数の第2レーダ12bは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第2レーダ12bは、複数の第2レーダ12bの検出エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第2レーダ12bは、第2前方レーダ121bと、第2斜め右前方レーダ122bと、第2斜め左前方レーダ123bと、第2後方レーダ124bとを含む。第2前方レーダ121bは、車両100の前方の外部環境を検出する。第2斜め右前方レーダ122bは、車両100斜め右前方の外部環境を検出する。第2斜め左前方レーダ123bは、車両100の斜め左前方の外部環境を検出する。第2後方レーダ124bは、車両100の後方の外部環境を検出する。
〔カメラとレーダとの関係〕
図2は、カメラ11の撮像エリア(監視エリア)とレーダ12の検出エリア(監視エリア)とを例示する。図3は、第1カメラ11aの撮像エリアと第1レーダ12aの検出エリアとを例示し、図4は、第2カメラ11bの撮像エリアと第2レーダ12bの検出エリアとを例示する。図2〜図4において、太い破線は、第1カメラ11aの撮像エリアを示し、太い一点鎖線は、第1レーダ12aの検出エリアを示す。細い破線は、第2カメラ11bの撮像エリアを示し、細い一点鎖線は、第2レーダ12bの検出エリアを示す。
図3に示すように、この例では、複数の第1カメラ11aおよび複数の第1レーダ12aは、それぞれの監視エリアの組合せが車両100の周囲の全周を囲うように、それぞれの監視エリアとそれぞれの配置が定められている。これと同様に、図4に示すように、複数の第2カメラ11bおよび複数の第2レーダ12bは、それぞれの監視エリアの組合せが車両100の周囲の全周を囲うように、それぞれの監視エリアとそれぞれの配置が定められている。
〔位置センサ〕
位置センサ13は、車両100の位置(例えば緯度および経度)を検出する。例えば、位置センサ13は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両100の位置を検出する。位置センサ13により得られた情報(車両100の位置)は、制御部20に送信される。
〔外部入力部〕
外部入力部14は、車両100の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部14は、車両100の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部14により得られた情報は、制御部20に送信される。
〔メカセンサ〕
メカセンサ15は、車両100の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、メカセンサ15は、車両100の速度を検出する車速センサ、車両100の加速度を検出する加速度センサ、車両100のヨーレートを検出するヨーレートセンサなどを含む。メカセンサ15により得られた情報(車両100の状態)は、制御部20に送信される。
〔ドライバ入力部〕
ドライバ入力部16は、車両100に加えられる運転操作を検出する。例えば、ドライバ入力部16は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両100のアクセルの操作量を検出する。操舵角センサは、車両100のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両100のブレーキの操作量を検出する。ドライバ入力部16により得られた情報(車両100の運転操作)は、制御部20に送信される。
〔制御部〕
図5は、制御部20の構成を例示する。この例では、制御部20は、第1信号処理ICユニット21aと、第2信号処理ICユニット21bと、第1認識処理ICユニット22aと、第2認識処理ICユニット22bと、第1制御ICユニット23aと、第2制御ICユニット23bとを有する。これらのICユニットの各々は、単一のIC(Integrated Circuit)で構成されてもよいし、複数のICで構成されてもよい。また、IC内には、単一のコアまたはダイが収容されてもよいし、連携する複数のコアまたはダイが収容されてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。
そして、この例では、第1信号処理ICユニット21aと第2信号処理ICユニット21bが信号処理部201を構成する。第1認識処理ICユニット22aと第2認識処理ICユニット22bが認識処理部202を構成する。第1制御ICユニット23aが判断処理部203を構成する。第2制御ICユニット23bがバックアップ処理部204を構成する。
〈信号処理部〉
信号処理部201は、カメラ11の出力に対して画像処理を行う。そして、信号処理部201は、画像処理により得られた画像データを出力する。具体的には、第1信号処理ICユニット21aは、第1カメラ11aの出力に対して画像処理を行う。第2信号処理ICユニット21bは、第2カメラ11bの出力に対して画像処理を行う。
〈認識処理部〉
認識処理部202は、信号処理部201の出力(画像データ)に基づいて、車両100の外部環境を認識する認識処理を行う。そして、認識処理部202は、認識処理により得られた外部環境データを出力する。具体的には、第1認識処理ICユニット22aは、第1信号処理ICユニット21aにより処理された第1カメラ11aの出力に基づいて認識処理を行う。第2認識処理ICユニット22bは、第2信号処理ICユニット21bにより処理された第2カメラ11bの出力に基づいて認識処理を行う。
〈判断処理部〉
判断処理部203は、認識処理部202の出力(外部環境データ)に基づいて、車両100の走行制御のための判断処理を行う。具体的には、第1制御ICユニット23aは、第1認識処理ICユニット22aの出力および/または第2認識処理ICユニット22bの出力に基づいて判断処理を行う。そして、判断処理部203は、判断処理の結果に基づいて、車両100の走行制御のための制御信号を出力する。
〈バックアップ処理部〉
バックアップ処理部204は、信号処理部201の出力(画像データ)に基づいて、車両100の外部環境を認識する認識処理を行う。具体的には、第2制御ICユニット23bは、第1信号処理ICユニット21aの出力および/または第2信号処理ICユニット21bの出力に基づいて認識処理を行う。また、バックアップ処理部204は、認識処理の結果に基づいて、車両100の走行制御のための判断処理を行う。そして、バックアップ処理部204は、判断処理の結果に基づいて、車両100の走行制御のための制御信号を出力する。
〔車両用制御システムの機能〕
ここで、図6および図7を参照して、車両用制御システム1の機能構成を説明する。車両用制御システム1の機能は、認識系ブロックB1と、判断系ブロックB2と、操作系ブロックB3とに大別される。認識系ブロックB1は、情報取得部10により取得された各種情報に基づいて車両100の外部環境を認識する。なお、認識系ブロックB1は、車両100の内部環境を認識するように構成されてもよい。判断系ブロックB2は、認識系ブロックB1の認識結果に基づいて車両100の状態および状況を判断し、その判断の結果に基づいて車両100の目標動作を決定する。操作系ブロックB3は、判断系ブロックB2により決定された車両100の目標動作に基づいて、車両100に設けられたアクチュエータを制御するための信号を生成し、その信号をアクチュエータACに出力する。
また、この例では、車両用制御システム1は、主演算部F1と、セーフティ機能部F2と、バックアップ機能部F3とを含む。
〈主演算部〉
主演算部F1は、情報取得部10の出力に基づいて車両100の外部環境を認識し、その車両100の外部環境に基づいて車両100の目標経路を決定する。そして、主演算部F1は、車両100の目標経路に基づいて車両100の目標運動を決定し、その車両100の目標運動に基づいて制御信号を出力する。なお、主演算部F1の処理には、深層学習により生成された学習モデルが用いられる。深層学習では、多層ニューラルネットワーク(Deep Neural Network)が用いられる。多層ニューラルネットワークの例としては、CNN(Convolutional Neural Network)が挙げられる。
この例では、主演算部F1は、車両状態検出部F001と、ドライバ操作認識部F002と、物体認識部F101(画像系)と、物体認識部F102(レーダ系)と、マップ生成部F103と、外部環境推定部F104と、外部環境モデルF105と、経路探索部F106と、経路生成部F107と、危険状態判断部F108と、第1車両モデルF109と、第2車両モデルF110と、経路決定部F111と、目標運動決定部F112と、車両運動エネルギ設定部F113と、エネルギマネジメント部F114と、セレクタF115と、セレクタF116とを含む。
車両状態検出部F001とドライバ操作認識部F002と物体認識部F101と物体認識部F102とマップ生成部F103と外部環境推定部F104と外部環境モデルF105は、認識系ブロックB1に属する。経路探索部F106と経路生成部F107と危険状態判断部F108と第1車両モデルF109と経路決定部F111と目標運動決定部F112は、判断系ブロックB2に属する。第2車両モデルF110と車両運動エネルギ設定部F113とエネルギマネジメント部F114とセレクタF115とセレクタF116は、操作系ブロックB3に属する。
また、この例では、物体認識部F101(画像系)は、その一部が信号処理部201に含まれ、その残部が認識処理部202に含まれる。物体認識部F102(レーダ系)とマップ生成部F103は、認識処理部202に含まれる。外部環境推定部F104と外部環境モデルF105と経路探索部F106と経路生成部F107と第1車両モデルF109と第2車両モデルF110は、認識処理部202(具体的には第1認識処理ICユニット22a)に含まれる。車両状態検出部F001とドライバ操作認識部F002と危険状態判断部F108と経路決定部F111と目標運動決定部F112と車両運動エネルギ設定部F113とエネルギマネジメント部F114とセレクタF115とセレクタF116は、判断処理部203(具体的には第1制御ICユニット23a)に含まれる。
《車両状態検出部》
車両状態検出部F001は、メカセンサ15の出力に基づいて、車両100の状態(例えば速度や加速度やヨーレートなど)を認識する。
《ドライバ操作認識部》
ドライバ操作認識部F002は、ドライバ入力部16の出力に基づいて、車両100に加えられる運転操作を認識する。
《物体認識部(画像系)》
物体認識部F101は、カメラ11の出力に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体に関する情報(物体情報)が得られる。例えば、物体情報は、物体の種別、物体の形状などを示す。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
具体的には、物体認識部F101は、画像処理部と、画像認識部とを含む。画像処理部は、カメラ11の出力である画像データに対して画像処理を行う。この画像処理には、画像データに示される画像の歪みを補正する歪み補正処理、画像データに示された画像の明度を調整するホワイトバランス調整処理などが含まれる。画像認識部は、画像処理部において処理された画像データに基づいて、車両100の外部環境に含まれる物体を認識する。例えば、物体認識部F101の画像認識部による物体認識処理には、周知の物体認識技術(画像データに基づく物体認識技術)が用いられてもよい。また、物体認識部F101の画像認識部は、深層学習により生成された学習モデルを用いて物体認識処理を行うように構成されてもよい。
この例では、物体認識部F101の画像処理部は、第1カメラ11aの出力に基づいて処理を行う第1画像処理部と、第2カメラ11bの出力に基づいて処理を行う第2画像処理部とを含む。物体認識部F101の画像認識部は、第1画像処理部の出力に基づいて処理を行う第1画像認識部と、第2画像処理部の出力に基づいて処理を行う第2画像認識部とを含む。また、この例では、物体認識部F101の画像処理部は、信号処理部201に含まれ、物体認識部F101の画像認識部は、認識処理部202に含まれる。具体的には、第1画像処理部は、第1信号処理ICユニット21aに含まれ、第2画像処理部は、第2信号処理ICユニット21bに含まれる。第1画像認識部は、第1認識処理ICユニット22aに含まれ、第2画像認識部は、第2認識処理ICユニット22bに含まれる。
《物体認識部(レーダ系)》
物体認識部F102は、レーダ12の出力である検出結果(例えば反射波のピークリスト)に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体情報が得られる。具体的には、物体認識部F102は、レーダ12の検出結果に対して解析処理(物体情報を得るための処理)を行う。例えば、物体認識部F102による物体認識処理には、周知の物体認識技術(レーダ12の検出結果に基づく物体認識技術)が用いられてもよい。また、物体認識部F102は、深層学習により生成された学習モデルを用いて物体認識処理を行うように構成されてもよい。
この例では、物体認識部F102は、第1レーダ12aの出力に基づいて処理を行う第1レーダ認識部と、第2レーダ12bの出力に基づいて処理を行う第2レーダ認識部とを含む。また、この例では、第1レーダ認識部は、第1認識処理ICユニット22aに含まれ、第2レーダ認識部は、第2認識処理ICユニット22bに含まれる。
《マップ生成部》
マップ生成部F103は、物体認識部F101(画像系)の出力と物体認識部F102(レーダ系)の出力とに基づいて、車両100の外部環境を示すマップデータ(例えば三次元マップデータ)を生成する。例えば、マップ生成部F103は、車両100の周囲を囲う周囲領域を分割して得られる複数の領域(例えば前後左右の4つの領域)毎に、マップデータを生成する。そして、マップ生成部F103は、物体認識部F101(画像系)および物体認識部F102(レーダ系)の各々により得られた物体情報を入力すると、それらの物体情報を統合し、統合により得られた物体情報をマップデータに反映させる。
この例では、マップ生成部F103は、物体認識部F101の第1画像認識部の出力と物体認識部F102の第1レーダ認識部の出力とに基づいて処理を行う第1マップ生成部と、物体認識部F101の第2画像認識部の出力と物体認識部F102の第2レーダ認識部の出力に基づいて処理を行う第2マップ生成部とを含む。また、この例では、第1マップ生成部は、第1認識処理ICユニット22aに含まれ、第2マップ生成部は、第2認識処理ICユニット22bに含まれる。
《外部環境推定部》
外部環境推定部F104は、車両状態検出部F001の出力と、マップ生成部F103の出力と、位置センサ13の出力と、外部入力部14の出力とに基づいて、車両100の外部環境を推定する。具体的には、外部環境推定部F104は、外部環境モデルF105に基づく画像認識処理により、車両100の外部環境を示す三次元マップデータを生成する。
この例では、外部環境推定部F104は、次のような動作を行う。まず、外部環境推定部F104は、複数の領域(例えば前後左右の4つの領域)毎のマップデータを統合し、車両100の周囲(外部環境)を示す統合マップデータを生成する。次に、外部環境推定部F104は、統合マップデータに含まれる動体に対し、その動体と自車両との距離、方向、相対速度の変化を予測する。そして、外部環境推定部F104は、それらの予測の結果を外部環境モデルF105に組み込む。さらに、外部環境推定部F104は、位置センサ13の出力(車両100の位置)と、外部入力部14の出力(高精度地図情報)と、車両状態検出部F001の出力(車速情報や6軸情報など)とに基づいて、統合マップデータにおける自車両の位置を推定するとともに、経路コストの計算を行う。そして、外部環境推定部F104は、それらの推定の結果および計算の結果を、各種センサにより取得された自車両の情報とともに、外部環境モデルF105に組み込む。以上の処理により、外部環境モデルF105が随時更新される。
《外部環境モデル》
外部環境モデルF105は、車両100の外部環境に関するモデルである。なお、外部環境モデルF105は、深層学習により生成された学習モデルである。
《経路探索部》
経路探索部F106は、位置センサ13の出力と、外部入力部14の出力(例えばカーナビゲーションデータ)とに基づいて、車両100の広域経路を探索する。
《経路生成部》
経路生成部F107は、外部環境モデルF105と、経路探索部F106の出力とに基づいて、車両100の走行経路を生成する。例えば、経路生成部F107により生成される走行経路には、その走行経路における車両100の安全性や燃料消費などのスコアが付加される。走行経路における車両100の安全性が高くなるに連れて、その走行経路のスコアが小さくなる。また、走行経路における車両100の燃料消費が低くなるに連れて、その走行経路のスコアが小さくなる。経路生成部F107は、スコアが比較的に小さくなる(例えば最小となる)走行経路を少なくとも1つ生成する。
なお、経路生成部F107は、複数の観点に基づく複数の走行経路を生成するように構成されてもよい。例えば、経路生成部F107は、ドライバ入力部16の出力を入力し、そのドライバ入力部16の出力に応じて走行経路を調整するように構成されてもよい。これにより、例えば、スコアが比較的に小さくなる走行経路と、ドライバ入力部16の出力に応じて調整された走行経路とが生成される。
《危険状態判断部》
危険状態判断部F108は、セーフティ機能部F2の前処理部F204の出力(車両100の外部環境に含まれる物体に対する自車両の位置)に基づいて、車両100が危険状態であるか否かを判断する。車両100の危険状態の例としては、車両100が物体と衝突する可能性がある状態、車両100が車線を逸脱する可能性がある状態などが挙げられる。なお、危険状態判断部F108は、外部環境モデルF105に基づいて、車両100が危険状態であるか否かを判断するように構成されてもよい。また、危険状態判断部F108は、車両100が危険状態であると判断すると、その危険を回避するための目標経路を生成する。
《第1車両モデル》
第1車両モデルF109は、車両100の6軸の運動に関する車両6軸モデルである。車両6軸モデルは、走行中の車両100の「前後」「左右」「上下」の3軸方向の加速度と「ピッチ」「ロール」「ヨー」の3軸方向の角速度とをモデル化したものである。すなわち、第1車両モデルF109は、車両100の動きを古典的な車両運動工学的な平面上のみ(車両の前後左右(X−Y移動)とヨー運動(Z軸)のみ)で捉えるのではなく、4つの車輪にサスペンションを介して乗っている車体のピッチング(Y軸)およびロール(X軸)運動とZ軸の移動(車体の上下動)の、合計6軸を用いて車両100の挙動を再現する数値モデルである。第1車両モデルF109は、予め設定された車両100の基本運動機能、車両100の外部環境などに基づいて生成される。また、第1車両モデルF109は、車両100の外部環境の変化などに応じて適宜更新される。例えば、第1車両モデルF109は、深層学習により生成された学習モデルである。
《第2車両モデル》
第2車両モデルF110は、車両のエネルギ消費に関するモデルである。具体的には、第2車両モデルF110は、車両100のアクチュエータACの動作に対するコスト(燃料消費や電費)を示すモデルである。例えば、第2車両モデルF110は、所定量のエンジントルクを出力する上で燃料消費が最も良くなる場合の吸排気バルブ(図示省略)の開閉タイミング、インジェクタ(図示省略)の燃料噴射タイミング、排気環流システムのバルブ開閉タイミングなどがモデル化されたものである。第2車両モデルF110は、車両の走行中に生成され、適宜更新される。例えば、第2車両モデルF110は、深層学習により生成された学習モデルである。
《経路決定部》
経路決定部F111は、ドライバ操作認識部F002の出力と、経路生成部F107の出力と、セーフティ機能部F2の経路生成部F206の出力とに基づいて、車両100の目標経路を決定する。具体的には、経路決定部F111は、経路生成部F107により生成された走行経路とセーフティ機能部F2の経路生成部F206において生成された走行経路の中からいずれか1つを目標経路として選択する。なお、経路決定部F111は、その選択された目標経路をドライバ操作認識部F002の出力に応じて調整するように構成されてもよい。
例えば、経路決定部F111は、通常走行時に、経路生成部F107により生成された走行経路を優先的に目標経路として選択するように構成されてもよい。また、経路決定部F111は、経路生成部F107により生成された走行経路がセーフティ機能部F2のフリースペース探索部F205により探索されたフリースペースを通過しない場合に、セーフティ機能部F2の経路生成部F206により生成された走行経路を目標経路として選択するように構成されてもよい。
《目標運動決定部》
目標運動決定部F112は、危険状態判断部F108の出力と、第1車両モデルF109と、経路決定部F111の出力とに基づいて、車両100の目標運動を決定する。例えば、目標運動決定部F112は、危険状態判断部F108により生成された目標経路(危険を回避するための目標経路)が入力されると、危険状態判断部F108により生成された目標経路と第1車両モデルF109とに基づいて、車両100の目標運動を決定するように構成されてもよい。また、目標運動決定部F112は、危険状態判断部F108により生成された目標経路が入力されない場合(車両100が危険状態ではない場合)に、経路決定部F111により生成された目標経路と第1車両モデルF109とに基づいて、車両100の目標運動を決定するように構成されてもよい。
《車両運動エネルギ設定部》
車両運動エネルギ設定部F113は、目標運動決定部F112の出力に基づいて、駆動系のアクチュエータに要求される駆動系トルクと、操舵系のアクチュエータに要求される操舵系トルクと、制動系のアクチュエータに要求される制動系トルクとを計算する。具体的には、車両運動エネルギ設定部F113は、車両100の運動が目標運動決定部F112により決定された目標運動となるように、駆動系トルクと操舵系トルクと制動系トルクとを計算する。
《エネルギマネジメント部》
エネルギマネジメント部F114は、第2車両モデルF110と、車両運動エネルギ設定部F113の出力に基づいて、アクチュエータACの制御量を算出する。具体的には、エネルギマネジメント部F114は、目標運動決定部F112により決定された目標運動を達成する上でエネルギ効率が最も良くなるように、第2車両モデルF110に基づいてアクチュエータACの制御量を算出する。例えば、エネルギマネジメント部F114は、車両運動エネルギ設定部F113により決定されたエンジントルクを達成する上で燃料消費が最も良くなるように、吸排気バルブ(図示省略)の開閉タイミングやインジェクタ(図示省略)の燃料噴射タイミングなどを算出する。
《セレクタ》
セレクタF115は、車両運動エネルギ設定部F113の出力およびバックアップ機能部F3の車両運動エネルギ設定部F310の出力のうちいずれか一方を出力する。セレクタF116は、エネルギマネジメント部F114の出力およびバックアップ機能部F3のエネルギマネジメント部F311の出力のうちいずれか一方を出力する。セレクタF115の出力およびセレクタF116の出力は、車両100の走行制御のための制御信号である。
具体的には、セレクタF115は、主演算部F1に異常(例えば故障)が発生していない場合に、車両運動エネルギ設定部F113の出力を選択し、主演算部F1に異常が発生すると、バックアップ機能部F3の車両運動エネルギ設定部F310の出力を選択する。これと同様に、セレクタF116は、主演算部F1に異常が発生していない場合に、エネルギマネジメント部F114の出力を選択し、主演算部F1に異常が発生すると、バックアップ機能部F3のエネルギマネジメント部F311の出力を選択する。
〈セーフティ機能部〉
セーフティ機能部F2は、情報取得部10の出力に基づいて車両100の外部環境を認識し、その車両100の外部環境の中からフリースペースを探索する。そして、セーフティ機能部F2は、フリースペースを通過する走行経路を生成する。セーフティ機能部F2により得られた走行経路(フリースペースを通過する走行経路)は、主演算部F1の目標経路を決定する処理において利用される。なお、セーフティ機能部F2の処理には、深層学習により生成された学習モデルの代わりに、予め定められたルールに基づくアルゴリズムが用いられる。セーフティ機能部F2では、ルールベースの処理が行われる。
この例では、セーフティ機能部F2は、物体認識部F201(画像系)と、物体認識部F202(レーダ系)と、分類部F203と、前処理部F204と、フリースペース探索部F205と、経路生成部F206とを含む。
物体認識部F201と物体認識部F202と分類部F203と前処理部F204は、認識系ブロックB1に属する。フリースペース探索部F205と経路生成部F206は、判断系ブロックB2に属する。
物体認識部F201(画像系)は、その一部が信号処理部201に含まれ、その残部が認識処理部202に含まれる。物体認識部F202(レーダ系)と分類部F203と前処理部F204とフリースペース探索部F205と経路生成部F206は、判断処理部203(具体的には第1制御ICユニット23a)に含まれる。
《物体認識部(画像系)》
物体認識部F201は、カメラ11の出力に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体情報が得られる。具体的には、物体認識部F201は、画像処理部と、画像認識部とを含む。画像処理部は、カメラ11の出力である画像データに対して画像処理を行う。画像認識部は、画像処理部において処理された画像データに基づいて、車両100の外部環境に含まれる物体を認識する。例えば、物体認識部F201の物体認識部F201は、深層学習により生成された学習モデルを用いずに、周知のパターン認識技術を用いて物体認識処理を行う。なお、物体認識部F201の画像認識部による物体認識処理には、その他の周知の物体認識技術(画像データに基づく物体認識技術)が用いられてもよい。
この例では、物体認識部F201の画像処理部は、第1カメラ11aの出力に基づいて処理を行う第1画像処理部と、第2カメラ11bの出力に基づいて処理を行う第2画像処理部とを含む。物体認識部F201の画像認識部は、第1画像処理部の出力に基づいて処理を行う第1画像認識部と、第2画像処理部の出力に基づいて処理を行う第2画像認識部とを含む。また、この例では、物体認識部F201の画像処理部は、信号処理部201に含まれ、物体認識部F201の画像認識部は、判断処理部203に含まれる。具体的には、第1画像処理部は、第1信号処理ICユニット21aに含まれ、第2画像処理部は、第2信号処理ICユニット21bに含まれる。第1画像認識部は、第1認識処理ICユニット22aに含まれ、第2画像認識部は、第2認識処理ICユニット22bに含まれる。
《物体認識部(レーダ系)》
物体認識部F202は、レーダ12の出力である検出結果に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体情報が得られる。具体的には、物体認識部F102は、レーダ12の検出結果に対して解析処理を行う。例えば、物体認識部F202は、深層学習により生成された学習モデルを用いずに、周知の物体認識技術(レーダ12の検出結果に基づく物体認識技術)を用いて物体認識処理を行う。
この例では、物体認識部F202は、第1レーダ12aの出力に基づいて処理を行う第1レーダ認識部と、第2レーダ12bの出力に基づいて処理を行う第2レーダ認識部とを含む。また、この例では、第1レーダ認識部および第2レーダ認識部は、第1制御ICユニット23aに含まれる。
《分類部》
分類部F203は、物体認識部F201(画像系)の出力と、物体認識部F202(レーダ系)の出力とに基づいて、車両100の外部環境を認識する。なお、分類部F203は、深層学習により生成された学習モデルを用いずに、予め定められたルールに基づくアルゴリズムを用いて認識処理(ルールベースの認識処理)を行う。ルールベースの認識処理には、周知の認識処理技術を用いられてもよい。具体的には、分類部F203は、物体認識部F201および物体認識部F202により認識された物体を動体と静止体とに分類する。例えば、分類部F203は、車両100の周囲を囲う周囲領域を分割して得られる複数の領域(例えば前後左右の4つの領域)毎に、物体認識部F201(画像系)により得られた物体情報と、物体認識部F202(レーダ系)により得られた物体情報とを統合する。そして、分類部F203は、複数の領域毎に、その領域に含まれる物体の分類情報を生成する。分類情報は、物体が動体および静止体のどちらに該当するのかを示す。
《前処理部》
前処理部F204は、分類部F203の出力と、主演算部F1の車両状態検出部F001の出力と、位置センサ13の出力と、外部入力部14の出力とに基づいて、前処理を行う。前処理では、分類情報統合と、物体行動予測と、自己位置推定とが行われる。
分類情報統合では、前処理部F204は、複数の領域(例えば前後左右の4つの領域)毎に生成された分類情報を統合する。統合された分類情報は、車両100の周囲領域に関する分類情報としてグリッドマップ(図示省略)上で管理される。
物体行動予測では、前処理部F204は、統合された分類情報に基づいて、車両100の外部環境に含まれる動体を検出する。そして、前処理部F204は、その動体と自車両との距離、その動体の自車両に対する方向、その動体の自車両に対する相対速度の変化を予測する。また、前処理部F204による予測の結果は、動体の付加情報として管理される。
自己位置推定では、前処理部F204は、位置センサ13の出力である車両100の位置と、外部入力部14の出力の一例である高精度地図情報と、車両状態検出部F001の出力である車両100の状態(車速情報や6軸情報など)とに基づいて、車両100の外部環境に含まれる物体(動体および静止体)に対する自車両の位置を推定する。
《フリースペース探索部》
フリースペース探索部F205は、前処理部F204の出力に基づいて、車両100の外部環境の中からフリースペースを探索する。フリースペースは、車両100の外部環境に含まれる道路のうち障害物が存在しない領域である。障害物は、動的な障害物と、静的な障害物とを含む。動的な障害物の例としては、他車両、歩行者などが挙げられる。静的な障害物の例としては、中央分離帯、センターポールなどが挙げられる。例えば、フリースペースは、緊急駐車が可能な路肩のスペースであってもよい。
具体的には、フリースペース探索部F205は、前処理部F204により位置が推定された物体との衝突を回避することができるフリースペースを探索する。例えば、フリースペース探索部F205は、予め設定された探索ルールに基づいて、フリースペースを探索する。探索ルールには、物体を中心とする所定の範囲(例えば数mの範囲)を回避不能範囲とするというルールが含まれてもよい。また、フリースペース探索部F205は、物体が動体である場合に、その動体の移動速度を考慮してフリースペースを探索するように構成されてもよい。
《経路生成部》
経路生成部F206は、フリースペース探索部F205の出力と、主演算部F1の経路探索部F106の出力(車両100の広域経路)とに基づいて、車両100の走行経路を生成する。具体的には、経路生成部F206は、フリースペース探索部F205により得られたフリースペースを通過する走行経路を生成する。例えば、経路生成部F206は、フリースペースを通過する複数の走行経路を生成し、その複数の走行経路の中から経路コストが最も小さい走行経路を選択するように構成されてもよい。経路生成部F206により生成された走行経路(フリースペースを通過する走行経路)は、主演算部F1の経路決定部F111に出力される。
〈バックアップ機能部〉
バックアップ機能部F3は、情報取得部10の出力に基づいて車両100の外部環境を認識し、その車両100の外部環境の中からフリースペースを探索し、フリースペースを通過する車両100の目標経路を決定する。そして、バックアップ機能部F3は、車両100の目標経路に基づいて車両100の目標運動を決定し、その車両100の目標運動に基づいて制御信号を出力する。バックアップ機能部F3により得られた制御信号は、主演算部F1に供給される。なお、バックアップ機能部F3の処理には、予め定められたルールに基づくアルゴリズムが用いられる。バックアップ機能部F3では、ルールベースの処理が行われる。
この例では、バックアップ機能部F3は、車両状態検出部F301と、ドライバ操作認識部F302と、分類部F303と、前処理部F304と、フリースペース探索部F305と、経路生成部F306と、危険状態判断部F307と、経路決定部F308と、目標運動決定部F309と、車両運動エネルギ設定部F310と、エネルギマネジメント部F311とを含む。
車両状態検出部F301とドライバ操作認識部F302と分類部F303と前処理部F304は、認識系ブロックB1に属する。フリースペース探索部F305と経路生成部F306と危険状態判断部F307と経路決定部F308と目標運動決定部F309は、判断系ブロックB2に属する。車両運動エネルギ設定部F310とエネルギマネジメント部F311は、操作系ブロックB3に属する。
また、この例では、車両状態検出部F301とドライバ操作認識部F302と分類部F303と前処理部F304とフリースペース探索部F305と経路生成部F306と危険状態判断部F307と経路決定部F308と目標運動決定部F309と車両運動エネルギ設定部F310とエネルギマネジメント部F311は、バックアップ処理部204(具体的には第2制御ICユニット23b)に含まれる。
《車両状態検出部とドライバ操作認識部》
車両状態検出部F301とドライバ操作認識部F302の機能は、主演算部F1の車両状態検出部F001とドライバ操作認識部F002の機能と同様である。
《分類部と前処理部とフリースペース探索部と経路生成部》
分類部F303と前処理部F304とフリースペース探索部F305と経路生成部F306の機能は、セーフティ機能部F2の分類部F203と前処理部F204とフリースペース探索部F205と経路生成部F206の機能と同様である。
図6の例では、分類部F303は、セーフティ機能部F2の物体認識部F201(画像系)の出力と物体認識部F202(レーダ系)の出力とに基づいて処理を行う。なお、セーフティ機能部F2の物体認識部F201(画像系)および物体認識部F202(レーダ系)と同様の物体認識部(画像系)および物体認識部(レーダ系)がバックアップ機能部F3に含まれてもよい。この場合、分類部F303は、バックアップ機能部F3の物体認識部(画像系)の出力と物体認識部(レーダ系)の出力とに基づいて処理を行うように構成されてもよい。
《経路決定部》
経路決定部F308は、ドライバ操作認識部F302の出力と、経路生成部F306の出力(フリースペースを通過する走行経路)とに基づいて、車両100の目標経路を決定する。例えば、経路決定部F308は、経路生成部F306により生成された複数の走行経路の中からいずれか1つを目標経路として選択する。なお、経路決定部F308は、その選択された目標経路をドライバ操作認識部F302の出力に応じて調整するように構成されてもよい。
〈目標運動決定部〉
目標運動決定部F309は、危険状態判断部F307の出力(目標経路)と、経路決定部F308の出力とに基づいて、車両100の目標運動を決定する。なお、主演算部F1の目標運動決定部F112とは異なり、目標運動決定部F309は、深層学習により生成された学習モデルを用いずに、予め定められたルールに基づくアルゴリズムを用いて車両100の目標運動を決定する。例えば、目標運動決定部F309は、危険状態判断部F307により生成された目標経路(危険を回避するための目標経路)が入力されると、危険状態判断部F307により生成された目標経路に基づいて、車両100の目標運動を決定するように構成されてもよい。また、目標運動決定部F309は、危険状態判断部F307により生成された目標経路が入力されない場合(車両100が危険状態ではない場合)に、経路決定部F308により生成された目標経路に基づいて、車両100の目標運動を決定するように構成されてもよい。
《車両運動エネルギ設定部》
主演算部F1の車両運動エネルギ設定部F113と同様に、車両運動エネルギ設定部F310は、目標運動決定部F309の出力に基づいて、駆動系のアクチュエータに要求される駆動系トルクと、操舵系のアクチュエータに要求される操舵系トルクと、制動系のアクチュエータに要求される制動系トルクとを計算する。車両運動エネルギ設定部F310により算出されたトルクは、主演算部F1のセレクタF115に出力される。
〈エネルギマネジメント部〉
エネルギマネジメント部F311は、車両運動エネルギ設定部F310の出力に基づいて、アクチュエータACの制御量を算出する。具体的には、エネルギマネジメント部F311は、目標運動決定部F309により決定された目標運動を達成する上でエネルギ効率が最も良くなるように、アクチュエータACの制御量を算出する。なお、主演算部F1のエネルギマネジメント部F114とは異なり、エネルギマネジメント部F311は、深層学習により生成された学習モデルを用いずに、予め定められたルールに基づくアルゴリズムを用いてアクチュエータACの制御量を算出する。エネルギマネジメント部F311により算出された制御量は、主演算部F1のセレクタF116に出力される。
〔制御部の動作〕
制御部20は、第1動作と、第2動作と、第3動作とを行う。なお、車両用制御システム1には、複数の第1カメラ11aを含む第1信号系統と、複数の第2カメラ11bを含む第2信号系統とが設けられる。この例では、制御部20は、第1信号系統および第2信号系統の両方に異常が発生していない場合に、第1動作を行う。また、制御部20は、第1信号系統および第2信号系統のうち第2信号系統に異常が発生している場合に、第2動作を行う。また、制御部20は、第1信号系統および第2信号系統のうち第1信号系統に異常が発生している場合に、第3動作を行う。
〈第1動作〉
第1動作では、制御部20は、複数の第1カメラ11aの出力および複数の第2カメラ11bの出力の両方に基づいて制御信号(車両100の走行制御のための信号)を出力する。この例では、制御部20は、第1動作において、第1認識処理ICユニット22aの認識処理の結果および第2認識処理ICユニット22bの認識処理の結果の両方に基づいて制御信号を出力する。
具体的には、第1動作では、第1信号処理ICユニット21aは、第1カメラ11aの出力を処理し、第1認識処理ICユニット22aは、第1信号処理ICユニット21aの出力を処理する。一方、第2信号処理ICユニット21bは、第2カメラ11bの出力を処理し、第2認識処理ICユニット22bは、第2信号処理ICユニット21bの出力を処理する。また、第2認識処理ICユニット22bは、認識処理の結果を第1認識処理ICユニット22aに出力する。第1認識処理ICユニット22aは、第1認識処理ICユニット22aの認識処理の結果と、第2認識処理ICユニット22bの認識処理の結果とを統合し、その統合により得られた認識結果を第1制御ICユニット23aに出力する。第1制御ICユニット23aは、第1制御ICユニット23aの出力に基づいて制御信号を出力する。
〈第2動作〉
第2動作では、制御部20は、複数の第1カメラ11aの出力に基づいて制御信号を出力する。この例では、制御部20は、第2動作において、第1認識処理ICユニット22aの認識処理の結果に基づいて制御信号を出力する。
具体的には、第2動作では、第1信号処理ICユニット21aは、第1カメラ11aの出力を処理し、第1認識処理ICユニット22aは、第1信号処理ICユニット21aの出力を処理する。そして、第1認識処理ICユニット22aは、第1認識処理ICユニット22aの認識処理の結果を第1制御ICユニット23aに出力する。第1制御ICユニット23aは、第1認識処理ICユニット22aの認識処理の結果に基づいて制御信号を出力する。
〈第3動作〉
第3動作では、制御部20は、複数の第2カメラ11bの出力に基づいて制御信号を出力する。この例では、制御部20は、第3動作において、第2認識処理ICユニットの認識処理の結果に基づいて制御信号を出力する。
具体的には、第3動作では、第2信号処理ICユニット21bは、第2カメラ11bの出力を処理し、第2認識処理ICユニット22bは、第2信号処理ICユニット21bの出力を処理する。また、第2認識処理ICユニット22bは、認識処理の結果を第1認識処理ICユニット22aに出力する。第1認識処理ICユニット22aは、第2認識処理ICユニット22bの認識処理の結果を第1制御ICユニット23aに出力する。第1制御ICユニット23aは、第1認識処理ICユニット22aの認識処理の結果に基づいて制御信号を出力する。
〔実施形態の効果〕
以上のように、車両100の周囲を囲うように設けられた複数のカメラ11の組が2組ある。車両100の周囲を囲うように複数の第1カメラ11aを設けることにより、複数の第1カメラ11aの出力に基づいて、車両100の周囲に広がる環境(車両100の外部環境)を監視することができる。これと同様に、車両100の周囲を囲うように複数の第2カメラ11bを設けることにより、複数の第2カメラ11bの出力に基づいて、車両100の外部環境を監視することができる。このように、複数の第1カメラ11aの出力および複数の第2カメラ11bの出力のうち少なくとも一方に基づいて、車両100の外部環境を監視することができる。したがって、複数の第1カメラ11aを含む第1信号系統および複数の第2カメラ11bを含む第2信号系統のいずれか一方に異常が発生した場合であっても、第2動作または第3動作を行うことにより、第1信号系統および第2信号系統の他方に含まれる複数のカメラ11の出力に基づいて、車両100の走行制御を継続することができる。これにより、車両100の走行制御の継続性を向上させることができる。
また、第1信号系統および第2信号系統における異常の有無に応じて第1動作と第2動作と第3動作を自動的に切り換えることができる。これにより、第1信号系統および第2信号系統のいずれか一方に異常が発生した場合に、第2動作または第3動作を自動的に行うことができるので、車両100の走行制御を自動的に継続することができる。
また、この例では、複数の第1カメラ11aは、第1前方カメラ111aと、第1斜め右後方カメラ112aと、第1斜め左後方カメラ113aとを含む。複数の第2カメラ11bは、第2前方カメラ111bと、第2斜め右後方カメラ112bと、第2斜め左後方カメラ113bとを含む。そのため、車両100の周囲に広がる環境(車両100の外部環境)のうち少なくとも車両100の前方エリアと斜め右後方エリアと斜め左後方エリアに基づいて、車両100の走行制御を継続することができる。これにより、第1信号系統および第2信号系統のいずれか一方に異常が発生した場合であっても、車両100の前方エリアに基づく走行制御(例えば自車両の前方を走行する他車両との車間距離を適切に維持するための制御)と、車両100の斜め右後方エリアおよび斜め左後方エリアに基づく制御(例えば自車両の車線変更の際に危険を察知するための制御)とを継続することができる。
また、第1認識処理ICユニット22aおよび第2認識処理ICユニット22bの両方において認識処理を行うことにより、第1認識処理ICユニット22aおよび第2認識処理ICユニット22bのいずれか一方のみにおいて認識処理を行う場合よりも、認識精度を向上させることができる。
(実施形態の変形例)
図8に示すように、認識処理部202は、単一の認識処理ICユニット(図8の例では第1認識処理ICユニット22a)により構成されてもよい。この例では、第2信号処理ICユニット21bの出力は、第1認識処理ICユニット22aに供給される。第1認識処理ICユニット22aは、第1信号処理ICユニット21aの出力および第2信号処理ICユニット21bの出力に基づいて認識処理を行う。
これと同様に、信号処理部201は、単一の信号処理ICユニット(例えば第1信号処理ICユニット21a)により構成されてもよい。
(その他の実施形態)
以上の説明では、車両100の周囲を囲うように車両100に設けられる複数のカメラ11の組が2組ある場合を例に挙げたが、これに限定されない。例えば、車両100の周囲を囲うように車両100に設けられる複数のカメラ11の組が3組あってもよい。これと同様に、車両100の周囲を囲うように車両100に設けられる複数のレーダ12の組が2組ある場合を例に挙げたが、これに限定されない。例えば、車両100の周囲を囲うように車両100に設けられる複数のレーダ12の組が3組あってもよい。
また、以上の実施形態を適宜組み合わせて実施してもよい。以上の実施形態は、本質的に好ましい例示であって、この発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。
以上説明したように、ここに開示する技術は、車両用制御システムとして有用である。
1 車両用制御システム
100 車両
10 情報取得部
11 カメラ
11a 第1カメラ
111a 第1前方カメラ
112a 第1斜め右後方カメラ
113a 第1斜め左後方カメラ
11b 第2カメラ
111b 第2前方カメラ
112b 第2斜め右後方カメラ
113b 第2斜め左後方カメラ
12 レーダ
12a 第1レーダ
12b 第2レーダ
20 制御部
21a 第1信号処理ICユニット
21b 第2信号処理ICユニット
22a 第1認識処理ICユニット
22b 第2認識処理ICユニット
23a 第1制御ICユニット
23b 第2制御ICユニット

Claims (4)

  1. 車両を制御する車両用制御システムであって、
    前記車両の周囲を囲うように前記車両に設けられる複数の第1カメラと、
    前記車両の周囲を囲うように前記車両に設けられる複数の第2カメラと、
    前記複数の第1カメラの出力および前記複数の第2カメラの出力の両方に基づいて前記車両の走行制御のための制御信号を出力する第1動作と、前記複数の第1カメラの出力に基づいて前記制御信号を出力する第2動作と、前記複数の第2カメラの出力に基づいて前記制御信号を出力する第3動作とを行う制御部とを備える
    ことを特徴とする車両用制御システム。
  2. 請求項1において、
    前記制御部は、
    前記複数の第1カメラを含む第1信号系統および前記複数の第2カメラを含む第2信号系統の両方に異常が発生していない場合に、前記第1動作を行い、
    前記第1信号系統および前記第2信号系統のうち前記第2信号系統に異常が発生している場合に、前記第2動作を行い、
    前記第1信号系統および前記第2信号系統のうち前記第1信号系統に異常が発生している場合に、前記第3動作を行う
    ことを特徴とする車両用制御システム。
  3. 請求項1または2において、
    前記複数の第1カメラは、前記車両の前方を撮像する第1前方カメラと、前記車両の斜め右後方を撮像する第1斜め右後方カメラと、前記車両の斜め左後方を撮像する第1斜め左後方カメラとを含み、
    前記複数の第2カメラは、前記車両の前方を撮像する第2前方カメラと、前記車両の斜め右後方を撮像する第2斜め右後方カメラと、前記車両の斜め左後方を撮像する第2斜め左後方カメラとを含む
    ことを特徴とする車両用制御システム。
  4. 請求項1〜3のいずれか1つにおいて、
    前記制御部は、
    前記複数の第1カメラの出力に基づいて前記車両の外部環境を認識する認識処理を行う第1認識処理ICユニットと、前記複数の第2カメラの出力に基づいて前記認識処理を行う第2認識処理ICユニットとを有し、
    前記第1動作では、前記第1認識処理ICユニットの認識処理の結果および前記第2認識処理ICユニットの認識処理の結果の両方に基づいて前記制御信号を出力し、
    前記第2動作では、前記第1認識処理ICユニットの認識処理の結果に基づいて前記制御信号を出力し、
    前記第3動作では、前記第2認識処理ICユニットの認識処理の結果に基づいて前記制御信号を出力する
    ことを特徴とする車両用制御システム。
JP2020018014A 2020-02-05 2020-02-05 車両用制御システム Pending JP2021123234A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020018014A JP2021123234A (ja) 2020-02-05 2020-02-05 車両用制御システム
CN202110096172.3A CN113291289B (zh) 2020-02-05 2021-01-25 车辆用控制系统
EP21153702.2A EP3862240B1 (en) 2020-02-05 2021-01-27 Vehicle control system
US17/159,178 US20210241001A1 (en) 2020-02-05 2021-01-27 Vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020018014A JP2021123234A (ja) 2020-02-05 2020-02-05 車両用制御システム

Publications (1)

Publication Number Publication Date
JP2021123234A true JP2021123234A (ja) 2021-08-30

Family

ID=74285372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020018014A Pending JP2021123234A (ja) 2020-02-05 2020-02-05 車両用制御システム

Country Status (4)

Country Link
US (1) US20210241001A1 (ja)
EP (1) EP3862240B1 (ja)
JP (1) JP2021123234A (ja)
CN (1) CN113291289B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230159041A1 (en) * 2021-11-23 2023-05-25 Tusimple, Inc. Vehicle safety system for autonomous vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269494A (ja) * 2007-04-24 2008-11-06 Auto Network Gijutsu Kenkyusho:Kk 車載撮像システム
JP2019034664A (ja) * 2017-08-18 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 制御装置および制御システム
JP2019174168A (ja) * 2018-03-27 2019-10-10 パナソニックIpマネジメント株式会社 制御装置、車両、制御方法および制御プログラム
JP2020053950A (ja) * 2018-09-28 2020-04-02 株式会社Subaru 車両用ステレオカメラ装置
JP2020173744A (ja) * 2019-04-15 2020-10-22 株式会社日立製作所 機械学習を用いた画像処理方式,およびそれを用いた電子制御装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1116099A (ja) 1997-06-27 1999-01-22 Hitachi Ltd 自動車走行支援装置
CN202169907U (zh) * 2011-07-29 2012-03-21 富士重工业株式会社 车外环境识别装置
JP6381066B2 (ja) * 2013-12-27 2018-08-29 株式会社Subaru 車両のレーンキープ制御装置
JP6137081B2 (ja) * 2014-07-29 2017-05-31 株式会社デンソー 車載機器
US9829884B1 (en) * 2016-05-10 2017-11-28 Dura Operating, Llc Scalable driver assistance system
CN106708040B (zh) * 2016-12-09 2019-10-08 重庆长安汽车股份有限公司 自动驾驶系统的传感器模块、自动驾驶系统及方法
JP6990137B2 (ja) * 2018-03-28 2022-01-12 本田技研工業株式会社 車両制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269494A (ja) * 2007-04-24 2008-11-06 Auto Network Gijutsu Kenkyusho:Kk 車載撮像システム
JP2019034664A (ja) * 2017-08-18 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 制御装置および制御システム
JP2019174168A (ja) * 2018-03-27 2019-10-10 パナソニックIpマネジメント株式会社 制御装置、車両、制御方法および制御プログラム
JP2020053950A (ja) * 2018-09-28 2020-04-02 株式会社Subaru 車両用ステレオカメラ装置
JP2020173744A (ja) * 2019-04-15 2020-10-22 株式会社日立製作所 機械学習を用いた画像処理方式,およびそれを用いた電子制御装置

Also Published As

Publication number Publication date
CN113291289A (zh) 2021-08-24
EP3862240A1 (en) 2021-08-11
EP3862240B1 (en) 2024-05-15
CN113291289B (zh) 2023-12-05
US20210241001A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US11467596B2 (en) Target abnormality determination device
WO2020184297A1 (ja) 自動車用演算システム
JP7425615B2 (ja) 車両用制御システム
JP7330911B2 (ja) 車両用制御装置
CN113291289B (zh) 车辆用控制系统
JP7363118B2 (ja) 外部環境認識装置
JP2020142766A (ja) 自動車用演算装置
JP7296899B2 (ja) 車両用制御装置
JP7288409B2 (ja) 車両用制御装置
JP7298323B2 (ja) 外部環境認識装置
JP2021060661A (ja) 認識装置、認識方法、およびプログラム
WO2020250527A1 (ja) 外部環境認識装置
US11451765B2 (en) System and method for determining when a sensor is polluted
Li et al. Study on Interaction Behaviors of Micro-autonomous Vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240402