JP2021123234A - 車両用制御システム - Google Patents
車両用制御システム Download PDFInfo
- Publication number
- JP2021123234A JP2021123234A JP2020018014A JP2020018014A JP2021123234A JP 2021123234 A JP2021123234 A JP 2021123234A JP 2020018014 A JP2020018014 A JP 2020018014A JP 2020018014 A JP2020018014 A JP 2020018014A JP 2021123234 A JP2021123234 A JP 2021123234A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- vehicle
- recognition
- output
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims description 216
- 238000000034 method Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 31
- 230000005856 abnormality Effects 0.000 claims description 22
- 230000033001 locomotion Effects 0.000 description 48
- 230000006870 function Effects 0.000 description 35
- 238000001514 detection method Methods 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 22
- 238000007781 pre-processing Methods 0.000 description 19
- 238000013135 deep learning Methods 0.000 description 13
- 238000012544 monitoring process Methods 0.000 description 9
- 239000000446 fuel Substances 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000007480 spreading Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/023—Avoiding failures by using redundant parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0006—Digital architecture hierarchy
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
- B60W2050/0297—Control Giving priority to different actuators or systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2510/00—Input parameters relating to a particular sub-units
- B60W2510/18—Braking system
- B60W2510/182—Brake pressure, e.g. of fluid or between pad and disc
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
- B60W2520/105—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/10—Accelerator pedal position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】複数の第1カメラ(11a)は、車両(100)の周囲を囲うように車両(100)に設けられる。複数の第2カメラ(11b)は、車両(100)の周囲を囲うように車両(100)に設けられる。制御部(20)は、複数の第1カメラ(11a)の出力および複数の第2カメラ(11b)の出力の両方に基づいて車両(100)の走行制御のための制御信号を出力する第1動作と、複数の第1カメラ(11a)の出力に基づいて制御信号を出力する第2動作と、複数の第2カメラ(11b)の出力に基づいて制御信号を出力する第3動作とを行う。
【選択図】図1
Description
図1は、実施形態による車両用制御システム1を備える車両100の外観を例示する。車両用制御システム1は、車両100(具体的には自動四輪車)に設けられる。車両100は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、ドライバの操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、ドライバの操作を支援して走行する運転である。自動運転は、ドライバの操作なしに走行する運転である。車両用制御システム1は、アシスト運転および自動運転において、車両100を制御する。具体的には、車両用制御システム1は、車両100に設けられたアクチュエータ(図示を省略)を制御することで車両100の動作(特に走行)を制御する。なお、以下の説明では、車両用制御システム1が設けられている車両100を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。
車両100に設けられるアクチュエータは、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
車両用制御システム1は、情報取得部10と、制御部20とを備える。制御部20は、例えば、乗員の座席下部やトランクルームなど、車両100内の特定の場所に設置された単一の筐体内に格納される。
情報取得部10は、車両100の制御(特に走行制御)に用いられる各種情報を取得する。図1,図5,図6に示すように、情報取得部10は、複数のカメラ11と、複数のレーダ12と、位置センサ13と、外部入力部14と、メカセンサ15と、ドライバ入力部16とを含む。なお、図1および図5では、位置センサ13と外部入力部14とメカセンサ15とドライバ入力部16の図示を省略している。
複数のカメラ11は、互いに同様の構成を有する。複数のカメラ11は、車両100の周囲を囲うように車両100に設けられる。複数のカメラ11の各々は、車両100の周囲に広がる環境(車両100の外部環境)の一部を撮像することで、車両100の外部環境の一部を示す画像データを取得する。複数のカメラ11の各々により得られた画像データは、制御部20に送信される。
複数の第1カメラ11aは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第1カメラ11aは、複数の第1カメラ11aの撮像エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第1カメラ11aは、第1前方カメラ111aと、第1斜め右後方カメラ112aと、第1斜め左後方カメラ113aと、第1後方カメラ114aとを含む。第1前方カメラ111aは、車両100の前方を撮像する。第1斜め右後方カメラ112aは、車両100の斜め右後方を撮像する。第1斜め左後方カメラ113aは、車両100の斜め左後方を撮像する。第1後方カメラ114aは、車両100の後方を撮像する。
複数の第2カメラ11bは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第2カメラ11bは、複数の第2カメラ11bの撮像エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第2カメラ11bは、第2前方カメラ111bと、第2斜め右後方カメラ112bと、第2斜め左後方カメラ113bと、第2後方カメラ114bとを含む。第2前方カメラ111bは、車両100の前方を撮像する。第2斜め右後方カメラ112bは、車両100の斜め右後方を撮像する。第2斜め左後方カメラ113bは、車両100の斜め左後方を撮像する。第2後方カメラ114bは、車両100の後方を撮像する。
複数のレーダ12は、互いに同様の構成を有する。複数のレーダ12は、車両100の周囲を囲うように車両100に設けられる。複数のレーダ12の各々は、車両100の外部環境の一部を検出する。具体的には、レーダ12は、車両100の外部環境の一部へ向けて電波を送信して車両100の外部環境の一部からの反射波を受信することで、車両100の外部環境の一部を検出する。複数のレーダ12の検出結果は、制御部20に送信される。
複数の第1レーダ12aは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第1レーダ12aは、複数の第1レーダ12aの検出エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第1レーダ12aは、第1前方レーダ121aと、第1斜め右後方レーダ122aと、第1斜め左後方レーダ123aとを含む。第1前方レーダ121aは、車両100の前方の外部環境を検出する。第1斜め右後方レーダ122aは、車両100の斜め右後方の外部環境を検出する。第1斜め左後方レーダ123aは、車両100の斜め左後方の外部環境を検出する。
複数の第2レーダ12bは、車両100の周囲を囲うように車両100に設けられる。具体的には、複数の第2レーダ12bは、複数の第2レーダ12bの検出エリアが車両100の周囲を囲うように車両に設けられる。この例では、複数の第2レーダ12bは、第2前方レーダ121bと、第2斜め右前方レーダ122bと、第2斜め左前方レーダ123bと、第2後方レーダ124bとを含む。第2前方レーダ121bは、車両100の前方の外部環境を検出する。第2斜め右前方レーダ122bは、車両100斜め右前方の外部環境を検出する。第2斜め左前方レーダ123bは、車両100の斜め左前方の外部環境を検出する。第2後方レーダ124bは、車両100の後方の外部環境を検出する。
図2は、カメラ11の撮像エリア(監視エリア)とレーダ12の検出エリア(監視エリア)とを例示する。図3は、第1カメラ11aの撮像エリアと第1レーダ12aの検出エリアとを例示し、図4は、第2カメラ11bの撮像エリアと第2レーダ12bの検出エリアとを例示する。図2〜図4において、太い破線は、第1カメラ11aの撮像エリアを示し、太い一点鎖線は、第1レーダ12aの検出エリアを示す。細い破線は、第2カメラ11bの撮像エリアを示し、細い一点鎖線は、第2レーダ12bの検出エリアを示す。
位置センサ13は、車両100の位置(例えば緯度および経度)を検出する。例えば、位置センサ13は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両100の位置を検出する。位置センサ13により得られた情報(車両100の位置)は、制御部20に送信される。
外部入力部14は、車両100の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部14は、車両100の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部14により得られた情報は、制御部20に送信される。
メカセンサ15は、車両100の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、メカセンサ15は、車両100の速度を検出する車速センサ、車両100の加速度を検出する加速度センサ、車両100のヨーレートを検出するヨーレートセンサなどを含む。メカセンサ15により得られた情報(車両100の状態)は、制御部20に送信される。
ドライバ入力部16は、車両100に加えられる運転操作を検出する。例えば、ドライバ入力部16は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両100のアクセルの操作量を検出する。操舵角センサは、車両100のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両100のブレーキの操作量を検出する。ドライバ入力部16により得られた情報(車両100の運転操作)は、制御部20に送信される。
図5は、制御部20の構成を例示する。この例では、制御部20は、第1信号処理ICユニット21aと、第2信号処理ICユニット21bと、第1認識処理ICユニット22aと、第2認識処理ICユニット22bと、第1制御ICユニット23aと、第2制御ICユニット23bとを有する。これらのICユニットの各々は、単一のIC(Integrated Circuit)で構成されてもよいし、複数のICで構成されてもよい。また、IC内には、単一のコアまたはダイが収容されてもよいし、連携する複数のコアまたはダイが収容されてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。
信号処理部201は、カメラ11の出力に対して画像処理を行う。そして、信号処理部201は、画像処理により得られた画像データを出力する。具体的には、第1信号処理ICユニット21aは、第1カメラ11aの出力に対して画像処理を行う。第2信号処理ICユニット21bは、第2カメラ11bの出力に対して画像処理を行う。
認識処理部202は、信号処理部201の出力(画像データ)に基づいて、車両100の外部環境を認識する認識処理を行う。そして、認識処理部202は、認識処理により得られた外部環境データを出力する。具体的には、第1認識処理ICユニット22aは、第1信号処理ICユニット21aにより処理された第1カメラ11aの出力に基づいて認識処理を行う。第2認識処理ICユニット22bは、第2信号処理ICユニット21bにより処理された第2カメラ11bの出力に基づいて認識処理を行う。
判断処理部203は、認識処理部202の出力(外部環境データ)に基づいて、車両100の走行制御のための判断処理を行う。具体的には、第1制御ICユニット23aは、第1認識処理ICユニット22aの出力および/または第2認識処理ICユニット22bの出力に基づいて判断処理を行う。そして、判断処理部203は、判断処理の結果に基づいて、車両100の走行制御のための制御信号を出力する。
バックアップ処理部204は、信号処理部201の出力(画像データ)に基づいて、車両100の外部環境を認識する認識処理を行う。具体的には、第2制御ICユニット23bは、第1信号処理ICユニット21aの出力および/または第2信号処理ICユニット21bの出力に基づいて認識処理を行う。また、バックアップ処理部204は、認識処理の結果に基づいて、車両100の走行制御のための判断処理を行う。そして、バックアップ処理部204は、判断処理の結果に基づいて、車両100の走行制御のための制御信号を出力する。
ここで、図6および図7を参照して、車両用制御システム1の機能構成を説明する。車両用制御システム1の機能は、認識系ブロックB1と、判断系ブロックB2と、操作系ブロックB3とに大別される。認識系ブロックB1は、情報取得部10により取得された各種情報に基づいて車両100の外部環境を認識する。なお、認識系ブロックB1は、車両100の内部環境を認識するように構成されてもよい。判断系ブロックB2は、認識系ブロックB1の認識結果に基づいて車両100の状態および状況を判断し、その判断の結果に基づいて車両100の目標動作を決定する。操作系ブロックB3は、判断系ブロックB2により決定された車両100の目標動作に基づいて、車両100に設けられたアクチュエータを制御するための信号を生成し、その信号をアクチュエータACに出力する。
主演算部F1は、情報取得部10の出力に基づいて車両100の外部環境を認識し、その車両100の外部環境に基づいて車両100の目標経路を決定する。そして、主演算部F1は、車両100の目標経路に基づいて車両100の目標運動を決定し、その車両100の目標運動に基づいて制御信号を出力する。なお、主演算部F1の処理には、深層学習により生成された学習モデルが用いられる。深層学習では、多層ニューラルネットワーク(Deep Neural Network)が用いられる。多層ニューラルネットワークの例としては、CNN(Convolutional Neural Network)が挙げられる。
車両状態検出部F001は、メカセンサ15の出力に基づいて、車両100の状態(例えば速度や加速度やヨーレートなど)を認識する。
ドライバ操作認識部F002は、ドライバ入力部16の出力に基づいて、車両100に加えられる運転操作を認識する。
物体認識部F101は、カメラ11の出力に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体に関する情報(物体情報)が得られる。例えば、物体情報は、物体の種別、物体の形状などを示す。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
物体認識部F102は、レーダ12の出力である検出結果(例えば反射波のピークリスト)に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体情報が得られる。具体的には、物体認識部F102は、レーダ12の検出結果に対して解析処理(物体情報を得るための処理)を行う。例えば、物体認識部F102による物体認識処理には、周知の物体認識技術(レーダ12の検出結果に基づく物体認識技術)が用いられてもよい。また、物体認識部F102は、深層学習により生成された学習モデルを用いて物体認識処理を行うように構成されてもよい。
マップ生成部F103は、物体認識部F101(画像系)の出力と物体認識部F102(レーダ系)の出力とに基づいて、車両100の外部環境を示すマップデータ(例えば三次元マップデータ)を生成する。例えば、マップ生成部F103は、車両100の周囲を囲う周囲領域を分割して得られる複数の領域(例えば前後左右の4つの領域)毎に、マップデータを生成する。そして、マップ生成部F103は、物体認識部F101(画像系)および物体認識部F102(レーダ系)の各々により得られた物体情報を入力すると、それらの物体情報を統合し、統合により得られた物体情報をマップデータに反映させる。
外部環境推定部F104は、車両状態検出部F001の出力と、マップ生成部F103の出力と、位置センサ13の出力と、外部入力部14の出力とに基づいて、車両100の外部環境を推定する。具体的には、外部環境推定部F104は、外部環境モデルF105に基づく画像認識処理により、車両100の外部環境を示す三次元マップデータを生成する。
外部環境モデルF105は、車両100の外部環境に関するモデルである。なお、外部環境モデルF105は、深層学習により生成された学習モデルである。
経路探索部F106は、位置センサ13の出力と、外部入力部14の出力(例えばカーナビゲーションデータ)とに基づいて、車両100の広域経路を探索する。
経路生成部F107は、外部環境モデルF105と、経路探索部F106の出力とに基づいて、車両100の走行経路を生成する。例えば、経路生成部F107により生成される走行経路には、その走行経路における車両100の安全性や燃料消費などのスコアが付加される。走行経路における車両100の安全性が高くなるに連れて、その走行経路のスコアが小さくなる。また、走行経路における車両100の燃料消費が低くなるに連れて、その走行経路のスコアが小さくなる。経路生成部F107は、スコアが比較的に小さくなる(例えば最小となる)走行経路を少なくとも1つ生成する。
危険状態判断部F108は、セーフティ機能部F2の前処理部F204の出力(車両100の外部環境に含まれる物体に対する自車両の位置)に基づいて、車両100が危険状態であるか否かを判断する。車両100の危険状態の例としては、車両100が物体と衝突する可能性がある状態、車両100が車線を逸脱する可能性がある状態などが挙げられる。なお、危険状態判断部F108は、外部環境モデルF105に基づいて、車両100が危険状態であるか否かを判断するように構成されてもよい。また、危険状態判断部F108は、車両100が危険状態であると判断すると、その危険を回避するための目標経路を生成する。
第1車両モデルF109は、車両100の6軸の運動に関する車両6軸モデルである。車両6軸モデルは、走行中の車両100の「前後」「左右」「上下」の3軸方向の加速度と「ピッチ」「ロール」「ヨー」の3軸方向の角速度とをモデル化したものである。すなわち、第1車両モデルF109は、車両100の動きを古典的な車両運動工学的な平面上のみ(車両の前後左右(X−Y移動)とヨー運動(Z軸)のみ)で捉えるのではなく、4つの車輪にサスペンションを介して乗っている車体のピッチング(Y軸)およびロール(X軸)運動とZ軸の移動(車体の上下動)の、合計6軸を用いて車両100の挙動を再現する数値モデルである。第1車両モデルF109は、予め設定された車両100の基本運動機能、車両100の外部環境などに基づいて生成される。また、第1車両モデルF109は、車両100の外部環境の変化などに応じて適宜更新される。例えば、第1車両モデルF109は、深層学習により生成された学習モデルである。
第2車両モデルF110は、車両のエネルギ消費に関するモデルである。具体的には、第2車両モデルF110は、車両100のアクチュエータACの動作に対するコスト(燃料消費や電費)を示すモデルである。例えば、第2車両モデルF110は、所定量のエンジントルクを出力する上で燃料消費が最も良くなる場合の吸排気バルブ(図示省略)の開閉タイミング、インジェクタ(図示省略)の燃料噴射タイミング、排気環流システムのバルブ開閉タイミングなどがモデル化されたものである。第2車両モデルF110は、車両の走行中に生成され、適宜更新される。例えば、第2車両モデルF110は、深層学習により生成された学習モデルである。
経路決定部F111は、ドライバ操作認識部F002の出力と、経路生成部F107の出力と、セーフティ機能部F2の経路生成部F206の出力とに基づいて、車両100の目標経路を決定する。具体的には、経路決定部F111は、経路生成部F107により生成された走行経路とセーフティ機能部F2の経路生成部F206において生成された走行経路の中からいずれか1つを目標経路として選択する。なお、経路決定部F111は、その選択された目標経路をドライバ操作認識部F002の出力に応じて調整するように構成されてもよい。
目標運動決定部F112は、危険状態判断部F108の出力と、第1車両モデルF109と、経路決定部F111の出力とに基づいて、車両100の目標運動を決定する。例えば、目標運動決定部F112は、危険状態判断部F108により生成された目標経路(危険を回避するための目標経路)が入力されると、危険状態判断部F108により生成された目標経路と第1車両モデルF109とに基づいて、車両100の目標運動を決定するように構成されてもよい。また、目標運動決定部F112は、危険状態判断部F108により生成された目標経路が入力されない場合(車両100が危険状態ではない場合)に、経路決定部F111により生成された目標経路と第1車両モデルF109とに基づいて、車両100の目標運動を決定するように構成されてもよい。
車両運動エネルギ設定部F113は、目標運動決定部F112の出力に基づいて、駆動系のアクチュエータに要求される駆動系トルクと、操舵系のアクチュエータに要求される操舵系トルクと、制動系のアクチュエータに要求される制動系トルクとを計算する。具体的には、車両運動エネルギ設定部F113は、車両100の運動が目標運動決定部F112により決定された目標運動となるように、駆動系トルクと操舵系トルクと制動系トルクとを計算する。
エネルギマネジメント部F114は、第2車両モデルF110と、車両運動エネルギ設定部F113の出力に基づいて、アクチュエータACの制御量を算出する。具体的には、エネルギマネジメント部F114は、目標運動決定部F112により決定された目標運動を達成する上でエネルギ効率が最も良くなるように、第2車両モデルF110に基づいてアクチュエータACの制御量を算出する。例えば、エネルギマネジメント部F114は、車両運動エネルギ設定部F113により決定されたエンジントルクを達成する上で燃料消費が最も良くなるように、吸排気バルブ(図示省略)の開閉タイミングやインジェクタ(図示省略)の燃料噴射タイミングなどを算出する。
セレクタF115は、車両運動エネルギ設定部F113の出力およびバックアップ機能部F3の車両運動エネルギ設定部F310の出力のうちいずれか一方を出力する。セレクタF116は、エネルギマネジメント部F114の出力およびバックアップ機能部F3のエネルギマネジメント部F311の出力のうちいずれか一方を出力する。セレクタF115の出力およびセレクタF116の出力は、車両100の走行制御のための制御信号である。
セーフティ機能部F2は、情報取得部10の出力に基づいて車両100の外部環境を認識し、その車両100の外部環境の中からフリースペースを探索する。そして、セーフティ機能部F2は、フリースペースを通過する走行経路を生成する。セーフティ機能部F2により得られた走行経路(フリースペースを通過する走行経路)は、主演算部F1の目標経路を決定する処理において利用される。なお、セーフティ機能部F2の処理には、深層学習により生成された学習モデルの代わりに、予め定められたルールに基づくアルゴリズムが用いられる。セーフティ機能部F2では、ルールベースの処理が行われる。
物体認識部F201は、カメラ11の出力に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体情報が得られる。具体的には、物体認識部F201は、画像処理部と、画像認識部とを含む。画像処理部は、カメラ11の出力である画像データに対して画像処理を行う。画像認識部は、画像処理部において処理された画像データに基づいて、車両100の外部環境に含まれる物体を認識する。例えば、物体認識部F201の物体認識部F201は、深層学習により生成された学習モデルを用いずに、周知のパターン認識技術を用いて物体認識処理を行う。なお、物体認識部F201の画像認識部による物体認識処理には、その他の周知の物体認識技術(画像データに基づく物体認識技術)が用いられてもよい。
物体認識部F202は、レーダ12の出力である検出結果に基づいて、車両100の外部環境に含まれる物体を認識する。これにより、物体情報が得られる。具体的には、物体認識部F102は、レーダ12の検出結果に対して解析処理を行う。例えば、物体認識部F202は、深層学習により生成された学習モデルを用いずに、周知の物体認識技術(レーダ12の検出結果に基づく物体認識技術)を用いて物体認識処理を行う。
分類部F203は、物体認識部F201(画像系)の出力と、物体認識部F202(レーダ系)の出力とに基づいて、車両100の外部環境を認識する。なお、分類部F203は、深層学習により生成された学習モデルを用いずに、予め定められたルールに基づくアルゴリズムを用いて認識処理(ルールベースの認識処理)を行う。ルールベースの認識処理には、周知の認識処理技術を用いられてもよい。具体的には、分類部F203は、物体認識部F201および物体認識部F202により認識された物体を動体と静止体とに分類する。例えば、分類部F203は、車両100の周囲を囲う周囲領域を分割して得られる複数の領域(例えば前後左右の4つの領域)毎に、物体認識部F201(画像系)により得られた物体情報と、物体認識部F202(レーダ系)により得られた物体情報とを統合する。そして、分類部F203は、複数の領域毎に、その領域に含まれる物体の分類情報を生成する。分類情報は、物体が動体および静止体のどちらに該当するのかを示す。
前処理部F204は、分類部F203の出力と、主演算部F1の車両状態検出部F001の出力と、位置センサ13の出力と、外部入力部14の出力とに基づいて、前処理を行う。前処理では、分類情報統合と、物体行動予測と、自己位置推定とが行われる。
フリースペース探索部F205は、前処理部F204の出力に基づいて、車両100の外部環境の中からフリースペースを探索する。フリースペースは、車両100の外部環境に含まれる道路のうち障害物が存在しない領域である。障害物は、動的な障害物と、静的な障害物とを含む。動的な障害物の例としては、他車両、歩行者などが挙げられる。静的な障害物の例としては、中央分離帯、センターポールなどが挙げられる。例えば、フリースペースは、緊急駐車が可能な路肩のスペースであってもよい。
経路生成部F206は、フリースペース探索部F205の出力と、主演算部F1の経路探索部F106の出力(車両100の広域経路)とに基づいて、車両100の走行経路を生成する。具体的には、経路生成部F206は、フリースペース探索部F205により得られたフリースペースを通過する走行経路を生成する。例えば、経路生成部F206は、フリースペースを通過する複数の走行経路を生成し、その複数の走行経路の中から経路コストが最も小さい走行経路を選択するように構成されてもよい。経路生成部F206により生成された走行経路(フリースペースを通過する走行経路)は、主演算部F1の経路決定部F111に出力される。
バックアップ機能部F3は、情報取得部10の出力に基づいて車両100の外部環境を認識し、その車両100の外部環境の中からフリースペースを探索し、フリースペースを通過する車両100の目標経路を決定する。そして、バックアップ機能部F3は、車両100の目標経路に基づいて車両100の目標運動を決定し、その車両100の目標運動に基づいて制御信号を出力する。バックアップ機能部F3により得られた制御信号は、主演算部F1に供給される。なお、バックアップ機能部F3の処理には、予め定められたルールに基づくアルゴリズムが用いられる。バックアップ機能部F3では、ルールベースの処理が行われる。
車両状態検出部F301とドライバ操作認識部F302の機能は、主演算部F1の車両状態検出部F001とドライバ操作認識部F002の機能と同様である。
分類部F303と前処理部F304とフリースペース探索部F305と経路生成部F306の機能は、セーフティ機能部F2の分類部F203と前処理部F204とフリースペース探索部F205と経路生成部F206の機能と同様である。
経路決定部F308は、ドライバ操作認識部F302の出力と、経路生成部F306の出力(フリースペースを通過する走行経路)とに基づいて、車両100の目標経路を決定する。例えば、経路決定部F308は、経路生成部F306により生成された複数の走行経路の中からいずれか1つを目標経路として選択する。なお、経路決定部F308は、その選択された目標経路をドライバ操作認識部F302の出力に応じて調整するように構成されてもよい。
目標運動決定部F309は、危険状態判断部F307の出力(目標経路)と、経路決定部F308の出力とに基づいて、車両100の目標運動を決定する。なお、主演算部F1の目標運動決定部F112とは異なり、目標運動決定部F309は、深層学習により生成された学習モデルを用いずに、予め定められたルールに基づくアルゴリズムを用いて車両100の目標運動を決定する。例えば、目標運動決定部F309は、危険状態判断部F307により生成された目標経路(危険を回避するための目標経路)が入力されると、危険状態判断部F307により生成された目標経路に基づいて、車両100の目標運動を決定するように構成されてもよい。また、目標運動決定部F309は、危険状態判断部F307により生成された目標経路が入力されない場合(車両100が危険状態ではない場合)に、経路決定部F308により生成された目標経路に基づいて、車両100の目標運動を決定するように構成されてもよい。
主演算部F1の車両運動エネルギ設定部F113と同様に、車両運動エネルギ設定部F310は、目標運動決定部F309の出力に基づいて、駆動系のアクチュエータに要求される駆動系トルクと、操舵系のアクチュエータに要求される操舵系トルクと、制動系のアクチュエータに要求される制動系トルクとを計算する。車両運動エネルギ設定部F310により算出されたトルクは、主演算部F1のセレクタF115に出力される。
エネルギマネジメント部F311は、車両運動エネルギ設定部F310の出力に基づいて、アクチュエータACの制御量を算出する。具体的には、エネルギマネジメント部F311は、目標運動決定部F309により決定された目標運動を達成する上でエネルギ効率が最も良くなるように、アクチュエータACの制御量を算出する。なお、主演算部F1のエネルギマネジメント部F114とは異なり、エネルギマネジメント部F311は、深層学習により生成された学習モデルを用いずに、予め定められたルールに基づくアルゴリズムを用いてアクチュエータACの制御量を算出する。エネルギマネジメント部F311により算出された制御量は、主演算部F1のセレクタF116に出力される。
制御部20は、第1動作と、第2動作と、第3動作とを行う。なお、車両用制御システム1には、複数の第1カメラ11aを含む第1信号系統と、複数の第2カメラ11bを含む第2信号系統とが設けられる。この例では、制御部20は、第1信号系統および第2信号系統の両方に異常が発生していない場合に、第1動作を行う。また、制御部20は、第1信号系統および第2信号系統のうち第2信号系統に異常が発生している場合に、第2動作を行う。また、制御部20は、第1信号系統および第2信号系統のうち第1信号系統に異常が発生している場合に、第3動作を行う。
第1動作では、制御部20は、複数の第1カメラ11aの出力および複数の第2カメラ11bの出力の両方に基づいて制御信号(車両100の走行制御のための信号)を出力する。この例では、制御部20は、第1動作において、第1認識処理ICユニット22aの認識処理の結果および第2認識処理ICユニット22bの認識処理の結果の両方に基づいて制御信号を出力する。
第2動作では、制御部20は、複数の第1カメラ11aの出力に基づいて制御信号を出力する。この例では、制御部20は、第2動作において、第1認識処理ICユニット22aの認識処理の結果に基づいて制御信号を出力する。
第3動作では、制御部20は、複数の第2カメラ11bの出力に基づいて制御信号を出力する。この例では、制御部20は、第3動作において、第2認識処理ICユニットの認識処理の結果に基づいて制御信号を出力する。
以上のように、車両100の周囲を囲うように設けられた複数のカメラ11の組が2組ある。車両100の周囲を囲うように複数の第1カメラ11aを設けることにより、複数の第1カメラ11aの出力に基づいて、車両100の周囲に広がる環境(車両100の外部環境)を監視することができる。これと同様に、車両100の周囲を囲うように複数の第2カメラ11bを設けることにより、複数の第2カメラ11bの出力に基づいて、車両100の外部環境を監視することができる。このように、複数の第1カメラ11aの出力および複数の第2カメラ11bの出力のうち少なくとも一方に基づいて、車両100の外部環境を監視することができる。したがって、複数の第1カメラ11aを含む第1信号系統および複数の第2カメラ11bを含む第2信号系統のいずれか一方に異常が発生した場合であっても、第2動作または第3動作を行うことにより、第1信号系統および第2信号系統の他方に含まれる複数のカメラ11の出力に基づいて、車両100の走行制御を継続することができる。これにより、車両100の走行制御の継続性を向上させることができる。
図8に示すように、認識処理部202は、単一の認識処理ICユニット(図8の例では第1認識処理ICユニット22a)により構成されてもよい。この例では、第2信号処理ICユニット21bの出力は、第1認識処理ICユニット22aに供給される。第1認識処理ICユニット22aは、第1信号処理ICユニット21aの出力および第2信号処理ICユニット21bの出力に基づいて認識処理を行う。
以上の説明では、車両100の周囲を囲うように車両100に設けられる複数のカメラ11の組が2組ある場合を例に挙げたが、これに限定されない。例えば、車両100の周囲を囲うように車両100に設けられる複数のカメラ11の組が3組あってもよい。これと同様に、車両100の周囲を囲うように車両100に設けられる複数のレーダ12の組が2組ある場合を例に挙げたが、これに限定されない。例えば、車両100の周囲を囲うように車両100に設けられる複数のレーダ12の組が3組あってもよい。
100 車両
10 情報取得部
11 カメラ
11a 第1カメラ
111a 第1前方カメラ
112a 第1斜め右後方カメラ
113a 第1斜め左後方カメラ
11b 第2カメラ
111b 第2前方カメラ
112b 第2斜め右後方カメラ
113b 第2斜め左後方カメラ
12 レーダ
12a 第1レーダ
12b 第2レーダ
20 制御部
21a 第1信号処理ICユニット
21b 第2信号処理ICユニット
22a 第1認識処理ICユニット
22b 第2認識処理ICユニット
23a 第1制御ICユニット
23b 第2制御ICユニット
Claims (4)
- 車両を制御する車両用制御システムであって、
前記車両の周囲を囲うように前記車両に設けられる複数の第1カメラと、
前記車両の周囲を囲うように前記車両に設けられる複数の第2カメラと、
前記複数の第1カメラの出力および前記複数の第2カメラの出力の両方に基づいて前記車両の走行制御のための制御信号を出力する第1動作と、前記複数の第1カメラの出力に基づいて前記制御信号を出力する第2動作と、前記複数の第2カメラの出力に基づいて前記制御信号を出力する第3動作とを行う制御部とを備える
ことを特徴とする車両用制御システム。 - 請求項1において、
前記制御部は、
前記複数の第1カメラを含む第1信号系統および前記複数の第2カメラを含む第2信号系統の両方に異常が発生していない場合に、前記第1動作を行い、
前記第1信号系統および前記第2信号系統のうち前記第2信号系統に異常が発生している場合に、前記第2動作を行い、
前記第1信号系統および前記第2信号系統のうち前記第1信号系統に異常が発生している場合に、前記第3動作を行う
ことを特徴とする車両用制御システム。 - 請求項1または2において、
前記複数の第1カメラは、前記車両の前方を撮像する第1前方カメラと、前記車両の斜め右後方を撮像する第1斜め右後方カメラと、前記車両の斜め左後方を撮像する第1斜め左後方カメラとを含み、
前記複数の第2カメラは、前記車両の前方を撮像する第2前方カメラと、前記車両の斜め右後方を撮像する第2斜め右後方カメラと、前記車両の斜め左後方を撮像する第2斜め左後方カメラとを含む
ことを特徴とする車両用制御システム。 - 請求項1〜3のいずれか1つにおいて、
前記制御部は、
前記複数の第1カメラの出力に基づいて前記車両の外部環境を認識する認識処理を行う第1認識処理ICユニットと、前記複数の第2カメラの出力に基づいて前記認識処理を行う第2認識処理ICユニットとを有し、
前記第1動作では、前記第1認識処理ICユニットの認識処理の結果および前記第2認識処理ICユニットの認識処理の結果の両方に基づいて前記制御信号を出力し、
前記第2動作では、前記第1認識処理ICユニットの認識処理の結果に基づいて前記制御信号を出力し、
前記第3動作では、前記第2認識処理ICユニットの認識処理の結果に基づいて前記制御信号を出力する
ことを特徴とする車両用制御システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020018014A JP2021123234A (ja) | 2020-02-05 | 2020-02-05 | 車両用制御システム |
CN202110096172.3A CN113291289B (zh) | 2020-02-05 | 2021-01-25 | 车辆用控制系统 |
EP21153702.2A EP3862240B1 (en) | 2020-02-05 | 2021-01-27 | Vehicle control system |
US17/159,178 US20210241001A1 (en) | 2020-02-05 | 2021-01-27 | Vehicle control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020018014A JP2021123234A (ja) | 2020-02-05 | 2020-02-05 | 車両用制御システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021123234A true JP2021123234A (ja) | 2021-08-30 |
Family
ID=74285372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020018014A Pending JP2021123234A (ja) | 2020-02-05 | 2020-02-05 | 車両用制御システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210241001A1 (ja) |
EP (1) | EP3862240B1 (ja) |
JP (1) | JP2021123234A (ja) |
CN (1) | CN113291289B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230159041A1 (en) * | 2021-11-23 | 2023-05-25 | Tusimple, Inc. | Vehicle safety system for autonomous vehicles |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008269494A (ja) * | 2007-04-24 | 2008-11-06 | Auto Network Gijutsu Kenkyusho:Kk | 車載撮像システム |
JP2019034664A (ja) * | 2017-08-18 | 2019-03-07 | ソニーセミコンダクタソリューションズ株式会社 | 制御装置および制御システム |
JP2019174168A (ja) * | 2018-03-27 | 2019-10-10 | パナソニックIpマネジメント株式会社 | 制御装置、車両、制御方法および制御プログラム |
JP2020053950A (ja) * | 2018-09-28 | 2020-04-02 | 株式会社Subaru | 車両用ステレオカメラ装置 |
JP2020173744A (ja) * | 2019-04-15 | 2020-10-22 | 株式会社日立製作所 | 機械学習を用いた画像処理方式,およびそれを用いた電子制御装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1116099A (ja) | 1997-06-27 | 1999-01-22 | Hitachi Ltd | 自動車走行支援装置 |
CN202169907U (zh) * | 2011-07-29 | 2012-03-21 | 富士重工业株式会社 | 车外环境识别装置 |
JP6381066B2 (ja) * | 2013-12-27 | 2018-08-29 | 株式会社Subaru | 車両のレーンキープ制御装置 |
JP6137081B2 (ja) * | 2014-07-29 | 2017-05-31 | 株式会社デンソー | 車載機器 |
US9829884B1 (en) * | 2016-05-10 | 2017-11-28 | Dura Operating, Llc | Scalable driver assistance system |
CN106708040B (zh) * | 2016-12-09 | 2019-10-08 | 重庆长安汽车股份有限公司 | 自动驾驶系统的传感器模块、自动驾驶系统及方法 |
JP6990137B2 (ja) * | 2018-03-28 | 2022-01-12 | 本田技研工業株式会社 | 車両制御装置 |
-
2020
- 2020-02-05 JP JP2020018014A patent/JP2021123234A/ja active Pending
-
2021
- 2021-01-25 CN CN202110096172.3A patent/CN113291289B/zh active Active
- 2021-01-27 US US17/159,178 patent/US20210241001A1/en active Pending
- 2021-01-27 EP EP21153702.2A patent/EP3862240B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008269494A (ja) * | 2007-04-24 | 2008-11-06 | Auto Network Gijutsu Kenkyusho:Kk | 車載撮像システム |
JP2019034664A (ja) * | 2017-08-18 | 2019-03-07 | ソニーセミコンダクタソリューションズ株式会社 | 制御装置および制御システム |
JP2019174168A (ja) * | 2018-03-27 | 2019-10-10 | パナソニックIpマネジメント株式会社 | 制御装置、車両、制御方法および制御プログラム |
JP2020053950A (ja) * | 2018-09-28 | 2020-04-02 | 株式会社Subaru | 車両用ステレオカメラ装置 |
JP2020173744A (ja) * | 2019-04-15 | 2020-10-22 | 株式会社日立製作所 | 機械学習を用いた画像処理方式,およびそれを用いた電子制御装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113291289A (zh) | 2021-08-24 |
EP3862240A1 (en) | 2021-08-11 |
EP3862240B1 (en) | 2024-05-15 |
CN113291289B (zh) | 2023-12-05 |
US20210241001A1 (en) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11467596B2 (en) | Target abnormality determination device | |
WO2020184297A1 (ja) | 自動車用演算システム | |
JP7425615B2 (ja) | 車両用制御システム | |
JP7330911B2 (ja) | 車両用制御装置 | |
CN113291289B (zh) | 车辆用控制系统 | |
JP7363118B2 (ja) | 外部環境認識装置 | |
JP2020142766A (ja) | 自動車用演算装置 | |
JP7296899B2 (ja) | 車両用制御装置 | |
JP7288409B2 (ja) | 車両用制御装置 | |
JP7298323B2 (ja) | 外部環境認識装置 | |
JP2021060661A (ja) | 認識装置、認識方法、およびプログラム | |
WO2020250527A1 (ja) | 外部環境認識装置 | |
US11451765B2 (en) | System and method for determining when a sensor is polluted | |
Li et al. | Study on Interaction Behaviors of Micro-autonomous Vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240304 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240402 |