JP7370495B2 - 制御装置および制御方法 - Google Patents
制御装置および制御方法 Download PDFInfo
- Publication number
- JP7370495B2 JP7370495B2 JP2023508147A JP2023508147A JP7370495B2 JP 7370495 B2 JP7370495 B2 JP 7370495B2 JP 2023508147 A JP2023508147 A JP 2023508147A JP 2023508147 A JP2023508147 A JP 2023508147A JP 7370495 B2 JP7370495 B2 JP 7370495B2
- Authority
- JP
- Japan
- Prior art keywords
- control
- control amount
- target
- unit
- surrounding situation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000001514 detection method Methods 0.000 claims description 77
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 239000000203 mixture Substances 0.000 description 15
- 238000010801 machine learning Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 3
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
- B60W10/06—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
- B60W10/184—Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/20—Data confidence level
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
Description
一方、機械学習については、当該機械学習の精度が、アルゴリズムに加えて学習データの量または品質に大きく依存するため、従来、学習データに対する工夫がなされてきた。例えば、特許文献1には、多層ニューラルネットワークで作成されたモデルの作成に使用された入力項目が出力結果に与える寄与度を算出し、高寄与度の入力項目に基づいて高寄与度項目データセットを生成する技術が開示されている。
したがって、特許文献1に開示されているような技術に代表される従来技術により学習データ等を改善しても、当該学習データ等を用いて作成された機械学習モデルに基づく、実際の制御量の推論時における推論結果が、妥当である、言い換えれば、信頼するに足る推論結果である保証はないという課題があった。
実施の形態1.
実施の形態1に係る制御装置は、制御対象機器の制御を行うための制御量を推論する。
実施の形態1において、制御対象機器は、自動運転可能な車両を想定している。制御装置は、自動運転可能な車両における自動運転制御を行う。具体的には、制御装置は、車両のハンドル制御、スロットル制御、および、ブレーキ制御を行うことで、車両における自動運転制御を行うことを想定している。よって、実施の形態1において、制御装置が推論する、制御装置が車両の自動運転制御を行うための制御量は、ハンドル操舵角、スロットル開度、および、ブレーキ量を想定している。
以下の実施の形態1において、制御装置が推論するハンドル操舵角、スロットル開度、および、ブレーキ量を、まとめて「車両の制御量」ともいう。
制御装置は、推論した車両の制御量に基づいて車両のハンドル制御、スロットル制御、および、ブレーキ制御を行うことで、車両の加減速および操舵を調整する。
制御装置1は、車両100に搭載される。
制御装置1は、カメラ2、レーダ3、制御決定部15と接続される。制御決定部15は、アクチュエータ16と接続される。
カメラ2、レーダ3、制御決定部15、および、アクチュエータ16は、車両100に搭載される。
図1では、制御決定部15は、制御装置1の外部に備えられているが、制御決定部15は、制御装置1に備えられてもよい。図1に示すように、制御決定部15が制御装置1の外部に備えられる場合、例えば、制御決定部15は、車両100に搭載され、車両100の運転制御を行う自動運転制御装置(図示省略)に備えられる。
なお、カメラ2の撮像範囲と、レーダ3の物標検出範囲は重複していることを前提とする。
レーダ3は、検出した物標までの距離を示す情報(以下「距離情報」という。)を、制御装置1に出力する。距離情報には、車両100と物標との距離、および、車両100から見た物標の位置および角度に関する情報が含まれる。
実施の形態1において、物標とは、車両100の制御に影響を与え得る物体をいう。具体的には、実施の形態1において、物標とは、歩行者、自転車、または、他車両等の他の交通参加者、道路、道路標示、道路標識、信号、または、看板等をいう。物標は、車両100の制御内容に応じて予め決められている。
制御装置1は、推論した車両100の制御量、および、当該制御量の信頼度に関する情報を、制御決定部15に出力する。制御決定部15およびアクチュエータ16の詳細については、後述する。
具体的には、周辺状況取得部11の撮像画像取得部111は、カメラ2から、車両100の周辺を撮像した撮像画像を取得する。周辺状況取得部11の距離情報取得部112は、レーダ3から、車両100の周辺に存在する物標までの距離情報を取得する。
周辺状況取得部11は取得した周辺状況情報を制御量推論部12および物標検出部13に出力する。なお、ここでは、周辺状況取得部11は、制御量推論部12に対して周辺状況情報を出力するものとするが、これに限らず、周辺状況取得部11は、少なくとも、撮像画像取得部111が取得した撮像画像を、制御量推論部12に出力すればよい。
より詳細には、制御量推論部12は、周辺状況取得部11が取得した周辺状況情報に含まれる撮像画像に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報を取得する。
図2に示すように、制御量推論部12は、制御量推論ネットワーク120を保持する。
制御量推論ネットワーク120は、周辺状況取得部11から出力された周辺状況情報に含まれる撮像画像を入力とし、車両100の制御量を出力するニューラルネットワークで構成される。すなわち、制御量推論ネットワーク120は、撮像画像を入力とし、車両100の制御量を出力する機械学習モデルである。
制御量推論ネットワーク120は、入力層121で撮像画像を受け取り、畳み込み層122で当該撮像画像に対して畳み込み処理を行う。アテンション層123は、入力された撮像画像における着目領域をあらわす着目領域情報を有しており、制御量推論ネットワーク120は、当該アテンション層123のパラメータと、畳み込み層122の畳み込み結果とに基づき、特徴量生成層124で生成された潜在的な特徴量を抽出する。制御量推論ネットワーク120は、全結合層125で、特徴量生成層124で生成された潜在的な特徴量に対して車両100の制御量を推論する。そして、制御量推論ネットワーク120は、出力層126で、推論した車両100の制御量の出力を行う。
すなわち、制御量推論ネットワーク120が出力する車両100の制御量が適切な制御量である場合、アテンション層123が着目する着目領域は、適切な制御量を抽出するのに有用な領域であるといえる。なお、逆に、制御量推論ネットワーク120が出力する車両100の制御量が適切な制御量でない場合、アテンション層123が着目する着目領域は、適切な制御量を抽出するのに有用な領域ではないといえる。例えば、制御量推論ネットワーク120に未知の撮像画像が入力された場合、アテンション層123は、適切な車両100の制御量を抽出するのに有用な着目領域をあらわす着目領域情報を有しておらず、制御量推論ネットワーク120は適切な車両100の制御量を出力できない。
制御量推論部12は、推論した車両100の制御量に関する情報を制御決定部15に出力する。また、制御量推論部12は、取得した着目領域情報を、信頼度判定部14に出力する。
実施の形態1において、撮像画像における物標の位置は、撮像画像上の画素であらわされる。物標検出部13は、撮像画像において物標がうつっている範囲を物標の位置とし、当該範囲に含まれている画素を、物標の位置を示す情報として検出する。
具体的には、信頼度判定部14は、物標検出部13から出力された物標位置情報に基づき着目領域と物標位置の比較を行い、着目領域と物標位置との一致度を算出し、算出した一致度に応じて、制御量推論部12が推論した車両100の制御量の信頼度を判定する。
一方、上述のとおり、制御量推論ネットワーク120が出力する車両100の制御量が適切な制御量である場合、アテンション層123が着目する着目領域は、適切な制御量を抽出するのに有用な領域であるといえる。
そこで、制御装置1において、信頼度判定部14は、着目領域が物標位置と一致しているか否か、言い換えれば、制御量推論ネットワーク120が車両100の制御量の推論の際に物標に着目できているか否かによって、当該制御量推論ネットワーク120から出力される車両100の制御量の信頼度を判定する。
例えば、信頼度判定部14は、着目領域と物標位置との一致度を、着目領域と物標位置の重複度合いに基づいて算出する。また、例えば、信頼度判定部14は、着目領域と物標位置との一致度を、撮像画像の画素単位で、着目領域および物標位置のいずれにも含まれているか否かを判定した結果に基づいて算出してもよい。また、例えば、信頼度判定部14は、着目領域情報と物標位置情報とを入力とし、着目領域と物標位置との一致度を出力するニューラルネットワークを用いて、当該一致度を取得してもよい。なお、この場合のニューラルネットワークは、予め構築されているものとする。
具体例を挙げると、例えば、信頼度判定部14は、算出した一致度が、予め設定されている閾値(以下「一致度判定用閾値」という。)以上の場合、信頼度は「高い」とする。一方、信頼度判定部14は、算出した一致度が一致度判定用閾値未満の場合、信頼度は「低い」とする。
また、例えば、信頼度判定部14は、算出した一致度を分類分けし、分類分けされた分類によって、信頼度を判定するようにしてもよい。例えば、一致度が0~100であらわされ、信頼度は0~1の数値であらわされるとすると、信頼度判定部14は、一致度が0~20の場合は信頼度「0.2」、一致度が21~40の場合は信頼度「0.4」、一致度が41~60の場合は信頼度「0.6」、一致度が61~80の場合は信頼度「0.8」、一致度が81~100の場合は信頼度「1」というように、信頼度を判定してもよい。
例えば、制御決定部15は、信頼度判定部14から出力された信頼度と、予め設定されている閾値(以下「信頼度判定用閾値」という。)との比較によって、制御量推論部12が推論した車両100の制御量を採用するか否かを決定する。例えば、制御決定部15は、信頼度判定部14が判定した信頼度が信頼度判定用閾値を超えている場合、制御量推論部12が推論した車両100の制御量を採用すると決定する。一方、制御決定部15は、信頼度判定部14が判定した信頼度が信頼度判定用閾値以下である場合、制御量推論部12が推論した車両100の制御量を採用しないと決定する。
一方、制御決定部15は、制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用しないと決定した場合、例えば、車両100を自動運転から手動運転に切り替える。
例えば、制御決定部15は、信頼度判定部14から出力された信頼度に基づいて、制御量推論部12が推論した車両100の制御量と、制御量推論部12とは別の制御量推論手段における制御量とを混ぜ合わせた制御量(以下「混合制御量」という。)を算出し、混合制御量をアクチュエータ16に出力することもできる。なお、この一例では、制御装置1は、車両100の制御量を推論する手段として、制御量推論部12とは別の制御量推論手段を備えていることを前提としている。制御量推論部12とは別の制御量推論手段は、適宜の手段とすることができ、例えば、制御装置1とは別の車載装置である。また、例えば、手動運転を制御量推論部12とは別の制御量推論手段としてもよい。
制御決定部15は、例えば、重み付き平均手法を用いて、信頼度判定部14から出力された信頼度に基づき、混合制御量を算出する。
制御決定部15が混合制御量を算出する方法について、具体例を挙げて説明する。なお、以下の具体例の説明では、制御量推論部12とは別の制御量推論手段を、「代替制御」という。
例えば、制御量推論部12が推論した車両100の制御量として、「アクセル:60%、ブレーキ:0%、ステアリング:0°」が得られたとする。
一方、代替制御では、車両100の制御量として、「アクセル:70%、ブレーキ:0%、ステアリング:20°」が得られたとする。
また、信頼度判定部14から出力された信頼度は、「0.9」だったとする。
この場合、制御決定部15は、アクセルの混合制御量を、以下の計算式によって、「61%」と算出する。
60×0.9+70×(1-0.9)=61
また、制御決定部15は、ブレーキの混合制御量を、以下の計算式によって、「0%」と算出する。
0×0.9+0×(1-0.9)=0
また、制御決定部15は、ステアリングの混合制御量を、以下の計算式によって、「2°」と算出する。
0×0.9+20×(1-0.9)=2
そして、制御決定部15は、車両100の制御量として、混合制御量「アクセル:61%、ブレーキ:0%、ステアリング:2°」を、アクチュエータ16に出力する。
例えば、制御量推論部12が推論した車両100の制御量として、<具体例1>同様、「アクセル:60%、ブレーキ:0%、ステアリング:0°」が得られたとする。
また、代替制御でも、車両100の制御量として、<具体例1>同様、「アクセル:70%、ブレーキ:0%、ステアリング:20°」が得られたとする。
しかし、信頼度判定部14から出力された信頼度は、「0.1」だったとする。
この場合、制御決定部15は、車両100の制御量として、混合制御量「アクセル:69%、ブレーキ:0%、ステアリング:18°」を算出する。
なお、アクセルの混合制御量、ブレーキの混合制御量、および、ステアリングの混合制御量の計算に用いる計算式は、それぞれ、<具体例1>におけるアクセルの混合制御量、ブレーキの混合制御量、および、ステアリングの混合制御量の計算に用いる計算式と同様であるため重複した説明を省略する。
そして、制御決定部15は、混合制御量「アクセル:69%、ブレーキ:0%、ステアリング:18°」を、アクチュエータ16に出力する。
一方、<具体例2>のように、信頼度判定部14から出力された信頼度が低い場合、すなわち、制御量推論部12が推論した車両100の制御量の信頼度が低いといえる場合、制御決定部15は、混合制御量として、代替制御による制御量に近い制御量を算出し、アクチュエータ16に出力することになる。
このように、制御決定部15は、制御量推論部12が推論した車両100の制御量について、信頼度判定部14から出力された信頼度に応じて、実際にどれぐらい採用するかを調整することができる。
そこで、<具体例1>および<具体例2>のように、信頼度判定部14から出力された信頼度に基づいて、制御量推論部12が推論した車両100の制御量と、制御量推論部12とは別の制御量推論手段における制御量とを混ぜ合わせた混合制御量を算出可能とすることで、制御決定部15は、制御量推論部12が推論した車両100の制御量を、その信頼度に応じた分だけ、アクチュエータ16に出力する車両100の制御量として採用することができる。
図3は、実施の形態1に係る制御装置1の動作を説明するためのフローチャートである。
なお、図3に示す制御装置1の動作は、制御決定部15を備えた場合の制御装置1の動作としている。制御装置1は、図3のフローチャートに示す動作を、例えば、車両100が自動運転中、繰り返し行う。
具体的には、周辺状況取得部11の撮像画像取得部111は、カメラ2から、車両100の周辺を撮像した撮像画像を取得する。周辺状況取得部11の距離情報取得部112は、レーダ3から、車両100の周辺に存在する物標までの距離情報を取得する。
周辺状況取得部11は取得した周辺状況情報を制御量推論部12および物標検出部13に出力する。
より詳細には、制御量推論部12は、周辺状況取得部11が取得した周辺状況情報に含まれる撮像画像に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報を取得する。
制御量推論部12は、推論した車両100の制御量に関する情報を制御決定部15に出力する。また、制御量推論部12は、取得した着目領域情報を、信頼度判定部14に出力する。
物標検出部13は、検出した物標の位置に関する物標位置情報を、信頼度判定部14に出力する。
信頼度判定部14は、判定した信頼度を、制御決定部15に出力する。
制御決定部15は、制御量推論部12が推論した車両100の制御量を当該車両100の制御量として採用すると決定した場合、制御量推論部12が推論した車両100の制御量に関する情報を、アクチュエータ16に出力する。
アクチュエータ16は、制御決定部15から出力された車両100の制御量に関する情報に基づき、車両100の制御を行う。
一方、制御決定部15は、制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用しないと決定した場合、例えば、車両100を自動運転から手動運転に切り替える。
このように、制御装置1は、制御量推論ネットワーク120に撮像画像を入力して車両100の制御量を推論する際に取得した着目領域情報と、当該撮像画像に基づく物標位置情報とに基づいて、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
制御装置1が、推論した制御量とともに、判定した当該制御量の信頼度を出力することで、制御決定部15は、例えば、信頼度が低い制御量、言い換えれば、制御量推論ネットワーク120の学習が不完全である可能性がある入力に対して推論された制御量が、車両100の制御に用いられないようにすることができる。
つまり、制御装置1は、信頼度を判定することなく制御量を出力する場合に比べ、より適切な車両100の制御量の出力を行うことができる。
これに限らず、制御量推論部12は、車両100の周辺に存在する物標との距離および角度を示す情報(以下「点群データ」という。)に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、点群データにおける着目領域に関する着目領域情報を取得してもよい。この場合、物標検出部13は、物標の位置を、点群データに基づく実空間上の位置として検出する。
この場合、制御装置1は、カメラ2およびレーダ3に代えて、LiDAR(図示省略)と接続される。なお、LiDARは車両100に搭載されている。LiDARは、上記点群データを制御装置1に出力する。制御装置1の周辺状況取得部11は、LiDARから出力された点群データを、周辺状況情報として取得する。
なお、この場合、周辺状況取得部11は、撮像画像取得部111および距離情報取得部112を備えない構成とできる。
このように、制御装置1において、周辺状況情報は、車両100と当該車両100の周辺に存在する物標との距離および角度を示す点群データを含み、制御量推論部12は、点群データに基づき、車両100の制御量を推論するとともに、当該制御量を推論する際に用いた、点群データにおける着目領域に関する着目領域情報を取得するようにしても、制御装置1は、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
制御装置1は制御決定部15を備えているものとして、制御装置1のハードウェア構成の一例を説明する。
実施の形態1において、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15の機能は、処理回路401により実現される。すなわち、制御装置1は、車両100を制御するための制御量を推論し、推論した制御量の信頼度を判定する制御を行うための処理回路401を備える。
処理回路401は、図4Aに示すように専用のハードウェアであっても、図4Bに示すようにメモリに格納されるプログラムを実行するプロセッサ404であってもよい。
また、制御装置1は、カメラ2、レーダ3、アクチュエータ16、または、LiDAR等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
これに限らず、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15のうち、一部が車両100の車載装置に備えられ、その他は当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとで制御システムを構成してもよい。
制御装置1は、種々の機器の制御を行うことができる。具体的には、制御装置1は、例えば、産業用ロボット、無人搬送車、または、航空機を、制御対象機器とすることもできる。
実施の形態1では、制御装置は、制御対象機器の制御量の推論、および、着目領域情報の取得を行うにあたり、制御対象機器の制御内容を考慮していなかった。
実施の形態2では、制御装置が、制御対象機器の制御内容を考慮して、当該制御対象機器の制御量の推論および着目領域情報の取得を行う実施の形態について説明する。
制御装置1aは、車両100aに搭載される。
実施の形態2において、車両100aには、シナリオ指示装置4が搭載されており、制御装置1aはシナリオ指示装置4と接続される。
シナリオ指示装置4は、例えば、タッチパネル式のディスプレイである。シナリオ指示装置4は、車両100aの自動運転制御のための制御シナリオを受け付け、受け付けた制御シナリオに関する情報(以下「制御シナリオ情報」という。)を、制御装置1aに出力する。実施の形態2において、制御シナリオは、制御対象機器の制御内容を示す。より詳細には、制御シナリオは、制御対象機器に対して実現させようとする動作を示す。すなわち、ここでは、制御シナリオは、車両100aに対して実現させようとする動作を示す。具体例を挙げると、制御シナリオは、例えば、「先行車両への追従」、「交差点の右折」、または、「路肩への停車」である。
例えば、車両100aの乗員は、シナリオ指示装置4をタッチする等して操作し、シナリオ指示装置4から制御シナリオを入力し、当該制御シナリオを指定する。シナリオ指示装置4は、乗員によって入力された制御シナリオを受け付ける。そして、シナリオ指示装置4は、制御シナリオ情報を制御装置1aに出力する。制御シナリオ情報には、指定された制御シナリオを特定可能な情報が含まれる。
制御装置1aは、実施の形態1に係る制御装置1とは、シナリオ取得部17を備えた点が異なる。また、制御装置1aは、実施の形態1に係る制御装置1とは、制御量推論部12aの詳細な構成が異なる。また、制御装置1aは、実施の形態1に係る制御装置1とは、物標検出部13aの具体的な動作が異なる。また、制御装置1aは、実施の形態1に係る制御装置1とは、着目物標データベース18を備える点が異なる。
なお、図5では、着目物標データベース18は制御装置1aに備えられているが、これは一例に過ぎない。着目物標データベース18は、制御装置1aの外部の、制御装置1aが参照可能な場所に備えられてもよい。
シナリオ取得部17は、取得した制御シナリオ情報を、制御量推論部12aおよび物標検出部13aに出力する。
実施の形態2に係る制御量推論部12aの構成について、実施の形態1にて図2を用いて説明した制御量推論部12と同様の構成には、同じ符号を付して重複した説明を省略する。
制御量推論部12aは、実施の形態1の制御量推論部12とは、モデル選択部127およびパラメータデータベース128を備える点が異なる。
パラメータデータベース128は、制御シナリオと、当該制御シナリオに対応するパラメータとが対応付けられた情報(以下「パラメータ情報」という。)を記憶している。
モデル選択部127は、制御シナリオ情報から特定した制御シナリオと、パラメータ情報の制御シナリオとのつきあわせを行って、制御シナリオに対応するパラメータを決定する。
すなわち、制御量推論部12aは、モデル選択部127が制御シナリオに基づいてパラメータを設定した制御量推論ネットワーク120を用いて、周辺状況取得部11が取得した周辺状況情報、より詳細には撮像画像取得部111によって取得された車両100aの周辺の撮像画像に基づく車両100aの制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報、言い換えれば、アテンション層123が有する着目領域情報を、制御量推論ネットワーク120から取得する。
これにより、制御量推論部12aは、制御シナリオに応じた車両100aの制御量の推論、および、制御シナリオに応じた着目領域情報の取得を行うことができる。つまり、制御量推論部12aは、与えられた制御シナリオに特化した車両100aの制御量の推論、および、着目領域情報の取得を行うことができる。
実施の形態2において、撮像画像における物標の位置は、撮像画像上の画素であらわされる。物標検出部13aは、撮像画像において物標がうつっている範囲を物標の位置とし、当該範囲に含まれている画素を、物標の位置を示す情報として検出する。
物標検出部13aが撮像画像における物標の位置を検出する方法は、実施の形態1にて説明した、物標検出部13が撮像画像における物標の位置を検出する方法と同様の方法とすればよいため、重複した説明を省略する。
ただし、実施の形態1において物標検出部13が予め設定されている全ての物標を、位置を検出する対象としていたのに対し、実施の形態2では、物標検出部13aは、シナリオ取得部17が取得した制御シナリオ情報に基づいて、検出対象とする物標の絞り込みを行う。具体的には、物標検出部13aは、着目物標データベース18を参照して、予め設定されている物標のうち、位置を検出する対象とする物標(以下「検出対象物標」という。)の絞り込みを行う。物標検出部13aは、検出対象物標の位置を検出する。
ここで、図7は、実施の形態2において、着目物標データベース18が保持するシナリオ別物標情報の内容の一例のイメージを示す図である。なお、ここでは、予め、物標として、自動車、車線、標識、および、信号が設定されているとする。
図7に示すシナリオ別物標情報によれば、例えば、制御シナリオが「先行車への追従」である場合、全ての物標(自動車、車線、標識、および、信号)が検出対象物標であり、全ての物標を、全領域で着目すべきということになる。また、図7に示すシナリオ別物標情報によれば、例えば、制御シナリオが「交差点の右折」である場合、全ての物標が検出対象物標であるが、検出対象物標のうち、自動車については車両100aの右側を走行する車両および対向車に着目し、車線については車両100aの右側の車線に注目すべきということになる。また、図7に示すシナリオ別物標情報によれば、例えば、制御シナリオが「停車」である場合、自動車および信号は検出対象物標とはしないことになる。
物標検出部13aは、着目物標データベース18を参照して、検出対象物標を絞り込んだ上で、絞り込んだ検出対象物標の位置を検出する。
図8は、実施の形態2に係る制御装置1aの動作を説明するためのフローチャートである。
なお、図8に示す制御装置1aの動作は、制御決定部15を備えた場合の制御装置1aの動作としている。制御装置1aは、図8のフローチャートに示す動作を、例えば、車両100aが自動運転中、繰り返し行う。
図8において、ステップST11、ステップST17、および、ステップST18の具体的な動作は、それぞれ、実施の形態1にて説明済みの、図3のステップST1、ステップST4、および、ステップST5の具体的な動作と同様であるため、重複した説明を省略する。
シナリオ取得部17は、取得した制御シナリオ情報を、制御量推論部12aおよび物標検出部13aに出力する。
なお、ステップST13が1回目に実行される場合は、それより前に使用していた制御シナリオがないため、モデル選択部127は、制御シナリオはこれまで使用していた制御シナリオと異なると判定する。そして、制御装置1aの動作はステップST15に進む。
制御量推論部12aは、推論した、制御シナリオに応じた車両100aの制御量に関する情報を、制御決定部15に出力する。また、制御量推論部12aは、取得した、制御シナリオに応じた着目領域情報を、信頼度判定部14に出力する。
具体的には、物標検出部13aは、着目物標データベース18を参照して、検出対象物標を絞り込んだ上で、絞り込んだ検出対象物標の位置を検出する。
物標検出部13aは、検出した物標の位置に関する物標位置情報、より詳細には、検出した検出対象物標の位置に関する物標位置情報を、信頼度判定部14に出力する。
制御量推論ネットワーク120は、制御シナリオに特化して学習するため、制御量推論ネットワーク120の学習が容易となる。
制御シナリオが設定される場合、各制御量推論ネットワーク120はいかなる状況下でも全ての物標に対して着目する必要はなく、制御シナリオに応じた物標に着目できていればよい。そこで、制御装置1aは、制御シナリオに応じて検出対象物標の絞り込みを行った上で当該検出対象物標の位置を検出する。これにより、制御装置1aは、制御シナリオごとに制御量推論ネットワーク120が構成される場合であっても、着目領域と物標位置の比較を行い、制御量推論ネットワーク120が車両100aの制御量の推論の際に物標に着目しているかによって、当該制御量推論ネットワーク120から出力される車両100aの制御量の信頼度の判定を行うことができる。
そして、制御装置1aが、推論した制御量とともに、判定した当該制御量の信頼度を出力することで、制御決定部15は、例えば、信頼度が低い制御量、言い換えれば、制御量推論ネットワーク120の学習が不完全である可能性がある入力に対して推論された制御量が、車両100aの制御に用いられないようにすることができる。
つまり、制御装置1aは、信頼度を判定することなく制御量を出力する場合に比べ、より適切な車両100aの制御量の出力を行うことができる。
これに限らず、制御量推論部12aは、車両100aの周辺に存在する物標との距離および角度を示す点群データに基づき、車両100aの制御量を推論するとともに、当該制御量を推論する際の、点群データにおける着目領域に関する着目領域情報を取得してもよい。この場合、物標検出部13aは、物標の位置を、点群データに基づく実空間上の位置として検出する。
この場合、制御装置1aは、カメラ2およびレーダ3に代えて、LiDAR(図示省略)と接続される。なお、LiDARは車両100aに搭載されている。LiDARは、上記点群データを制御装置1aに出力する。制御装置1aの周辺状況取得部11は、LiDARから出力された点群データを、周辺状況情報として取得する。
なお、この場合、周辺状況取得部11は、撮像画像取得部111および距離情報取得部112を備えない構成とできる。
このように、制御装置1aにおいて、周辺状況情報は、車両100aと当該車両100aの周辺に存在する物標との距離および角度を示す点群データを含み、制御量推論部12aは、点群データに基づき、車両100aの制御量を推論するとともに、当該制御量を推論する際に用いた、点群データにおける着目領域に関する着目領域情報を取得するようにしても、制御装置1aは、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
実施の形態2において、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17の機能は、処理回路401により実現される。すなわち、制御装置1aは、制御シナリオに応じて、車両100aを制御するための制御量を推論し、推論した制御量の信頼度を判定する制御を行うための処理回路401を備える。
処理回路がプロセッサ404の場合、制御装置1aは、メモリ405に記憶されたプログラムを読み出して実行することにより、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17の機能を実行する。すなわち、制御装置1aは、処理回路により実行されるときに、上述の図8のステップST11~ステップST18が結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17の手順または方法をコンピュータに実行させるものであるとも言える。
着目物標データベース18は、例えば、メモリ405で構成される。
また、制御装置1aは、カメラ2、レーダ3、シナリオ指示装置4、アクチュエータ16、または、LiDAR等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
これに限らず、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17のうち、一部が車両100aの車載装置に備えられ、その他は当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとで制御システムを構成してもよい。
Claims (8)
- 制御対象機器の周辺の状況に関する周辺状況情報を取得する周辺状況取得部と、
前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の制御量を推論するとともに、前記制御量を推論する際に用いた、前記周辺状況情報における着目領域に関する着目領域情報を取得する制御量推論部と、
前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の周辺に存在する物標の位置を検出する物標検出部と、
前記制御量推論部が取得した前記着目領域情報と、前記物標検出部が検出した前記物標の位置に関する物標位置情報とに基づき、前記着目領域と物標位置の比較を行い、前記着目領域と前記物標位置との一致度を算出し、算出した前記一致度に応じて、前記制御量推論部が推論した前記制御量の信頼度を判定する信頼度判定部
とを備えた制御装置。 - 前記制御量推論部は、学習済みのニューラルネットワークを用いて、前記制御量を推論するとともに前記着目領域情報を取得する
ことを特徴とする請求項1記載の制御装置。 - 前記信頼度判定部が判定した前記制御量の前記信頼度に基づき、前記制御量推論部が推論した前記制御量を前記制御対象機器の前記制御量として採用するか否かを決定する制御決定部を備えた
ことを特徴とする請求項1記載の制御装置。 - 前記周辺状況情報は、前記制御対象機器の周辺を撮像した撮像画像を含み、
前記制御量推論部は、前記撮像画像に基づき、前記制御対象機器の前記制御量を推論するとともに、当該制御量を推論する際に用いた、前記撮像画像における前記着目領域に関する前記着目領域情報を取得する
ことを特徴とする請求項1記載の制御装置。 - 前記周辺状況情報は、前記制御対象機器と前記制御対象機器の周辺に存在する前記物標との距離および角度を示す点群データを含み、
前記制御量推論部は、前記点群データに基づき、前記制御対象機器の前記制御量を推論するとともに、当該制御量を推論する際に用いた、前記点群データにおける前記着目領域に関する前記着目領域情報を取得する
ことを特徴とする請求項1記載の制御装置。 - 前記物標検出部は、前記物標の一部の位置を、前記物標の位置として検出する
ことを特徴とする請求項1記載の制御装置。 - 前記制御対象機器の制御内容を示す制御シナリオが指定された制御シナリオ情報を取得するシナリオ取得部を備え、
前記制御量推論部は、前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記シナリオ取得部が取得した前記制御シナリオ情報に基づいてパラメータが設定された前記ニューラルネットワークを用いて、前記制御対象機器の前記制御量を推論するとともに前記着目領域情報を取得し、
前記物標検出部は、前記周辺状況取得部が取得した前記周辺状況情報と、前記シナリオ取得部が取得した前記制御シナリオ情報に基づいて、前記物標の位置を検出する
ことを特徴とする請求項2記載の制御装置。 - 周辺状況取得部が、制御対象機器の周辺の状況に関する周辺状況情報を取得するステップと、
制御量推論部が、前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の制御量を推論するとともに、前記制御量を推論する際に用いた、前記周辺状況情報における着目領域に関する着目領域情報を取得するステップと、
物標検出部が、前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の周辺に存在する物標の位置を検出するステップと、
信頼度判定部が、前記制御量推論部が取得した前記着目領域情報と、前記物標検出部が検出した前記物標の位置に関する物標位置情報とに基づき、前記着目領域と物標位置の比較を行い、前記着目領域と前記物標位置との一致度を算出し、算出した前記一致度に応じて、前記制御量推論部が推論した前記制御量の信頼度を判定するステップ
とを備えた制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/011618 WO2022201222A1 (ja) | 2021-03-22 | 2021-03-22 | 制御装置および制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022201222A1 JPWO2022201222A1 (ja) | 2022-09-29 |
JP7370495B2 true JP7370495B2 (ja) | 2023-10-27 |
Family
ID=83395366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023508147A Active JP7370495B2 (ja) | 2021-03-22 | 2021-03-22 | 制御装置および制御方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240067189A1 (ja) |
JP (1) | JP7370495B2 (ja) |
CN (1) | CN116963951A (ja) |
DE (1) | DE112021007341T5 (ja) |
WO (1) | WO2022201222A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017105453A (ja) | 2015-12-08 | 2017-06-15 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 自動車の運転支援機能を検証する方法 |
JP2017220197A (ja) | 2016-06-12 | 2017-12-14 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 車両制御方法と装置及び判断モジュールの獲得方法と装置 |
JP2019501435A (ja) | 2016-08-29 | 2019-01-17 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム |
WO2021044486A1 (ja) | 2019-09-02 | 2021-03-11 | 三菱電機株式会社 | 自動運転制御装置および自動運転制御方法 |
JP6972444B1 (ja) | 2021-03-23 | 2021-11-24 | 三菱電機株式会社 | 信頼度判定装置および信頼度判定方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6458072B2 (ja) | 2017-03-30 | 2019-01-23 | 株式会社Jsol | 多層ニューラルネットワーク(ディープラーニング)の性能向上のための高寄与度項目の抽出システム、抽出方法及び抽出プログラム |
-
2021
- 2021-03-22 US US18/270,549 patent/US20240067189A1/en active Pending
- 2021-03-22 WO PCT/JP2021/011618 patent/WO2022201222A1/ja active Application Filing
- 2021-03-22 CN CN202180095500.6A patent/CN116963951A/zh active Pending
- 2021-03-22 DE DE112021007341.9T patent/DE112021007341T5/de active Pending
- 2021-03-22 JP JP2023508147A patent/JP7370495B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017105453A (ja) | 2015-12-08 | 2017-06-15 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 自動車の運転支援機能を検証する方法 |
JP2017220197A (ja) | 2016-06-12 | 2017-12-14 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 車両制御方法と装置及び判断モジュールの獲得方法と装置 |
JP2019501435A (ja) | 2016-08-29 | 2019-01-17 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム |
WO2021044486A1 (ja) | 2019-09-02 | 2021-03-11 | 三菱電機株式会社 | 自動運転制御装置および自動運転制御方法 |
JP6972444B1 (ja) | 2021-03-23 | 2021-11-24 | 三菱電機株式会社 | 信頼度判定装置および信頼度判定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116963951A (zh) | 2023-10-27 |
JPWO2022201222A1 (ja) | 2022-09-29 |
DE112021007341T5 (de) | 2024-01-04 |
WO2022201222A1 (ja) | 2022-09-29 |
US20240067189A1 (en) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6547292B2 (ja) | 画像処理装置、機器制御システム、および画像処理プログラム | |
EP2383713B1 (en) | Detecting and recognizing traffic signs | |
US20210390353A1 (en) | Object recognition device, object recognition method, and object recognition program | |
US10746987B2 (en) | Vehicle systems and methods for redirecting a driver's gaze towards an object of interest | |
JP7046262B2 (ja) | 移動体制御装置および移動体制御方法 | |
US20190114493A1 (en) | Method and device for traffic sign recognition | |
US10803307B2 (en) | Vehicle control apparatus, vehicle, vehicle control method, and storage medium | |
CN110576847A (zh) | 基于焦点的对传感器数据的标记 | |
US8587456B2 (en) | Method for distinguishing between reflectors arranged on the roadside and vehicle lights in the dark | |
US10916134B2 (en) | Systems and methods for responding to a vehicle parked on shoulder of the road | |
JP6418574B2 (ja) | 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム | |
CN116142233A (zh) | 载具灯分类系统 | |
CN111409455A (zh) | 车辆的速度控制方法及装置、电子设备、存储介质 | |
CN110660271A (zh) | 在更大距离上识别对于行驶重要相关的情况 | |
US20210291736A1 (en) | Display control apparatus, display control method, and computer-readable storage medium storing program | |
US20230386219A1 (en) | Reliability determination device and reliability determination method | |
JP7370495B2 (ja) | 制御装置および制御方法 | |
US11794733B2 (en) | Risk estimation device and vehicle control device | |
US11912297B2 (en) | Driving assistance device and driving assist method | |
JP6861911B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
WO2022230281A1 (ja) | 外界認識装置、および、外界認識システム | |
WO2023132092A1 (ja) | 車両制御システム | |
US20240132100A1 (en) | Method for assistive or automated vehicle control | |
US20220309799A1 (en) | Method for Automatically Executing a Vehicle Function, Method for Evaluating a Computer Vision Method and Evaluation Circuit for a Vehicle | |
CN115661773A (zh) | 车辆的自动驾驶方法、装置、车辆及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7370495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |