JP7370495B2 - 制御装置および制御方法 - Google Patents

制御装置および制御方法 Download PDF

Info

Publication number
JP7370495B2
JP7370495B2 JP2023508147A JP2023508147A JP7370495B2 JP 7370495 B2 JP7370495 B2 JP 7370495B2 JP 2023508147 A JP2023508147 A JP 2023508147A JP 2023508147 A JP2023508147 A JP 2023508147A JP 7370495 B2 JP7370495 B2 JP 7370495B2
Authority
JP
Japan
Prior art keywords
control
control amount
target
unit
surrounding situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023508147A
Other languages
English (en)
Other versions
JPWO2022201222A1 (ja
Inventor
匠 佐藤
卓爾 森本
元気 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022201222A1 publication Critical patent/JPWO2022201222A1/ja
Application granted granted Critical
Publication of JP7370495B2 publication Critical patent/JP7370495B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/06Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • B60W10/184Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、種々の機器の制御を行うための制御量を推論する制御装置、および、制御方法に関する。
機械学習におけるニューラルネットワークで構成される学習済みモデル(以下、「機械学習モデル」という。)に基づき、制御を行う対象となる機器(以下「制御対象機器」という。)に対して、当該制御を行うための制御量を推論する技術が知られている。
一方、機械学習については、当該機械学習の精度が、アルゴリズムに加えて学習データの量または品質に大きく依存するため、従来、学習データに対する工夫がなされてきた。例えば、特許文献1には、多層ニューラルネットワークで作成されたモデルの作成に使用された入力項目が出力結果に与える寄与度を算出し、高寄与度の入力項目に基づいて高寄与度項目データセットを生成する技術が開示されている。
特開2018-169959号公報
機械学習におけるニューラルネットワークで構成される機械学習モデルは、あらゆる場面で信頼できる制御量を出力するとは限らない。機械学習モデルは、機械学習を行う際に学習対象とならなかった未知の状態に対する出力を保証できないためである。
したがって、特許文献1に開示されているような技術に代表される従来技術により学習データ等を改善しても、当該学習データ等を用いて作成された機械学習モデルに基づく、実際の制御量の推論時における推論結果が、妥当である、言い換えれば、信頼するに足る推論結果である保証はないという課題があった。
本開示は上記のような課題を解決するためになされたもので、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる制御装置を提供することを目的とする。
本開示に係る制御装置は、制御対象機器の周辺の状況に関する周辺状況情報を取得する周辺状況取得部と、周辺状況取得部が取得した周辺状況情報に基づき、制御対象機器の制御量を推論するとともに、制御量を推論する際に用いた、周辺状況情報における着目領域に関する着目領域情報を取得する制御量推論部と、周辺状況取得部が取得した周辺状況情報に基づき、制御対象機器の周辺に存在する物標の位置を検出する物標検出部と、制御量推論部が取得した着目領域情報と、物標検出部が検出した物標の位置に関する物標位置情報とに基づき、着目領域と物標位置の比較を行い、着目領域と物標位置との一致度を算出し、算出した一致度に応じて、制御量推論部が推論した制御量の信頼度を判定する信頼度判定部とを備えた。
本開示によれば、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
実施の形態1に係る制御装置の構成例を示す図である。 実施の形態1に係る制御装置における制御量推論部の構成について、詳細に説明するための図である。 実施の形態1に係る制御装置の動作を説明するためのフローチャートである。 図4Aおよび図4Bは、実施の形態1に係る制御装置のハードウェア構成の一例を示す図である。 実施の形態2に係る制御装置の構成例を示す図である。 実施の形態2に係る制御装置における制御量推論部の構成について、詳細に説明するための図である。 実施の形態2において、着目物標データベースが保持するシナリオ別物標情報の内容の一例のイメージを示す図である。 実施の形態2に係る制御装置の動作を説明するためのフローチャートである。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
実施の形態1に係る制御装置は、制御対象機器の制御を行うための制御量を推論する。
実施の形態1において、制御対象機器は、自動運転可能な車両を想定している。制御装置は、自動運転可能な車両における自動運転制御を行う。具体的には、制御装置は、車両のハンドル制御、スロットル制御、および、ブレーキ制御を行うことで、車両における自動運転制御を行うことを想定している。よって、実施の形態1において、制御装置が推論する、制御装置が車両の自動運転制御を行うための制御量は、ハンドル操舵角、スロットル開度、および、ブレーキ量を想定している。
以下の実施の形態1において、制御装置が推論するハンドル操舵角、スロットル開度、および、ブレーキ量を、まとめて「車両の制御量」ともいう。
制御装置は、推論した車両の制御量に基づいて車両のハンドル制御、スロットル制御、および、ブレーキ制御を行うことで、車両の加減速および操舵を調整する。
図1は、実施の形態1に係る制御装置1の構成例を示す図である。
制御装置1は、車両100に搭載される。
制御装置1は、カメラ2、レーダ3、制御決定部15と接続される。制御決定部15は、アクチュエータ16と接続される。
カメラ2、レーダ3、制御決定部15、および、アクチュエータ16は、車両100に搭載される。
図1では、制御決定部15は、制御装置1の外部に備えられているが、制御決定部15は、制御装置1に備えられてもよい。図1に示すように、制御決定部15が制御装置1の外部に備えられる場合、例えば、制御決定部15は、車両100に搭載され、車両100の運転制御を行う自動運転制御装置(図示省略)に備えられる。
カメラ2は、車両100の周辺を撮像する。カメラ2は、車両100の周辺を撮像した画像(以下「撮像画像」という。)を、制御装置1に出力する。
レーダ3は、車両100の周辺に存在する他車両等の物標を検出する。
なお、カメラ2の撮像範囲と、レーダ3の物標検出範囲は重複していることを前提とする。
レーダ3は、検出した物標までの距離を示す情報(以下「距離情報」という。)を、制御装置1に出力する。距離情報には、車両100と物標との距離、および、車両100から見た物標の位置および角度に関する情報が含まれる。
実施の形態1において、物標とは、車両100の制御に影響を与え得る物体をいう。具体的には、実施の形態1において、物標とは、歩行者、自転車、または、他車両等の他の交通参加者、道路、道路標示、道路標識、信号、または、看板等をいう。物標は、車両100の制御内容に応じて予め決められている。
制御装置1は、カメラ2から出力された撮像画像、および、レーダ3から出力された距離情報を、車両100周辺の状況に関する情報(以下「周辺状況情報」という。)として取得する。制御装置1は、取得した周辺状況情報に基づいて、車両100の制御量を推論する。具体的には、制御装置1は、取得した周辺状況情報に含まれる撮像画像に基づいて、車両100の制御量を推論する。また、制御装置1は、周辺状況情報に基づき、推論した車両100の制御量が、制御対象機器、言い換えれば、車両100、の制御を行うのにどれぐらい信頼に足るものであるかを示す度合い(以下「信頼度」という。)を判定する。
制御装置1は、推論した車両100の制御量、および、当該制御量の信頼度に関する情報を、制御決定部15に出力する。制御決定部15およびアクチュエータ16の詳細については、後述する。
制御装置1は、周辺状況取得部11、制御量推論部12、物標検出部13、および、信頼度判定部14を備える。周辺状況取得部11は、撮像画像取得部111および距離情報取得部112を備える。
周辺状況取得部11は、カメラ2およびレーダ3から周辺状況情報を取得する。
具体的には、周辺状況取得部11の撮像画像取得部111は、カメラ2から、車両100の周辺を撮像した撮像画像を取得する。周辺状況取得部11の距離情報取得部112は、レーダ3から、車両100の周辺に存在する物標までの距離情報を取得する。
周辺状況取得部11は取得した周辺状況情報を制御量推論部12および物標検出部13に出力する。なお、ここでは、周辺状況取得部11は、制御量推論部12に対して周辺状況情報を出力するものとするが、これに限らず、周辺状況取得部11は、少なくとも、撮像画像取得部111が取得した撮像画像を、制御量推論部12に出力すればよい。
制御量推論部12は、周辺状況取得部11が取得した周辺状況情報に基づき、車両100の制御量を推論するとともに、制御量を推論する際に用いた、周辺状況情報における着目すべき領域(以下「着目領域」という。)に関する情報(以下「着目領域情報」という。)を取得する。
より詳細には、制御量推論部12は、周辺状況取得部11が取得した周辺状況情報に含まれる撮像画像に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報を取得する。
ここで、図2は、実施の形態1に係る制御装置1における制御量推論部12の構成について、詳細に説明するための図である。
図2に示すように、制御量推論部12は、制御量推論ネットワーク120を保持する。
制御量推論ネットワーク120は、周辺状況取得部11から出力された周辺状況情報に含まれる撮像画像を入力とし、車両100の制御量を出力するニューラルネットワークで構成される。すなわち、制御量推論ネットワーク120は、撮像画像を入力とし、車両100の制御量を出力する機械学習モデルである。
制御量推論ネットワーク120は、入力層121、畳み込み層122、アテンション層123、特徴量生成層124、全結合層125、および、出力層126を有する。
制御量推論ネットワーク120は、入力層121で撮像画像を受け取り、畳み込み層122で当該撮像画像に対して畳み込み処理を行う。アテンション層123は、入力された撮像画像における着目領域をあらわす着目領域情報を有しており、制御量推論ネットワーク120は、当該アテンション層123のパラメータと、畳み込み層122の畳み込み結果とに基づき、特徴量生成層124で生成された潜在的な特徴量を抽出する。制御量推論ネットワーク120は、全結合層125で、特徴量生成層124で生成された潜在的な特徴量に対して車両100の制御量を推論する。そして、制御量推論ネットワーク120は、出力層126で、推論した車両100の制御量の出力を行う。
制御量推論ネットワーク120は、なるべく適切な車両100の制御量を出力するよう事前に学習済みであり、当該学習の過程で、意味のある領域に正しく着目するようアテンション層123も同時に学習済みである。
すなわち、制御量推論ネットワーク120が出力する車両100の制御量が適切な制御量である場合、アテンション層123が着目する着目領域は、適切な制御量を抽出するのに有用な領域であるといえる。なお、逆に、制御量推論ネットワーク120が出力する車両100の制御量が適切な制御量でない場合、アテンション層123が着目する着目領域は、適切な制御量を抽出するのに有用な領域ではないといえる。例えば、制御量推論ネットワーク120に未知の撮像画像が入力された場合、アテンション層123は、適切な車両100の制御量を抽出するのに有用な着目領域をあらわす着目領域情報を有しておらず、制御量推論ネットワーク120は適切な車両100の制御量を出力できない。
制御量推論部12は、上述したような制御量推論ネットワーク120を用いて、周辺状況取得部11、より詳細には撮像画像取得部111によって取得された車両100周辺の撮像画像に基づく車両100の制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報、言い換えれば、アテンション層123が有する着目領域情報を、制御量推論ネットワーク120から取得する。
制御量推論部12は、推論した車両100の制御量に関する情報を制御決定部15に出力する。また、制御量推論部12は、取得した着目領域情報を、信頼度判定部14に出力する。
物標検出部13は、周辺状況取得部11が取得した周辺状況情報、言い換えれば、撮像画像取得部111がカメラ2から取得した撮像画像、および、距離情報取得部112がレーダ3から取得した距離情報に基づき、車両100の周辺に存在する物標の位置を検出する。実施の形態1において、物標検出部13は、物標の位置を、周辺状況情報に含まれる撮像画像における物標の位置として検出する。
実施の形態1において、撮像画像における物標の位置は、撮像画像上の画素であらわされる。物標検出部13は、撮像画像において物標がうつっている範囲を物標の位置とし、当該範囲に含まれている画素を、物標の位置を示す情報として検出する。
物標検出部13は、例えば、距離情報を用いて、撮像画像において物標がうつっている範囲を特定すればよい。上述のとおり、距離情報には、レーダ3によって検出された物標の、車両100から見た位置、角度、および、車両100と物標との距離に関する情報が含まれる。また、車両100に搭載されているカメラ2の設置位置および画角は予めわかっている。よって、物標検出部13は、距離情報と撮像画像に基づけば、撮像画像において、距離情報で示されている物標がどの範囲にうつっているか特定することができる。
また、例えば、物標検出部13は、撮像画像に対して既知の画像認識処理技術を用いて、撮像画像にうつっている物標を検出してもよい。なお、この場合、物標検出部13は、距離情報を必要としない。よって、周辺状況取得部11は、距離情報取得部112を備えることを必須としない。
実施の形態1において、物標検出部13が検出する物標は、当該物標の全体であっても、当該物標の一部であってもよい。具体例を挙げると、例えば、物標検出部13は、他車両全体を物標として検出してもよいし、他車両のテールランプのみを、物標として検出してもよい。物標検出部13が物標として他車両全体を検出する場合、物標の位置は、撮像画像において他車両全体がうつっている範囲に含まれている画素であらわされる。物標検出部13が物標として他車両のテールランプのみを検出する場合、物標の位置は、撮像画像において当該テールランプがうつっている範囲に含まれている画素であらわされる。
物標検出部13は、検出した物標の位置に関する情報(以下「物標位置情報」という。)を、信頼度判定部14に出力する。実施の形態1では、物標位置情報は、撮像画像において物標がうつっている範囲の画素を示す情報である。
信頼度判定部14は、制御量推論部12から出力された着目領域情報と、物標検出部13から出力された物標位置情報に基づき、制御量推論部12が推論した車両100の制御量の信頼度を判定する。
具体的には、信頼度判定部14は、物標検出部13から出力された物標位置情報に基づき着目領域と物標位置の比較を行い、着目領域と物標位置との一致度を算出し、算出した一致度に応じて、制御量推論部12が推論した車両100の制御量の信頼度を判定する。
例えば、自動運転制御装置等が車両100を自動運転する際には、他の交通参加者、標識、表示、または、信号等、上述したような、予め決められている物標に着目すべきであり、雲または路傍の家等、予め決められた物標以外の物体等には着目する必要がないと考えられる。つまり、自動運転制御装置等が車両100を自動運転する場合の当該車両100の制御量は、物標以外の物体等ではなく、物標に着目して推された制御量であるべきである。
一方、上述のとおり、制御量推論ネットワーク120が出力する車両100の制御量が適切な制御量である場合、アテンション層123が着目する着目領域は、適切な制御量を抽出するのに有用な領域であるといえる。
そこで、制御装置1において、信頼度判定部14は、着目領域が物標位置と一致しているか否か、言い換えれば、制御量推論ネットワーク120が車両100の制御量の推論の際に物標に着目できているか否かによって、当該制御量推論ネットワーク120から出力される車両100の制御量の信頼度を判定する。
信頼度判定部14は、一致度が高い場合は高い信頼度を判定し、一致度が低い場合は低い信頼度を判定する。
例えば、信頼度判定部14は、着目領域と物標位置との一致度を、着目領域と物標位置の重複度合いに基づいて算出する。また、例えば、信頼度判定部14は、着目領域と物標位置との一致度を、撮像画像の画素単位で、着目領域および物標位置のいずれにも含まれているか否かを判定した結果に基づいて算出してもよい。また、例えば、信頼度判定部14は、着目領域情報と物標位置情報とを入力とし、着目領域と物標位置との一致度を出力するニューラルネットワークを用いて、当該一致度を取得してもよい。なお、この場合のニューラルネットワークは、予め構築されているものとする。
信頼度判定部14が判定する信頼度は、例えば、「高い」または「低い」のいずれかの離散的な値であらわされてもよいし、連続に変化する数値であらわされてもよい。
具体例を挙げると、例えば、信頼度判定部14は、算出した一致度が、予め設定されている閾値(以下「一致度判定用閾値」という。)以上の場合、信頼度は「高い」とする。一方、信頼度判定部14は、算出した一致度が一致度判定用閾値未満の場合、信頼度は「低い」とする。
また、例えば、信頼度判定部14は、算出した一致度を分類分けし、分類分けされた分類によって、信頼度を判定するようにしてもよい。例えば、一致度が0~100であらわされ、信頼度は0~1の数値であらわされるとすると、信頼度判定部14は、一致度が0~20の場合は信頼度「0.2」、一致度が21~40の場合は信頼度「0.4」、一致度が41~60の場合は信頼度「0.6」、一致度が61~80の場合は信頼度「0.8」、一致度が81~100の場合は信頼度「1」というように、信頼度を判定してもよい。
信頼度判定部14は、判定した信頼度を、制御決定部15に出力する。
制御決定部15は、信頼度判定部14から出力された信頼度に基づき、制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用するか否かを決定する。
例えば、制御決定部15は、信頼度判定部14から出力された信頼度と、予め設定されている閾値(以下「信頼度判定用閾値」という。)との比較によって、制御量推論部12が推論した車両100の制御量を採用するか否かを決定する。例えば、制御決定部15は、信頼度判定部14が判定した信頼度が信頼度判定用閾値を超えている場合、制御量推論部12が推論した車両100の制御量を採用すると決定する。一方、制御決定部15は、信頼度判定部14が判定した信頼度が信頼度判定用閾値以下である場合、制御量推論部12が推論した車両100の制御量を採用しないと決定する。
制御決定部15は、制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用すると決定した場合、制御量推論部12が推論した車両100の制御量に関する情報を、アクチュエータ16に出力する。
一方、制御決定部15は、制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用しないと決定した場合、例えば、車両100を自動運転から手動運転に切り替える。
アクチュエータ16は、制御決定部15から出力された車両100の制御量に関する情報に基づき、車両100の制御を行う。具体的には、アクチュエータ16は、制御決定部15から出力された車両100の制御量に関する情報に基づき、ハンドル制御、スロットル制御、および、ブレーキ制御を行う。
なお、実施の形態1では、制御決定部15は、信頼度判定部14から出力された信頼度と信頼度判定用閾値との比較によって、アクチュエータ16を介し車両100に対して制御量推論部12が推論した車両100の制御量に基づく制御を行わせるか、当該制御量に基づく制御を行わず車両100を手動運転に切り替えるかを決定するが、これは一例に過ぎない。制御決定部15が、信頼度判定部14から出力された信頼度に基づいて、どのような判定または制御を行うかは、適宜設定可能である。
制御決定部15は、信頼度判定部14から出力された信頼度に基づいて、アクチュエータ16に出力する車両100の制御量を調整することもできる。
例えば、制御決定部15は、信頼度判定部14から出力された信頼度に基づいて、制御量推論部12が推論した車両100の制御量と、制御量推論部12とは別の制御量推論手段における制御量とを混ぜ合わせた制御量(以下「混合制御量」という。)を算出し、混合制御量をアクチュエータ16に出力することもできる。なお、この一例では、制御装置1は、車両100の制御量を推論する手段として、制御量推論部12とは別の制御量推論手段を備えていることを前提としている。制御量推論部12とは別の制御量推論手段は、適宜の手段とすることができ、例えば、制御装置1とは別の車載装置である。また、例えば、手動運転を制御量推論部12とは別の制御量推論手段としてもよい。
制御決定部15は、例えば、重み付き平均手法を用いて、信頼度判定部14から出力された信頼度に基づき、混合制御量を算出する。
制御決定部15が混合制御量を算出する方法について、具体例を挙げて説明する。なお、以下の具体例の説明では、制御量推論部12とは別の制御量推論手段を、「代替制御」という。
<具体例1>
例えば、制御量推論部12が推論した車両100の制御量として、「アクセル:60%、ブレーキ:0%、ステアリング:0°」が得られたとする。
一方、代替制御では、車両100の制御量として、「アクセル:70%、ブレーキ:0%、ステアリング:20°」が得られたとする。
また、信頼度判定部14から出力された信頼度は、「0.9」だったとする。
この場合、制御決定部15は、アクセルの混合制御量を、以下の計算によって、「61%」と算出する。
60×0.9+70×(1-0.9)=61
また、制御決定部15は、ブレーキの混合制御量を、以下の計算式によって、「0%」と算出する。
0×0.9+0×(1-0.9)=0
また、制御決定部15は、ステアリングの混合制御量を、以下の計算式によって、「2°」と算出する。
0×0.9+20×(1-0.9)=2
そして、制御決定部15は、車両100の制御量として、混合制御量「アクセル:61%、ブレーキ:0%、ステアリング:2°」を、アクチュエータ16に出力する。
<具体例2>
例えば、制御量推論部12が推論した車両100の制御量として、<具体例1>同様、「アクセル:60%、ブレーキ:0%、ステアリング:0°」が得られたとする。
また、代替制御でも、車両100の制御量として、<具体例1>同様、「アクセル:70%、ブレーキ:0%、ステアリング:20°」が得られたとする。
しかし、信頼度判定部14から出力された信頼度は、「0.1」だったとする。
この場合、制御決定部15は、車両100の制御量として、混合制御量「アクセル:69%、ブレーキ:0%、ステアリング:18°」を算出する。
なお、アクセルの混合制御量、ブレーキの混合制御量、および、ステアリングの混合制御量の計算に用いる計算式は、それぞれ、<具体例1>におけるアクセルの混合制御量、ブレーキの混合制御量、および、ステアリングの混合制御量の計算に用いる計算式と同様であるため重複した説明を省略する。
そして、制御決定部15は、混合制御量「アクセル:69%、ブレーキ:0%、ステアリング:18°」を、アクチュエータ16に出力する。
<具体例1>のように、信頼度判定部14から出力された信頼度が高い場合、すなわち、制御量推論部12が推論した車両100の制御量の信頼度が高いといえる場合、制御決定部15は、混合制御量として、制御量推論部12が推論した車両100の制御量に近い制御量を算出し、アクチュエータ16に出力することになる。
一方、<具体例2>のように、信頼度判定部14から出力された信頼度が低い場合、すなわち、制御量推論部12が推論した車両100の制御量の信頼度が低いといえる場合、制御決定部15は、混合制御量として、代替制御による制御量に近い制御量を算出し、アクチュエータ16に出力することになる。
このように、制御決定部15は、制御量推論部12が推論した車両100の制御量について、信頼度判定部14から出力された信頼度に応じて、実際にどれぐらい採用するかを調整することができる。
例えば、上述の例のように、制御決定部15が、信頼度判定部14から出力された信頼度と信頼度判定用閾値との比較によって、アクチュエータ16を介し車両100に対して制御量推論部12が推論した車両100の制御量に基づく制御を行わせるかを決定する場合、当該車両100の制御量がある程度高い信頼度のものであっても、当該車両100の制御量は、その信頼度が信頼度判定用閾値に満たないことによって採用されないことになる。しかし、ある程度高い信頼度の制御量も、ある程度、物標に基づいたものであるといえ、適切な制御量である可能性がある。
そこで、<具体例1>および<具体例2>のように、信頼度判定部14から出力された信頼度に基づいて、制御量推論部12が推論した車両100の制御量と、制御量推論部12とは別の制御量推論手段における制御量とを混ぜ合わせた混合制御量を算出可能とすることで、制御決定部15は、制御量推論部12が推論した車両100の制御量を、その信頼度に応じた分だけ、アクチュエータ16に出力する車両100の制御量として採用することができる。
なお、例えば、制御決定部15は、信頼度判定用閾値を用いてアクチュエータ16に出力する車両100の制御量を決定する方法と、混合制御量をアクチュエータ16に出力する車両100の制御量として決定する方法とを組み合わせてもよい。例えば、制御決定部15は、信頼度判定部14が判定した信頼度が信頼度判定用閾値を超えている場合、制御量推論部12が推論した車両100の制御量をアクチュエータ16に出力する制御量として採用すると決定し、信頼度判定部14が判定した信頼度が信頼度判定用閾値を超えていない場合、混合制御量を算出して、算出した混合制御量をアクチュエータ16に出力する制御量として採用すると決定するようにしてもよい。
制御装置1の動作について説明する。
図3は、実施の形態1に係る制御装置1の動作を説明するためのフローチャートである。
なお、図3に示す制御装置1の動作は、制御決定部15を備えた場合の制御装置1の動作としている。制御装置1は、図3のフローチャートに示す動作を、例えば、車両100が自動運転中、繰り返し行う。
周辺状況取得部11は、カメラ2およびレーダ3から周辺状況情報を取得する(ステップST1)。
具体的には、周辺状況取得部11の撮像画像取得部111は、カメラ2から、車両100の周辺を撮像した撮像画像を取得する。周辺状況取得部11の距離情報取得部112は、レーダ3から、車両100の周辺に存在する物までの距離情報を取得する。
周辺状況取得部11は取得した周辺状況情報を制御量推論部12および物標検出部13に出力する。
制御量推論部12は、ステップST1にて周辺状況取得部11が取得した周辺状況情報に基づき、車両100の制御量を推論するとともに、制御量を推論する際に用いた、周辺状況情報における着目領域に関する着目領域情報を取得する(ステップST2)。
より詳細には、制御量推論部12は、周辺状況取得部11が取得した周辺状況情報に含まれる撮像画像に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報を取得する。
制御量推論部12は、推論した車両100の制御量に関する情報を制御決定部15に出力する。また、制御量推論部12は、取得した着目領域情報を、信頼度判定部14に出力する。
物標検出部13は、ステップST1にて周辺状況取得部11が取得した周辺状況情報、言い換えれば、撮像画像取得部111がカメラ2から取得した撮像画像、および、距離情報取得部112がレーダ3から取得した距離情報に基づき、物標の位置を検出する(ステップST3)。
物標検出部13は、検出した物標の位置に関する物標位置情報を、信頼度判定部14に出力する。
信頼度判定部14は、ステップST2にて制御量推論部12から出力された着目領域情報と、ステップST3にて物標検出部13から出力された物標位置情報に基づき、制御量推論部12が推論した車両100の制御量の信頼度を判定する(ステップST4)。
信頼度判定部14は、判定した信頼度を、制御決定部15に出力する。
制御決定部15は、例えば、ステップST4にて信頼度判定部14から出力された信頼度に基づき、ステップST2にて制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用するか否かを決定する(ステップST5)。
制御決定部15は、制御量推論部12が推論した車両100の制御量を当該車両100の制御量として採用すると決定した場合、制御量推論部12が推論した車両100の制御量に関する情報を、アクチュエータ16に出力する。
アクチュエータ16は、制御決定部15から出力された車両100の制御量に関する情報に基づき、車両100の制御を行う。
一方、制御決定部15は、制御量推論部12が推論した車両100の制御量を、当該車両100の制御量として採用しないと決定した場合、例えば、車両100を自動運転から手動運転に切り替える。
なお、制御装置1の動作について、図3では、制御装置1は、ステップST2、ステップST3の順に実行したが、この順番は必須ではない。制御装置1は、ステップST3、ステップST2の順で実行してもよいし、ステップST2の動作とステップST3の動作を並行して実行してもよい。
制御量推論ネットワーク120のように、機械学習におけるニューラルネットワークで構成される機械学習モデルは、一般に、ありとあらゆる入力に対して適切な出力を行うことは保証し難い。これは、学習データとしてありとあらゆる状況を完璧に網羅することが困難だからである。つまり、機械学習モデルは、機械学習を行う際に学習対象とならなかった未知の状態に対する出力を保証できない。
一方、制御量推論ネットワーク120は、その学習過程において、様々な入力、すなわち、以上の実施の形態1では撮像画像、に対して、適切な車両100の制御量の出力を学習するとともに、適切な領域に着目するようアテンション層123も同時に学習する。したがって、ある学習データに対する学習が終了し、制御量推論ネットワーク120が適切な車両100の制御量を出力できるようになった場合、制御量推論ネットワーク120において、アテンション層123も適切な領域に着目するように学習ができていると考えることができる。逆に言えば、ある入力に対して適切な領域に着目できていない場合には、その入力に対して制御量推論ネットワーク120が出力する制御量は適切ではない可能性がある。仮に、適切ではない制御量を用いて車両100が制御された場合、車両100は不適切な挙動を引き起こす可能性があり、交通事故または車両の故障等の原因となる。よって、制御装置1は、制御量推論ネットワーク120が出力する制御量が適切ではない場合、当該制御量を用いて車両100が制御されることを避けなければならない。
これに対し、実施の形態1に係る制御装置1は、上述のとおり、制御量推論ネットワーク120が車両100の制御量の推論の際に物標に着目しているかによって、当該制御量推論ネットワーク120から出力される車両100の制御量の信頼度を判定する。その際、制御装置1は、制御量推論ネットワーク120が車両100の制御量の推論の際に物標に着目できていないと判定される場合には、信頼度が低くなるように当該信頼度を判定する。そして、制御装置1は、判定した信頼度を、制御量推論ネットワーク120を用いて推論した車両100の制御量とあわせて制御決定部15に出力する。
このように、制御装置1は、制御量推論ネットワーク120に撮像画像を入力して車両100の制御量を推論する際に取得した着目領域情報と、当該撮像画像に基づく物標位置情報とに基づいて、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
制御装置1が、推論した制御量とともに、判定した当該制御量の信頼度を出力することで、制御決定部15は、例えば、信頼度が低い制御量、言い換えれば、制御量推論ネットワーク120の学習が不完全である可能性がある入力に対して推論された制御量が、車両100の制御に用いられないようにすることができる。
つまり、制御装置1は、信頼度を判定することなく制御量を出力する場合に比べ、より適切な車両100の制御量の出力を行うことができる。
以上の実施の形態1では、制御装置1において、制御量推論部12は、周辺状況情報に含まれる撮像画像に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報を取得していた。また、物標検出部13は、物標の位置を、周辺状況情報に含まれる撮像画像における物標の位置として検出していた。
これに限らず、制御量推論部12は、車両100の周辺に存在する物標との距離および角度を示す情報(以下「点群データ」という。)に基づき、車両100の制御量を推論するとともに、当該制御量を推論する際の、点群データにおける着目領域に関する着目領域情報を取得してもよい。この場合、物標検出部13は、物標の位置を、点群データに基づく実空間上の位置として検出する。
この場合、制御装置1は、カメラ2およびレーダ3に代えて、LiDAR(図示省略)と接続される。なお、LiDARは車両100に搭載されている。LiDARは、上記点群データを制御装置1に出力する。制御装置1の周辺状況取得部11は、LiDARから出力された点群データを、周辺状況情報として取得する。
なお、この場合、周辺状況取得部11は、撮像画像取得部111および距離情報取得部112を備えない構成とできる。
このように、制御装置1において、周辺状況情報は、車両100と当該車両100の周辺に存在する物標との距離および角度を示す点群データを含み、制御量推論部12は、点群データに基づき、車両100の制御量を推論するとともに、当該制御量を推論する際に用いた、点群データにおける着目領域に関する着目領域情報を取得するようにしても、制御装置1は、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
図4Aおよび図4Bは、実施の形態1に係る制御装置1のハードウェア構成の一例を示す図である。
制御装置1は制御決定部15を備えているものとして、制御装置1のハードウェア構成の一例を説明する。
実施の形態1において、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15の機能は、処理回路401により実現される。すなわち、制御装置1は、車両100を制御するための制御量を推論し、推論した制御量の信頼度を判定する制御を行うための処理回路401を備える。
処理回路401は、図4Aに示すように専用のハードウェアであっても、図4Bに示すようにメモリに格納されるプログラムを実行するプロセッサ404であってもよい。
処理回路401が専用のハードウェアである場合、処理回路401は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路がプロセッサ404の場合、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ405に記憶される。プロセッサ404は、メモリ405に記憶されたプログラムを読み出して実行することにより、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15の機能を実行する。すなわち、制御装置1は、プロセッサ404により実行されるときに、上述の図3のステップST1~ステップST5が結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15の処理の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ405とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、周辺状況取得部11については専用のハードウェアとしての処理回路401でその機能を実現し、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15についてはプロセッサ404がメモリ405に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、制御装置1は、カメラ2、レーダ3、アクチュエータ16、または、LiDAR等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
以上の実施の形態1では、制御装置1は、車両100に搭載される車載装置とし、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14は、制御装置1に備えられていた。また、制御決定部15も、車両100に備えられていた。
これに限らず、周辺状況取得部11と、制御量推論部12と、物標検出部13と、信頼度判定部14と、制御決定部15のうち、一部が車両100の車載装置に備えられ、その他は当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとで制御システムを構成してもよい。
また、以上の実施の形態1では、制御対象機器は自動運転可能な車両100を想定していたが、これは一例に過ぎない。
制御装置1は、種々の機器の制御を行うことができる。具体的には、制御装置1は、例えば、産業用ロボット、無人搬送車、または、航空機を、制御対象機器とすることもできる。
以上のように、実施の形態1によれば、制御装置1は、制御対象機器の周辺の状況に関する周辺状況情報を取得する周辺状況取得部11と、周辺状況取得部11が取得した周辺状況情報に基づき、制御対象機器の制御量を推論するとともに、制御量を推論する際に用いた、周辺状況情報における着目領域に関する着目領域情報を取得する制御量推論部12と、周辺状況取得部11が取得した周辺状況情報に基づき、制御対象機器の周辺に存在する物標の位置を検出する物標検出部13と、制御量推論部12が取得した着目領域情報と、物標検出部13が検出した物標の位置に関する物標位置情報とに基づき、制御量推論部12が推論した制御量の信頼度を判定する信頼度判定部14を備えるように構成した。そのため、制御装置1は、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。そして、制御装置1は、信頼度を判定することなく制御量を出力する場合に比べ、より適切な車両100の制御量の出力を行うことができる。
実施の形態2.
実施の形態1では、制御装置は、制御対象機器の制御量の推論、および、着目領域情報の取得を行うにあたり、制御対象機器の制御内容を考慮していなかった。
実施の形態2では、制御装置が、制御対象機器の制御内容を考慮して、当該制御対象機器の制御量の推論および着目領域情報の取得を行う実施の形態について説明する。
実施の形態2においても、実施の形態1同様、制御対象機器は、自動運転可能な車両を想定している。制御装置は、自動運転可能な車両における自動運転制御を行う。
図5は、実施の形態2に係る制御装置1aの構成例を示す図である。
制御装置1aは、車両100aに搭載される。
実施の形態2において、車両100aには、シナリオ指示装置4が搭載されており、制御装置1aはシナリオ指示装置4と接続される。
シナリオ指示装置4は、例えば、タッチパネル式のディスプレイである。シナリオ指示装置4は、車両100aの自動運転制御のための制御シナリオを受け付け、受け付けた制御シナリオに関する情報(以下「制御シナリオ情報」という。)を、制御装置1aに出力する。実施の形態2において、制御シナリオは、制御対象機器の制御内容を示す。より詳細には、制御シナリオは、制御対象機器に対して実現させようとする動作を示す。すなわち、ここでは、制御シナリオは、車両100aに対して実現させようとする動作を示す。具体例を挙げると、制御シナリオは、例えば、「先行車両への追従」、「交差点の右折」、または、「路肩への停車」である。
例えば、車両100aの乗員は、シナリオ指示装置4をタッチする等して操作し、シナリオ指示装置4から制御シナリオを入力し、当該制御シナリオを指定する。シナリオ指示装置4は、乗員によって入力された制御シナリオを受け付ける。そして、シナリオ指示装置4は、制御シナリオ情報を制御装置1aに出力する。制御シナリオ情報には、指定された制御シナリオを特定可能な情報が含まれる。
実施の形態2に係る制御装置1aの構成について、実施の形態1にて図1を用いて説明した制御装置1と同様の構成には、同じ符号を付して重複した説明を省略する。
制御装置1aは、実施の形態1に係る制御装置1とは、シナリオ取得部17を備えた点が異なる。また、制御装置1aは、実施の形態1に係る制御装置1とは、制御量推論部12aの詳細な構成が異なる。また、制御装置1aは、実施の形態1に係る制御装置1とは、物標検出部13aの具体的な動作が異なる。また、制御装置1aは、実施の形態1に係る制御装置1とは、着目物標データベース18を備える点が異なる。
なお、図5では、着目物標データベース18は制御装置1aに備えられているが、これは一例に過ぎない。着目物標データベース18は、制御装置1aの外部の、制御装置1aが参照可能な場所に備えられてもよい。
シナリオ取得部17は、シナリオ指示装置4から出力された制御シナリオ情報を取得する。
シナリオ取得部17は、取得した制御シナリオ情報を、制御量推論部12aおよび物標検出部13aに出力する。
図6は、実施の形態2に係る制御装置1aにおける制御量推論部12aの構成について、詳細に説明するための図である。
実施の形態2に係る制御量推論部12aの構成について、実施の形態1にて図2を用いて説明した制御量推論部12と同様の構成には、同じ符号を付して重複した説明を省略する。
制御量推論部12aは、実施の形態1の制御量推論部12とは、モデル選択部127およびパラメータデータベース128を備える点が異なる。
モデル選択部127は、シナリオ取得部17が取得した制御シナリオ情報に基づき、ニューラルネットワーク、言い換えれば、制御量推論ネットワーク120の層の重み等のパラメータを設定する。
パラメータデータベース128は、制御シナリオと、当該制御シナリオに対応するパラメータとが対応付けられた情報(以下「パラメータ情報」という。)を記憶している。
モデル選択部127は、制御シナリオ情報から特定した制御シナリオと、パラメータ情報の制御シナリオとのつきあわせを行って、制御シナリオに対応するパラメータを決定する。
なお、ここでは、制御量推論部12aがパラメータデータベース128を備えているが、これは一例に過ぎない。パラメータデータベース128は、制御量推論部12aが参照可能な場所に備えられていればよい。
制御量推論部12aは、周辺状況取得部11が取得した周辺状況情報に基づき、シナリオ取得部17が取得した制御シナリオ情報に基づいてパラメータが設定された制御量推論ネットワーク120を用いて、車両100aの制御量を推論するとともに着目領域情報を取得する。
すなわち、制御量推論部12aは、モデル選択部127が制御シナリオに基づいてパラメータを設定した制御量推論ネットワーク120を用いて、周辺状況取得部11が取得した周辺状況情報、より詳細には撮像画像取得部111によって取得された車両100aの周辺の撮像画像に基づく車両100aの制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報、言い換えれば、アテンション層123が有する着目領域情報を、制御量推論ネットワーク120から取得する。
これにより、制御量推論部12aは、制御シナリオに応じた車両100aの制御量の推論、および、制御シナリオに応じた着目領域情報の取得を行うことができる。つまり、制御量推論部12aは、与えられた制御シナリオに特化した車両100aの制御量の推論、および、着目領域情報の取得を行うことができる。
制御量推論部12aは、推論した、制御シナリオに応じた車両100aの制御量に関する情報を、制御決定部15に出力する。また、制御量推論部12aは、取得した、制御シナリオに応じた着目領域情報を、信頼度判定部14に出力する。
物標検出部13aは、周辺状況取得部11が取得した周辺状況情報と、シナリオ取得部17が取得した制御シナリオ情報に基づいて、車両100aの周辺に存在する物標の位置を検出する。実施の形態2において、物標検出部13aは、物標の位置を、周辺状況情報に含まれる撮像画像における物標の位置として検出する。
実施の形態2において、撮像画像における物標の位置は、撮像画像上の画素であらわされる。物標検出部13aは、撮像画像において物標がうつっている範囲を物標の位置とし、当該範囲に含まれている画素を、物標の位置を示す情報として検出する。
物標検出部13aが撮像画像における物標の位置を検出する方法は、実施の形態1にて説明した、物標検出部13が撮像画像における物標の位置を検出する方法と同様の方法とすればよいため、重複した説明を省略する。
ただし、実施の形態1において物標検出部13が予め設定されている全ての物標を、位置を検出する対象としていたのに対し、実施の形態2では、物標検出部13aは、シナリオ取得部17が取得した制御シナリオ情報に基づいて、検出対象とする物標の絞り込みを行う。具体的には、物標検出部13aは、着目物標データベース18を参照して、予め設定されている物標のうち、位置を検出する対象とする物標(以下「検出対象物標」という。)の絞り込みを行う。物標検出部13aは、検出対象物標の位置を検出する。
着目物標データベース18は、制御シナリオごとに、着目すべき物標と着目すべき領域とが対応付けられた情報(以下「シナリオ別物標情報」という。)を保持する。
ここで、図7は、実施の形態2において、着目物標データベース18が保持するシナリオ別物標情報の内容の一例のイメージを示す図である。なお、ここでは、予め、物標として、自動車、車線、標識、および、信号が設定されているとする。
図7に示すシナリオ別物標情報によれば、例えば、制御シナリオが「先行車への追従」である場合、全ての物標(自動車、車線、標識、および、信号)が検出対象物標であり、全ての物標を、全領域で着目すべきということになる。また、図7に示すシナリオ別物標情報によれば、例えば、制御シナリオが「交差点の右折」である場合、全ての物標が検出対象物標であるが、検出対象物標のうち、自動車については車両100aの右側を走行する車両および対向車に着目し、車線については車両100aの右側の車線に注目すべきということになる。また、図7に示すシナリオ別物標情報によれば、例えば、制御シナリオが「停車」である場合、自動車および信号は検出対象物標とはしないことになる。
物標検出部13aは、着目物標データベース18を参照して、検出対象物標を絞り込んだ上で、絞り込んだ検出対象物標の位置を検出する。
物標検出部13aは、検出した物標の位置に関する物標位置情報、より詳細には、検出した検出対象物標の位置に関する物標位置情報を、信頼度判定部14に出力する。
実施の形態2に係る制御装置1aの動作について説明する。
図8は、実施の形態2に係る制御装置1aの動作を説明するためのフローチャートである。
なお、図8に示す制御装置1aの動作は、制御決定部15を備えた場合の制御装置1aの動作としている。制御装置1aは、図8のフローチャートに示す動作を、例えば、車両100aが自動運転中、繰り返し行う。
図8において、ステップST11、ステップST17、および、ステップST18の具体的な動作は、それぞれ、実施の形態1にて説明済みの、図3のステップST1、ステップST4、および、ステップST5の具体的な動作と同様であるため、重複した説明を省略する。
シナリオ取得部17は、シナリオ指示装置4から出力された制御シナリオ情報を取得する(ステップST12)。
シナリオ取得部17は、取得した制御シナリオ情報を、制御量推論部12aおよび物標検出部13aに出力する。
モデル選択部127は、ステップST12にてシナリオ取得部17が取得した制御シナリオ情報に基づき、制御シナリオが、これまで使用していた制御シナリオと同じか否かを判定する(ステップST13)。
モデル選択部127が、制御シナリオはこれまで使用していた制御シナリオと同じと判定した場合(ステップST13の“YES”の場合)、制御装置1aの動作はステップST15に進む。
制御シナリオはこれまで使用していた制御シナリオと異なると判定した場合(ステップST13の“NO”の場合)、モデル選択部127は、ステップST12にてシナリオ取得部17が取得した制御シナリオ情報に基づき、ニューラルネットワーク、言い換えれば、制御量推論ネットワーク120の層の重み等のパラメータを設定する(ステップST14)。制御量推論ネットワーク120のパラメータは、現在設定されている制御量推論ネットワーク120のパラメータから、制御シナリオに応じたパラメータへと変更される。
なお、ステップST13が1回目に実行される場合は、それより前に使用していた制御シナリオがないため、モデル選択部127は、制御シナリオはこれまで使用していた制御シナリオと異なると判定する。そして、制御装置1aの動作はステップST15に進む。
制御量推論部12aは、ステップST11にて周辺状況取得部11が取得した周辺状況情報に基づき、ステップST12にてシナリオ取得部17が取得した制御シナリオ情報に基づいてパラメータが設定された制御量推論ネットワーク120を用いて、車両100aの制御量を推論するとともに着目領域情報を取得する(ステップST15)。
制御量推論部12aは、推論した、制御シナリオに応じた車両100aの制御量に関する情報を、制御決定部15に出力する。また、制御量推論部12aは、取得した、制御シナリオに応じた着目領域情報を、信頼度判定部14に出力する。
物標検出部13aは、ステップST11にて周辺状況取得部11が取得した周辺状況情報と、ステップST12にてシナリオ取得部17が取得した制御シナリオ情報に基づいて、車両100aの周辺に存在する物標の位置を検出する(ステップST16)。
具体的には、物標検出部13aは、着目物標データベース18を参照して、検出対象物標を絞り込んだ上で、絞り込んだ検出対象物標の位置を検出する。
物標検出部13aは、検出した物標の位置に関する物標位置情報、より詳細には、検出した検出対象物標の位置に関する物標位置情報を、信頼度判定部14に出力する。
制御装置1aの動作について、図8では、制御装置1aは、ステップST13~ステップST16の順に実行したが、この順番は必須ではない。制御装置1aは、ステップST13~ステップST15の動作とステップST16の動作の順番を入れ替えてもよいし、ステップST13~ステップST15の動作とステップST16の動作を並行して実行してもよい。
このように、実施の形態2において、制御装置1aは、制御シナリオに応じて異なる制御量推論ネットワーク120を用いた車両100aの制御量の推論を行う。制御装置1aは、実施の形態1に係る制御装置1に比べ、制御シナリオに特化した制御量推論ネットワーク120を用いて車両100aの制御量の推論を行うことができる。
制御量推論ネットワーク120は、制御シナリオに特化して学習するため、制御量推論ネットワーク120の学習が容易となる。
制御シナリオが設定される場合、各制御量推論ネットワーク120はいかなる状況下でも全ての物標に対して着目する必要はなく、制御シナリオに応じた物標に着目できていればよい。そこで、制御装置1aは、制御シナリオに応じて検出対象物標の絞り込みを行った上で当該検出対象物標の位置を検出する。これにより、制御装置1aは、制御シナリオごとに制御量推論ネットワーク120が構成される場合であっても、着目領域と物標位置の比較を行い、制御量推論ネットワーク120が車両100aの制御量の推論の際に物標に着目しているかによって、当該制御量推論ネットワーク120から出力される車両100aの制御量の信頼度の判定を行うことができる。
そして、制御装置1aが、推論した制御量とともに、判定した当該制御量の信頼度を出力することで、制御決定部15は、例えば、信頼度が低い制御量、言い換えれば、制御量推論ネットワーク120の学習が不完全である可能性がある入力に対して推論された制御量が、車両100aの制御に用いられないようにすることができる。
つまり、制御装置1aは、信頼度を判定することなく制御量を出力する場合に比べ、より適切な車両100aの制御量の出力を行うことができる。
以上の実施の形態2では、制御装置1aにおいて、制御量推論部12aは、周辺状況情報に含まれる撮像画像に基づき、車両100aの制御量を推論するとともに、当該制御量を推論する際の、撮像画像における着目領域に関する着目領域情報を取得していた。また、物標検出部13aは、物標の位置を、周辺状況情報に含まれる撮像画像における物標の位置として検出していた。
これに限らず、制御量推論部12aは、車両100aの周辺に存在する物標との距離および角度を示す点群データに基づき、車両100aの制御量を推論するとともに、当該制御量を推論する際の、点群データにおける着目領域に関する着目領域情報を取得してもよい。この場合、物標検出部13aは、物標の位置を、点群データに基づく実空間上の位置として検出する。
この場合、制御装置1aは、カメラ2およびレーダ3に代えて、LiDAR(図示省略)と接続される。なお、LiDARは車両100aに搭載されている。LiDARは、上記点群データを制御装置1aに出力する。制御装置1aの周辺状況取得部11は、LiDARから出力された点群データを、周辺状況情報として取得する。
なお、この場合、周辺状況取得部11は、撮像画像取得部111および距離情報取得部112を備えない構成とできる。
このように、制御装置1aにおいて、周辺状況情報は、車両100aと当該車両100aの周辺に存在する物標との距離および角度を示す点群データを含み、制御量推論部12aは、点群データに基づき、車両100aの制御量を推論するとともに、当該制御量を推論する際に用いた、点群データにおける着目領域に関する着目領域情報を取得するようにしても、制御装置1aは、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
実施の形態2に係る制御装置1aのハードウェア構成は、実施の形態1において図4Aおよび図4Bを用いて説明した制御装置1のハードウェア構成と同様であるため、図示を省略する。なお、制御装置1aは制御決定部15を備えているものとして、制御装置1aのハードウェア構成の一例を説明する。
実施の形態2において、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17の機能は、処理回路401により実現される。すなわち、制御装置1aは、制御シナリオに応じて、車両100aを制御するための制御量を推論し、推論した制御量の信頼度を判定する制御を行うための処理回路401を備える。
処理回路がプロセッサ404の場合、制御装置1aは、メモリ405に記憶されたプログラムを読み出して実行することにより、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17の機能を実行する。すなわち、制御装置1aは、処理回路により実行されるときに、上述の図8のステップST11~ステップST18が結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17の手順または方法をコンピュータに実行させるものであるとも言える。
着目物標データベース18は、例えば、メモリ405で構成される。
また、制御装置1aは、カメラ2、レーダ3、シナリオ指示装置4、アクチュエータ16、または、LiDAR等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
以上の実施の形態2では、制御装置1aは、車両100aに搭載される車載装置とし、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、シナリオ取得部17は、制御装置1aに備えられていた。また、制御決定部15も、車両100aに備えられていた。
これに限らず、周辺状況取得部11と、制御量推論部12aと、物標検出部13aと、信頼度判定部14と、制御決定部15と、シナリオ取得部17のうち、一部が車両100aの車載装置に備えられ、その他は当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとで制御システムを構成してもよい。
また、以上の実施の形態2において、制御装置1aは、例えば、産業用ロボット、無人搬送車、または、航空機を、制御対象機器とすることもできる。
以上のように、実施の形態2によれば、制御装置1aは、制御対象機器の制御内容を示す制御シナリオが指定された制御シナリオ情報を取得するシナリオ取得部17を備え、制御量推論部12aは、周辺状況取得部11が取得した周辺状況情報に基づき、シナリオ取得部17が取得した制御シナリオ情報に基づいてパラメータが設定されたニューラルネットワーク(制御量推論ネットワーク120)を用いて、制御対象機器の制御量を推論するとともに着目領域情報を取得し、物標検出部13aは、周辺状況取得部11が取得した周辺状況情報と、シナリオ取得部17が取得した制御シナリオ情報に基づいて、物標の位置を検出するように構成した。そのため、制御装置1aは、制御対象機器の制御内容に応じて、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。そして、制御装置1aは、信頼度を判定することなく制御量を出力する場合に比べ、より適切な車両100の制御量の出力を行うことができる。
なお、本開示は、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本開示に係る制御装置は、制御対象機器の制御を行うための制御量として推論された制御量が信頼に足るものであるか否かを判定することができる。
1,1a 制御装置、2 カメラ、3 レーダ、4 シナリオ指示装置、11 周辺状況取得部、111 撮像画像取得部、112 距離情報取得部、12,12a 制御量推論部、120 制御量推論ネットワーク、127 モデル選択部、128 パラメータデータベース、13,13a 物標検出部、14 信頼度判定部、15 制御決定部、16 アクチュエータ、17 シナリオ取得部、18 着目物標データベース、401 処理回路、402 入力インタフェース装置、403 出力インタフェース装置、404 プロセッサ、405 メモリ。

Claims (8)

  1. 制御対象機器の周辺の状況に関する周辺状況情報を取得する周辺状況取得部と、
    前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の制御量を推論するとともに、前記制御量を推論する際に用いた、前記周辺状況情報における着目領域に関する着目領域情報を取得する制御量推論部と、
    前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の周辺に存在する物標の位置を検出する物標検出部と、
    前記制御量推論部が取得した前記着目領域情報と、前記物標検出部が検出した前記物標の位置に関する物標位置情報とに基づき、前記着目領域と物標位置の比較を行い、前記着目領域と前記物標位置との一致度を算出し、算出した前記一致度に応じて、前記制御量推論部が推論した前記制御量の信頼度を判定する信頼度判定部
    とを備えた制御装置。
  2. 前記制御量推論部は、学習済みのニューラルネットワークを用いて、前記制御量を推論するとともに前記着目領域情報を取得する
    ことを特徴とする請求項1記載の制御装置。
  3. 前記信頼度判定部が判定した前記制御量の前記信頼度に基づき、前記制御量推論部が推論した前記制御量を前記制御対象機器の前記制御量として採用するか否かを決定する制御決定部を備えた
    ことを特徴とする請求項1記載の制御装置。
  4. 前記周辺状況情報は、前記制御対象機器の周辺を撮像した撮像画像を含み、
    前記制御量推論部は、前記撮像画像に基づき、前記制御対象機器の前記制御量を推論するとともに、当該制御量を推論する際に用いた、前記撮像画像における前記着目領域に関する前記着目領域情報を取得する
    ことを特徴とする請求項1記載の制御装置。
  5. 前記周辺状況情報は、前記制御対象機器と前記制御対象機器の周辺に存在する前記物標との距離および角度を示す点群データを含み、
    前記制御量推論部は、前記点群データに基づき、前記制御対象機器の前記制御量を推論するとともに、当該制御量を推論する際に用いた、前記点群データにおける前記着目領域に関する前記着目領域情報を取得する
    ことを特徴とする請求項1記載の制御装置。
  6. 前記物標検出部は、前記物標の一部の位置を、前記物標の位置として検出する
    ことを特徴とする請求項1記載の制御装置。
  7. 前記制御対象機器の制御内容を示す制御シナリオが指定された制御シナリオ情報を取得するシナリオ取得部を備え、
    前記制御量推論部は、前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記シナリオ取得部が取得した前記制御シナリオ情報に基づいてパラメータが設定された前記ニューラルネットワークを用いて、前記制御対象機器の前記制御量を推論するとともに前記着目領域情報を取得し、
    前記物標検出部は、前記周辺状況取得部が取得した前記周辺状況情報と、前記シナリオ取得部が取得した前記制御シナリオ情報に基づいて、前記物標の位置を検出する
    ことを特徴とする請求項2記載の制御装置。
  8. 周辺状況取得部が、制御対象機器の周辺の状況に関する周辺状況情報を取得するステップと、
    制御量推論部が、前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の制御量を推論するとともに、前記制御量を推論する際に用いた、前記周辺状況情報における着目領域に関する着目領域情報を取得するステップと、
    物標検出部が、前記周辺状況取得部が取得した前記周辺状況情報に基づき、前記制御対象機器の周辺に存在する物標の位置を検出するステップと、
    信頼度判定部が、前記制御量推論部が取得した前記着目領域情報と、前記物標検出部が検出した前記物標の位置に関する物標位置情報とに基づき、前記着目領域と物標位置の比較を行い、前記着目領域と前記物標位置との一致度を算出し、算出した前記一致度に応じて、前記制御量推論部が推論した前記制御量の信頼度を判定するステップ
    とを備えた制御方法。
JP2023508147A 2021-03-22 2021-03-22 制御装置および制御方法 Active JP7370495B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/011618 WO2022201222A1 (ja) 2021-03-22 2021-03-22 制御装置および制御方法

Publications (2)

Publication Number Publication Date
JPWO2022201222A1 JPWO2022201222A1 (ja) 2022-09-29
JP7370495B2 true JP7370495B2 (ja) 2023-10-27

Family

ID=83395366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023508147A Active JP7370495B2 (ja) 2021-03-22 2021-03-22 制御装置および制御方法

Country Status (5)

Country Link
US (1) US20240067189A1 (ja)
JP (1) JP7370495B2 (ja)
CN (1) CN116963951A (ja)
DE (1) DE112021007341T5 (ja)
WO (1) WO2022201222A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017105453A (ja) 2015-12-08 2017-06-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 自動車の運転支援機能を検証する方法
JP2017220197A (ja) 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両制御方法と装置及び判断モジュールの獲得方法と装置
JP2019501435A (ja) 2016-08-29 2019-01-17 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム
WO2021044486A1 (ja) 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP6972444B1 (ja) 2021-03-23 2021-11-24 三菱電機株式会社 信頼度判定装置および信頼度判定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6458072B2 (ja) 2017-03-30 2019-01-23 株式会社Jsol 多層ニューラルネットワーク(ディープラーニング)の性能向上のための高寄与度項目の抽出システム、抽出方法及び抽出プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017105453A (ja) 2015-12-08 2017-06-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 自動車の運転支援機能を検証する方法
JP2017220197A (ja) 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両制御方法と装置及び判断モジュールの獲得方法と装置
JP2019501435A (ja) 2016-08-29 2019-01-17 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム
WO2021044486A1 (ja) 2019-09-02 2021-03-11 三菱電機株式会社 自動運転制御装置および自動運転制御方法
JP6972444B1 (ja) 2021-03-23 2021-11-24 三菱電機株式会社 信頼度判定装置および信頼度判定方法

Also Published As

Publication number Publication date
CN116963951A (zh) 2023-10-27
JPWO2022201222A1 (ja) 2022-09-29
DE112021007341T5 (de) 2024-01-04
WO2022201222A1 (ja) 2022-09-29
US20240067189A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
JP6547292B2 (ja) 画像処理装置、機器制御システム、および画像処理プログラム
EP2383713B1 (en) Detecting and recognizing traffic signs
US20210390353A1 (en) Object recognition device, object recognition method, and object recognition program
US10746987B2 (en) Vehicle systems and methods for redirecting a driver's gaze towards an object of interest
JP7046262B2 (ja) 移動体制御装置および移動体制御方法
US20190114493A1 (en) Method and device for traffic sign recognition
US10803307B2 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
CN110576847A (zh) 基于焦点的对传感器数据的标记
US8587456B2 (en) Method for distinguishing between reflectors arranged on the roadside and vehicle lights in the dark
US10916134B2 (en) Systems and methods for responding to a vehicle parked on shoulder of the road
JP6418574B2 (ja) 危険度推定装置、危険度推定方法及び危険度推定用コンピュータプログラム
CN116142233A (zh) 载具灯分类系统
CN111409455A (zh) 车辆的速度控制方法及装置、电子设备、存储介质
CN110660271A (zh) 在更大距离上识别对于行驶重要相关的情况
US20210291736A1 (en) Display control apparatus, display control method, and computer-readable storage medium storing program
US20230386219A1 (en) Reliability determination device and reliability determination method
JP7370495B2 (ja) 制御装置および制御方法
US11794733B2 (en) Risk estimation device and vehicle control device
US11912297B2 (en) Driving assistance device and driving assist method
JP6861911B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022230281A1 (ja) 外界認識装置、および、外界認識システム
WO2023132092A1 (ja) 車両制御システム
US20240132100A1 (en) Method for assistive or automated vehicle control
US20220309799A1 (en) Method for Automatically Executing a Vehicle Function, Method for Evaluating a Computer Vision Method and Evaluation Circuit for a Vehicle
CN115661773A (zh) 车辆的自动驾驶方法、装置、车辆及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231017

R150 Certificate of patent or registration of utility model

Ref document number: 7370495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150