JP7048456B2 - 学習装置、学習方法、およびプログラム - Google Patents

学習装置、学習方法、およびプログラム Download PDF

Info

Publication number
JP7048456B2
JP7048456B2 JP2018161909A JP2018161909A JP7048456B2 JP 7048456 B2 JP7048456 B2 JP 7048456B2 JP 2018161909 A JP2018161909 A JP 2018161909A JP 2018161909 A JP2018161909 A JP 2018161909A JP 7048456 B2 JP7048456 B2 JP 7048456B2
Authority
JP
Japan
Prior art keywords
reward
value
vehicle
target
input value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018161909A
Other languages
English (en)
Other versions
JP2020035222A (ja
Inventor
建 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018161909A priority Critical patent/JP7048456B2/ja
Priority to CN201910799040.XA priority patent/CN110874642B/zh
Priority to US16/553,294 priority patent/US11498574B2/en
Publication of JP2020035222A publication Critical patent/JP2020035222A/ja
Application granted granted Critical
Publication of JP7048456B2 publication Critical patent/JP7048456B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0008Feedback, closed loop systems or details of feedback error signal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、学習装置、学習方法、およびプログラムに関する。
近年、車両が自律的に走行する自動運転の分野において、AI(人工知能)・機械学習によって走行プランを決定しようとする試みがなされている。また、観測値に基づいて行動を決定し、実環境やシミュレータからのフィードバックに基づく報酬を計算してモデルパラメータを最適化する強化学習についても研究および実用化が進められている。これに関連し、車両の状態を変更させるための操作量を、強化学習によって生成する方法が開示されている(特許文献1参照)。
特開2007-65929号公報
強化学習を自動運転に適用する場合、車両の操作量だけでなく種々の技術的要素に適用場面が広がることが想定されるが、従来の技術では強化学習の適用先が限定的であった。このため、自動運転車両の行動計画部分について、柔軟な学習を行うことができない場合があった。
本発明は、このような事情を考慮してなされたものであり、より柔軟な学習を行うことができる学習装置、学習方法、およびプログラムを提供することを目的の一つとする。
この発明に係る学習装置、学習方法、またはプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る学習装置は、車両の行動を示す情報を生成するプランナと、前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出し、前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出する報酬導出部と、を備え、前記プランナは、前記報酬導出部により導出された報酬を最適化する強化学習を行う、学習装置である。
(2):上記(1)の態様において、前記報酬導出部は、前記複数の被評価情報の少なくとも一部に対し、評価特性が互いに異なる規則をそれぞれ適用することで、前記個別報酬を導出するもの。
(3):上記(2)の態様において、前記報酬導出部は、前記複数の被評価情報の少なくとも一部に対し、目標値との関係に対する個別報酬の分布形状が互いに異なる複数の報酬関数のいずれかを適用することで、前記個別報酬を導出するもの。
(4):上記(1)~(3)の態様において、前記報酬導出部は、前記複数の個別報酬を互いに乗算することで、前記車両の行動に対する報酬を計算するもの。
(5):上記(1)~(4)の態様において、前記帰還情報は、前記車両の速度、加速度、横位置のうち少なくとも一部を含むもの。
(6):上記(1)~(5)の態様において、前記被評価情報は、前記車両の行動に基づいて導出されるリスクを含むもの。
(7):上記(3)の態様において、前記複数の報酬関数は、入力値が目標値に一致すると所定値を返し、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含むもの。
(8):上記(3)または(7)の態様において、前記複数の報酬関数は、入力値が目標値に一致すると所定値を返し、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す、但し、入力値が目標値を超える側における入力値と目標値との差分に対する個別報酬の低下度合いを、入力値が目標値を下回る側における入力値と目標値との差分に対する個別報酬の低下度合いよりも大きくする報酬関数を含むもの。
(9):上記(3)、(7)、または(8)の態様において、前記複数の報酬関数は、入力値が目標値以上であれば所定値を返し、入力値が目標値を下回る場合、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含むもの。
(10):上記(3)、または(7)~(9)の態様において、前記複数の報酬関数は、入力値が目標値以下であれば所定値を返し、入力値が目標値を上回る場合、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含むもの。
(11):上記(3)、または(7)~(10)の態様において、前記複数の報酬関数は、入力値が目標範囲内であれば所定値の一例を返し、入力値と目標範囲の上限または下限との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含むもの。
(12):上記(3)、または(7)~(11)の態様において、前記複数の報酬関数は、入力値が二つ以上の目標値のいずれかに近づく程、大きい値を返す報酬関数を含むもの。
(13):上記(12)の態様において、前記入力値が二つ以上の目標値のいずれかに近づく程、大きい値を返す報酬関数は、入力値が前記二つ以上の目標値のいずれに一致するかに応じて異なる個別報酬を返すもの。
(14):本発明の他の態様に係る学習方法は、コンピュータが、車両の行動を示す情報を生成し、前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出し、前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出し、前記導出された報酬を最適化する強化学習を行う、学習方法である。
(15):本発明の他の態様に係るプログラムは、コンピュータに、車両の行動を示す情報を生成させ、前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出させ、前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出させ、前記導出された報酬を最適化する強化学習を行わせる、プログラムである。
(1)~(15)の態様によれば、より柔軟な学習を行うことができる。
学習装置300の役割について説明するための図である。 車両1の構成図である。 第1制御部120および第2制御部160の機能構成図である。 学習装置300の構成図である。 プランナ310による処理の内容を模式的に示す図である。 用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。 用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。 用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。 用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。 用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。 用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。 学習装置300により実行される処理の流れの一例を示すフローチャートである。 学習装置300のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の学習装置、学習方法、およびプログラムの実施形態について説明する。
[概要]
図1は、学習装置300の役割について説明するための図である。学習装置300は、一以上のプロセッサにより実現される。学習装置300は、内部演算によって導出した行動(アクション)をシミュレータ/実車両400に入力し、それによって生じた環境の変化等に基づく報酬を導出または取得し、報酬を最大化する行動を学習する装置である。学習装置300の学習結果は、行動決定モデルとして車両1に搭載される。
行動決定モデルは、車両1に搭載されたAI(Artificial Intelligence;人工知能)を動作させるためのパラメータであってもよいし、ルールベースで行動を決定する際のパラメータであってもよいし、それらの両者を含んでもよい。
シミュレータ/実車両400は、車両1と同等の性能を有する仮想車両をシミュレーション環境上で実現するコンピュータ装置、または実車両である。学習装置300は、例えば、車両1に搭載されないコンピュータによって実現されるが、車両1に搭載され、走行しながら行動決定モデルを更新するものであってもよい。シミュレータ/実車両400がシミュレータである場合、シミュレータ/実車両400と学習装置300の間で地図情報などの、シミュレーションの前提となる環境情報が共有される。
[車両]
まず、行動決定モデルを搭載する対象の車両1の一例について説明する。車両1は、少なくとも部分的に、自動的に(運転者の操作に依らずに)走行(走る、曲がる、止まる)を制御する自動運転車両(或いは運転支援機能付き車両)である。
図2は、車両1の構成図である。車両1は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両1の任意の箇所に取り付けられる。レーダ装置12は、車両1の周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、車両1の周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、車両1の周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。HMI30は、車両1の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。車両センサ40は、車両1の速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両1の向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、車両1の位置を特定する。車両1の位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。経路決定部53は、例えば、GNSS受信機51により特定された車両1の位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図上経路は、MPU60に出力される。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。第2地図情報62は、第1地図情報54よりも高精度な地図情報である。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、車両1が、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。図3は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AIによる機能と、予め与えられたルールベースのモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、車両1の周辺にある物体の位置、および速度、加速度等の状態を認識する。
また、認識部130は、例えば、車両1が走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される車両1の周辺の道路区画線のパターンとを比較することで、走行車線を認識する。認識部130は、走行車線を認識する際に、走行車線に対する車両1の位置や姿勢を認識する。認識部130は、例えば、車両1の基準点の車線中央からの乖離、および車両1の進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する車両1の相対位置および姿勢として認識する。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、車両1の周辺状況に対応できるように、車両1が自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両1の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの車両1の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両1の到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、交差点通過イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに車両1が通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、車両1の前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[学習装置]
図4は、学習装置300の構成図である。学習装置300は、例えば、プランナ310と、制御演算部320と、認識部330と、妥当性評価部340と、リスク計算部350と、報酬導出部360とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性記憶媒体)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。学習装置300の記憶装置には、用途毎報酬関数マップ370が格納されている。
学習装置300が以下に説明する処理を行う上で、各部によって同じ地図情報が共有されているものとする。共有される地図情報は、例えば、第2地図情報62と同等の地図情報である。また、報酬の計算は最後に一度行われるのではなく、車両が仮想的に或いは実際に走行する間、繰り返し報酬が計算されて、計算結果が合計される。また、学習装置300は、例えば、自動運転のイベントごとに学習を行う。
プランナ310には、走行目標が与えられる。走行目標とは、強化学習を行う際の車両の走行の指針であり、例えば、速度目標値、少なくとも部分的な目的地までの経路などを含む。また、プランナ310には、シミュレータ/実車両400からのセンサ検出結果、認識部330による認識結果などが入力される。センサ検出結果は、少なくとも車両センサ40の検出値を含み、カメラ10、レーダ装置12、ファインダ14、または物体認識装置16の検出結果を含んでもよい。認識部330は、車両1における認識部130と同等の機能を有し、シミュレーション環境における周辺物体の情報をプランナ310に出力する。
プランナ310は、複数の軌道点を含む目標軌道を生成する。制御演算部320には、軌道点のうち所定時間後(例えば、0.1秒後)の軌道点が入力される。これに限らず、複数の軌道点が制御演算部320に入力されてもよい。プランナ310は、例えば、ポリシー315と乱数に基づいて軌道点を決定する。ポリシー315は、ニューラルネットワークなどを利用したモデルであってもよいし、ルールベースのモデルであってもよい。例えば、プランナ310は、入力された各種情報とポリシー315に基づいて決定した軌道点を、乱数に応じた方向および移動量でオフセットさせた軌道点を制御演算部320に出力する。
図5は、プランナ310による処理の内容を模式的に示す図である。図示する例では、プランナ310はニューラルネットワークに各種情報を入力し、出力層に乱数要素を加算することで軌道点を導出する。この場合、ニューラルネットワークの係数などがポリシー315に相当する。プランナ310は、ニューラルネットワークの中間層でイベントを導出するようにしてもよい。また、プランナ310は、ニューラルネットワーク内にルールベースの処理を包含するようにしてもよいし、ニューラルネットワークの枠外でルールベースの処理を行い、ニューラルネットワークのいずれかの層と結合(コンカチネット)するようにしてもよい。
制御演算部320は、車両1における第2制御部と同等の機能を有し、走行駆動力出力装置200、ブレーキ装置210、またはステアリング装置220に対する操作量を、シミュレータ/実車両400に出力する。
妥当性評価部340は、車両が軌道点に移動すること(行動)の妥当性を評価し、評価結果を報酬導出部360に出力する。妥当性評価部340は、例えば、車両の乗員の乗り心地に関する基準、移動可能性に関する基準などに基づいて行動の妥当性を評価する。車両の乗員の乗り心地に関する基準とは、例えば、加速度やジャーク(躍度)の絶対値が小さいほど妥当性を高く評価するという基準である。移動可能性に関する基準とは、例えば、車両が軌道点に移動するために必要な速度や加速度等が規定範囲内であれば妥当性を高く評価し、規定範囲外であれば妥当性を低く評価するという基準である。妥当性評価部340は、車両の状態や周囲環境に応じて妥当性の基準を変更してもよい。例えば、車両の付近に障害物が存在する場合に、この障害物から回避するための急加速を行ったとしても、妥当性に低い値を与えなくてもよい。
リスク計算部350は、センサ検出結果に基づいて、行動によるリスクを計算し、計算したリスクを報酬導出部360に出力する。リスク計算部350は、例えば、車両と周囲物体との距離が近い場合にリスクを高く計算する。
報酬導出部360には、例えば、シミュレータ/実車両400或いは認識部330から、車両の速度、加速度、横位置、および車間距離が入力され、妥当性評価部340から妥当性の評価値が入力され、リスク計算部350からリスクが入力される。横位置とは、道路の幅方向に関する位置である。これらの情報は、被評価情報の一例である。また、車両の速度、加速度、横位置、および車間距離は、帰還情報の一例である。報酬導出部360は、入力された情報(入力値)に対して、用途毎報酬関数マップ370に基づく報酬関数を適用することで、行動に対する報酬(個別報酬)を導出する。個別報酬は、例えば、ゼロから1(所定値の一例)の間で導出される。
用途毎報酬関数マップ370は、目標に対する評価特性が異なる複数の報酬関数マップを含む。図6~11は、用途毎報酬関数マップ370に含まれる報酬関数マップのそれぞれを例示した図である。
図6に示す第1報酬関数マップは、入力値が目標値Tgt1に一致すると1(所定値の一例)を返し、入力値と目標値Tgt1との差分の絶対値が大きくなるほど小さい値を返す第1報酬関数を規定する。第1報酬関数の評価特性は、例えば、ガウス関数に基づいて設定される。第1報酬関数は、なるべく目標値Tgt1に近づけたい入力値に適用される。報酬導出部360は、例えば、高速道路などの最低速度が設けられているような道路における車両の速度を、第1報酬関数に入力して個別報酬を導出する。
図7に示す第2報酬関数マップは、入力値が目標値Tgt2に一致すると1(所定値の一例)を返し、入力値と目標値Tgt2との差分の絶対値が大きくなるほど小さい値を返す、但し、入力値が目標値Tgt2を超える側における入力値と目標値Tgt2との差分に対する個別報酬の低下度合いを、入力値が目標値Tgt2を下回る側における入力値と目標値Tgt2との差分に対する個別報酬の低下度合いよりも大きくしている。第2報酬関数の評価特性は、例えば、ガウス関数などの分布にスキュー(歪度)を作用させた分布に基づいて設定される。第2報酬関数は、なるべく目標値Tgt2に近づけたく、且つ目標値Tgt2を超えないことが望ましい入力値に適用される。報酬導出部360は、例えば、車両の速度を第2報酬関数に入力して個別報酬を導出する。
図8に示す第3報酬関数マップは、入力値が目標値Tgt3以上であれば1(所定値の一例)を返し、入力値が目標値Tgt3を下回る場合、入力値と目標値Tgt3との差分の絶対値が大きくなるほど小さい値を返す第3報酬関数を規定する。第3報酬関数は、目標値Tgt3以上に維持することが望ましい入力値に適用される。報酬導出部360は、例えば、車間距離を第3報酬関数に入力して個別報酬を導出する。
図9に示す第4報酬関数マップは、入力値が目標値Tgt4以下であれば1(所定値の一例)を返し、入力値が目標値Tgt4を上回る場合、入力値と目標値Tgt4との差分の絶対値が大きくなるほど小さい値を返す第4報酬関数を規定する。第4報酬関数は、目標値Tgt4以上に維持することが望ましい入力値に適用される。報酬導出部360は、例えば、リスクを第4報酬関数に入力して個別報酬を導出する。
図10に示す第5報酬関数マップは、入力値が目標範囲TA5内であれば1(所定値の一例)を返し、入力値と目標範囲TA5の上限または下限との差分の絶対値が大きくなるほど(目標範囲TA5から外れるほど)小さい値を返す第5報酬関数を規定する。第5報酬関数は、なるべく目標範囲TA5内に収めたい入力値に適用される。報酬導出部360は、例えば、加速度や横位置を、第5報酬関数に入力して個別報酬を導出する。加速度に適用する場合、標範囲TA5はゼロを含む。
図11に示す第6報酬関数マップは、入力値が二つ以上の目標値(図では目標値Tgt6(1)、目標値Tgt6(2)の二つ)のいずれかに近づく程、大きい値を返す第6報酬関数を規定する。第6報酬関数は、複数の目標値のうちいずれかに近づけたい入力値に適用される。図10の例では、目標値Tgt6(1)に一致する場合、目標値Tgt6(2)に一致する場合よりも大きい値を返すものとしているが、同じ値を返すようにしてもよい。報酬導出部360は、例えば、横位置を、第6報酬関数に入力して個別報酬を導出する。この場合、目標値Tgt6(1)、目標値Tgt6(2)は、走行可能な二つの互いに隣接する車線の中央である。例えば走行車線の中央に対応する目標値Tgt6(1)を走行している場合、追い越し車線の中央に対応する目標値Tgt6(2)を走行している場合よりも個別報酬が高く導出される。
報酬導出部360は、例えば、複数の入力値に基づいて求めた複数の個別報酬を、互いに乗算してトータルの報酬を計算する。上記の例では、報酬導出部360は、式(1)に基づいてトータルの報酬を計算する。F1~F6のそれぞれは、第1~第6報酬関数に対応している。なお、報酬導出部360は、個別報酬同士を乗算するのに代えて、個別報酬の加重和等を求めることでトータルの報酬を計算してもよい。
報酬(トータル)=F1(速度)またはF2(速度)×F3(車間距離)×F4(リスク)×F5(加速度)×F6(横位置) …(1)
車両が仮想的に走行している間、繰り返しプランナ310により生成された行動に対するトータルの報酬が導出され、一回の走行が終了すると、トータルの報酬を時間方向に合計した累積報酬が計算される。そして、プランナ310は、累積報酬をA3Cなどの強化学習アルゴリズムに適用し、ポリシー315を更新する。これによって、好適な軌道点の生成規則が学習される。
図12は、学習装置300により実行される処理の流れの一例を示すフローチャートである。まず、学習装置300は、走行目標と報酬関数の初期設定を行い(ステップS500)、次いでポリシー315の初期設定を行う(ステップS502)。
次に、プランナ310が、ポリシー315に従って軌道点を決定する(ステップS504)。学習装置300は、制御演算部320の処理を経て各種情報をシミュレータ/実車両400に入力し、帰還情報を取得する(ステップS506)。
次に、報酬導出部360が、帰還情報その他の情報に基づいて個別報酬を導出し、更にトータルの報酬を計算する(ステップS508)。そして、学習装置300は、反復終了条件が満たされたか否かを判定する(ステップS510)。反復終了条件とは、例えば、ステップS504で決定された軌道点の数が所定数に到達したことである。反復終了条件が満たされていない場合、ステップS504に処理が戻される。
反復終了条件が満たされた場合、報酬導出部360は、累積報酬を計算する(ステップS512)。次に、学習装置300は、学習終了条件が満たされたか否かを判定する(ステップS514)。学習終了条件とは、例えばステップS512で計算された累積報酬が閾値以上となったことである。
学習終了条件が満たされていない場合、プランナ310は、強化学習アルゴリズムに基づいてポリシー315を更新し(ステップS516)、ステップS504に処理を戻す。学習終了条件が満たされた場合、学習装置300は、ポリシー315を確定する(ステップS518)。
学習装置300は、以下のようなハードウェアによって実現される。図13は、学習装置300のハードウェア構成の一例を示す図である。図示するように、学習装置300のは、通信コントローラ300-1、CPU300-2、ワーキングメモリとして使用されるRAM(Random Access Memory)300-3、ブートプログラムなどを格納するROM(Read Only Memory)300-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置300-5、ドライブ装置300-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ300-1は、他装置との通信を行う。記憶装置300-5には、CPU300-2が実行するプログラム300-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM300-3に展開されて、CPU300-2によって実行される。これによって、プランナ310と、制御演算部320と、認識部330と、妥当性評価部340と、リスク計算部350と、報酬導出部360とのうち一部または全部が実現される。
以上説明した実施形態によれば、より柔軟な学習を行うことができる。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、ハードウェアプロセッサとを備え、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
車両の行動を示す情報を生成し、
前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出し、
前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出する、
ように構成されている、
学習装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 車両
100 自動運転制御装置
300 学習装置
310 プランナ
320 制御演算部
330 認識部
340 妥当性評価部
350 リスク計算部
360 報酬導出部
370 用途毎報酬関数マップ

Claims (15)

  1. 車両の行動を示す情報を生成するプランナと、
    前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出し、前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出する報酬導出部と、
    を備え、
    前記プランナは、前記報酬導出部により導出された報酬を最大化する強化学習を行う、 学習装置。
  2. 前記報酬導出部は、前記複数の被評価情報の少なくとも一部に対し、評価特性が互いに異なる規則をそれぞれ適用することで、前記個別報酬を導出する、
    請求項1記載の学習装置。
  3. 前記報酬導出部は、前記複数の被評価情報の少なくとも一部に対し、目標値との関係に対する個別報酬の分布形状が互いに異なる複数の報酬関数のいずれかを適用することで、前記個別報酬を導出する、
    請求項2記載の学習装置。
  4. 前記報酬導出部は、前記複数の個別報酬を互いに乗算することで、前記車両の行動に対する報酬を計算する、
    請求項1から3のうちいずれか1項記載の学習装置。
  5. 前記帰還情報は、前記車両の速度、加速度、横位置のうち少なくとも一部を含む、
    請求項1から4のうちいずれか1項記載の学習装置。
  6. 前記被評価情報は、前記車両の行動に基づいて導出されるリスクを含む、
    請求項1から5のうちいずれか1項記載の学習装置。
  7. 前記複数の報酬関数は、入力値が目標値に一致すると所定値を返し、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含む、
    請求項3記載の学習装置。
  8. 前記複数の報酬関数は、入力値が目標値に一致すると所定値を返し、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す、但し、入力値が目標値を超える側における入力値と目標値との差分に対する個別報酬の低下度合いを、入力値が目標値を下回る側における入力値と目標値との差分に対する個別報酬の低下度合いよりも大きくする報酬関数を含む、
    請求項3または7記載の学習装置。
  9. 前記複数の報酬関数は、入力値が目標値以上であれば所定値を返し、入力値が目標値を下回る場合、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含む、
    請求項3、7、または8記載の学習装置。
  10. 前記複数の報酬関数は、入力値が目標値以下であれば所定値を返し、入力値が目標値を上回る場合、入力値と目標値との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含む、
    請求項3、または、請求項7から9のうちいずれか1項記載の学習装置。
  11. 前記複数の報酬関数は、入力値が目標範囲内であれば所定値の一例を返し、入力値と目標範囲の上限または下限との差分の絶対値が大きくなるほど小さい値を返す報酬関数を含む、
    請求項3、または、請求項7から10のうちいずれか1項記載の学習装置。
  12. 前記複数の報酬関数は、入力値が二つ以上の目標値のいずれかに近づく程、大きい値を返す報酬関数を含む、
    請求項3、または、請求項7から11のうちいずれか1項記載の学習装置。
  13. 前記入力値が二つ以上の目標値のいずれかに近づく程、大きい値を返す報酬関数は、入力値が前記二つ以上の目標値のいずれに一致するかに応じて異なる個別報酬を返す、
    請求項12記載の学習装置。
  14. コンピュータが、
    車両の行動を示す情報を生成し、
    前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出し、
    前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出し、
    前記導出された報酬を最大化する強化学習を行う、
    学習方法。
  15. コンピュータに、
    車両の行動を示す情報を生成させ、
    前記車両の行動を示す情報に基づく情報をシミュレータまたは実環境に入力することで前記シミュレータまたは実環境から得られる帰還情報を含む、複数の被評価情報のそれぞれを評価した複数の個別報酬を導出させ、
    前記複数の個別報酬に基づいて、前記車両の行動に対する報酬を導出させ、
    前記導出された報酬を最大化する強化学習を行わせる、
    プログラム。
JP2018161909A 2018-08-30 2018-08-30 学習装置、学習方法、およびプログラム Active JP7048456B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018161909A JP7048456B2 (ja) 2018-08-30 2018-08-30 学習装置、学習方法、およびプログラム
CN201910799040.XA CN110874642B (zh) 2018-08-30 2019-08-27 学习装置、学习方法及存储介质
US16/553,294 US11498574B2 (en) 2018-08-30 2019-08-28 Learning device, learning method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018161909A JP7048456B2 (ja) 2018-08-30 2018-08-30 学習装置、学習方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020035222A JP2020035222A (ja) 2020-03-05
JP7048456B2 true JP7048456B2 (ja) 2022-04-05

Family

ID=69640861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018161909A Active JP7048456B2 (ja) 2018-08-30 2018-08-30 学習装置、学習方法、およびプログラム

Country Status (3)

Country Link
US (1) US11498574B2 (ja)
JP (1) JP7048456B2 (ja)
CN (1) CN110874642B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904849B2 (ja) * 2017-08-14 2021-07-21 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム。
US11254325B2 (en) 2018-07-14 2022-02-22 Moove.Ai Vehicle-data analytics
US11645498B2 (en) * 2019-09-25 2023-05-09 International Business Machines Corporation Semi-supervised reinforcement learning
WO2021202602A1 (en) * 2020-03-30 2021-10-07 Moove.Ai Vehicle-data analytics
JP7464425B2 (ja) 2020-03-31 2024-04-09 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP7465705B2 (ja) * 2020-03-31 2024-04-11 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
DE102020212347A1 (de) * 2020-09-30 2022-03-31 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Evaluieren eines Verfahrens für eine Steuerung einer zumindest teilautomatisierten mobilen Plattform
KR102631402B1 (ko) * 2021-06-14 2024-01-31 숭실대학교 산학협력단 자율주행차량을 위한 심층강화학습 기반 차선 변경 방법, 이를 수행하기 위한 기록 매체 및 장치
CN114013443B (zh) * 2021-11-12 2022-09-23 哈尔滨工业大学 一种基于分层强化学习的自动驾驶车辆换道决策控制方法
CN115790608B (zh) * 2023-01-31 2023-05-30 天津大学 基于强化学习的auv路径规划算法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152125A (ja) 2002-10-31 2004-05-27 Nissan Motor Co Ltd 車両用推奨操作量生成装置
US20150344030A1 (en) 2014-05-30 2015-12-03 Honda Research Institute Europe Gmbh Method and vehicle with an advanced driver assistance system for risk-based traffic scene analysis

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254505A (ja) * 1997-03-14 1998-09-25 Toyota Motor Corp 自動制御装置
JP2007065929A (ja) 2005-08-30 2007-03-15 Okinawa Institute Of Science & Technology 制御器、制御方法および制御プログラム
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
US10769525B2 (en) * 2016-09-23 2020-09-08 Apple Inc. Decision making for autonomous vehicle motion control
CN106777874A (zh) * 2016-11-18 2017-05-31 中国科学院自动化研究所 基于循环神经网络构建预测模型的方法
US10032111B1 (en) * 2017-02-16 2018-07-24 Rockwell Collins, Inc. Systems and methods for machine learning of pilot behavior
CN107306207A (zh) * 2017-05-31 2017-10-31 东南大学 结合Skyline计算与多目标强化学习服务组合方法
US10935982B2 (en) * 2017-10-04 2021-03-02 Huawei Technologies Co., Ltd. Method of selection of an action for an object using a neural network
CA3094427A1 (en) * 2018-03-26 2019-10-03 Sony Corporation Information processing device and information processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152125A (ja) 2002-10-31 2004-05-27 Nissan Motor Co Ltd 車両用推奨操作量生成装置
US20150344030A1 (en) 2014-05-30 2015-12-03 Honda Research Institute Europe Gmbh Method and vehicle with an advanced driver assistance system for risk-based traffic scene analysis

Also Published As

Publication number Publication date
JP2020035222A (ja) 2020-03-05
US20200070844A1 (en) 2020-03-05
CN110874642A (zh) 2020-03-10
US11498574B2 (en) 2022-11-15
CN110874642B (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
JP7048456B2 (ja) 学習装置、学習方法、およびプログラム
JP7048455B2 (ja) 学習装置、シミュレーションシステム、学習方法、およびプログラム
US11914386B2 (en) Mobile object control device, mobile object control method, and storage medium
JP7043279B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP2020147139A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7444680B2 (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP6990675B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021160426A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP7035204B2 (ja) 車両制御装置、自動運転車開発システム、車両制御方法、およびプログラム
CN115140086A (zh) 车辆控制装置、车辆控制方法及存储介质
US20210300350A1 (en) Vehicle control device, vehicle control method, and storing medium
CN112686421B (zh) 将来行动推定装置、将来行动推定方法及存储介质
CN117593911A (zh) 信息处理装置、信息处理方法及存储介质
US11667281B2 (en) Vehicle control method, vehicle control device, and storage medium
JP7125969B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022014172A (ja) 処理装置、処理方法、およびプログラム
JP2021149464A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021003971A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7049391B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7433205B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2022107296A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2024039776A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP2024047663A (ja) 移動体制御装置、移動体制御方法、およびプログラム
JP2021012467A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021160385A (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7048456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150