JP6856936B2 - 学習方法、学習装置及び学習プログラム - Google Patents

学習方法、学習装置及び学習プログラム Download PDF

Info

Publication number
JP6856936B2
JP6856936B2 JP2017232457A JP2017232457A JP6856936B2 JP 6856936 B2 JP6856936 B2 JP 6856936B2 JP 2017232457 A JP2017232457 A JP 2017232457A JP 2017232457 A JP2017232457 A JP 2017232457A JP 6856936 B2 JP6856936 B2 JP 6856936B2
Authority
JP
Japan
Prior art keywords
learning
agent
real image
pseudo
sample behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017232457A
Other languages
English (en)
Other versions
JP2019098949A (ja
Inventor
クリストファー ショバーグ エリック
クリストファー ショバーグ エリック
アルメイダ フレッド
アルメイダ フレッド
Original Assignee
アセントロボティクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アセントロボティクス株式会社 filed Critical アセントロボティクス株式会社
Priority to JP2017232457A priority Critical patent/JP6856936B2/ja
Publication of JP2019098949A publication Critical patent/JP2019098949A/ja
Application granted granted Critical
Publication of JP6856936B2 publication Critical patent/JP6856936B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、制御対象を自動で制御するためのエージェントの学習方法、学習装置及び学習プログラムに関する。
近年、自動車周囲の情報を検出し、車両の自動運転制御を実施する技術が提案されている。
特許文献1には、機械学習を利用して、自動運転制御を適正に行う車両制御装置に関する技術が開示されている。
特開2017−87906号公報
ところで、機械学習によって自動運転制御を実現しようとする場合、教師なし学習の一種である強化学習(reinforcement learning)を使用する方法がある。
強化学習は、教師なし学習であるため、個別の局面ごとに制御対象(例えば、自動車など)がどう行動すべきかという指示は一切与えられず、エージェント自身が環境の中で試行錯誤を繰り返し、よりよい動作を自ら獲得していく手法である。
詳しくは、強化学習においては、何らかの手掛かりがない場合には、何がいい行動なのかエージェントは判断することができないため、見本となる行動に関する価値基準(報酬関数)を与えることが必要となる。エージェントは学習中において当該報酬を得ながら期待値を向上させるための行動を探索し獲得する。
しかしながら、このような強化学習は、例えば、自動車の運転制御のように複雑な環境の中ではどのような行動が「良い行動」かという数値基準を定義することが困難である。
そこで、本発明は、制御対象を自動で制御するためのエージェントの学習方法として新たな技術を提供することを目的とする。
上述した強化学習のみによっては効果的な学習方法を得ることができないことから、本発明の発明者らは、強化学習に加えて、エージェントに見本となる行動を模倣させる模倣学習(imitation learning)により学習させる方法を検討した。
これにより、例えば、交差点のような複雑な曲面において、自動運転制御をどのように行わせるのか、その動作パターンを人間が局面ごとにプログラムするのではなく、見本行動としてエージェントに学習させることが可能となる。
更に、発明者は、模倣学習にGAN(generative adversarial networks)を利用することにより、更に学習の効率を向上させることができることを見出し本発明に至った(詳しい構成は後述する)。
本発明はかかる知見に基づくものである。即ち、本発明によれば、
制御対象を自動で制御するためのエージェントの学習方法であって、
第1仮想環境を提供するシミュレータを利用して操作者による見本行動情報を取得するステップと、
実画像と、前記第1仮想環境から抽出された仮想画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成するステップと、
少なくとも前記疑似実画像を利用して構築された第2仮想環境上で、前記見本行動情報に基づいて前記エージェントを模倣学習により学習させるステップとを含む、
学習方法が得られる。
本発明によれば、人間が日々行っている動作を手本とするため、少なくとも人間が実施できる(即ち、見本行動として実施できる)動作であれば、報酬関数が設計できなくとも利用が可能となり、効果的な学習を行うことができる。
また、本発明によれば、実データ(実際の運転画像等)が少なくともGANによって生成することができるため、より精度の高い学習を行うことができる。
更に、本発明によれば、GANを利用することにより見本行動が行われる仮想環境をより実際の環境に近いものに転化して模倣学習させることが可能となる。
本発明の実施の形態による学習システムの処理の流れを模式的に示すブロック図である。 本発明による学習システムに利用される学習装置のブロック構成図である。 本発明による学習システムに利用される入力装置のブロック構成図である。 本発明による学習システムによって生成された画像の例を示す図である。
本発明の実施形態の内容を列記して説明する。本発明の実施の形態による学習方法、学習装置は、以下のような構成を備える。
[項目1]
制御対象を自動で制御するためのエージェントの学習方法であって、
第1仮想環境を提供するシミュレータを利用して操作者による見本行動情報を取得するステップと、
実画像と、仮想画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成するステップと、
少なくとも前記疑似実画像を利用して構築された第2仮想環境上で、前記見本行動情報に基づいて前記エージェントを模倣学習により学習させるステップとを含む、
学習方法。
[項目2]
項目1に記載の学習方法であって、
前記シミュレータは、仮想空間を生成する仮想空間生成部と、当該仮想空間内に表示された制御対象の制御を受け付ける入力部と、当該制御を前記見本行動情報として記録する記録部と、前記仮想空間及び前記制御対象を表示するヘッドマウントディスプレイ部とを少なくとも備えている、
学習方法。
[項目3]
項目1又は項目2に記載の学習方法であって、
前記所定の生成モデルは、Generative Adversarial Networks(GAN)を利用した生成モデルである、
学習方法。
[項目4]
項目1乃至項目3のいずれかに記載の学習方法であって、
前記第2仮想環境は、前記実画像と、前記仮想画像と、前記疑似実画像とを所定の比率において利用して構築されたものである、
学習方法。
[項目5]
項目1乃至項目4のいずれかに記載の学習方法であって、
前記制御対象のダイナミクスモデルを考慮して前記模倣学習を補正するステップを更に含む、
学習方法。
[項目6]
項目1乃至項目5のいずれかに記載の学習方法であって、
前記模倣学習を検証するためのステップであって、シナリオベースシミュレーション、マルチエージェントシミュレーション又は敵対的エージェントシミュレーションの少なくともいずれかを利用するステップを更に含む、
学習方法。
[項目7]
項目1乃至項目6のいずれかに記載の学習方法であって、
前記制御対象は自動車であり、
前記第1仮想環境は前記自動車の走行環境であり、
前記見本行動は、前記走行環境内における前記自動車の運転操作である、
学習方法。
[項目8]
制御対象を自動で制御するためのエージェントの学習装置であって、
第1仮想環境を提供するシミュレータを利用して操作者による見本行動情報を取得する手段と、
実画像と、前記第1仮想環境から抽出された仮想画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成する手段と、
少なくとも前記疑似実画像を利用して構築された第2仮想環境上で、前記見本行動情報に基づいて前記エージェントを模倣学習により学習させる手段とを備える、
学習装置。
[項目9]
コンピュータ端末を利用して、制御対象を自動で制御するためのエージェントの学習プログラムであって、
前記コンピュータ端末を
第1仮想環境を提供するシミュレータを利用して操作者による見本行動情報を取得する手段、
実画像と、前記第1仮想環境から抽出された仮想画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成する手段、
少なくとも前記疑似実画像を利用して構築された第2仮想環境上で、前記見本行動情報に基づいて前記エージェントを模倣学習により学習させる手段として機能させる、
学習プログラム。
[項目10]
制御対象を自動で制御するためのエージェントの学習システムであって、
見本行動取得装置が、第1仮想環境を提供するシミュレータを利用して操作者による見本行動情報を取得し、
疑似実画像生成装置が、実画像と、前記第1仮想環境から抽出された仮想画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成し、
学習装置が、少なくとも前記疑似実画像を利用して構築された第2仮想環境上で、前記見本行動情報に基づいて前記エージェントを模倣学習により学習させる、
学習システム。
<概要>
以下、本発明による学習方法を自動車の自動運転制御の学習に関するものとして説明する。学習方法は、基本的には従来り深層強化学習によってエージェントに自律的に運転動作を探索させる。
このような強化学習としては、Actor−Critic法などが例示できる。その上で、本実施の形態にお手は、報酬関数が得にくい場合については人間の教示による模倣学習を組み合わせることとしている。
このように、深層強化学習と模倣学習との組み合わせによって、適切な振る舞い行う制御器(policy)が得られたら、学習の効果を確かめるための検証(varidation)を行う。検証は、シナリオベースシミュレーション、マルチエージェントシミュレーション又は敵対的エージェントシミュレーションの少なくともいずれかを利用することができる。
検証が終わると、学習済みの制御器を実環境に移し、運用を行う。
<構成>
図1は、学習システムの処理の流れを模式的に示すブロック図である。なお、図の構成は一例であり、これら以外の要素が含まれていてもよい。
本発明による情報提供システムは、学習装置と、入力装置とを含んでいる。これらの装置は、物理的又は論理的に(例えば、ネットワークを介して)互いに通信可能に接続されている。
<ハードウェア構成>
情報提供システムのハードウェア構成について、図2及び図3を参照して説明する。本実施の形態による学習装置及び入力装置は、次のようなハードウェア構成を有している。
なお、以下の構成は一例であり、これ以外の構成を有していてもよい。また、単一の装置で構成されていてもよいし、複数の装置によって構成されていてもよい。さらには、同等の機能を有する他の手段を適宜採用することも可能である。
<学習装置>
図2は学習装置の機能ブロック図を示す図である。なお、図示される構成は一例であり、これら以外の機能が付加されていてもよい。
学習装置は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
学習装置は、自動運転制御に関するエージェントの学習(強化学習、模倣学習等)や、GANによる疑似実画像の生成をも行うことにより、学習システムの一部を構成する。
学習装置は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
プロセッサ10は、学習装置全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)及び/又はGPU(Graphics Processing Unit)を含み、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。
メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。
ストレージ12は、アプリケーション・プログラムや、学習に用いる画像データ、見本行動情報等の各種データを格納する。各処理に用いられるデータはデータベースとしてストレージ22に構築されていてもよい。
送受信部13は、学習装置をネットワークに接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。送受信部13は、企業端末より依頼を受けて、生成されたミッション情報をユーザ端末に送信する。
入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。
バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
<入力装置>
図3は、入力装置の機能ブロック図の例を示す図である。なお、図示される構成は一例であり、これら以外の機能が付加されていてもよい。
入力装置は、学習装置と同時にまたは時を異にして情報処理を実行することにより学習システムの一部を構成する。
入力装置は、専用のシミュレータであってもよいし、パーソナルコンピュータのような汎用コンピュータであってもよい。
図示されるように、入力装置は、少なくとも、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。これらの機能は上述した学習装置と同様の構成を採用できるため、ここでは詳細な説明は省略する。
本実施の形態による入出力部24は、運転操作部241と、HMD(Head Mount Display)242とを備えている。
運転操作部241は、アクセルペダル、ブレーキペダル、ハンドル等の自動車運転に必要な入力機器であり、操作者からの運転操作を受け付ける。
HMD242は、更に、図示しないディスプレイおよびセンサを具備する。ディスプレイは、操作者の視界を完全に覆うよう構成された非透過型の表示装置であり、操作者はディスプレイに表示される画面のみを観察することができる。非透過型のHMD242を装着した操作者は、外界の視界を全て失うため、仮想空間に完全に没入する表示態様となる。
仮想空間内には、都市の3Dモデルが再現されており、実際の世界の道路が再現されている。
<データ>
図1に示されるように、本実施の形態においては、道路等を実際に撮影した実画像と、CGで再現した仮想画像と、生成モデル(後述する)を利用して得られる疑似実画像とをそれぞれ所定の比率で利用してエージェントの学習を行う。
<処理の流れ>
続いて、図1を参照して本実施の形態による学習システムの処理の流れを説明する。
本実施の形態による学習システムにおいては、より現実の世界に近い環境で学習を行うべく、疑似実画像を利用することとしている。疑似実画像は、実画像と仮想画像とから生成モデルによって生成される。なお、入力装置において利用される仮想空間を構成するCGを仮想画像として利用してもよい。
本発明による生成モデルは、訓練データを学習し、それらのデータと似たような新しいデータを生成するモデルである。換言すれば、訓練データの分布と生成データの分布が一致するように学習していくようなモデルである。
このような生成モデルとしては、Generative Adversarial Networks(GAN)や、Variational Autoencoder(VAE)などがある。本実施の形態においては、比較的精度の高い画像を生成することを得意とするGANを用いることとしている。
GANは、generatorとdiscriminatorという2つのネットワークを使用する。Generatorは訓練データと同じようなデータを生成しようと試みるものであり、一方、discriminatorはデータが訓練データから来たものか、それとも生成モデルから来たものかの識別を試みるものである。
最終的には、generatorは訓練データと同じようなデータを生成できるようになることが期待される。このような状態では、訓練データと生成データを見分けることができなくなる。
Gはgenerator、Dはdiscriminator、xは訓練データ、zはノイズを表すこととした場合、Gはノイズzを入力としてデータを生成する。D(x)は、そのデータが訓練データである確率を表すスカラー量である。Dは訓練データと生成データに対して正しくラベル付けを行う確率を最大化しようと試みる。一方、Gはlog(1−D(G(z)))を最小化しようとする。これらをまとめると数式1のように表すことができる。
Figure 0006856936
Dがうまく分類できるようになると、D(x)が大きくなり、logD(x)が大きくなる。また、偽物と識別されるとD(G(z))は小さくなるため、log(1−D(G(z)))は大きくなる。一方、GGが訓練データに似ているものを生成できるようになると、DDがうまく分類できなくなるためD(G(z))は大きくなり、log(1−D(G(z)))は小さくなる。
本実施の形態においては、このような生成モデルを(1)模倣学習の実現、(2)深層強化学習におけるシミュレータの画像改善、(3)深層強化学習における環境モデルの作成に利用する。
動作を教示する操作者は、上述した入力装置を利用して仮想環境内で自動者を運転してそれを見本行動情報として記録する。見本行動情報をGANに与え、それを模倣する制御器を学習によって生成する。
なお、このような、模倣学習の他の方法としては、操作者の動作軌跡の教師あり学習(behavior cloning)、逆強化学習(IRL:inverse reinforcement learning)物などがある。
しかしながら、これらの模倣学習と比較手、GANによる手法は教示のための学習データ量(サンプル数)が非常に少なくて済むことに加え、軌道データだけでなく生画像の入力による教示も可能である。また、複雑で高次元のタスクでも覚えやすく、動作の背景にある何らかの意味を持ったパラメータ(潜在変数)も獲得できる。
本実施の形態においては、操作者による操作(人間にの軌道データ)と近い偽のデータを生成する。一方、識別器は軌道データが生成器からのものなのか、本物の人間の軌道データかを見分ける。
このような生成器と識別器とを競い合わせて学習させると、いずれは、生成器は人間に近い軌道データを生成できるようになる。
本実施の形態においては、強化学習を行う際のシミュレータを実環境に極力近づけるために生成モデルを適用する。即ち、シミュレータが出力する仮想環境のCG画像をGANによって詳細化し現実の画像に見えるように変換したり、ダイナミクスモデルを特定の生成モデルで表現する。
これにより、シミュレータ上であっても、強化学習の試行を行った場合、エージェントはあたかも現実世界にいるかのように試行錯誤できる。
上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
図1に示されるように、本発明は、自動車の運転制御のみならず、無人飛行体(ドローン等)やロボットアーム、水中ドローン等にも適用することが可能である。

Claims (8)

  1. 制御対象を自動で制御するためのエージェントの学習方法であって、
    操作者による見本行動情報を取得するステップと、
    前記見本行動情報に基づいて前記エージェントを模倣学習により学習させるステップと、
    実画像と、シミュレータが出力するCG画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成するステップと、
    少なくとも前記疑似実画像を利用して前記エージェントを強化学習により学習させるステップとを含む、
    学習方法。
  2. 請求項に記載の学習方法であって、
    前記所定の生成モデルは、Generative Adversarial Netorks(GAN)を利用した生成モデルである、
    学習方法。
  3. 請求項1又は請求項2に記載の学習方法であって、
    前記シミュレータにおける環境ダイナミクスモデルを特定の生成モデルにより生成するステップを更に含む、
    学習方法。
  4. 請求項1乃至請求項のいずれかに記載の学習方法であって、
    前記模倣学習及び前記強化学習を検証するためのステップであって、シナリオベースシミュレーション、マルチエージェントシミュレーション又は敵対的エージェントシミュレーションの少なくともいずれかを利用するステップを更に含む、
    学習方法。
  5. 請求項1乃至請求項のいずれかに記載の学習方法であって、
    前記制御対象は自動車であり、
    前記見本行動は、前記走行環境内における前記自動車の運転操作である、
    学習方法。
  6. 制御対象を自動で制御するためのエージェントの学習装置であって、
    操作者による見本行動情報を取得する手段と、
    前記見本行動情報に基づいて前記エージェントを模倣学習により学習させる手段と、
    実画像と、シミュレータが出力するCG画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成する手段と、
    少なくとも前記疑似実画像を利用して前記エージェントを強化学習により学習させる手段とを備える、
    学習装置。
  7. コンピュータ端末を利用して、制御対象を自動で制御するためのエージェントの学習プログラムであって、
    前記コンピュータ端末を
    操作者による見本行動情報を取得する手段、
    実画像と、シミュレータが出力するCG画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成する手段、
    少なくとも前記疑似実画像を利用して前記エージェントを強化学習により学習させる手段として機能させる、
    学習プログラム。
  8. 制御対象を自動で制御するためのエージェントの学習システムであって、
    見本行動取得装置が、操作者による見本行動情報を取得し、
    疑似実画像生成装置が、実画像と、シミュレータが出力するCG画像とを入力情報とする所定の生成モデルによって、疑似実画像を生成し、
    学習装置が、少なくとも前記疑似実画像を利用して前記エージェントを強化学習により学習させる、
    学習システム。

JP2017232457A 2017-12-04 2017-12-04 学習方法、学習装置及び学習プログラム Active JP6856936B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017232457A JP6856936B2 (ja) 2017-12-04 2017-12-04 学習方法、学習装置及び学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232457A JP6856936B2 (ja) 2017-12-04 2017-12-04 学習方法、学習装置及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2019098949A JP2019098949A (ja) 2019-06-24
JP6856936B2 true JP6856936B2 (ja) 2021-04-14

Family

ID=66975533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232457A Active JP6856936B2 (ja) 2017-12-04 2017-12-04 学習方法、学習装置及び学習プログラム

Country Status (1)

Country Link
JP (1) JP6856936B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110599395B (zh) * 2019-09-17 2023-05-12 腾讯科技(深圳)有限公司 目标图像生成方法、装置、服务器及存储介质
CN113835421B (zh) * 2020-06-06 2023-12-15 华为技术有限公司 训练驾驶行为决策模型的方法及装置
US11797889B1 (en) * 2021-01-21 2023-10-24 Apple Inc. Method and device for modeling a behavior with synthetic training data
CN112809689B (zh) * 2021-02-26 2022-06-14 同济大学 基于语言引导的机械臂动作元模仿学习方法及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009181187A (ja) * 2008-01-29 2009-08-13 Toyota Central R&D Labs Inc 行動モデル作成装置及びプログラム
US20160210382A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Autonomous driving refined in virtual environments
US20170109458A1 (en) * 2015-10-16 2017-04-20 Ford Global Technologies, Llc Testbed for lane boundary detection in virtual driving environment
JP6747502B2 (ja) * 2016-03-25 2020-08-26 ソニー株式会社 情報処理装置
CN106503393A (zh) * 2016-11-15 2017-03-15 浙江大学 一种利用仿真生成样本实现无人车自主行进的方法

Also Published As

Publication number Publication date
JP2019098949A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP6856936B2 (ja) 学習方法、学習装置及び学習プログラム
JP7471397B2 (ja) 道路シーンにおける多様な長期将来軌道のシミュレーション
EP3788549B1 (en) Stacked convolutional long short-term memory for model-free reinforcement learning
US10817134B2 (en) Systems and methods for training robots using augmented reality and machine learning
JP7345639B2 (ja) マルチエージェントシミュレーション
CN113826051A (zh) 生成实体系统零件之间的交互的数字孪生
CN108701265A (zh) 学习服务提供装置
JP2020530602A (ja) 画像埋め込みを使用するロボティックエージェントのためのポリシーコントローラの最適化
EP3862830A1 (en) Learning device, control device, learning method, and learning program
WO2020060480A1 (en) System and method for generating a scenario template
US20230419113A1 (en) Attention-based deep reinforcement learning for autonomous agents
Tao et al. Manufacturing assembly simulations in virtual and augmented reality
EP4014162A1 (en) Controlling agents using causally correct environment models
Fouladinejad et al. Modeling virtual driving environment for a driving simulator
Li et al. Sora for senarios engineering of intelligent vehicles: V&V, C&C, and beyonds
Liu-Henke et al. A Holistic Methodology for Model-based Design of Mechatronic Systems in Digitized and Connected System Environments.
Carruth Simulation for training and testing intelligent systems
Weber et al. Approach for improved development of advanced driver assistance systems for future smart mobility concepts
US20220108172A1 (en) Generating a simplified model for xil systems
CN115236997A (zh) 预测控制方法、装置、设备及计算机可读存储介质
Sun et al. An intelligent driving simulation platform: architecture, implementation and application
Prabhu et al. Integrated framework of autonomous vehicle with traffic sign recognition in simulation environment
Tsimhoni et al. The virtual driver: Integrating task planning and cognitive simulation with human movement models
WO2023150876A1 (en) Autonomous system training and testing
US20220058318A1 (en) System for performing an xil-based simulation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201211

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20201211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210114

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210312

R150 Certificate of patent or registration of utility model

Ref document number: 6856936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250