JP7133927B2 - 情報処理装置及びその制御方法及びプログラム - Google Patents
情報処理装置及びその制御方法及びプログラム Download PDFInfo
- Publication number
- JP7133927B2 JP7133927B2 JP2018004470A JP2018004470A JP7133927B2 JP 7133927 B2 JP7133927 B2 JP 7133927B2 JP 2018004470 A JP2018004470 A JP 2018004470A JP 2018004470 A JP2018004470 A JP 2018004470A JP 7133927 B2 JP7133927 B2 JP 7133927B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- time
- imaging
- predicted
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
撮像装置が第1の時刻に撮像した撮像情報を入力する入力手段と、
前記入力手段が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と、
前記予測手段が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出手段とを備える。
本実施形態における情報処理装置は、自動車等の移動体に搭載する例を説明する。この情報処理装置は、自動車の位置及び姿勢(以降位置姿勢と記す)を算出し、算出結果を基に自動車のステアリング、アクセル、ブレーキ等の自動車の制御、すなわち自動運転を行うものである。また、本実施形態における撮像装置は、単眼であって1画素につきR、G、Bの3成分の画像データを撮像するカメラであり、自動車のフロントガラスの近傍に、且つ、その光軸方向は自動車の直進方向と一致するように取り付けられているものとする。そして、自動車の重心位置に対する撮像装置の自動車への相対的な取り付け位置情報は既知であって、不揮発性のメモリ等に事前に記憶保持されているものとする。故に、撮像装置が撮像した画像をもとに算出した撮像装置の位置姿勢を、記憶保持していた情報に基づく幾何変換を行うことで、自動車の位置姿勢が算出できる。つまり、撮像装置の位置姿勢を求めることは、自動車の位置姿勢を求めることと等価である。なお、撮像装置の位置姿勢の算出は後述する。そして、自動車の制御には、算出した自動車の位置姿勢と、あらかじめカーナビゲーションシステムにより算出しておいた自動車の目的地までの予定経路とが一致するように自動車を制御することになる。
第1の実施形態では、予測部が、撮像装置が入力画像を撮像した時刻以降の予測画像と予測幾何情報を予測し、算出部が予測結果を基に撮像装置の位置姿勢を算出する。以上のように予測結果を基に位置姿勢を算出することで、処理に時間のかかる幾何情報の推定や位置姿勢の算出による遅延の影響を受けずに済み、高速に位置姿勢を算出することができる。
第1の実施形態における算出部140は、予測幾何情報と予測画像、およびマップをもとに位置姿勢を算出していた。しかしながら、予測部120が予測した予測幾何情報または予測画像の少なくとも一方または両方を利用し、撮像装置11が入力画像を撮像した時刻よりも後の撮像装置11の位置姿勢を算出することができる構成であれば第1の実施形態で説明した方法に限るものではない。
上記第1の実施形態では、予測画像、予測幾何情報および、過去の入力画像をもとに作成した位置姿勢の算出指標であるマップを用いて、撮像装置11の位置姿勢を算出し自動車1の制御を行うものであった。本第2の実施形態では、過去の入力画像をもとに作成したマップだけでなく、予測画像、予測幾何情報を用いてマップを作成するとともに、作成したマップを用いて撮像装置の位置姿勢を算出する例を説明する。
以上のように、第2の実施形態では、予測画像、予測幾何情報を用いてキーフレームを作成する。さらに作成したキーフレームを予測画像、予測幾何情報を用いて時系列に更新する。そして、作成したマップを用いて位置姿勢を算出する。このような構成とすることで、従来のVisual SLAMにおいて、撮像装置11が通過した地点にしか作成できなかったキーフレームを、今後通過する地点付近に作成することができる。そして、あらかじめ作成したキーフレームをさらに時系列に更新することで精度良い幾何情報としてのデプスマップを算出することができる。以上により作成した精度良いマップを用いることで、高精度に位置姿勢を算出することができる。
第2の実施形態では、算出部140が、予測画像が予測される毎に時系列フィルタリングにより保持部130が保持するマップのキーフレームのデプスマップの奥行き値を更新した。しかしながら、マップの更新方法は、マップを高精度化することができる方法であれば特に制約はない。具体的には、入力画像や予測画像を用いてモーションステレオ法によって算出した奥行き値を用いて時系列フィルタリングによりキーフレームのデプスマップを更新する非特許文献1の方法で更新することもできる。また、過去に作成した複数のキーフレームを統合して更新してもよい。ここでいう統合とは、まず複数のキーフレームの位置姿勢に矛盾が無いように、ポーズグラフ最適化を用いてキーフレームの位置姿勢を算出する。次に、得られた位置姿勢を用いてさらに複数のキーフレームのデプスマップを平滑化することである。平滑化においては、前述の時系列フィルタリングと同様の方法を用いることができる。このように複数時刻の入力画像、予測画像を用いてマップを更新することで、高精度なマップが生成でき、位置姿勢の算出精度が向上する。
第1の実施形態では、予測画像、予測幾何情報を用いて、事前に作成したマップを基に、撮像装置11の位置姿勢を算出し自動車の制御を行う方法について説明した。第2の実施形態では、予測画像、予測幾何情報を用いてマップを生成、および更新する方法について説明した。第3の実施形態では、予測画像、予測幾何情報を用いて、それらに写る物体情報である物体種、それら物体の位置、移動量を算出し、それらをもとに自動車の制御を行う方法について説明する。
以上のように、第3の実施形態では、予測画像、予測幾何情報を用いて周囲の物体情報である物体の種類、物体の予測位置を算出し、自動車と各物体との将来の衝突可能性を算出する。そして、将来の衝突可能性が高ければ物体と自動車が衝突しないように自動車を制御する。このようにして実際に入力画像が取得されるより前に早期に物体位置を算出することができる。また、予測した物体位置をもとに物体と自動車との衝突可能性を求め、衝突可能性に基づき衝突を回避するように自動車を制御することで、安全に自動車を制御することができる。
第3の実施形態では、予測部120が予測した予測画像と入力画像とのオプティカルフローを算出し物体の予測位置を算出していた。しかしながら、予測部120が学習モデルを用いて、幾何情報として物体の移動量を算出する構成としてもよい。このとき、学習モデルは時刻tにおける入力画像を入力するとその画像における各画素が時刻t+Δtにおいてどこの画素に写っているかを表す二次元(x、y)の移動量を画素毎に出力する。この学習モデルは、時系列画像(t=0,…,m)を学習モデルに入力した際の出力と、t=mからt=m+1の画像のオプティカルフローとの誤差を最小化するように学習しておけばよい。なお、この学習モデルとしては例えば第1の実施形態で述べたようなConvLSTMを用いることができる。また、学習モデルは画像の各画素の二次元の移動量を算出するのではなく、三次元空間上の移動量(x、y、z)を画素毎に出力するように構成してもよい。具体的には、時系列画像(t=0,…,m)を学習モデルに入力した際の出力と、t=mからt=m+1のデプスマップの各ピクセルの対応関係を表す三次元ベクトルの三値を格納した三次元オプティカルフローとの誤差が最小化するように学習して置けばよい。なお、このときの学習モデルとしては例えば第1の実施形態で述べたConvLSTMとFCNを接続した構成を利用することができる。以上のように、予測部120があらかじめ学習モデルを用いて予測幾何情報として二次元、または三次元のオプティカルフローを予測することで、算出部140がオプティカルフロー算出を行う必要が無く、高速に物体位置を算出することができ、迅速に衝突可能性情報を算出できる。
第1の実施形態では、予測部が、撮像装置が入力画像を撮像した時刻以降の予測画像と予測幾何情報を予測し、算出部が予測結果を基に撮像装置の位置姿勢を算出する。以上のように予測結果を基に位置姿勢を算出することで、処理に時間のかかる幾何情報の推定や位置姿勢の算出による遅延の影響を受けずに済み、高速に位置姿勢を算出することができる。
本発明における画像入力部110は、現実空間を撮像した視覚情報である画像を入力するものであれば特にその種類は問わない。たとえば濃淡画像(モノクロ画像)を撮像するカメラの画像を入力してもよいし、RGB画像を入力するカメラの画像を入力してもよい。奥行き情報や距離画像、三次元点群データを撮像できるカメラの画像を入力してもよい。また、単眼カメラであってもよいし、二台以上の複数のカメラやセンサを備えるカメラが撮像した画像を入力してもよい。さらに、カメラが撮像した画像を直接入力してもよいし、ネットワークを介して入力してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (24)
- 撮像装置が第1の時刻に撮像した撮像情報を入力する入力手段と、
前記入力手段が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と、
前記予測手段が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出手段と、
を備えることを特徴とする情報処理装置。 - 撮像装置が第1の時刻に撮像した撮像情報を入力する入力手段と、
前記入力手段が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と、
前記予測手段が予測した撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出手段と、
を備えることを特徴とする情報処理装置。 - 前記予測手段は、前記予測手段が予測した前記第2の時刻の撮像情報または幾何情報の少なくとも一方をもとに前記第2の時刻以降の第3の時刻の撮像情報または幾何情報を予測することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記第1の算出手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方、および、撮像装置がさらに第2の時刻の近傍の時刻に取得した撮像情報に基づいて、前記撮像装置の位置姿勢を算出することを特徴とする請求項1に記載の情報処理装置。
- 前記第2の算出手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方、および、撮像装置がさらに第2の時刻の近傍の時刻に取得した撮像情報に基づいて、前記撮像装置の位置姿勢を算出することを特徴とする請求項2に記載の情報処理装置。
- 前記物体情報は、前記入力した撮像情報、前記予測した撮像情報または幾何情報の少なくとも一つに含まれる物体の物体種であることを特徴とする請求項2に記載の情報処理装置。
- 前記物体情報は、前記入力した撮像情報、前記予測した撮像情報または幾何情報の少なくとも一つに含まれる物体の位置を示す情報または移動量を示す情報の少なくとも一方であることを特徴とする請求項2または6に記載の情報処理装置。
- 撮像装置が撮像した撮像情報を入力する入力手段と、
前記入力手段が入力した撮像情報に基づいて、前記撮像情報に関連づいた第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測手段と
前記予測手段が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出手段と、
前記予測手段が予測し撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出手段と、
を有することを特徴とする情報処理装置。 - 前記予測手段が予測した撮像情報または幾何情報の少なくとも一方を基に、前記撮像装置を搭載した移動体を制御するための制御値を算出し、制御を行う制御手段をさらに備えることを特徴とする請求項1又は8のいずれか1項に記載の情報処理装置。
- 前記制御手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方と、撮像装置が第2の時刻の近傍の時刻にさらに取得した撮像情報との一致度合をもとに、前記制御値を算出することを特徴とする請求項9に記載の情報処理装置。
- 前記第1の算出手段が第2の時刻の前記撮像装置の位置姿勢を算出し、
前記制御手段が、前記第2の時刻の撮像装置の位置姿勢に前記撮像装置の位置姿勢が一致するよう前記移動体を制御する制御値を算出する
ことを特徴とする請求項9に記載の情報処理装置。 - 前記予測手段が予測し撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出手段を更に有し、
前記制御手段は、前記第2の算出手段が算出した前記物体情報に基づいて、前記移動体を制御する制御値を算出する
ことを特徴とする請求項9乃至11のいずれか1項に記載の情報処理装置。 - 前記予測手段は、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一方、および、撮像装置が第2の時刻の近傍の時刻にさらに取得した撮像情報の一致度合に基づいて、予測パラメータを調節する
ことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 - 前記予測手段は、前記第1の算出手段が算出した第2の時刻の前記撮像装置の位置姿勢に基づいて予測パラメータを調節する
ことを特徴とする請求項1又は8のいずれか1項に記載の情報処理装置。 - 前記予測手段は、前記第2の算出手段が算出した前記物体情報に基づいて予測パラメータを調節する
ことを特徴とする請求項2、5、6、7、8のいずれか1項に記載の情報処理装置。 - 前記移動体の状態または前記移動体の周囲の状況の少なくとも一方の計測値を計測する計測手段を更に備え、
前記予測手段は、前記計測値をもとに予測パラメータを調節する
ことを特徴とする請求項9乃至12のいずれか1項に記載の情報処理装置。 - 前記予測パラメータとは、前記予測手段が予測する時刻の時点、予測個数、予測時間間隔、予測に係る時間範囲のうち少なくとも一つである
ことを特徴とする請求項13乃至16のいずれか1項に記載の情報処理装置。 - 前記撮像装置が撮像した撮像情報、前記予測手段が予測した第2の時刻の幾何情報、前記予測手段が予測した第2の時刻の撮像情報、前記第1の算出手段が算出した位置姿勢、のうち少なく一つをもとに表示情報を生成する生成手段と、
前記生成手段が生成した前記表示情報を提示する表示手段と、
を更に備えることを特徴とする請求項1、4、8乃至12、14,16のいずれか1項に記載の情報処理装置。 - 前記撮像装置が撮像した撮像情報、前記予測手段が予測した第2の時刻の幾何情報、前記予測手段が予測した第2の時刻の撮像情報、前記第2の算出手段が算出した情報、のうち少なく一つをもとに表示情報を生成する生成手段と、
前記生成手段が生成した前記表示情報を提示する表示手段と、
を更に備えることを特徴とする請求項2、5乃至8、15のいずれか1項に記載の情報処理装置。 - 前記撮像情報は、濃淡画像、RGB画像、奥行き情報、距離画像、三次元点群データを撮像した画像のいずれか1つを含むことを特徴とする請求項1乃至19のいずれか1項に記載の情報処理装置。
- 前記幾何情報は、前記撮像情報のピクセルごとに推定した奥行き情報のデプスマップであることを特徴とする請求項1乃至20のいずれか1項に記載の情報処理装置。
- 撮像装置が第1の時刻に撮像した撮像情報を入力する入力工程と、
前記入力工程が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測工程と、
前記予測工程が予測した第2の時刻の撮像情報または幾何情報の少なくとも一方に基づいて前記第2の時刻における前記撮像装置の位置姿勢を算出する第1の算出工程と、
を備えることを特徴とする情報処理装置の制御方法。 - 撮像装置が第1の時刻に撮像した撮像情報を入力する入力工程と、
前記入力工程が入力した撮像情報に基づいて、前記第1の時刻以降の第2の時刻に前記撮像装置によって撮像されると予測される第2の時刻の撮像情報または幾何情報の少なくとも一方を予測するための学習モデルを用いて、前記第2の時刻の撮像情報または幾何情報の少なくとも一方を予測する予測工程と、
前記予測工程が予測し撮像情報または幾何情報の少なくとも一方に基づいて前記入力した第1の時刻における撮像情報、前記予測した第2の時刻の撮像情報または幾何情報の少なくとも一つに含まれる物体情報を算出する第2の算出工程と、
を備えることを特徴とする情報処理装置の制御方法。 - コンピュータが読み込み実行することで、前記コンピュータに、請求項22又は23に記載の方法が備える各工程を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004470A JP7133927B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004470A JP7133927B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019124539A JP2019124539A (ja) | 2019-07-25 |
JP2019124539A5 JP2019124539A5 (ja) | 2021-02-04 |
JP7133927B2 true JP7133927B2 (ja) | 2022-09-09 |
Family
ID=67398506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018004470A Active JP7133927B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7133927B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7218186B2 (ja) | 2019-01-16 | 2023-02-06 | 東京瓦斯株式会社 | 燃焼設備の診断情報の提供方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7401246B2 (ja) * | 2019-10-08 | 2023-12-19 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法、及びプログラム |
CN113065650B (zh) * | 2021-04-02 | 2023-11-17 | 中山大学 | 一种基于长期记忆学习的多通道神经网络实例分隔方法 |
JP7076867B1 (ja) | 2021-12-21 | 2022-05-30 | メック株式会社 | 物性値予測方法、物性値予測システム及びプログラム |
JP7078944B1 (ja) | 2021-12-21 | 2022-06-01 | メック株式会社 | 物性値予測方法、物性値予測システム及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017118907A1 (en) | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Systems and methods for estimating future paths |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2585080B2 (ja) * | 1988-10-21 | 1997-02-26 | 情報制御システム株式会社 | 水中浮遊物検知装置 |
-
2018
- 2018-01-15 JP JP2018004470A patent/JP7133927B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017118907A1 (en) | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Systems and methods for estimating future paths |
JP2019509534A (ja) | 2016-01-05 | 2019-04-04 | モービルアイ ビジョン テクノロジーズ リミテッド | 将来経路を推定するシステム及び方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7218186B2 (ja) | 2019-01-16 | 2023-02-06 | 東京瓦斯株式会社 | 燃焼設備の診断情報の提供方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019124539A (ja) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7133927B2 (ja) | 情報処理装置及びその制御方法及びプログラム | |
CN112105890B (zh) | 用于自动驾驶车辆的基于rgb点云的地图生成系统 | |
CN111771206B (zh) | 用于自动驾驶车辆的地图分区系统 | |
CN112105893B (zh) | 用于自动驾驶车辆的实时地图生成系统 | |
CN111771229B (zh) | 用于自动驾驶车辆的点云重影效果检测系统 | |
US11042157B2 (en) | Lane/object detection and tracking perception system for autonomous vehicles | |
US20230054914A1 (en) | Vehicle localization | |
JP7204326B2 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム | |
JP7341652B2 (ja) | 情報処理装置、情報処理方法、プログラム、およびシステム | |
US11436743B2 (en) | Systems and methods for semi-supervised depth estimation according to an arbitrary camera | |
CN111788102B (zh) | 用于跟踪交通灯的里程计系统和方法 | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
KR102472767B1 (ko) | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 | |
CN112055805A (zh) | 用于自动驾驶车辆的点云登记系统 | |
US11748998B1 (en) | Three-dimensional object estimation using two-dimensional annotations | |
JP6743171B2 (ja) | 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両 | |
CN112540593B (zh) | 用于自动驾驶车辆的用于配准点云的方法和装置 | |
WO2020168464A1 (en) | Local sensing based autonomous navigation, and associated systems and methods | |
CN113012219A (zh) | 信息处理装置、信息处理方法及计算机可读介质 | |
EP4068205A1 (en) | Method for tracking object within video frame sequence, automatic parking method, and apparatus therefor | |
CN113496201A (zh) | 物体状态识别装置、方法、物体状态识别用计算机程序及控制装置 | |
KR20200016627A (ko) | 자체 운동 추정 방법 및 장치 | |
JP7278740B2 (ja) | 移動体制御装置 | |
JP2021099384A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2021099383A (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201218 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220830 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7133927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |