JP6860586B2 - 物体の動作を予測する方法 - Google Patents
物体の動作を予測する方法 Download PDFInfo
- Publication number
- JP6860586B2 JP6860586B2 JP2018550587A JP2018550587A JP6860586B2 JP 6860586 B2 JP6860586 B2 JP 6860586B2 JP 2018550587 A JP2018550587 A JP 2018550587A JP 2018550587 A JP2018550587 A JP 2018550587A JP 6860586 B2 JP6860586 B2 JP 6860586B2
- Authority
- JP
- Japan
- Prior art keywords
- predicted
- future
- distance
- current
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 88
- 238000005259 measurement Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000006399 behavior Effects 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- YHXISWVBGDMDLQ-UHFFFAOYSA-N moclobemide Chemical compound C1=CC(Cl)=CC=C1C(=O)NCCN1CCOCC1 YHXISWVBGDMDLQ-UHFFFAOYSA-N 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
1.物体の速度:この物体が静的か動的か及びこの物体がおおよそどのくらいの速度で移動するかについての情報。
2.物体の移動方向:物体の移動先についての情報。
2.処理2:点予測:この処理はクラスタリングアルゴリズムを用いる物体位置予測処理である。この処理は現在測定時刻(t)において距離センサー(LIDAR)から入力データを取り出す。物体の代表点を見つけるために点をクラスタに分類し、現在及び過去のクラスタに基づいて将来時間における新しいクラスタを予測する。その後この新しいクラスタの物体点を見つける。
3.処理3:物体動作予測の最終処理は、処理1、2による2つの点予測の結果のマージである。この処理3はこれまでの2つの処理1、2の予測を統合し、新しい位置を各点及びこれまでの処理1、2により導かれた関連する標準偏差に割り当てる。このブロック3はまた運搬手段の現在及び将来の位置を受け取り、この情報を、例えば、障害位置を修正するために用いる。
・参照符号6で示される過去測定データで予測システムをトレーニングする。過去及び現在のセンサー測定値を蓄積しトレーニングシステムに送信する。この情報に基づいて、トレーニングシステムは予測実体の新しい構成を計算する。例えば、計算リソースが利用可能である場合、この構成を周期的な時刻に、又は連続して、又は特定の条件で更新してもよい。
・過去データを用いて現在センサー読み取り値の傾向を予測する。
・現在センサー測定値を予測値と比べることにより予測誤差を決定する。
・予測傾向を修正する。各読み取り値は点分散に変換される分散を有する。
・参照符号3で示されるガウス過程近似法で修正された傾向に基づいて将来センサー測定値を予測する。
・予測された距離測定値を実際の点位置に変換する。
・運搬手段座標における全ての測定データ、距離データ型距離センサー測定値(参照符号2)、及び運搬手段状態データ(参照符号1)をグローバル座標に送信する(参照符号3)。換言すれば、現在時刻におけるセンサー測定値は運搬手段座標を基準にしている。従って、このセンサー情報を用いるには、全てのセンサー測定データをグローバル座標に変換して共通基準を持つ必要がある。この処理は一般的な従来の手法により行ってもよい。
・点の大きさ(距離)を考慮することにより現在測定値の点をクラスタリングする(参照符号4)。換言すれば、センサー測定値のグローバル情報を取得した後、得られた点群を、従来のクラスタリング手法、すなわち、k平均法や(密度ベースの)dbscan、又は図8に示す統計モデル、密度、平均、及び分散に基づく本発明の一実施形態による方法を用いてそれらをグループにクラスタリングすることにより物体に変換する。
・クラスタを連続する時刻でマッチさせる。
・現在クラスタ及び過去クラスタ(参照符号7)に基づいて将来クラスタ(参照符号5)を予測する。換言すれば、クラスタの動作を、過去の時刻からの過去クラスタデータを用いて前もって、例えば、現在クラスタの5〜10秒前に予測する。
・クラスタ動作を、例えば、物体追跡用カルマンフィルター又はオプティカルフローを用いて、若しくは進化的アルゴリズムなどの機械学習に基づく本発明の実施形態に従って処理する。
・物体の将来代表点を予測する(参照符号6)。(シフトベクトルにより表される)点動作は、それが属するクラスタ動作から引き出される。各点に新しい位置と分散を割り当ててもよい。換言すれば、最後のステップは、物体を表すことができる点を予測することである、すなわち、クラスタの重心が物体の重心「CG」であると仮定される。(これは従来のCG計算法によって行うことができる。)
・2つの方法からの点のマッチングを以下に従って行なう。
−ある点がマッチしなかった場合、その予測分散は最大値になるが、その将来位置は検討される。
−ある点が再現される、すなわち、2つの方法においてマッチする場合、分散は2つの予測の分散及び距離に比例する。
・マッチした点に従って修正された軌道に基づいて物体位置を修正する。
1)近似関数を用いてセンサー測定値を予測する。
2)クラスタリングベースの方法を用いて物体動作を予測する。
3)将来の物体動作を達成するために2つの予測結果を組み合わせる。
1)距離測定値予測を用いる物体動作予測。
a)センサー測定値予測のための過去LIDARデータを用いた関数のトレーニング。
b)関数近似に基づく将来LIDAR測定値のオンライン予測。
c)ガウス過程関数近似。
d)複数の予測器の組み合わせ(アンサンブル)(予測方法:空間ARIMA、ランダムフォレスト、ブートストラップニューラルネットワーク)。
2)より高精度かつロバストな物体動作予測のための距離及び物理予測器を含む予測方法の結果の組み合わせ。
Claims (10)
- 物体の動作を予測する方法であって、
前記物体の動作は予測された将来の距離センサー読み取り値群に基づいて予測され、
前記予測された将来の距離センサー読み取り値群は1つ又は複数の距離センサーの現在測定データに基づいて計算され、
点クラスタリングが前記1つ又は複数の距離センサーの現在及び過去測定データと2つの点間の距離に基づく現在物体状態データに対して行われて1つ又は複数のクラスタを生成し、
将来クラスタ群が予測され前記物体が予測されたクラスタの中で特定され、特定した結果を用いて前記物体の動作を予測する、方法。 - 前記物体の動作は、更に前記1つ又は複数の距離センサーの過去測定データに基づいて予測される、請求項1に記載の方法。
- 少なくとも2つの異なる予測方法を用いて方法に依存した予測された将来センサー読み取り値群を計算する、請求項1または請求項2に記載の方法。
- 前記予測されたセンサー読み取り値群を取得するために、前記少なくとも2つの異なる予測方法の前記方法に依存した予測された将来センサー読み取り値群が重み付けされかつ組み合わされる、請求項3に記載の方法。
- 前記予測された将来センサー読み取り値群は、計算中、ガウス過程近似法を用いて修正される、請求項1から請求項4までのうちのいずれか1項に記載の方法。
- 将来クラスタが該クラスタの動作のためにカルマンフィルターを用いて予測される、請求項1から請求項5までのうちのいずれか1項に記載の方法。
- 前記物体の予測された動作を計算する際前記物体の動作フィードバックが含まれる、請求項1から請求項6までのうちのいずれか1項に記載の方法。
- 前記距離センサー群はLIDARセンサー群の形で提供される、請求項1から請求項7までのうちのいずれか1項に記載の方法。
- 物体の動作を予測する計算実体であって、
1つ又は複数の距離センサーのデータを受信する入力インターフェースと、
前記物体の予測された動作を出力する出力インターフェースと、
プロセッサ及びメモリを備え予測された将来の距離センサー読み取り値群に基づいて前記物体の動作を予測する計算手段とを備え、
前記予測された将来の距離センサー読み取り値は1つ又は複数の距離センサーの現在測定データに基づいて計算され、
前記計算手段は、点クラスタリングを前記1つ又は複数の距離センサーの現在及び過去測定データと2つの点間の距離に基づく現在物体状態データに対して行って1つ又は複数のクラスタを生成し、将来クラスタ群を予測し前記物体を予測したクラスタの中で特定し、特定した結果を用いて前記物体の動作を予測する、計算実体。 - コンピュータに物体の動作を予測する方法を実行させるプログラムを記憶する非一時的コンピュータ可読媒体であって、
前記物体の動作は予測された距離センサー読み取り値群に基づいて予測され、予測された前記距離センサー読み取り値群は現在時刻での1つ又は複数の距離センサー群のデータに基づいて計算され、
点クラスタリングが前記1つ又は複数の距離センサーの現在及び過去測定データと2つの点間の距離に基づく現在物体状態データに対して行われて1つ又は複数のクラスタを生成し、
将来クラスタ群が予測され前記物体が予測されたクラスタの中で特定され、特定した結果を用いて前記物体の動作を予測する、非一時的コンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2016/057153 WO2017167387A1 (en) | 2016-03-31 | 2016-03-31 | Method for predicting a motion of an object |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019518932A JP2019518932A (ja) | 2019-07-04 |
JP6860586B2 true JP6860586B2 (ja) | 2021-04-14 |
Family
ID=55802334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018550587A Active JP6860586B2 (ja) | 2016-03-31 | 2016-03-31 | 物体の動作を予測する方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11300663B2 (ja) |
JP (1) | JP6860586B2 (ja) |
DE (1) | DE112016006692T5 (ja) |
WO (1) | WO2017167387A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11092690B1 (en) * | 2016-09-22 | 2021-08-17 | Apple Inc. | Predicting lidar data using machine learning |
CN109188457B (zh) | 2018-09-07 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 物体检测框的生成方法、装置、设备、存储介质及车辆 |
US11061406B2 (en) * | 2018-10-22 | 2021-07-13 | Waymo Llc | Object action classification for autonomous vehicles |
US10670718B1 (en) | 2018-10-25 | 2020-06-02 | Aeye, Inc. | System and method for synthetically filling ladar frames based on prior ladar return data |
US11037303B2 (en) * | 2019-01-31 | 2021-06-15 | Sony Corporation | Optical flow based detection and tracking of multiple moving objects in successive frames |
US10641897B1 (en) | 2019-04-24 | 2020-05-05 | Aeye, Inc. | Ladar system and method with adaptive pulse duration |
GB2590115B (en) * | 2019-09-13 | 2023-12-06 | Motional Ad Llc | Extended object tracking using radar |
US20230110788A1 (en) * | 2020-02-14 | 2023-04-13 | Nec Corporation | Learning device, learning method, recording medium, and radar device |
CN112218234A (zh) * | 2020-09-07 | 2021-01-12 | 天地(常州)自动化股份有限公司 | 一种基于双天线的定位分站、定位方法及装置 |
US20230290153A1 (en) * | 2022-03-11 | 2023-09-14 | Argo AI, LLC | End-to-end systems and methods for streaming 3d detection and forecasting from lidar point clouds |
US20230347924A1 (en) * | 2022-04-29 | 2023-11-02 | Toyota Research Institute, Inc. | Coordinating use of different motion prediction models to predict a location of a mobile robot at a future point in time |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63213005A (ja) * | 1987-03-02 | 1988-09-05 | Hitachi Ltd | 移動体誘導方法 |
JP2749727B2 (ja) * | 1991-03-08 | 1998-05-13 | 三菱電機株式会社 | 経路予測装置 |
JPH06208405A (ja) * | 1993-01-08 | 1994-07-26 | Takanori Ikegami | 知能ロボットのための情報処理方法および情報処理装置 |
US20030065409A1 (en) * | 2001-09-28 | 2003-04-03 | Raeth Peter G. | Adaptively detecting an event of interest |
JP4316936B2 (ja) * | 2003-06-06 | 2009-08-19 | 財団法人ソフトピアジャパン | アクティブセンサの動物体検出装置及び動物体検出方法、並びに動物体検出プログラム |
JP4661250B2 (ja) | 2005-02-09 | 2011-03-30 | 富士電機ホールディングス株式会社 | 予測方法、予測装置および予測プログラム |
KR100883520B1 (ko) * | 2007-07-23 | 2009-02-13 | 한국전자통신연구원 | 실내 환경지도 작성 시스템 및 방법 |
JP2009042181A (ja) * | 2007-08-10 | 2009-02-26 | Denso Corp | 推定装置 |
US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
JP5728815B2 (ja) * | 2010-03-18 | 2015-06-03 | 株式会社豊田中央研究所 | 物体検出装置 |
US8818702B2 (en) * | 2010-11-09 | 2014-08-26 | GM Global Technology Operations LLC | System and method for tracking objects |
CA2834916C (en) * | 2011-05-04 | 2017-10-17 | Jacques Georgy | Two-stage filtering based method for multiple target tracking |
JP5962637B2 (ja) * | 2013-11-29 | 2016-08-03 | 株式会社デンソー | 計測装置 |
US9963215B2 (en) * | 2014-12-15 | 2018-05-08 | Leidos, Inc. | System and method for fusion of sensor data to support autonomous maritime vessels |
JP6614247B2 (ja) * | 2016-02-08 | 2019-12-04 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
-
2016
- 2016-03-31 WO PCT/EP2016/057153 patent/WO2017167387A1/en active Application Filing
- 2016-03-31 US US16/089,381 patent/US11300663B2/en active Active
- 2016-03-31 JP JP2018550587A patent/JP6860586B2/ja active Active
- 2016-03-31 DE DE112016006692.9T patent/DE112016006692T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
US20190113603A1 (en) | 2019-04-18 |
US11300663B2 (en) | 2022-04-12 |
WO2017167387A1 (en) | 2017-10-05 |
JP2019518932A (ja) | 2019-07-04 |
DE112016006692T5 (de) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6860586B2 (ja) | 物体の動作を予測する方法 | |
US11860636B2 (en) | Providing actionable uncertainties in autonomous vehicles | |
JP7086111B2 (ja) | 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 | |
US11740626B2 (en) | Redundant pose generation system | |
RU2694154C2 (ru) | Формирование моделированных данных датчиков для обучения и проверки достоверности моделей обнаружения | |
JP7060625B2 (ja) | 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 | |
US11458991B2 (en) | Systems and methods for optimizing trajectory planner based on human driving behaviors | |
KR102350181B1 (ko) | 자율 주행 차량에서 rnn 및 lstm을 사용하여 시간적 평활화를 수행하는 lidar 위치 추정 | |
CN110389580A (zh) | 用于规划自动驾驶车辆的路径的漂移校正的方法 | |
CN108108831B (zh) | 一种目的地预测方法及装置 | |
CN110781949B (zh) | 基于异步式串行多传感器的航迹数据融合方法及存储介质 | |
CN108684203A (zh) | 使用基于学习的模型预测控制来确定自动驾驶车辆的道路摩擦的方法和系统 | |
KR101402206B1 (ko) | 운동학 및 형상 정보를 활용한 다중 표적 추적 방법 | |
WO2020132108A1 (en) | Multi-stage object heading estimation | |
Malleswaran et al. | A novel approach to the integration of GPS and INS using recurrent neural networks with evolutionary optimization techniques | |
KR102238522B1 (ko) | 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법 | |
CN110646787A (zh) | 自运动估计方法和设备以及模型训练方法和设备 | |
US10395520B2 (en) | Method and apparatus for constructing a traffic model | |
CN111258316A (zh) | 一种动态环境下趋势感知的机器人轨迹规划方法 | |
CN108334077A (zh) | 确定自动驾驶车辆的速度控制的单位增益的方法和系统 | |
JP2020083307A (ja) | L2自動運転用の所定のキャリブレーションテーブルに基づく車両アクセル/ブレーキアシストシステム | |
CN114127810A (zh) | 车辆自主级功能 | |
JP6507841B2 (ja) | 先行車両推定装置及びプログラム | |
CN114817765A (zh) | 基于地图的目标航向消歧 | |
US11787405B1 (en) | Active coasting in traffic |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200218 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6860586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |