JPWO2020084667A1 - 認識方法、認識プログラム、認識装置および学習方法 - Google Patents
認識方法、認識プログラム、認識装置および学習方法 Download PDFInfo
- Publication number
- JPWO2020084667A1 JPWO2020084667A1 JP2020551730A JP2020551730A JPWO2020084667A1 JP WO2020084667 A1 JPWO2020084667 A1 JP WO2020084667A1 JP 2020551730 A JP2020551730 A JP 2020551730A JP 2020551730 A JP2020551730 A JP 2020551730A JP WO2020084667 A1 JPWO2020084667 A1 JP WO2020084667A1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- input
- subject
- information
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
図1は、実施例1にかかる認識装置を含むシステムの全体構成例を示す図である。図1に示すように、このシステムは、3Dレーザセンサ5、学習装置10、認識装置50、採点装置90を有し、被写体である演技者1の3Dデータを撮像し、骨格等を認識して正確な技の採点を行うシステムである。なお、本実施例では、一例として、体操競技における演技者の骨格情報を認識する例で説明する。
図3は、実施例1にかかる学習装置10と認識装置50の機能構成を示す機能ブロック図である。なお、採点装置90は、関節などの情報を用いて技の精度を判定し、演技者の演技を採点する一般的な装置と同様の構成を有するので、詳細な説明は省略する。
図3に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、学習結果などを認識装置50に出力する。
図3に示すように、認識装置50は、通信部51、記憶部52、制御部60を有する。通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部51は、学習装置10から学習結果を取得し、3Dレーザセンサ5から距離画像を取得し、演技者1の骨格情報を採点装置90に送信する。
図7は、実施例1にかかる処理の流れを示すフローチャートである。なお、ここでは、学習処理の後に認識処理が実行される例で説明するが、これに限定されるものではなく、別々のフローで実現することもできる。
上述したように、認識装置50は、3Dレーザセンサ5から得られた距離画像を用いて、ディープラーニングにより人の関節などを認識する際に、3Dレーザセンサ5に対する人の向きの情報(姿勢情報)をニューラルネットワークに与える。すなわち、ディープラーニングなどの機械学習に、距離画像に映っている人のどちらが右でどちらが左なのかがわかる情報を与える。この結果、認識装置50は、肘や手首、膝などの人体において左右で対になっている関節を左右間違えずに正しく認識することができる。
上記実施例では、姿勢情報として、背骨を軸にした回転角および両肩を軸にした回転角を用いる例を説明したが、これらの回転角として、角度値や三角関数を用いることができる。図10は、角度値および三角関数を説明する図である。図10では、背骨の軸をab、両肩の軸をcdで図示する。そして、認識装置50は、演技者の背骨の軸がab軸から角度θだけ傾いているとき、この角度θを角度値として使用する。または、認識装置50は、演技者の背骨の軸がab軸から角度θだけ傾いているとき、sinθまたはcosθを三角関数として使用する。
上記実施例では、体操競技を例にして説明したが、これに限定されるものではなく、選手が一連の技を行って審判が採点する他の競技にも適用することができる。他の競技の一例としては、フィギュアスケート、新体操、チアリーディング、水泳の飛び込み、空手の型、モーグルのエアーなどがある。また、スポーツに限らず、トラック、タクシー、電車などの運転手の姿勢検出やパイロットの姿勢検出などにも適用することができる。
また、上記実施例では、18個の各関節の位置を学習する例を説明したが、これに限定されるものではなく、1個以上の関節を指定して学習することもできる。また、上記実施例では、骨格情報の一例として各関節の位置を例示して説明したが、これに限定されるものではなく、各関節の角度、手足の向き、顔の向きなど、予め定義できる情報であれば、様々な情報を採用することができる。
また、姿勢情報には、腰の回転角、頭の向きなど被写体の向きを示す情報であれば様々な情報を採用することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
次に、学習装置10や認識装置50などのコンピュータのハードウェア構成について説明する。図11は、ハードウェア構成例を説明する図である。図11に示すように、コンピュータ100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図11に示した各部は、バス等で相互に接続される。
10 学習装置
11 通信部
12 記憶部
13 骨格定義DB
14 学習データDB
15 学習結果DB
20 制御部
30 学習処理部
31 正解値読込部
32 ヒートマップ生成部
33 画像生成部
34 姿勢認識部
35 学習部
50 認識装置
51 通信部
52 記憶部
53 骨格定義DB
54 学習結果DB
55 算出結果DB
60 制御部
70 認識処理部
71 画像取得部
72 姿勢認識部
73 認識部
74 算出部
Claims (17)
- コンピュータが、
被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成し、
前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力し、
前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する
処理を実行することを特徴とする認識方法。 - 前記入力する処理は、前記学習済みモデルに利用されるニューラルネットワークの入力層に前記距離画像を入力し、前記ニューラルネットワークの各中間層のうち先頭の中間層に前記姿勢情報を入力することを特徴とする請求項1に記載の認識方法。
- 前記入力する処理は、前記学習済みモデルに利用される畳み込みニューラルネットワークの入力層に前記距離画像を入力し、前記畳み込みニューラルネットワークの各隠れ層のうち、入力された画像のサイズが最も小さくなる隠れ層に前記姿勢情報を入力することを特徴とする請求項1に記載の認識方法。
- 前記入力する処理は、前記姿勢情報として、前記被写体の向きを示す角度値または三角関数を入力することを特徴とする請求項1に記載の認識方法。
- 前記入力する処理は、前記被写体の背骨を軸にした回転角と前記被写体の両肩を軸にした回転角とのそれぞれの角度値、または、それぞれの回転角を用いた各三角関数を入力することを特徴とする請求項4に記載の認識方法。
- 前記生成する処理は、前記姿勢情報を出力するために学習された学習済みモデルに、前記距離画像を入力して得られる出力結果を、前記姿勢情報として生成することを特徴とする請求項1に記載の認識方法。
- 前記特定する処理は、前記学習済みモデルの出力結果として、前記被写体の関節位置の尤度を可視化したヒートマップ画像を取得し、前記ヒートマップ画像における尤度が最も高い位置を、前記関節位置と特定することを特徴とする請求項1に記載の認識方法。
- コンピュータに、
被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成し、
前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力し、
前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する
処理を実行させることを特徴とする認識プログラム。 - 被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成する生成部と、
前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力する入力部と、
前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する特定部と
を有することを特徴とする認識装置。 - コンピュータが、
学習データである被写体を含む距離画像に対応付けられる、正解情報である前記被写体の骨格情報を用いて、前記被写体の姿勢を特定する姿勢情報を生成し、
前記距離画像とともに前記姿勢情報を学習モデルに入力し、
前記学習モデルの出力結果と前記骨格情報とを用いて、前記学習モデルを学習する
処理を実行することを特徴とする学習方法。 - 前記骨格情報から、前記被写体の関節位置の尤度を可視化したヒートマップ画像を生成する処理を前記コンピュータにさらに実行させ、
前記学習する処理は、前記学習モデルの出力結果として前記ヒートマップ画像を取得し、前記出力結果であるヒートマップ画像と、前記骨格情報から生成されたヒートマップ画像とを比較した結果に応じて、前記学習モデルを学習する請求項10に記載の学習方法。 - 前記入力する処理は、前記学習モデルに利用されるニューラルネットワークの入力層に前記距離画像を入力し、前記ニューラルネットワークの各中間層のうち先頭の中間層に前記姿勢情報を入力することを特徴とする請求項10に記載の学習方法。
- 前記入力する処理は、前記学習モデルに利用される畳み込みニューラルネットワークの入力層に前記距離画像を入力し、前記畳み込みニューラルネットワークの各隠れ層のうち、入力された画像のサイズが最も小さくなる隠れ層に前記姿勢情報を入力することを特徴とする請求項10に記載の学習方法。
- 前記入力する処理は、前記姿勢情報として、前記被写体の向きを示す角度値または三角関数を入力することを特徴とする請求項10に記載の学習方法。
- 前記入力する処理は、前記被写体の背骨を軸にした回転角と前記被写体の両肩を軸にした回転角とのそれぞれの角度値、または、それぞれの回転角を用いた各三角関数を入力することを特徴とする請求項14に記載の学習方法。
- コンピュータに、
学習データである被写体を含む距離画像に対応付けられる、正解情報である前記被写体の骨格情報を用いて、前記被写体の姿勢を特定する姿勢情報を生成し、
前記距離画像とともに前記姿勢情報を学習モデルに入力し、
前記学習モデルの出力結果と前記骨格情報とを用いて、前記学習モデルを学習する
処理を実行させることを特徴とする学習プログラム。 - 学習データである被写体を含む距離画像に対応付けられる、正解情報である前記被写体の骨格情報を用いて、前記被写体の姿勢を特定する姿勢情報を生成する生成部と、
前記距離画像とともに前記姿勢情報を学習モデルに入力する入力部と、
前記学習モデルの出力結果と前記骨格情報とを用いて、前記学習モデルを学習する学習部と
を有することを特徴とする学習装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/039215 WO2020084667A1 (ja) | 2018-10-22 | 2018-10-22 | 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020084667A1 true JPWO2020084667A1 (ja) | 2021-09-02 |
JP7014304B2 JP7014304B2 (ja) | 2022-02-01 |
Family
ID=70330560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020551730A Active JP7014304B2 (ja) | 2018-10-22 | 2018-10-22 | 認識方法、認識プログラム、認識装置および学習方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210216759A1 (ja) |
JP (1) | JP7014304B2 (ja) |
WO (1) | WO2020084667A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11282214B2 (en) * | 2020-01-08 | 2022-03-22 | Agt International Gmbh | Motion matching analysis |
JP7478848B2 (ja) | 2020-12-21 | 2024-05-07 | ファナック株式会社 | 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 |
JPWO2022190206A1 (ja) * | 2021-03-09 | 2022-09-15 | ||
WO2022244135A1 (ja) * | 2021-05-19 | 2022-11-24 | 日本電信電話株式会社 | 学習装置、推定装置、学習モデルデータ生成方法、推定方法及びプログラム |
WO2023162223A1 (ja) * | 2022-02-28 | 2023-08-31 | 富士通株式会社 | 学習プログラム、生成プログラム、学習方法および生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016212688A (ja) * | 2015-05-11 | 2016-12-15 | 日本電信電話株式会社 | 関節位置推定装置、方法、及びプログラム |
JP2018026131A (ja) * | 2016-08-09 | 2018-02-15 | ダンロップスポーツ株式会社 | 動作解析装置 |
WO2018189795A1 (ja) * | 2017-04-10 | 2018-10-18 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
KR101815975B1 (ko) * | 2011-07-27 | 2018-01-09 | 삼성전자주식회사 | 객체 자세 검색 장치 및 방법 |
US10902343B2 (en) * | 2016-09-30 | 2021-01-26 | Disney Enterprises, Inc. | Deep-learning motion priors for full-body performance capture in real-time |
US10861184B1 (en) * | 2017-01-19 | 2020-12-08 | X Development Llc | Object pose neural network system |
US10672188B2 (en) * | 2018-04-19 | 2020-06-02 | Microsoft Technology Licensing, Llc | Surface reconstruction for environments with moving objects |
US10706584B1 (en) * | 2018-05-18 | 2020-07-07 | Facebook Technologies, Llc | Hand tracking using a passive camera system |
EP3813661A4 (en) * | 2018-06-29 | 2022-04-06 | WRNCH Inc. | SYSTEM AND METHOD FOR ANALYZING HUMAN POSES |
WO2020049692A2 (ja) * | 2018-09-06 | 2020-03-12 | 株式会社ソニー・インタラクティブエンタテインメント | 推定装置、学習装置、推定方法、学習方法及びプログラム |
WO2020070812A1 (ja) * | 2018-10-03 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム |
-
2018
- 2018-10-22 WO PCT/JP2018/039215 patent/WO2020084667A1/ja active Application Filing
- 2018-10-22 JP JP2020551730A patent/JP7014304B2/ja active Active
-
2021
- 2021-03-31 US US17/219,016 patent/US20210216759A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016212688A (ja) * | 2015-05-11 | 2016-12-15 | 日本電信電話株式会社 | 関節位置推定装置、方法、及びプログラム |
JP2018026131A (ja) * | 2016-08-09 | 2018-02-15 | ダンロップスポーツ株式会社 | 動作解析装置 |
WO2018189795A1 (ja) * | 2017-04-10 | 2018-10-18 | 富士通株式会社 | 認識装置、認識方法および認識プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210216759A1 (en) | 2021-07-15 |
JP7014304B2 (ja) | 2022-02-01 |
WO2020084667A1 (ja) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7014304B2 (ja) | 認識方法、認識プログラム、認識装置および学習方法 | |
JP7367764B2 (ja) | 骨格認識方法、骨格認識プログラムおよび情報処理装置 | |
Thar et al. | A proposal of yoga pose assessment method using pose detection for self-learning | |
AU2022202416A1 (en) | Multi-joint Tracking Combining Embedded Sensors and an External | |
US11786129B2 (en) | Systems and methods for human mesh recovery | |
CN109863535A (zh) | 运动识别装置、运动识别程序以及运动识别方法 | |
US20220092302A1 (en) | Skeleton recognition method, computer-readable recording medium storing skeleton recognition program, skeleton recognition system, learning method, computer-readable recording medium storing learning program, and learning device | |
JP6943294B2 (ja) | 技認識プログラム、技認識方法および技認識システム | |
US20220207921A1 (en) | Motion recognition method, storage medium, and information processing device | |
Kitsikidis et al. | Multi-sensor technology and fuzzy logic for dancer’s motion analysis and performance evaluation within a 3D virtual environment | |
JP6381368B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US20220222975A1 (en) | Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus | |
US11995845B2 (en) | Evaluation method, storage medium, and information processing apparatus | |
Morel et al. | Automatic evaluation of sports motion: A generic computation of spatial and temporal errors | |
CN117015802A (zh) | 用于改进无标记运动分析的方法 | |
JP7482471B2 (ja) | 学習モデルの生成方法 | |
Sharma et al. | Digital Yoga Game with Enhanced Pose Grading Model | |
US20220301352A1 (en) | Motion recognition method, non-transitory computer-readable storage medium for storing motion recognition program, and information processing device | |
Olsen | Motion tracking of infants in risk of cerebral palsy | |
US20240157217A1 (en) | Golf teaching method and golf teaching system | |
Pan et al. | Analysis and Improvement of Tennis Motion Recognition Algorithm Based on Human Body Sensor Network | |
WO2022234741A1 (en) | Methods and apparatuses for processing an image | |
Gioi et al. | Robust Upper Limb Kinematic Reconstruction Using a RGB-D Camera | |
Li et al. | Clinical patient tracking in the presence of transient and permanent occlusions via geodesic feature | |
CN116648190A (zh) | 骨架估计装置、骨架估计方法及体操评分辅助系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220103 |