JP2022050269A - システム、電子機器、電子機器の制御方法、及びプログラム - Google Patents
システム、電子機器、電子機器の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2022050269A JP2022050269A JP2020156780A JP2020156780A JP2022050269A JP 2022050269 A JP2022050269 A JP 2022050269A JP 2020156780 A JP2020156780 A JP 2020156780A JP 2020156780 A JP2020156780 A JP 2020156780A JP 2022050269 A JP2022050269 A JP 2022050269A
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- person
- monitored object
- predetermined part
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title abstract description 24
- 238000000605 extraction Methods 0.000 claims abstract description 77
- 238000010801 machine learning Methods 0.000 claims abstract description 64
- 238000003384 imaging method Methods 0.000 claims abstract description 56
- 239000000284 extract Substances 0.000 claims abstract description 33
- 230000036962 time dependent Effects 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 17
- 210000000707 wrist Anatomy 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 22
- 230000007774 longterm Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000001568 sexual effect Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000474 nursing effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 210000001217 buttock Anatomy 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003862 health status Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 208000028017 Psychotic disease Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】システムは、撮像部と、抽出部と、コントローラと、を備える。撮像部は、被監視対象及び他の人物を撮像する。抽出部は、撮像部によって撮像された画像から被監視対象の所定部位の座標及び他の人物の所定部位の座標を抽出する。コントローラは、撮像部によって撮像された経時的な画像において被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、嫌がらせを行う動作の開始時点と終了時点との間における被監視対象の所定部位の座標及び他の人物の所定部位の座標と、被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する。
【選択図】図1
Description
被監視対象及び他の人物を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標及び他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備える。
被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
前記被監視対象を含んで撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習するコントローラと、
を備える。
被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備える。
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を含む。
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を含む。
コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を実行させる。
コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を実行させる。
10 電子機器
11 抽出部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部
Claims (20)
- 被監視対象及び他の人物を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習するコントローラと、
を備えるシステム。 - 前記コントローラは、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点以外の時点を含むタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する、請求項1に記載のシステム。
- 前記抽出部は、前記撮像部によって撮像された秒間所定数の各フレームの画像から、前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標を2次元的に抽出する、請求項1又は2に記載のシステム。
- 前記抽出部は、2次元的に抽出された前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化する、請求項1から3のいずれかに記載のシステム。
- 前記タイミング情報において、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の終了時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物から所定距離以上離れたタイミングを示す、請求項1から4のいずれかに記載のシステム。
- 前記タイミング情報において、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物から所定距離以内に近づいたタイミングを示す、請求項1から5のいずれかに記載のシステム。
- 前記タイミング情報において、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象の手首が前記他の人物に近づき始めたタイミングを示す、請求項1から6のいずれかに記載のシステム。
- 被監視対象及び他の人物を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標及び他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備えるシステム。 - 前記抽出部は、前記撮像部によって撮像された単位時間当たり所定数のフレームの画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出し、
前記コントローラは、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する、請求項8に記載のシステム。 - 前記コントローラは、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定したら、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始前に、所定の警告信号を出力する、請求項8又は9に記載のシステム。
- 前記コントローラは、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定したら、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の終了前に、所定の警告信号を出力する、請求項8又は9に記載のシステム。
- 前記抽出部は、前記撮像部によって撮像された秒間所定数の各フレームの画像から、前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標を2次元的に抽出する、請求項8から11のいずれかに記載のシステム。
- 前記抽出部は、2次元的に抽出された前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化する、請求項12に記載のシステム。
- 前記コントローラは、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始の推定の妥当性が所定以上になるように、前記フレームの数及び前記関節点の数の少なくとも一方を決定する、請求項12又は13に記載のシステム。
- 被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
前記被監視対象を含んで撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習するコントローラと、
を備える電子機器。 - 被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備える電子機器。 - 被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を含む、電子機器の制御方法。 - 被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を含む、電子機器の制御方法。 - コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を実行させる、プログラム。 - コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156780A JP7467300B2 (ja) | 2020-09-17 | 2020-09-17 | システム、電子機器、電子機器の制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156780A JP7467300B2 (ja) | 2020-09-17 | 2020-09-17 | システム、電子機器、電子機器の制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022050269A true JP2022050269A (ja) | 2022-03-30 |
JP7467300B2 JP7467300B2 (ja) | 2024-04-15 |
Family
ID=80854380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020156780A Active JP7467300B2 (ja) | 2020-09-17 | 2020-09-17 | システム、電子機器、電子機器の制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7467300B2 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4797720B2 (ja) | 2006-03-15 | 2011-10-19 | オムロン株式会社 | 監視装置および方法、画像処理装置および方法、並びにプログラム |
JP6555906B2 (ja) | 2015-03-05 | 2019-08-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018163555A1 (ja) | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP6904651B2 (ja) | 2018-02-20 | 2021-07-21 | Kddi株式会社 | 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法 |
JP6742623B1 (ja) | 2019-11-13 | 2020-08-19 | 尚範 伊達 | 監視装置、監視方法、及びプログラム |
CN111553229B (zh) | 2020-04-21 | 2021-04-16 | 清华大学 | 基于三维骨骼与lstm的工人动作识别方法及装置 |
-
2020
- 2020-09-17 JP JP2020156780A patent/JP7467300B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7467300B2 (ja) | 2024-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11819344B2 (en) | Systems for automatic assessment of fall risk | |
US9972187B1 (en) | Biomechanical parameter determination for emergency alerting and health assessment | |
US10383314B2 (en) | Empathy monitoring and detection system | |
CN108882853B (zh) | 使用视觉情境来及时触发测量生理参数 | |
US20210219873A1 (en) | Machine vision to predict clinical patient parameters | |
CN111652192A (zh) | 一种基于kinect传感器的跌倒检测系统 | |
JP7467300B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7465773B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
Hai et al. | PCA-SVM algorithm for classification of skeletal data-based eigen postures | |
Khodadadeh et al. | Detecting unsafe use of a four-legged walker using IoT and deep learning | |
JP2022039814A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
JP2022039815A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
Khawandi et al. | Integrated monitoring system for fall detection in elderly | |
JP7449212B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP2022050271A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP2022050273A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
WO2020008995A1 (ja) | 画像認識プログラム、画像認識装置、学習プログラム、および学習装置 | |
Patel et al. | Vitafall: Nxtgeuh system for well-being monitoring with fall recognition and real-time vital sign monitoring | |
JP7449211B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP2021174189A (ja) | サービスのメニューの作成を支援する方法、サービスの利用者の評価を支援する方法、当該方法をコンピューターに実行させるプログラム、および、情報提供装置 | |
JP2022050272A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
CN113544736A (zh) | 下肢肌肉力量估计系统、下肢肌肉力量估计方法及程序 | |
JP7483486B2 (ja) | 監視システム、監視装置、監視方法、及びプログラム | |
JP2022055248A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |