JP7486685B1 - 目標追尾装置および目標追尾方法 - Google Patents
目標追尾装置および目標追尾方法 Download PDFInfo
- Publication number
- JP7486685B1 JP7486685B1 JP2023569600A JP2023569600A JP7486685B1 JP 7486685 B1 JP7486685 B1 JP 7486685B1 JP 2023569600 A JP2023569600 A JP 2023569600A JP 2023569600 A JP2023569600 A JP 2023569600A JP 7486685 B1 JP7486685 B1 JP 7486685B1
- Authority
- JP
- Japan
- Prior art keywords
- track
- target
- tracking
- unit
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 230000008569 process Effects 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 36
- 238000012937 correction Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 5
- 230000002596 correlated effect Effects 0.000 claims description 4
- 230000008034 disappearance Effects 0.000 claims description 3
- 230000015654 memory Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000003449 preventive effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000003657 Likelihood-ratio test Methods 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
<構成>
図1および図2を参照して、本開示の実施の形態1による目標追尾装置について説明をする。図1は実施の形態1による目標追尾装置10の構成例を示す図であり、図2は目標追尾装置10が備える追尾部12の構成例を示す図である。
センサ観測部1は、センシングにより得られる目標に関するセンサデータを取得する機能部である。センサ観測部1がセンシングする目標の数は、本開示においては、複数である場合が想定される。但し、本開示の技術を用いた実施品が単一の目標をセンシングする場合を排除するものでない。
検出部11は、センサ観測部1から出力されたフレーム毎の画像等のローデータから目標を検出し、検出した目標の特徴量を追尾部12に出力する。例えば、カメラ画像からの目標検出の場合、検出部11は、センサ観測部1から出力された画像データに対してSSD(Single Shot MultiBox Detector)またはYOLO(You Look Only Once)等の目標検出アルゴリズムを用いて目標の位置と大きさを算出する。例えば、目標が人物である場合、その人物の頭部の位置と大きさを算出する。また、検出部11は、センサ観測部1から出力された画像データに対して、RGBヒストグラム、HSVヒストグラム、またはmetrics-learningに基づく高次元特徴量等の目標の見た目特徴量を算出してもよい。検出部11は、各フレームについて算出した位置、大きさ、見た目特徴量等の目標の特徴量を追尾部12に出力する。
追尾部12は、第1の時刻において検出される第1の観測特徴量から、第1の時刻よりも遅い第2の時刻における予測特徴量を予測する予測部121と、その予測された予測特徴量と、第2の時刻において検出される第2の観測特徴量との相関を決定する相関部122と、その相関された第2の観測特徴量と予測された予測特徴量とを用いてフィルタリングを行い、フィルタされた特徴量の時系列データを追尾航跡として出力するフィルタ部123と、を備える機能部である。
予測部121は、検出部11から出力された特徴量に基づき、過去時刻(第1の時刻;前のフレーム)における特徴量から、現在時刻(第2の時刻;現在のフレーム)の特徴量を予測する。予測部121は、予測した結果を予測特徴量として相関部122へ出力する。
相関部122は、予測部121から出力された予測特徴量と観測特徴量を比較し、予測特徴量と観測特徴量の組み合わせを決定し、組合せた予測特徴量と観測特徴量の組を、フィルタ部123に出力する。
フィルタ部123は、相関部122から出力された、予測特徴量と観測特徴量の組を用いてフィルタリングを行い、フィルタされた特徴量を航跡分類部13および予測部121へ出力する。ここで、フィルタリングはαβフィルタのような簡素な手法でも、カルマンフィルタやパーティクルフィルタのような統計的推定に基づく時系列フィルタ手法でも良い。
航跡分類部13は、航跡分類パラメータと、追尾部12から得られたフィルタされた特徴量の時系列データである航跡情報とを元に航跡を分類し、航跡分類パラメータを用いて属性毎に分類された航跡をカウントし、分類後の航跡およびカウントした航跡数等の航跡情報を航跡加工部14または表示部3へ出力する。航跡分類パラメータは記憶部2に記憶されており、航跡分類部13は航跡分類パラメータを記憶部2から取得する。
航跡加工部14は、航跡分類部13から出力される航跡情報に基づいて、表示する航跡を加工する機能部である。すなわち、個別の航跡情報(例えば、人物の頭部等)を表示する際はプライバシーを考慮しまたは情報をコントロールするために、航跡加工部14は航跡を加工してもよい。例えば、航跡加工部14は、追尾された航跡に基づく領域(例えば、検出結果が存在せずに予測により代用した領域)にモザイク処理または黒塗り等の加工をしてもよい。あるいは、航跡加工部14は、航跡分類部13により分類された特定の属性の航跡に対してモザイク処理や黒塗り等の加工をしても良い。
表示部3は、航跡分類部13または航跡加工部14からの出力に基づいて、航跡の統計情報、個別の航跡情報、または個別の加工された若しくは加工されていない航跡を表示する。
次に、図3Aおよび図3Bを参照して、目標追尾装置10の動作について説明をする。図3Aは航跡分類学習処理に係るフローチャートであり、図3Bは航跡分類推論処理に係るフローチャートである。
航跡分類学習処理は、過去のデータに基づいて航跡分類パラメータを算出する処理である。このような処理を行うために、航跡分類学習処理には、物体検出処理(ステップST11)、物体追尾処理(ステップST12)、アノテーション処理(ステップST13)、およびパラメータ推定処理(ステップST14)が含まれる。
(移動パターン1)センサから見て右から出現した航跡
(移動パターン2)センサから見て左から出現した航跡
(移動パターン3)センサから見て奥から出現し手前に消失した航跡
(移動パターン4)センサから見て手前から出現し奥に消失した航跡
(移動パターン5)出現から消失までの距離が長いにも関わらず消失が早い急いでいる航跡
(移動パターン6)センシング領域内に長時間滞在するセンシング領域内の物体に興味がある航跡
(移動パターン7)同様の変化を示す複数の目標の複数の航跡に属する一航跡(グループ航跡パターン)。例えば、並進等の他の航跡と特定の位置関係を有する近接航跡であって、かつ、他の航跡の速度に類似する速度を有する航跡
航跡分類推論処理は、航跡分類学習処理により得られた航跡分類パラメータを用いて航跡を分類する処理である。このような処理を行うために、航跡分類推論処理には、物体検出処理(ステップST21)、物体追尾処理(ステップST22)、および航跡分類処理(ステップST23)が含まれる。物体検出処理(ステップST21)および物体追尾処理(ステップST22)は、航跡分類学習処理における物体検出処理(ステップST11)および物体追尾処理(ステップST12)とそれぞれ同様であるので、重複する説明を省略する。
図4を参照して、本開示の実施の形態2による目標追尾装置について説明をする。図4は、実施の形態2による目標追尾装置20の構成例を示す図である。図4に示されているように、目標追尾装置20は、実施の形態1による目標追尾装置10と同様に、検出部21および追尾部12を備える。目標追尾装置20は、向き推定部24を追加的機能部として備えるとともに、向き推定部24の追加に応じて航跡分類部13の機能が変更された航跡分類部23を備える。また、実施の形態1の場合と同様に、目標追尾装置20は、不図示の航跡加工部を備えていてもよい。また、図4に示されているように、目標追尾装置20を用いた目標追尾システムは、センサ観測部1と、センサ観測部1に接続された目標追尾装置20と、目標追尾装置20に接続された記憶部2と、目標追尾装置20に接続された表示部3とを備える。
向き推定部24は、記憶部2に保存されている過去の航跡、即ちフィルタリングされた後の画像、位置、および航跡品質の時系列データから、アジマスまたはエレベーション等の向きを推定するためのパラメータである向き推定パラメータを推定する。向き推定部24は、現在得られた航跡に対して、推定した向き推定パラメータを用いて、物体の向きを推論する。
L=p(HP,P,RP|H1)/p(HP,P|H0) (1)
L2=1/p(HP,P|H0) (2)
図5および図8を参照して、本開示の実施の形態3による目標追尾装置について説明をする。図5は、実施の形態3による目標追尾装置30の構成例を示す図であり、図8は目標追尾装置30の動作を説明するための図である。図5に示されているように、目標追尾装置30は、実施の形態1による目標追尾装置10と同様に、検出部31、追尾部32、および航跡分類部13を備える。また、目標追尾装置30は、新たな機能部として位置推定部34を備える。位置推定部34が新たに備えられたことに伴って、目標追尾装置30の検出部31、追尾部32および航跡分類部13には、目標追尾装置10の検出部11、追尾部12および航跡分類部13に対してそれぞれ改良が加えられている。また、実施の形態1の場合と同様に、目標追尾装置30は、不図示の航跡加工部を備えていてもよい。改良点について、以下にて説明をする。
図6を参照して、本開示の実施の形態4による目標追尾装置について説明をする。図6は、実施の形態4による目標追尾装置40の構成例を示す図である。図6に示されているように、目標追尾装置40は、実施の形態1による目標追尾装置10と同様に、検出部41、追尾部42、および航跡分類部43を備える。また、目標追尾装置40は、新たな機能部として動き補正部44を備える。また、実施の形態1の場合と同様に、目標追尾装置40は、不図示の航跡加工部を備えていてもよい。
Claims (19)
- センサデータから少なくとも1つの目標の位置を含む特徴量を検出する検出部と、
その検出された特徴量に基づいて前記目標を追尾し、追尾する目標の追尾航跡であって、前記追尾航跡の位置情報と、前記追尾航跡の持つデータ情報とを含む追尾航跡を出力する追尾部と、
過去のデータに基づいて航跡分類学習処理により得られた航跡分類パラメータを用いて、その出力された追尾航跡を、前記追尾航跡の位置情報およびデータ情報で示される、センシング領域における前記目標の存在の仕方に関する複数の考慮要素であって、位置と、速度、他の航跡との関係または前記目標の向きの少なくとも1つとを含む複数の考慮要素に基づいて、予め定められた複数の移動パターンのうちの何れか1つに分類し、分類された追尾航跡の航跡情報を出力する航跡分類部と、
を備える目標追尾装置。 - 前記データ情報は動画像情報または強度情報を少なくとも含む、請求項1に記載された目標追尾装置。
- 前記複数の考慮要素における位置は、前記センシング領域内での出現位置および消失位置を含む、請求項1に記載された目標追尾装置。
- 前記追尾部は、
第1の時刻において検出される第1の観測特徴量から、前記第1の時刻よりも遅い第2の時刻における予測特徴量を予測する予測部と、
その予測された予測特徴量と、前記第2の時刻において検出される第2の観測特徴量との相関を決定する相関部と、
その相関された第2の観測特徴量と前記予測された予測特徴量とを用いてフィルタリングを行い、フィルタされた特徴量の時系列データを前記追尾航跡として出力するフィルタ部と、
を備える、
請求項1に記載された目標追尾装置。 - 前記センサデータは画像であり、
前記航跡分類部は、フィルタされた画像を元に、前記予め定められた複数の移動パターンを分類するための航跡分類パラメータを学習する、
請求項4に記載された目標追尾装置。 - 前記航跡分類部は、航跡の品質を表す追尾品質情報を用いて、前記出力された追尾航跡が、予め定められた複数の移動パターンのうちの何れに該当するかを判定する、
請求項1に記載された目標追尾装置。 - その出力された航跡情報に基づいて、表示する内容を加工する航跡加工部を更に備える、
請求項1に記載された目標追尾装置。 - 前記画像から推定される前記目標の向きを推定する向き推定部、
を更に備える請求項5に記載された目標追尾装置。 - 前記航跡分類部は、ある関心対象物の位置を基準とした前記目標の位置と、その推定される前記目標の向きとの一致度を元に、前記目標が前記関心対象物を注視しているかを推論する、
請求項8に記載された目標追尾装置。 - 前記航跡分類部は、前記追尾航跡の位置と、その推定される前記目標の向きとから、前記追尾航跡が注視航跡である確率と、前記追尾航跡が前記注視航跡でない通常航跡である確率との比である尤度比を算出し、算出した尤度比の大きさから前記目標が前記関心対象物を注視した蓋然性を推論する、
請求項9に記載された目標追尾装置。 - 前記航跡分類部は、前記目標の位置の時間変化である速度ベクトルの向きと、その推定される前記目標の向きとの一致度から、前記目標が不審または異常な行動をしているかを推論する、
請求項8に記載された目標追尾装置。 - 前記航跡分類部は前記追尾航跡が消失する時に前記分類を行う、
請求項1に記載された目標追尾装置。 - 前記検出部は前記目標の第1の領域および前記第1の領域よりも狭い第2の領域を検出し、
前記追尾部は前記追尾航跡として前記第1の領域の航跡と前記第2の領域の航跡とを出力し、
前記第1の領域の航跡の位置および前記第2の領域の航跡の位置を推定し、前記第1の領域の航跡と前記第2の領域の航跡との対応関係を決定して、前記目標の第2の位置を算出する位置推定部を更に備える、
請求項1から12のいずれか1項に記載された目標追尾装置。 - 前記少なくとも1つの目標は複数の目標であり、
前記予め定められた複数の移動パターンは、複数の航跡が同様の変化を示すグループ航跡パターンを含み、
前記航跡分類部は、前記複数の目標のいずれか1つの目標の追尾航跡が前記グループ航跡パターンに該当すると判定する、
請求項1に記載された目標追尾装置。 - 前記センサデータは時間的に連続する複数の画像であり、
第1の時刻における第1の画像と、前記第1の時刻の直後の第2の時刻における第2の画像について、前記第1の画像が取得された第1の位置と前記第2の画像が取得された第2の位置との相違による前記第1の画像と前記第2の画像との間のズレを補正するための動き情報を出力する動き補正部を更に備え、
前記追尾部は、その出力される動き情報を用いて、センサの移動または画像の全体移動を除いた個別の目標の位置を予測して、前記目標を追尾する、
請求項1に記載された目標追尾装置。 - 前記センサデータは時間的に連続する複数の画像であり、
第1の時刻における第1の画像と、前記第1の時刻の直後の第2の時刻における第2の画像について、前記第1の画像が取得された第1の位置と前記第2の画像が取得された第2の位置との相違による前記第1の画像と前記第2の画像との間のズレを補正するための動き情報を出力する動き補正部を更に備え、
前記航跡分類部は、その出力される動き情報を用いて、出力される追尾航跡に含まれる位置情報をセンサの移動または画像の全体移動を除いた個別の航跡の位置情報に補正して、前記分類を行う、
請求項1に記載された目標追尾装置。 - センサデータから少なくとも1つの目標の位置を含む特徴量を検出する検出部と、
その検出された特徴量に基づいて前記目標を追尾し、追尾する目標の追尾航跡を出力する追尾部と、
過去のデータに基づいて航跡分類学習処理により得られた航跡分類パラメータを用いて、その出力された追尾航跡を予め定められた複数の移動パターンのうちの何れか1つに分類し、分類された追尾航跡の航跡情報を出力する航跡分類部と、
を備え、
前記センサデータは画像であり、
前記航跡分類部は、フィルタされた画像を元に、前記予め定められた複数の移動パターンを分類するための航跡分類パラメータを学習する、
目標追尾装置。 - センサデータから少なくとも1つの目標の位置を含む特徴量を検出する検出部と、
その検出された特徴量に基づいて前記目標を追尾し、追尾する目標の追尾航跡を出力する追尾部と、
過去のデータに基づいて航跡分類学習処理により得られた航跡分類パラメータを用いて、その出力された追尾航跡を予め定められた複数の移動パターンのうちの何れか1つに分類し、分類された追尾航跡の航跡情報を出力する航跡分類部と、
を備え、
前記検出部は前記目標の第1の領域および前記第1の領域よりも狭い第2の領域を検出し、
前記追尾部は前記追尾航跡として前記第1の領域の航跡と前記第2の領域の航跡とを出力し、
前記第1の領域の航跡の位置および前記第2の領域の航跡の位置を推定し、前記第1の領域の航跡と前記第2の領域の航跡との対応関係を決定して、前記目標の第2の位置を算出する位置推定部を更に備える、
目標追尾装置。 - 検出部、追尾部および航跡分類部を備える目標追尾装置が行う目標追尾方法であって、
前記検出部が、センサデータから少なくとも1つの目標の位置を含む特徴量を検出するステップと、
前記追尾部が、その検出された特徴量に基づいて前記目標を追尾し、追尾する目標の追尾航跡であって、前記追尾航跡の位置情報と、前記追尾航跡の持つデータ情報とを含む追尾航跡を出力するステップと、
前記航跡分類部が、過去のデータに基づいて航跡分類学習処理により得られた航跡分類パラメータを用いて、その出力された追尾航跡が、前記追尾航跡の位置情報およびデータ情報で示される、センシング領域における前記目標の存在の仕方に関する複数の考慮要素であって、位置と、速度、他の航跡との関係または前記目標の向きの少なくとも1つとを含む複数の考慮要素に基づいて、予め定められた複数の移動パターンのうちの何れか1つに分類するステップと、
を備える目標追尾方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/007932 WO2024184936A1 (ja) | 2023-03-03 | 2023-03-03 | 目標追尾装置および目標追尾方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7486685B1 true JP7486685B1 (ja) | 2024-05-17 |
Family
ID=91067379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023569600A Active JP7486685B1 (ja) | 2023-03-03 | 2023-03-03 | 目標追尾装置および目標追尾方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7486685B1 (ja) |
WO (1) | WO2024184936A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140660A (ja) | 2019-03-01 | 2020-09-03 | グローリー株式会社 | 人物計数装置、人物計数方法及び人物計数プログラム |
WO2020188746A1 (ja) | 2019-03-19 | 2020-09-24 | 日本電気株式会社 | 情報処理装置、推定方法、及び非一時的なコンピュータ可読媒体 |
WO2021171498A1 (ja) | 2020-02-27 | 2021-09-02 | 三菱電機株式会社 | 目標追尾装置、目標追尾システム、及び目標追尾方法 |
-
2023
- 2023-03-03 WO PCT/JP2023/007932 patent/WO2024184936A1/ja unknown
- 2023-03-03 JP JP2023569600A patent/JP7486685B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020140660A (ja) | 2019-03-01 | 2020-09-03 | グローリー株式会社 | 人物計数装置、人物計数方法及び人物計数プログラム |
WO2020188746A1 (ja) | 2019-03-19 | 2020-09-24 | 日本電気株式会社 | 情報処理装置、推定方法、及び非一時的なコンピュータ可読媒体 |
WO2021171498A1 (ja) | 2020-02-27 | 2021-09-02 | 三菱電機株式会社 | 目標追尾装置、目標追尾システム、及び目標追尾方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2024184936A1 (ja) | 2024-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Moving object detection and tracking from video captured by moving camera | |
Javed et al. | Tracking and object classification for automated surveillance | |
US10212324B2 (en) | Position detection device, position detection method, and storage medium | |
JP4216668B2 (ja) | 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 | |
EP1844443B1 (en) | Classifying an object in a video frame | |
Pelapur et al. | Persistent target tracking using likelihood fusion in wide-area and full motion video sequences | |
Wang et al. | Robust video-based surveillance by integrating target detection with tracking | |
EP2345999A1 (en) | Method for automatic detection and tracking of multiple objects | |
US20150009323A1 (en) | Multi-target tracking method for video surveillance | |
KR20190128500A (ko) | 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치 | |
KR20160144149A (ko) | 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법 | |
JP2008542922A (ja) | 保安用途向けの人間の検出及び追跡 | |
US10586115B2 (en) | Information processing device, information processing method, and computer program product | |
Trinh et al. | Hand tracking by binary quadratic programming and its application to retail activity recognition | |
KR101681104B1 (ko) | 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법 | |
Chamveha et al. | Head direction estimation from low resolution images with scene adaptation | |
KR101472674B1 (ko) | 군중 궤적 추출을 이용한 비정상 행동 검출에 기초한 영상 감시 방법 및 영상 감시 장치 | |
CN107194950A (zh) | 一种基于慢特征分析的多人跟踪方法 | |
Foresti et al. | Detecting moving people in video streams | |
Nam | Loitering detection using an associating pedestrian tracker in crowded scenes | |
Hernández et al. | People counting with re-identification using depth cameras | |
WO2008101039A1 (en) | System and method for adaptive pixel segmentation from image sequences | |
JP7486685B1 (ja) | 目標追尾装置および目標追尾方法 | |
JP7271373B2 (ja) | 映像処理装置、映像処理システムおよび映像処理方法 | |
JP5805511B2 (ja) | 画像監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231109 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7486685 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |