JP7310927B2 - 物体追跡装置、物体追跡方法及び記録媒体 - Google Patents
物体追跡装置、物体追跡方法及び記録媒体 Download PDFInfo
- Publication number
- JP7310927B2 JP7310927B2 JP2021566677A JP2021566677A JP7310927B2 JP 7310927 B2 JP7310927 B2 JP 7310927B2 JP 2021566677 A JP2021566677 A JP 2021566677A JP 2021566677 A JP2021566677 A JP 2021566677A JP 7310927 B2 JP7310927 B2 JP 7310927B2
- Authority
- JP
- Japan
- Prior art keywords
- position information
- image
- information
- matrix
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Description
初めに、図1及び図2を参照しながら、本実施形態の物体追跡装置1の構成について説明する。図1は、本実施形態の物体追跡装置1の構成を示すブロック図である。図2は、物体照合動作及びリファイン動作を行うために物体追跡装置1内に実現される論理的な機能ブロックの構成を示すブロック図である。
続いて、物体追跡装置1が行う物体追跡動作について説明する。上述したように、物体追跡動作は、物体検出動作と、物体照合動作と、リファイン動作とを行う。従って、以下では、物体追跡動作は、物体検出動作と、物体照合動作と、リファイン動作とについて順に説明する。
初めに、物体検出部21が行う物体検出動作について説明する。物体検出部21は、画像DB31に格納されている画像IMを読み出し、読み出した画像IMに対して物体検出動作を行う。物体検出部21は、画像に映り込んだ物体を検出するための既存の方法を用いて、画像IMに映り込んだ物体Oを検出してもよい。但し、物体検出部21は、画像IMに映り込んだ物体Oを検出することで画像IM内での物体Oの位置に関する情報(以降、“物体位置情報PI”と称する)を取得可能な方法を用いて、物体検出動作を行うことが好ましい。物体検出部21が取得した物体位置情報PIは、物体検出部21による物体検出動作の結果を示す物体検出情報として、物体検出DB32に格納される。
続いて、物体照合部22が行う物体照合動作について説明する。物体照合部22は、物体検出DB32に格納されている物体位置情報PIを読み出し、読み出した物体位置情報PIを用いて物体照合動作を行う。以下、時刻t-τに撮影された画像IMt-τに映り込んでいる物体Ot-τと、時刻tに撮影された画像IMtに映り込んでいる物体Otとを照合する物体照合動作について、図4を参照しながら説明する。図4は、物体照合動作の流れを示すフローチャートである。
続いて、「補正手段」の一具体例であるリファイン部23が行うリファイン動作について説明する。リファイン部23は、物体検出DB32に格納されている物体位置情報PIを読み出し、物体照合部22から類似性行列AMを取得し、取得した類似性行列AMを用いて、読み出した物体位置情報PIを補正する。以下、物体位置情報PIt-τ及びPItに基づいて生成された類似性行列AMを用いて物体位置情報PItを補正するリファイン動作について、図6を参照しながら説明する。図6は、リファイン動作の流れを示すフローチャートである。
以上説明したように、本実施形態の物体追跡装置1は、物体位置情報PIt-τ及びPItから類似性行列AMを生成し、類似性行列AMを用いて物体位置情報PItをリファインすることができる。つまり、物体追跡装置1は、物体検出部21の出力である物体位置情報PIt-τ及びPItに対して前処理等を行うことなく、物体照合動作を行うことができる。言い換えれば、物体追跡装置1は、物体検出部21の出力である物体位置情報PIt-τ及びPItを、物体照合動作を行う物体照合部22の入力としてそのまま用いることができる。同様に、物体追跡装置1は、物体照合部22の出力である類似性行列AMに対して前処理等を行うことなく、リファイン動作を行うことができる。言い換えれば、物体追跡装置1は、物体照合部22の出力である類似性行列AM及び物体検出部21の出力である物体位置情報PItを、リファイン動作を行うリファイン部23の入力としてそのまま用いることができる。このため、物体検出動作、物体照合動作及びリファイン動作を互いに独立した別個の三つの動作として行う比較例の物体追跡装置と比較して、物体追跡装置1は、物体検出動作、物体照合動作及びリファイン動作の夫々を行うための前処理等を行わなくともよくなる。その結果、物体追跡装置1は、相対的に低い処理コストで物体Oを追跡することができる。
(4-1)第1変形例
初めに、図7を参照しながら、第1変形例の物体追跡装置1aについて説明する。図7は、第1変形例の物体追跡装置1aの構成を示すブロック図である。
上述した説明では、物体追跡装置1は、物体検出動作を含む物体追跡動作を行っている。しかしながら、第2変形例では、物体追跡動作は、物体検出動作を含んでいなくてもよい。つまり、物体追跡装置1は、物体検出動作を行わなくてもよい。この場合、物体追跡装置1の第2変形例である物体追跡装置1bの構成を示す図9に示すように、物体追跡装置1bは、物体検出部21を備えていなくてもよい。更には、記憶装置3には、物体検出動作を行うために用いられる画像IMを格納するための画像DB31及び物体検出動作の結果を示す物体検出情報を格納するための物体検出DB32が記憶されていなくてもよい。物体追跡装置1b(特に、物体照合部22)は、物体追跡装置1bとは異なる装置が行った物体検出動作の結果を示す物体検出情報を用いて、物体照合動作を行ってもよい。
行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVtとを用いた演算処理によって得られる類似性行列AMを正規化してもよい。例えば、行列演算部225は、特徴ベクトルCVt-τと特徴ベクトルCVtとの行列積を正規化することで、類似性行列AMを正規化してもよい。
上述した説明では、物体検出動作を行うことで物体検出部21が生成する物体位置情報PIは、物体Oの中心位置KPを示す情報、物体Oの検出枠BBのサイズを示す情報及び検出枠BBの補正量を示す情報を含んでいる。しかしながら、物体位置情報PIは、物体Oの検出枠BBのサイズを示す情報及び検出枠BBの補正量を示す情報の少なくとも一方を含んでいなくてもよい。物体位置情報PIは、物体Oの中心とは異なる部分の位置に関する情報を含んでいてもよい。
以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成する第1生成手段と、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成する第2生成手段と
を備える物体追跡装置。
[付記2]
前記演算処理は、前記第1特徴ベクトルと第2特徴ベクトルとの行列積を算出する処理を含む
付記1に記載の物体追跡装置。
[付記3]
前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示す
付記1又は2に記載の物体追跡装置。
[付記4]
前記第2生成手段は、前記行列の一の行のベクトル成分及び前記行列の一の列のベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
付記1から3のいずれか一項に記載の物体追跡装置。
[付記5]
前記対応情報は、前記第1及び第2画像のいずれか一方中の一の物体に対応する行ベクトル成分と前記第1及び第2画像のいずれか他方中の前記一の物体に対応する列ベクトル成分とが交差する位置において要素が反応する行列を用いて、前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
前記第2生成手段は、前記行ベクトル成分及び各列ベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
付記1から4のいずれか一項に記載の物体追跡装置。
[付記6]
前記対応情報を用いて前記第2位置情報を補正する補正手段を更に備える
付記1から4のいずれか一項に記載の物体追跡装置。
[付記7]
前記補正手段は、前記対応情報を重みとして用いる注意機構を用いて、前記第2位置情報を補正する
付記6に記載の物体追跡装置。
[付記8]
前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
前記第2位置情報は、前記第2画像中の物体の位置に関する情報を示す位置マップを含み、
前記注意機構は、前記位置マップと前記対応マップとの行列積を算出する処理を行うことで、前記第2位置情報である前記位置マップを補正する
付記7に記載の物体追跡装置。
[付記9]
前記注意機構は、前記位置マップと前記対応情報との行列積を算出することで得られる補正マップを前記位置マップに加算する処理を行うことで、前記第2位置情報である前記位置マップを補正する
付記8に記載の物体追跡装置。
[付記10]
前記第1生成手段は、前記第1及び第2画像が入力されると前記第1及び第2位置情報を夫々出力する演算モデルから、前記第1及び第2位置情報と、前記演算モデルの中間出力に相当する中間出力情報とを取得し、
前記第1生成手段は、前記第1及び第2位置情報と前記中間出力情報とに基づいて前記第1及び第2特徴ベクトルを算出する
付記1から9のいずれか一項に記載の物体追跡装置。
[付記11]
前記第1及び第2画像から前記第1及び第2位置情報を生成する第3生成手段と、
前記対応情報を用いて前記第2位置情報を補正する補正手段と、
学習用の前記第1及び第2画像を含む学習用データを前記第3生成手段に入力し、前記学習用データが前記第3生成手段に入力された場合に前記補正手段が補正した前記第2位置情報に関する第1損失関数に基づいて、前記第1から第3生成手段及び前記補正手段のうちの少なくとも一つの動作内容を規定する学習モデルを更新する学習手段と
を更に備える付記1から10のいずれか一項に記載の物体追跡装置。
[付記12]
前記学習手段は、前記第1損失関数と、前記学習用データが前記第3生成手段に入力された場合に前記第3生成手段が生成した前記第1位置情報に関する第2損失関数と、前記学習用データが前記第3生成手段に入力された場合に前記第3生成手段が生成した前記第2位置情報に関する第3損失関数とに基づいて、前記学習モデルを更新し、
前記学習手段は、前記第1及び第3損失関数全体の重みと、前記第2損失関数の重みとが等しくなるように、前記第1から第3損失関数に対して重み付け処理を施し、前記重み付け処理が施された前記第1から第3損失関数に基づいて、前記学習モデルを生成する
付記11に記載の物体追跡装置。
[付記13]
前記学習手段は、前記第1時刻と前記第2時刻との間隔が異なる複数の前記学習用データを前記第1生成手段に入力する
付記11又は12に記載の物体追跡装置。
[付記14]
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
を含む物体追跡方法。
[付記15]
コンピュータに物体追跡方法を実行させるコンピュータプログラムが記録された、一時的でない記録媒体であって、
前記物体追跡方法は、
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
を含む記録媒体。
[付記16]
コンピュータに物体追跡方法を実行させるコンピュータプログラムであって、
前記物体追跡方法は、
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと
を含むコンピュータプログラム。
2 演算装置
21 物体検出部
22 物体照合部
221、223 特徴マップ変換部
222、224 特徴ベクトル変換部
225 行列演算部
23 リファイン部
231 行列演算部
232 特徴ベクトル変換部
233 特徴マップ変換部
234 残差処理部
235 特徴マップ変換部
3 記憶装置
31 画像DB
32 物体検出DB
33 物体照合DB
Claims (9)
- 第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成する第1生成手段と、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成する第2生成手段と、
前記対応情報を用いて前記第2位置情報を補正する補正手段と
を備える物体追跡装置。 - 前記演算処理は、前記第1特徴ベクトルと第2特徴ベクトルとの行列積を算出する処理を含む
請求項1に記載の物体追跡装置。 - 前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示す
請求項1又は2に記載の物体追跡装置。 - 前記第2生成手段は、前記行列の一の行のベクトル成分及び前記行列の一の列のベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
請求項3に記載の物体追跡装置。 - 前記対応情報は、前記第1及び第2画像のいずれか一方中の一の物体に対応する行ベクトル成分と前記第1及び第2画像のいずれか他方中の前記一の物体に対応する列ベクトル成分とが交差する位置において要素が反応する行列を用いて、前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
前記第2生成手段は、前記行ベクトル成分及び各列ベクトル成分の夫々をソフトマックス関数で正規化することで、前記行列を正規化する
請求項1から4のいずれか一項に記載の物体追跡装置。 - 前記補正手段は、前記対応情報を重みとして用いる注意機構を用いて、前記第2位置情報を補正する
請求項1から5のいずれか一項に記載の物体追跡装置。 - 前記対応情報は、行列を用いて前記第1画像中の物体と前記第2画像中の物体との対応関係を示し、
前記第2位置情報は、前記第2画像中の物体の位置に関する情報を示す位置マップを含み、
前記注意機構は、前記位置マップと前記対応情報との行列積を算出する処理を行うことで、前記第2位置情報である前記位置マップを補正する
請求項6に記載の物体追跡装置。 - 第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと、
前記対応情報を用いて前記第2位置情報を補正することと
を含む物体追跡方法。 - コンピュータに物体追跡方法を実行させるコンピュータプログラムであって、
前記物体追跡方法は、
第1時刻に撮影された第1画像中の物体の位置に関する第1位置情報及び前記第1時刻とは異なる第2時刻に撮影された第2画像中の物体の位置に関する第2位置情報に基づいて、前記第1位置情報の特徴量を示す第1特徴ベクトルと、前記第2位置情報の特徴量を示す第2特徴ベクトルとを生成することと、
前記第1及び第2特徴ベクトルを用いた演算処理によって得られる情報を、前記第1画像中の物体と前記第2画像中の物体との対応関係を示す対応情報として生成することと、
前記対応情報を用いて前記第2位置情報を補正することと
を含むコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/051088 WO2021130951A1 (ja) | 2019-12-26 | 2019-12-26 | 物体追跡装置、物体追跡方法及び記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021130951A1 JPWO2021130951A1 (ja) | 2021-07-01 |
JPWO2021130951A5 JPWO2021130951A5 (ja) | 2022-08-08 |
JP7310927B2 true JP7310927B2 (ja) | 2023-07-19 |
Family
ID=76573764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021566677A Active JP7310927B2 (ja) | 2019-12-26 | 2019-12-26 | 物体追跡装置、物体追跡方法及び記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230031931A1 (ja) |
JP (1) | JP7310927B2 (ja) |
WO (1) | WO2021130951A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030048A1 (ja) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
WO2019008951A1 (ja) | 2017-07-06 | 2019-01-10 | 株式会社デンソー | 畳み込みニューラルネットワーク |
JP2019536154A (ja) | 2016-11-15 | 2019-12-12 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 直方体検出のための深層機械学習システム |
-
2019
- 2019-12-26 WO PCT/JP2019/051088 patent/WO2021130951A1/ja active Application Filing
- 2019-12-26 US US17/788,444 patent/US20230031931A1/en active Pending
- 2019-12-26 JP JP2021566677A patent/JP7310927B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030048A1 (ja) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
JP2019536154A (ja) | 2016-11-15 | 2019-12-12 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 直方体検出のための深層機械学習システム |
WO2019008951A1 (ja) | 2017-07-06 | 2019-01-10 | 株式会社デンソー | 畳み込みニューラルネットワーク |
Non-Patent Citations (1)
Title |
---|
FEICHTENHOFER et al.,Detect to Track and Track to Detect,Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV 2017),米国,IEEE,2017年10月29日,pp.3057-3065,DOI:10.1109/ICCV.2017.330,ISBN 978-1-5386-1032-9 |
Also Published As
Publication number | Publication date |
---|---|
WO2021130951A1 (ja) | 2021-07-01 |
US20230031931A1 (en) | 2023-02-02 |
JPWO2021130951A1 (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11610115B2 (en) | Learning to generate synthetic datasets for training neural networks | |
US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
CN109949255B (zh) | 图像重建方法及设备 | |
Liu et al. | Video object detection for autonomous driving: Motion-aid feature calibration | |
CN109902546B (zh) | 人脸识别方法、装置及计算机可读介质 | |
JP7037143B2 (ja) | ニューラルネットワークのための方法及び電子装置 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
US11593611B2 (en) | Neural network cooperation | |
WO2020019236A1 (en) | Loss-error-aware quantization of a low-bit neural network | |
CN111696196B (zh) | 一种三维人脸模型重建方法及装置 | |
CN111860504A (zh) | 基于深度学习的视觉多目标跟踪方法及装置 | |
US20210232855A1 (en) | Movement state recognition model training device, movement state recognition device, methods and programs therefor | |
WO2021217937A1 (zh) | 姿态识别模型的训练方法及设备、姿态识别方法及其设备 | |
Hornauer et al. | Gradient-based uncertainty for monocular depth estimation | |
WO2024046144A1 (zh) | 一种视频处理方法及其相关设备 | |
JP7310927B2 (ja) | 物体追跡装置、物体追跡方法及び記録媒体 | |
US11688175B2 (en) | Methods and systems for the automated quality assurance of annotated images | |
US20210042625A1 (en) | Performance of neural networks using learned specialized transformation functions | |
WO2020052170A1 (zh) | 一种目标对象识别方法、装置及存储介质 | |
US20240104891A1 (en) | Object detection device, learning method, and recording medium | |
WO2019136591A1 (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
KR20230071719A (ko) | 이미지 처리용 신경망 훈련 방법 및 전자 장치 | |
Zhang et al. | Research on Mask Wearing Detection Algorithm in Complex Scenes | |
Tomar | A critical evaluation of activation functions for autoencoder neural networks | |
WO2023044661A1 (en) | Learning reliable keypoints in situ with introspective self-supervision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7310927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |