JP2022546811A - 画像キャプションの方法、装置、計算機器及び記憶媒体 - Google Patents
画像キャプションの方法、装置、計算機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022546811A JP2022546811A JP2022513610A JP2022513610A JP2022546811A JP 2022546811 A JP2022546811 A JP 2022546811A JP 2022513610 A JP2022513610 A JP 2022513610A JP 2022513610 A JP2022513610 A JP 2022513610A JP 2022546811 A JP2022546811 A JP 2022546811A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- vector
- decoding
- self
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000000605 extraction Methods 0.000 claims abstract description 140
- 238000013519 translation Methods 0.000 claims abstract description 74
- 238000001514 detection method Methods 0.000 claims abstract description 52
- 230000008569 process Effects 0.000 claims abstract description 23
- 238000007499 fusion processing Methods 0.000 claims abstract description 20
- 239000013598 vector Substances 0.000 claims description 306
- 238000012545 processing Methods 0.000 claims description 60
- 230000014616 translation Effects 0.000 description 55
- 230000004927 fusion Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 230000007547 defect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003746 feather Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/424—Syntactic representation, e.g. by using alphabets or grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
複数の第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各前記第1特徴抽出モデルに生成された画像特徴を取得することと、
前記複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、前記ターゲット画像に対応する大域画像特徴を生成することと、
第2特徴抽出モデルを用いて前記ターゲット画像に対して特徴抽出を行って、前記ターゲット画像に対応するターゲット検出特徴を取得することと、
前記ターゲット画像に対応する前記大域画像特徴と前記ターゲット検出特徴とを翻訳モデルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とすることとを含む、画像キャプションの方法を提供する。
前記複数の第1特徴抽出モデルに生成された画像特徴のそれぞれに対して対応する第1自己注意層によって特徴抽出を行って、複数の中間特徴を取得することと、
複数の前記中間特徴をスティッチングして、初期大域特徴を生成することと、
少なくとも1つの第2自己注意層によって前記初期大域特徴に対して融合処理を行って、大域画像特徴を生成することとを含む。
前記ターゲット画像に対応する前記大域画像特徴と前記ターゲット検出特徴とを翻訳モデルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とすることは、
前記ターゲット検出特徴と前記大域画像特徴とを前記翻訳モデルのエンコーダに入力して、前記エンコーダの出力の符号化ベクトルを生成することと、
前記符号化ベクトルと前記大域画像特徴とをデコーダに入力して、前記デコーダの出力の復号化ベクトルを生成することと、
前記デコーダの出力の復号化ベクトルに基づいて対応する翻訳文を生成し、前記翻訳文を前記ターゲット画像のキャプション文とすることとを含む。
前記ターゲット検出特徴と前記大域画像特徴とを前記翻訳モデルのエンコーダに入力して、前記エンコーダの出力の符号化ベクトルを生成することは、
S11:前記ターゲット検出特徴と前記大域画像特徴とを1番目の符号化層に入力して、1番目の符号化層の出力ベクトルを取得することと、
S12:i-1番目の符号化層の出力ベクトルと前記大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得し、2≦i≦Nであることと、
S13:iがNに等しいかどうかを判断し、等しくない場合はiを1だけインクリメントしてステップS12を実行し、等しい場合はステップS14を実行することと、
S14:N番目の符号化層の出力ベクトルを前記エンコーダの出力の符号化ベクトルとすることとを含む。
前記ターゲット検出特徴と前記大域画像特徴とを1番目の符号化層に入力して、1番目の符号化層の出力ベクトルを取得することは、
前記ターゲット検出特徴を第1符号化自己注意層に入力して、第1中間ベクトルを取得することと、
前記第1中間ベクトルと前記大域画像特徴とを前記第2符号化自己注意層に入力して、第2中間ベクトルを取得することと、
前記第2中間ベクトルを前記第1フィードフォワード層により処理して、1番目の符号化層の出力ベクトルを取得することとを含む。
i-1番目の符号化層の出力ベクトルと前記大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得することは、
前記i-1番目の符号化層の出力ベクトルを第1符号化自己注意層に入力して、第3中間ベクトルを取得することと、
前記第3中間ベクトルと前記大域画像特徴とを第2符号化自己注意層に入力して、第4中間ベクトルを取得することと、
前記第4中間ベクトルを第1フィードフォワード層により処理して、i番目の符号化層の出力ベクトルを取得することとを含む。
数であり、
前記符号化ベクトルと前記大域画像特徴とをデコーダに入力して、前記デコーダの出力の復号化ベクトルを生成することは、
S21:参照復号化ベクトルと、前記符号化ベクトルと、前記大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得することと、
S22:j-1番目の復号化層の出力ベクトルと、前記符号化ベクトルと、前記大域画像特徴とをj番目の復号化層に入力して、j番目の復号化層の出力ベクトルを取得し、2≦j≦Mであることと、
S23:jがMに等しいかどうかを判断し、等しくない場合はjを1だけインクリメントしてステップS22を実行し、等しい場合はステップS24を実行することと、
S24:M番目の復号化層の出力ベクトルを前記デコーダの出力の復号化ベクトルとすることとを含む。
参照復号化ベクトルと、前記符号化ベクトルと、前記大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得することは、
前記参照復号化ベクトルを前記第1復号化自己注意層により処理して、第5中間ベクトルを取得することと、
前記第5中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第6中間ベクトルを取得することと、
前記第6中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第7中間ベクトルを取得することと、
第7中間ベクトルを第2フィードフォワード層により処理して、1番目の復号化層の出力ベクトルを取得することとを含む。
j-1番目の復号化層の出力ベクトルと、符号化ベクトルと、大域画像特徴とをj番目の復号化層に入力して、j番目の復号化層の出力ベクトルを取得することは、
j-1番目の復号化層の出力ベクトルを前記第1復号化自己注意層により処理して、第8中間ベクトルを取得することと、
前記第8中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第9中間ベクトルを取得することと、
前記第9中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第10中間ベクトルを取得することと、
前記第10中間ベクトルを前記第2フィードフォワード層により処理して、j番目の復号化層の出力ベクトルを取得することとを含む。
複数の第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各前記第1特徴抽出モデルに生成された画像特徴を取得するように構成されている、特徴抽出モジュールと、
前記複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、前記ターゲット画像に対応する大域画像特徴を生成するように構成されている、大域画像特徴抽出モジュールと、
第2特徴抽出モデルを用いて前記ターゲット画像に対して特徴抽出を行って、前記ターゲット画像に対応するターゲット検出特徴を取得するように構成されている、ターゲット検出特徴抽出モジュールと、
前記ターゲット画像に対応する前記大域画像特徴と前記ターゲット検出特徴とを翻訳モ
デルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とするように構成されている、翻訳モジュールとを含む、画像キャプションの装置を提供する。
メモリと、プロセッサと、メモリに格納されているプロセッサが実行可能なコンピュータコマンドとを含み、前記プロセッサは当該コマンドを実行すると、上記の画像キャプションの方法のステップを実現する、計算機器を提供する。
他の図面を得ることができる。
語処理と、機械学習とを融合した総合的な課題であり、画像に基づいて画像コンテンツを説明できる自然言語の文を生成する。平たく言えば、画像をキャプション文に翻訳することである。
ース、ワイマックス(Wi-MAX)インタフェース、イーサネットインタフェース、ユニバーサルシリアルバス(USB)インタフェース、セルラーネットワークインタフェース、ブルートゥースインタフェース、近距離無線通信(NFC)インタフェースなどを含む。
etモデル、Densnetモデル、inceptionv3モデルなどの畳み込みネットワークモデルを含んでもよい。
像特徴のそれぞれに対して対応する第1自己注意層によって特徴抽出を行って、生成した中間特徴を取得する。
n,vn)]と表することができる。
含む。
1)特徴抽出:ターゲット画像全体を入力として、ターゲット画像の特徴層を取得する。2)候補領域:選択調査(Selective Search)等の方法によって、ター
ゲット画像から関心領域を抽出し、これらの関心領域に対応する関心枠を一つずつ最後の特徴層に投影する。
3)領域正規化:特徴層の各候補領域の候補枠に対してプーリング操作を行って、固定サイズの特徴表現を取得する。
4)分類:2つの全結合層によって、それぞれSoftmax多分類関数を用いてターゲット識別を行って、最終的なターゲット検出特徴を取得する。
301:複数の第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各第1特徴抽出モデルに生成された画像特徴を取得する。
302:複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、ターゲット画像に対応する大域画像特徴を生成する。
303:第2特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、ターゲット画像に対応するターゲット検出特徴を取得する。
返し説明しない。
S3042:i-1番目の符号化層の出力ベクトルと大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得し、2≦i≦Nである。
S3043:iがNに等しいかどうかを判断する。等しくない場合はiを1だけインクリメントしてステップS3042を実行し、等しい場合はステップS3044を実行する。
S3044:N番目の符号化層の出力ベクトルをエンコーダが出力する符号化ベクトルとする。
ステップS3041は、前記ターゲット検出特徴を第1符号化自己注意層に入力して、第1中間ベクトルを取得することと、第1中間ベクトルと大域画像特徴とを第2符号化自己注意層に入力して、第2中間ベクトルを取得することと、前記第2中間ベクトルを第1フィードフォワード層により処理して、1番目の符号化層の出力ベクトルを取得することとを含む。
S3051:参照復号化ベクトルと、符号化ベクトルと、大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得し、
前記翻訳文の1番目の翻訳単語にとって、前記参照復号化ベクトルは初期復号化ベクトルであり、
前記翻訳文の他の翻訳単語にとって、前記参照復号化ベクトルは1つ前の翻訳単語に対応する復号化ベクトルである。
訳単語を生成し、前記翻訳単語に基づいて翻訳文を生成する。
S61:4つの第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各第1特徴抽出モデルに生成された画像特徴を取得する。
対応する第1自己注意層により1番目の第1特徴抽出モデルに生成された画像特徴を処理して、A1個の中間特徴を取得し、中間特徴のサイズはP*Qである。対応する第1自己注意層により2番目の第1特徴抽出モデルに生成された画像特徴を処理して、A2個の
中間特徴を取得し、中間特徴のサイズはP*Qである。対応する第1自己注意層により3番目の第1特徴抽出モデルに生成された画像特徴を処理して、A3個の中間特徴を取得し、中間特徴のサイズはP*Qである。対応する第1自己注意層により4番目の第1特徴抽出モデルに生成された画像特徴を処理して、A4個の中間特徴を取得し、中間特徴のサイズはP*Qである。
4つの中間特徴をスティッチングして、(A1+A2+A3+A4)個の特徴を含む初期大域特徴を生成する。
本実施例において、K=3である。
(A1+A2+A3+A4)個の特徴を含む初期大域特徴に対して融合処理を行って、A'個の特徴を含む大域画像特徴を生成する。一般的に、A'≦(A1+A2+A3+A4)である。
本実施例では、第2特徴抽出モデルがFaster RNN(Faster Regions with CNN features)モデルである。
エンコーダはN個の符号化層を含み、デコーダはM個の復号化層を含む。
複数の第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各第1
特徴抽出モデルに生成された画像特徴を取得するように構成されている、特徴抽出モジュール701と、
前記複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、前記ターゲット画像に対応する大域画像特徴を生成するように構成されている、大域画像特徴抽出モジュール702と、
第2特徴抽出モデルを用いて前記ターゲット画像に対して特徴抽出を行って、前記ターゲット画像に対応するターゲット検出特徴を取得するように構成されている、ターゲット検出特徴抽出モジュール703と、
前記ターゲット画像に対応する大域画像特徴とターゲット検出特徴とを翻訳モデルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とするように構成されている、翻訳モジュール704とを含む、画像キャプションの装置をさらに提供する。
前記複数の第1特徴抽出モデルに生成された画像特徴のそれぞれに対して対応する第1自己注意層によって特徴抽出を行って、複数の中間特徴を取得し、
複数の中間特徴をスティッチングして、初期大域特徴を生成し、
少なくとも1つの第2自己注意層によって初期大域特徴に対して融合処理を行って、大域画像特徴を生成するように構成されている。
前記翻訳モジュール704は、
前記ターゲット検出特徴と大域画像特徴とを前記翻訳モデルのエンコーダに入力して、前記エンコーダの出力の符号化ベクトルを生成するように構成されている、符号化モジュールと、
前記符号化ベクトルと前記大域画像特徴とをデコーダに入力して、前記デコーダの出力の復号化ベクトルを生成するように構成されている、復号化モジュールと、
前記デコーダの出力の復号化ベクトルに基づいて対応する翻訳文を生成し、前記翻訳文を前記ターゲット画像のキャプション文とするように構成されている、文生成モジュールとを含む。
符号化モジュールは、
前記ターゲット検出特徴と大域画像特徴とを1番目の符号化層に入力して、1番目の符号化層の出力ベクトルを取得するように構成されている、第1処理手段と、
i-1番目の符号化層の出力ベクトルと大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得するように構成されており、2≦i≦Nである、第2処理手段と、
iがNに等しいかどうかを判断し、等しくない場合はiを1だけインクリメントして第2処理手段を実行し、等しい場合は符号化ベクトル生成手段を実行するように構成されている、第1判断手段と、
N番目の符号化層の出力ベクトルをエンコーダの出力の符号化ベクトルとするように構成されている、符号化ベクトル生成手段と、を含む。
第2処理手段は、具体的に、
前記i-1番目の符号化層の出力ベクトルを第1符号化自己注意層に入力して、第3中間ベクトルを取得し、
第3中間ベクトルと前記大域画像特徴とを第2符号化自己注意層に入力して、第4中間ベクトルを取得し、
第4中間ベクトルを第1フィードフォワード層により処理して、i番目の符号化層の出力ベクトルを取得するように構成されている。
前記復号化モジュールは、
参照復号化ベクトルと、符号化ベクトルと、大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得するように構成されている、第3処理手段と
j-1番目の復号化層の出力ベクトルと、符号化ベクトルと、大域画像特徴とをj番目の復号化層に入力して、j番目の復号化層の出力ベクトルを取得するように構成されており、2≦j≦Mである、第4処理手段と、
jがMに等しいかどうかを判断し、等しくない場合はjを1だけインクリメントして第4処理手段を実行し、等しい場合は復号化ベクトル生成手段を実行するように構成されている、第2判断手段と、
M番目の復号化層の出力ベクトルをデコーダの出力の復号化ベクトルとするように構成されている、復号化ベクトル生成手段とを含む。
第3処理手段は、具体的に、
参照復号化ベクトルを第1復号化自己注意層により処理して、第5中間ベクトルを取得し、
第5中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第6中間ベクトルを取得し、
第6中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第7中間ベクトルを取得し、
第7中間ベクトルを第2フィードフォワード層により処理して、1番目の復号化層の出力ベクトルを取得するように構成されている。
第4処理手段は、具体的に、
j-1番目の復号化層の出力ベクトルを前記第1復号化自己注意層により処理して、第8中間ベクトルを取得し、
第8中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第9中間ベクトルを取得し、
第9中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第10中間ベクトルを取得し、
第10中間ベクトルを第2フィードフォワード層により処理して、j番目の復号化層の出力ベクトルを取得するように構成されている。
USBメモリ、リムーバブルハードドライブ、磁気ディスク、光ディスク、コンピュータメモリ、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電気キャリア信号、通信信号及びソフトウェア配布媒体等を含んでもよい。なお、前記コンピュータ読み取り可能な媒体に含まれるコンテンツは、法域内の立法と特許実務の要件にしたがって適当に増減してもよく、例えばいくつかの法域に、立法と特許実務にしたがってコンピュータ読み取り可能な媒体は電気キャリア信号と通信信号を含まない。
Claims (20)
- 複数の第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各前記第1特徴抽出モデルに生成された画像特徴を取得することと、
前記複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、前記ターゲット画像に対応する大域画像特徴を生成することと、
第2特徴抽出モデルを用いて前記ターゲット画像に対して特徴抽出を行って、前記ターゲット画像に対応するターゲット検出特徴を取得することと、
前記ターゲット画像に対応する前記大域画像特徴と前記ターゲット検出特徴とを翻訳モデルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とすることとを含む、画像キャプションの方法。 - 前記複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、前記ターゲット画像に対応する大域画像特徴を生成することは、
前記複数の第1特徴抽出モデルに生成された画像特徴のそれぞれに対して、対応する第1自己注意層によって特徴抽出を行って、複数の中間特徴を取得することと、
前記複数の中間特徴をスティッチングして、初期大域特徴を生成することと、
少なくとも1つの第2自己注意層によって前記初期大域特徴に対して融合処理を行って、大域画像特徴を生成することとを含む、請求項1に記載の方法。 - 前記翻訳モデルは、エンコーダとデコーダとを含み、
前記ターゲット画像に対応する前記大域画像特徴と前記ターゲット検出特徴とを翻訳モデルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とすることは、
前記ターゲット検出特徴と前記大域画像特徴とを前記翻訳モデルのエンコーダに入力して、前記エンコーダの出力の符号化ベクトルを生成することと、
前記符号化ベクトルと前記大域画像特徴とをデコーダに入力して、前記デコーダの出力の復号化ベクトルを生成することと、
前記デコーダの出力の復号化ベクトルに基づいて対応する翻訳文を生成し、前記翻訳文を前記ターゲット画像のキャプション文とすることとを含む、請求項1または2に記載の方法。 - 前記エンコーダはN個の順次接続された符号化層を含み、Nは1より大きい整数であり、
前記ターゲット検出特徴と前記大域画像特徴とを前記翻訳モデルのエンコーダに入力して、前記エンコーダの出力の符号化ベクトルを生成することは、
S11:前記ターゲット検出特徴と前記大域画像特徴とを1番目の符号化層に入力して、1番目の符号化層の出力ベクトルを取得することと、
S12:i-1番目の符号化層の出力ベクトルと前記大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得し、2≦i≦Nであることと、
S13:iがNに等しいかどうかを判断し、等しくない場合はiを1だけインクリメントしてステップS12を実行し、等しい場合はステップS14を実行することと、
S14:N番目の符号化層の出力ベクトルを前記エンコーダの出力の符号化ベクトルとすることとを含む、請求項3に記載の方法。 - 前記符号化層は、第1符号化自己注意層と、第2符号化自己注意層と、第1フィードフォワード層とを含み、
前記ターゲット検出特徴と前記大域画像特徴とを1番目の符号化層に入力して、1番目の符号化層の出力ベクトルを取得することは、
前記ターゲット検出特徴を第1符号化自己注意層に入力して、第1中間ベクトルを取得
することと、
前記第1中間ベクトルと前記大域画像特徴とを前記第2符号化自己注意層に入力して、第2中間ベクトルを取得することと、
前記第2中間ベクトルを前記第1フィードフォワード層により処理して、1番目の符号化層の出力ベクトルを取得することとを含む、請求項4に記載の方法。 - 前記符号化層は、第1符号化自己注意層と、第2符号化自己注意層と、第1フィードフォワード層とを含み、
i-1番目の符号化層の出力ベクトルと前記大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得することは、
前記i-1番目の符号化層の出力ベクトルを第1符号化自己注意層に入力して、第3中間ベクトルを取得することと、
前記第3中間ベクトルと前記大域画像特徴とを第2符号化自己注意層に入力して、第4中間ベクトルを取得することと、
前記第4中間ベクトルを第1フィードフォワード層により処理して、i番目の符号化層の出力ベクトルを取得することとを含む、請求項4または5に記載の方法。 - 前記デコーダはM個の順次接続された復号化層を含み、Mは1より大きい整数であり、
前記符号化ベクトルと前記大域画像特徴とをデコーダに入力して、前記デコーダの出力の復号化ベクトルを生成することは、
S21:参照復号化ベクトルと、前記符号化ベクトルと、前記大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得することと、
S22:j-1番目の復号化層の出力ベクトルと、前記符号化ベクトルと、前記大域画像特徴とをj番目の復号化層に入力して、j番目の復号化層の出力ベクトルを取得し、2≦j≦Mであることと、
S23:jがMに等しいかどうかを判断し、等しくない場合はjを1だけインクリメントしてステップS22を実行し、等しい場合はステップS24を実行することと、
S24:M番目の復号化層の出力ベクトルを前記デコーダの出力の復号化ベクトルとすることとを含む、請求項3~6のいずれか1項に記載の方法。 - 前記復号化層は、第1復号化自己注意層と、第2復号化自己注意層と、第3復号化自己注意層と、第2フィードフォワード層とを含み、
参照復号化ベクトルと、前記符号化ベクトルと、前記大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得することは、
前記参照復号化ベクトルを前記第1復号化自己注意層により処理して、第5中間ベクトルを取得することと、
前記第5中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第6中間ベクトルを取得することと、
前記第6中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第7中間ベクトルを取得することと、
前記第7中間ベクトルを第2フィードフォワード層により処理して、1番目の復号化層の出力ベクトルを取得することとを含む、請求項7に記載の方法。 - 前記復号化層は、第1復号化自己注意層と、第2復号化自己注意層と、第3復号化自己注意層と、第2フィードフォワード層とを含み、
j-1番目の復号化層の出力ベクトルと、符号化ベクトルと、大域画像特徴とをj番目の復号化層に入力して、j番目の復号化層の出力ベクトルを取得することは、
j-1番目の復号化層の出力ベクトルを前記第1復号化自己注意層により処理して、第8中間ベクトルを取得することと、
前記第8中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理し
て、第9中間ベクトルを取得することと、
前記第9中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第10中間ベクトルを取得することと、
前記第10中間ベクトルを前記第2フィードフォワード層により処理して、j番目の復号化層の出力ベクトルを取得することとを含む、請求項7または8に記載の方法。 - 複数の第1特徴抽出モデルを用いてターゲット画像に対して特徴抽出を行って、各前記第1特徴抽出モデルに生成された画像特徴を取得するように構成されている、特徴抽出モジュールと、
前記複数の第1特徴抽出モデルに生成された画像特徴に対して融合処理を行って、前記ターゲット画像に対応する大域画像特徴を生成するように構成されている、大域画像特徴抽出モジュールと、
第2特徴抽出モデルを用いて前記ターゲット画像に対して特徴抽出を行って、前記ターゲット画像に対応するターゲット検出特徴を取得するように構成されている、ターゲット検出特徴抽出モジュールと、
前記ターゲット画像に対応する前記大域画像特徴と前記ターゲット検出特徴とを翻訳モデルに入力して、生成された翻訳文を前記ターゲット画像のキャプション文とするように構成されている、翻訳モジュールとを含む、画像キャプションの装置。 - 前記大域画像特徴抽出モジュールは、
前記複数の第1特徴抽出モデルに生成された画像特徴のそれぞれに対して対応する第1自己注意層によって特徴抽出を行って、複数の中間特徴を取得し、
複数の中間特徴をスティッチングして、初期大域特徴を生成し、
少なくとも1つの第2自己注意層によって初期大域特徴に対して融合処理を行って、大域画像特徴を生成するように構成されている、請求項10に記載の装置。 - 前記翻訳モデルは、エンコーダとデコーダとを含み、
前記翻訳モジュールは、
前記ターゲット検出特徴と大域画像特徴とを前記翻訳モデルのエンコーダに入力して、前記エンコーダの出力の符号化ベクトルを生成するように構成されている、符号化モジュールと、
前記符号化ベクトルと前記大域画像特徴とをデコーダに入力して、前記デコーダの出力の復号化ベクトルを生成するように構成されている、復号化モジュールと、
前記デコーダの出力の復号化ベクトルに基づいて対応する翻訳文を生成し、前記翻訳文を前記ターゲット画像のキャプション文とするように構成されている、文生成モジュールとを含む、請求項10または11に記載の装置。 - 前記エンコーダはN個の順次接続された符号化層を含み、Nは1より大きい整数であり、
前記符号化モジュールは、
前記ターゲット検出特徴と大域画像特徴とを1番目の符号化層に入力して、1番目の符号化層の出力ベクトルを取得するように構成されている、第1処理手段と
i-1番目の符号化層の出力ベクトルと大域画像特徴とをi番目の符号化層に入力して、i番目の符号化層の出力ベクトルを取得するように構成されており、2≦i≦Nである、第2処理手段と、
iがNに等しいかどうかを判断し、等しくない場合はiを1だけインクリメントして第2処理手段を実行し、等しい場合は符号化ベクトル生成手段を実行するように構成されている、第1判断手段と、
N番目の符号化層の出力ベクトルをエンコーダの出力の符号化ベクトルとするように構成されている、符号化ベクトル生成手段とを含む、請求項12に記載の装置。 - 前記符号化層は、第1符号化自己注意層と、第2符号化自己注意層と、第1フィードフォワード層とを含み、
前記第1処理手段は、前記ターゲット検出特徴を第1符号化自己注意層に入力して、第1中間ベクトルを取得し、第1中間ベクトルと大域画像特徴とを第2符号化自己注意層に入力して、第2中間ベクトルを取得し、前記第2中間ベクトルを第1フィードフォワード層により処理して、1番目の符号化層の出力ベクトルを取得するように構成されている、請求項13に記載の装置。 - 前記符号化層は、第1符号化自己注意層と、第2符号化自己注意層と、第1フィードフォワード層とを含み、
第2処理手段は、前記i-1番目の符号化層の出力ベクトルを第1符号化自己注意層に入力して、第3中間ベクトルを取得し、第3中間ベクトルと大域画像特徴とを第2符号化自己注意層に入力して、第4中間ベクトルを取得し、前記第4中間ベクトルを第1フィードフォワード層により処理して、i番目の符号化層の出力ベクトルを取得するように構成されている、請求項13または14に記載の装置。 - 前記デコーダはM個の順次接続された復号化層を含み、Mは1より大きい整数であり、
前記復号化モジュールは、
参照復号化ベクトルと、符号化ベクトルと、大域画像特徴とを1番目の復号化層に入力して、1番目の復号化層の出力ベクトルを取得するように構成されている第3処理手段と、
j-1番目の復号化層の出力ベクトルと、符号化ベクトルと、大域画像特徴とをj番目の復号化層に入力して、j番目の復号化層の出力ベクトルを取得するように構成されており、2≦j≦Mである、第4処理手段と、
jがMに等しいかどうかを判断し、等しくない場合はjを1だけインクリメントして第4処理手段を実行し、等しい場合は復号化ベクトル生成手段を実行するように構成されている、第2判断手段と、
M番目の復号化層の出力ベクトルをデコーダの出力の復号化ベクトルとするように構成されている、復号化ベクトル生成手段とを含む、請求項12~15のいずれかに記載の装置。 - 前記復号化層は、第1復号化自己注意層と、第2復号化自己注意層と、第3復号化自己注意層と第2フィードフォワード層とを含み、
第3処理手段は、参照復号化ベクトルを第1復号化自己注意層により処理して、第5中間ベクトルを取得し、第5中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第6中間ベクトルを取得し、第6中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第7中間ベクトルを取得し、第7中間ベクトルを第2フィードフォワード層により処理して、1番目の復号化層の出力ベクトルを取得するように構成されている、請求項16に記載の装置。 - 前記復号化層は、第1復号化自己注意層と、第2復号化自己注意層と、第3復号化自己注意層と第2フィードフォワード層とを含み、
第4処理手段は、j-1番目の復号化層の出力ベクトルを前記第1復号化自己注意層により処理して、第8中間ベクトルを取得し、第8中間ベクトルと前記大域画像特徴とを前記第2復号化自己注意層により処理して、第9中間ベクトルを取得し、第9中間ベクトルと前記符号化ベクトルとを前記第3復号化自己注意層により処理して、第10中間ベクトルを取得し、第10中間ベクトルを第2フィードフォワード層により処理して、j番目の復号化層の出力ベクトルを取得するように構成されている、請求項16または17に記載の装置。 - メモリと、プロセッサと、メモリに格納されているプロセッサが実行可能なコンピュータコマンドとを含み、前記プロセッサは当該コマンドを実行すると請求項1~9のいずれか1項に記載の方法を実現する、計算機器を提供する。
- コンピュータコマンドが記憶されているコンピューター読み取り可能な記憶媒体であって、当該コマンドがプロセッサによって実行されると請求項1~9のいずれか1項に記載の方法を実現する、コンピューター読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910797332.XA CN110309839B (zh) | 2019-08-27 | 2019-08-27 | 一种图像描述的方法及装置 |
CN201910797332.X | 2019-08-27 | ||
PCT/CN2020/111602 WO2021037113A1 (zh) | 2019-08-27 | 2020-08-27 | 一种图像描述的方法及装置、计算设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022546811A true JP2022546811A (ja) | 2022-11-09 |
Family
ID=68083691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022513610A Pending JP2022546811A (ja) | 2019-08-27 | 2020-08-27 | 画像キャプションの方法、装置、計算機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220351487A1 (ja) |
EP (1) | EP4024274A4 (ja) |
JP (1) | JP2022546811A (ja) |
CN (1) | CN110309839B (ja) |
WO (1) | WO2021037113A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368476B (zh) * | 2017-07-25 | 2020-11-03 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN110309839B (zh) * | 2019-08-27 | 2019-12-03 | 北京金山数字娱乐科技有限公司 | 一种图像描述的方法及装置 |
US20230124572A1 (en) * | 2020-01-08 | 2023-04-20 | Google Llc | Translation of text depicted in images |
CN111275110B (zh) * | 2020-01-20 | 2023-06-09 | 北京百度网讯科技有限公司 | 图像描述的方法、装置、电子设备及存储介质 |
CN111611420B (zh) * | 2020-05-26 | 2024-01-23 | 北京字节跳动网络技术有限公司 | 用于生成图像描述信息的方法和装置 |
CN111767727B (zh) * | 2020-06-24 | 2024-02-06 | 北京奇艺世纪科技有限公司 | 数据处理方法及装置 |
CN111916050A (zh) * | 2020-08-03 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、存储介质和电子设备 |
CN112256902A (zh) * | 2020-10-20 | 2021-01-22 | 广东三维家信息科技有限公司 | 图片的文案生成方法、装置、设备及存储介质 |
CN113269182A (zh) * | 2021-04-21 | 2021-08-17 | 山东师范大学 | 一种基于变体transformer对小区域敏感的目标果实检测方法及系统 |
CN113378919B (zh) * | 2021-06-09 | 2022-06-14 | 重庆师范大学 | 融合视觉常识和增强多层全局特征的图像描述生成方法 |
CN113673557A (zh) * | 2021-07-12 | 2021-11-19 | 浙江大华技术股份有限公司 | 特征处理方法、动作定位方法及相关设备 |
CN115019142B (zh) * | 2022-06-14 | 2024-03-29 | 辽宁工业大学 | 基于融合特征的图像标题生成方法、系统、电子设备 |
CN116579352B (zh) * | 2023-04-25 | 2024-07-30 | 无锡捷通数智科技有限公司 | 翻译模型训练方法、装置、移动终端及存储介质 |
CN117830812B (zh) * | 2023-12-29 | 2024-10-18 | 暗物质(北京)智能科技有限公司 | 一种基于场景图子图的图像描述生成方法和系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665506A (zh) * | 2018-05-10 | 2018-10-16 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机存储介质及服务器 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070098303A1 (en) * | 2005-10-31 | 2007-05-03 | Eastman Kodak Company | Determining a particular person from a collection |
CN105117688B (zh) * | 2015-07-29 | 2018-08-28 | 重庆电子工程职业学院 | 基于纹理特征融合和svm的人脸识别方法 |
US9978119B2 (en) * | 2015-10-22 | 2018-05-22 | Korea Institute Of Science And Technology | Method for automatic facial impression transformation, recording medium and device for performing the method |
US10558750B2 (en) * | 2016-11-18 | 2020-02-11 | Salesforce.Com, Inc. | Spatial attention model for image captioning |
US20180247201A1 (en) * | 2017-02-28 | 2018-08-30 | Nvidia Corporation | Systems and methods for image-to-image translation using variational autoencoders |
CN108305296B (zh) * | 2017-08-30 | 2021-02-26 | 深圳市腾讯计算机系统有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN108875767A (zh) * | 2017-12-07 | 2018-11-23 | 北京旷视科技有限公司 | 图像识别的方法、装置、系统及计算机存储介质 |
CN108510012B (zh) * | 2018-05-04 | 2022-04-01 | 四川大学 | 一种基于多尺度特征图的目标快速检测方法 |
CN109871736B (zh) * | 2018-11-23 | 2023-01-31 | 腾讯科技(深圳)有限公司 | 自然语言描述信息的生成方法及装置 |
CN109726696B (zh) * | 2019-01-03 | 2023-04-07 | 电子科技大学 | 基于推敲注意力机制的图像描述生成系统及方法 |
CN110175546B (zh) * | 2019-05-15 | 2022-02-25 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110210499B (zh) * | 2019-06-03 | 2023-10-13 | 中国矿业大学 | 一种图像语义描述的自适应生成系统 |
CN110309839B (zh) * | 2019-08-27 | 2019-12-03 | 北京金山数字娱乐科技有限公司 | 一种图像描述的方法及装置 |
-
2019
- 2019-08-27 CN CN201910797332.XA patent/CN110309839B/zh active Active
-
2020
- 2020-08-27 JP JP2022513610A patent/JP2022546811A/ja active Pending
- 2020-08-27 EP EP20856644.8A patent/EP4024274A4/en not_active Withdrawn
- 2020-08-27 WO PCT/CN2020/111602 patent/WO2021037113A1/zh unknown
- 2020-08-27 US US17/753,304 patent/US20220351487A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665506A (zh) * | 2018-05-10 | 2018-10-16 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机存储介质及服务器 |
Non-Patent Citations (1)
Title |
---|
中本裕大,外2名: "物体間の関係性を考慮したTransformerに基づくキャプション生成", 言語処理学会第25回年次大会, JPN6023011795, March 2019 (2019-03-01), pages 759 - 762, ISSN: 0005175696 * |
Also Published As
Publication number | Publication date |
---|---|
EP4024274A1 (en) | 2022-07-06 |
WO2021037113A1 (zh) | 2021-03-04 |
US20220351487A1 (en) | 2022-11-03 |
CN110309839A (zh) | 2019-10-08 |
EP4024274A4 (en) | 2022-10-12 |
CN110309839B (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022546811A (ja) | 画像キャプションの方法、装置、計算機器及び記憶媒体 | |
CN108920622B (zh) | 一种意图识别的训练方法、训练装置和识别装置 | |
US20210209356A1 (en) | Method for keyword extraction and electronic device implementing the same | |
CN110647612A (zh) | 一种基于双视觉注意力网络的视觉对话生成方法 | |
CN110083729B (zh) | 一种图像搜索的方法及系统 | |
Gu et al. | Supervised recurrent hashing for large scale video retrieval | |
CN114495129B (zh) | 文字检测模型预训练方法以及装置 | |
Wu et al. | Recall what you see continually using gridlstm in image captioning | |
CN110825850B (zh) | 一种自然语言主题分类方法及装置 | |
WO2021088935A1 (zh) | 对抗网络架构的优化方法、图像描述生成方法和系统 | |
CN114510939A (zh) | 实体关系抽取方法、装置、电子设备及存储介质 | |
CN115131613B (zh) | 一种基于多向知识迁移的小样本图像分类方法 | |
Shen et al. | Hierarchical Attention Based Spatial-Temporal Graph-to-Sequence Learning for Grounded Video Description. | |
CN110705490A (zh) | 视觉情感识别方法 | |
CN113239159A (zh) | 基于关系推理网络的视频和文本的跨模态检索方法 | |
Rastgoo et al. | Word separation in continuous sign language using isolated signs and post-processing | |
CN114692624A (zh) | 一种基于多任务迁移的信息抽取方法、装置及电子设备 | |
CN117992800A (zh) | 图文数据匹配检测方法、装置、设备及介质 | |
Kaddoura | A Primer on Generative Adversarial Networks | |
Bhalekar et al. | Generation of image captions using VGG and ResNet CNN models cascaded with RNN approach | |
Ke et al. | Spatial, structural and temporal feature learning for human interaction prediction | |
CN117251545A (zh) | 一种多意图自然语言理解方法、系统、设备及存储介质 | |
Wang et al. | RETRACTED ARTICLE: Human behaviour recognition and monitoring based on deep convolutional neural networks | |
CN111566665B (zh) | 在自然语言处理中应用图像编码识别的装置和方法 | |
Kim et al. | EquiAV: Leveraging Equivariance for Audio-Visual Contrastive Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231017 |