JP5282658B2 - 画像学習、自動注釈、検索方法及び装置 - Google Patents
画像学習、自動注釈、検索方法及び装置 Download PDFInfo
- Publication number
- JP5282658B2 JP5282658B2 JP2009121359A JP2009121359A JP5282658B2 JP 5282658 B2 JP5282658 B2 JP 5282658B2 JP 2009121359 A JP2009121359 A JP 2009121359A JP 2009121359 A JP2009121359 A JP 2009121359A JP 5282658 B2 JP5282658 B2 JP 5282658B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- connection
- feature matrix
- annotation
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
Wx=U
Wy=V
Xproj=Wx t×X
Yproj=Wy t×Y
画像領域ノードにおける各画像領域ノード(便宜上、第1画像領域ノードと称する)に対して、該第1画像領域ノードと、その他の画像領域ノードにおける該第1画像領域ノードに最も隣接するK1個の画像領域ノードとの連結を形成する必要があり、ここで、投影後の画像特徴マトリックスXprojに基づいて最近隣捜索を実施する。
各画像ノードに対して該画像ノードと当該画像ノードの全ての画像領域ノードとの間の連結を形成する。画像を分割しなければ、一つの画像領域ノードしか存在しない。この場合、画像ノードは画像領域ノードに相当する。
各画像ノードに対して画像ノードと当該画像ノードの全ての注釈ノードとの間の連結を形成する。
各注釈ノードに対して該注釈ノードと、最も隣接するK2個の標準ノードとの間に連結を形成する。ここで、最近隣捜索は投影後のテキスト特徴マトリックスYprojによって行われる。
Claims (36)
- 画像分割モジュール、特徴ベクトル抽出モジュール、サブ空間投影モジュール、保存モジュール、及びグラフ形成モジュールを含む画像学習装置における画像学習方法であって、
前記画像分割モジュールにより、少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記特徴ベクトル抽出モジュールにより、前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記サブ空間投影モジュールにより、前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記保存モジュールにより、前記投影後の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記グラフ形成モジュールにより、前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記注釈を有する第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記グラフ形成モジュールにより、前記各連結の加重値をそれぞれ算出するステップと、
前記グラフ形成モジュールにより、前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含む、
ことを特徴とする画像学習方法。 - 前記分割操作は、
前記各第1画像を矩形状ブロックに分割することと、
前記各第1画像を、四分木法により、複数の解像度を有するブロックに分割することと、
前記各第1画像を、画像分割法により、重複しない同質的領域に分割すること、
を含む、
を特徴とする請求項1に記載の方法。 - 前記画像領域から前記画像特徴ベクトルの抽出は、色とテクスチャー情報を混合するローカルバイナリパターンを用いて行われる、
ことを特徴とする請求項1に記載の方法。 - 前記サブ空間は、正準共分散サブ空間である、
ことを特徴とする請求項1に記載の方法。 - 前記関係グラフには、前記第1画像、前記画像領域及び前記注釈がノードにより表記され、
前記関係グラフは、隣接マトリックスにより表示され、
前記関係グラフにおける前記ノード間の連結は、加重値によって表示され、前記ノード間は、連結がなければ対応する加重値が0である、
ことを特徴とする請求項1に記載の方法。 - 前記第1連結におけるサブ連結が対応する画像領域ノードの画面間の差が大きい程、前記第1連結におけるサブ連結の加重値が小さく、及び/又は、前記第3連結におけるサブ連結が対応する注釈ノードが前記第1画像の注釈に出現した回数が多い程、前記第3連結におけるサブ連結の加重値が小さく、及び/又は、前記第4連結におけるサブ連結が対応する注釈ノードのテキスト間の類似度が大きい程、前記第4連結におけるサブ連結の加重値が小さい、
ことを特徴とする請求項5に記載の方法。 - コンピュータに、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記注釈を有する第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を実行させる、
ことを特徴とする画像学習プログラム。 - 少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割する画像分割モジュールと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、画像特徴マトリックスとテキスト特徴マトリックスを得る特徴ベクトル抽出モジュールと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するサブ空間投影モジュールと、
前記投影後の画像特徴マトリックスとテキスト特徴マトリックスを保存する保存モジュールと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成し、前記各連結の加重値をそれぞれ算出し、前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るグラフ形成モジュールと、
を含む、
ことを特徴とする画像学習装置。 - 入力された第2画像に対して自動注釈を行う画像自動注釈装置における画像自動注釈方法であって、
前記画像自動注釈装置は、学習モジュールと、予備処理モジュールと、グラフ更新モジュール及び注釈モジュールを含み、
前記画像自動注釈方法は、学習ステップ、予備処理ステップ、グラフ更新ステップ及び注釈ステップを含み、
前記学習ステップは、前記学習モジュールにより、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含み、
前記予備処理ステップは、前記予備処理モジュールにより、
前記第2画像を受け取るステップと、
前記第2画像に対して分割操作を行い、前記第2画像を複数の画像領域に分割した後に、前記第2画像の各画像領域から画像特徴ベクトルを抽出し、前記第2画像の画像特徴マトリックスを得るステップと、
前記第2画像の画像特徴マトリックスをサブ空間に投影し、前記第2画像の投影後の画像特徴マトリックスを得るステップと、
を含み、
前記グラフ更新ステップは、前記グラフ更新モジュールにより、
前記投影後の第1画像の画像特徴マトリックスと前記第2画像の画像特徴マトリックスに基づいて、前記第2画像の画像領域ノードと前記関係グラフにおける画像領域ノードとの第5連結を形成するステップと、
前記第2画像に対しての前記分割操作の結果に基づいて、前記第2画像と前記第2画像の画像領域ノードとの第6連結を形成するステップと、
前記第5連結と前記第6連結の加重値をそれぞれ確定するステップと、
前記第5連結、前記第6連結、及び、前記第5連結と前記第6連結にそれぞれ対応する前記加重値に基づいて前記関係グラフを更新するステップと、
を含み、
前記注釈ステップは、前記注釈モジュールにより、
前記第2画像に対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて再起動可能なランダムウォーク法により前記第2画像と最も密接に関係する所定数の注釈を取得するステップと、
前記所定数の注釈が対応するキーワードを用いて前記第2画像に対して注釈操作を行うステップと、
を含む、
ことを特徴とする画像自動注釈方法。 - 前記分割操作は、
前記第1画像と前記第2画像を矩形状ブロックに分割することと、
前記第1画像と前記第2画像を、四分木法により、複数の解像度を有するブロックに分割することと、
前記各第1画像と前記第2画像を、画像分割法により、重複しない同質的領域に分割すること、
を含む、
ことを特徴とする請求項9に記載の方法。 - 前記画像領域から前記画像特徴ベクトルの抽出は、色とテクスチャー情報を混合するローカルバイナリパターンを用いて行われる、
ことを特徴とする請求項9に記載の方法。 - 前記サブ空間は、正準共分散サブ空間である、
ことを特徴とする請求項9に記載の方法。 - 前記関係グラフには、前記第1画像、前記第2画像、前記画像領域及び前記注釈がノードにより表記され、
前記関係グラフは、隣接マトリックスにより表示され、
前記関係グラフにおける前記ノード間の連結は、加重値によって表示され、前記ノード間は、連結がなければ対応する加重値が0である、
ことを特徴とする請求項9に記載の方法。 - 前記第1連結におけるサブ連結が対応する画像領域ノードの画面間の差が大きい程、前記第1連結におけるサブ連結の加重値が小さく、及び/又は、前記第3連結におけるサブ連結が対応する注釈ノードが前記第1画像の注釈に出現した回数が多い程、前記第3連結におけるサブ連結の加重値が小さく、及び/又は、前記第4連結におけるサブ連結が対応する注釈ノードのテキスト間の類似度が大きい程、前記第4連結におけるサブ連結の加重値が小さい、
ことを特徴とする請求項13に記載の方法。 - 前記注釈ステップを行う前に、更新された前記隣接マトリックスを正規化するステップをさらに含み、
前記注釈ステップは、正規化された前記隣接マトリックスに基づいて行われる、
ことを特徴とする請求項13に記載の方法。 - 入力された第2画像に対して自動注釈を行うための画像自動注釈プログラムであって、
コンピュータに、学習ステップ、予備処理ステップ、グラフ更新ステップ及び注釈ステップを実行させ、
前記学習ステップは、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含み、
前記予備処理ステップは、
前記第2画像を受け取るステップと、
前記第2画像に対して分割操作を行い、前記第2画像を複数の画像領域に分割した後に、前記第2画像の各画像領域から画像特徴ベクトルを抽出し、前記第2画像の画像特徴マトリックスを得るステップと、
前記第2画像の画像特徴マトリックスをサブ空間に投影し、前記第2画像の投影後の画像特徴マトリックスを得るステップと、
を含み、
前記グラフ更新ステップは、
前記投影後の第1画像の画像特徴マトリックスと前記第2画像の画像特徴マトリックスに基づいて、前記第2画像の画像領域ノードと前記関係グラフにおける画像領域ノードとの第5連結を形成するステップと、
前記第2画像に対しての前記分割操作の結果に基づいて、前記第2画像と前記第2画像の画像領域ノードとの第6連結を形成するステップと、
前記第5連結と前記第6連結の加重値をそれぞれ確定するステップと、
前記第5連結、前記第6連結、及び、前記第5連結と前記第6連結にそれぞれ対応する前記加重値に基づいて前記関係グラフを更新するステップと、
を含み、
前記注釈ステップは、
前記第2画像に対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて再起動可能なランダムウォーク法により前記第2画像と最も密接に関係する所定数の注釈を取得するステップと、
前記所定数の注釈が対応するキーワードを用いて前記第2画像に対して注釈操作を行うステップと、
を含む、
ことを特徴とする画像自動注釈プログラム。 - 入力された第2画像に自動注釈を行う画像自動注釈装置であって、
学習モジュールと、予備処理モジュールと、グラフ更新モジュール及び注釈モジュールを含み、
前記学習モジュールは、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するユニットと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るユニットと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するユニットと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するユニットと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するユニットと、
前記各連結の加重値をそれぞれ算出するユニットと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るユニットと、
を含み、
前記予備処理モジュールは、
前記第2画像を受け取るユニットと、
前記第2画像に対して分割操作を行い、前記第2画像を複数の画像領域に分割するユニットと、
前記第2画像の各画像領域から画像特徴ベクトルを抽出し、前記第2画像の画像特徴マトリックスを得るユニットと、
前記第2画像の画像特徴マトリックスをサブ空間に投影し、前記第2画像の投影後の画像特徴マトリックスを得るユニットと、
を含み、
前記グラフ更新モジュールは、
前記投影後の第1画像の画像特徴マトリックスと前記第2画像の画像特徴マトリックスに基づいて、前記第2画像の画像領域ノードと前記関係グラフにおける画像領域ノードとの第5連結を形成し、前記第2画像に対しての前記分割操作の結果に基づいて、前記第2画像と前記第2画像の画像領域ノードとの第6連結を形成するユニットと、
前記第5連結と前記第6連結の加重値をそれぞれ確定するユニットと、
前記第5連結、前記第6連結、及び、前記第5連結と前記第6連結にそれぞれ対応する前記加重値に基づいて前記関係グラフを更新するユニットと、
を含み、
前記注釈モジュールは、
前記第2画像に対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて再起動可能なランダムウォーク法により前記第2画像と最も密接に関係する所定数の注釈を取得するユニットと、
前記所定数の注釈が対応するキーワードを用いて前記第2画像に対して注釈操作を行うユニットと、
を含む、
ことを特徴とする画像自動注釈装置。 - 入力が第2画像であるときに画像検索を行う画像検索装置における画像検索方法であって、
前記画像検索装置は、学習モジュール、予備処理モジュール、グラフ更新モジュール及び検索モジュールを有し、
前記画像検索方法は、学習ステップ、予備処理ステップ、グラフ更新ステップ及び検索ステップを含み、
前記学習ステップは、前記学習モジュールにより、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含み、
前記予備処理ステップは、前記予備処理モジュールにより、
前記第2画像を受け取るステップと、
前記第2画像に対して分割操作を行い、前記第2画像を複数の画像領域に分割するステップと、
前記第2画像の各画像領域から画像特徴ベクトルを抽出し、前記第2画像の画像特徴マトリックスを得るステップと、
前記第2画像の画像特徴マトリックスをサブ空間に投影し、前記第2画像の投影後の画像特徴マトリックスを得るステップと、
を含み、
前記グラフ更新ステップは、前記グラフ更新モジュールにより、
前記投影後の第1画像の画像特徴マトリックスと前記第2画像の画像特徴マトリックスに基づいて、前記第2画像の画像領域ノードと前記関係グラフにおける画像領域ノードとの第5連結を形成するステップと、
前記第2画像に対しての前記分割操作の結果に基づいて、前記第2画像と前記第2画像の画像領域ノードとの第6連結を形成するステップと、
前記第5連結と前記第6連結の加重値をそれぞれ確定するステップと、
前記第5連結、前記第6連結、及び、前記第5連結と前記第6連結にそれぞれ対応する前記加重値に基づいて前記関係グラフを更新するステップと、
を含み、
前記検索ステップは、前記検索モジュールにより、
前記第2画像に対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて、再起動可能なランダムウォーク法により、前記第2画像と最も密接に関係する所定数の画像を取得して出力するステップを含む、
ことを特徴とする画像検索方法。 - 前記入力は、更にキーワードを含み、
前記検索ステップにおいて、前記第2画像と前記キーワードに対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて、前記第2画像及び前記キーワードと最も密接に関連する所定数の画像を取得して出力する、
ことを特徴とする請求項18に記載の方法。 - 前記分割操作は、
前記第1画像と前記第2画像を矩形状ブロックに分割することと、
前記第1画像と前記第2画像を、四分木法により、複数の解像度を有するブロックに分割することと、
前記各第1画像と前記第2画像を、画像分割法により、重複しない同質的領域に分割すること、
を含む、
ことを特徴とする請求項18又は19に記載の方法。 - 前記画像領域から前記画像特徴ベクトルの抽出は、色とテクスチャー情報を混合するローカルバイナリパターンを用いて行われる、
ことを特徴とする請求項18又は19に記載の方法。 - 前記サブ空間は、正準共分散サブ空間である、
ことを特徴とする請求項18又は19に記載の方法。 - 前記関係グラフには、前記第1画像、前記第2画像、前記画像領域及び前記注釈がノードにより表記され、
前記関係グラフは、隣接マトリックスにより表示され、
前記関係グラフにおける前記ノード間の連結は、加重値によって表示され、前記ノード間は、連結がなければ対応する加重値が0である、
ことを特徴とする請求項18又は19に記載の方法。 - 前記第1連結におけるサブ連結が対応する画像領域ノードの画面間の差が大きい程、前記第1連結におけるサブ連結の加重値が小さく、及び/又は、前記第3連結におけるサブ連結が対応する注釈ノードが前記第1画像の注釈に出現した回数が多い程、前記第3連結におけるサブ連結の加重値が小さく、及び/又は、前記第4連結におけるサブ連結が対応する注釈ノードのテキスト間の類似度が大きい程、前記第4連結におけるサブ連結の加重値が小さい、
ことを特徴とする請求項23に記載の方法。 - 前記検索ステップを行う前に、更新された前記隣接マトリックスを正規化するステップをさらに含み、
前記検索ステップは、正規化された前記隣接マトリックスに基づいて行われる、
ことを特徴とする請求項23に記載の方法。 - 入力が第2画像であるときに画像検索を行うための画像検索プログラムであって、
コンピュータに、学習ステップ、予備処理ステップ、グラフ更新ステップ及び検索ステップを実行させ、
前記学習ステップは、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含み、
前記予備処理ステップは、
前記第2画像を受け取るステップと、
前記第2画像に対して分割操作を行い、前記第2画像を複数の画像領域に分割するステップと、
前記第2画像の各画像領域から画像特徴ベクトルを抽出し、前記第2画像の画像特徴マトリックスを得るステップと、
前記第2画像の画像特徴マトリックスをサブ空間に投影し、前記第2画像の投影後の画像特徴マトリックスを得るステップと、
を含み、
前記グラフ更新ステップは、
前記投影後の第1画像の画像特徴マトリックスと前記第2画像の画像特徴マトリックスに基づいて、前記第2画像の画像領域ノードと前記関係グラフにおける画像領域ノードとの第5連結を形成するステップと、
前記第2画像に対しての前記分割操作の結果に基づいて、前記第2画像と前記第2画像の画像領域ノードとの第6連結を形成するステップと、
前記第5連結と前記第6連結の加重値をそれぞれ確定するステップと、
前記第5連結、前記第6連結、及び、前記第5連結と前記第6連結にそれぞれ対応する前記加重値に基づいて前記関係グラフを更新するステップと、
を含み、
前記検索ステップは、
前記第2画像に対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて、再起動可能なランダムウォーク法により、前記第2画像と最も密接に関係する所定数の画像を取得して出力するステップを含む、
ことを特徴とする画像検索プログラム。 - 入力が第2画像であるときに画像検索を行う画像検索装置であって、
学習モジュール、予備処理モジュール、グラフ更新モジュール及び検索モジュールを有し、
前記学習モジュールは、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するユニットと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るユニットと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するユニットと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するユニットと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するユニットと、
前記各連結の加重値をそれぞれ算出するユニットと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るユニットと、
を含み、
前記予備処理モジュールは、
前記第2画像を受け取るユニットと、
前記第2画像に対して分割操作を行い、前記第2画像を複数の画像領域に分割するユニットと、
前記第2画像の各画像領域から画像特徴ベクトルを抽出し、前記第2画像の画像特徴マトリックスを得るユニットと、
前記第2画像の画像特徴マトリックスをサブ空間に投影し、前記第2画像の投影後の画像特徴マトリックスを得るユニットと、
を含み、
前記グラフ更新モジュールは、
前記投影後の第1画像の画像特徴マトリックスと前記第2画像の画像特徴マトリックスに基づいて、前記第2画像の画像領域ノードと前記関係グラフにおける画像領域ノードとの第5連結を形成するユニットと、
前記第2画像に対しての前記分割操作の結果に基づいて、前記第2画像と前記第2画像の画像領域ノードとの第6連結を形成するユニットと、
前記第5連結と前記第6連結の加重値をそれぞれ確定するユニットと、
前記第5連結、前記第6連結、及び、前記第5連結と前記第6連結にそれぞれ対応する前記加重値に基づいて前記関係グラフを更新するユニットと、
を含み、
前記検索モジュールは、
前記第2画像に対応する再起動ベクトルを形成し、更新された前記関係グラフに基づいて、再起動可能なランダムウォーク法により、前記第2画像と最も密接に関係する所定数の画像を取得して出力するユニットを含む、
ことを特徴とする画像検索装置。 - 入力が検索用キーワードであるときに画像検索を行う画像学習装置における画像検索方法であって、
前記画像学習装置は、学習モジュールと検索モジュールを含み、
前記画像検索方法は、学習ステップと検索ステップを有し、
前記学習ステップは、前記学習モジュールにより、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成するステップと、
前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成するステップと、
前記注釈を有する第1画像に基づいて前記第1画像と前記注釈との第3連結を形成するステップと、
前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含み、
前記検索ステップは、前記検索モジュールにより、
前記検索用キーワードに対応する再起動ベクトルを形成し、前記関係グラフに基づいて、再起動可能なランダムウォーク法により、前記検索用キーワードと最も密接に関係する所定数の画像を取得するステップを含む、
ことを特徴とする画像検索方法。 - 前記分割操作は、
前記第1画像と第2画像を矩形状ブロックに分割することと、
前記第1画像と前記第2画像を、四分木法により、複数の解像度を有するブロックに分割することと、
前記各第1画像と前記第2画像を、画像分割法により、重複しない同質的領域に分割すること、
ことを特徴とする請求項28に記載の方法。 - 前記画像領域から前記画像特徴ベクトルの抽出は、色とテクスチャー情報を混合するローカルバイナリパターンを用いて行われる、
ことを特徴とする請求項28に記載の方法。 - 前記サブ空間は、正準共分散サブ空間である、
ことを特徴とする請求項28に記載の方法。 - 前記関係グラフには、前記第1画像、第2画像、前記画像領域及び前記注釈がノードにより表記され、
前記関係グラフは、隣接マトリックスにより表示され、
前記関係グラフにおける前記ノード間の連結は、加重値によって表示され、前記ノード間は、連結がなければ対応する加重値が0である、
ことを特徴とする請求項28に記載の方法。 - 前記第1連結におけるサブ連結が対応する画像領域ノードの画面間の差が大きい程、前記第1連結におけるサブ連結の加重値が小さく、及び/又は、前記第3連結におけるサブ連結が対応する注釈ノードが前記第1画像の注釈に出現した回数が多い程、前記第3連結におけるサブ連結の加重値が小さく、及び/又は、前記第4連結におけるサブ連結が対応する注釈ノードのテキスト間の類似度が大きい程、前記第4連結におけるサブ連結の加重値が小さい、
ことを特徴とする請求項32に記載の方法。 - 前記隣接マトリックスを正規化するステップをさらに含み、
前記検索ステップは、正規化された前記隣接マトリックスに基づいて行われる、
ことを特徴とする請求項32に記載の方法。 - 入力が検索用キーワードであるときに画像検索を行うための画像検索プログラムであって、
コンピュータに、学習ステップと検索ステップを実行させ、
前記学習ステップは、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するステップと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るステップと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するステップと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するステップと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成するステップと、
前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成するステップと、
前記注釈を有する第1画像に基づいて前記第1画像と前記注釈との第3連結を形成するステップと、
前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するステップと、
前記各連結の加重値をそれぞれ算出するステップと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るステップと、
を含み、
前記検索ステップは、
前記検索用キーワードに対応する再起動ベクトルを形成し、前記関係グラフに基づいて、再起動可能なランダムウォーク法により、前記検索用キーワードと最も密接に関係する所定数の画像を取得するステップを含む、
ことを特徴とする画像検索プログラム。 - 入力が検索用キーワードであるときに画像検索を行う画像学習装置であって、
学習モジュールと検索モジュールを含み、
前記学習モジュールは、
少なくとも一つの、注釈を有する第1画像に対して分割操作を行い、前記各第1画像を複数の画像領域に分割するユニットと、
前記各画像領域から画像特徴ベクトルとテキスト特徴ベクトルを抽出し、前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを得るユニットと、
前記画像特徴マトリックスと前記テキスト特徴マトリックスをサブ空間に投影し、投影後の第1画像の画像特徴マトリックスとテキスト特徴マトリックスを求め、画像特徴とテキスト特徴との共分散を最大化するユニットと、
前記投影後の前記第1画像の画像特徴マトリックスとテキスト特徴マトリックスを保存するユニットと、
前記投影後の画像特徴マトリックスに基づいて前記画像領域間の第1連結を形成し、前記分割操作の結果に基づいて前記第1画像と前記画像領域との第2連結を形成し、前記第1画像に基づいて前記第1画像と前記注釈との第3連結を形成し、前記投影後のテキスト特徴マトリックスに基づいて前記注釈間の第4連結を形成するユニットと、
前記各連結の加重値をそれぞれ算出するユニットと、
前記各連結と、前記各連結にそれぞれ対応する前記各加重値とに基づいて、表示画像と前記画像領域と前記注釈との三者間の関係グラフを得るユニットと、
を含み、
前記検索モジュールは、
前記検索用キーワードに対応する再起動ベクトルを形成し、前記関係グラフに基づいて、再起動可能なランダムウォーク法により、前記検索用キーワードと最も密接に関係する所定数の画像を取得するユニットを含む、
ことを特徴とする画像検索装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810100721.4 | 2008-05-20 | ||
CN2008101007214A CN101587478B (zh) | 2008-05-20 | 2008-05-20 | 图像训练、自动标注、检索方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009282980A JP2009282980A (ja) | 2009-12-03 |
JP5282658B2 true JP5282658B2 (ja) | 2013-09-04 |
Family
ID=41051102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009121359A Expired - Fee Related JP5282658B2 (ja) | 2008-05-20 | 2009-05-19 | 画像学習、自動注釈、検索方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8232996B2 (ja) |
EP (1) | EP2124159B8 (ja) |
JP (1) | JP5282658B2 (ja) |
CN (1) | CN101587478B (ja) |
ES (1) | ES2524789T3 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8429176B2 (en) * | 2008-03-28 | 2013-04-23 | Yahoo! Inc. | Extending media annotations using collective knowledge |
US8463053B1 (en) | 2008-08-08 | 2013-06-11 | The Research Foundation Of State University Of New York | Enhanced max margin learning on multimodal data mining in a multimedia database |
CA2786727C (en) | 2010-02-01 | 2017-08-29 | Google, Inc. | Joint embedding for item association |
US9792368B1 (en) * | 2010-03-04 | 2017-10-17 | A9.Com, Inc. | Dynamic map synchronization |
CN102193946A (zh) * | 2010-03-18 | 2011-09-21 | 株式会社理光 | 为媒体文件添加标签方法和使用该方法的系统 |
CN102298606B (zh) * | 2011-06-01 | 2013-07-17 | 清华大学 | 基于标签图模型随机游走的图像自动标注方法及装置 |
US8625887B2 (en) | 2011-07-13 | 2014-01-07 | Google Inc. | Systems and methods for matching visual object components |
CN102495865B (zh) * | 2011-11-28 | 2013-08-07 | 南京大学 | 结合图像内部空间关系及视觉共生关系的图像标注方法 |
US9239848B2 (en) * | 2012-02-06 | 2016-01-19 | Microsoft Technology Licensing, Llc | System and method for semantically annotating images |
JP2014026455A (ja) * | 2012-07-26 | 2014-02-06 | Nippon Telegr & Teleph Corp <Ntt> | メディアデータ解析装置、方法、及びプログラム |
US8935246B2 (en) * | 2012-08-08 | 2015-01-13 | Google Inc. | Identifying textual terms in response to a visual query |
CN103853797B (zh) * | 2012-12-07 | 2017-10-17 | 中兴通讯股份有限公司 | 一种基于n元图片索引结构的图片检索方法与系统 |
CN103345481B (zh) * | 2013-06-19 | 2016-08-24 | 新疆大学 | 一种维吾尔文图像文件的标注方法 |
US9754177B2 (en) * | 2013-06-21 | 2017-09-05 | Microsoft Technology Licensing, Llc | Identifying objects within an image |
US10319035B2 (en) | 2013-10-11 | 2019-06-11 | Ccc Information Services | Image capturing and automatic labeling system |
CN103714178B (zh) * | 2014-01-08 | 2017-01-25 | 北京京东尚科信息技术有限公司 | 一种基于词间相关性的图像自动标注方法 |
US20170300621A1 (en) * | 2014-09-10 | 2017-10-19 | Koninklijke Philips N.V. | Image report annotation identification |
US10223728B2 (en) * | 2014-12-09 | 2019-03-05 | Google Llc | Systems and methods of providing recommendations by generating transition probability data with directed consumption |
JP6607263B2 (ja) * | 2016-02-15 | 2019-11-20 | 富士通株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
CN107391505B (zh) * | 2016-05-16 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及系统 |
US11195313B2 (en) * | 2016-10-14 | 2021-12-07 | International Business Machines Corporation | Cross-modality neural network transform for semi-automatic medical image annotation |
CN108268510B (zh) * | 2016-12-30 | 2022-01-28 | 华为技术有限公司 | 一种图像标注方法和装置 |
CN107480711B (zh) * | 2017-08-04 | 2020-09-01 | 合肥美的智能科技有限公司 | 图像识别方法、装置、计算机设备和可读存储介质 |
CN109492549A (zh) * | 2018-10-24 | 2019-03-19 | 杭州睿琪软件有限公司 | 一种训练样本集处理、模型训练方法及系统 |
CN109933790B (zh) * | 2019-03-01 | 2020-06-26 | 武汉达梦数据库有限公司 | 一种文本特征提取方法及系统 |
CN113614712A (zh) * | 2019-03-29 | 2021-11-05 | 索尼集团公司 | 图像处理装置和方法以及程序 |
CN111080614A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车轮轮辋及踏面的破损识别方法 |
WO2023101679A1 (en) * | 2021-12-02 | 2023-06-08 | Innopeak Technology, Inc. | Text-image cross-modal retrieval based on virtual word expansion |
CN117393921B (zh) * | 2023-10-17 | 2024-06-18 | 浙江博时新能源技术有限公司 | 分布式储能设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101061509B (zh) * | 2004-11-19 | 2010-10-27 | 皇家飞利浦电子股份有限公司 | 用于医疗成像数据内的肿瘤边界的自动检测和分割的系统和方法 |
CN101061490A (zh) * | 2004-11-19 | 2007-10-24 | 皇家飞利浦电子股份有限公司 | 利用支持向量机(svm)在计算机辅助检测(cad)中进行假阳性降低的系统和方法 |
US7698332B2 (en) * | 2006-03-13 | 2010-04-13 | Microsoft Corporation | Projecting queries and images into a similarity space |
-
2008
- 2008-05-20 CN CN2008101007214A patent/CN101587478B/zh not_active Expired - Fee Related
-
2009
- 2009-05-19 JP JP2009121359A patent/JP5282658B2/ja not_active Expired - Fee Related
- 2009-05-19 US US12/468,423 patent/US8232996B2/en not_active Expired - Fee Related
- 2009-05-20 EP EP09251342.3A patent/EP2124159B8/en not_active Not-in-force
- 2009-05-20 ES ES09251342.3T patent/ES2524789T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
CN101587478A (zh) | 2009-11-25 |
EP2124159B8 (en) | 2014-10-29 |
US8232996B2 (en) | 2012-07-31 |
JP2009282980A (ja) | 2009-12-03 |
EP2124159B1 (en) | 2014-09-03 |
EP2124159A1 (en) | 2009-11-25 |
CN101587478B (zh) | 2013-07-24 |
US20090289942A1 (en) | 2009-11-26 |
ES2524789T3 (es) | 2014-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5282658B2 (ja) | 画像学習、自動注釈、検索方法及び装置 | |
Zhang et al. | Detection of co-salient objects by looking deep and wide | |
JP6397144B2 (ja) | 画像からの事業発見 | |
US11328172B2 (en) | Method for fine-grained sketch-based scene image retrieval | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
WO2019015246A1 (zh) | 图像特征获取 | |
KR102576344B1 (ko) | 비디오를 처리하기 위한 방법, 장치, 전자기기, 매체 및 컴퓨터 프로그램 | |
US20150178321A1 (en) | Image-based 3d model search and retrieval | |
WO2022160772A1 (zh) | 一种基于视角引导多重对抗注意力的行人重识别方法 | |
EP4394724A1 (en) | Image encoder training method and apparatus, device, and medium | |
WO2023221790A1 (zh) | 图像编码器的训练方法、装置、设备及介质 | |
CN107133854A (zh) | 信息推荐方法和装置 | |
CN109241299B (zh) | 多媒体资源搜索方法、装置、存储介质及设备 | |
CN110751027A (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN111090765B (zh) | 一种基于缺失多模态哈希的社交图像检索方法及系统 | |
CN110489613B (zh) | 协同可视数据推荐方法及装置 | |
WO2024027347A9 (zh) | 内容识别方法、装置、设备、存储介质及计算机程序产品 | |
CN113052209B (zh) | 融合胶囊相似性的单样本语义分割方法 | |
Raihan et al. | CNN modeling for recognizing local fish | |
Nguyen et al. | MC-OCR challenge 2021: End-to-end system to extract key information from vietnamese receipts | |
Nguyen et al. | Clustering web video search results with convolutional neural networks | |
Zhu et al. | Statistical image modeling for semantic segmentation | |
CN117994822B (zh) | 一种基于辅助模态增强和多尺度特征融合的跨模态行人重识别方法 | |
CN115205555B (zh) | 确定相似图像的方法、训练方法、信息确定方法及设备 | |
CN114863450B (zh) | 图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130513 |
|
LAPS | Cancellation because of no payment of annual fees |