JP6926339B2 - 画像のクラスタリング方法及び装置、電子機器並びに記憶媒体 - Google Patents
画像のクラスタリング方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP6926339B2 JP6926339B2 JP2020533140A JP2020533140A JP6926339B2 JP 6926339 B2 JP6926339 B2 JP 6926339B2 JP 2020533140 A JP2020533140 A JP 2020533140A JP 2020533140 A JP2020533140 A JP 2020533140A JP 6926339 B2 JP6926339 B2 JP 6926339B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- class
- group
- similarity
- class group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本願は、出願番号が201910204426.1であり、出願日が2019年3月18日である中国特許出願に基づいて提出され、且つこの中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
画像集合内の各画像に対応する顔特徴及び属性特徴を取得するステップと、
前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得るステップであって、各前記第1類グループに含まれる画像が、予測された、同じ対象を含む画像であるステップと、
各前記第1類グループ内の各画像の顔特徴及び属性特徴を用いて、各第1類グループに対する類似度行列を決定するステップであって、前記類似度行列内の要素が、対応する第1類グループ内の各画像の間の類似度を示すステップと、
各前記第1類グループに対応する類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得るステップであって、第2類グループ内の画像が、最適化予測された、同じ対象を含む画像であるステップと、を含む画像のクラスタリング方法を提供する。
前記画像集合内の各画像に対応する顔特徴の間の類似度を決定するステップと、
前記顔特徴の間の類似度に基づいて、前記各画像の顔特徴との類似度が最も高いK個の画像を決定するステップであって、Kが1以上の整数であるステップと、
前記各画像の顔特徴との類似度が最も高いK個の画像から、顔特徴の類似度が第1閾値を超えた第1画像を選択するステップと、
前記各画像及びそれに対応する前記第1画像に基づいて、第1類グループを形成するステップと、を含む。
異なる第1閾値毎に対して、各前記第1閾値に対応する第1類グループを形成するステップを更に含む。
各前記第1類グループ内の各画像の顔特徴の間の類似度に基づいて、対応する第1類グループに関する顔特徴類似度行列を決定し、各前記第1類グループ内の各画像の属性特徴に基づいて、対応する第1類グループに関する属性特徴類似度行列を決定するステップであって、前記顔特徴類似度行列内の要素が、前記第1類グループ内の各画像の顔特徴の間の類似度を示し、前記属性特徴類似度行列内の要素が、前記第1類グループ内の各画像の属性特徴の間の類似度を示すステップと、
各前記第1類グループの顔特徴類似度行列及び属性特徴類似度行列に基づいて、各前記第1類グループに対応する前記類似度行列を得るステップと、を含む。
前記第1類グループ内の各画像の属性特徴と前記第1類グループ内の全ての画像の属性特徴との間の属性特徴類似度を決定するステップと、
前記第1類グループ内の全ての画像の属性特徴の間の類似度に基づいて、前記第1類グループに関する属性特徴類似度行列を決定するステップと、を含む。
前記属性特徴類似度行列の第i行の要素は、第1類グループ内のi番目の画像の属性特徴と前記第1類グループ内の各画像の属性特徴との間の類似度を示し、
iは1以上且つN以下の整数であり、Nは第1類グループ内の画像の個数を示す。
各前記第1類グループの顔特徴類似度行列及び属性特徴類似度行列に対して、少なくとも1層の畳み込み処理を実行して、前記の各前記第1類グループに対応する類似度行列を得るステップを含む。
各前記第1類グループに対応する類似度行列を前処理して、前処理後の類似度行列を得るステップと、
各前記第1類グループに対応する前処理後の類似度行列及び対応する前記第1類グループ内の各画像の顔特徴に対して、少なくとも1層のグラフ畳み込み処理を実行して、各前記第1類グループに関する信頼度行列を取得するステップであって、前記信頼度行列内の要素が、対応する前記第1類グループ内の各画像が前記第1類グループに割り当てられる信頼度を示すステップと、
前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得するステップと、を含む。
前記第1類グループから、信頼度が第2閾値より低い画像を削除して、改めてクラスタリングされた第2類グループを取得するステップを含む。
前記グラフ畳み込み処理に基づいて、各前記第1類グループに関する類別信頼度を更に取得するステップであって、前記類別信頼度が、対応する第1類グループの分類信頼度を示すステップを更に含み、
また、前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得する前記ステップの前に、前記方法は、
前記第1類グループの前記類別信頼度が第3閾値より低いことに応じて、前記第1類グループを削除するステップを更に含む。
類別信頼度の高い順に前記第1類グループに対して順序付けるステップと、
j番目の第1類グループ内の信頼度が第2閾値を超えた画像に、第jのラベルを割り当て、当該j番目の第1類グループ内の信頼度が前記第2閾値より低い画像を削除して、当該j番目の第1類グループに対応する第2類グループを形成するステップと、を含み、jは1以上且つM以下の正整数であり、Mは第1類グループの数量を示す。
M番目の前記第1類グループに対応する第2類グループが得られた後、前記画像集合は、いずれの第2類グループにもクラスタリングされていない画像が存在することに応じて、いずれの第2類グループにもクラスタリングされていない各画像に基づいて、第2類グループをそれぞれ形成するステップを更に含む。
前記第1類グループに対応する類似度行列と単位行列とを加算するステップを含む。
第1ニューラルネットワークを用いて前記画像集合内の各画像の顔特徴を取得し、
第2ニューラルネットワークを用いて前記画像集合内の各画像の属性特徴を取得するステップを含む。
画像集合内の各画像に対応する顔特徴及び属性特徴を取得するように構成される取得モジュールと、
前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得るように構成される第1クラスタリングモジュールであって、各前記第1類グループに含まれる画像が、予測された、同じ対象を含む画像である第1クラスタリングモジュールと、
各前記第1類グループ内の各画像の顔特徴及び属性特徴を用いて、各第1類グループに対する類似度行列を決定するように構成される決定モジュールであって、前記類似度行列内の要素が、対応する第1類グループ内の各画像の間の類似度を示す決定モジュールと、
各前記第1類グループに対応する類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得るように構成される第2クラスタリングモジュールであって、第2類グループ内の画像が、最適化予測された、同じ対象を含む画像である第2クラスタリングモジュールと、を含む画像クラスタリング装置を提供する。
前記画像集合内の各画像に対応する顔特徴の間の類似度を決定するステップと、
前記各顔特徴の間の類似度に基づいて、前記各画像の顔特徴との類似度が最も高いK個の画像を決定するステップであって、Kが1以上の整数であるステップと、
前記各画像の顔特徴との類似度が最も高いK個の画像から、顔特徴の類似度が第1閾値を超えた第1画像を選択するステップと、
前記各画像及びそれに対応する前記第1画像に基づいて、第1類グループを形成するステップと、を実行するように構成される。
各前記第1類グループ内の各画像の顔特徴の間の類似度に基づいて、対応する第1類グループに関する顔特徴類似度行列を決定するように構成される第1決定ユニットであって、前記顔特徴類似度行列内の要素が、前記第1類グループ内の各画像の顔特徴の間の類似度を示す第1決定ユニットと、
各前記第1類グループ内の各画像の属性特徴に基づいて、対応する第1類グループに関する属性特徴類似度行列を決定するように構成される第2決定ユニットであって、前記属性特徴類似度行列内の要素が、前記第1類グループ内の各画像の属性特徴の間の類似度を示す第2決定ユニットと、
各前記第1類グループの顔特徴類似度行列及び属性特徴類似度行列に基づいて、各第1類グループに対応する前記類似度行列を得るように構成される第3決定ユニットと、を含む。
前記第1類グループ内の全ての画像の属性特徴の間の類似度に基づいて、前記第1類グループに関する属性特徴類似度行列を決定するように構成される。
前記属性特徴類似度行列の第i行の要素は、第1類グループ内のi番目の画像の属性特徴と前記第1類グループ内の各画像の属性特徴との間の類似度を示し、
iは1以上且つN以下の整数であり、Nは第1類グループ内の画像の個数を示す。
各前記第1類グループに対応する類似度行列を前処理して、前処理後の類似度行列を得るように構成される前処理ユニットと、
各前記第1類グループに対応する前処理後の類似度行列及び対応する前記第1類グループ内の各画像の顔特徴に対して、少なくとも1層のグラフ畳み込み処理を実行して、各前記第1類グループに関する信頼度行列を取得するように構成されるグラフ畳み込みユニットであって、前記信頼度行列内の要素が、対応する前記第1類グループ内の各画像が前記第1類グループに割り当てられる信頼度を示すグラフ畳み込みユニットと、
前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得するように構成されるクラスタリングユニットと、を含む。
前記クラスタリングユニットは、更に、前記第1類グループの前記類別信頼度が第3閾値より低いことに応じて、前記第1類グループを削除するように構成される。
j番目の第1類グループ内の信頼度が第2閾値を超えた画像に、第jのラベルを割り当て、当該j番目の第1類グループ内の信頼度が前記第2閾値より低い画像を削除して、当該j番目の第1類グループに対応する第2類グループを形成するステップと、を実行するように構成され、jは1以上且つM以下の正整数であり、Mは第1類グループの数量を示す。
前記画像集合内の各画像の顔特徴を取得するように構成される第1ニューラルネットワークと、
前記画像集合内の各画像の属性特徴を取得するように構成される第2ニューラルネットワークと、を含む。
各第1類グループ内の各画像の顔特徴の間の類似度に基づいて、対応する第1類グループに関する顔特徴類似度行列を決定し、各第1類グループ内の各画像の属性特徴に基づいて、対応する第1類グループに関する属性特徴類似度行列を決定するS31であって、前記顔特徴類似度行列内の要素が、第1類グループ内の各画像の顔特徴の間の類似度を示し、前記属性特徴類似度行列内の要素が、第1類グループ内の各画像の属性特徴の間の類似度を示すS31と、
各第1類グループの顔特徴類似度行列及び属性特徴類似度行列に基づいて、各第1類グループに対応する前記類似度行列を得るS32と、を含んでもよい。
第1類グループ内の各画像の属性特徴と当該第1類グループ内の全ての画像の属性特徴との間の属性特徴類似度を決定し、即ち、前記第1類グループ内の各画像の属性特徴と当該第1類グループ内の全ての画像の属性特徴との間の属性特徴類似度を決定するS3111と、
第1類グループ内のi番目の画像に関する属性特徴類似度を前記属性特徴類似度行列の第i行の要素として、前記属性特徴類似度行列を形成するS3112と、を含んでもよく、iは1以上且つN以下の整数であり、Nは第1類グループ内の画像の個数を示す。
ただし、S2は属性特徴類似度を示し、CとDは2つの画像の属性特徴を別々に示し、iは属性特徴中の要素を表し、nは属性特徴中の要素の個数を表す。上記形態によれば、いずれか2つの画像の属性特徴類似度を得ることができる。
式(5)で示してもよい。ここで、
は前処理された類似度行列を示し、
は単位行列、即ち対角線の要素値が1で、他の要素が0である行列を示す。ここで、単位行列の次元は類似度行列の次元と同じである。
ここで、
は1つの類グループ内の画像に対して第x層のグラフ畳み込みを実行するのに入力される特徴を示し、
は第1類グループ内の画像に対して第x層のグラフ畳み込みを実行した結果、即ち、第1類グループ内の画像の分類信頼度を示す。
は前処理された類似度行列を示し、Dで示される要素は、
内の各行の要素和を示し、即ち、
式(7)であり、iは行の数を示し、jは列の数を示し、
は画像の顔特徴を示し、
は第x層のグラフ畳み込み処理の畳み込みパラメータを示す。
を取得することができ、当該
は各画像のその所在する第1類グループでの信頼度を示してもよく、各画像に基づいて得られた信頼度は、各第1類グループの信頼度行列を形成してもよい。
画像集合内の各画像に対応する顔特徴及び属性特徴を取得するように構成される取得モジュール10と、
前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得るように構成される第1クラスタリングモジュール20であって、各前記第1類グループに含まれる画像が、予測された、同じ対象を含む画像である第1クラスタリングモジュール20と、
各前記第1類グループ内の各画像の顔特徴及び属性特徴を用いて、各第1類グループに対する類似度行列を決定するように構成される決定モジュール30であって、前記類似度行列内の要素が、対応する第1類グループ内の各画像の間の類似度を示す決定モジュール30と、
各前記第1類グループに対応する類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得るように構成される第2クラスタリングモジュール40であって、第2類グループ内の画像が、最適化予測された、同じ対象を含む画像である第2クラスタリングモジュール40と、を含む。
前記画像集合内の各画像に対応する顔特徴の間の類似度を決定するステップと、
前記各顔特徴の間の類似度に基づいて、前記各画像の顔特徴との類似度が最も高いK個の画像を決定するステップであって、Kが1以上の整数であるステップと、
前記各画像の顔特徴との類似度が最も高いK個の画像から、顔特徴の類似度が第1閾値を超えた第1画像を選択するステップと、
前記各画像及びそれに対応する前記第1画像に基づいて、第1類グループを形成するステップと、を実行するように構成される。
各第1類グループ内の各画像の顔特徴の間の類似度に基づいて、対応する第1類グループに関する顔特徴類似度行列を決定するように構成される第1決定ユニットであって、前記顔特徴類似度行列内の要素が、第1類グループ内の各画像の顔特徴の間の類似度を示す第1決定ユニットと、
各第1類グループ内の各画像の属性特徴に基づいて、対応する第1類グループに関する属性特徴類似度行列を決定するように構成される第2決定ユニットであって、前記属性特徴類似度行列内の要素が、第1類グループ内の各画像の属性特徴の間の類似度を示す第2決定ユニットと、
各第1類グループの顔特徴類似度行列及び属性特徴類似度行列に基づいて、各第1類グループに対応する前記類似度行列を得るように構成される第3決定ユニットと、を含む。
前記第1類グループ内の全ての画像の属性特徴の間の類似度に基づいて、前記第1類グループに関する属性特徴類似度行列を決定するステップと、を実行するように構成される。
前記属性特徴類似度行列の第i行の要素は、第1類グループ内のi番目の画像の属性特徴と前記第1類グループ内の各画像の属性特徴との間の類似度を示し、
iは1以上且つN以下の整数であり、Nは第1類グループ内の画像の個数を示す。
各第1類グループに対応する類似度行列を前処理して、前処理後の類似度行列を得るように構成される前処理ユニットと、
各第1類グループに対応する前処理後の類似度行列及び第1類グループ内の各画像の顔特徴に対して、少なくとも1層のグラフ畳み込み処理を実行して、各第1類グループに関する信頼度行列を取得するように構成されるグラフ畳み込みユニットであって、前記信頼度行列内の要素が、第1類グループ内の各画像が当該第1類グループに割り当てられる信頼度を示すグラフ畳み込みユニットと、
前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得するように構成されるクラスタリングユニットと、を含む。
前記クラスタリングユニットは、更に、第1類グループの前記類別信頼度が第3閾値より低いことに応じて、この第1類グループを削除するために用いられる。
j番目の第1類グループ内の信頼度が第2閾値を超えた画像に、第jのラベルを割り当て、当該j番目の第1類グループ内の信頼度が前記第2閾値より低い画像を削除して、当該j番目の第1類グループに対応する第2類グループを形成するステップと、を実行するように構成され、jは1以上且つM以下の正整数であり、Mは第1類グループの数量を示す。
前記画像集合内の各画像の顔特徴を取得するように構成される第1ニューラルネットワークと、
前記画像集合内の各画像の属性特徴を取得するように構成される第2ニューラルネットワークと、を含む。
Claims (19)
- 画像集合内の各画像に対応する顔特徴及び属性特徴を取得するステップと、
前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得るステップであって、各前記第1類グループに含まれる画像が、予測された、同じ対象を含む画像であるステップと、
各前記第1類グループ内の各画像の顔特徴及び属性特徴を用いて、各第1類グループに対する類似度行列を決定するステップであって、前記類似度行列内の要素が、対応する第1類グループ内の各画像の間の類似度を示すステップと、
各前記第1類グループに対応する類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得るステップであって、第2類グループ内の画像が、最適化予測された、同じ対象を含む画像であるステップと、を含む画像のクラスタリング方法。 - 前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得る前記ステップは、
前記画像集合内の各画像に対応する顔特徴の間の類似度を決定するステップと、
前記顔特徴の間の類似度に基づいて、前記各画像の顔特徴との類似度が最も高いK個の画像を決定するステップであって、Kが1以上の整数であるステップと、
前記各画像の顔特徴との類似度が最も高いK個の画像から、顔特徴の類似度が第1閾値を超えた第1画像を選択するステップと、
前記各画像及びそれに対応する前記第1画像に基づいて、第1類グループを形成するステップと、を含む請求項1に記載の方法。 - 複数の第1閾値を含み、前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得る前記ステップは、
異なる第1閾値毎に対して、各前記第1閾値に対応する第1類グループを形成するステップを更に含む請求項2に記載の方法。 - 各前記第1類グループ内の各画像の顔特徴及び属性特徴を用いて、各第1類グループに対する類似度行列を決定する前記ステップは、
各前記第1類グループ内の各画像の顔特徴の間の類似度に基づいて、対応する第1類グループに関する顔特徴類似度行列を決定し、各前記第1類グループ内の各画像の属性特徴に基づいて、対応する第1類グループに関する属性特徴類似度行列を決定するステップであって、前記顔特徴類似度行列内の要素が、前記第1類グループ内の各画像の顔特徴の間の類似度を示し、前記属性特徴類似度行列内の要素が、前記第1類グループ内の各画像の属性特徴の間の類似度を示すステップと、
各前記第1類グループの顔特徴類似度行列及び属性特徴類似度行列に基づいて、各前記第1類グループに対応する前記類似度行列を得るステップと、を含む請求項1−3のいずれか一項に記載の方法。 - 各第1類グループ内の各画像の属性特徴に基づいて、対応する第1類グループに関する属性特徴類似度行列を決定する前記ステップは、
前記第1類グループ内の各画像の属性特徴と前記第1類グループ内の全ての画像の属性特徴との間の属性特徴類似度を決定するステップと、
前記第1類グループ内の全ての画像の属性特徴の間の類似度に基づいて、前記第1類グループに関する属性特徴類似度行列を決定するステップと、を含む請求項4に記載の方法。 - 前記顔特徴類似度行列の第i行の要素は、前記第1類グループ内のi番目の画像の顔特徴と前記第1類グループ内の各画像の顔特徴との間の類似度を示し、
前記属性特徴類似度行列の第i行の要素は、第1類グループ内のi番目の画像の属性特徴と前記第1類グループ内の各画像の属性特徴との間の類似度を示し、
iは1以上且つN以下の整数であり、Nは第1類グループ内の画像の個数を示す請求項4又は5に記載の方法。 - 前記顔特徴の間の類似度及び/又は前記属性特徴の間の類似度は、コサイン類似度である請求項4−6のいずれか一項に記載の方法。
- 各前記第1類グループの顔特徴類似度行列及び属性特徴類似度行列に基づいて、各前記第1類グループに対応する前記類似度行列を得る前記ステップは、
各前記第1類グループの顔特徴類似度行列及び属性特徴類似度行列に対して、少なくとも1層の畳み込み処理を実行して、前記の各前記第1類グループに対応する類似度行列を得るステップを含む請求項4−7のいずれか一項に記載の方法。 - 各前記第1類グループに対応する類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得る前記ステップは、
各前記第1類グループに対応する類似度行列を前処理して、前処理後の類似度行列を得るステップと、
各前記第1類グループに対応する前処理後の類似度行列及び対応する前記第1類グループ内の各画像の顔特徴に対して、少なくとも1層のグラフ畳み込み処理を実行して、各前記第1類グループに関する信頼度行列を取得するステップであって、前記信頼度行列内の要素が、対応する前記第1類グループ内の各画像が前記第1類グループに割り当てられる信頼度を示すステップと、
前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得するステップと、を含む請求項1−8のいずれか一項に記載の方法。 - 前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得する前記ステップは、
前記第1類グループから、信頼度が第2閾値より低い画像を削除して、改めてクラスタリングされた第2類グループを取得するステップを含む請求項9に記載の方法。 - 各前記第1類グループに対応する前処理後の類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得る前記ステップは、
前記グラフ畳み込み処理に基づいて、各前記第1類グループに関する類別信頼度を更に取得するステップであって、前記類別信頼度が、対応する第1類グループの分類信頼度を示すステップを更に含み、
前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得する前記ステップの前に、
前記第1類グループの前記類別信頼度が第3閾値より低いことに応じて、前記第1類グループを削除するステップを更に含む請求項9に記載の方法。 - 前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得する前記ステップは、
類別信頼度の高い順に前記第1類グループに対して順序付けるステップと、
j番目の第1類グループ内の信頼度が第2閾値を超えた画像に、第jのラベルを割り当て、当該j番目の第1類グループ内の信頼度が前記第2閾値より低い画像を削除して、当該j番目の第1類グループに対応する第2類グループを形成するステップと、を含み、jは1以上且つM以下の正整数であり、Mは第1類グループの数量を示す請求項11に記載の方法。 - 前記第1類グループ内の各画像に対応する信頼度に基づいて、前記第1類グループを改めてクラスタリングして、改めてクラスタリングされた第2類グループを取得する前記ステップは、
M番目の前記第1類グループに対応する第2類グループが得られた後、前記画像集合に、いずれの第2類グループにもクラスタリングされていない画像が存在することに応じて、いずれの第2類グループにもクラスタリングされていない各画像に基づいて、第2類グループをそれぞれ形成するステップを更に含む請求項12に記載の方法。 - 各第1類グループに対応する類似度行列を前処理して、前処理後の類似度行列を得る前記ステップは、
前記第1類グループに対応する類似度行列と単位行列とを加算するステップを含む請求項9−13のいずれか一項に記載の方法。 - 画像集合内の各画像に対応する顔特徴及び属性特徴を取得する前記ステップは、
第1ニューラルネットワークを用いて前記画像集合内の各画像の顔特徴を取得し、
第2ニューラルネットワークを用いて前記画像集合内の各画像の属性特徴を取得するステップを含む請求項1−14のいずれか一項に記載の方法。 - 画像集合内の各画像に対応する顔特徴及び属性特徴を取得するように構成される取得モジュールと、
前記画像集合内の各画像に対応する顔特徴の類似度を用いて、前記画像集合に対してクラスタリング処理を実行して、少なくとも1つの第1類グループを得るように構成される第1クラスタリングモジュールであって、各前記第1類グループに含まれる画像が、予測された、同じ対象を含む画像である第1クラスタリングモジュールと、
各前記第1類グループ内の各画像の顔特徴及び属性特徴を用いて、各第1類グループに対する類似度行列を決定するように構成される決定モジュールであって、前記類似度行列内の要素が、対応する第1類グループ内の各画像の間の類似度を示す決定モジュールと、
各前記第1類グループに対応する類似度行列及び各前記第1類グループ内の各画像の顔特徴に基づいて、各前記第1類グループ内の各画像を改めてクラスタリングして、少なくとも1つの第2類グループを得るように構成される第2クラスタリングモジュールであって、第2類グループ内の画像が、最適化予測された、同じ対象を含む画像である第2クラスタリングモジュールと、を含む画像クラスタリング装置。 - プロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含み、
前記プロセッサが請求項1−15のいずれか一項に記載の方法を実行するように構成される電子機器。 - コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に請求項1−15のいずれか一項に記載の方法を実現するコンピュータ読取可能記憶媒体。
- プロセッサにより実行される時に、請求項1−15のいずれか一項に記載の方法を実現可能であるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204426.1A CN109800744B (zh) | 2019-03-18 | 2019-03-18 | 图像聚类方法及装置、电子设备和存储介质 |
CN201910204426.1 | 2019-03-18 | ||
PCT/CN2019/101858 WO2020186689A1 (zh) | 2019-03-18 | 2019-08-21 | 图像聚类方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021517998A JP2021517998A (ja) | 2021-07-29 |
JP6926339B2 true JP6926339B2 (ja) | 2021-08-25 |
Family
ID=66563593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020533140A Active JP6926339B2 (ja) | 2019-03-18 | 2019-08-21 | 画像のクラスタリング方法及び装置、電子機器並びに記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11232288B2 (ja) |
JP (1) | JP6926339B2 (ja) |
KR (1) | KR20200113195A (ja) |
CN (1) | CN109800744B (ja) |
SG (1) | SG11202006328YA (ja) |
TW (1) | TWI710964B (ja) |
WO (1) | WO2020186689A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800744B (zh) | 2019-03-18 | 2021-08-20 | 深圳市商汤科技有限公司 | 图像聚类方法及装置、电子设备和存储介质 |
CN110414429A (zh) * | 2019-07-29 | 2019-11-05 | 佳都新太科技股份有限公司 | 人脸聚类方法、装置、设备和存储介质 |
CN110458078B (zh) * | 2019-08-05 | 2022-05-06 | 高新兴科技集团股份有限公司 | 一种人脸图像数据聚类方法、系统及设备 |
CN110502651B (zh) * | 2019-08-15 | 2022-08-02 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110781247B (zh) * | 2019-09-23 | 2021-11-26 | 华为技术有限公司 | 向量聚类方法、装置及存储介质 |
CN110705475B (zh) * | 2019-09-30 | 2022-05-17 | 北京地平线机器人技术研发有限公司 | 用于目标对象识别的方法、装置、介质以及设备 |
CN111062407B (zh) * | 2019-10-15 | 2023-12-19 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
US11763433B2 (en) * | 2019-11-14 | 2023-09-19 | Samsung Electronics Co., Ltd. | Depth image generation method and device |
CN111062431A (zh) * | 2019-12-12 | 2020-04-24 | Oppo广东移动通信有限公司 | 图像聚类方法、图像聚类装置、电子设备及存储介质 |
US11676018B2 (en) * | 2020-01-30 | 2023-06-13 | Mediatek Inc. | Feature extraction with keypoint resampling and fusion (KRF) |
CN111291827B (zh) * | 2020-02-28 | 2023-12-22 | 北京市商汤科技开发有限公司 | 图像聚类方法、装置、设备及存储介质 |
CN111767909B (zh) * | 2020-05-12 | 2022-02-01 | 合肥联宝信息技术有限公司 | 一种字符识别方法、设备及计算机可读存储介质 |
CN111695531B (zh) * | 2020-06-16 | 2023-05-23 | 天津师范大学 | 一种基于异构卷积网络的跨域行人再识别方法 |
CN111898704B (zh) * | 2020-08-17 | 2024-05-10 | 腾讯科技(深圳)有限公司 | 对内容样本进行聚类的方法和装置 |
CN112101238A (zh) * | 2020-09-17 | 2020-12-18 | 浙江商汤科技开发有限公司 | 聚类方法及装置、电子设备和存储介质 |
KR20220053426A (ko) * | 2020-10-22 | 2022-04-29 | 삼성에스디에스 주식회사 | 이미지 클러스터링 장치 및 방법 |
CN112307938B (zh) * | 2020-10-28 | 2022-11-11 | 深圳市商汤科技有限公司 | 数据聚类方法及其装置、电子设备、存储介质 |
JP7085605B2 (ja) * | 2020-10-30 | 2022-06-16 | みずほリサーチ&テクノロジーズ株式会社 | モデル評価システム、モデル評価方法及びモデル評価プログラム |
CN112560963A (zh) * | 2020-12-17 | 2021-03-26 | 北京赢识科技有限公司 | 大规模人脸图像聚类方法、装置、电子设备及介质 |
CN113052245B (zh) * | 2021-03-30 | 2023-08-25 | 重庆紫光华山智安科技有限公司 | 图像聚类方法和装置、电子设备及存储介质 |
CN113111934B (zh) * | 2021-04-07 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 一种图像分组方法、装置、电子设备及存储介质 |
CN113361334B (zh) * | 2021-05-18 | 2022-07-22 | 山东师范大学 | 基于关键点优化和多跳注意图卷积行人重识别方法及系统 |
KR102414823B1 (ko) * | 2021-11-02 | 2022-06-30 | 주식회사 에이젠글로벌 | 금융 서비스를 위한 금융 세그먼트 분화 방법 및 이러한 방법을 수행하는 장치 |
CN114492678A (zh) * | 2022-04-13 | 2022-05-13 | 深圳前海中电慧安科技有限公司 | 一种人像聚类建档方法、装置、设备及存储介质 |
CN115273170A (zh) * | 2022-06-14 | 2022-11-01 | 青岛云天励飞科技有限公司 | 图像聚类方法、装置、设备及计算机可读存储介质 |
CN115439676A (zh) * | 2022-11-04 | 2022-12-06 | 浙江莲荷科技有限公司 | 图像聚类方法、装置以及电子设备 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7783135B2 (en) * | 2005-05-09 | 2010-08-24 | Like.Com | System and method for providing objectified image renderings using recognition information from images |
CN101414348A (zh) * | 2007-10-19 | 2009-04-22 | 三星电子株式会社 | 多角度人脸识别方法和系统 |
JP2010250634A (ja) * | 2009-04-17 | 2010-11-04 | Seiko Epson Corp | 画像サーバー、画像検索システム、画像検索方法およびインデックス作成方法 |
JP6127214B2 (ja) * | 2013-11-30 | 2017-05-10 | ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | 顔画像認識のための方法とシステム |
CN103902689B (zh) * | 2014-03-26 | 2016-07-20 | 小米科技有限责任公司 | 聚类方法、增量聚类方法及相关装置 |
WO2015197029A1 (zh) * | 2014-06-27 | 2015-12-30 | 北京奇虎科技有限公司 | 一种人脸相似度识别方法和系统 |
CN105574512A (zh) * | 2015-12-21 | 2016-05-11 | 小米科技有限责任公司 | 图像处理的方法和装置 |
CN105654039B (zh) * | 2015-12-24 | 2019-09-17 | 小米科技有限责任公司 | 图像处理的方法和装置 |
CN105868309B (zh) * | 2016-03-24 | 2019-05-24 | 广东微模式软件股份有限公司 | 一种基于人脸图像聚类和识别技术的图像快速查找和自助打印方法 |
CN106250821A (zh) * | 2016-07-20 | 2016-12-21 | 南京邮电大学 | 一种聚类再分类的人脸识别方法 |
CN106355170B (zh) * | 2016-11-22 | 2020-03-20 | Tcl集团股份有限公司 | 照片分类方法及装置 |
CN106815566B (zh) * | 2016-12-29 | 2021-04-16 | 天津中科智能识别产业技术研究院有限公司 | 一种基于多任务卷积神经网络的人脸检索方法 |
TWI731919B (zh) * | 2017-01-19 | 2021-07-01 | 香港商斑馬智行網絡(香港)有限公司 | 圖像識別方法與裝置及度量學習方法與裝置 |
CN107609466A (zh) * | 2017-07-26 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 人脸聚类方法、装置、设备及存储介质 |
EP3680785A4 (en) * | 2017-09-15 | 2020-09-23 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | IMAGE PROCESSING PROCESS AND APPARATUS, COMPUTER DEVICE AND NON-VOLATIL READABLE INFORMATION MEDIA |
CN108154092B (zh) * | 2017-12-13 | 2022-02-22 | 北京小米移动软件有限公司 | 人脸特征预测方法及装置 |
CN108875522B (zh) * | 2017-12-21 | 2022-06-10 | 北京旷视科技有限公司 | 人脸聚类方法、装置和系统及存储介质 |
CN108171191B (zh) * | 2018-01-05 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 用于检测人脸的方法和装置 |
CN108280477B (zh) * | 2018-01-22 | 2021-12-10 | 百度在线网络技术(北京)有限公司 | 用于聚类图像的方法和装置 |
CN108229419B (zh) * | 2018-01-22 | 2022-03-04 | 百度在线网络技术(北京)有限公司 | 用于聚类图像的方法和装置 |
CN108491872B (zh) * | 2018-03-16 | 2020-10-30 | 深圳市商汤科技有限公司 | 目标再识别方法和装置、电子设备、程序和存储介质 |
CN108960043A (zh) * | 2018-05-21 | 2018-12-07 | 东南大学 | 一种用于电子相册管理的人物家庭关系构建方法 |
CN109063737A (zh) * | 2018-07-03 | 2018-12-21 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及移动终端 |
CN109117803B (zh) * | 2018-08-21 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 人脸图像的聚类方法、装置、服务器及存储介质 |
CN109117808B (zh) * | 2018-08-24 | 2020-11-03 | 深圳前海达闼云端智能科技有限公司 | 面部识别方法、装置、电子设备及计算机可读介质 |
CN109800744B (zh) * | 2019-03-18 | 2021-08-20 | 深圳市商汤科技有限公司 | 图像聚类方法及装置、电子设备和存储介质 |
-
2019
- 2019-03-18 CN CN201910204426.1A patent/CN109800744B/zh active Active
- 2019-08-20 TW TW108129691A patent/TWI710964B/zh active
- 2019-08-21 SG SG11202006328YA patent/SG11202006328YA/en unknown
- 2019-08-21 KR KR1020207021163A patent/KR20200113195A/ko not_active Application Discontinuation
- 2019-08-21 JP JP2020533140A patent/JP6926339B2/ja active Active
- 2019-08-21 WO PCT/CN2019/101858 patent/WO2020186689A1/zh active Application Filing
-
2020
- 2020-06-29 US US16/914,705 patent/US11232288B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
TWI710964B (zh) | 2020-11-21 |
TW202036365A (zh) | 2020-10-01 |
US11232288B2 (en) | 2022-01-25 |
JP2021517998A (ja) | 2021-07-29 |
US20200327311A1 (en) | 2020-10-15 |
WO2020186689A1 (zh) | 2020-09-24 |
KR20200113195A (ko) | 2020-10-06 |
SG11202006328YA (en) | 2020-10-29 |
CN109800744B (zh) | 2021-08-20 |
CN109800744A (zh) | 2019-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6926339B2 (ja) | 画像のクラスタリング方法及び装置、電子機器並びに記憶媒体 | |
WO2020224457A1 (zh) | 图像处理方法及装置、电子设备和存储介质 | |
US20210232847A1 (en) | Method and apparatus for recognizing text sequence, and storage medium | |
CN110517185B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
US11455491B2 (en) | Method and device for training image recognition model, and storage medium | |
US20210218696A1 (en) | Method and device for commenting on multimedia resource | |
US11355100B2 (en) | Method and electronic device for processing audio, and non-transitory storage medium | |
CN110502651B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111583919B (zh) | 信息处理方法、装置及存储介质 | |
CN110458218B (zh) | 图像分类方法及装置、分类网络训练方法及装置 | |
CN107220614B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
JP2022522551A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN111582383B (zh) | 属性识别方法及装置、电子设备和存储介质 | |
TWI735112B (zh) | 圖像生成方法、電子設備和儲存介質 | |
TWI785267B (zh) | 影像處理方法、電子設備和儲存介質 | |
CN110930984A (zh) | 一种语音处理方法、装置和电子设备 | |
CN109101542B (zh) | 图像识别结果输出方法及装置、电子设备和存储介质 | |
CN111783517B (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN111652107B (zh) | 对象计数方法及装置、电子设备和存储介质 | |
CN111259967A (zh) | 图像分类及神经网络训练方法、装置、设备及存储介质 | |
CN111797746B (zh) | 人脸识别方法、装置及计算机可读存储介质 | |
CN110321829A (zh) | 一种人脸识别方法及装置、电子设备和存储介质 | |
CN112801116B (zh) | 图像的特征提取方法及装置、电子设备和存储介质 | |
CN110795178B (zh) | 应用签到方法、装置及电子设备 | |
CN114067334A (zh) | 手写轨迹的识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210727 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6926339 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |