JP7310351B2 - 情報処理方法及び情報処理装置 - Google Patents

情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP7310351B2
JP7310351B2 JP2019115483A JP2019115483A JP7310351B2 JP 7310351 B2 JP7310351 B2 JP 7310351B2 JP 2019115483 A JP2019115483 A JP 2019115483A JP 2019115483 A JP2019115483 A JP 2019115483A JP 7310351 B2 JP7310351 B2 JP 7310351B2
Authority
JP
Japan
Prior art keywords
training
information processing
training samples
processing method
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019115483A
Other languages
English (en)
Other versions
JP2020004405A (ja
Inventor
ジャン・モン
リィウ・ルゥジエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2020004405A publication Critical patent/JP2020004405A/ja
Application granted granted Critical
Publication of JP7310351B2 publication Critical patent/JP7310351B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本開示は、情報処理方法及び情報処理装置に関し、特に、複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理方法及び情報処理装置に関する。
畳み込みニューラルネットワーク(CNN)によるディープラーニング方法の発展、及び大量のラベル付き人間の顔画像を有する大規模データベースの構造により、人間の顔認識のパフォーマンスを大きく向上させている。しかし、視野角、解像度、遮蔽、画像品質などの面において極めて大きい変化を有する極端の条件下で得られた人間の顔画像について言えば、畳み込みニューラルネットワークに基づく人間の顔認識は、依然として、高い正確度を得ることができない。
分類モデルの1つとしてのSoftmax関数が畳み込みニューラルネットワークに広く適用される。このような場合、Softmax損失関数は、畳み込みニューラルネットワークの訓練に用いられる。しかし、従来のSoftmax損失関数を用いて訓練された畳み込みニューラルネットワークは、高品質のデータを有する人間の顔画像の認識にのみ適し、極端の条件下で得られた人間の顔画像の認識について、満足できる効果を得ることができない。
よって、極端の条件下で得られた人間の顔画像に対して正確な認識を行うことができるよう、従来のSoftmax損失関数を改良する必要がある。
本開示の目的は、情報処理方法及び情報処理装置を提供することにある。本開示における情報処理方法及び情報処理装置により、複数のラベル付き訓練サンプルを用いて分類モデルに対して訓練を行い、取得された分類モデルは、極端の条件下で得られたサンプルに対して正確な分類を行うことができる。
本開示の目的を達成するために、本開示の一側面によれば、情報処理方法が提供され、それは、複数の訓練サンプルを用いて分類モデルに対して訓練を行い、次のようなステップを含み、即ち、複数の訓練サンプルのうちの典型的なサンプルに基づいて、複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整し;及び、調整された複数の訓練サンプルの特徴ベクトルを用いて、分類モデルに対して訓練を行うステップである。
本開示の他の側面によれば、情報処理装置が提供され、それは、複数の訓練サンプルを用いて分類モデルに対して訓練を行い、次のようなユニットを含み、即ち、複数の訓練サンプルのうちの典型的なサンプルに基づいて、複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整するための調整ユニット;及び、調整された複数の訓練サンプルの特徴ベクトルを用いて、分類モデルに対して訓練を行うための学習ユニットである。
本開示のもう1つの側面によれば、情報処理方法が提供され、該情報処理方法は、本開示の上述の側面に記載の情報処理方法を用いて訓練を行うことで得られた分類モデルにより、検出待ちデータに対して検出を行うステップを含む。
本開示の他の側面によれば、さらに、上述の情報処理方法を実現し得るコンピュータプログラムが提供される。また、少なくともコンピュータ可読媒体形式のコンピュータプログラムプロダクトがさらに提供され、その中には、上述の情報処理方法を実現し得るコンピュータプログラムコードが記憶されている。
本開示の技術により、複数の訓練サンプルを用いて分類モデルに対して訓練を行うことで、計算コストを著しく増やさない前提で、分類モデルに対しての改良を実現することができる。従来の分類モデルに比べ、本開示における情報処理方法により訓練された分類モデルは、極端の条件下で得られたサンプルに対して正確な分類を行うことができる。言い換えると、本開示の技術は、モデルに、区別可能性が高い訓練サンプルを学習させることができる。
本開示の第一実施形態における情報処理方法のフローチャートである。 人間の顔画像を訓練サンプルとする例を示す図である。 本開示の第二実施形態における情報処理方法のフローチャートである。 本開示の第二実施形態における情報処理方法の各ステップの幾何的解釈を示す図である。 本開示の実施形態における情報処理装置のブロック図である。 本開示の実施形態における情報処理方法100、300及び情報処理装置500を実現し得る汎用機器600の構成図である。
開示を実施するための形態
以下、添付した図面を参照しながら、本開示を実施するための好適な形態を詳細に説明する。なお、このような実施形態は、例示に過ぎず、本開示を限定するものでない。
また、分類モデルとしてのSoftmax関数を畳み込みニューラルネットワーク(CNN)に適用して人間の顔認識を行うという背景で本開示の実施形態を説明するが、本開示は、これに限定されない。当業者は、本開示を参照した上で、本開示の思想を他の分類モデル(例えば、Sigmoid関数及びTanh関数)及び他の応用分野(例えば、語音認識)に拡張することもでき、これらの全ては、本開示の範囲に属する。
分類モデルの1つとして、Softmax関数は、複数の値のうちから最大値を取る(max)関数と、複数の値のうちの各々の値が最大値として取られる確率との組み合わせであると理解されても良い。Softmax関数は、活性化関数(activation function)として、各種の人工ニューラルネットワークに広く用いられる。
畳み込みニューラルネットワークは、フィードフォワード人工ニューラルネットワークであり、画像及び語音処理の分野に広く適用される。畳み込みニューラルネットワークは、3つの重要な特徴、即ち、受容野、重み共有、及びプーリングに基づくものである。
畳み込みニューラルネットワークは、各ニューロンが隣接領域中のニューロンのみと接続関係を有し、且つ互いに影響すると仮定する。受容野は、該隣接領域の大小(サイズ)を表す。また、畳み込みニューラルネットワークは、ある領域のニューロン間の接続重みが他の全ての領域にも応用され得ると確定し、即ち、重み共有と仮定する。畳み込みニューラルネットワークのプーリングとは、畳み込みニューラルネットワークを分類問題の解決のために用いるときに集約統計に基づいて行われる次元削減処理を指す。
Softmax関数は、畳み込みニューラルネットワークの出力を区間[0、1]にマッピングし、入力されたデータがその対応するクラスに属する確率を示すために用いられるから、分類モデルの1つとして見なされる。
畳み込みニューラルネットワークの訓練過程では、畳み込みニューラルネットワークの順方向伝搬結果と、ラベル付き訓練サンプルを用いて計算された結果との間の差を計算し、そして、該差を損失として畳み込みニューラルネットワークの逆方向伝搬を行うことで、畳み込みニューラルネットワークに対して訓練を行う必要がある。プーリング処理では、Softmax関数を使用する場合、Softmax損失関数を用いて畳み込みニューラルネットワークの重みの学習を行う。
具体的には、Softmax損失関数は、以下の式(1)に示す形式を有する。
Figure 0007310351000001
Lsoftmaxは、softmax関数の損失を表し、クロスエントロピーと定義される。Nは、特徴化された訓練サンプルxi(1≦i≦N)の数を表し、Cは、クラスの数を表す。なお、本文における用語“訓練サンプル”とは、分類モデルに対して訓練を行うためのサンプル、即ち、ラベル付きサンプルを指し、例えば、訓練サンプルxiのラベルは、yiである。ここで、特徴化された訓練サンプルxiは、M次元のベクトルであり、そのラベルyiは、C個のクラスのうちのあるクラスである。
W及びbは、それぞれ、畳み込みニューラルネットワークのC*M次元の重み行列及びC次元のオフセットベクトルを示す。Wj(1≦j≦C)は、重み行列における、C個のクラスのうちのj番目のクラスに対応する重みベクトルを示し、j番目のクラスに対応する、M次元ベクトルとするパラメータと理解されても良い。
式(1)に対して更なる変換を行うことで、以下の式(2)を得ることができる。
Figure 0007310351000002
そのうち、
(外1)
Figure 0007310351000003

及び
(外2)
Figure 0007310351000004

は、M次元重みベクトルのモデュラス(mod)を表し、
(外3)
Figure 0007310351000005

は、M次元訓練サンプルベクトルのモデュラスを表し、θj,iは、重みベクトルWj及び訓練サンプルベクトルxiのベクトル空間におけるの夾角を表し、そのうち、0≦θj,i≦πである。
なお、Softmax関数及びその損失関数Lsoftmaxは、当業者にとって既知のものであるので、その詳しい説明を省略する。しかし、当業者が理解すべきは、本文ではSoftmax関数及びその損失関数Lsoftmaxに基づいて本開示の実施形態を説明したが、本開示の思想は、同様に、他の分類モデルに適用することができ、また、畳み込みニューラルネットワーク以外の他の人工ニューラルネットワーク、例えば、再帰型ニューラルネットワーク(RNN)、ディープニューラルネットワーク(DNN)などにも応用することができるということである。
しかし、従来のSoftmax損失関数Lsoftmaxを用いて学習を行うことで得られたネットワークモデルは、区別可能性が高い訓練サンプルの学習について、満足できる効果を得ることができないため、損失関数Lsoftmaxを改良することで、ネットワークモデルが学習を行って、同一クラスに属する訓練サンプルのベクトル空間中での互いの間の距離を減少させ、異なるクラスに属する訓練サンプルのベクトル空間中での互いの間の距離を増大させるようにする必要がある。
よって、本開示は、複数の訓練サンプルを用いて分類モデルに対して訓練を行うための情報処理技術を提供する。本開示の技術は、訓練サンプルを用いて訓練を行う前に、とりあえず、訓練サンプルに対して前処理を行い、これにより、分類モデルの学習をガイドして、類(クラス)内距離の減少及び類(クラス)間距離の増大の技術的効果を達成するようにすることができる。
以下、図面を参照しながら本開示の実施形態を詳細に説明する。
[第一実施形態]
図1は、本開示の第一実施形態における情報処理方法100のフローチャートである。
本開示の第一実施形態における情報処理方法100は、複数の訓練サンプルを用いて分類モデルに対して訓練を行う。図1に示すように、情報処理方法100は、ステップS101でスタートする。その後、ステップS110では、複数の訓練サンプルのうちの典型的なサンプルに基づいて、複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整する。続いて、ステップS120では、調整された複数の訓練サンプルの特徴ベクトルを用いて、分類モデルに対して訓練を行う。最後に、情報処理方法100は、ステップS130でエンドする。
本開示の実施形態の思想は、訓練の前に、訓練サンプルに制約条件を設けることで、異なるクラス間の訓練サンプルの区別可能性を増強することにある。
本開示の1つの実施方式では、ステップS110における特徴ベクトルの空間分布の調整処理は、次のような方式で行われても良く、即ち、複数の訓練サンプルのうちの、同一クラスに属する訓練サンプルのうちから、最も顕著なクラス特徴を有する訓練サンプルを該クラスの典型的なサンプルとして選択し、且つ典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、典型的なサンプルの特徴ベクトルへ集めさせる。該処理の目的は、訓練サンプルを用いて分類モデルに対して訓練を行う前に、同一クラスに属する訓練サンプル間の区別可能性を減少させ、且つ異なるクラスに属する訓練サンプル間の区別可能性を増大することにある。
本開示の1つの実施方式によれば、最も顕著なクラス特徴は、分類モデルが典型的なサンプルを他のクラスの訓練サンプルに分類しないようにさせることができる。
例えば、訓練サンプルが人間の顔画像であり、且つ分類モデルとしての人間の顔認識モデルに対して訓練を行うために用いられるときに、同一人物に属する人間の顔画像(即ち、同一クラスに属する訓練サンプル)について、標準の環境下で、例えば、色の対比効果が明らかの背景であり、光度が均一且つ適切であり、顔がレンズにまっすぐに面し且つオフセットがないなどの条件下で取られた人間の顔画像は、典型的なサンプルとされても良い。言い換えると、人間の顔認識モデルは、典型的なサンプルとしての該人間の顔画像を、他人に属するように分類することがない。
図2の(a)及び(b)は、人間の顔画像を訓練サンプルとする例を示す図である。そのうち、図2の(a)は、ステップS110の処理が行われていない訓練サンプルを示す図であり、図2の(b)は、ステップS110の処理が行われている訓練サンプルを示す図である。
図2の(a)及び(b)中の横座標及び縦座標は、それぞれ、クラスを表す。図2の(a)及び(b)に示す場合、人間の顔画像が訓練サンプルとされ、異なるクラスに属し、即ち、異なる人物に属する。図2の(a)に示すように、異なる人物(クラス)に属する人間の顔画像(訓練サンプル)の間の距離が大きくないので、区別可能性が明らかでない。このような場合、処理を受けていない訓練サンプルを用いて訓練を行うことにより得られた人間の顔認識モデルは、極端の場合に取得されたサンプル、例えば、背景の色が顔の色に近く、光度が小さく、顔がレンズからずれているなどの場合で取得された人間の顔画像について、良好な分類効果を得ることができない。
本開示の第一実施形態における情報処理方法100を応用するときに、ステップS110の処理、即ち、背景のコントラストが明らかであり、照明の条件が理想的である場合に取得された人間の正面の顔画像を該クラス(人間)の典型的なサンプルとし、他の訓練サンプル(人間の顔画像)の特徴ベクトルの特徴空間における分布を調整することで、他の訓練サンプルの特徴ベクトルを、典型的なサンプルの特徴ベクトルへ集めさせ、これにより、同一クラスに属する訓練サンプル間の区別可能性を減少させ、且つ異なるクラスに属する訓練サンプル間の区別可能性を増大することができる。
本開示の1つの実施方式によれば、次のような方式でステップS110の処理を実現することができ、即ち、典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離に対して正規化を行う。
以下、損失関数Lsoftmaxを用いて、本開示の第一実施形態における情報処理方法100のステップS110について説明する。
情報処理方法100のステップS110における処理に基づいて、式(2)中の損失関数Lsoftmaxは、以下の式(3)にすることができる。
Figure 0007310351000006
同一クラスに属する訓練サンプルxiについて、典型的なサンプルに対して正規化を行い、即ち、
Figure 0007310351000007
であり、そのうち、βは、定数である。このような処理により、特徴空間において、同一クラスに属する、典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、典型的なサンプルの特徴ベクトルへ集めさせることで、同一クラスに属する訓練サンプルの区別可能性を減少させ、異なるクラスに属する訓練サンプルの区別可能性を増大することができる。
その後、上述のように、ステップS120では、情報処理方法100は、調整された複数の訓練サンプルの特徴ベクトルを用いて、分類モデルに対して訓練を行うことで、最終の経訓練の分類モデルを取得することができる。
情報処理方法100により、訓練の前に、訓練サンプルに対して前調整(前処理)を行うことで、訓練の過程で、同一クラスに属する訓練サンプル間の区別可能性を減少させ、且つ異なるクラスに属する訓練サンプル間の区別可能性を増大することができる。このように訓練された分類モデルは、極端の条件下で取得されたサンプルに対しても正確な分類を行うことができる。
[第二実施形態]
本開示によれば、訓練の前に、訓練サンプルに対して前処理を行うこと以外に、分類モデル自身に対して前処理を行うこともできる。
図3は、本開示の第二実施形態における情報処理方法300のフローチャートである。
図3に示すように、情報処理方法300は、ステップS301でスタートする。その後、ステップS310を実行する。なお、図3中のステップS310は、図1中のステップS110と全く同じであるので、説明の便宜のため、該ステップについての重複説明が省略される。
図3に示すように、本開示の第二実施形態によれば、情報処理方法300は、ステップS320をさらに含んでも良く、そのうち、分類モデルの、異なるクラスについてのパラメータを正規化し、これにより、調整された前記複数の訓練サンプルの特徴ベクトル及び正規化されたパラメータに基づいて、前記分類モデルに対して訓練を行う。
上述の式(1)~式(3)に示すように、重みベクトルWjは、ベクトル空間における原点からの軸線と理解されても良い。よって、ベクトル空間には、原点で交差するC個の軸線が存在し、それらは、それぞれ、C個のクラスに対応するとともに、C個の重みベクトルWjに対応する。同一クラスに属する訓練サンプルの特徴ベクトルは、ベクトル空間において対応する重みベクトルWj近傍で集まる。
換言すると、各クラスについて、分類モデルは、該クラスに対応するパラメータ、例えば、重みベクトルWj及び対応するオフセット値bjを有することができる。
重みベクトルWjに対して正規化を行うことで、ベクトル空間において重みベクトルWjを同一球面に投影することができる。ステップS320の処理により、重みベクトルWjのモデュラスの、分類モデルの訓練への影響を無くし、より厳しい分類基準を得ることができる。
ステップS320における処理に基づいて、式(3)中の損失関数Lsoftmaxをさらに以下の式(4)にすることができる。
Figure 0007310351000008
そのうち、重みベクトルWjに対して正規化を行い、即ち、
Figure 0007310351000009
であり、そのうち、αは、定数である。
また、図3に示すように、本開示の第二実施形態によれば、情報処理方法300は、ステップS330をさらに含んでも良く、そのうち、複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させ、これにより、調整された前記複数の訓練サンプルの特徴ベクトル及び増加した区別マージンに基づいて、分類モデルに対して訓練を行うことができる。
ステップS330の処理の目的も、同一クラスに属する訓練サンプル間の区別可能性を減少させ、且つ異なるクラスに属する訓練サンプル間の区別可能性を増大することにある。
具体的には、本開示の1つの実施方式によれば、区別マージンの増加は、次のような方式で行うことができ、即ち、複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整する。上述のように、同一クラスに属する訓練サンプル間の区別可能性を減少させるために、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することができ、即ち、訓練サンプルベクトルxiと、対応する重みベクトルWyiとの間の類似度を調整することができる。
より具体的には、本開示の1つの実施方式によれば、類似度の調整は、訓練サンプルの特徴ベクトルと、分類モデルの対応するパラメータの特徴ベクトルとの間の夾角に係数mを乗算することを含んでも良く、そのうち、m>1である。換言すると、訓練サンプルベクトルxi及びその対応する重みベクトルWyiについて、この2つのベクトルの間の夾角を減少することで、それらの間の類似度を増加させることができる。
以下、Lsoftmax損失関数をもとに説明を行う。
上述のステップS330における処理に基づいて、式(4)中の損失関数Lsoftmaxは、以下の式(5)にすることができる。
Figure 0007310351000010
そのうち、
Figure 0007310351000011

且つ
Figure 0007310351000012
である。
言い換えると、m(≧1)を導入することで、同一クラスに属する訓練サンプル間の区別可能性を減少させ、且つ異なるクラスに属する訓練サンプル間の区別可能性を増加させることができる。換言すれば、係数m(≧1)を導入することで、複数の訓練サンプルの属する異なるクラス間の区別マージンを増大することができる。
係数mは、複数の方法で選択することができる。
例えば、本開示の1つの実施方式によれば、係数mは、同一クラス内の最大角度特徴距離が異なるクラス間の最小角度特徴距離よりも小さくなるよう選択されても良い。言い換えると、係数mを導入することで、同一クラスに属する全ての訓練サンプルの特徴ベクトルのベクトル空間における互いの間の夾角のうちの最大値が、異なるクラスに属する訓練サンプルの特徴ベクトルのベクトル空間における互いの間の夾角のうちの最小値よりも小さくなるようにさせることで、同一クラスに属する訓練サンプル間の区別可能性が小さくなり、且つ異なるクラスに属する訓練サンプル間の区別可能性が大きくなるようにさせることができる。
また、本開示の1つの実施方式によれば、複数の訓練サンプルの属するクラスの数Cが増加するときに、係数mを減少させ、また、該数Cが減少するときに、係数mを増加させる。上述のように、係数mを増大することで、同一クラスに属する訓練サンプルの特徴ベクトルのベクトル空間における互いの間の夾角を減少させ、且つ異なるクラスに属する訓練サンプルの特徴ベクトルのベクトル空間における互いの間の夾角を増加させることができる。しかし、係数mは、クラスの数Cと関連する。具体的には、数Cが大きいときに、ベクトル空間における重みベクトルWjの分布が密集するので、係数mの値を過剰に増加させることができない。同様に、数が小さいときに、ベクトル空間における重みベクトルWjの分布が疎らであるため、係数mの値を適切に増加させることができる。
その後、図3に示すように、ステップS340では、調整された複数の訓練サンプルの特徴ベクトル、正規化されたパラメータ、及び増加した区別マージンに基づいて、分類モデルに対して訓練を行うことで、訓練後の分類モデルを得ることができる。最後に、情報処理方法300は、ステップS350でエンドする。
情報処理方法300により訓練された分類モデルは、極端の条件下で得られたサンプルに対しても正確な分類を行うことができる。
以上、ステップS310、S320、S330の順序で情報処理方法300を説明したが、当業者が理解すべきは、上述のステップの実行順序について特別な限定が存在しないということである。換言すると、ステップS310、S320、S330は、任意の順序に従って行われても良く、又は、同時に実行されても良く、これらの全ては、本開示の範囲に属する。また、当業者が理解すべきは、ステップS320及びS330は、本開示の実施形態における情報処理方法にとって必須でないということがである。換言すれば、ステップS320及びS330を実行せず、ステップS310のみを実行しても良く、又は、ステップS310、ステップS320、及びステップS330のうちの1つを実行しても良い。
本開示の技術をより分かりやすく説明するために、以下、図4の(a)、(b)、(c)及び(d)を参照しながら、本開示の情報処理方法300における各ステップの解釈について説明する。
図4の(a)、(b)、(c)及び(d)は、本開示の第二実施形態における情報処理方法300の各ステップの幾何的解釈を示す図である。
具体的には、図4の(a)は、分類モデル及び訓練サンプルに対して前処理を行っていない場合を示す。図4の(a)に示すように、例えば、訓練サンプルが2つのクラス(それぞれ、浅い色のポイント及び深い色のポインで表す)に属し、例えば、重みベクトルのこの2つのクラスのパラメータのベクトル空間における投影がW1及びW2であり、訓練サンプルのベクトル空間における特徴ベクトルがこの2つの重みベクトルの周囲に分布している。理解しやすいために、図4の(a)は、クラスを判定するための境界を示している。
図4の(b)は、分類モデルに対して、類(クラス)間区別マージンを増加させるための前処理(ステップS330)を行う場合を示す。図4の(b)に示すように、ステップS330を実行することで、クラス間の判定境界は、1つの線から1つの扇形まで拡張され、且つ各クラスの訓練サンプルは、対応する重みベクトルへ集まり(図中の浅い色の矢印で表す)、これにより、同一クラスに属する訓練サンプル間の区別可能性を小さくし、異なるクラスに属する訓練サンプル間の区別可能性を大きくすることができる。
図4の(c)は、分類モデルに対して、クラスのパラメータを正規化するための前処理(ステップS320)をさらに行う場合を示す。図4の(c)に示すように、ステップS320を行うことで、重みベクトルW1及びW2が正規化され、これにより、ベクトル空間における同一球面に投影することができるため、重みベクトルのモデュラスの分類モデルの訓練過程への影響を無くし、より厳しい分類基準を得ることができる。
図4の(d)は、分類モデルに対して、クラスのパラメータを正規化するための前処理(ステップS110又はS310)をさらに行う場合を示す。図4の(c)に示すように、ステップS110又はS310を実行することで、異なるクラスに属する訓練サンプルは、それぞれ、対応する典型的なサンプルへ集まり(図中の浅い色の矢印で表す)、これにより、同一クラスに属する訓練サンプル間の区別可能性をより小さくし、異なるクラスに属する訓練サンプル間の区別可能性をより大きくすることができる。
本開示の情報処理方法により、訓練の前に、訓練サンプル及び分類モデルに対して、予め調整を行うことで、訓練の過程で、同一クラスに属する訓練サンプル間の区別可能性を減少させ、且つ異なるクラスに属する訓練サンプル間の区別可能性を増加させることができる。このように訓練された分類モデルは、極端の条件下で取得されたサンプルに対しても正確な分類を行うことができる。
図5は、本開示の実施形態における情報処理装置500のブロック図である。
図5に示すように、複数の訓練サンプルを用いて分類モデルに対して訓練を行うための情報処理装置500は、以下のようなものを含む。
調整ユニット501:複数の訓練サンプルのうちの典型的なサンプルに基づいて、複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整し;
学習ユニット502:調整された複数の訓練サンプルの特徴ベクトルを用いて、分類モデルに対して訓練を行う。
調整ユニット501は、上述の方法100におけるステップS110又は方法300におけるステップS310の処理を実行するように構成され、且つ該処理による利点を得ることもできる。なお、ここでは、その詳しい説明を省略する。
学習ユニット502は、上述の方法100のステップS120又は方法300におけるステップS340の処理を実行するように構成され、且つ該処理による利点を得ることもできる。なお、ここでは、その詳しい説明を省略する。
また、本開示は、情報処理方法をさらに提供し、それは、上述の情報処理方法により訓練を行うことで得られる分類モデルを用いて、検出待ちデータに対して検出を行う。上述の情報処理方法により訓練を行うことで、極端の場合に取得されたサンプルについても良好な分類効果を有する分類モデルを得ることができ、また、該分類モデルをラベル無しサンプル(即ち、検出待ちデータ)の分類に適用することもできる。
図6は、本開示の実施形態における、複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理方法100、300及び情報処理装置500を実現し得る汎用機器600の構成図である。汎用機器600は、例えば、コンピュータシステムである。なお、汎用機器600は、例示に過ぎず、本開示における方法及び装置の応用範囲又は機能について限定しない。
図6では、中央処理装置(CPU)601は、ROM 602に記憶されているプログラム又は記憶部608からRAM 603にロードされているプログラムに基づいて各種の処理を行う。RAM 603では、さらに、CPU 601が各種の処理などを実行するときに必要なデータを記憶しても良い。CPU 601、ROM 602、及びRAM 603は、バス604により互いに接続される。入力/出力インターフェース605もバス604に接続される。
また、次のような部品は、入力/出力インターフェース605に接続され、即ち、入力部606(キーボード、マウスなどを含む)、出力部607(表示器、例えば、CRT、LCDなど、及びスピーカーなどを含む)、記憶部608(ハードディスクなどを含む)、及び通信部609(ネットワーク・インターフェース・カード、例えば、LANカード、モデムなどを含む)というような部品である。通信部609は、ネットワーク、例えば、インターネットを経由して通信処理を行う。なお、必要に応じて、ドライブ610を入力/出力インターフェース605に接続させても良い。取り外し可能な媒体611、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などは、必要に応じて、ドライブ610にセットされ、その中から読み出されたコンピュータプログラムが必要に応じて記憶部608にインスタールされるようにさせることができる。
また、本開示は、さらに、マシン可読指令コードを含むプログラムプロダクトを提供する。このような指令コードは、マシンにより読み取られて実行されるときに、上述の本開示の実施形態における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリー(carry)する、例えば、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD-ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体記憶器などの各種記憶媒体も、本開示に含まれる。
上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。
また、本開示の上述の方法の各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することもできる。
また、以上の実施形態などに関し、さらに以下のように付記を開示する。
(付記1)
複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理方法であって、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間中での分布を調整し;及び
調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルに対して訓練を行うことを含む。
(付記2)
付記1に記載の情報処理方法であって、
前記典型的なサンプルは、最も顕著なクラス特徴を有する訓練サンプルであり、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間中での分布を調整することは、
典型的なサンプル以外の他の訓練サンプルの特徴ベクトルが前記典型的なサンプルの特徴ベクトルへ集まるようにさせることを含む、情報処理方法。
(付記3)
付記2に記載の情報処理方法であって、
前記最も顕著なクラス特徴は、前記分類モデルが前記典型的なサンプルを他のクラスに分類しないようにさせる、情報処理方法。
(付記4)
付記2に記載の情報処理方法であって、
前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルが前記典型的なサンプルの特徴ベクトルへ集まるようにさせることは、
前記典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離に対して正規化を行うことを含む、情報処理方法。
(付記5)
付記1に記載の情報処理方法であって、
各クラスについて、前記分類モデルは、該クラスに対応するパラメータを有し、
前記方法は、さらに、
前記分類モデルの、異なるクラスについてのパラメータを正規化し、調整された前記複数の訓練サンプルの特徴ベクトル及び正規化されたパラメータに基づいて、前記分類モデルを訓練することを含む、情報処理方法。
(付記6)
付記1に記載の情報処理方法であって、さらに、
前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させ、調整された前記複数の訓練サンプルの特徴ベクトル及び増加した区別マージンに基づいて、前記分類モデルを訓練することを含む、情報処理方法。
(付記7)
付記6に記載の情報処理方法であって、
前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させることは、
前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することをさらに含む、情報処理方法。
(付記8)
付記7に記載の情報処理方法であって、
前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することは、
該訓練サンプルの特徴ベクトルと、前記分類モデルの対応するパラメータの特徴ベクトルとの間の夾角に係数mを乗算することを含み、m>1である、情報処理方法。
(付記9)
付記8に記載の情報処理方法であって、
前記係数mは、同一クラス内の最大角度特徴距離が異なるクラス間の最小角度特徴距離よりも小さくなるように選択される、情報処理方法。
(付記10)
付記8に記載の情報処理方法であって、
前記複数の訓練サンプルの属するクラスの数が増加するときに、前記係数mを減少させ;及び、前記数が減少するときに、前記係数mを増加させる、情報処理方法。
(付記11)
付記1に記載の情報処理方法であって、
前記分類モデルは、Softmax関数であり、前記パラメータは、Softmax関数の、異なるクラスについての重みであり、前記訓練サンプルは、Softmax関数の訓練過程で使用される入力である、情報処理方法。
(付記12)
複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理装置であって、
調整ユニットであって、前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間中で分布を調整するもの;及び
学習ユニットであって、調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルに対して訓練を行うものを含む、情報処理装置。
(付記13)
情報処理方法であって、
付記1~11に記載の情報処理方法を用いて訓練を行うことにより得られた分類モデルにより、検出待ちデータに対して検出を行う、情報処理方法。
以上、本開示の好ましい実施形態を説明したが、本開示はこの実施形態に限定されず、本開示の趣旨を離脱しない限り、本開示に対するあらゆる変更は、本開示の技術的範囲に属する。

Claims (8)

  1. 複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理方法であって、
    前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整し;及び
    調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルを訓練することを含み、
    前記典型的なサンプルは、最も顕著なクラス特徴を有する訓練サンプルであり、
    前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整することは、
    前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることを含み、
    前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることは、
    前記典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離を正規化することを含む、情報処理方法。
  2. 請求項に記載の情報処理方法であって、
    前記最も顕著なクラス特徴は、前記分類モデルが前記典型的なサンプルを他のクラスに分類しないようにさせる、情報処理方法。
  3. 請求項1に記載の情報処理方法であって、
    各クラスについて、前記分類モデルは、該クラスに対応するパラメータを有し、
    前記情報処理方法は、さらに、
    前記分類モデルの、異なるクラスについてのパラメータを正規化し、調整された前記複数の訓練サンプルの特徴ベクトル及び正規化されたパラメータに基づいて、前記分類モデルを訓練することを含む、情報処理方法。
  4. 請求項1に記載の情報処理方法であって、さらに、
    前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させ、調整された前記複数の訓練サンプルの特徴ベクトル及び増加した区別マージンに基づいて、前記分類モデルを訓練することを含む、情報処理方法。
  5. 請求項に記載の情報処理方法であって、
    前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させることは、
    前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することを含む、情報処理方法。
  6. 請求項に記載の情報処理方法であって、
    前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することは、
    該訓練サンプルの特徴ベクトルと、前記分類モデルの対応するパラメータの特徴ベクトルとの間の夾角に係数m(m>1)を乗算することを含む、情報処理方法。
  7. 複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理装置であって、
    前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整する調整ユニット;及び
    調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルを訓練する学習ユニットを含み、
    前記典型的なサンプルは、最も顕著なクラス特徴を有する訓練サンプルであり、
    前記調整ユニットは、前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることを行い、
    前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることは、
    前記典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離を正規化することを含む、情報処理装置。
  8. 情報処理方法であって、
    請求項1~のうちいずれか1項に記載の情報処理方法を用いて訓練を行うことで得られた分類モデルにより、検出待ちデータを検出することを含む、情報処理方法。
JP2019115483A 2018-06-25 2019-06-21 情報処理方法及び情報処理装置 Active JP7310351B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810662632.2 2018-06-25
CN201810662632.2A CN110633604B (zh) 2018-06-25 2018-06-25 信息处理方法和信息处理装置

Publications (2)

Publication Number Publication Date
JP2020004405A JP2020004405A (ja) 2020-01-09
JP7310351B2 true JP7310351B2 (ja) 2023-07-19

Family

ID=66793911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019115483A Active JP7310351B2 (ja) 2018-06-25 2019-06-21 情報処理方法及び情報処理装置

Country Status (4)

Country Link
US (1) US11113581B2 (ja)
EP (1) EP3588380A1 (ja)
JP (1) JP7310351B2 (ja)
CN (1) CN110633604B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10621473B1 (en) * 2019-01-30 2020-04-14 StradVision, Inc. Method for providing object detecting system capable of updating types of detectable classes in real-time by using continual learning and devices using the same
US10635918B1 (en) * 2019-01-30 2020-04-28 StradVision, Inc. Method and device for managing smart database for face recognition based on continual learning
US10740593B1 (en) * 2019-01-31 2020-08-11 StradVision, Inc. Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation
EP3997625A4 (en) * 2019-10-29 2022-11-09 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND ASSOCIATED CONTROL METHOD
JP7483405B2 (ja) 2020-02-25 2024-05-15 キヤノン株式会社 学習装置、電子機器、学習方法、電子機器の制御方法およびプログラム
WO2021214943A1 (ja) * 2020-04-23 2021-10-28 日本電信電話株式会社 パラメータ最適化方法、非一時的記録媒体、特徴量抽出方法及びパラメータ最適化装置
CN114612953A (zh) * 2020-12-09 2022-06-10 佳能株式会社 对象识别模型的训练方法及装置
US20220284261A1 (en) * 2021-03-05 2022-09-08 The Aerospace Corporation Training-support-based machine learning classification and regression augmentation
CN112801054B (zh) * 2021-04-01 2021-06-22 腾讯科技(深圳)有限公司 人脸识别模型的处理方法、人脸识别方法及装置
CN113963203B (zh) * 2021-10-19 2024-07-19 动联(山东)电子科技有限公司 一种智能捕鼠监测方法、系统、装置及介质
CN118114123B (zh) * 2024-04-17 2024-08-02 腾讯科技(深圳)有限公司 识别模型的处理方法、装置、计算机设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162232A (ja) 2016-03-10 2017-09-14 株式会社Screenホールディングス 教師データ作成支援装置、画像分類装置、教師データ作成支援方法および画像分類方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2008356919A1 (en) * 2008-05-26 2009-12-03 Agency For Science, Technology And Research A method and system for classifying brain signals in a BCI
CN101727463A (zh) * 2008-10-24 2010-06-09 中国科学院计算技术研究所 一种文本训练方法和分类方法
CN102855259B (zh) * 2011-06-30 2015-05-13 Sap欧洲公司 大规模数据聚类分析的并行化
CN102393914A (zh) * 2011-10-28 2012-03-28 华中科技大学 一种基于支持向量机分类树的地基云图识别方法
CN103400146B (zh) * 2013-07-19 2017-03-01 北京工业大学 基于颜色建模的中医面色识别方法
US9141885B2 (en) * 2013-07-29 2015-09-22 Adobe Systems Incorporated Visual pattern recognition in an image
CN105574538B (zh) * 2015-12-10 2020-03-17 小米科技有限责任公司 分类模型训练方法及装置
US20170308790A1 (en) * 2016-04-21 2017-10-26 International Business Machines Corporation Text classification by ranking with convolutional neural networks
GB2555192B (en) * 2016-08-02 2021-11-24 Invincea Inc Methods and apparatus for detecting and identifying malware by mapping feature data into a semantic space
CN108133224B (zh) * 2016-12-01 2021-11-16 富士通株式会社 用于评估分类任务复杂度的方法
CN108229508B (zh) * 2016-12-15 2022-01-04 富士通株式会社 用于训练图像处理装置的训练装置和训练方法
CN107103281A (zh) * 2017-03-10 2017-08-29 中山大学 基于聚集损失深度度量学习的人脸识别方法
US10957337B2 (en) * 2018-04-11 2021-03-23 Microsoft Technology Licensing, Llc Multi-microphone speech separation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162232A (ja) 2016-03-10 2017-09-14 株式会社Screenホールディングス 教師データ作成支援装置、画像分類装置、教師データ作成支援方法および画像分類方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEN, Yandong, et al.,A Discriminative Feature Learning Approach for Deep Face Recognition,ECCV 2016,2016年,pp.499-515,<URL: https://link.springer.com/chapter/10.1007/978-3-319-46478-7_31>

Also Published As

Publication number Publication date
US11113581B2 (en) 2021-09-07
CN110633604A (zh) 2019-12-31
CN110633604B (zh) 2023-04-25
EP3588380A1 (en) 2020-01-01
JP2020004405A (ja) 2020-01-09
US20190392248A1 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
JP7310351B2 (ja) 情報処理方法及び情報処理装置
CN108182427B (zh) 一种基于深度学习模型和迁移学习的人脸识别方法
Cui et al. Identifying materials of photographic images and photorealistic computer generated graphics based on deep CNNs.
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
CN109190665B (zh) 一种基于半监督生成对抗网络的通用图像分类方法和装置
CN108171209B (zh) 一种基于卷积神经网络进行度量学习的人脸年龄估计方法
CN109359608B (zh) 一种基于深度学习模型的人脸识别方法
CN103605972B (zh) 一种基于分块深度神经网络的非限制环境人脸验证方法
CN110929679B (zh) 一种基于gan的无监督自适应行人重识别方法
CN109063724B (zh) 一种增强型生成式对抗网络以及目标样本识别方法
CN108985268B (zh) 基于深度迁移学习的归纳式雷达高分辨距离像识别方法
CN111814584A (zh) 基于多中心度量损失的多视角环境下车辆重识别方法
WO2021238586A1 (zh) 一种训练方法、装置、设备以及计算机可读存储介质
CN116503676B (zh) 一种基于知识蒸馏小样本增量学习的图片分类方法及系统
CN112085055A (zh) 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法
Nagendar et al. Neuro-IoU: Learning a Surrogate Loss for Semantic Segmentation.
CN110751005B (zh) 融合深度感知特征和核极限学习机的行人检测方法
CN113743474A (zh) 基于协同半监督卷积神经网络的数字图片分类方法与系统
CN110188646B (zh) 基于梯度方向直方图与局部二值模式融合的人耳识别方法
CN117854104A (zh) 一种基于特征对齐的无监督行人重识别方法
CN111553437A (zh) 一种基于神经网络图像分类方法
CN109145749B (zh) 一种跨数据集的面部表情识别模型构建及识别方法
CN112750128A (zh) 图像语义分割方法、装置、终端及可读存储介质
CN114445875A (zh) 基于深度学习的身份识别与人脸比对系统及训练方法
CN112784800A (zh) 一种基于神经网络和形状约束的人脸关键点检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7310351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150