JP6958719B2 - 画像解析装置、画像解析方法および画像解析プログラム - Google Patents

画像解析装置、画像解析方法および画像解析プログラム Download PDF

Info

Publication number
JP6958719B2
JP6958719B2 JP2020504502A JP2020504502A JP6958719B2 JP 6958719 B2 JP6958719 B2 JP 6958719B2 JP 2020504502 A JP2020504502 A JP 2020504502A JP 2020504502 A JP2020504502 A JP 2020504502A JP 6958719 B2 JP6958719 B2 JP 6958719B2
Authority
JP
Japan
Prior art keywords
image
learning
learning data
similarity
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020504502A
Other languages
English (en)
Other versions
JPWO2019171440A1 (ja
Inventor
壮馬 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019171440A1 publication Critical patent/JPWO2019171440A1/ja
Application granted granted Critical
Publication of JP6958719B2 publication Critical patent/JP6958719B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像解析装置、画像解析方法および画像解析プログラムに関する。
カメラ等の撮像装置で取得された画像内の対象物体を認識する一般的な物体認識技術が開発されている。例えば、非特許文献1には、多層ニューラルネットワークを用いて学習および識別を行う物体認識技術が記載されている。
非特許文献1に記載されている物体認識技術における学習では、対象物体の外観を表す特徴量のうち、識別に有効な特徴量が抽出される。また、非特許文献1に記載されている物体認識技術における識別では、学習において抽出された特徴量と同種の特徴量が、属するカテゴリが未知である対象物体が表示されている画像から抽出される。
次いで、属するカテゴリが未知である対象物体が表示されている画像から抽出された特徴量と学習結果とに基づいて、対象物体が属するカテゴリを示すスコアまたは確率が特定される。
非特許文献1に記載されている物体認識技術における学習では、多数のカテゴリが存在する場合、対象物体が属するカテゴリと類似しないカテゴリと比べて、対象物体が属するカテゴリと類似するカテゴリの識別に有効な特徴量が得られにくいという問題がある。類似するカテゴリの識別に有効な特徴量が得られないと、対象物体の認識率が低下する。
特許文献1には、上記の問題を解決する、複数のモデル画像が類似している場合であっても正しく物体を認識できる画像識別装置が記載されている。特許文献1に記載されている画像識別装置は、以下に説明する特徴点マッチング方法で物体を認識する。
特許文献1に記載されている画像識別装置は、予めデータベースに格納されている画像から特徴点および特徴量を抽出する。また、特許文献1に記載されている画像識別装置は、データベースに格納されている画像からの抽出方法と同様の方法で識別対象の画像から特徴点および特徴量を抽出する。
次いで、特許文献1に記載されている画像識別装置は、データベースに格納されている画像から得られた特徴量と、識別対象の画像から得られた特徴量とが所定値以上の類似度を有している場合、特徴量が抽出された特徴点同士を対応付ける。対応付けの結果に基づいて、特許文献1に記載されている画像識別装置は、識別対象の画像に表示されている物体を識別する。
特許文献1に記載されている画像識別装置は、識別対象の画像から得られる特徴点のうち識別対象の画像に表示されている物体が属するカテゴリと類似するカテゴリとの相関が低い特徴点を用いて、対応付けの結果に重みを付与する。
対応付けの結果に重みを付与することによって、特許文献1に記載されている画像識別装置は、識別対象の画像に表示されている物体が属するカテゴリと類似するカテゴリを精度よく見分けることができる。すなわち、特許文献1に記載されている画像識別装置は、対象物体の認識率を向上させることができる。
また、非特許文献2には、画像から「キーポイント」と呼ばれる特徴点を抽出し、「特徴量記述」を計算するスケール不変特徴変換という手法が記載されている。
また、非特許文献3には、グラフラプラシアンに関する内容が記載されている。また、非特許文献4には、オブジェクトの分類精度を大きく損なわずに位置検出精度を向上させることができるクラスアクティベーションマップ技術が記載されている。
特開2009−116385号公報
Karen Simonyan, and Andrew Zisserman, "Very Deep Convolutional Networks for Large-Scale Image Recognition," In ICLR, 2015. David G. Lowe, "Distinctive Image features from Scale-Invariant Keypoints," International Journal of Computer Vision, 2004, 60(2), pages 91-110. Andrew Y. Ng, Michale I. Jordan, and Yair Weiss, "On Spectral Clustering: Analysis and an algorithm," In Advances in Neural Information Processing Systems 14, 2001. B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, and A. Torralba, "Learning Deep Features for Discriminative Localization," Proc CVPR, 2016.
特許文献1に記載されている対応付けの結果に重みを付与する方法は、特徴点マッチング方法以外の方法には適用されない。また、特徴点を抽出し、かつ重みを付与する認識方法は負荷が重いため、より容易に画像に表示されている対象物体を認識できる方法が求められている。
[発明の目的]
そこで、本発明は、上述した課題を解決する、画像に表示されている認識対象の物体を高い精度でより容易に認識できる画像解析装置、画像解析方法および画像解析プログラムを提供することを1つの目的とする。
本発明による画像解析装置は、画像と画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成する生成部と、生成された類似組を用いて所定の認識モデルが生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な所定の認識モデルのパラメータを学習する学習部とを備えることを特徴とする。
本発明による画像解析方法は、画像と画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成し、生成された類似組を用いて所定の認識モデルが生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な所定の認識モデルのパラメータを学習することを特徴とする。
本発明による画像解析プログラムは、コンピュータに、画像と画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成する生成処理、および生成された類似組を用いて所定の認識モデルが生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な所定の認識モデルのパラメータを学習する学習処理を実行させることを特徴とする。
本発明によれば、画像に表示されている認識対象の物体を高い精度でより容易に認識できる。
本発明による画像解析装置の第1の実施形態の構成例を示すブロック図である。 第1の実施形態におけるカテゴリ間の類似度を表す行列の例を示す説明図である。 対象識別装置300の構成例を示すブロック図である。 第1の実施形態の画像解析装置100による特徴量学習処理の動作を示すフローチャートである。 本発明による画像解析装置の第2の実施形態の構成例を示す説明図である。 第2の実施形態の注目領域特定手段270が特定する注目領域の例を示す説明図である。 第2の実施形態の第2特徴量学習手段260による注目領域が用いられた学習の例を示す説明図である。 第2の実施形態の画像解析装置200による特徴量学習処理の動作を示すフローチャートである。 本発明による画像解析装置のハードウェア構成例を示す説明図である。 本発明による画像解析装置の概要を示すブロック図である。
実施形態1.
[構成の説明]
以下、本発明の実施形態を、図面を参照して説明する。図1は、本発明による画像解析装置の第1の実施形態の構成例を示すブロック図である。図1に示す画像解析装置100は、特徴量学習技術を提供する装置である。
なお、図1は、第1の実施形態の画像解析装置の構成の理解を容易にすることを目的とする図である。第1の実施形態の画像解析装置の構成は、図1に示す構成に限定されない。
図1に示す画像解析装置100は、学習データ保持手段110と、第1特徴量抽出手段120と、類似度判定手段130と、類似組生成手段140と、類似組学習データ保持手段150と、第2特徴量学習手段160とを備えている。
学習データ保持手段110は、認識モデルの学習に使用されるデータである学習データを保持する機能を有する。学習データ保持手段110は、例えば、画像と画像に表示されている対象物体が属するカテゴリを示すラベルとの組を学習データとして保持する。
学習データ保持手段110が保持する画像は、例えば、RGB画像、グレースケール画像、または赤外線画像である。また、学習データ保持手段110は、他の種類の画像を保持してもよい。
また、学習データ保持手段110は、上記の組の代わりに数値と数値が示す対象物体が属するカテゴリを示すラベルとの組を学習データとして保持してもよい。本実施形態では、学習データ保持手段110が画像を保持する場合を例に説明する。
第1特徴量抽出手段120は、学習データ保持手段110が保持する画像から特徴量(以下、第1特徴量という。)を抽出する機能を有する。例えば、第1特徴量抽出手段120は、非特許文献1に記載されている方法と同様に、対象物体の外観を表す特徴量を第1特徴量として抽出してもよい。また、第1特徴量抽出手段120は、非特許文献2に記載されている特徴点マッチングを用いて第1特徴量を抽出してもよい。
類似度判定手段130は、第1特徴量抽出手段120により抽出された学習データ保持手段110が保持する画像ごとの第1特徴量に基づいて、学習データ保持手段110が保持する画像間の類似度を判定する機能を有する。
学習データ保持手段110が保持する画像間の類似度を判定するために、類似度判定手段130は、例えば、第1特徴量から求められる特徴空間内の距離に基づいて類似度を判定する方法を用いる。
また、類似度判定手段130は、学習データ保持手段110が保持する画像に表示されている対象物体が属するカテゴリ間の類似度を判定する機能を有する。例えば、類似度判定手段130は、第1特徴量抽出手段120が抽出した第1特徴量に基づいて、学習データ保持手段110が保持する画像に対して識別処理を実行する。識別処理の実行結果に基づいて、類似度判定手段130は、カテゴリ間の類似度を判定する。
また、類似度判定手段130による画像に表示されている対象物体が属するカテゴリ間の類似度の判定には、例えば、以下の方法が用いられてもよい。
<第1カテゴリ間類似度判定方法>
表示されている対象物体が、M 種類のカテゴリのうち、i 番目のカテゴリCiに属する学習データ保持手段110が保持する画像をx ∈Ciとする。
また、画像x から第1特徴量抽出手段120により抽出された第1特徴量と予め学習された識別器とに基づいて得られるカテゴリCj(j=1, ・・・,M) らしさをpcj(x)とすると、以下の要素を(i,j) 要素とするM ×M の行列S が求められる。
Si,j = Σx ∈Ci{pcj(x)} ・・・式(1)
なお、行列S が求められる際に使用される識別器は、例えば、ロジスティック回帰識別器である。上記の行列S を用いて、以下の行列D が求められる。
D = (S+ST)/2 ・・・式(2)
式(2)における行列D の(i,j) 要素は、カテゴリCiとカテゴリCjの類似度を表す。上記の方法で求められる行列D の例を図2に示す。図2は、第1の実施形態におけるカテゴリ間の類似度を表す行列の例を示す説明図である。
図2に示す行列D は、M=3 の時の行列である。また、図2に示すA 〜C は、カテゴリの種類を表す。図2に示すように、例えば、カテゴリA とカテゴリB の類似度は、「0.3 」である。以上の方法で、類似度判定手段130は、カテゴリ間の類似度を判定できる。
<第2カテゴリ間類似度判定方法>
類似度判定手段130は、例えば非特許文献2に記載されている特徴点マッチングを用いて、表示されている対象物体が所定のカテゴリに属する画像と、表示されている対象物体が所定のカテゴリ以外の別のカテゴリに属する画像とのマッチングを行う。
マッチングの度合いが所定の閾値以上となる特徴点が得られた場合、類似度判定手段130は、所定のカテゴリに対して、上記の別のカテゴリが類似すると判定できる。
類似組生成手段140は、学習データ保持手段110が保持する組に対して類似組を生成する機能を有する。例えば、類似組生成手段140は、類似度判定手段130で得られた画像間の類似度に基づいて画像の類似組を生成する。
画像の類似組の生成には、例えば、学習データ保持手段110が保持する所定の画像から第1特徴量抽出手段120により抽出された第1特徴量と、学習データ保持手段110が保持する所定の画像以外の別の画像から第1特徴量抽出手段120により抽出された第1特徴量との距離が用いられる。類似組生成手段140は、上記の距離が閾値未満である画像同士の組を、画像の類似組として生成する。
また、類似組生成手段140は、例えば、学習データ保持手段110が保持する各画像に対して、第1特徴量抽出手段120により抽出された第1特徴量と、学習データ保持手段110が保持する所定の画像から第1特徴量抽出手段120により抽出された第1特徴量との距離をそれぞれ算出する。
次いで、類似組生成手段140は、算出された距離が短い順に1つ以上の任意の数の画像を選択する。類似組生成手段140は、所定の画像と、選択された各画像とを含む組を画像の類似組として生成してもよい。
また、類似組生成手段140は、類似度判定手段130で得られた、表示されている対象物体が属するカテゴリ間の類似度に基づいてカテゴリの類似組を生成する。類似組生成手段140は、例えば、上記のいずれかのカテゴリ間類似度判定方法に基づいてカテゴリ間の類似度を判定する。
次いで、類似組生成手段140は、判定されたカテゴリ間の類似度に基づいてカテゴリの類似組を生成する。なお、カテゴリの類似組は、以下の方法で生成されてもよい。
<カテゴリの類似組の生成方法>
類似組生成手段140は、全M 種類のカテゴリ間の類似度を表すM ×M の行列D に対して、非特許文献3に記載されているスペクトラルクラスタリングを適用することによって、M 種類のカテゴリをK 個の組に分ける(K はクラスタ数)。
類似組生成手段140は、分けられた組に含まれるカテゴリ同士を類似するカテゴリとみなし、分けられた組をカテゴリの類似組として生成する。
また、類似組生成手段140は、K1,K2,・・・,Ku のようにu 個のクラスタ数を使用してクラスタリングを適用してもよい。u 個のクラスタ数が使用されると、M 種類のカテゴリが、カテゴリの類似組に階層的に分けられる。
類似組学習データ保持手段150は、学習データ保持手段110が保持する学習データと、類似度判定手段130が判定した類似度と、類似組生成手段140が生成した類似組とに基づいて、類似組学習データを保持する機能を有する。
類似組学習データは、例えば、類似組生成手段140が生成した類似組に基づいた、学習データ保持手段110が保持する学習データの組である。また、類似組学習データには、類似度判定手段130が判定した類似度が含まれてもよい。
また、類似組学習データは、類似組生成手段140が生成したカテゴリの類似組に基づいた、学習データ保持手段110が保持する画像と、正解カテゴリを示すラベルと、正解カテゴリに類似するカテゴリを示すラベルとを含む組でもよい。なお、正解カテゴリは、画像に表示されている対象物体が属するカテゴリである。
第2特徴量学習手段160は、類似組学習データ保持手段150が保持する類似組学習データに基づいて、第2特徴量を学習する機能を有する。第2特徴量は、類似する各画像または類似する各カテゴリを高い精度で認識するために求められる特徴量である。
第2特徴量は、例えば多層ニューラルネットワーク等の認識モデルのパラメータである。第2特徴量学習手段160は、例えば、以下の方法で第2特徴量を学習する。
<第2特徴量学習方法1>
第2特徴量学習手段160は、例えば、多層ニューラルネットワークを用いる。また、類似組学習データ保持手段150は、類似組生成手段140が生成した画像の類似組を保持しているとする。
第2特徴量学習手段160は、多層ニューラルネットワークの重みを更新する。第2特徴量学習手段160は、例えば多層ニューラルネットワークに入力された、類似組学習データ保持手段150が保持する画像の類似組に含まれ、かつ異なるカテゴリに関する画像の対から得られるそれぞれの第1特徴量間の距離が長くなるように重みを更新する。
また、第2特徴量学習手段160は、多層ニューラルネットワークに入力された、類似組学習データ保持手段150が保持する画像の類似組に含まれ、かつ同一のカテゴリに関する画像の対から得られるそれぞれの第1特徴量間の距離が短くなるように重みを更新する。
第2特徴量学習手段160は、上記のように重みを更新することによって得られる多層ニューラルネットワークが有する中間層の値を第2特徴量とする学習を行う。
<第2特徴量学習方法2>
また、第2特徴量学習手段160は、例えば、類似組学習データ保持手段150が画像ごとにカテゴリの類似組を保持する場合、以下の学習を行ってもよい。
全M カテゴリの識別を目的とした学習を行う場合、非特許文献1に記載されている多層ニューラルネットワークに対して、第2特徴量学習手段160は、表示されている対象物体がカテゴリCiに属する画像x を入力する。画像x を入力することによって、第2特徴量学習手段160は、各カテゴリに対するスコアy(x)=[y1(x),y2(x),・・・,yM(x)] をそれぞれ得る。
次いで、第2特徴量学習手段160は、重みw=[sCi(C1),sCi(C2), ・・・,sCi(CM)] を用いて、以下のようにyw(x) を求める。
yw(x) = y(x) * w ・・・式(3)
なお、式(3)における「* 」は、要素ごとの積を意味する。また、sCi(Cj) は、カテゴリCiに対するカテゴリCjの類似具合を示すスカラー値である。例えば、sCi(Cj) は、以下のように表記される。
Figure 0006958719
すなわち、sCi(Cj) は、カテゴリ間の類似度を表す。
第2特徴量学習手段160は、yw(x) を用いてsoftmax cross entropy 損失を求め、損失が小さくなるようにパラメータを更新することによって、多層ニューラルネットワークのパラメータを学習する。
また、第2特徴量学習手段160は、y(x)およびw を用いて、以下のようにweighted_softmaxを求める。
weighted_softmax(y(x)) = w * exp(y(x)) ・・・式(5)
さらに、第2特徴量学習手段160は、画像x の表示されている対象物体が属するカテゴリCjに対応するi 番目の要素が1 で、i 番目の要素以外の要素が0 となるようなラベルベクトルをt として、以下のLossを計算する。
Figure 0006958719
第2特徴量学習手段160は、式(6)で計算される損失Lossに基づいてパラメータを更新することによってパラメータを学習してもよい。また、カテゴリの類似組の生成時にu 個の階層的な類似組が生成されていた場合、多層ニューラルネットワークに対して、第2特徴量学習手段160は、それぞれの階層に対応するu 個の多層ニューラルネットワークのパラメータを学習してもよい。
<第2特徴量学習方法3>
また、第2特徴量学習手段160は、例えば、以下のような学習を行ってもよい。
まず、第2特徴量学習手段160は、同一の類似組学習データに含まれる学習データ、または同一の類似組学習データに含まれるカテゴリに属する学習データからZ 枚の画像x1,x2,・・・,xz およびZ 個のラベルベクトルl1,l2,・・・,lz を選択する。
次に、第2特徴量学習手段160は、比率r1,r2,・・・,rz を用いて、画像とラベルベクトルを以下のように新たに生成する。
Figure 0006958719
なお、使用される比率はランダムに選択されてもよい。第2特徴量学習手段160は、画像とラベルベクトルの生成を複数回行う。第2特徴量学習手段160は、生成された画像とラベルベクトルを含む新たな学習データを学習時の入力データとラベルデータとして用いることによって、多層ニューラルネットワークのパラメータを学習してもよい。
次に、本実施形態の画像解析装置100が学習した第2特徴量を用いて対象物体を識別する装置を図3に示す。図3は、対象識別装置300の構成例を示すブロック図である。図3に示す対象識別装置300は、本実施形態の画像解析装置100が学習した第2特徴量を用いて対象物体を識別する。
図3に示す対象識別装置300は、取得手段310と、第1特徴量抽出手段320と、第2特徴量抽出手段330と、統合判定手段340とを備えている。
取得手段310は、対象物体を示す認識対象の画像情報または音情報を取得する機能を有する。取得手段310は、RGBカメラ、デプスカメラ、赤外線カメラ、またはマイクロフォン等のセンサから、認識対象の情報を取得する。取得手段310は、取得された認識対象の情報を第1特徴量抽出手段320に入力する。
また、取得手段310は、学習された第2特徴量を画像解析装置100から取得する機能を有する。取得手段310は、取得された第2特徴量を第2特徴量抽出手段330に入力する。
第1特徴量抽出手段320は、本実施形態の第1特徴量抽出手段120と同様の機能を有する。すなわち、第1特徴量抽出手段320は、取得手段310により取得された認識対象の情報から第1特徴量を抽出する。第1特徴量抽出手段320は、抽出された第1特徴量を統合判定手段340に入力する。
第2特徴量抽出手段330は、入力された第2特徴量を用いて認識モデル(例えば、識別器)を生成する機能を有する。第2特徴量抽出手段330は、生成された認識モデルを統合判定手段340に入力する。
統合判定手段340は、入力された第1特徴量と認識モデルとに基づいて、認識対象の情報に対して認識を行う機能を有する。
統合判定手段340は、例えば第2特徴量に基づいて予め生成された識別器から、対象物体が各カテゴリに属する確率をそれぞれ得る。次いで、統合判定手段340は、識別器から得られた確率に基づいて、対象物体の認識を行う。
また、第2特徴量抽出手段330は、特徴量A(例えば、[aaaa])と特徴量B(例えば、[bbbb])とが結合された第2特徴量(例えば、[aaaabbbb])を用いて予め識別器を生成する。統合判定手段340は、生成された識別器を用いて、対象物体の認識を行ってもよい。認識を行った後、統合判定手段340は、認識結果を出力する。
[動作の説明]
以下、本実施形態の画像解析装置100の特徴量を学習する動作を図4を参照して説明する。図4は、第1の実施形態の画像解析装置100による特徴量学習処理の動作を示すフローチャートである。
第1特徴量抽出手段120は、学習データ保持手段110が保持する学習データから第1特徴量を抽出する(ステップS101)。第1特徴量抽出手段120は、抽出された第1特徴量を類似度判定手段130に入力する。
次いで、類似度判定手段130は、カテゴリ間の類似度を判定するか否かを判断する(ステップS102)。カテゴリ間の類似度を判定する場合(ステップS102におけるYes )、類似度判定手段130は、入力された第1特徴量に基づいて、予め学習された識別器を用いて各学習データを識別する(ステップS103)。
次いで、類似度判定手段130は、ステップS103で得られた各学習データの識別結果に基づいて、各学習データに含まれるカテゴリ間の類似度を判定する(ステップS104)。なお、各学習データの識別結果は、識別器が出力する。類似度判定手段130は、判定された類似度を類似組生成手段140に入力する。
次いで、類似組生成手段140は、入力されたカテゴリ間の類似度に基づいて、類似度が高いカテゴリ同士を1つの組にまとめることによって、カテゴリの類似組を生成する(ステップS105)。カテゴリの類似組を生成した後、画像解析装置100は、ステップS108の処理を行う。
カテゴリ間の類似度を判定しない場合(ステップS102におけるNo)、類似度判定手段130は、各学習データ(例えば、画像)間の類似度を判定する方法を選択する。
類似度判定手段130は、ステップS101で取得された第1特徴量間の距離に基づいて、学習データ保持手段110が保持する学習データ間の類似度を判定する(ステップS106)。類似度判定手段130は、判定された学習データ間の類似度を類似組生成手段140に入力する。
次いで、類似組生成手段140は、入力された学習データ間の類似度に基づいて、類似度が高い学習データ同士を1つの組にまとめることによって、学習データの類似組を生成する(ステップS107)。学習データの類似組を生成した後、画像解析装置100は、ステップS108の処理を行う。
次いで、類似組学習データ保持手段150は、学習データ保持手段110が保持する学習データと、ステップS105またはステップS107で得られた類似組の情報に基づいて、類似組学習データを生成する(ステップS108)。類似組学習データ保持手段150は、生成された類似組学習データを保持する。
次いで、第2特徴量学習手段160は、類似組学習データ保持手段150が保持する類似組学習データに基づいて、第2特徴量を学習する(ステップS109)。第2特徴量を学習した後、画像解析装置100は、特徴量学習処理を終了する。
[効果の説明]
本実施形態の画像解析装置100は、学習データを保持する学習データ保持手段110と、学習データから第1特徴量を抽出する第1特徴量抽出手段120と、抽出された第1特徴量に基づいて誤認識されやすい複数のデータの類似度を判定する類似度判定手段130とを備える。
また、本実施形態の画像解析装置100は、類似度判定手段130が判定した類似度に基づいて類似組を生成する類似組生成手段140と、学習データと類似組とに基づいて生成される類似組学習データを保持する類似組学習データ保持手段150とを備える。また、本実施形態の画像解析装置100は、類似組学習データに基づいて、第2特徴量を学習する第2特徴量学習手段160を備える。
本実施形態の画像解析装置100の類似組生成手段140は、類似性が高く誤認識されやすい画像の組およびカテゴリの組を生成するため、類似する各画像または類似する各カテゴリを高い精度で認識するために求められる特徴量を学習できる。
実施形態2.
[構成の説明]
次に、本発明の第2の実施形態を、図面を参照して説明する。図5は、本発明による画像解析装置の第2の実施形態の構成例を示す説明図である。図5に示す画像解析装置200は、特徴量学習技術を提供する装置である。
なお、図5は、第2の実施形態の画像解析装置の構成の理解を容易にすることを目的とする図である。第2の実施形態の画像解析装置の構成は、図5に示す構成に限定されない。
図5に示す画像解析装置200は、学習データ保持手段210と、第1特徴量抽出手段220と、類似度判定手段230と、類似組生成手段240と、類似組学習データ保持手段250と、第2特徴量学習手段260と、注目領域特定手段270とを備えている。
学習データ保持手段210、第1特徴量抽出手段220、類似度判定手段230、類似組生成手段240、および類似組学習データ保持手段250が有する各機能は、第1の実施形態の学習データ保持手段110、第1特徴量抽出手段120、類似度判定手段130、類似組生成手段140、および類似組学習データ保持手段150が有する各機能とそれぞれ同様である。
注目領域特定手段270は、識別器が各画像に表示されている対象物体が属する各カテゴリを識別するために重視する画像内の領域である注目領域を特定する機能を有する。注目領域特定手段270は、学習データ保持手段210が保持する画像に対して第1特徴量抽出手段220により抽出された第1特徴量に基づいた識別が行われる際に、注目領域を特定する。
図6は、第2の実施形態の注目領域特定手段270が特定する注目領域の例を示す説明図である。図6における上段には、人間、犬、花の各サンプル画像が示されている。すなわち、図6に示す例では、注目領域特定手段270は、人間、犬、花の3カテゴリを識別先の対象とする。
また、図6に示す識別対象画像には、人間が表示されている。図6における下段の2列目に示すように、注目領域特定手段270は、識別対象画像に人間が表示されていると認識されるための注目領域を、顔、手、足に特定する。なお、図6に示す白色の円が、注目領域を表す。また、注目領域は、顔、手、足以外の部位に特定されてもよい。
また、注目領域特定手段270は、図6における下段の3列目に示すように、人間が表示されている識別対象画像に犬が表示されていると認識されるための注目領域を、顔に特定する。その理由は、人間の顔と犬の顔が両者の中で比較的類似する部位であるためである。よって、注目領域は、顔以外の犬と類似する部位に特定されてもよい。
また、注目領域特定手段270は、図6における下段の4列目に示すように、人間が表示されている識別対象画像に花が表示されていると認識されるための注目領域を、服の中の花柄の部分に特定する。また、注目領域は、花柄の部分以外の部分に特定されてもよい。注目領域特定手段270は、特定されたカテゴリごとの注目領域を示す情報を保持する。
注目領域を特定するために、注目領域特定手段270は、例えば特徴点マッチングによる識別において、各カテゴリとマッチングが成功した特徴点の周辺のみを抽出する。
また、多層ニューラルネットワークが識別器として使用される場合、注目領域特定手段270は、識別器が重視する領域を判定する手法に、例えば非特許文献4に記載されている手法を用いる。非特許文献4に記載されている手法が用いられると、多層ニューラルネットワークは、各カテゴリの出力に寄与している画像の位置を識別時に特定できる。
第2特徴量学習手段260は、類似組学習データ保持手段250と注目領域特定手段270とを用いて第2特徴量を学習する機能を有する。例えば、第2特徴量学習手段260は、類似組学習データ保持手段250が保持するカテゴリの類似組と、注目領域特定手段270が有するカテゴリごとの注目領域を示す情報とに基づいて、第2特徴量を学習できる。
具体的には、第2特徴量学習手段260は、カテゴリの類似組に含まれる各カテゴリの注目領域から、類似組に含まれる各カテゴリで共通する注目領域を除外した上で学習を行う。
図7は、第2の実施形態の第2特徴量学習手段260による注目領域が用いられた学習の例を示す説明図である。図7に示す例でも、第2特徴量学習手段260は、人間、犬、花の3カテゴリを識別先の対象とする。
類似組生成手段240が、予め人間と犬の2カテゴリが属する類似組を生成したとする。図7に示す人間が表示されている識別対象画像に対して、第2特徴量学習手段260は、識別対象画像に人間が表示されていると認識されるための注目領域と、犬が表示されていると認識されるための注目領域のうち、重複している領域であるAND 領域を得る。
図7に示す例であれば、得られるAND 領域は、例えば人間と犬の中で比較的類似している部位である顔の領域である。AND 領域を得た後、第2特徴量学習手段260は、図7に示す加工後識別対象画像のように、AND 領域を所定の模様で塗り潰す。所定の模様で塗り潰すことによって、第2特徴量学習手段260は、AND 領域を学習の対象から除外する。
または、第2特徴量学習手段260は、AND 領域を所定の模様で塗り潰す代わりにAND 領域から得られる第2特徴量を強制的に0にする。または、第2特徴量学習手段260は、AND 領域から得られる注目度の大きさに応じた確率を0にする。
以上の処理を実行した後、第2特徴量学習手段260は、加工後識別対象画像における他の領域(例えば、体の部分)を用いて、第1の実施形態と同様に学習を行う。AND 領域が学習の対象から除外されているため、第2特徴量学習手段260は、表示されている対象物体が属するカテゴリがより高精度に識別されるために求められる第2特徴量を学習できる。
また、本実施形態で学習された第2特徴量も、図3に示す対象識別装置300で使用されてよい。対象識別装置300は、第1の実施形態における識別方法と同様の方法で対象物体を識別できる。
[動作の説明]
以下、本実施形態の画像解析装置200の特徴量を学習する動作を図8を参照して説明する。図8は、第2の実施形態の画像解析装置200による特徴量学習処理の動作を示すフローチャートである。
第1特徴量抽出手段220は、学習データ保持手段210が保持する学習データから第1特徴量を抽出する(ステップS201)。第1特徴量抽出手段220は、抽出された第1特徴量を類似度判定手段230に入力する。
次いで、類似度判定手段230は、入力された第1特徴量に基づいて、予め学習された識別器を用いて各学習データを識別する(ステップS202)。
次いで、類似度判定手段230は、ステップS202で得られた各学習データの識別結果に基づいて、各学習データに含まれるカテゴリ間の類似度を判定する(ステップS203)。なお、各学習データの識別結果は、識別器が出力する。類似度判定手段230は、判定された類似度を類似組生成手段240に入力する。
次いで、類似組生成手段240は、入力されたカテゴリ間の類似度に基づいて、類似度が高いカテゴリ同士を1つの組にまとめることによって、カテゴリの類似組を生成する(ステップS204)。
次いで、注目領域特定手段270は、識別器が識別時に重視する領域である注目領域を、各学習データに含まれるカテゴリごとに特定する(ステップS205)。注目領域特定手段270は、特定されたカテゴリごとの注目領域を示す情報を保持する。
次いで、類似組学習データ保持手段250は、学習データ保持手段210が保持する学習データと、ステップS204で類似組生成手段240が生成した類似組の情報に基づいて、類似組学習データを生成する(ステップS206)。類似組学習データ保持手段250は、生成された類似組学習データを保持する。
次いで、第2特徴量学習手段260は、類似組学習データ保持手段250が保持する類似組学習データと、注目領域特定手段270が保持する注目領域を示す情報とに基づいて、第2特徴量を学習する(ステップS207)。第2特徴量を学習した後、画像解析装置200は、特徴量学習処理を終了する。
[効果の説明]
本実施形態の画像解析装置200の注目領域特定手段270は、類似するカテゴリに表示されている対象物体がそれぞれ属する各画像における注目領域を特定する。次いで、第2特徴量学習手段260がカテゴリ間で共通の注目領域を除外することによって、より違いの大きい部分が優先して学習される。すなわち、本実施形態の画像解析装置200は、類似するカテゴリにそれぞれ属する画像に表示されている対象物体の認識に有効な特徴量を学習できる。
以下、各実施形態の画像解析装置100、および画像解析装置200のハードウェア構成の具体例を説明する。図9は、本発明による画像解析装置のハードウェア構成例を示す説明図である。
図9に示す画像解析装置は、CPU(Central Processing Unit)101と、主記憶部102と、通信部103と、補助記憶部104とを備える。また、ユーザが操作するための入力部105や、ユーザに処理結果または処理内容の経過を提示するための出力部106を備えてもよい。
主記憶部102は、データの作業領域やデータの一時退避領域として用いられる。主記憶部102は、例えばRAM(Random Access Memory)である。
通信部103は、有線のネットワークまたは無線のネットワーク(情報通信ネットワーク)を介して、周辺機器との間でデータを入力および出力する機能を有する。
補助記憶部104は、一時的でない有形の記憶媒体である。一時的でない有形の記憶媒体として、例えば磁気ディスク、光磁気ディスク、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、半導体メモリが挙げられる。
入力部105は、データや処理命令を入力する機能を有する。入力部105は、例えばキーボードやマウス等の入力デバイスである。
出力部106は、データを出力する機能を有する。出力部106は、例えば液晶ディスプレイ装置等の表示装置、またはプリンタ等の印刷装置である。
また、図9に示すように、画像解析装置において、各構成要素は、システムバス107に接続されている。
補助記憶部104は、例えば、第1特徴量抽出手段120、類似度判定手段130、類似組生成手段140、第2特徴量学習手段160、第1特徴量抽出手段220、類似度判定手段230、類似組生成手段240、第2特徴量学習手段260、および注目領域特定手段270を実現するためのプログラムを記憶している。
また、主記憶部102は、例えば、学習データ保持手段110、類似組学習データ保持手段150、学習データ保持手段210、および類似組学習データ保持手段250の記憶領域として利用される。
なお、画像解析装置100、および画像解析装置200は、ハードウェアにより実現されてもよい。例えば、画像解析装置100は、内部に図1に示すような機能、または図5に示すような機能を実現するプログラムが組み込まれたLSI(Large Scale Integration)等のハードウェア部品が含まれる回路が実装されてもよい。
また、画像解析装置100、および画像解析装置200は、図9に示すCPU101が図1に示す各構成要素が有する機能、または図5に示す各構成要素が有する機能を提供するプログラムを実行することによって、ソフトウェアにより実現されてもよい。
ソフトウェアにより実現される場合、CPU101が補助記憶部104に格納されているプログラムを、主記憶部102にロードして実行し、画像解析装置100、または画像解析装置200の動作を制御することによって、各機能がソフトウェアにより実現される。
また、図3に示す対象識別装置300は、ハードウェアにより実現されてもよい。また、対象識別装置300は、図9に示すCPU101が図3に示す各構成要素が有する機能を提供するプログラムを実行することによって、ソフトウェアにより実現されてもよい。
また、各構成要素の一部または全部は、汎用の回路(circuitry)または専用の回路、プロセッサ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各構成要素の一部または全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
各構成要素の一部または全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
次に、本発明の概要を説明する。図10は、本発明による画像解析装置の概要を示すブロック図である。本発明による画像解析装置10は、画像と画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成する生成部11(例えば、類似組生成手段240、および類似組学習データ保持手段250)と、生成された類似組を用いて所定の認識モデルが生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な所定の認識モデルのパラメータ(例えば、第2特徴量)を学習する学習部12(例えば、第2特徴量学習手段260)とを備える。
そのような構成により、画像解析装置は、画像に表示されている認識対象の物体を高い精度でより容易に認識できる。
また、画像解析装置10は、学習データに含まれる画像内の認識に使用される領域を認識領域として特定する特定部(例えば、注目領域特定手段270)を備え、学習部12は、生成された類似組に含まれる各画像内の特定された認識領域を用いて学習してもよい。
そのような構成により、画像解析装置は、画像に表示されている認識対象の物体をより高い精度で認識できる。
また、学習部12は、生成された類似組に含まれる各画像内の特定された認識領域のうち画像間で重複する認識領域を除いて所定の認識モデルのパラメータを学習してもよい。
そのような構成により、画像解析装置は、画像に表示されている認識対象の物体をより高い精度で認識できる。
また、画像解析装置10は、複数の学習データの類似度を判定する判定部(例えば、類似度判定手段130、または類似度判定手段230)を備え、生成部11は、判定された類似度に基づいて類似組を生成してもよい。
そのような構成により、画像解析装置は、類似度が指定された値よりも高い複数の学習データを入力として学習を実行できる。
また、画像解析装置10は、学習データに含まれる画像の特徴量を抽出する抽出部(例えば、第1特徴量抽出手段120、または第1特徴量抽出手段220)を備え、判定部は、複数の学習データからそれぞれ抽出された特徴量間の距離に基づいて複数の学習データの類似度を判定してもよい。
そのような構成により、画像解析装置は、画像の特徴量に基づいて複数の学習データの類似度を判定できる。
また、学習データは、学習データに含まれる画像に表示されている認識対象の物体が属するカテゴリを示す情報を含み、判定部は、複数の学習データからそれぞれ抽出された特徴量に基づいて複数の学習データがそれぞれ示す認識対象の物体がそれぞれ属する複数のカテゴリの類似度を判定してもよい。
そのような構成により、画像解析装置は、認識対象の各物体がそれぞれ属するカテゴリが類似する複数の学習データを入力として学習を実行できる。
また、生成部11は、各画像に表示されている認識対象の物体が属するカテゴリが類似する学習データ同士の組を類似組として生成し、学習部12は、所定の認識モデルが生成された類似組に含まれる各認識対象の物体がそれぞれ属するカテゴリをそれぞれ認識可能な所定の認識モデルのパラメータを学習してもよい。
そのような構成により、画像解析装置は、類似する画像に表示されている認識対象の各物体がそれぞれ属するカテゴリを高い精度で認識できる。
また、学習部12は、学習時に類似するカテゴリ間のみの誤りに対する損失を強調するように重みづけを行ってもよい。また、判定部は、カテゴリ識別における各カテゴリらしさの積算値に基づいて複数のカテゴリの類似度を判定してもよい。
また、画像解析装置10は、学習データを保持する学習データ保持部(例えば、学習データ保持手段110、または学習データ保持手段210)を備えてもよい。また、画像解析装置10は、学習データ保持部が保持する学習データと、生成部11が生成する類似組に基づいて生成される、類似組を示す情報を有する学習データを保持する類似組学習データ保持部(例えば、類似組学習データ保持手段150、または類似組学習データ保持手段250)を備えてもよい。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10、100、200 画像解析装置
11 生成部
12 学習部
101 CPU
102 主記憶部
103 通信部
104 補助記憶部
105 入力部
106 出力部
107 システムバス
110、210 学習データ保持手段
120、220、320 第1特徴量抽出手段
130、230 類似度判定手段
140、240 類似組生成手段
150、250 類似組学習データ保持手段
160、260 第2特徴量学習手段
270 注目領域特定手段
300 対象識別装置
310 取得手段
330 第2特徴量抽出手段
340 統合判定手段

Claims (9)

  1. 画像と前記画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成する生成部と、
    生成された類似組を用いて所定の認識モデルが前記生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な前記所定の認識モデルのパラメータを学習する学習部とを備える
    ことを特徴とする画像解析装置。
  2. 学習データに含まれる画像内の認識に使用される領域を認識領域として特定する特定部を備え、
    学習部は、生成された類似組に含まれる各画像内の特定された認識領域を用いて学習する
    請求項1記載の画像解析装置。
  3. 学習部は、生成された類似組に含まれる各画像内の特定された認識領域のうち画像間で重複する認識領域を除いて所定の認識モデルのパラメータを学習する
    請求項2記載の画像解析装置。
  4. 複数の学習データの類似度を判定する判定部を備え、
    生成部は、判定された類似度に基づいて類似組を生成する
    請求項1から請求項3のうちのいずれか1項に記載の画像解析装置。
  5. 学習データに含まれる画像の特徴量を抽出する抽出部を備え、
    判定部は、複数の学習データからそれぞれ抽出された特徴量間の距離に基づいて前記複数の学習データの類似度を判定する
    請求項4記載の画像解析装置。
  6. 学習データは、前記学習データに含まれる画像に表示されている認識対象の物体が属するカテゴリを示す情報を含み、
    判定部は、複数の学習データからそれぞれ抽出された特徴量に基づいて前記複数の学習データがそれぞれ示す認識対象の物体がそれぞれ属する複数のカテゴリの類似度を判定する
    請求項4記載の画像解析装置。
  7. 生成部は、各画像に表示されている認識対象の物体が属するカテゴリが類似する学習データ同士の組を類似組として生成し、
    学習部は、所定の認識モデルが生成された類似組に含まれる各認識対象の物体がそれぞれ属するカテゴリをそれぞれ認識可能な前記所定の認識モデルのパラメータを学習する
    請求項6記載の画像解析装置。
  8. 画像と前記画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成し、
    生成された類似組を用いて所定の認識モデルが前記生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な前記所定の認識モデルのパラメータを学習する
    ことを特徴とする画像解析方法。
  9. コンピュータに、
    画像と前記画像に表示されている認識対象の物体を示す情報とを含む複数の学習データのうち類似する学習データ同士の組である類似組を生成する生成処理、および
    生成された類似組を用いて所定の認識モデルが前記生成された類似組に含まれる各画像に表示されている認識対象の物体をそれぞれ認識可能な前記所定の認識モデルのパラメータを学習する学習処理
    を実行させるための画像解析プログラム。
JP2020504502A 2018-03-05 2018-03-05 画像解析装置、画像解析方法および画像解析プログラム Active JP6958719B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/008405 WO2019171440A1 (ja) 2018-03-05 2018-03-05 画像解析装置、画像解析方法および画像解析プログラム

Publications (2)

Publication Number Publication Date
JPWO2019171440A1 JPWO2019171440A1 (ja) 2021-02-04
JP6958719B2 true JP6958719B2 (ja) 2021-11-02

Family

ID=67846530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504502A Active JP6958719B2 (ja) 2018-03-05 2018-03-05 画像解析装置、画像解析方法および画像解析プログラム

Country Status (3)

Country Link
US (1) US11507780B2 (ja)
JP (1) JP6958719B2 (ja)
WO (1) WO2019171440A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020003708T5 (de) * 2019-08-06 2022-06-09 Sony Group Corporation Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
JP7372076B2 (ja) * 2019-08-07 2023-10-31 ファナック株式会社 画像処理システム
JP6899986B1 (ja) * 2020-04-28 2021-07-07 楽天グループ株式会社 オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5018404B2 (ja) 2007-11-01 2012-09-05 ソニー株式会社 画像識別装置および画像識別方法、並びに、プログラム
US8116548B2 (en) * 2008-06-04 2012-02-14 Siemens Aktiengesellschaft Method and system for detecting 3D anatomical structures using constrained marginal space learning
JP5671928B2 (ja) * 2010-10-12 2015-02-18 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、およびプログラム
JP5593352B2 (ja) * 2012-07-10 2014-09-24 ヤフー株式会社 情報提供装置、情報提供方法および情報提供プログラム
US9158996B2 (en) * 2013-09-12 2015-10-13 Kabushiki Kaisha Toshiba Learning image collection apparatus, learning apparatus, and target object detection apparatus
JP6544900B2 (ja) * 2014-09-17 2019-07-17 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
US10346726B2 (en) * 2014-12-15 2019-07-09 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
JP6614611B2 (ja) * 2016-02-29 2019-12-04 Kddi株式会社 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
WO2019092782A1 (ja) * 2017-11-07 2019-05-16 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11367222B2 (en) * 2018-04-20 2022-06-21 Hewlett-Packard Development Company, L.P. Three-dimensional shape classification and retrieval using convolutional neural networks and majority vote
US20220044949A1 (en) * 2020-08-06 2022-02-10 Carl Zeiss Smt Gmbh Interactive and iterative training of a classification algorithm for classifying anomalies in imaging datasets

Also Published As

Publication number Publication date
US20200394460A1 (en) 2020-12-17
US11507780B2 (en) 2022-11-22
JPWO2019171440A1 (ja) 2021-02-04
WO2019171440A1 (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
CN108549870B (zh) 一种对物品陈列进行鉴别的方法及装置
Mansanet et al. Local deep neural networks for gender recognition
CN105354307B (zh) 一种图像内容识别方法及装置
Singh et al. A study of moment based features on handwritten digit recognition
JP4721830B2 (ja) 画像検索方法及び装置
JP6958719B2 (ja) 画像解析装置、画像解析方法および画像解析プログラム
CN109961093B (zh) 一种基于众智集成学习的图像分类方法
JP2006323507A (ja) 属性識別システムおよび属性識別方法
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN103745233B (zh) 基于空间信息迁移的高光谱图像分类方法
JP2011154501A (ja) 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
CN109886295A (zh) 一种基于神经网络的蝴蝶识别方法及相关设备
CN104050460B (zh) 多特征融合的行人检测方法
Topçu et al. Decision fusion for patch-based face recognition
JP2018206252A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
CN109145770B (zh) 一种基于多尺度特征融合网络与定位模型相结合的麦蜘蛛自动计数方法
Ko et al. SVM-based salient region (s) extraction method for image retrieval
JP2011154500A (ja) 学習装置、学習方法、識別装置、識別方法、及びプログラム
JP2006260311A (ja) マッチング方法およびマッチング装置ならびにプログラム
CN111797704A (zh) 一种基于相关物体感知的动作识别方法
CN109558883B (zh) 叶片特征提取方法及装置
Kumar et al. Predictive analytics on gender classification using machine learning
US11663816B2 (en) Apparatus and method for classifying attribute of image object
JP7341962B2 (ja) 学習データ収集装置、学習装置、学習データ収集方法およびプログラム
Shi et al. Deep Visual City Recognition Visualization.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210920

R150 Certificate of patent or registration of utility model

Ref document number: 6958719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150