JP6954004B2 - 畳み込みニューラルネットワークモデルの決定装置及び決定方法 - Google Patents

畳み込みニューラルネットワークモデルの決定装置及び決定方法 Download PDF

Info

Publication number
JP6954004B2
JP6954004B2 JP2017209284A JP2017209284A JP6954004B2 JP 6954004 B2 JP6954004 B2 JP 6954004B2 JP 2017209284 A JP2017209284 A JP 2017209284A JP 2017209284 A JP2017209284 A JP 2017209284A JP 6954004 B2 JP6954004 B2 JP 6954004B2
Authority
JP
Japan
Prior art keywords
cnn model
database
candidate
cnn
classification ability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017209284A
Other languages
English (en)
Other versions
JP2018092615A (ja
Inventor
スヌ・リ
淞 王
淞 王
ファヌ・ウエイ
俊 孫
俊 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2018092615A publication Critical patent/JP2018092615A/ja
Application granted granted Critical
Publication of JP6954004B2 publication Critical patent/JP6954004B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の実施例は、機械学習の分野に関し、具体的に畳み込みニューラルネットワーク(CNN)モデルの決定装置及び決定方法に関する。
この部分は、本発明に関連する背景情報を提供するが、必ずしも従来技術ではない。
深層学習(deep learning)技術は、既にコンピュータビジョンの分野で広く適用されている。深層学習技術の1つとして、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)は、画像分類の正確性を大幅に改善し、画像分類タスクに質的変化をもたらした。任意のデータベースについて適切なCNNモデルを設計でき、該CNNモデルはデータベースにおけるサンプルを訓練するために用いられることができるため、データベースにおけるサンプルのラベル間の関連性を取得できる。ここで、データベースにおけるサンプルは画像であってもよい。
しかし、CNNモデルの設計及び調整のために、専門的な背景が必要であり、普通の人にとって容易ではない。また、従来のCNNモデルの設計及び調整は、エンジニアの専門的な技能に密接に関連し、通常は最適なモデルを得るために大量の実験が必要である。
本発明は、普通のユーザでもCNNモデルを容易に設計、調整できるようにCNNモデルの設計プロセスを簡易化できると共に、異なるデータベースに応じて該データベースにより合致したCNNモデルを決定できるものが望ましい。
この部分は、本発明の一般的な概要を提供し、その全範囲又はその全ての特徴を完全に開示するものではない。
本発明は、普通のユーザでもCNNモデルを容易に設計、調整できるようにCNNモデルの設計プロセスを簡易化できると共に、異なるデータベースに応じて該データベースにより合致したCNNモデルを決定できる、CNNモデルの決定装置及び決定方法を提供することを目的とする。
本発明の1つの態様では、畳み込みニューラルネットワーク(CNN)モデルの決定装置であって、複数のサンプルを含むデータベースの複雑度を決定する第1決定手段と、前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定する第2決定手段と、複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得する第3決定手段と、前記各候補CNNモデルの分類能力及び前記データベースに適するCNNモデルの分類能力に基づいて、前記データベースに適するCNNモデルを決定するマッチング手段と、を含む、装置を提供する。
本発明のもう1つの態様では、畳み込みニューラルネットワーク(CNN)モデルの決定方法であって、複数のサンプルを含むデータベースの複雑度を決定するステップと、前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定するステップと、複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得するステップと、前記各候補CNNモデルの分類能力及び前記データベースに適するCNNモデルの分類能力に基づいて、前記データベースに適するCNNモデルを決定するステップと、を含む、方法を提供する。
本発明のもう1つの態様では、機器が読み取り可能な命令コードを含むプログラムプロダクトであって、前記命令コードがコンピュータにより読み取られ、実行される際に、前記コンピュータに、本発明の畳み込みニューラルネットワーク(CNN)モデルの決定方法を実行させることができる、プログラムプロダクトを提供する。
本発明のもう1つの態様では、機器が読み取り可能な命令コードを含むプログラムプロダクトを記憶する機器読み取り可能な記憶媒体であって、前記命令コードがコンピュータにより読み取られ、実行される際に、前記コンピュータに、本発明の畳み込みニューラルネットワーク(CNN)モデルの決定方法を実行させることができる、記憶媒体を提供する。
本発明の畳み込みニューラルネットワーク(CNN)モデルの決定装置及び方法は、データベースの複雑度に基づいて該データベースに適するCNNモデルの分類能力を決定し、候補CNNモデルから適切なCNNモデルを選択する。これによって、決定されたCNNモデルがデータベースにより合致するように、該データベースの複雑度に基づいて適切なCNNモデルを決定できる。さらに、普通のユーザでもデータベースに適するCNNモデルを設計できるようにCNNモデルの設計プロセスを簡易化できる。
この部分における説明及び特定の例は、単なる例示するためのものであり、本発明の範囲を限定するものではない。
ここで説明される図面は、好ましい実施例を例示するためのものであり、全ての可能な実施例ではなく、本発明の範囲を限定するものではない。
本発明の実施例に係るCNNモデルの決定装置の構成を示すブロック図である。 本発明の実施例に係るCNNモデルの構成を示す図である。 本発明のもう1つの実施例に係るCNNモデルの決定装置の構成を示すブロック図である。 本発明の実施例に係るCNNモデルの決定方法を示すフローチャートである。 本発明に係るCNNモデルの決定方法を実施するための汎用パーソナルコンピュータの例示的な構成を示すブロック図である。 本発明の上記及び他の利点及び特徴を説明するために、以下は、図面を参照しながら本発明の具体的な実施形態をさらに詳細に説明する。該図面及び下記の詳細な説明は本明細書に含まれ、本明細書の一部を形成するものである。同一の機能及び構成を有するユニットは、同一の符号で示されている。なお、これらの図面は、本発明の典型的な例を説明するためのものであり、本発明の範囲を限定するものではない。
以下は、図面を参照しながら本発明の例示的な実施例を詳細に説明する。以下の説明は単なる例示的なものであり、本発明、応用及び用途を限定するものではない。
説明の便宜上、明細書には実際の実施形態の全ての特徴が示されていない。なお、実際に実施する際に、開発者の具体的な目標を実現するために、特定の実施形態を変更してもよく、例えばシステム及び業務に関する制限条件に応じて実施形態を変更してもよい。また、開発作業が非常に複雑であり、且つ時間がかかるが、本公開の当業者にとって、この開発作業は単なる例の作業である。
図1は本発明の実施例に係るCNNモデルの決定装置100の構成を示すブロック図である。
本発明のCNNモデルの決定装置100は、決定部110、決定部120、決定部130及びマッチング部140を含む。
本発明の実施例では、決定部110は、複数のサンプルを含むデータベースの複雑度を決定してもよい。ここで、データベースは、ユーザが装置100に入力した特定のデータベースであってもよく、即ち該データベースに合致したCNNモデルを設計するのが望ましい。また、データベースにおけるサンプルはテキスト及び画像などを含んでもよい。決定部110は、データベースの複雑度を決定した後に、決定部120に該データベースの複雑度を送信してもよい。
本発明の実施例では、決定部120は、データベースの複雑度に基づいて、該データベースに適するCNNモデルの分類能力を決定してもよい。ここで、決定部120は、決定部110からデータベースの複雑度を取得し、該複雑度に基づいて該データベースに適するCNNモデルの分類能力を決定してもよい。即ち、該データベースに適するCNNモデルの分類能力は、期待されるCNNモデルの達成可能な分類能力である。また、決定部120は、決定された該データベースに適するCNNモデルの分類能力をマッチング部140に送信してもよい。
本発明の実施例では、決定部130は、複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得してもよい。ここで、複数の候補CNNモデルは、ユーザにより入力された候補モデルであってもよいし、入力されたデータベースに基づいて装置100により生成された候補モデルであってもよい。即ち、マッチング部140は、これらの候補CNNモデルから最も適切なCNNモデルを選択する。ここで、候補CNNモデルの分類能力は、該候補CNNモデルの実際に達成する分類能力である。また、決定部130は、各候補CNNモデルの分類能力をマッチング部140に送信してもよい。
本発明の実施例では、マッチング部140は、各候補CNNモデルの分類能力及びデータベースに適するCNNモデルの分類能力に基づいて、データベースに適するCNNモデルを決定してもよい。ここで、マッチング部140は、決定部120からデータベースに適するCNNモデルの分類能力を取得し、決定部130から候補CNNモデルの分類能力を決定し、候補CNNモデルから該データベースに適するCNNモデルを選択してもよい。また、マッチング部140は、選択された該データベースに適するCNNモデルを装置100から出力してもよい。
以上のことから、本発明の畳み込みニューラルネットワーク(CNN)モデルの決定装置100は、データベースの複雑度に基づいて該データベースに適するCNNモデルの分類能力を決定し、候補CNNモデルの実際の分類能力を決定し、候補CNNモデルから適切なCNNモデルを選択する。これによって、決定されたCNNモデルの分類能力が該データベースにより合致するように、該データベースの複雑度に基づいて適切なCNNモデルを決定できる。さらに、普通のユーザでもデータベースに適するCNNモデルを設計できるようにCNNモデルの設計プロセスを簡易化できる。
本発明の実施例では、決定部110によるデータベースの複雑度の算出は各種の方法を採用してもよいが、本発明はこれに限定されず、該データベースの複雑度を合理的に表すことができれば良い。例えば、データベースにおけるサンプルが画像である場合は、各サンプルの特徴表現により構成された特徴行列の分布関係、例えば特徴値又は距離メトリック等に基づいてデータベースの複雑度を決定してもよい。また、データベースでのサンプルの分類に影響を及ぼす難易度の指標を選択し、該指標に基づいてデータベースの複雑度を定量化してもよい。この方法については後で詳細に説明する。
本発明の実施例では、決定部110は、下記のパラメータを含むパラメータ群から複数のパラメータを選択し、選択された複数のパラメータに基づいてデータベースの複雑度を決定する。該パラメータ群は、データベースにおける複数のサンプルの種類の数を表す種類数、データベースにおける各種類のサンプルの平均数を表すサンプル平均数、データベースにおける各種類のサンプル数の分散度を表すサンプル分散度、データベースにおけるサンプルの画像背景の複雑度を表す背景複雑度、及びデータベースにおけるサンプルから対象を認識することの難易度を表す対象鮮明度を含む。本発明では、上記5種類の分類に影響を及ぼす難易度パラメータを列挙し、決定部110は、その中から複数のパラメータを選択し、即ち任意の2つ、3つ、4つ又は5つのパラメータを選択し、データベースの複雑度を決定してもよい。なお、分類に影響を及ぼす難易度の他のパラメータを複雑度の算出のための根拠として決定してもよい。
ここで、種類数nは、データベースにおける複数のサンプル(例えば画像)の種類の数、即ちデータベースにおけるラベルの数を表し、nは1よりも大きい整数である。
サンプル平均数mは、データベースにおける各種類のサンプルの平均数を表し、即ちm=データベースにおけるサンプル総数/nとなり、ここで、mが500以上であると設定されてもよい。
サンプル分散度bdは、データベースにおける各種類のサンプル数の分散度を表し、即ちbd=サンプル数の標準偏差/mとなり、bdは1以上である。
背景複雑度ibは、データベースにおけるサンプルの画像背景の複雑度を表し、ここで、データベースにおける全てのサンプルの背景の複雑度が類似すると仮定する。通常、画像は背景部分及び前景部分を含み、ibは背景部分の複雑度を表す。例えば、データベースにおける画像の背景が白色である場合、該データベースの背景が簡単であると判断され、データベースにおける画像の背景がカラーである場合、該データベースの背景が複雑であると判断されてもよい。ここで、異なるレベルのibの値を定義してもよく、ibは[0,9]の範囲内にあるものであってもよい。次の式はib値の定義方法の一例を示している。
Figure 0006954004
対象鮮明度cdはデータベースにおけるサンプルから対象を認識することの難易度を表し、ここで、データベースにおける全てのサンプルの対象鮮明度が類似すると仮定する。cdは対象を認識できることの難易度を表し、cdに影響を及ぼす要素は、画像の背景部分を含むことだけではなく、画像の前景部分をさらに含む。例えば、同一の背景の場合は、画像の前景部分が1つの数字であるとき、この数字を認識し易い。画像の前景部分が複数の重なる数字であるとき、この数字を認識し難い。ここで、異なるレベルのcdの値を定義してもよく、cdは[0,9]の範囲内のものであってもよい。次の式はcd値の定義方法の一例を示している。
Figure 0006954004
本発明の実施例では、決定部110は、複数のパラメータの各パラメータの重み及びスコアを決定し、複数のパラメータの各パラメータを重み付け加算してデータベースの複雑度を決定する。
例えば、5つのパラメータの全てのパラメータを選択した場合は、データベースの複雑度は次の式に従って算出されてもよい。
データベースの複雑度=nのスコア×nの重み+mのスコア×mの重み+bdのスコア×bdの重み+ibのスコア×ibの重み+cdのスコア×cdの重み
ここで、0≦n、m、bd、ib、cdの重み≦1となり、nの重み+mの重み+bdの重み+ibの重み+cdの重み=1となる。
なお、一部のパラメータのみを選択した場合は、一部のパラメータのスコアを重み付け加算してデータベースの複雑度を決定してもよい。
ここで、各パラメータの定義に従って各パラメータのスコアを設定してもよい。例えば、上記5つのパラメータのスコアを次のように定義されてもよい。
Figure 0006954004
本発明の実施例は、決定部110は、階層分析法を用いて、複数のパラメータのうち各2つのパラメータ間の相対的な重要度に基づいて比較行列を構築し、比較行列に基づいて、複数のパラメータの各パラメータの重みを決定してもよい。
上記5つのパラメータの全てのパラメータを選択した場合は、構築された比較行列A=[aij]は5×5の行列である。即ち、1≦i、j≦5となる。ここで、i=jの場合は、aij=1となり、i≠jの場合は、aijはi番目の要素のj番目の要素に対する重要度を表し、aijが大きいほど、i番目の要素のj番目の要素に対してより重要であることを表し、aij=1/ajiとなる。
本発明の実施例では、下記の方法を用いて比較行列における各要素aijを算出してもよい。i番目の要素及びj番目の要素以外の他の要素(存在する場合)がいずれも変化しないように、いくつかのサイズが異なる(即ち異なる分類能力を有する)CNNモデル、例えば5つのCNNモデルを選択し、i番目の要素が変化せず、且つj番目の要素が変化した場合にこれらのCNNモデルの第1分類精度(即ち分類結果の正確率)を算出し、j番目の要素が変化せず、且つi番目の要素が変化した場合にこれらのCNNモデルの第2分類精度を算出し、第1分類精度及び第2分類精度に基づいてaijを決定する。
本発明の実施例では、比較行列を決定した後に、比較行列の最大特徴値を正規化し、各パラメータの重みを決定する。
上述したように、決定部110は、各パラメータのスコア及び重みを決定した後に、データベースの複雑度を算出してもよい。以上はデータベースの複雑度の算出の一例のみを説明し、当業者は他の方法を用いてデータベースの複雑度を算出してもよい。
本発明の実施例では、データベースが複雑になるほど、データベースに必要なCNNモデルの分類能力がより強くなる。即ち、データベースに適するCNNモデルの分類能力はデータベースの複雑度に比例する。このため、本発明の実施例では、決定部120は、データベースの複雑度により示される該データベースの複雑さが高くなるほど該データベースに適するCNNモデルの分類能力が強くなるように、データベースに適するCNNモデルの分類能力を決定してもよい。
本発明の実施例では、決定部120により決定された分類能力は1つの数値であってもよい。例えば、関数x=f(データベースの複雑度)に基づいて該データベースのCNNモデルの分類能力xを算出してもよい。一例では、次の式に従って該データベースに適するCNNモデルの分類能力xを算出してもよい。
=データベースの複雑度/10
本発明の実施例では、決定部120は、データベースの複雑度に基づいて、データベースに適するCNNモデルの分類能力の数値範囲を決定してもよい。例えば、上記の実施例のようにデータベースに適するCNNモデルの分類能力xを決定した後に、該分類能力の左隣接領域Δl及び右隣接領域Δrを決定し、該データベースに適するCNNモデルの分類能力の数値範囲が[x−Δl,x+Δr]であると決定してもよい。分類能力の左隣接領域及び右隣接領域は経験値に基づいて設定されてもよく、好ましくは、Δl=0.5、Δr=0.5となる。
上述したように、決定部120は、データベースの複雑度に基づいて、データベースに適するCNNモデルの分類能力又は分類能力の数値範囲を決定する。そして、決定部120は、該データベースに適するCNNモデルの分類能力又は分類能力の数値範囲をマッチング部140に送信してもよい。
以下は、以下、本発明の実施例の決定部130を詳細に説明する。
本発明の実施例では、決定部130は、候補CNNモデルの第1パラメータを決定し、候補CNNモデルの第1パラメータに基づいて候補CNNモデルの分類能力を算出する。第1パラメータは、候補CNNモデルの訓練度合いを表すためのものである。
本発明の実施例では、候補CNNモデルの訓練の度合いは、該候補CNNモデルの分類能力に強い影響を及ぼす。通常の場合は、同一の候補モデルが十分に訓練されるほど、その分類能力が強くなる。本発明の実施例では、任意の方法を用いて候補CNNモデルの訓練度合いを評価してもよいが、本発明はこれに限定されない。候補CNNモデルの訓練の度合いは、該候補CNNモデルにおける畳み込み層の層数に関連する可能性がある。
本発明の実施例では、決定部130は、候補CNNモデルの第1パラメータ、第2パラメータ及び第3パラメータに基づいて、候補CNNモデルの分類能力を算出する。ここで、第2パラメータは前記候補CNNモデルの畳み込み層の層数を表し、第3パラメータは候補CNNモデルの特徴マップの数の乗算因子を表す。
図2は本発明の実施例に係るCNNモデルの構成を示す図である。CNNモデルは、1つ又は複数の畳み込み層及び1つ又は複数のプーリング層を含んでもよい。ここで、プーリング層は、他の同様の操作により置き換えてもよい。畳み込み層は、データベースにおけるサンプル(例えば画像)の特徴量を抽出し、プーリング層は、CNNモデルの演算量を低減する。畳み込み層及びプーリング層は処理テンプレートを有し、サンプルの特徴マップが畳み込み層を通過する際に、畳み込み層のテンプレートを用いて該特徴マップを処理し、サンプルの特徴マップがプーリング層を通過する際に、プーリング層のテンプレートを用いて該特徴マップを処理する。特徴マップがプーリング層を通過した後に、特徴マップの長さ及び幅はその前の半分になる。図2に示すCNNモデルは4つの畳み込み層及び2つのプーリング層を含む。データベースにおけるサンプルは、畳み込み層1、畳み込み層2、プーリング層1、畳み込み層3、畳み込み層4及びプーリング層2をそれぞれ通過する。なお、CNNモデルは他の数の畳み込み層及び他の数のプーリング層を含んでもよく、畳み込み層及びプーリング層の配置位置は図2に示すものと異なってもよい。また、図2にはCNNモデルの一部のみを示し、CNNモデルは他の部分をさらに含んでもよい。
本発明の実施例では、CNNモデルの第2パラメータNはCNNモデルの畳み込み層の層数、即ちCNNモデルの深さパラメータを表し、Nは正整数である。例えば、図2に示すCNNモデルの第2パラメータは4である。
本発明の実施例では、CNNモデルの第3パラメータsはCNNモデルの特徴マップの数の乗算因子、即ちCNNモデルの幅パラメータを表し、sは正数である。ここで、データベースにおけるサンプルのCNNモデルの1番目の畳み込み層を通過した後の特徴マップの数は、第3パラメータsと基本的な特徴マップの数との積である。即ち、第3パラメータは、データベースにおけるサンプルのCNNモデルの1番目の畳み込み層を通過した後の特徴マップの数を基本的な特徴マップの数で割ったものである。ここで、サンプルのCNNモデルの1番目の畳み込み層を通過した後の特徴マップの数は1番目の畳み込み層におけるテンプレートにより決定され、基本的な特徴マップの数は人為的に設定された値、例えば8、16、32又は64等である。図2に示すように、基本的な特徴マップの数は16であり、サンプルの1番目の畳み込み層を通過した後の特徴マップの数は16×sである。
本発明の実施例では、第1パラメータ、第2パラメータN及び第3パラメータsを用いてCNNモデルを表現する。これは、この3つのパラメータがCNNモデルにおける比較的に重要なパラメータであり、CNNモデルの分類能力をある程度決めるからである。また、本発明の実施例では、第3パラメータsを用いてCNNモデルの幅を表現することで、特徴マップの数をより簡単に表現できる。
本発明の実施例では、決定部130は、候補CNNモデルの第1パラメータ、第2パラメータ及び第3パラメータに基づいて、候補CNNモデルの分類能力を算出してもよい。例えば、候補CNNモデルの分類能力xは以下であってもよい。
x=g(N,s)×G
ここで、Nは該候補CNNモデルの第2パラメータを表し、sは該候補CNNモデルの第3パラメータを表し、g(N,s)はN及びsを変数とする関数を表し、Gは該候補CNNモデルの第1パラメータを表す。
なお、第1パラメータ、第2パラメータ及び第3パラメータの他に、決定部130は他のパラメータ、例えばサンプルの正規化された大きさ、畳み込みのステップ長及び畳み込み和の大きさ等に基づいてCNNモデルの分類能力を算出してもよい。即ち、関数g(N,s)はN及びs以外のものを変数としてもよい。
上述したように、決定部130は、各候補CNNモデルの分類能力を決定してもよい。
本発明の実施例では、決定部130は、候補CNNモデルと分類能力との対応関係を構築してもよく、マッチング部140は、データベースに適するCNNモデルの分類能力に対応する候補CNNモデルを、データベースに適するCNNモデルとして決定してもよい。
本発明の実施例では、決定部130は、各候補CNNモデルの分類能力xを決定した後に、候補CNNモデルとその分類能力xとの対応関係を構築し、この対応関係をマッチング部140に送信してもよい。そして、マッチング部140は、この対応関係に基づいて、データベースに適するCNNモデルを決定してもよい。例えば、マッチング部140は、決定部120からデータベースに適するCNNモデルの分類能力xを取得し、分類能力xに対応する候補CNNモデルを最終的なデータベースに適するCNNモデルとして決定してもよい。
本発明の実施例では、決定部130は、同一又は類似の分類能力を有する候補CNNモデルが同一のグループに分けられるように、複数の候補CNNモデルに対してグループ分けを行い、同一のグループに属する候補CNNモデルを、該グループの同一又は類似の分類能力のうち代表的な分類能力に対応付ける。
決定部130が上述したように各候補CNNモデルの分類能力xを決定する際に、異なる候補CNNモデルの分類能力がかなり異なり、よって、演算の速度をさらに向上するために、分類能力に応じて候補CNNモデルに対してグループ分けを行ってもよい。表1は、候補CNNモデルのグループ分けの一例を示している。
Figure 0006954004
表1に示すように、第2パラメータN及び第3パラメータsがCNNモデルにおける比較的に重要なパラメータであるため、表1ではこの2つのパラメータを用いて候補CNNモデルを表す。例えば、候補CNNモデル:N=4,s=1;N=5,s=1;N=6,s=1;N=7,s=0.7を第1グループの候補CNNモデルに分けられ、このグループの候補CNNモデルは同一又は類似の分類能力を有し、該グループの同一又は類似の分類能力から代表的な分類能力を選択してもよい。例えば、第1グループの候補CNNモデルの代表的な分類能力は5.4であり、該グループの候補CNNモデルの実際の分類能力は例えば[5.25,5.55]の範囲内にある。本発明の実施例では、同一のグループの候補CNNモデルを該グループの代表的な分類能力に対応付ける。例えば、第1グループの候補CNNモデルを代表的な分類能力5.4に対応付ける。表1には合計7グループの候補CNNモデルを示し、各グループの候補CNNモデルは該グループの代表的な分類能力に対応する。なお、表1における各グループの代表的な分類能力は均一に分布しておらず、これは、CNNモデルの分類能力も均一に分布していないからである。例えば、[6.2,6.2]の間にあるCNNモデルは多い場合があり、各グループの間隔が比較的に小さい。また、各グループの候補CNNモデルの代表的な分類能力を決定する際に、複数種類の方法があり、例えば、グループにおける全ての候補CNNモデルの分類能力の中央値を取得してもよいが、本発明はこれに限定されない。
上述したように、決定部130は、複数の候補CNNモデルに対してグループ分けを行い、同一のグループに属する候補CNNモデルを該グループの代表的な分類能力に対応付ける。そして、決定部130は、このような対応関係をマッチング部140に送信する。そして、上述したように、マッチング部140は、決定部120から取得されたデータベースに適するCNNモデルの分類能力xを取得し、分類能力xに対応する候補CNNモデルを最終的な該データベースに適するCNNモデルとして決定する。例えば、決定部120から取得されたデータベースに適するCNNモデルの分類能力xが5.4である場合、マッチング部140は、表1に示す対応関係表から、分類能力5.4に対応する候補CNNモデル、即ちN=4,s=1;N=5,s=1;N=6,s=1;N=7,s=0.7を抽出し、この4つの候補CNNモデルを該データベースに適するCNNモデルとして決定してもよい。また、例えば、決定部120から取得されたデータベースに適するCNNモデルの分類能力xが6.22である場合、6.22が表1に示す対応関係表における代表的な分類能力6.2に最も近いため、マッチング部140は、分類能力6.2に対応する候補CNNモデル、即ちN=6,s=5;N=4,s=6;N=7,s=4;N=8,s=3を抽出し、この4つの候補CNNモデルを該データベースに適するCNNモデルとして決定してもよい。また、例えば、決定部120から取得されたデータベースに適するCNNモデルの分類能力xの範囲が[6.1,6.3]である場合、マッチング部140は、表1に示す対応関係表から、分類能力が該範囲内の候補CNNモデルのグループ、即ち代表的な分類能力が6.2及び6.3のグループを抽出し、この2つの候補CNNモデルを該データベースに適するCNNモデルとして決定してもよい。
上述したように、CNNモデルの決定装置100は、データベースの複雑度に基づいて該データベースに適するCNNモデルの分類能力を決定し、候補CNNモデルから、分類能力が該データベースに最も合致した候補CNNモデルを選択できる。また、計算量を低減させるために、分類能力に応じて候補CNNモデルに対してグループ分けを行い、各グループの代表的な分類能力を決定してもよい。このように、データベースに適するCNNモデルの分類能力xに最も近い代表的分類能力を検索し、或いはデータベースに適するCNNモデルの分類能力の範囲[x−Δl,x+Δr]内の代表的分類能力を検索し、この1つ又は複数の代表的な分類能力に対応する候補CNNモデルを検索すればよいため、検索プロセスを大幅に簡易化した。
図3は本発明のもう1つの実施例に係るCNNモデルの決定装置の構成を示すブロック図である。
図3に示すように、CNNモデルの決定装置100は、決定部110、決定部120、決定部130、マッチング部140及び選択部150を含む。前の4つの構成部について既に説明したので、ここでその説明を省略する。
本発明の実施例では、選択部150は、複数の候補CNNモデルを選択してもよい。ここで、選択部150は、既に構築されたサンプルCNNモデルから適切なCNNモデルを候補CNNモデルとして選択してもよいし、自らサンプルCNNモデルを構築してその中から適切なCNNモデルを候補CNNモデルとして選択してもよい。また、選択部150は、選択された候補CNNモデルを決定部130に送信してもよい。
本発明の実施例では、選択部150は、複数のサンプルCNNモデルを構築し、第2パラメータ及び第3パラメータが所定条件を満たしている複数のサンプルCNNモデルを複数の候補CNNモデルとして選択してもよい。
本発明の実施例では、選択部150は、複数種類の方法を用いて複数のサンプルCNNモデルを構築してもよい。上述したように、第2パラメータ及び第3パラメータはCNNモデルにおける比較的に重要なパラメータであり、CNNモデルの性能の優劣をある程度決める。このため、選択部150は、構築されたサンプルCNNモデルから、この2つのパラメータが所定条件を満たしているモデルを候補CNNモデルとして選択してもよい。これによって、マッチング部140は、より正確なデータベースに適するCNNモデルを決定できる。
ここで、所定条件は、設定された第2パラメータ及び第3パラメータの数値範囲であってもよい。第2パラメータ又は第3パラメータが大き過ぎると、該CNNモデルのデータベースを訓練する時間が長くなり、第2パラメータ又は第3パラメータが小さ過ぎると、CNNモデルの分類精度に影響を及ぼすため、合理的な範囲を設定する必要があり、経験に応じて設定されてもよいし、実験により設定されてもよい。
本発明の実施例では、選択部150は、サンプルCNNモデルの特徴マップの長さ及び幅が何れも前の半分になる場合に特徴マップの数が前の特徴マップの数の2倍になるように、複数のサンプルCNNモデルの各サンプルCNNモデルを構築してもよい。
上述したように、データベースにおけるサンプルの特徴マップがCNNモデルのプーリング層を通過した場合、特徴マップの長さ及び幅は何れも前の半分になる。実際には、CNNモデルでは、他の場合にも特徴マップの長さ及び幅が何れも前の半分になる可能性がある。本発明の実施例では、このような状況が発生している限り、特徴マップを倍増させる。
本発明の実施例では、選択部150は、サンプルCNNモデルの1つ又は複数のプーリング層のうち各プーリング層の後の特徴マップの数がプーリング層の前の特徴マップの数の2倍であるように、複数のサンプルCNNモデルの各サンプルCNNモデルを構築してもよい。即ち、プーリング層を通過する度に、特徴マップの数を倍増させる。図2に示すCNNモデルでは、畳み込み層2を通過した特徴マップの数は16×sであり、プーリング層1を通過した後の特徴マップの数は32×sとなり、即ち特徴マップの数は倍増されている。
本発明の実施例では、CNNモデルの構築を簡易化させるために、選択部150は、CNNモデルにおけるパラメータを固定してもよい。固定されたパラメータは、CNNモデルのこれらのパラメータを採用する場合の性能が良くなるように、経験値であってもよいし、測定及び実験により取得されてもよい。
例えば、選択部150は、サンプルCNNモデルの1つ又は複数の畳み込み層の各畳み込み層の畳み込みテンプレート及び前記各プーリング層のプーリングテンプレートを固定することで、複数のサンプルCNNモデルの各サンプルCNNモデルを構築してもよい。また、選択部150は、サンプルCNNモデルの活性化関数をReLU関数に固定してもよい。
本発明の実施例では、畳み込み層の畳み込みテンプレートを固定することは、畳み込み和の大きさを固定すること、畳み込みステップ長を固定すること、及びエッジの大きさを固定することの1つ又は複数を含んでもよい。例えば、畳み込み和の大きさを3(単位は画素である)×3(単位は画素である)に固定してもよいし、畳み込みステップ長を1(単位は画素である)に固定してもよいし、エッジの大きさを1(単位は画素である)に固定してもよい。
本発明の実施例では、プーリング層のプーリングテンプレートを固定することは、プーリングテンプレートの大きさを固定すること、プーリングのステップ長を固定すること、及びプーリングの種類を固定することの1つ又は複数を含んでもよい。例えば、プーリングテンプレートの大きさを3(単位は画素である)×3(単位は画素である)に固定してもよいし、プーリングのステップ長を2(単位は画素である)に固定してもよいし、プーリングの種類をMAX(最大)に固定してもよい。
以上は、単なるサンプルCNNモデルの構築の例示的な方法を示している。なお、CNNモデルの性能をさらに向上させるために、選択部150は、他の方法を用いてCNNモデルを最適化してもよい。例えば、該CNNモデルの訓練効果などを向上させるように、1つ又は複数の畳み込み層の各畳み込み層についてBatchNorm層又はdropout層を用いてもよい。
上述したように、選択部150は、複数のサンプルCNNモデルを構築し、その中から候補CNNモデルを選択し、選択された候補CNNモデルを決定部130に送信し、決定部130に各候補CNNモデルの分類能力を決定させてもよい。これによって、CNNモデルのパラメータを固定しているため、CNNモデルの設計はより容易になる。さらに、選択部150は、サンプルCNNモデルを予め選別することで、マッチング部140によりマッチングされた候補CNNモデルはより正確になる。
以上は本発明の実施例の畳み込みニューラルネットワーク(CNN)モデルの決定装置100を詳細に説明した。次に、本発明の実施例のCNNモデルの決定方法を詳細に説明する。
図4は本発明の実施例に係るCNNモデルの決定方法を示すフローチャートである。
図4に示すように、ステップS410において、複数のサンプルを含むデータベースの複雑度を決定する。
次に、ステップS420において、該データベースの複雑度に基づいて、該データベースに適するCNNモデルの分類能力を決定する。
次に、ステップS430において、複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得する。
次に、ステップS440において、各候補CNNモデルの分類能力及び該データベースに適するCNNモデルの分類能力に基づいて、該データベースに適するCNNモデルを決定する。
好ましくは、複数のサンプルを含むデータベースの複雑度を決定するステップは、パラメータ群から複数のパラメータを選択し、選択された複数のパラメータに基づいて該データベースの複雑度を決定するステップを含み、該パラメータ群は、該データベースにおける複数のサンプルの種類の数を表す種類数、該データベースにおける各種類のサンプルの平均数を表すサンプル平均数、該データベースにおける各種類のサンプル数の分散度を表すサンプル分散度、該データベースにおけるサンプルの画像背景の複雑度を表す背景複雑度、及び該データベースにおけるサンプルから対象を認識することの難易度を表す対象鮮明度を含む。
好ましくは、複数のサンプルを含むデータベースの複雑度を決定するステップは、複数のパラメータの各パラメータの重み及びスコアを決定するステップと、複数のパラメータの各パラメータを重み付け加算して該データベースの複雑度を決定するステップと、を含む。
好ましくは、複数のサンプルを含むデータベースの複雑度を決定するステップは、階層分析法を用いて、複数のパラメータのうち各2つのパラメータ間の相対的な重要度に基づいて比較行列を構築するステップと、比較行列に基づいて、複数のパラメータの各パラメータの重みを決定するステップと、を含む。
好ましくは、データベースの複雑度に基づいてデータベースに適用するCNNモデルの分類能力を決定するステップは、データベースの複雑度に基づいて、該データベースに適するCNNモデルの分類能力の数値範囲を決定するステップを含む。
好ましくは、各候補CNNモデルの分類能力を取得するステップは、候補CNNモデルの第1パラメータを決定するステップと、候補CNNモデルの第1パラメータに基づいて候補CNNモデルの分類能力を算出するステップと、を含む。第1パラメータは、候補CNNモデルの訓練度合いを表すためのものである。
好ましくは、各候補CNNモデルの分類能力を取得するステップは、候補CNNモデルの第1パラメータ、第2パラメータ及び第3パラメータに基づいて、候補CNNモデルの分類能力を算出するステップを含む。第2パラメータは候補CNNモデルの畳み込み層の層数を表し、第3パラメータは候補CNNモデルの幅パラメータであり、該幅パラメータは該候補CNNモデルの特徴マップの数の乗算因子を表す。
好ましくは、方法は、候補CNNモデルと分類能力との対応関係を構築するステップと、データベースに適するCNNモデルの分類能力に対応する候補CNNモデルを、データベースに適するCNNモデルとして決定するステップと、をさらに含む。
好ましくは、候補CNNモデルと分類能力との対応関係を構築するステップは、同一又は類似の分類能力を有する候補CNNモデルが同一のグループに分けられるように、複数の候補CNNモデルに対してグループ分けを行うステップと、同一のグループに属する候補CNNモデルを、該グループの同一又は類似の分類能力のうち代表的な分類能力に対応付けるステップと、を含む。
好ましくは、方法は、複数の候補CNNモデルを選択するステップをさらに含む。
好ましくは、複数の候補CNNモデルを選択するステップは、複数のサンプルCNNモデルを構築するステップと、第2パラメータ及び第3パラメータが所定条件を満たしている複数のサンプルCNNモデルを複数の候補CNNモデルとして選択するステップと、を含む。
好ましくは、複数のサンプルCNNモデルを構築するステップは、サンプルCNNモデルの1つ又は複数のプーリング層のうち各プーリング層の後の特徴マップの数がプーリング層の前の特徴マップの数の2倍であるように、複数のサンプルCNNモデルの各サンプルCNNモデルを構築するステップを含む。
好ましくは、複数のサンプルCNNモデルを構築するステップは、サンプルCNNモデルの1つ又は複数の畳み込み層の各畳み込み層の畳み込みテンプレート及び前記各プーリング層のプーリングテンプレートを固定することで、複数のサンプルCNNモデルの各サンプルCNNモデルを構築するステップを含む。
好ましくは、複数のサンプルCNNモデルを構築するステップは、サンプルCNNモデルの活性化関数をReLU関数に固定することで、複数のサンプルCNNモデルの各サンプルCNNモデルを構築するステップを含む。
上述したCNNモデルの決定方法はCNNモデルの決定装置100により実現されてもよいため、上述したCNNモデルの決定装置100の各態様は全て適用でき、ここでその説明を省略する。
以上のことから、本発明の畳み込みニューラルネットワーク(CNN)モデルの決定装置及び方法は、データベースの複雑度に基づいて該データベースに適するCNNモデルの分類能力を決定し、候補CNNモデルから適切なCNNモデルを選択する。これによって、決定されたCNNモデルがデータベースにより合致するように、該データベースの複雑度に基づいて適切なCNNモデルを決定できる。さらに、普通のユーザでもデータベースに適するCNNモデルを設計できるようにCNNモデルの設計プロセスを簡易化できる。
なお、本発明のCNNモデルの決定方法の各処理は、各種の機器読み取り可能な記憶媒体に記憶されたコンピュータが実行可能なプログラムにより実現されてもよい。
また、本発明の目的は、上記実行可能なプログラムコードを記憶した記憶媒体をシステム又は装置に直接的又は間接的に提供し、該システム又は装置におけるコンピュータ、中央処理装置(CPU)又は画像処理装置(GPU)が該プログラムコードを読み出して実行することによって実現されてもよい。この場合は、該システム又は装置はプログラムを実行可能な機能を有すればよく、本発明の実施形態はプログラムに限定されない。また、該プログラムは任意の形であってもよく、例えばオブジェクトプログラム、インタプリタによって実行されるプログラム、又はオペレーティングシステムに提供されるスクリプトプログラム等であってもよい。
上記の機器が読み取り可能な記憶媒体は、各種のメモリ、記憶部、半導体装置、光ディスク、磁気ディスク及び光磁気ディスクのようなディスク、及び他の情報を記憶可能な媒体等を含むが、これらに限定されない。
また、コンピュータがインターネット上の対応するウェブサイトに接続し、本発明のコンピュータプログラムコードをコンピュータにダウンロードしてインストールして実行することによって、本発明の実施形態を実現することもできる。
図5は本発明に係るCNNモデルの決定方法を実施するための汎用パーソナルコンピュータの例示的な構成を示すブロック図である。
図5において、CPU501は、読み出し専用メモリ(ROM)502に記憶されているプログラム、又は記憶部508からランダムアクセスメモリ(RAM)503にロードされたプログラムにより各種の処理を実行する。RAM503には、必要に応じて、CPU501が各種の処理を実行するに必要なデータが記憶されている。CPU501、ROM502、及びRAM503は、バス504を介して互いに接続されている。入力/出力インターフェース505もバス504に接続されている。
入力部506(キーボード、マウスなどを含む)、出力部507(ディスプレイ、例えばブラウン管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカなどを含む)、記憶部508(例えばハードディスクなどを含む)、通信部509(例えばネットワークのインタフェースカード、例えばLANカード、モデムなどを含む)は、入力/出力インターフェース505に接続されている。通信部509は、ネットワーク、例えばインターネットを介して通信処理を実行する。必要に応じて、ドライブ部510は、入力/出力インターフェース505に接続されてもよい。取り外し可能な媒体511は、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどであり、必要に応じてドライブ部510にセットアップされて、その中から読みだされたコンピュータプログラムは必要に応じて記憶部508にインストールされている。
ソフトウェアにより上記処理を実施する場合、ネットワーク、例えばインターネット、又は記憶媒体、例えば取り外し可能な媒体511を介してソフトウェアを構成するプログラムをインストールする。
なお、これらの記憶媒体は、図5に示されている、プログラムを記憶し、機器と分離してユーザへプログラムを提供する取り外し可能な媒体511に限定されない。取り外し可能な媒体511は、例えば磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(光ディスク−読み出し専用メモリ(CD−ROM)、及びデジタル多目的ディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標))及び半導体メモリを含む。或いは、記憶媒体は、ROM502、記憶部508に含まれるハードディスクなどであってもよく、プログラムを記憶し、それらを含む機器と共にユーザへ提供される。
なお、本発明のシステム及び方法では、各ユニット又は各ステップを分解且つ、或いは再組み合わせてもよい。これらの分解及び/又は再組み合わせは、本発明と同等であると見なされる。また、本発明の方法は、明細書に説明された時間的順序で実行するものに限定されず、他の時間的順序で順次、並行、又は独立して実行されてもよい。このため、本明細書に説明された方法の実行順序は、本発明の技術的な範囲を限定するものではない。
以上は本発明の具体的な実施例の説明を通じて本発明を開示するが、上記の全ての実施例及び例は例示的なものであり、制限的なものではない。当業者は、特許請求の範囲の主旨及び範囲内で本発明に対して各種の修正、改良、均等的なものに変更してもよい。これらの修正、改良又は均等的なものに変更することは本発明の保護範囲に含まれるものである。
また、上述の各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
畳み込みニューラルネットワーク(CNN)モデルの決定装置であって、
複数のサンプルを含むデータベースの複雑度を決定する第1決定手段と、
前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定する第2決定手段と、
複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得する第3決定手段と、
前記各候補CNNモデルの分類能力及び前記データベースに適するCNNモデルの分類能力に基づいて、前記データベースに適するCNNモデルを決定するマッチング手段と、を含む、装置。
(付記2)
前記第1決定手段は、パラメータ群から複数のパラメータを選択し、選択された複数のパラメータに基づいて前記データベースの複雑度を決定し、
前記パラメータ群は、
前記データベースにおける複数のサンプルの種類の数を表す種類数、
前記データベースにおける各種類のサンプルの平均数を表すサンプル平均数、
前記データベースにおける各種類のサンプル数の分散度を表すサンプル分散度、
前記データベースにおけるサンプルの画像背景の複雑度を表す背景複雑度、及び
前記データベースにおけるサンプルから対象を認識することの難易度を表す対象鮮明度を含む、付記1に記載の装置。
(付記3)
前記第1決定手段は、前記複数のパラメータの各パラメータの重み及びスコアを決定し、前記複数のパラメータの各パラメータを重み付け加算して前記データベースの複雑度を決定する、付記2に記載の装置。
(付記4)
前記第1決定手段は、
階層分析法を用いて、前記複数のパラメータのうち各2つのパラメータ間の相対的な重要度に基づいて比較行列を構築し、
前記比較行列に基づいて、前記複数のパラメータの各パラメータの重みを決定する、付記3に記載の装置。
(付記5)
前記第2決定手段は、前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力の数値範囲を決定する、付記1に記載の装置。
(付記6)
前記第3決定手段は、前記候補CNNモデルの第1パラメータを決定し、前記候補CNNモデルの第1パラメータに基づいて前記候補CNNモデルの分類能力を算出し、
前記第1パラメータは、前記候補CNNモデルの訓練度合いを表すためのものである、付記1に記載の装置。
(付記7)
前記第3決定手段は、前記候補CNNモデルの第1パラメータ、第2パラメータ及び第3パラメータに基づいて、前記候補CNNモデルの分類能力を算出し、
前記第2パラメータは前記候補CNNモデルの畳み込み層の層数を表し、
前記第3パラメータは前記候補CNNモデルの幅パラメータであり、前記幅パラメータは前記候補CNNモデルの特徴マップの数の乗算因子を表す、付記6に記載の装置。
(付記8)
前記第3決定手段は、候補CNNモデルと分類能力との対応関係を構築し、
前記マッチング手段は、前記データベースに適するCNNモデルの分類能力に対応する候補CNNモデルを、前記データベースに適するCNNモデルとして決定する、付記1に記載の装置。
(付記9)
前記第3決定手段は、
同一又は類似の分類能力を有する候補CNNモデルが同一のグループに分けられるように、前記複数の候補CNNモデルに対してグループ分けを行い、
同一のグループに属する候補CNNモデルを、該グループの同一又は類似の分類能力のうち代表的な分類能力に対応付ける、付記8に記載の装置。
(付記10)
複数の候補CNNモデルを選択する選択手段、をさらに含む、付記7に記載の装置。
(付記11)
前記選択手段は、
複数のサンプルCNNモデルを構築し、
第2パラメータ及び第3パラメータが所定条件を満たしている複数のサンプルCNNモデルを前記複数の候補CNNモデルとして選択する、付記10に記載の装置。
(付記12)
前記選択手段は、前記サンプルCNNモデルの1つ又は複数のプーリング層のうち各プーリング層の後の特徴マップの数が前記プーリング層の前の特徴マップの数の2倍であるように、前記複数のサンプルCNNモデルの各サンプルCNNモデルを構築する、付記11に記載の装置。
(付記13)
前記選択手段は、前記サンプルCNNモデルの1つ又は複数の畳み込み層の各畳み込み層の畳み込みテンプレート及び前記各プーリング層のプーリングテンプレートを固定することで、前記複数のサンプルCNNモデルの各サンプルCNNモデルを構築する、付記10に記載の装置。
(付記14)
前記選択手段は、前記サンプルCNNモデルの活性化関数をReLU関数に固定することで、前記複数のサンプルCNNモデルの各サンプルCNNモデルを構築する、付記10に記載の装置。
(付記15)
畳み込みニューラルネットワーク(CNN)モデルの決定方法であって、
複数のサンプルを含むデータベースの複雑度を決定するステップと、
前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定するステップと、
複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得するステップと、
前記各候補CNNモデルの分類能力及び前記データベースに適するCNNモデルの分類能力に基づいて、前記データベースに適するCNNモデルを決定するステップと、を含む、方法。
(付記16)
前記複数のサンプルを含むデータベースの複雑度を決定するステップは、パラメータ群から複数のパラメータを選択し、選択された複数のパラメータに基づいて前記データベースの複雑度を決定するステップを含み、
前記パラメータ群は、
前記データベースにおける複数のサンプルの種類の数を表す種類数、
前記データベースにおける各種類のサンプルの平均数を表すサンプル平均数、
前記データベースにおける各種類のサンプル数の分散度を表すサンプル分散度、
前記データベースにおけるサンプルの画像背景の複雑度を表す背景複雑度、及び
前記データベースにおけるサンプルから対象を認識することの難易度を表す対象鮮明度を含む、付記15に記載の方法。
(付記17)
前記複数のサンプルを含むデータベースの複雑度を決定するステップは、
前記複数のパラメータの各パラメータの重み及びスコアを決定するステップと、
前記複数のパラメータの各パラメータを重み付け加算して前記データベースの複雑度を決定するステップと、を含む、付記16に記載の方法。
(付記18)
前記複数のサンプルを含むデータベースの複雑度を決定するステップは、
階層分析法を用いて、前記複数のパラメータのうち各2つのパラメータ間の相対的な重要度に基づいて比較行列を構築するステップと、
前記比較行列に基づいて、前記複数のパラメータの各パラメータの重みを決定するステップと、を含む、付記17に記載の方法。
(付記19)
前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定するステップは、
前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力の数値範囲を決定するステップを含む、付記15に記載の方法。
(付記20)
機器が読み取り可能な命令コードを含むプログラムプロダクトを記憶する機器読み取り可能な記憶媒体であって、前記命令コードがコンピュータにより読み取られ、実行される際に、前記コンピュータに、付記15乃至19の何れかに記載の方法を実行させることができる、記憶媒体。

Claims (10)

  1. 畳み込みニューラルネットワーク(CNN)モデルの決定装置であって、
    複数のサンプルを含むデータベースの複雑度を決定する第1決定手段と、
    前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定する第2決定手段と、
    複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得する第3決定手段と、
    前記各候補CNNモデルの分類能力及び前記データベースに適するCNNモデルの分類能力に基づいて、前記データベースに適するCNNモデルを決定するマッチング手段と、を含む、装置。
  2. 前記第2決定手段は、前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力の数値範囲を決定する、請求項1に記載の装置。
  3. 前記第3決定手段は、前記候補CNNモデルの第1パラメータを決定し、前記候補CNNモデルの第1パラメータに基づいて前記候補CNNモデルの分類能力を算出し、
    前記第1パラメータは、前記候補CNNモデルの訓練度合いを表すためのものである、請求項1に記載の装置。
  4. 前記第3決定手段は、前記候補CNNモデルの第1パラメータ、第2パラメータ及び第3パラメータに基づいて、前記候補CNNモデルの分類能力を算出し、
    前記第2パラメータは前記候補CNNモデルの畳み込み層の層数を表し、
    前記第3パラメータは前記候補CNNモデルの幅パラメータであり、前記幅パラメータは前記候補CNNモデルの特徴マップの数の乗算因子を表す、請求項3に記載の装置。
  5. 前記第3決定手段は、候補CNNモデルと分類能力との対応関係を構築し、
    前記マッチング手段は、前記データベースに適するCNNモデルの分類能力に対応する候補CNNモデルを、前記データベースに適するCNNモデルとして決定する、請求項1に記載の装置。
  6. 前記第3決定手段は、
    同一又は類似の分類能力を有する候補CNNモデルが同一のグループに分けられるように、前記複数の候補CNNモデルに対してグループ分けを行い、
    同一のグループに属する候補CNNモデルを、該グループの同一又は類似の分類能力のうち代表的な分類能力に対応付ける、請求項5に記載の装置。
  7. 複数の候補CNNモデルを選択する選択手段、をさらに含む、請求項4に記載の装置。
  8. 前記選択手段は、
    複数のサンプルCNNモデルを構築し、
    第2パラメータ及び第3パラメータが所定条件を満たしている複数のサンプルCNNモデルを前記複数の候補CNNモデルとして選択する、請求項7に記載の装置。
  9. 前記選択手段は、前記サンプルCNNモデルの1つ又は複数のプーリング層のうち各プーリング層の後の特徴マップの数が前記プーリング層の前の特徴マップの数の2倍であるように、前記複数のサンプルCNNモデルの各サンプルCNNモデルを構築する、請求項8に記載の装置。
  10. 畳み込みニューラルネットワーク(CNN)モデルの決定方法であって、コンピュータが、
    複数のサンプルを含むデータベースの複雑度を決定するステップと、
    前記データベースの複雑度に基づいて、前記データベースに適するCNNモデルの分類能力を決定するステップと、
    複数の候補CNNモデルのうち各候補CNNモデルの分類能力を取得するステップと、
    前記各候補CNNモデルの分類能力及び前記データベースに適するCNNモデルの分類能力に基づいて、前記データベースに適するCNNモデルを決定するステップと、を実行する、方法。
JP2017209284A 2016-12-01 2017-10-30 畳み込みニューラルネットワークモデルの決定装置及び決定方法 Active JP6954004B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201611095600.6 2016-12-01
CN201611095600.6A CN108133223B (zh) 2016-12-01 2016-12-01 确定卷积神经网络cnn模型的装置和方法

Publications (2)

Publication Number Publication Date
JP2018092615A JP2018092615A (ja) 2018-06-14
JP6954004B2 true JP6954004B2 (ja) 2021-10-27

Family

ID=62243977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017209284A Active JP6954004B2 (ja) 2016-12-01 2017-10-30 畳み込みニューラルネットワークモデルの決定装置及び決定方法

Country Status (3)

Country Link
US (1) US11049017B2 (ja)
JP (1) JP6954004B2 (ja)
CN (1) CN108133223B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11810340B2 (en) * 2017-11-29 2023-11-07 International Business Machines Corporation System and method for consensus-based representation and error checking for neural networks
JP7042210B2 (ja) * 2018-12-27 2022-03-25 Kddi株式会社 学習モデル生成装置、学習モデル生成方法、及びプログラム
EP3915048A4 (en) 2019-06-03 2022-03-30 Samsung Electronics Co., Ltd. ELECTRONIC OBJECT RECOGNITION APPARATUS AND METHOD FOR OPERATING IT
US20210064987A1 (en) * 2019-09-03 2021-03-04 Nvidia Corporation Processor and system to convert tensor operations in machine learning
WO2021057690A1 (zh) * 2019-09-24 2021-04-01 华为技术有限公司 构建神经网络的方法与装置、及图像处理方法与装置
US10699002B1 (en) 2019-11-22 2020-06-30 Capital One Services, Llc Identification of database intrusion by changes in data tables

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2798793B2 (ja) * 1990-07-12 1998-09-17 三菱電機株式会社 神経回路網装置
US20040012576A1 (en) * 2002-07-16 2004-01-22 Robert Cazier Digital image display method and system
JP2008021805A (ja) * 2006-07-12 2008-01-31 Sharp Corp テスト結果予測装置、テスト結果予測方法、半導体テスト装置、半導体テスト方法、システム、プログラム、および記録媒体
CN102479329A (zh) * 2010-11-22 2012-05-30 索尼公司 分类器生成装置和方法,检测图像中的对象的装置和方法
US9463334B2 (en) * 2013-03-15 2016-10-11 Varian Medical Systems International Ag Radiation therapy planing using integrated model
CN103177265B (zh) * 2013-03-25 2016-09-14 中山大学 基于核函数与稀疏编码的高清图像分类方法
JP6236296B2 (ja) * 2013-11-14 2017-11-22 株式会社デンソーアイティーラボラトリ 学習装置、学習プログラム、及び学習方法
CN104794527B (zh) * 2014-01-20 2018-03-27 富士通株式会社 基于卷积神经网络的分类模型构建方法和设备
US9734425B2 (en) * 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
WO2016109884A1 (en) * 2015-01-05 2016-07-14 Valorbec Limited Partnership Automated recommendation and virtualization systems and methods for e-commerce
US20160239736A1 (en) * 2015-02-17 2016-08-18 Qualcomm Incorporated Method for dynamically updating classifier complexity
US11423311B2 (en) * 2015-06-04 2022-08-23 Samsung Electronics Co., Ltd. Automatic tuning of artificial neural networks
CN105975992A (zh) * 2016-05-18 2016-09-28 天津大学 一种基于自适应升采样的不平衡数据集分类方法
CN106228185B (zh) * 2016-07-20 2019-10-15 武汉盈力科技有限公司 一种基于神经网络的通用图像分类识别系统及方法

Also Published As

Publication number Publication date
US11049017B2 (en) 2021-06-29
US20180157976A1 (en) 2018-06-07
CN108133223B (zh) 2020-06-26
JP2018092615A (ja) 2018-06-14
CN108133223A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
JP6954004B2 (ja) 畳み込みニューラルネットワークモデルの決定装置及び決定方法
JP6954003B2 (ja) データベースのための畳み込みニューラルネットワークモデルの決定装置及び決定方法
TWI689871B (zh) 梯度提升決策樹(gbdt)模型的特徵解釋方法和裝置
WO2018227800A1 (zh) 一种神经网络训练方法及装置
US20190018838A1 (en) Electronic device and method for text processing
CN108287857B (zh) 表情图片推荐方法及装置
US20140074758A1 (en) Self organizing maps for visualizing an objective space
CN107506617B (zh) 半局部社交信息miRNA-疾病关联性预测方法
JP2009519543A (ja) コンパクト類似性構造体を構築する方法及び装置並びにかかるコンパクト類似性構造体をドキュメントの関連性の解析に用いる方法
US10983786B2 (en) Automatically evaluating software project requirements
Yildiz et al. A machine learning framework for full-reference 3D shape quality assessment
CN114298851A (zh) 基于图表征学习的网络用户社交行为分析方法、装置及存储介质
WO2019187696A1 (ja) ベクトル化装置、言語処理方法及びプログラム
TW201407526A (zh) 用於藝術指數之自動發展之方法
US20220414936A1 (en) Multimodal color variations using learned color distributions
US20140324524A1 (en) Evolving a capped customer linkage model using genetic models
US20220300836A1 (en) Machine Learning Techniques for Generating Visualization Recommendations
CN117015789A (zh) 基于sns文本的用户的装修风格分析模型提供装置及方法
CN113850632A (zh) 用户类别确定方法、装置、设备及存储介质
JP2020140674A (ja) 回答選択装置及びプログラム
CN117235286B (zh) 强化注意力的实体关系抽取模型及其构建方法、存储介质
CN117786234B (zh) 一种基于两阶段对比学习的多模态资源推荐方法
Machado et al. GP-based generative adversarial models
US11907280B2 (en) Text adjusted visual search
JP7294384B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6954004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150