JP2024024504A - 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム - Google Patents
学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム Download PDFInfo
- Publication number
- JP2024024504A JP2024024504A JP2022127374A JP2022127374A JP2024024504A JP 2024024504 A JP2024024504 A JP 2024024504A JP 2022127374 A JP2022127374 A JP 2022127374A JP 2022127374 A JP2022127374 A JP 2022127374A JP 2024024504 A JP2024024504 A JP 2024024504A
- Authority
- JP
- Japan
- Prior art keywords
- model
- trained
- data
- language
- analysis target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010187 selection method Methods 0.000 title claims description 28
- 239000013598 vector Substances 0.000 claims abstract description 116
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000010801 machine learning Methods 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000004458 analytical method Methods 0.000 claims description 84
- 238000006243 chemical reaction Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 241000167854 Bourreria succulenta Species 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 235000019693 cherries Nutrition 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000003703 image analysis method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012152 algorithmic method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/383—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】複数の学習済モデルから解析対象に適した学習済モデルを迅速に選択する。【解決手段】複数の学習済モデルM1~Mnから解析対象を解析するための学習済モデルを選択する学習済モデル選択方法であって、学習済モデルM1~Mnの各々に対応する言語ベクトルであるモデル言語ベクトルV1~Vn、学習済モデルM1~Mnの各々の特徴量であるモデル特徴量F1~Fn、または、学習済モデルM1~Mnの各々の機械学習に用いられた教師データと解析対象との類似度を用いて、解析対象に応じた学習済モデルを選択する。【選択図】図1
Description
本発明は、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する技術に関する。
画像などのデータ解析において、深層学習などによって生成された学習済モデルを用いて解析が行われてきた。あらゆる課題に対応できることを重視する場合は、汎化性能をもつ学習済モデルを生成することが好ましいが、一般に、特化した学習済モデルと比較し、汎化性能が高い学習済モデルは各課題に対する精度が劣る。そのため、課題に合わせて特化した複数の学習済モデルを生成することが多い。
従来では、複数の学習済モデルがある場合、課題に対してどの学習済モデルを使えばいいかを判断するのは人であり、トライアル&エラーが必要だった。そのため、最適な学習済モデルを選択するのに時間がかかっていた。
そこで、課題に対して最適な学習済モデルを自動的に選択する技術が提案されている。例えば、特許文献1では、データ(画像データ中の文字データ等)が入力されると、あらかじめ用意された類似データベースから、入力データと最も類似度が高い類似テストデータを算出して、類似テストデータを複数の学習済モデルで処理し、最も正解率が高い学習済モデルを選択することが開示されている。また、特許文献2では、属性情報(ユーザの年齢、性別等)を付与したテストデータ(ユーザの顔画像等)をあらかじめ用意した複数の学習済モデルで処理し、最も正解率が高い学習済モデルを選択することが開示されている。
しかしながら、特許文献1、2に記載の従来技術では、用意された複数の学習済モデルにテストデータを入力して、各学習済モデルの正解率(性能)を評価する必要があるため、演算処理量が多くなり、学習済モデルの選択に時間がかかるという問題がある。
本発明は、上記問題を解決するためになされたものであって、複数の学習済モデルから解析対象に適した学習済モデルを迅速に選択することを課題とする。
本発明に係る学習済モデル選択方法は、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する学習済モデル選択方法であって、前記複数の学習済モデルの各々に対応する言語ベクトルであるモデル言語ベクトル、前記複数の学習済モデルの各々の特徴量であるモデル特徴量、または、前記複数の学習済モデルの各々の機械学習に用いられた教師データと前記解析対象との類似度を用いて、前記解析対象に応じた学習済モデルを選択する。
好ましい実施形態によれば、前記モデル言語ベクトルは、前記学習済モデルの各々に付与された言語ラベルから生成される。
好ましい実施形態によれば、前記モデル言語ベクトルは、前記学習済モデルの各々の機械学習に用いられた教師データに付与された言語ラベルから生成される。
好ましい実施形態によれば、前記学習済モデル選択方法は、前記解析対象または前記解析対象に対応する言語データを検索データとして受け付ける受付ステップと、前記検索データを言語ベクトル化して検索言語ベクトルに変換する言語ベクトル変換ステップと、前記検索言語ベクトルを、前記モデル言語ベクトルの各々と比較する言語ベクトル比較ステップと、前記言語ベクトル比較ステップの比較結果に基づいて、前記複数の学習済モデルから少なくとも1つの学習済モデルを選択する選択ステップと、を備える。
好ましい実施形態によれば、前記選択ステップでは、前記検索言語ベクトルに対する類似度が最も大きいモデル言語ベクトルに対応する学習済モデルを選択する。
好ましい実施形態によれば、前記学習済モデル選択方法は、前記解析対象または前記解析対象に対応する言語データを検索データとして受け付ける受付ステップと、前記検索データを言語ベクトル化して検索言語ベクトルに変換する言語ベクトル変換ステップと、前記モデル言語ベクトルと前記モデル特徴量との関係を機械学習した特徴量変換用モデルを用いて、前記検索言語ベクトルを検索データ特徴量に変換する特徴量変換ステップと、前記検索データ特徴量を、前記モデル特徴量の各々と比較する特徴量比較ステップと、前記特徴量比較ステップの比較結果に基づいて、前記複数の学習済モデルから少なくとも1つの学習済モデルを選択する選択ステップと、を備える。
好ましい実施形態によれば、前記選択ステップでは、前記検索データ特徴量に対する類似度が最も大きいモデル特徴量に対応する学習済モデルを選択する。
好ましい実施形態によれば、前記学習済モデル選択方法は、前記解析対象または前記解析対象に対応する言語データを検索データとして受け付ける受付ステップと、前記検索データが言語データである場合に、前記言語データを前記教師データと同一形式のデータに変換する変換ステップと、前記検索データを前記教師データと比較する比較ステップと、前記比較ステップの比較結果に基づいて、前記複数の学習済モデルから少なくとも1つの学習済モデルを選択する選択ステップと、を備える。
好ましい実施形態によれば、前記教師データは、前記複数の学習済モデルにそれぞれ対応する複数の教師データセットを構成しており、前記比較ステップでは、前記複数の教師データセットを順次選択し、選択した教師データセットの教師データと前記検索データとを比較し、前記教師データセットごとに、教師データと検索データとの類似度を算出し、前記選択ステップでは、前記類似度を用いて前記複数の教師データセットから少なくとも1つの教師データセットを選択し、選択された教師データセットに対応する学習済モデルを選択する。
好ましい実施形態によれば、前期検索データは、画像である。
本発明に係る学習済モデル選択装置は、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する学習済モデル選択装置であって、前記複数の学習済モデルの各々に付与された言語ラベルから生成された言語ベクトルであるモデル言語ベクトル、前記複数の学習済モデルの各々の特徴量であるモデル特徴量、または、前記複数の学習済モデルの各々の機械学習に用いられた教師データと前記解析対象との類似度を用いて、前記解析対象に応じた学習済モデルを選択する。
本発明に係る学習済モデル選択プログラムは、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する学習済モデル選択プログラムであって、前記複数の学習済モデルの各々に対応する言語ベクトルであるモデル言語ベクトル、前記複数の学習済モデルの各々の特徴量であるモデル特徴量、または、前記複数の学習済モデルの各々の機械学習に用いられた教師データと前記解析対象との類似度を用いて、前記解析対象に応じた学習済モデルを選択する処理をコンピュータに実行させる。
本発明によれば、複数の学習済モデルから解析対象に適した学習済モデルを迅速に選択することができる。
以下、本発明の実施形態について添付図面を参照して説明する。なお、本発明は、下記の実施形態に限定されるものではない。
[実施形態1]
以下、本発明の実施形態1について説明する。
以下、本発明の実施形態1について説明する。
(学習済モデル選択装置)
図1は、実施形態1に係る学習済モデル選択装置1のブロック図である。学習済モデル選択装置1は、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する機能を有している。本実施形態において、解析対象は画像であり、解析方法はセグメンテーションであるが、解析対象および解析方法は特に限定されない。
図1は、実施形態1に係る学習済モデル選択装置1のブロック図である。学習済モデル選択装置1は、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する機能を有している。本実施形態において、解析対象は画像であり、解析方法はセグメンテーションであるが、解析対象および解析方法は特に限定されない。
学習済モデル選択装置1は、汎用のコンピュータで構成することができ、ハードウェア構成として、CPUやGPUなどのプロセッサ、DRAMやSRAMなどの主記憶装置(図示省略)、および、HDDやSSDなどの補助記憶装置10を備えている。補助記憶装置10には、画像を用いて機械学習された複数の学習済モデルM1~Mn、モデル言語ベクトルV1~Vnの他、学習済モデル選択プログラム等の学習済モデル選択装置1を動作させるための各種プログラムが格納されている。
学習済モデルM1~Mnは、互いに異なる学習データセットを用いて機械学習された人工知能モデルである。なお、各学習データセットは、同一の教師画像を共通に含んでもよいが、互いに特徴の異なる教師画像で構成されていることが好ましい。例えば、学習済モデルM1は、丸い粒子の教師画像を多く含む学習データセットを用いて機械学習されており、学習済モデルM2は、サクランボの教師画像を多く含む学習データセットを用いて機械学習されている。学習済モデルM1~Mnの数はn(n≧2)であるが、その数は特に限定されない。
本実施形態において、モデル言語ベクトルV1~Vnはそれぞれ、学習済モデルM1~Mnの各々に付与された言語ラベルから生成されたものである。例えば、学習済モデルM2は、サクランボの画像を多く含む画像群を用いて機械学習されており、サクランボおよびサクランボに類似する物体の画像を高精度に解析可能であるため、「形、大きさ、色、座標」=「丸い、小さい、赤色、なんでもいい」という言語ラベルが付与されている。言語ラベルは、人間によって付与されてもよいし、画像キャプション、mirror GAN、image to textなどのアルゴリズムによって付与されてもよい。この言語ラベルを言語ベクトル化することで、(形、大きさ、色、座標)が符号化されたモデル言語ベクトルV2が生成される。
なお、上記の例では、モデル言語ベクトルの次元数は4次元であるが、次元数は特に限定されず、例えば数百次元であってもよい。k次元のモデル言語ベクトルは、例えば図2に示すベクトル空間Vで表すことができる。また、上記の例では、モデル言語ベクトルは人間が認識できる要素のみを含んでいたが、人間が認識できない要素を含んでもよい。
学習済モデル選択装置1は、機能ブロックとして、受付部11と、言語ベクトル変換部12と、言語ベクトル比較部13と、選択部14と、解析部15とを備えている。本実施形態において、これらの各部は、学習済モデル選択装置1のプロセッサが学習済モデル選択プログラムを主記憶装置に読み出して実行することによってソフトウェア的に実現される。
(学習済モデル選択方法)
学習済モデル選択装置1の上記各部の機能について、図3に基づいて説明する。図3は、本実施形態に係る学習済モデル選択方法の処理手順を示すフローチャートである。これらのステップS1~S8は、学習済モデル選択装置1によって実行される。なお、最終目的の観点では、ステップS1~S8は、画像解析方法の処理工程であり、前処理工程であるステップS1~S3と、解析工程であるステップS4~S8に区分される。なお、前処理工程はデータベース化することで計算負荷を軽減することも可能である。
学習済モデル選択装置1の上記各部の機能について、図3に基づいて説明する。図3は、本実施形態に係る学習済モデル選択方法の処理手順を示すフローチャートである。これらのステップS1~S8は、学習済モデル選択装置1によって実行される。なお、最終目的の観点では、ステップS1~S8は、画像解析方法の処理工程であり、前処理工程であるステップS1~S3と、解析工程であるステップS4~S8に区分される。なお、前処理工程はデータベース化することで計算負荷を軽減することも可能である。
ステップS1では、学習済モデルM1~Mnを補助記憶装置10に保存する。なお、学習済モデルM1~Mnは、外部の記憶装置やクラウドに保存されてもよい。
ステップS2では、学習済モデルM1~Mnの各々に付与された言語ラベルをモデル言語ベクトルV1~Vnに変換する。ステップS2は、言語ベクトル変換部12が実行してもよい。
ステップS3では、モデル言語ベクトルV1~Vnを補助記憶装置10に保存する。なお、モデル言語ベクトルV1~Vnは、外部の記憶装置やクラウドに保存されてもよい。
ステップS4(受付ステップ)では、受付部11が、解析対象または解析対象に対応する言語データを検索データとして受け付ける。本実施形態では、受付部11は、解析対象に対応する言語データを検索データとして受け付ける。言語データは、例えば、サクランボの画像を解析対象とする場合、ユーザは、図4に示すように、「丸くて小さな赤い粒子」という言語データを検索欄Rに入力することにより検索を行う。言語データは、解析対象の内容や特徴を表現するものであれば特に限定されず、解析対象の名称(例えば「サクランボ」)であってもよい。
また、検索データは、解析対象そのものであってもよい。解析データが画像である場合、ユーザは画像データを学習済モデル選択装置1にアップロードすることにより検索を行う。アップロードされた画像は、画像キャプション、mirror GAN、image to textなどのアルゴリズムによって言語データに変換される。
ステップS5(言語ベクトル変換ステップ)では、言語ベクトル変換部12が、検索データを言語ベクトル化して検索言語ベクトルVaに変換する。例えば、検索データが、「丸くて小さな赤い粒子」である場合、言語ベクトル変換部12は、「形、大きさ、色、座標」=「丸い、小さい、赤色、なんでもいい」という検索言語ベクトルVaに変換する。検索データを検索言語ベクトルに変換する手法は、特に限定されず、単語をベクトル化する辞書や、言語データをベクトル化するように機械学習された人工知能モデルを用いてもよい。なお、検索ワードに対応する検索言語ベクトルは可変長でもよい。
ステップS6(言語ベクトル比較ステップ)では、言語ベクトル比較部13が、ステップS5で変換された検索言語ベクトルVaを、モデル言語ベクトルV1~Vnの各々と比較する。本実施形態では、言語ベクトル比較部13は、数値計算により検索言語ベクトルVaのモデル言語ベクトルV1~Vnの各々に対する類似度を算出する。類似度は、コサイン類似度やパターンマッチングなどアルゴリズムによる方法、人の主観により類似度を評価したデータセットを学習した学習済みモデルによる推論の公知の技術によって求めることができる。
ステップS7(選択ステップ)では、選択部14が、ステップS6の比較結果に基づいて、学習済モデルM1~Mnから少なくとも1つの学習済モデルを選択する。本実施形態では、選択部14は、モデル言語ベクトルV1~Vnのうち、検索言語ベクトルVaに対する類似度が最も大きいモデル言語ベクトルに対応する学習済モデルを、解析対象に適した学習済モデルとして選択する。なお、選択部14は、検索言語ベクトルVaに対する類似度が大きいモデル言語ベクトルに対応する学習済モデルであれば、学習済モデルを複数選択してもよい。また、検索言語ベクトルVaに対する類似度が大きい順に学習済モデルをランキング化し、それらの学習済モデルからユーザが選んでもよい。
ステップS8では、解析部15が、ステップS7で選択された学習済モデルを用いて、解析対象の解析を行う。
(変形例)
図5は、実施形態1の変形例に係る学習済モデル選択方法の処理手順を示すフローチャートであり、これらの処理は、図1に示す学習済モデル選択装置1によって実行される。本変形例は、補助記憶装置10に保存されたモデル言語ベクトルV1~Vnが、学習済モデルM1~Mnの各々の機械学習に用いられた教師データに付与された言語ラベルから生成される点で、上記と異なっている。すなわち、図5に示すフローチャートは、図3に示すフローチャートにおいて、ステップS2をステップS2’に置き換えた点で異なっている。そのため、以下ではステップS1、S3~S8の説明は省略する。
図5は、実施形態1の変形例に係る学習済モデル選択方法の処理手順を示すフローチャートであり、これらの処理は、図1に示す学習済モデル選択装置1によって実行される。本変形例は、補助記憶装置10に保存されたモデル言語ベクトルV1~Vnが、学習済モデルM1~Mnの各々の機械学習に用いられた教師データに付与された言語ラベルから生成される点で、上記と異なっている。すなわち、図5に示すフローチャートは、図3に示すフローチャートにおいて、ステップS2をステップS2’に置き換えた点で異なっている。そのため、以下ではステップS1、S3~S8の説明は省略する。
ステップS2’では、学習済モデルM1~Mnの各々の機械学習に用いられた教師データに付与された言語ラベルをモデル言語ベクトルV1~Vnに変換する。例えば、図6に示すように、学習済モデルMx(2≦x≦n)を生成するための教師データT1~Tmの各々には、「丸い」、「四角い」等の言語ラベルが付与されている。言語ラベルは、人間によって付与されてもよいし、画像キャプション、mirror GAN、image to textなどのアルゴリズムによって付与されてもよい。これらの言語ラベルを、言語ベクトル化することにより、モデル言語ベクトルVxが生成される。
言語ベクトル化の具体的手法は特に限定されないが、例えば、以下の手法が挙げられる。
・one-hotベクトル:単語をそれぞれのベクトルで格納する方法
・分散表現:単語を低次元のベクトルで表現する手法
・Bag-of-words:文章内の単語出現回数をベクトルの要素とする方法
これらの手法については、例えば、https://deepage.net/bigdata/machine_learning/2
016/09/02/word2vec_power_of_word_vector.html、https://deepage.net/machine_lear
ning/2017/01/08/doc2vec.htmlを参照されたい。
・one-hotベクトル:単語をそれぞれのベクトルで格納する方法
・分散表現:単語を低次元のベクトルで表現する手法
・Bag-of-words:文章内の単語出現回数をベクトルの要素とする方法
これらの手法については、例えば、https://deepage.net/bigdata/machine_learning/2
016/09/02/word2vec_power_of_word_vector.html、https://deepage.net/machine_lear
ning/2017/01/08/doc2vec.htmlを参照されたい。
また、上記手法は単語をベクトル化する手法であるが、image to textやGAN(Generative Adversarial Networks)などで文章が生成される場合は、文章のベクトル化も可能である(例えば、Doc2Vec、BERT)。
(小括)
以上のように、実施形態1では、学習済モデルM1~Mnの各々に対応するモデル言語ベクトルV1~Vnを用いることにより、学習済モデルM1~Mnから解析対象に応じた学習済モデルを選択している。言語ベクトルは、ベクトル同士の比較のための演算量が少ないため、従来技術に比べ、解析対象に適した学習済モデルを迅速に選択することができる。
以上のように、実施形態1では、学習済モデルM1~Mnの各々に対応するモデル言語ベクトルV1~Vnを用いることにより、学習済モデルM1~Mnから解析対象に応じた学習済モデルを選択している。言語ベクトルは、ベクトル同士の比較のための演算量が少ないため、従来技術に比べ、解析対象に適した学習済モデルを迅速に選択することができる。
[実施形態2]
以下、本発明の実施形態2について説明する。なお、実施形態2において、上述の実施形態1におけるものと同様の機能を有する部材については、同一の符号を付し、詳細な説明を省略する。
以下、本発明の実施形態2について説明する。なお、実施形態2において、上述の実施形態1におけるものと同様の機能を有する部材については、同一の符号を付し、詳細な説明を省略する。
(学習済モデル選択装置)
図7は、実施形態2に係る学習済モデル選択装置1’のブロック図である。学習済モデル選択装置1’は、図1に示す学習済モデル選択装置1と同様に、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する機能を有している。本実施形態においても、解析対象は画像であり、解析方法はセグメンテーションであるが、解析対象および解析方法は特に限定されない。
図7は、実施形態2に係る学習済モデル選択装置1’のブロック図である。学習済モデル選択装置1’は、図1に示す学習済モデル選択装置1と同様に、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する機能を有している。本実施形態においても、解析対象は画像であり、解析方法はセグメンテーションであるが、解析対象および解析方法は特に限定されない。
学習済モデル選択装置1’のハードウェア構成は、学習済モデル選択装置1と同様である。学習済モデル選択装置1’の補助記憶装置10には、n個の学習済モデルM1~Mn、モデル特徴量F1~Fn、特徴量変換用モデルMCの他、学習済モデル選択プログラム等の学習済モデル選択装置1’を動作させるための各種プログラムが格納されている。
モデル特徴量F1~Fnはそれぞれ、学習済モデルM1~Mnの各々の特徴量である。本実施形態において、学習済モデルの特徴量は、学習済モデルに付随する潜在変数であり、例えば、学習済モデルがニューラルネットワークである場合、学習済モデルを生成する際のハイパーパラメータおよび特徴量フィルタである。モデル特徴量は、例えば図8に示すベクトル空間Wで表すことができる。
特徴量変換用モデルMCは、モデル言語ベクトルV1~Vn(図1)とモデル特徴量F1~Fnとの関係(確率分布)をあらかじめ機械学習した人工知能モデルである。機械学習方法は特に限定されないが、例えば、線形回帰やランダムフォレストを適用できる。
学習済モデル選択装置1’は、機能ブロックとして、受付部11と、言語ベクトル変換部12と、選択部14と、解析部15と、特徴量変換部16と、特徴量比較部17とを備えている。すなわち、学習済モデル選択装置1’は、図1に示す学習済モデル選択装置1において、言語ベクトル比較部13を特徴量変換部16および特徴量比較部17に置き換えたものである。本実施形態において、これらの各部は、学習済モデル選択装置1’のプロセッサが学習済モデル選択プログラムを主記憶装置に読み出して実行することによってソフトウェア的に実現される。
(学習済モデル選択方法)
学習済モデル選択装置1’の上記各部の機能について、図9に基づいて説明する。図9は、本実施形態に係る学習済モデル選択方法の処理手順を示すフローチャートであり、これらのステップS11~S21は、学習済モデル選択装置1’によって実行される。なお、最終目的の観点では、ステップS11~S21は、画像解析方法の処理工程であり、前処理工程であるステップS11~S15と、解析工程であるステップS16~S21に区分される。なお、前処理工程はデータベース化することで計算負荷を軽減することも可能である。
学習済モデル選択装置1’の上記各部の機能について、図9に基づいて説明する。図9は、本実施形態に係る学習済モデル選択方法の処理手順を示すフローチャートであり、これらのステップS11~S21は、学習済モデル選択装置1’によって実行される。なお、最終目的の観点では、ステップS11~S21は、画像解析方法の処理工程であり、前処理工程であるステップS11~S15と、解析工程であるステップS16~S21に区分される。なお、前処理工程はデータベース化することで計算負荷を軽減することも可能である。
ステップS11では、学習済モデルM1~Mnを補助記憶装置10に保存する。ステップS11は、図3に示すステップS1と同様である。
ステップS12では、学習済モデルM1~Mnの各々に付与された言語ラベルをモデル言語ベクトルV1~Vnに変換する。ステップS12は、図3に示すステップS2と同様であるが、図5に示すステップS2’と同様であってもよい。
ステップS13では、学習済モデルM1~Mnのモデル特徴量F1~Fnを演算する。
ステップS14では、ステップS12で生成されたモデル言語ベクトルV1~Vnと、ステップS13で生成されたモデル特徴量F1~Fnとの関係を機械学習する。これにより、言語ベクトルを入力すると、当該言語ベクトルに対応する特徴量を出力する特徴量変換用モデルMCが生成される。
ステップS15では、モデル特徴量F1~Fnと、機械学習された特徴量変換用モデルMCを補助記憶装置10に保存する。なお、これらは外部の記憶装置やクラウドに保存されてもよい。
ステップS16(受付ステップ)では、受付部11が、解析対象または解析対象に対応する言語データを検索データとして受け付ける。ステップS16は、図3に示すステップS4と同様である。
ステップS17(言語ベクトル変換ステップ)では、言語ベクトル変換部12が、検索データを言語ベクトル化して検索言語ベクトルVaに変換する。ステップS17は、図3に示すステップS5と同様である。
ステップS18(特徴量変換ステップ)では、特徴量変換部16が、特徴量変換用モデルMCを用いて、ステップS17で変換された検索言語ベクトルVaを検索データ特徴量Faに変換する。特徴量変換用モデルMCは、学習済モデルM1~Mnのモデル言語ベクトルV1~Vnとモデル特徴量F1~Fnとの関係を機械学習しているため、検索言語ベクトルVaが入力されると、検索言語ベクトルVaに対応する特徴量である検索データ特徴量Faを出力する。
ステップS19(特徴量比較ステップ)では、特徴量比較部17が、ステップS18で変換された検索データ特徴量Faを、モデル特徴量F1~Fnの各々と比較する。本実施形態では、特徴量比較部17は、数値計算により検索データ特徴量Faのモデル特徴量F1~Fnの各々に対する類似度を算出する。類似度は、コサイン類似度やパターンマッチングなどアルゴリズムによる方法、人の主観により類似度を評価したデータセットを学習した学習済みモデルによる推論の公知の技術によって求めることができる。
ステップS20(選択ステップ)では、選択部14が、ステップS19の比較結果に基づいて、学習済モデルM1~Mnから少なくとも1つの学習済モデルを選択する。本実施形態では、選択部14は、モデル特徴量F1~Fnのうち、検索データ特徴量Faに対する類似度が最も大きいモデル特徴量に対応する学習済モデルを、解析対象に適した学習済モデルとして選択する。なお、選択部14は、検索データ特徴量Faに対する類似度が大きいモデル特徴量に対応する学習済モデルであれば、学習済モデルを複数選択してもよい。
ステップS21では、解析部15が、ステップS20で選択された学習済モデルを用いて、解析対象の解析を行う。
(小括)
以上のように、実施形態2では、学習済モデルM1~Mnの各々の特徴量であるモデル特徴量F1~Fnを用いることにより、学習済モデルM1~Mnから解析対象に応じた学習済モデルを選択している。特徴量も言語ベクトルと同様、特徴量同士の比較のための演算量が少ないため、従来技術に比べ、解析対象に適した学習済モデルを迅速に選択することができる。
以上のように、実施形態2では、学習済モデルM1~Mnの各々の特徴量であるモデル特徴量F1~Fnを用いることにより、学習済モデルM1~Mnから解析対象に応じた学習済モデルを選択している。特徴量も言語ベクトルと同様、特徴量同士の比較のための演算量が少ないため、従来技術に比べ、解析対象に適した学習済モデルを迅速に選択することができる。
[実施形態3]
以下、本発明の実施形態3について説明する。なお、実施形態3において、上述の実施形態1および2におけるものと同様の機能を有する部材については、同一の符号を付し、詳細な説明を省略する。
以下、本発明の実施形態3について説明する。なお、実施形態3において、上述の実施形態1および2におけるものと同様の機能を有する部材については、同一の符号を付し、詳細な説明を省略する。
(学習済モデル選択装置)
図10は、実施形態3に係る学習済モデル選択装置1”のブロック図である。学習済モデル選択装置1”は、図1および図7に示す学習済モデル選択装置1、1’と同様に、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する機能を有している。本実施形態において、解析対象および教師データは画像であり、解析方法はセグメンテーションであるが、解析対象および教師データのデータ形式、並びに解析方法は特に限定されない。
図10は、実施形態3に係る学習済モデル選択装置1”のブロック図である。学習済モデル選択装置1”は、図1および図7に示す学習済モデル選択装置1、1’と同様に、複数の学習済モデルから解析対象を解析するための学習済モデルを選択する機能を有している。本実施形態において、解析対象および教師データは画像であり、解析方法はセグメンテーションであるが、解析対象および教師データのデータ形式、並びに解析方法は特に限定されない。
学習済モデル選択装置1”のハードウェア構成は、学習済モデル選択装置1、1’と同様である。学習済モデル選択装置1”の補助記憶装置10には、n個の学習済モデルM1~Mn、n個の教師データセットS1~Snの他、学習済モデル選択プログラム等の学習済モデル選択装置1”を動作させるための各種プログラムが格納されている。
教師データセットS1~Snはそれぞれ、学習済モデルM1~Mnに対応しており、学習済モデルM1~Mnの機械学習に用いられた教師データは、教師データセットS1~Snを構成している。すなわち、教師データセットSk(1≦k≦n)は、学習済モデルMkの機械学習に用いられたm個の教師データk-1~k-m(mは不定の整数)で構成されている。なお、近年の機械学習では転移学習が行われることが多いため、mは数百程度である。
学習済モデル選択装置1”は、機能ブロックとして、受付部11と、選択部14と、解析部15と、検索データ変換部18と、検索データ比較部19とを備えている。すなわち、学習済モデル選択装置1”は、図1に示す学習済モデル選択装置1において、言語ベクトル比較部13を検索データ変換部18および検索データ比較部19に置き換えたものである。本実施形態において、これらの各部は、学習済モデル選択装置1”のプロセッサが学習済モデル選択プログラムを主記憶装置に読み出して実行することによってソフトウェア的に実現される。
(学習済モデル選択方法)
学習済モデル選択装置1”の上記各部の機能について、図11に基づいて説明する。図11は、本実施形態に係る学習済モデル選択方法の処理手順を示すフローチャートであり、これらのステップS31~S37は、学習済モデル選択装置1”によって実行される。なお、最終目的の観点では、ステップS31~S37は、画像解析方法の処理工程であり、前処理工程であるステップS31と、解析工程であるステップS32~S37に区分される。なお、前処理工程はデータベース化することで計算負荷を軽減することも可能である。
学習済モデル選択装置1”の上記各部の機能について、図11に基づいて説明する。図11は、本実施形態に係る学習済モデル選択方法の処理手順を示すフローチャートであり、これらのステップS31~S37は、学習済モデル選択装置1”によって実行される。なお、最終目的の観点では、ステップS31~S37は、画像解析方法の処理工程であり、前処理工程であるステップS31と、解析工程であるステップS32~S37に区分される。なお、前処理工程はデータベース化することで計算負荷を軽減することも可能である。
ステップS31では、学習済モデルM1~Mnおよび教師データセットS1~Snを補助記憶装置10に保存する。
ステップS32(受付ステップ)では、受付部11が、解析対象または解析対象に対応する言語データを検索データとして受け付ける。
検索データが教師データと同じ形式(本実施形態では画像)である場合(ステップS33でYES)、ステップS35に移行する。検索データが教師データと異なる形式(例えば、言語データ)である場合(ステップS33でNO)、ステップS34に移行する。
ステップS34(変換ステップ)では、検索データ変換部18が、検索データを教師データの形式(画像)に変換する。画像への変換には、mirror GAN等のアルゴリズムを用いることができる。
ステップS35(比較ステップ)では、検索データ比較部19が、検索データ(画像)を教師データと比較する。具体的には、検索データ比較部19は、教師データセットS1~Snを順次選択し、選択した教師データセットの各教師データと検索データとを比較し、教師データセットごとに、教師データと検索データとの類似度を算出する。本実施形態では、検索データ比較部19は、類似度の平均値または最大値を算出する。教師データと検索データとの類似度は、コサイン類似度やパターンマッチングなどアルゴリズムによる方法、人の主観により類似度を評価したデータセットを学習した学習済みモデルによる推論等の公知の技術によって求めることができる。なお、検索データ比較部19は、各教師データセットの全ての教師データを比較対象とする必要はない。
ステップS36(選択ステップ)では、選択部14が、ステップS35の比較結果に基づいて、学習済モデルM1~Mnから少なくとも1つの学習済モデルを選択する。本実施形態では、選択部14は、教師データと検索データとの類似度の平均値または最大値が最も大きい教師データセットに対応する学習済モデルを、解析対象に適した学習済モデルとして選択する。なお、選択部14は、各教師データと検索データとの類似度の平均値または最大値が大きい教師データセットに対応する学習済モデルであれば、学習済モデルを複数選択してもよい。
ステップS37では、解析部15が、ステップS36で選択された学習済モデルを用いて、解析対象の解析を行う。
(小括)
以上のように、実施形態3では、学習済モデルM1~Mnの各々の機械学習に用いられた教師データと解析対象との類似度を用いることにより、学習済モデルM1~Mnから解析対象に応じた学習済モデルを選択している。本実施形態では、学習済モデルにテストデータを入力する必要がないため、従来技術に比べ、解析対象に適した学習済モデルを迅速に選択することができる。
以上のように、実施形態3では、学習済モデルM1~Mnの各々の機械学習に用いられた教師データと解析対象との類似度を用いることにより、学習済モデルM1~Mnから解析対象に応じた学習済モデルを選択している。本実施形態では、学習済モデルにテストデータを入力する必要がないため、従来技術に比べ、解析対象に適した学習済モデルを迅速に選択することができる。
なお、本実施形態では、解析対象は画像であり、検索データが言語データである場合は、言語データを画像に変換して教師データと比較していたが、本発明はこれに限定されない。解析対象が画像以外の形式であり、検索データが言語データである場合は、言語データを教師データと同一形式のデータに変換して教師データと比較する。
(付記事項)
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
1 学習済モデル選択装置
1’ 学習済モデル選択装置
1” 学習済モデル選択装置
10 補助記憶装置
11 受付部
12 言語ベクトル変換部
13 言語ベクトル比較部
14 選択部
15 解析部
16 特徴量変換部
17 特徴量比較部
18 検索データ変換部
19 検索データ比較部
F1~Fn モデル特徴量
Fa 検索データ特徴量
M1~Mn 学習済モデル
MC 特徴量変換用モデル
S1~Sn 教師データセット
T1~Tm 教師データ
T1-1~T1-m 教師データ
Tn-1~Tn-m 教師データ
V1~Vn モデル言語ベクトル
Va 検索言語ベクトル
1’ 学習済モデル選択装置
1” 学習済モデル選択装置
10 補助記憶装置
11 受付部
12 言語ベクトル変換部
13 言語ベクトル比較部
14 選択部
15 解析部
16 特徴量変換部
17 特徴量比較部
18 検索データ変換部
19 検索データ比較部
F1~Fn モデル特徴量
Fa 検索データ特徴量
M1~Mn 学習済モデル
MC 特徴量変換用モデル
S1~Sn 教師データセット
T1~Tm 教師データ
T1-1~T1-m 教師データ
Tn-1~Tn-m 教師データ
V1~Vn モデル言語ベクトル
Va 検索言語ベクトル
Claims (12)
- 複数の学習済モデルから解析対象を解析するための学習済モデルを選択する学習済モデル選択方法であって、
前記複数の学習済モデルの各々に対応する言語ベクトルであるモデル言語ベクトル、前記複数の学習済モデルの各々の特徴量であるモデル特徴量、または、前記複数の学習済モデルの各々の機械学習に用いられた教師データと前記解析対象との類似度を用いて、前記解析対象に応じた学習済モデルを選択する、学習済モデル選択方法。 - 前記モデル言語ベクトルは、前記学習済モデルの各々に付与された言語ラベルから生成される、請求項1に記載の学習済モデル選択方法。
- 前記モデル言語ベクトルは、前記学習済モデルの各々の機械学習に用いられた教師データに付与された言語ラベルから生成される、請求項1に記載の学習済モデル選択方法。
- 前記解析対象または前記解析対象に対応する言語データを検索データとして受け付ける受付ステップと、
前記検索データを言語ベクトル化して検索言語ベクトルに変換する言語ベクトル変換ステップと、
前記検索言語ベクトルを、前記モデル言語ベクトルの各々と比較する言語ベクトル比較ステップと、
前記言語ベクトル比較ステップの比較結果に基づいて、前記複数の学習済モデルから少なくとも1つの学習済モデルを選択する選択ステップと、
を備える、請求項2または3に記載の学習済モデル選択方法。 - 前記選択ステップでは、前記検索言語ベクトルに対する類似度が最も大きいモデル言語ベクトルに対応する学習済モデルを選択する、請求項4に記載の学習済モデル選択方法。
- 前記解析対象または前記解析対象に対応する言語データを検索データとして受け付ける受付ステップと、
前記検索データを言語ベクトル化して検索言語ベクトルに変換する言語ベクトル変換ステップと、
前記モデル言語ベクトルと前記モデル特徴量との関係を機械学習した特徴量変換用モデルを用いて、前記検索言語ベクトルを検索データ特徴量に変換する特徴量変換ステップと、
前記検索データ特徴量を、前記モデル特徴量の各々と比較する特徴量比較ステップと、
前記特徴量比較ステップの比較結果に基づいて、前記複数の学習済モデルから少なくとも1つの学習済モデルを選択する選択ステップと、
を備える、請求項1に記載の学習済モデル選択方法。 - 前記選択ステップでは、前記検索データ特徴量に対する類似度が最も大きいモデル特徴量に対応する学習済モデルを選択する、請求項6に記載の学習済モデル選択方法。
- 前記解析対象または前記解析対象に対応する言語データを検索データとして受け付ける受付ステップと、
前記検索データが言語データである場合に、前記言語データを前記教師データと同一形式のデータに変換する変換ステップと、
前記検索データを前記教師データと比較する比較ステップと、
前記比較ステップの比較結果に基づいて、前記複数の学習済モデルから少なくとも1つの学習済モデルを選択する選択ステップと、
を備える、請求項1に記載の学習済モデル選択方法。 - 前記教師データは、前記複数の学習済モデルにそれぞれ対応する複数の教師データセットを構成しており、
前記比較ステップでは、前記複数の教師データセットを順次選択し、選択した教師データセットの教師データと前記検索データとを比較し、前記教師データセットごとに、教師データと検索データとの類似度を算出し、
前記選択ステップでは、前記類似度を用いて前記複数の教師データセットから少なくとも1つの教師データセットを選択し、選択された教師データセットに対応する学習済モデルを選択する、請求項8に記載の学習済モデル選択方法。 - 前期検索データは、画像である、請求項9に記載の学習済みモデル選択方法。
- 複数の学習済モデルから解析対象を解析するための学習済モデルを選択する学習済モデル選択装置であって、
前記複数の学習済モデルの各々に付与された言語ラベルから生成された言語ベクトルであるモデル言語ベクトル、前記複数の学習済モデルの各々の特徴量であるモデル特徴量、または、前記複数の学習済モデルの各々の機械学習に用いられた教師データと前記解析対象との類似度を用いて、前記解析対象に応じた学習済モデルを選択する、学習済モデル選択装置。 - 複数の学習済モデルから解析対象を解析するための学習済モデルを選択する学習済モデル選択プログラムであって、
前記複数の学習済モデルの各々に対応する言語ベクトルであるモデル言語ベクトル、前記複数の学習済モデルの各々の特徴量であるモデル特徴量、または、前記複数の学習済モデルの各々の機械学習に用いられた教師データと前記解析対象との類似度を用いて、前記解析対象に応じた学習済モデルを選択する処理をコンピュータに実行させる学習済モデル選択プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022127374A JP2024024504A (ja) | 2022-08-09 | 2022-08-09 | 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム |
PCT/JP2023/016265 WO2024034196A1 (ja) | 2022-08-09 | 2023-04-25 | 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022127374A JP2024024504A (ja) | 2022-08-09 | 2022-08-09 | 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024024504A true JP2024024504A (ja) | 2024-02-22 |
Family
ID=89851509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022127374A Pending JP2024024504A (ja) | 2022-08-09 | 2022-08-09 | 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024024504A (ja) |
WO (1) | WO2024034196A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7493323B2 (ja) * | 2019-11-14 | 2024-05-31 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP7388256B2 (ja) * | 2020-03-10 | 2023-11-29 | 富士通株式会社 | 情報処理装置及び情報処理方法 |
JP2022064214A (ja) * | 2020-10-13 | 2022-04-25 | 株式会社ブルーブックス | データ管理システム、データ管理方法、および機械学習データ管理プログラム |
-
2022
- 2022-08-09 JP JP2022127374A patent/JP2024024504A/ja active Pending
-
2023
- 2023-04-25 WO PCT/JP2023/016265 patent/WO2024034196A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024034196A1 (ja) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xia et al. | Complete random forest based class noise filtering learning for improving the generalizability of classifiers | |
Wainer | Comparison of 14 different families of classification algorithms on 115 binary datasets | |
Zhu et al. | Effective supervised discretization for classification based on correlation maximization | |
US11328125B2 (en) | Method and server for text classification using multi-task learning | |
US20210056127A1 (en) | Method for multi-modal retrieval and clustering using deep cca and active pairwise queries | |
US20220101144A1 (en) | Training a latent-variable generative model with a noise contrastive prior | |
Chien et al. | Learning discriminant functions with fuzzy attributes for classification using genetic programming | |
Rutkowski et al. | On explainable fuzzy recommenders and their performance evaluation | |
Jun | A forecasting model for technological trend using unsupervised learning | |
Farazi et al. | Accuracy vs. complexity: a trade-off in visual question answering models | |
JP3568181B2 (ja) | ニューラルネット分析装置、記憶媒体 | |
CN117494051A (zh) | 一种分类处理的方法、模型训练的方法以及相关装置 | |
Nguyen et al. | Classification optimization for training a large dataset with Naïve Bayes | |
Jenny Li et al. | Evaluating deep learning biases based on grey-box testing results | |
US11983633B2 (en) | Machine learning predictions by generating condition data and determining correct answers | |
JP6899973B2 (ja) | 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム | |
WO2024034196A1 (ja) | 学習済モデル選択方法、学習済モデル選択装置および学習済モデル選択プログラム | |
Shirzad et al. | Deep Learning approach for text, image, and GIF multimodal sentiment analysis | |
Janković Babić | A comparison of methods for image classification of cultural heritage using transfer learning for feature extraction | |
Han | Detecting an ECG arrhythmia using cascade architectures of fuzzy neural networks | |
CN115413345A (zh) | 提升和矩阵分解 | |
JP6509391B1 (ja) | 計算機システム | |
Özpolat et al. | Exploring the potential of quantum-based machine learning: A comparative study of qsvm and classical machine learning algorithms | |
CN110633363A (zh) | 一种基于nlp和模糊多准则决策的文本实体推荐方法 | |
WO2023181319A1 (ja) | 情報処理装置 |