以下に、図面を参照して、本発明にかかる情報処理方法、情報処理プログラム、および情報処理装置の実施の形態を詳細に説明する。
(実施の形態にかかる情報処理方法の一実施例)
図1および図2は、実施の形態にかかる情報処理方法の一実施例を示す説明図である。情報処理装置100は、データを精度よく分類可能にするためのコンピュータである。情報処理装置100は、例えば、サーバやPC(Personal Computer)などである。データは、例えば、数値データである。
ここで、データを分類する技術として、例えば、データを画像化し、画像を分類する学習済みモデルを流用することにより、データに合わせた分類モデルを新たに作成しなくても、データを分類可能にしようとするものが考えられる。
この技術は、例えば、Imagificationとも呼ばれる。学習済みモデルは、入力された画像に対応する特徴量を出力するモデルである。学習済みモデルは、例えば、ニューラルネットワークである。学習済みモデルは、具体的には、Open Source Softwareで公開されているモデルであってもよい。以下の説明では、ニューラルネットワークを「NN」と表記する場合がある。これによれば、データに合わせた分類モデルを新たに作成せずに済み、作成のための膨大な教師データを用意せずに済む。
しかしながら、従来では、この技術を用いた場合、データを精度よく分類することが難しいことがある。例えば、この技術で利用可能な画像化手法が複数存在する場合が考えられる。この場合、分類しようとするデータを、どのような画像化手法を用いて画像化すれば、学習済みモデルにより、データを分類しやすくなるのかを判断することが難しい。そして、データを画像化する際、データに合った画像化手法を用いなければ、データを画像化して学習済みモデルに入力しても、データを精度よく分類することはできない。
これに対し、人手または自動で、データに合った画像化手法を検討することが考えられるが、膨大なデータを用意し、複数の画像化手法のいずれの画像化手法が、データに合った画像化手法であるかを1つ1つ検討することになる。このため、データに合った画像化手法を検討する検討作業にかかる作業量および作業時間が膨大になりやすく、データを分類しようとする分類作業者にかかる作業負担の増大化を招いてしまう。分類作業者にかかる作業負担の増大化を招く具体例については、例えば、図15を用いて後述する。
さらに、例えば、この技術で利用可能な学習済みモデルが複数存在する場合が考えられる。この場合、分類しようとするデータを画像化した後、どのような学習済みモデルに入力すれば、データを精度よく分類しやすくなるのかを判断することが難しい。そして、データを画像化した後、データに合った学習済みモデルに入力しなければ、データを精度よく分類することはできない。
これに対し、人手または自動で、データに合った学習済みモデルを検討することが考えられるが、膨大なデータを用意し、複数の学習済みモデルのいずれの学習済みモデルが、データに合った学習済みモデルであるかを1つ1つ検討することになる。このため、データに合った学習済みモデルを検討する検討作業にかかる作業量および作業時間が膨大になりやすく、データを分類しようとする分類作業者にかかる作業負担の増大化を招いてしまう。分類作業者にかかる作業負担の増大化を招く具体例については、例えば、図15を用いて後述する。
従って、分類しようとするデータに合った画像化手法と学習済みモデルとの組み合わせを特定可能にすることが望まれる。そして、分類しようとするデータに合った画像化手法と学習済みモデルとの組み合わせを特定する際にかかる所要時間の増大化を抑制することが望まれる。
そこで、本実施の形態では、学習済みモデルに、データ群を画像化して生成された画像群が入力された場合に出力される特徴量群の特徴量空間における分布を参照することにより、データを精度よく分類可能にすることができる情報処理方法について説明する。
図1の例では、説明の簡略化のため、画像化手法が複数存在し、かつ、学習済みモデルが1つ存在する場合における一実施例について説明する。また、学習済みモデルが複数存在する場合における一実施例については、図2を用いて後述する。
図1において、(1-1)情報処理装置100は、画像化手法によりデータ群を画像化して生成された画像群を複数取得する。情報処理装置100は、例えば、複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して生成された画像群を取得する。
ここで、情報処理装置100は、複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して生成された画像群を、自装置で生成することにより取得してもよいし、他装置から受信することにより取得してもよい。図1の例では、情報処理装置100は、データ群101を画像化して生成された画像群110,111を取得する。
(1-2)情報処理装置100は、取得した画像群ごとに、画像群の生成に用いた画像化手法のスコアを算出する。情報処理装置100は、例えば、画像群ごとに、学習済みモデルにより画像群から得た特徴量群と、学習済みモデルにより基準画像群から得た特徴量群との特徴量空間における分布に基づいて、画像群の生成に用いた画像化手法のスコアを算出する。
基準画像群とは、例えば、学習済みモデルを用いて分類することが難しいノイズ画像群である。学習済みモデルにより画像群から得た特徴量群とは、例えば、学習済みモデルに画像群の各画像が入力された場合に、学習済みモデルから出力される特徴量群である。学習済みモデルにより基準画像群から得た特徴量群とは、例えば、学習済みモデルに基準画像群の各画像が入力された場合に、学習済みモデルから出力される特徴量群である。
ここで、基準画像群は、学習済みモデルを用いて分類することが難しいノイズ画像群であるため、学習済みモデルにより基準画像群から得た特徴量群の分布は、データの分類に失敗した場合の見本となりうる。従って、画像群から得た特徴量群の分布が、基準画像群から得た特徴量群の分布に類似しないほど、画像群の生成に用いた画像化手法の、データの分類精度の向上への寄与度合いが大きいことを示すことになる。画像化手法の、データの分類精度の向上への寄与度合いが大きければ、スコアを高くすることが好ましい。
図1の例では、情報処理装置100は、学習済みモデル130により画像群110から得た特徴量群140と、学習済みモデル130により基準画像群120から得た特徴量群150とを取得する。情報処理装置100は、特徴量群140,150の特徴量空間における分布に基づいて、画像群110の生成に用いた画像化手法のスコアを算出する。
また、情報処理装置100は、学習済みモデル130により画像群111から得た特徴量群141と、学習済みモデル130により基準画像群120から得た特徴量群150とを取得する。情報処理装置100は、特徴量群141,150の特徴量空間における分布に基づいて、画像群111の生成に用いた画像化手法のスコアを算出する。ここでは、情報処理装置100は、特徴量群140の分布が、特徴量群141の分布よりも特徴量群150の分布から遠いため、画像群110の生成に用いた画像化手法のスコアを、画像群111の生成に用いた画像化手法のスコアより大きくなるように算出する。
(1-3)情報処理装置100は、画像群ごとに算出した画像化手法のスコアを出力する。図1の例では、情報処理装置100は、画像群110の生成に用いた画像化手法のスコア、および、画像群111の生成に用いた画像化手法のスコアを出力する。出力先は、例えば、データを分類しようとする分類作業者が閲覧可能である他の装置のディスプレイである。
これにより、情報処理装置100は、比較的少ない作業量で、複数の画像化手法のいずれの画像化手法が、データに合った画像化手法であるかを検討することができる。そして、情報処理装置100は、分類作業者が、スコアを参照して、複数の画像化手法のいずれの画像化手法が、データに合った画像化手法であるかを把握しやすくすることができる。このため、情報処理装置100は、分類作業者の作業負担の低減化を図ることができる。
ここでは、情報処理装置100が、基準画像群として、学習済みモデルを用いて分類することが難しいノイズ画像群を利用する場合について説明したが、これに限らない。例えば、情報処理装置100が、基準画像群として、学習済みモデルを用いて精度よく分類することが可能である最適画像群を利用する場合があってもよい。この場合、情報処理装置100は、画像群から得た特徴量群の分布が、基準画像群から得た特徴量群の分布に類似するほど、画像群の生成に用いた画像化手法のスコアが高くなるようにすることが好ましい。次に、図2の説明に移行する。
図2の例では、説明の簡略化のため、画像化手法が1つ存在し、かつ、学習済みモデルが複数存在する場合における一実施例について説明する。
図2において、(2-1)情報処理装置100は、学習済みモデルおよび基準モデルを複数取得する。基準モデルは、学習済みモデルごとに対応付けて用意され、学習済みモデルごとに異なるモデルである。基準モデルは、例えば、学習済みモデルの元となる未学習モデルである。未学習モデルは、例えば、パラメータが初期化された状態である。
図2の例では、情報処理装置100は、学習済みモデル220と、学習済みモデル220に対応する基準モデル221と、学習済みモデル230と、学習済みモデル230に対応する基準モデル231とを取得する。
(2-2)情報処理装置100は、取得した学習済みモデルごとにスコアを算出する。情報処理装置100は、例えば、学習済みモデルごとに、学習済みモデルにより所定画像群から得た特徴量群と、基準モデルにより所定画像群から得た特徴量群との特徴量空間における分布に基づいて、学習済みモデルのスコアを算出する。所定画像群は、例えば、データ群を画像化して生成される。
学習済みモデルにより所定画像群から得た特徴量群とは、例えば、学習済みモデルに所定画像群のそれぞれが入力された場合に、学習済みモデルから出力される特徴量群である。基準モデルにより所定画像群から得た特徴量群とは、例えば、基準モデルに所定画像群のそれぞれが入力された場合に、基準モデルから出力される特徴量群である。
ここで、基準モデルは、未学習モデルであるため、基準モデルにより所定画像群から得た特徴量群の分布は、データの分類に失敗した場合の見本となりうる。従って、学習済みモデルにより所定画像群から得た特徴量群の分布が、基準モデルにより所定画像群から得た特徴量群の分布に類似しないほど、学習済みモデルの、データの分類精度の向上への寄与度合いが大きいことを示すことになる。学習済みモデルの、データの分類精度の向上への寄与度合いが大きければ、スコアを高くすることが好ましい。
図2の例では、情報処理装置100は、データ群201を画像化して生成された所定画像群210を取得する。情報処理装置100は、学習済みモデル220により所定画像群210から得た特徴量群240と、基準モデル221により所定画像群210から得た特徴量群241とを取得する。情報処理装置100は、特徴量群240,241の特徴量空間における分布に基づいて、学習済みモデル220のスコアを算出する。
また、情報処理装置100は、学習済みモデル230により所定画像群210から得た特徴量群250と、基準モデル231により所定画像群210から得た特徴量群251とを取得する。情報処理装置100は、特徴量群250,251の特徴量空間における分布に基づいて、学習済みモデル230のスコアを算出する。ここでは、情報処理装置100は、特徴量群240の分布が、特徴量群241の分布から比較的遠いため、学習済みモデル220のスコアを比較的大きく算出する。一方で、情報処理装置100は、特徴量群250の分布が、特徴量群251の分布に比較的近いため、学習済みモデル230のスコアを比較的小さく算出する。
(2-3)情報処理装置100は、学習済みモデルごとに算出した学習済みモデルのスコアを出力する。図2の例では、情報処理装置100は、学習済みモデル220のスコア、および、学習済みモデル230のスコアを出力する。出力先は、例えば、データを分類しようとする分類作業者が閲覧可能である他の装置のディスプレイである。
これにより、情報処理装置100は、比較的少ない作業量で、複数の学習済みモデルのいずれの学習済みモデルが、データに合った学習済みモデルであるかを検討することができる。そして、情報処理装置100は、分類作業者が、スコアを参照して、複数の学習済みモデルのいずれの学習済みモデルが、データに合った学習済みモデルであるかを把握しやすくすることができる。このため、情報処理装置100は、分類作業者の作業負担の低減化を図ることができる。
ここでは、情報処理装置100が、学習済みモデルにより所定画像群から得た特徴量群と、基準モデルにより所定画像群から得た特徴量群との特徴量空間における分布を利用する場合について説明したが、これに限らない。例えば、情報処理装置100が、さらに、基準モデルによりノイズ画像群から得た特徴量群の特徴量空間における分布も利用する場合があってもよい。
図1の例では、説明の簡略化のため、学習済みモデルが1つである場合について説明し、また、図2の例では、説明の簡略化のため、画像化手法が1つである場合について説明したが、これに限らない。以下の説明では、画像化手法が複数存在し、かつ、学習済みモデルが複数存在する場合についても含むように説明することにする。画像化手法が複数存在し、かつ、学習済みモデルが複数存在する場合の具体例については、例えば、図7~図11を用いて後述する。
(情報処理システム300の一例)
次に、図3を用いて、図1および図2に示した情報処理装置100を適用した、情報処理システム300の一例について説明する。
図3は、情報処理システム300の一例を示す説明図である。図3において、情報処理システム300は、情報処理装置100と、クライアント装置301とを含む。情報処理システム300において、情報処理装置100とクライアント装置301とは、有線または無線のネットワーク310を介して接続される。ネットワーク310は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。
情報処理装置100は、例えば、分類対象のデータを、クライアント装置301から取得する。情報処理装置100は、具体的には、1つのクライアント装置301から分類対象のデータを取得する。情報処理装置100は、具体的には、複数のクライアント装置301から分類対象のデータを収集してもよい。情報処理装置100は、例えば、分類対象のデータに基づいて、分類対象のデータに合った画像化手法と学習済みモデルとの組み合わせを、クライアント装置301に表示させる。情報処理装置100は、例えば、分類対象のデータを分類した結果を、クライアント装置301に表示させてもよい。情報処理装置100は、例えば、サーバやPCなどである。
クライアント装置301は、例えば、分類対象のデータを、情報処理装置100に送信するコンピュータである。クライアント装置301は、例えば、分類対象のデータに合った画像化手法と学習済みモデルとの組み合わせを、情報処理装置100から受信して表示する。クライアント装置301は、例えば、分類対象のデータを分類した結果を、情報処理装置100から受信して表示してもよい。クライアント装置301は、例えば、PC、タブレット端末、または、スマートフォンなどである。ここでは、情報処理装置100が、クライアント装置301とは異なる装置である場合について説明したが、これに限らない。例えば、情報処理装置100が、クライアント装置301と一体である場合があってもよい。
(情報処理装置100のハードウェア構成例)
次に、図4を用いて、情報処理装置100のハードウェア構成例について説明する。
図4は、情報処理装置100のハードウェア構成例を示すブロック図である。図4において、情報処理装置100は、CPU(Central Processing Unit)401と、メモリ402と、ネットワークI/F(Interface)403と、記録媒体I/F404と、記録媒体405とを有する。また、各構成部は、バス400によってそれぞれ接続される。
ここで、CPU401は、情報処理装置100の全体の制御を司る。メモリ402は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU401のワークエリアとして使用される。メモリ402に記憶されるプログラムは、CPU401にロードされることで、コーディングされている処理をCPU401に実行させる。
ネットワークI/F403は、通信回線を通じてネットワーク310に接続され、ネットワーク310を介して他のコンピュータに接続される。そして、ネットワークI/F403は、ネットワーク310と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F403は、例えば、モデムやLANアダプタなどである。
記録媒体I/F404は、CPU401の制御に従って記録媒体405に対するデータのリード/ライトを制御する。記録媒体I/F404は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体405は、記録媒体I/F404の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体405は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体405は、情報処理装置100から着脱可能であってもよい。
情報処理装置100は、上述した構成部のほか、例えば、キーボード、マウス、ディスプレイ、プリンタ、スキャナ、マイク、スピーカーなどを有してもよい。また、情報処理装置100は、記録媒体I/F404や記録媒体405を複数有していてもよい。また、情報処理装置100は、記録媒体I/F404や記録媒体405を有していなくてもよい。
(クライアント装置301のハードウェア構成例)
次に、図5を用いて、図2に示した情報処理システム300に含まれるクライアント装置301のハードウェア構成例について説明する。
図5は、クライアント装置301のハードウェア構成例を示すブロック図である。図5において、クライアント装置301は、CPU501と、メモリ502と、ネットワークI/F503と、記録媒体I/F504と、記録媒体505と、ディスプレイ506と、入力装置507とを有する。また、各構成部は、バス500によってそれぞれ接続される。
ここで、CPU501は、クライアント装置301の全体の制御を司る。メモリ502は、例えば、ROM、RAMおよびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU501のワークエリアとして使用される。メモリ502に記憶されるプログラムは、CPU501にロードされることで、コーディングされている処理をCPU501に実行させる。
ネットワークI/F503は、通信回線を通じてネットワーク310に接続され、ネットワーク310を介して他のコンピュータに接続される。そして、ネットワークI/F503は、ネットワーク310と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F503は、例えば、モデムやLANアダプタなどである。
記録媒体I/F504は、CPU501の制御に従って記録媒体505に対するデータのリード/ライトを制御する。記録媒体I/F504は、例えば、ディスクドライブ、SSD、USBポートなどである。記録媒体505は、記録媒体I/F504の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体505は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体505は、クライアント装置301から着脱可能であってもよい。
ディスプレイ506は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。ディスプレイ506は、例えば、CRT(Cathode Ray Tube)、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイなどである。入力装置507は、文字、数字、各種指示などの入力のためのキーを有し、データの入力を行う。入力装置507は、キーボードやマウスなどであってもよく、また、タッチパネル式の入力パッドやテンキーなどであってもよい。
クライアント装置301は、上述した構成部のほか、例えば、プリンタ、スキャナ、マイク、スピーカーなどを有してもよい。また、クライアント装置301は、記録媒体I/F504や記録媒体505を複数有していてもよい。また、クライアント装置301は、記録媒体I/F504や記録媒体505を有していなくてもよい。
(情報処理装置100の機能的構成例)
次に、図6を用いて、情報処理装置100の機能的構成例について説明する。
図6は、情報処理装置100の機能的構成例を示すブロック図である。情報処理装置100は、記憶部600と、取得部601と、算出部602と、選択部603と、分類部604と、出力部605とを含む。
記憶部600は、例えば、図4に示したメモリ402や記録媒体405などの記憶領域によって実現される。以下では、記憶部600が、情報処理装置100に含まれる場合について説明するが、これに限らない。例えば、記憶部600が、情報処理装置100とは異なる装置に含まれ、記憶部600の記憶内容が情報処理装置100から参照可能である場合があってもよい。
取得部601~出力部605は、制御部の一例として機能する。取得部601~出力部605は、具体的には、例えば、図4に示したメモリ402や記録媒体405などの記憶領域に記憶されたプログラムをCPU401に実行させることにより、または、ネットワークI/F403により、その機能を実現する。各機能部の処理結果は、例えば、図4に示したメモリ402や記録媒体405などの記憶領域に記憶される。
記憶部600は、各機能部の処理において参照され、または更新される各種情報を記憶する。記憶部600は、複数の画像化手法を記憶する。ここで、2つの画像化手法について、画像化アルゴリズムが同一でも、それぞれの画像化手法の変数が異なれば、異なる種類の画像化手法として扱ってよい。記憶部600は、複数の学習済みモデルを記憶する。学習済みモデルは、例えば、ニューラルネットワークである。ここで、2つの学習済みモデルについて、ニューラルネットワークのネットワークトポロジーが同一でも、それぞれの学習済みモデルのパラメータが異なれば、異なる種類の学習済みモデルとして扱ってよい。記憶部600は、複数の学習済みモデルのそれぞれの学習済みモデルの元となる未学習モデルを記憶してもよい。
記憶部600は、第1基準画像群を記憶する。第1基準画像群は、例えば、学習済みモデルを用いて分類することが難しいノイズ画像群である。第1基準画像群は、例えば、学習済みモデルの生成に用いた最適画像群であってもよい。第1基準画像群は、例えば、ノイズ画像群と、最適画像群との2種類であってもよい。第1基準画像群は、例えば、画像1つであってもよい。記憶部600は、第2基準画像群を記憶する。第2基準画像群は、例えば、第1基準画像群と同一の画像群である。第2基準画像群は、例えば、ノイズ画像群である。第2基準画像群は、例えば、画像1つであってもよい。
記憶部600は、学習済みモデルごとに、学習済みモデルに第1基準画像群の各画像が入力された場合に、学習済みモデルから出力される特徴量群を記憶してもよい。また、記憶部600は、学習済みモデルごとに、学習済みモデルに第1基準画像群の各画像が入力された場合に、学習済みモデルから出力される特徴量群の特徴量空間における分布を示す情報を記憶してもよい。分布を示す情報は、例えば、特徴量群の平均特徴量や分散である。
記憶部600は、学習済みモデルごとに、学習済みモデルに対応する基準モデルに第2基準画像群の各画像が入力された場合に、基準モデルから出力される特徴量群を記憶してもよい。また、記憶部600は、学習済みモデルごとに、学習済みモデルに対応する基準モデルに第2基準画像群の各画像が入力された場合に、基準モデルから出力される特徴量群の特徴量空間における分布を示す情報を記憶してもよい。分布を示す情報は、例えば、特徴量群の平均特徴量や分散である。
取得部601は、各機能部の処理に用いられる各種情報を取得する。取得部601は、取得した各種情報を、記憶部600に記憶し、または、各機能部に出力する。また、取得部601は、記憶部600に記憶しておいた各種情報を、各機能部に出力してもよい。取得部601は、例えば、利用者の操作入力に基づき、各種情報を取得する。取得部601は、例えば、情報処理装置100とは異なる装置から、各種情報を受信してもよい。
取得部601は、データ群を取得する。データ群は、画像化手法または学習済みモデルを評価するための評価用である。取得部601は、例えば、データ集合を取得し、データ集合の中からデータ群を抽出する。データ集合は、例えば、分類対象である。これにより、取得部601は、データ集合全体を評価用とせず、データ集合の一部を評価用とすることができ、処理量の低減化を図ることができる。
取得部601は、複数の画像群を取得する。画像群は、例えば、画像1つであってもよい。取得部601は、例えば、画像化手法によりデータ群を画像化して生成された画像群を複数取得する。データ群のデータと、画像群の画像とは、例えば、1対1の対応でなくてもよい。データ群の2以上のデータが、例えば、1つの画像に画像化される場合があってもよい。取得部601は、具体的には、複数の画像化手法の指定を受け付ける。そして、取得部601は、指定された複数の画像化手法のそれぞれの画像化手法により、取得したデータ群を画像化し、複数の画像群を取得する。取得部601は、データ群を取得せず、複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して画像群を生成する装置から、複数の画像群を取得してもよい。
取得部601は、学習済みモデルを複数取得する。取得部601は、画像化手法によりデータ群を画像化して生成された画像群と、学習済みモデルとの、複数の組み合わせを取得してもよい。これにより、取得部601は、評価対象となる画像化手法、学習済みモデル、または、画像化手法と学習済みモデルとの組み合わせを取得することができ、算出部602が参照可能にすることができる。
算出部602は、取得した画像群ごとに、学習済みモデルに画像群の各画像が入力された場合に出力される特徴量群を取得する。算出部602は、画像群ごとに取得した特徴量群と、学習済みモデルに第1基準画像群の各画像が入力された場合に出力される特徴量群との特徴量空間における分布に基づいて、画像群の生成に用いた画像化手法のスコアを算出する。これにより、算出部602は、分類対象のデータ集合に合った画像化手法を選択するための指標となりうる、画像化手法のスコアを算出することができる。
算出部602は、取得した学習済みモデルごとに、学習済みモデルに画像群の各画像が入力された場合に出力される特徴量群を取得する。算出部602は、学習済みモデルごとに取得した特徴量群と、基準モデルに画像群の各画像が入力された場合に出力される特徴量群との特徴量空間における分布に基づいて、学習済みモデルのスコアを算出する。これにより、算出部602は、分類対象のデータ集合に合った学習済みモデルを選択するための指標となりうる、学習済みモデルのスコアを算出することができる。
算出部602は、取得した組み合わせごとに、組み合わせの学習済みモデルに組み合わせの画像群の各画像が入力された場合に出力される特徴量群を取得する。算出部602は、組み合わせごとに取得した特徴量群と、組み合わせの学習済みモデルに第1基準画像群の各画像が入力された場合に出力される特徴量群との特徴量空間における分布に基づいて、組み合わせの画像群の生成に用いた画像化手法のスコアを算出する。これにより、算出部602は、分類対象のデータ集合に合った組み合わせを選択するための指標となりうる、組み合わせの画像群の生成に用いた画像化手法のスコアを算出することができる。
算出部602は、取得した組み合わせごとに、組み合わせの学習済みモデルに組み合わせの画像群の各画像が入力された場合に出力される特徴量群を取得する。算出部602は、組み合わせごとに取得した特徴量群と、基準モデルに組み合わせの画像群の各画像が入力された場合に出力される特徴量群との特徴量空間における分布に基づいて、組み合わせの学習済みモデルのスコアを算出する。これにより、算出部602は、分類対象のデータ集合に合った組み合わせを選択するための指標となりうる、組み合わせの学習済みモデルのスコアを算出することができる。
算出部602は、取得した組み合わせごとに、さらに、基準モデルに第2基準画像群の各画像が入力された場合に出力される特徴量群の特徴量空間における分布にも基づいて、学習済みモデルのスコアを算出してもよい。これにより、算出部602は、学習済みモデルのスコアの算出精度の向上を図ることができる。
選択部603は、画像化手法ごとに算出した画像化手法のスコアに基づいて、取得した複数の画像化手法のいずれかの画像化手法を選択する。選択部603は、例えば、スコアが最大になる画像化手法を選択する。選択部603は、例えば、スコアが上位M件の画像化手法を選択してもよい。これにより、選択部603は、分類対象のデータ集合に合った画像化手法を選択することができる。
選択部603は、学習済みモデルごとに算出した学習済みモデルのスコアに基づいて、取得した複数の学習済みモデルのいずれかの学習済みモデルを選択する。選択部603は、例えば、スコアが最大になる学習済みモデルを選択する。選択部603は、例えば、スコアが上位M件の学習済みモデルを選択してもよい。これにより、選択部603は、分類対象のデータ集合に合った学習済みモデルを選択することができる。
選択部603は、組み合わせごとに算出した画像化手法のスコアおよび学習済みモデルのスコアに基づいて、取得した複数の組み合わせのいずれかの組み合わせを選択する。選択部603は、例えば、画像化手法のスコアおよび学習済みモデルのスコアの合計が最大になる組み合わせを選択する。選択部603は、例えば、画像化手法のスコアおよび学習済みモデルのスコアの合計が上位M件の組み合わせを選択してもよい。これにより、選択部603は、分類対象のデータ集合に合った組み合わせを選択することができる。
分類部604は、学習済みモデルに、選択した画像化手法により、データ群を画像化して生成された画像群の各画像が入力された場合に出力される特徴量群に基づいて、データ群を分類する。これにより、分類部604は、データ群を精度よく分類することができる。
分類部604は、学習済みモデルに、選択した画像化手法により、データ集合を画像化して生成された画像集合の各画像が入力された場合に出力される特徴量集合に基づいて、データ集合を分類する。これにより、分類部604は、データ集合を精度よく分類することができる。
分類部604は、選択した学習済みモデルに、データ群を画像化して生成された画像群の各画像が入力された場合に出力される特徴量群に基づいて、データ群を分類する。これにより、分類部604は、データ群を精度よく分類することができる。
分類部604は、選択した学習済みモデルに、データ集合を画像化して生成された画像集合の各画像が入力された場合に出力される特徴量集合に基づいて、データ集合を分類する。これにより、分類部604は、データ集合を精度よく分類することができる。
分類部604は、選択した組み合わせの学習済みモデルに、選択した組み合わせの画像群の生成に用いた画像化手法により、データ群を画像化して生成された画像群の各画像が入力された場合に出力される特徴量群に基づいて、データ群を分類する。これにより、分類部604は、データ群を精度よく分類することができる。
分類部604は、選択した組み合わせの学習済みモデルに、選択した組み合わせの画像群の生成に用いた画像化手法により、データ集合を画像化して生成された画像集合の各画像が入力された場合に出力される特徴量集合に基づいて、データ集合を分類する。これにより、分類部604は、データ集合を精度よく分類することができる。
出力部605は、各種情報を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、ネットワークI/F403による外部装置への送信、または、メモリ402や記録媒体405などの記憶領域への記憶である。
出力部605は、例えば、画像群ごとに算出した画像化手法のスコアを出力する。これにより、出力部605は、分類作業者が、スコアを参照して、複数の画像化手法のいずれの画像化手法が、分類対象に合った画像化手法であるかを把握しやすくすることができる。このため、出力部605は、分類作業者が、分類対象を精度よく分類可能にすることができ、分類作業者の作業負担の低減化を図ることができる。
出力部605は、例えば、学習済みモデルごとに算出した学習済みモデルのスコアを出力する。これにより、出力部605は、分類作業者が、スコアを参照して、複数の学習済みモデルのいずれの学習済みモデルが、分類対象に合った学習済みモデルであるかを把握しやすくすることができる。このため、出力部605は、分類作業者が、分類対象を精度よく分類可能にすることができ、分類作業者の作業負担の低減化を図ることができる。
出力部605は、例えば、組み合わせごとに算出した画像化手法のスコアおよび学習済みモデルのスコアを出力する。これにより、出力部605は、分類作業者が、スコアを参照して、複数の画像化手法のいずれの画像化手法が、分類対象に合った画像化手法であるかを把握しやすくすることができる。また、出力部605は、分類作業者が、スコアを参照して、複数の画像化手法のいずれの画像化手法が、分類対象に合った画像化手法であるかを把握しやすくすることができる。このため、出力部605は、分類作業者が、分類対象を精度よく分類可能にすることができ、分類作業者の作業負担の低減化を図ることができる。
出力部605は、選択した組み合わせの画像群の生成に用いた画像化手法と、選択した組み合わせの学習済みモデルとを対応付けて出力する。これにより、出力部605は、分類作業者が、いずれの画像化手法と、いずれの画像化手法との組み合わせが、分類対象に合っているかを把握しやすくすることができる。このため、出力部605は、分類作業者が、分類対象を精度よく分類可能にすることができ、分類作業者の作業負担の低減化を図ることができる。
出力部605は、分類した結果を出力する。これにより、出力部605は、分類作業者の作業負担の低減化を図ることができる。出力部605は、いずれかの機能部の処理結果を出力してもよい。これにより、出力部605は、各機能部の処理結果を利用者に通知可能にし、各機能部の処理内容を利用者が把握しやすくし、情報処理装置100の利便性の向上を図ることができる。
(情報処理装置100の動作例)
次に、図7~図15を用いて、情報処理装置100の動作例について説明する。まず、図7を用いて、情報処理装置100が、分析データ群に対してサンプリングを実施し、評価データ群を抽出する一例について説明する。分析データ群は、例えば、時系列データである。
図7は、サンプリングを実施する一例を示す説明図である。図7において、情報処理装置100は、時系列データ700を取得する。時系列データ700は、分類データ群に対応し、時刻ごとのデータを複数含むデータ集合である。情報処理装置100は、時系列データ700に対してサンプリングを実施し、評価データ群を抽出する。サンプリングは、例えば、時系列データ700から、ランダムに、W秒単位のデータを、時系列データ700のN分の1の量だけ抽出することである。W秒単位は、例えば、画像化単位に対応する。
図7の例では、情報処理装置100は、1時間分の時系列データ700から、網掛け部分の1分単位のデータを、6分の1の量だけ抽出し、評価データ群を生成する。これにより、情報処理装置100は、時系列データ700をそのまま評価データ群とせず、時系列データ700よりサイズの小さい評価データ群を生成することができ、処理量の低減化を図ることができる。次に、図8および図9を用いて、情報処理装置100が、画像化手法および学習済みNNを評価する一例について説明する。
図8は、画像化手法を評価する一例を示す説明図である。図8において、情報処理装置100は、画像化手法Aと画像化手法Bとを評価する。
情報処理装置100は、例えば、評価データ群を画像化手法Aで画像化した画像群801の各画像を、学習済みNN820に入力し、画像化手法Aに対応する特徴量群を取得する。情報処理装置100は、例えば、評価データ群を画像化手法Bで画像化した画像群802の各画像を、学習済みNN820に入力し、画像化手法Bに対応する特徴量群を取得する。
また、情報処理装置100は、ノイズ画像群810の各画像を、学習済みNN820に入力し、ノイズ画像群に対応する特徴量群を取得する。ここで、ノイズ画像群に対応する特徴量群の分布は、評価データ群の分類に失敗した場合の見本となりうる。
このため、情報処理装置100は、特徴量空間830での、画像化手法Aに対応する特徴量群の分布と、画像化手法Bに対応する特徴量群の分布との、ノイズ画像群に対応する特徴量群の分布からの離れ具合を特定する。情報処理装置100は、画像化手法Aに対応する特徴量群の分布の方が、画像化手法Bに対応する特徴量群の分布よりも、ノイズ画像群に対応する特徴量群の分布から離れているため、画像化手法Aが画像化手法Bよりも分析データ群の分類処理に適すると評価する。
情報処理装置100は、具体的には、画像化手法に対応する特徴量群の分布の、ノイズ画像群に対応する特徴量群の分布からの離れ具合に応じ、分析データ群の分類処理への画像化手法の適合度合いを示すスコアを算出する。情報処理装置100は、画像化手法のスコアに基づいて、画像化手法を評価する。画像化手法のスコアの算出例は、具体的には、例えば、図10~図14を用いて後述する。次に、図9を用いて、情報処理装置100が学習済みNNを評価する一例について説明する。
図9は、学習済みNNを評価する一例を示す説明図である。図9において、情報処理装置100は、いずれかの画像化手法と学習済みNN920との組み合わせにおける、学習済みNN920を評価する。
情報処理装置100は、例えば、評価データ群を画像化した画像群900の各画像を、学習済みNN920に入力し、画像化手法と学習済みNN920との組み合わせに対応する特徴量群を取得する。情報処理装置100は、例えば、評価データ群を画像化した画像群900の各画像を、無学習NN930に入力し、画像化手法と無学習NN930との組み合わせに対応する特徴量群を取得する。
また、情報処理装置100は、ノイズ画像群910の各画像を、無学習NN930に入力し、ノイズ画像群910と無学習NN930との組み合わせに対応する特徴量群を取得する。ここで、ノイズ画像群910と無学習NN930との組み合わせに対応する特徴量群の分布は、評価データ群の分類に失敗した場合の見本となりうる。また、画像化手法と無学習NN930との組み合わせに対応する特徴量群の分布は、評価データ群の分類精度が悪い場合の見本となりうる。
このため、情報処理装置100は、特徴量空間940での、ノイズ画像群910と無学習NN930との組み合わせに対応する特徴量群の分布と、画像化手法と無学習NN930との組み合わせに対応する特徴量群の分布との離れ具合を、評価基準として設定する。また、情報処理装置100は、ノイズ画像群910と無学習NN930との組み合わせに対応する特徴量群の分布と、画像化手法と学習済みNN920との組み合わせに対応する特徴量群の分布との離れ具合を、評価対象として設定する。情報処理装置100は、評価対象の離れ具合が、評価基準の離れ具合よりも大きいほど、学習済みNN920が、分析データ群の分類処理に適すると評価する。
情報処理装置100は、具体的には、評価対象の離れ具合と、評価基準の離れ具合とに応じ、分析データ群の分類処理への学習済みNN920の適合度合いを示すスコアを算出する。ここで、評価基準の離れ具合が、スコア1に対応する。情報処理装置100は、学習済みNN920のスコアに基づいて、学習済みNN920を評価する。学習済みNN920のスコアの算出例は、具体的には、例えば、図10~図14を用いて後述する。次に、図10~図14を用いて、情報処理装置100が画像化手法のスコアおよび学習済みNNのスコアを算出する具体例について説明する。
図10は、分布表1000を作成する一例を示す説明図である。図10において、情報処理装置100は、各種特徴量群の特徴量空間における分布を示す情報を設定した分布表1000を作成する。分布を示す情報は、例えば、平均特徴量または分散などである。
図10の例では、情報処理装置100は、画像化手法Aおよび画像化手法Bを有し、学習済みNN-aと学習済みNN-aに対応する無学習NN-aとを有し、学習済みNN-bと学習済みNN-bに対応する無学習NN-bとを有する。無学習NN-aは、学習済みNN-aとネットワークトポロジーが同一であり、パラメータが初期化されたNNである。無学習NN-bは、学習済みNN-bとネットワークトポロジーが同一であり、パラメータが初期化されたNNである。また、情報処理装置100は、ノイズ画像群を有し、無学習NN-aから学習済みNN-aを学習する際に用いられた学習用画像群を有し、無学習NN-bから学習済みNN-bを学習する際に用いられた学習用画像群を有する。
図10の例では、情報処理装置100は、無学習NN-aにノイズ画像群の各画像が入力された場合に無学習NN-aから出力される特徴量群の分布を示す情報B0aを生成し、分布表1000に設定する。これにより、情報処理装置100は、無学習NN-aによる分類が失敗する場合の見本となりうる特徴量の分布を示す情報B0aを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-aにノイズ画像群の各画像が入力された場合に学習済みNN-aから出力される特徴量群の分布を示す情報B1aを生成し、分布表1000に設定する。これにより、情報処理装置100は、学習済みNN-aによる分類が失敗する場合の見本となりうる特徴量の分布を示す情報B1aを参照可能にすることができる。
また、情報処理装置100は、無学習NN-bにノイズ画像群の各画像が入力された場合に無学習NN-bから出力される特徴量群の分布を示す情報B0bを生成し、分布表1000に設定する。これにより、情報処理装置100は、無学習NN-bによる分類が失敗する場合の見本となりうる特徴量の分布を示す情報B0bを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-bにノイズ画像群の各画像が入力された場合に学習済みNN-bから出力される特徴量群の分布を示す情報B1bを生成し、分布表1000に設定する。これにより、情報処理装置100は、学習済みNN-bによる分類が失敗する場合の見本となりうる特徴量の分布を示す情報B1bを参照可能にすることができる。
また、情報処理装置100は、無学習NN-aに画像化手法Aにより評価データ群から生成された画像群の各画像が入力された場合に無学習NN-aから出力される特徴量群の分布を示す情報XA,0aを生成し、分布表1000に設定する。これにより、情報処理装置100は、無学習NN-aによる分類精度が比較的悪い場合の見本となりうる特徴量の分布を示す情報XA,0aを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-aに画像化手法Aにより評価データ群から生成された画像群の各画像が入力された場合に学習済みNN-aから出力される特徴量群の分布を示す情報XA,1aを生成し、分布表1000に設定する。これにより、情報処理装置100は、画像化手法Aと学習済みNN-aとの組み合わせによる分類精度の高さを示す指標となりうる特徴量の分布を示す情報XA,1aを参照可能にすることができる。
また、情報処理装置100は、無学習NN-bに画像化手法Aにより評価データ群から生成された画像群の各画像が入力された場合に無学習NN-bから出力される特徴量群の分布を示す情報XA,0bを生成し、分布表1000に設定する。これにより、情報処理装置100は、無学習NN-bによる分類精度が比較的悪い場合の見本となりうる特徴量の分布を示す情報XA,0bを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-bに画像化手法Aにより評価データ群から生成された画像群の各画像が入力された場合に学習済みNN-bから出力される特徴量群の分布を示す情報XA,1bを生成し、分布表1000に設定する。これにより、情報処理装置100は、画像化手法Aと学習済みNN-bとの組み合わせによる分類精度の高さを示す指標となりうる特徴量の分布を示す情報XA,1bを参照可能にすることができる。
また、情報処理装置100は、無学習NN-aに画像化手法Bにより評価データ群から生成された画像群の各画像が入力された場合に無学習NN-aから出力される特徴量群の分布を示す情報XB,0aを生成し、分布表1000に設定する。これにより、情報処理装置100は、無学習NN-aによる分類精度が比較的悪い場合の見本となりうる特徴量の分布を示す情報XB,0aを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-aに画像化手法Bにより評価データ群から生成された画像群の各画像が入力された場合に学習済みNN-aから出力される特徴量群の分布を示す情報XB,1aを生成し、分布表1000に設定する。これにより、情報処理装置100は、画像化手法Bと学習済みNN-aとの組み合わせによる分類精度の高さを示す指標となりうる特徴量の分布を示す情報XB,1aを参照可能にすることができる。
また、情報処理装置100は、無学習NN-bに画像化手法Bにより評価データ群から生成された画像群の各画像が入力された場合に無学習NN-bから出力される特徴量群の分布を示す情報XB,0bを生成し、分布表1000に設定する。これにより、情報処理装置100は、無学習NN-bによる分類精度が比較的悪い場合の見本となりうる特徴量の分布を示す情報XB,0bを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-bに画像化手法Bにより評価データ群から生成された画像群の各画像が入力された場合に学習済みNN-bから出力される特徴量群の分布を示す情報XB,1bを生成し、分布表1000に設定する。これにより、情報処理装置100は、画像化手法Bと学習済みNN-bとの組み合わせによる分類精度の高さを示す指標となりうる特徴量の分布を示す情報XB,1bを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-aに学習用画像群の各画像が入力された場合に学習済みNN-aから出力される特徴量群の分布を示す情報G1aを生成し、分布表1000に設定する。これにより、情報処理装置100は、学習済みNN-aによる分類精度が比較的高い場合の見本となりうる特徴量の分布を示す情報G1aを参照可能にすることができる。
また、情報処理装置100は、学習済みNN-bに学習用画像群の各画像が入力された場合に学習済みNN-bから出力される特徴量群の分布を示す情報G1bを生成し、分布表1000に設定する。これにより、情報処理装置100は、学習済みNN-bによる分類精度が比較的高い場合の見本となりうる特徴量の分布を示す情報G1bを参照可能にすることができる。
以下の説明では、ノイズ画像群と無学習NN-kとの組み合わせに対応する特徴量群の分布を「最悪精度分布0k」と表記する場合がある。kは、変数であり、aまたはbである。また、ノイズ画像群と学習済みNN-kとの組み合わせに対応する特徴量群の分布を「最悪精度分布1k」と表記する場合がある。また、学習用画像群と学習済みNN-kとの組み合わせに対応する特徴量群の分布を「最良精度分布1k」と表記する場合がある。
情報処理装置100は、画像化手法と学習済みNN-kとの組み合わせに対応する特徴量群の分布が、最悪精度分布0kと最悪精度分布1kとから離れるほど、かつ、最良精度分布1kに近いほど、画像化手法と学習済みNN-kとのスコアが高くなるようにする。次に、図11を用いて、情報処理装置100が、分布表1000を参照して、画像化手法のスコアおよび学習済みNNのスコアを算出する一例について説明する。
図11は、画像化手法のスコアおよび学習済みNNのスコアを算出する一例を示す説明図である。図11の例では、情報処理装置100は、画像化手法に(i)のラベルを付与し、学習済みモデルに(n)のラベルを付与している。
情報処理装置100は、下記式(1)により、画像化手法(i)と学習済みNN(n)との組み合わせにおける、画像化手法(i)のスコアTi,nを算出する。下記式(1)は、最悪精度分布1kと最良精度分布1kとの距離を1として規格化し、最悪精度分布1kからの、画像化手法(i)と学習済みNN(n)との組み合わせに対応する特徴量の分布の離れ具合を評価する。下記式(1)によれば、離れ具合が大きいほど、スコアTi,nが高くなる。また、規格化によれば、特徴量空間の次元数が異なる場合にも、スコアTi,nを算出可能にすることができる。これにより、情報処理装置100は、画像化手法(i)と学習済みNN(n)との組み合わせにおいて、画像化手法(i)が他の画像化手法(i’)に比べて分類精度の向上にどの程度寄与するかを評価し、スコアTi,nとして算出することができる。ここで、i’≠iである。
情報処理装置100は、下記式(2)により、画像化手法(i)と学習済みNN(n)との組み合わせにおける、学習済みNN(n)のスコアSi,nを算出する。下記式(2)は、最悪精度分布0kと最悪精度分布1kとの距離を1として規格化し、最悪精度分布1kからの、画像化手法(i)と学習済みNN(n)との組み合わせに対応する特徴量の分布の離れ具合を評価する。下記式(2)によれば、離れ具合が大きいほど、スコアSi,nが高くなる。また、規格化によれば、特徴量空間の次元数が異なる場合にも、スコアSi,nを算出可能にすることができる。これにより、情報処理装置100は、画像化手法(i)と学習済みNN(n)との組み合わせにおいて、学習済みNN(n)が他の学習済みNN(n’)に比べて分類精度の向上にどの程度寄与するかを評価し、スコアSi,nとして算出することができる。ここで、n’≠nである。
情報処理装置100は、スコアTi,nとスコアSi,nとの和を算出し、画像化手法(i)と学習済みNN(n)との組み合わせについての最良組み合わせスコアを取得する。そして、情報処理装置100は、下記式(3)により、最良組み合わせスコアが最大になる画像化手法(i)と学習済みNN(n)との組み合わせを選択する。
これにより、情報処理装置100は、比較的少ない作業量で、いずれの画像化手法(i)といずれの学習済みNN(n)との組み合わせが、評価データ群に合った組み合わせであるかを検討することができる。そして、情報処理装置100は、分類作業者が、いずれの画像化手法(i)といずれの学習済みNN(n)との組み合わせが、評価データ群に合った組み合わせであるかを把握しやすくすることができる。このため、情報処理装置100は、分類作業者の作業負担の低減化を図ることができる。次に、図12および図13を用いて、情報処理装置100が、分布表1000を参照して、画像化手法のスコアを算出する別の例について説明する。
図12および図13は、画像化手法のスコアを算出する別の例を示す説明図である。図12に示すように、情報処理装置100は、上記式(1)に代わり下記式(4)により、画像化手法(i)と学習済みNN(n)との組み合わせにおける、画像化手法(i)のスコアTi,nを算出してもよい。下記式(4)は、最悪精度分布1kからの、画像化手法(i)と学習済みNN(n)との組み合わせに対応する特徴量の分布の離れ具合を評価する。下記式(4)によれば、離れ具合が大きいほど、スコアTi,nが高くなる。
これにより、情報処理装置100は、画像化手法(i)と学習済みNN(n)との組み合わせにおいて、画像化手法(i)が他の画像化手法(i’)に比べて分類精度の向上にどの程度寄与するかを評価し、スコアTi,nとして算出することができる。図12の例では、情報処理装置100は、最良精度分布1kを示す情報G1kを用いないため、図10において最良精度分布1kを示す情報G1kを算出しなくてもよく、処理量とメモリ使用量の低減化を図ることができる。次に、図13の説明に移行する。
図13に示すように、情報処理装置100は、上記式(1)に代わり下記式(5)により、画像化手法(i)と学習済みNN(n)との組み合わせにおける、画像化手法(i)のスコアTi,nを算出してもよい。下記式(5)は、最良精度分布1kからの、画像化手法(i)と学習済みNN(n)との組み合わせに対応する特徴量の分布の近づき具合を評価する。下記式(5)によれば、近づき具合が大きいほど、スコアTi,nが高くなる。
これにより、情報処理装置100は、画像化手法(i)と学習済みNN(n)との組み合わせにおいて、画像化手法(i)が他の画像化手法(i’)に比べて分類精度の向上にどの程度寄与するかを評価し、スコアTi,nとして算出することができる。図13の例では、情報処理装置100は、最悪精度分布1kを示す情報B1kを用いないため、図10において最悪精度分布1kを示す情報B1kを算出しなくてもよく、処理量とメモリ使用量の低減化を図ることができる。次に、図14を用いて、学習済みNNのスコアを算出する別の例について説明する。
図14は、学習済みNNのスコアを算出する別の例を示す説明図である。図14に示すように、情報処理装置100は、上記式(2)に代わり下記式(6)により、画像化手法(i)と学習済みNN(n)との組み合わせにおける、学習済みNN(n)のスコアSi,nを算出してもよい。下記式(6)は、最悪精度分布1kからの、画像化手法(i)と学習済みNN(n)との組み合わせに対応する特徴量の分布の離れ具合を評価する。下記式(6)によれば、離れ具合が大きいほど、スコアSi,nが高くなる。
これにより、情報処理装置100は、画像化手法(i)と学習済みNN(n)との組み合わせにおいて、学習済みNN(n)が他の学習済みNN(n’)に比べて分類精度の向上にどの程度寄与するかを評価し、スコアSi,nとして算出することができる。図14の例では、情報処理装置100は、最悪精度分布0kを示す情報B0kを用いないため、図10において最悪精度分布0kを示す情報B0kを算出しなくてもよく、処理量とメモリ使用量の低減化を図ることができる。次に、図15を用いて、情報処理装置100による効果について説明する。
図15は、情報処理装置100による効果を示す説明図である。図15の例では、情報処理装置100が、A時間分の数値データを分類する場合であって、B種類の画像化手法が存在し、C種類の学習済みNNが存在し、D種類の特徴量分類手法が存在する場合について説明する。ここでは、画像化は、A時間分の数値データのうち1分間単位のデータに対して実施される。また、ここでは、1分間単位のデータを画像化し、いずれかの学習済みNNにより特徴量を取得し、分類するまでにかかる所要時間が1秒であるとする。
従来では、A時間分の数値データ、B種類の画像化手法、C種類の学習済みNN、D種類の特徴量分類手法を網羅的に組み合わせて、分類精度が高くなる組み合わせを検討する手法が考えられる。この手法では、累計の所要時間は(A/60)*B*C*D秒になり、累計の所要時間の膨大化を招き、分類作業者の作業負担の増大化を招く。
これに対し、情報処理装置100は、A時間分の数値データからN分の1の量をサンプリングした評価データを利用し、画像化手法と学習済みNNとの適切な組み合わせを検討することになる。その後、情報処理装置100は、適切な組み合わせを利用し、A時間分の数値データとD種類の特徴量分類手法との組み合わせを検討することになる。このため、情報処理装置100は、累計の所要時間を(A/60/N)*B*C秒+A/60*D秒=(A/60)(B*C+D*N)/N秒に低減することができる。換言すれば、情報処理装置100は、従来と比べて、累計の所要時間を(B*C+D*N)/(B*C*D*N)だけ低減することができる。
情報処理装置100は、例えば、B=C=D=N=10であれば、累計の所要時間を50分の1に低減することができる。また、情報処理装置100は、N=1であり、サンプリングを実施しなくても、累計の所要時間を10分の1に低減することができる。このため、情報処理装置100は、分類作業者の作業時間および作業負担の低減化を図りつつ、数値データの分類精度の向上を図ることができる。また、従来では、例えば、数値データに合わせた分類モデルを新規に作成する場合、100万枚単位の画像を用意することになる場合がある。一方で、情報処理装置100は、100枚単位の画像を用意すれば、画像化手法と学習済みNNとの適切な組み合わせを検討することができる。このため、情報処理装置100は、分類作業者の作業時間および作業負担の低減化を図ることができる。
(情報処理装置100の利用例1)
次に、図16および図17を用いて、情報処理装置100の利用例1について説明する。
図16および図17は、情報処理装置100の利用例1を示す説明図である。図16において、情報処理装置100は、クライアント装置301から、評価データ群を受信する。情報処理装置100は、評価データ群に基づいて、特徴量の分布抽出処理を実行し、画像化手法と学習済みNNとの組み合わせの選択処理を実行する。
分布抽出処理は、画像化手法と学習済みNNとの組み合わせごとに、画像化処理と学習済みNNによる推論処理とを実行し、特徴量の分布を抽出する。分布抽出処理の一例は、例えば、図22のフローチャートを用いて後述する。選択処理は、特徴量の分布に基づく最良組み合わせスコアを参照して、画像化手法と学習済みNNとの複数の組み合わせを、最良組み合わせスコアが大きい順にソートしたリストを生成する。選択処理の一例は、例えば、図23のフローチャートを用いて後述する。
情報処理装置100は、画像化手法と学習済みNNとの複数の組み合わせを、最良組み合わせスコアが大きい順にソートしたリストを、クライアント装置301に送信する。リストの一例は、例えば、図17に後述する。クライアント装置301は、受信したリストを、ディスプレイ506に表示する。次に、図17の説明に移行し、クライアント装置301がディスプレイ506に表示するリストの一例について説明する。
図17に示すように、クライアント装置301は、リスト1700を受信し、ディスプレイ506に表示する。リスト1700は、組み合わせの最良組み合わせスコアが大きい順のランキングと、組み合わせの最良組み合わせスコアと、組み合わせに含まれる学習済みNNの種類と、組み合わせに含まれる画像化手法の種類とを対応付ける。これにより、分類作業者は、リスト1700を参照して、いずれの画像化手法といずれの学習済みNNとの組み合わせが、評価データ群に合った組み合わせであるかを把握することができる。このため、分類作業者は、作業負担の低減化を図ることができる。
(情報処理装置100の利用例2)
次に、図18および図19を用いて、情報処理装置100の利用例2について説明する。
図18および図19は、情報処理装置100の利用例2を示す説明図である。図18において、情報処理装置100は、クライアント装置301から、分析データ群を受信する。情報処理装置100は、分析データ群に対してサンプリングを実施し、評価データ群を抽出する。情報処理装置100は、評価データ群に基づいて、特徴量の分布抽出処理を実行し、画像化手法と学習済みNNとの組み合わせの選択処理を実行する。
分布抽出処理は、画像化手法と学習済みNNとの組み合わせごとに、画像化処理と学習済みNNによる推論処理とを実行し、特徴量の分布を抽出する。分布抽出処理の一例は、例えば、図22のフローチャートを用いて後述する。選択処理は、特徴量の分布に基づく最良組み合わせスコアを参照して、画像化手法と学習済みNNとの複数の組み合わせを、最良組み合わせスコアが大きい順にソートしたリストを生成する。選択処理の一例は、例えば、図23のフローチャートを用いて後述する。
情報処理装置100は、画像化手法と学習済みNNとの複数の組み合わせを、最良組み合わせスコアが大きい順にソートしたリストに基づいて、いずれかの組み合わせ1800を選択し、分析データ群の分類処理に利用する。情報処理装置100は、例えば、最良組み合わせスコアが最大の組み合わせ1800を選択し、組み合わせ1800の画像化手法による画像化処理と、組み合わせ1800の学習済みNNによる推論処理とを実施し、分類データ群の分類処理に利用する。情報処理装置100は、分類処理の結果を、クライアント装置301に送信する。クライアント装置301は、分類処理の結果を、ディスプレイ506に表示する。次に、図19の説明に移行する。
図19に示すように、情報処理装置100は、1以上のクライアント装置301のそれぞれのクライアント装置301から、様々な分析データ群を受信する。分析データ群は、例えば、株価データ、室内環境センシングデータ、動作センシングデータなどである。情報処理装置100は、図18と同様に、それぞれの分析データ群に合わせた、画像化手法と学習済みNNとの組み合わせを選択することができる。
そして、情報処理装置100は、図18と同様に、それぞれの分析データ群に対し、選択した組み合わせを利用して分類処理を実施し、それぞれの分析データ群を分類する。情報処理装置100は、それぞれの分析データ群の分類結果1900を、それぞれの分析データ群の送信元のクライアント装置301に送信する。クライアント装置301は、分析データ群の分類結果を受信し、ディスプレイ506に表示する。これにより、分類作業者は、分析データ群に合った、画像化手法と学習済みNNとの組み合わせを利用して、分析データ群を精度よく分類した分類結果を把握することができ、作業負担の低減化を図ることができる。
また、情報処理装置100は、特定の形式の分析データ群に限らず、様々な形式の分析データ群を受け付けても、それぞれの分析データ群に合った、画像化手法と学習済みNNとの組み合わせを選択して分類することができる。このため、情報処理装置100は、様々な形式の分析データ群に対して適用可能であり、利便性の向上を図ることができる。
(利用例1における全体処理手順)
次に、図20を用いて、情報処理装置100が実行する、利用例1における全体処理手順の一例について説明する。全体処理は、例えば、図4に示したCPU401と、メモリ402や記録媒体405などの記憶領域と、ネットワークI/F403とによって実現される。
図20は、利用例1における全体処理手順の一例を示すフローチャートである。図20において、情報処理装置100は、分析データ群Aを取得する(ステップS2001)。そして、情報処理装置100は、分析データ群Aに対してサンプリングを実施し、データ群aを抽出する(ステップS2002)。
次に、情報処理装置100は、図22に後述する分布抽出処理を実行する(ステップS2003)。そして、情報処理装置100は、図23に後述する選択処理を実行する(ステップS2004)。次に、情報処理装置100は、リストEを出力する(ステップS2005)。そして、情報処理装置100は、全体処理を終了する。
(利用例2における全体処理手順)
次に、図21を用いて、情報処理装置100が実行する、利用例2における全体処理手順の一例について説明する。全体処理は、例えば、図4に示したCPU401と、メモリ402や記録媒体405などの記憶領域と、ネットワークI/F403とによって実現される。
図21は、利用例2における全体処理手順の一例を示すフローチャートである。図21において、情報処理装置100は、分析データ群Aを取得する(ステップS2101)。そして、情報処理装置100は、分析データ群Aに対してサンプリングを実施し、データ群aを抽出する(ステップS2102)。
次に、情報処理装置100は、図22に後述する分布抽出処理を実行する(ステップS2103)。そして、情報処理装置100は、図23に後述する選択処理を実行する(ステップS2104)。次に、情報処理装置100は、リストEのうち、上位M件の画像化手法と学習済みNNとの組み合わせFkの集合Fを取得する(ステップS2105)。ここで、k=1~Mである。kの初期値は、1とする。そして、情報処理装置100は、組み合わせFkを基に特徴量Hkを抽出する(ステップS2106)。
次に、情報処理装置100は、特徴量Hkを解析し、解析結果Ikを取得する(ステップS2107)。そして、情報処理装置100は、kをインクリメントする(ステップS2108)。次に、情報処理装置100は、k>Mであるか否かを判定する(ステップS2109)。ここで、k>Mではない場合(ステップS2109:No)、情報処理装置100は、ステップS2106の処理に戻る。一方で、k>Mである場合(ステップS2109:Yes)、情報処理装置100は、ステップS2110の処理に移行する。
ステップS2110では、情報処理装置100は、分析結果Ikの集合Iを出力する(ステップS2110)。そして、情報処理装置100は、全体処理を終了する。
(分布抽出処理手順)
次に、図22を用いて、情報処理装置100が実行する、分布抽出処理手順の一例について説明する。分布抽出処理は、例えば、図4に示したCPU401と、メモリ402や記録媒体405などの記憶領域と、ネットワークI/F403とによって実現される。
図22は、分布抽出処理手順の一例を示すフローチャートである。図22において、情報処理装置100は、データ群aを取得する(ステップS2201)。次に、情報処理装置100は、画像化手法と学習済みNNの組み合わせCnの集合Cを設定する(ステップS2202)。ここで、n=1~Nである。nの初期値は、1とする。Nは、組み合わせの総数である。そして、情報処理装置100は、組み合わせCnを用いて、データ群aから特徴量Dnを抽出する(ステップS2203)。
次に、情報処理装置100は、特徴量Dnから統計量Xnを算出し、配列Xに登録する(ステップS2204)。そして、情報処理装置100は、nをインクリメントする(ステップS2205)。次に、情報処理装置100は、n>Nであるか否かを判定する(ステップS2206)。ここで、n>Nではない場合(ステップS2206:No)、情報処理装置100は、ステップS2203の処理に戻る。一方で、n>Nである場合(ステップS2206:Yes)、情報処理装置100は、ステップS2207の処理に移行する。
ステップS2207では、情報処理装置100は、配列Xを出力する(ステップS2207)。そして、情報処理装置100は、分布抽出処理を終了する。
(選択処理手順)
次に、図23を用いて、情報処理装置100が実行する、選択処理手順の一例について説明する。選択処理は、例えば、図4に示したCPU401と、メモリ402や記録媒体405などの記憶領域と、ネットワークI/F403とによって実現される。
図23は、選択処理手順の一例を示すフローチャートである。図23において、情報処理装置100は、配列Xを取得する(ステップS2301)。次に、情報処理装置100は、ノイズ画像群と無学習NNとの組み合わせに対応する特徴量の統計量Bを取得する(ステップS2302)。そして、情報処理装置100は、学習済みNNの学習に用いた画像群と学習済みNNとの組み合わせに対応する特徴量の統計量Gを取得する(ステップS2303)。
次に、情報処理装置100は、配列Xと統計量Bと統計量Gとに基づいて、スコアSおよびスコアTを算出する(ステップS2304)。そして、情報処理装置100は、スコアSおよびスコアTに基づいて、画像化手法と学習済みNNの組み合わせCnごとに、最良組み合わせスコアを算出する(ステップS2305)。
次に、情報処理装置100は、最良組み合わせスコアの大きい順に、画像化手法と学習済みNNの組み合わせCnをソートし、リストEを作成する(ステップS2306)。そして、情報処理装置100は、リストEを出力する(ステップS2307)。その後、情報処理装置100は、選択処理を終了する。
以上説明したように、情報処理装置100によれば、画像化手法によりデータ群を画像化して生成された画像群を複数取得することができる。情報処理装置100によれば、取得した画像群ごとに、学習済みモデルにより画像群から得られた特徴量群と、学習済みモデルにより第1基準画像群から得られる特徴量群との分布に基づいて、画像群の生成に用いた画像化手法のスコアを算出することができる。情報処理装置100によれば、画像群ごとに算出した画像化手法のスコアを出力することができる。これにより、情報処理装置100は、比較的少ない作業量で、複数の画像化手法のいずれの画像化手法が、分類対象に合った画像化手法であるかを検討することができる。そして、情報処理装置100は、分類作業者が、スコアを参照して、複数の画像化手法のいずれの画像化手法が、分類対象に合った画像化手法であるかを把握しやすくすることができる。
情報処理装置100によれば、画像化手法によりデータ群を画像化して生成された画像群と、学習済みモデルとの、複数の組み合わせを取得することができる。情報処理装置100によれば、取得した組み合わせごとに、学習済みモデルにより画像群から得られる特徴量群と、学習済みモデルにより第1基準画像群から得られる特徴量群との分布に基づいて、画像群の生成に用いた画像化手法のスコアを算出することができる。情報処理装置100によれば、取得した組み合わせごとに、学習済みモデルにより画像群から得られる特徴量群と、基準モデルにより画像群から得られる特徴量群との分布に基づいて、学習済みモデルのスコアを算出することができる。情報処理装置100によれば、組み合わせごとに算出した画像化手法のスコアおよび学習済みモデルのスコアを出力することができる。これにより、情報処理装置100は、比較的少ない作業量で、いずれの画像化手法といずれの学習済みモデルとの組み合わせが、分類対象に合った組み合わせであるかを検討することができる。
情報処理装置100によれば、取得した組み合わせごとに、さらに、基準モデルにより第2基準画像群から得られた特徴量群の分布に基づいて、学習済みモデルのスコアを算出することができる。これにより、情報処理装置100は、学習済みモデルのスコアの算出精度の向上を図ることができる。また、情報処理装置100は、特徴量空間の次元数が異なる場合にも、学習済みモデルのスコアを算出可能にすることができる。
情報処理装置100によれば、組み合わせごとに算出した画像化手法のスコアおよび学習済みモデルのスコアに基づいて、取得した複数の組み合わせのいずれかの組み合わせを選択することができる。情報処理装置100によれば、選択した組み合わせの画像群の生成に用いた画像化手法と、選択した組み合わせの学習済みモデルとを対応付けて出力することができる。これにより、情報処理装置100は、分類作業者が、いずれの画像化手法と、いずれの画像化手法との組み合わせが、分類対象に合っているかを把握しやすくすることができる。
情報処理装置100によれば、選択した組み合わせの学習済みモデルにより、選択した組み合わせの画像群の生成に用いた画像化手法によりデータ群を画像化して生成された画像群から得られる特徴量群に基づいて、データ群を分類することができる。情報処理装置100によれば、分類した結果を出力することができる。これにより、情報処理装置100は、分類作業者が、分析対象に合った画像化手法と学習済みモデルとの組み合わせを利用して、分析対象を精度よく分類した分類結果を把握しやすくすることができる。
情報処理装置100によれば、分類対象のデータ集合を受信した場合、データ集合の中からデータ群を抽出することができる。これにより、情報処理装置100は、画像化手法のスコアまたは学習済みモデルのスコアを算出する際にかかる処理量の低減化を図ることができる。
情報処理装置100によれば、選択した組み合わせの学習済みモデルにより、選択した組み合わせの画像群の生成に用いた画像化手法によりデータ集合を画像化して生成された画像集から得られる特徴量集合に基づいて、データ集合を分類することができる。情報処理装置100によれば、分類した結果を出力することができる。これにより、情報処理装置100は、分類作業者が、分析対象に合った画像化手法と学習済みモデルとの組み合わせを利用して、分析対象を精度よく分類した分類結果を把握しやすくすることができる。
情報処理装置100によれば、複数の画像化手法の指定を受け付けることができる。情報処理装置100によれば、指定された複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して生成された画像群を取得することができる。これにより、情報処理装置100は、指定された複数の画像化手法のいずれの画像化手法が、分類対象に合った画像化手法であるかを検討することができる。
情報処理装置100によれば、学習済みモデルとして、ニューラルネットワークを利用することができる。これにより、情報処理装置100は、学習済みモデルとして、ニューラルネットワークを流用可能にすることができる。
情報処理装置100によれば、第2基準画像群として、第1基準画像群と同一の画像群を利用することができる。これにより、情報処理装置100は、第2基準画像群を用意する作業負担の低減化を図ることができる。
情報処理装置100によれば、第1基準画像群として、学習済みモデルの生成に用いた画像群を利用することができる。これにより、情報処理装置100は、画像化手法のスコアの算出精度の向上を図ることができる。
情報処理装置100によれば、基準モデルとして、学習済みモデルの元となる未学習モデルを利用することができる。これにより、情報処理装置100は、学習済みモデルのスコアの算出精度の向上を図ることができる。
情報処理装置100によれば、学習済みモデルを複数取得することができる。情報処理装置100によれば、取得した学習済みモデルごとに、学習済みモデルにより所定画像群から得られる特徴量群と、基準モデルにより所定画像群から得られる特徴量群との分布に基づいて、学習済みモデルのスコアを算出することができる。情報処理装置100によれば、学習済みモデルごとに算出した学習済みモデルのスコアを出力することができる。これにより、情報処理装置100は、比較的少ない作業量で、複数の学習済みモデルのいずれの学習済みモデルが、分類対象に合った学習済みモデルであるかを検討することができる。そして、情報処理装置100は、分類作業者が、スコアを参照して、複数の学習済みモデルのいずれの学習済みモデルが、データに合った学習済みモデルであるかを把握しやすくすることができる。
なお、本実施の形態で説明した情報処理方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本実施の形態で説明した情報処理プログラムは、ハードディスク、フレキシブルディスク、CD-ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本実施の形態で説明した情報処理プログラムは、インターネット等のネットワークを介して配布してもよい。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して生成された画像群を取得し、
取得した前記画像群ごとに、入力された画像に対応する特徴量を出力する学習済みモデルに前記画像群のそれぞれが入力された場合に出力される特徴量群の特徴量空間における分布と、前記学習済みモデルに基準画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記画像群の生成に用いた画像化手法のスコアを算出し、
前記画像群ごとに算出した前記画像化手法のスコアを出力する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記2)前記取得する処理は、
画像化手法によりデータ群を画像化して生成された画像群と、入力された画像に対応する特徴量を出力する学習済みモデルとの、複数の組み合わせを取得し、
前記算出する処理は、
取得した前記組み合わせごとに、前記組み合わせの学習済みモデルに前記組み合わせの画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布と、前記組み合わせの学習済みモデルに前記基準画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記組み合わせの画像群の生成に用いた画像化手法のスコアを算出し、
取得した前記組み合わせごとに、前記組み合わせの学習済みモデルに前記組み合わせの画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布と、基準モデルに前記組み合わせの画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記組み合わせの学習済みモデルのスコアを算出し、
前記出力する処理は、
前記組み合わせごとに算出した前記画像化手法のスコアおよび前記学習済みモデルのスコアを出力する、ことを特徴とする付記1に記載の情報処理方法。
(付記3)前記算出する処理は、
取得した前記組み合わせごとに、さらに、前記基準モデルに第2基準画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布に基づいて、前記学習済みモデルのスコアを算出する、ことを特徴とする付記2に記載の情報処理方法。
(付記4)前記組み合わせごとに算出した前記画像化手法のスコアおよび前記学習済みモデルのスコアに基づいて、取得した前記複数の組み合わせのいずれかの組み合わせを選択し、
選択した前記組み合わせの画像群の生成に用いた画像化手法と、選択した前記組み合わせの学習済みモデルとを対応付けて出力する、
処理を前記コンピュータが実行することを特徴とする付記2または3に記載の情報処理方法。
(付記5)選択した前記組み合わせの学習済みモデルに、選択した前記組み合わせの画像群の生成に用いた画像化手法により、前記データ群を画像化して生成された画像群のそれぞれが入力された場合に出力される特徴量群に基づいて、前記データ群を分類し、
分類した結果を出力する、
処理を前記コンピュータが実行することを特徴とする付記4に記載の情報処理方法。
(付記6)前記取得する処理は、
データ集合の中から前記データ群を抽出する、ことを特徴とする付記2~4のいずれか一つに記載の情報処理方法。
(付記7)選択した前記組み合わせの学習済みモデルに、選択した前記組み合わせの画像群の生成に用いた画像化手法により、前記データ集合を画像化して生成された画像集合のそれぞれが入力された場合に出力される特徴量集合に基づいて、前記データ集合を分類し、
分類した結果を出力する、
処理を前記コンピュータが実行することを特徴とする付記6に記載の情報処理方法。
(付記8)前記複数の画像化手法の指定を受け付ける、処理を前記コンピュータが実行する、ことを特徴とする付記1~7のいずれか一つに記載の情報処理方法。
(付記9)前記学習済みモデルは、ニューラルネットワークである、ことを特徴とする付記1~8のいずれか一つに記載の情報処理方法。
(付記10)前記第2基準画像群は、前記基準画像群と同一の画像群である、ことを特徴とする付記3に記載の情報処理方法。
(付記11)前記基準画像群は、前記学習済みモデルの生成に用いた画像群である、ことを特徴とする付記1に記載の情報処理方法。
(付記12)前記基準モデルは、前記学習済みモデルの元となる未学習モデルである、ことを特徴とする付記2に記載の情報処理方法。
(付記13)複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して生成された画像群を取得し、
取得した前記画像群ごとに、入力された画像に対応する特徴量を出力する学習済みモデルに前記画像群のそれぞれが入力された場合に出力される特徴量群の特徴量空間における分布と、前記学習済みモデルに基準画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記画像群の生成に用いた画像化手法のスコアを算出し、
前記画像群ごとに算出した前記画像化手法のスコアを出力する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記14)複数の画像化手法のそれぞれの画像化手法によりデータ群を画像化して生成された画像群を取得し、
取得した前記画像群ごとに、入力された画像に対応する特徴量を出力する学習済みモデルに前記画像群のそれぞれが入力された場合に出力される特徴量群の特徴量空間における分布と、前記学習済みモデルに基準画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記画像群の生成に用いた画像化手法のスコアを算出し、
前記画像群ごとに算出した前記画像化手法のスコアを出力する、
制御部を有することを特徴とする情報処理装置。
(付記15)入力された画像に対応する特徴量を出力する学習済みモデルを複数取得し、
取得した前記学習済みモデルごとに、前記学習済みモデルに所定画像群のそれぞれが入力された場合に出力される特徴量群の特徴量空間における分布と、基準モデルに前記所定画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記学習済みモデルのスコアを算出し、
前記学習済みモデルごとに算出した前記学習済みモデルのスコアを出力する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記16)入力された画像に対応する特徴量を出力する学習済みモデルを複数取得し、
取得した前記学習済みモデルごとに、前記学習済みモデルに所定画像群のそれぞれが入力された場合に出力される特徴量群の特徴量空間における分布と、基準モデルに前記所定画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記学習済みモデルのスコアを算出し、
前記学習済みモデルごとに算出した前記学習済みモデルのスコアを出力する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記17)入力された画像に対応する特徴量を出力する学習済みモデルを複数取得し、
取得した前記学習済みモデルごとに、前記学習済みモデルに所定画像群のそれぞれが入力された場合に出力される特徴量群の特徴量空間における分布と、基準モデルに前記所定画像群のそれぞれが入力された場合に出力される特徴量群の前記特徴量空間における分布とに基づいて、前記学習済みモデルのスコアを算出し、
前記学習済みモデルごとに算出した前記学習済みモデルのスコアを出力する、
制御部を有することを特徴とする情報処理装置。