JP7322411B2 - 画像分類装置、画像分類方法及びプログラム - Google Patents

画像分類装置、画像分類方法及びプログラム Download PDF

Info

Publication number
JP7322411B2
JP7322411B2 JP2019010258A JP2019010258A JP7322411B2 JP 7322411 B2 JP7322411 B2 JP 7322411B2 JP 2019010258 A JP2019010258 A JP 2019010258A JP 2019010258 A JP2019010258 A JP 2019010258A JP 7322411 B2 JP7322411 B2 JP 7322411B2
Authority
JP
Japan
Prior art keywords
image
classification
unit
input
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019010258A
Other languages
English (en)
Other versions
JP2020119308A (ja
Inventor
将司 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019010258A priority Critical patent/JP7322411B2/ja
Publication of JP2020119308A publication Critical patent/JP2020119308A/ja
Application granted granted Critical
Publication of JP7322411B2 publication Critical patent/JP7322411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像分類装置、画像分類方法及びプログラムに関する。
畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)等による分類器を用いて画像を分類する技術が開発されてきている。このような分類器は、予め決められた特定の分類対象について学習が行われているため、この特定の分類対象以外の画像が入力された場合の挙動を予想することは困難であり、想定外の分類が行われてしまう可能性がある。したがって、ロバストな分類を行うためには、入力画像が、分類器の学習に用いられた分類対象に含まれているか否かを判定する必要がある。この判定に関し、例えば非特許文献1には、入力画像とそれをオートエンコーダに入力して得られる復元画像との誤差(復元誤差)に基づいて入力画像が分類対象に含まれているか否かを判定する技術が開示されている。
Yuchen Lu, and Peng Xu、"Anomaly Detection for Skin Disease Images Using Variational Autoencoder"、[online]、平成30年7月24日(2018.7.24)、[平成30年12月27日検索]、インターネット(URL:https://arxiv.org/pdf/1807.01349.pdf)
非特許文献1に開示された技術では、復元誤差が小さいなら入力画像は学習時に用いた分類対象に含まれると判定し、復元誤差が大きいなら入力画像は当該分類対象には含まれないと判定する。したがって、復元誤差に基づいて入力画像が分類対象に含まれているか否かを判定することができる。しかし、一般にオートエンコーダの出力画像はボケやすいので、復元画像のボケにより、学習した画像が入力されても復元誤差が大きくなってしまう場合がある。この場合、入力画像は分類対象に含まれているのに、復元誤差に基づく判定では、分類対象に含まれていないと判定してしまうおそれがある。
本発明は、上記問題を解決するためになされたものであり、想定外の画像を含む様々な入力画像に対して、従来よりもロバストな分類結果を得ることができる画像分類装置、画像分類方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の画像分類装置は、
入力画像に対し複数種の分類対象に対応する複数種の画像変換処理を個別に行い、
前記複数種の画像変換処理が個別にされた各々の入力画像の当該画像変換処理の前後の情報に基づいて、前記入力画像が前記複数種の分類対象に含まれる画像であるか否かを判定
前記分類対象に含まれる画像であると判定された入力画像の種類を前記複数種のうちのいずれかの種類に分類する
制御部を備える。
本発明によれば、従来よりもロバストな分類結果を得ることができる。
本発明の実施形態1に係る画像分類装置の機能構成を示す図である。 オートエンコーダによる処理の概要を説明する図である。 実施形態1に係る変換部及び復元部による処理の概要を説明する図である。 実施形態1に係る画像分類処理のフローチャートである。 実施形態1に係る分類部学習処理のフローチャートである。 実施形態1に係る復元部学習処理のフローチャートである。 実施形態1に係る判定処理のフローチャートである。 変形例1に係る画像分類処理のフローチャートである。 変形例1に係る分類部学習処理のフローチャートである。
以下、本発明の実施形態に係る画像分類装置等について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。
(実施形態1)
本発明の実施形態1に係る画像分類装置100は、教師あり学習で得られた分類器、つまり、学習用の画像(学習データ)を用いて学習させた分類器を用いて未知の画像(入力データ)を分類する。この学習用の画像には、その画像が何に分類されるかを示す正解ラベルが付与されている。例えば、皮膚疾患の患部を撮影した画像を分類する場合には、メラノーマ、基底細胞癌、日光角化症、脂漏性角化症、色素性母斑のような疾患名が正解ラベルとなる。また、花を撮影した画像を分類する場合には、例えば、アサガオ、キク、サクラ、タンポポ、バラのような花の名称が正解ラベルとなる。
教師あり学習で得られた分類器は、どのような入力データが与えられた場合であっても、学習データの正解ラベルの中のいずれかを分類結果として出力せざるを得ないので、学習データの正解ラベルに含まれるものしか正しく分類することはできない。例えば、皮膚疾患の患部を撮影した画像を用いて分類器を学習させた場合、皮膚疾患の患部を撮影した画像以外の画像をその分類器で正しく分類することはできない。また、皮膚疾患の患部を撮影した画像であっても、学習データの正解ラベルに含まれている疾患名以外の皮膚疾患の画像は、その分類器では正しく分類することができない。つまり、この分類器が分類の対象として想定している画像は、学習データの正解ラベルに含まれている疾患名の画像である。
そこで、画像分類装置100は、入力データが学習データの正解ラベルに含まれるものか否かを判定してから分類することにより、従来よりもロバストな分類結果を得ることができるようにしている。このような画像分類装置100について、以下に説明する。なお、「分類対象に含まれる画像」とは、「学習データの正解ラベルに含まれる画像」を指すものとする。
実施形態1に係る画像分類装置100は、図1に示すように、制御部10、記憶部20、画像入力部31、出力部32、通信部33、操作入力部34、を備える。
制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(対象判定部11、分類部12、結果出力部13、変換部14、復元部15)の機能を実現する。
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。
画像入力部31は、学習用の画像データ又は分類する(未知の)画像データを入力するためのデバイスである。制御部10は、画像入力部31を介して画像データを取得する。画像入力部31としては、制御部10が画像データを取得できるなら、任意のデバイスを使用することができる。例えば、記憶部20に画像データを記憶させておき、制御部10が記憶部20を読み出すことによって画像データを取得する場合は、記憶部20が画像入力部31を兼ねることになる。また、制御部10が通信部33を介して外部のサーバ等から画像データを取得する場合は、通信部33が画像入力部31を兼ねることになる。
出力部32は、制御部10が、画像入力部31から入力した画像を分類した結果や後述する復元誤差等を出力するためのデバイスである。例えば、出力部32は、液晶ディスプレイや有機EL(Electoro-Luminescence)ディスプレイである。ただし、画像分類装置100は、出力部32としてこれらディスプレイを備えてもよいし、外部のディスプレイを接続するためのインタフェースとしての出力部32を備えてもよい。画像分類装置100は、インタフェースとしての出力部32を備える場合は、出力部32を介して接続した外部のディスプレイに分類結果等を表示する。出力部32は、出力手段として機能する。
通信部33は、外部の他の装置(例えば、画像データのデータベースが格納されているサーバ等)とデータの送受信を行うためのデバイス(ネットワークインタフェース等)である。制御部10は、通信部33を介して画像データを取得することができる。
操作入力部34は、画像分類装置100に対するユーザの操作入力を受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル等である。画像分類装置100は、操作入力部34を介して、ユーザからの指示等を受け付ける。操作入力部34は、操作入力手段として機能する。
次に、制御部10の機能について説明する。制御部10は、対象判定部11、分類部12、結果出力部13、変換部14、復元部15の機能を実現する。
対象判定部11は、画像入力部31を介して取得した入力画像が分類対象に含まれる画像であるか否かを判定する。具体的には、入力画像を変換部14で変換した画像を復元部15で復元して復元画像を生成し、入力画像と復元画像との間の誤差(復元誤差)に基づいて判定する。対象判定部11は、復元誤差が基準値未満であれば入力画像は分類対象に含まれると判定し、復元誤差が基準値以上であれば入力画像は分類対象に含まれないと判定する。また、対象判定部11は、入力画像が分類対象に含まれるか否かを、復元誤差と基準値との比較で判定するのではなく、復元誤差を確率に変換して確率の値として示してもよい。この場合、入力画像が分類対象に含まれる確率は、例えばtanh(1/復元誤差)として算出することができる。
分類部12は、ニューラルネットワークによる画像の分類器であり、入力画像が入力されると、当該画像が分類対象のそれぞれに分類される確率を出力することによって、入力画像を分類する。予め正解ラベルの付与された学習用の画像データでニューラルネットワークを学習させることにより、分類部12が実現される。
結果出力部13は、対象判定部11が判定した結果と分類部12が分類した結果とを用いて、入力画像の最終的な分類結果である最終結果を出力する。
変換部14は、元画像の情報量を削減する画像変換を行って変換画像を生成する。情報量を削減する画像変換とは、色成分を削減するグレースケール変換、ローパスフィルタにより高周波成分を削減する平滑化変換、ハイパスフィルタにより低周波成分を削減するエッジ抽出変換、元画像の一部の領域を削除する一部領域削除変換等である。元画像の情報量を削減する画像変換の種類毎に変換部14が存在する。例えば、第1の変換部14はグレースケール変換を行い、第2の変換部14は平滑化変換を行い、第3の変換部14はエッジ抽出変換を行うといった具合である。
画像変換の中には、ローパスフィルタやハイパスフィルタのように、カーネルサイズを設定する必要があるものがあるが、カーネルサイズは画像中の分類の対象となる部分(疾患の部分、花の部分等)の大きさにより可変とする。画像中の分類の対象となる部分の大きさは、例えば画像中で背景と異なる色の部分の大きさとして把握することができる。また、皮膚疾患に関しては、皮膚画像の疾患領域をセグメンテーションするCNNが既にいくつか開発されているので、このようなCNNで得られた疾患領域の面積を、分類の対象となる部分の面積として用いてもよい。
なお、カーネルサイズを画像中の分類の対象となる部分の大きさによって可変とするのではなく、予め複数のカーネルサイズに基づくハイパスフィルタ、ローパスフィルタ等を用意しておいて、カーネルサイズの異なるハイパスフィルタやローパスフィルタは、別の画像変換(異なる種類の画像変換)として扱うことにしてもよい。
復元部15は、変換部14が生成した変換画像から、元画像の復元を試みた復元画像を生成する。復元部15は、変換画像を入力すると、その変換画像の元画像が出力されるように予め学習させたニューラルネットワークによって実現される。
変換部14及び復元部15の処理は、オートエンコーダの処理に似ているので、ここで、これらを比較して説明する。オートエンコーダは図2に示すように、まず、入力画像をエンコーダ(ニューラルネットワーク)により、入力画像の画素数(例えば320×320画素)よりずっと少ない次元数(例えば100次元)の潜在ベクトルに変換する。そして、デコーダ(ニューラルネットワーク)により、潜在ベクトルから入力画像(元画像)をできるだけ復元した出力画像を生成する。
変換部14及び復元部15の処理は、図3に示すように、まず、入力画像に対し、変換部14により、情報量を削減する画像変換を行って変換画像を生成する。そして、復元部15(ニューラルネットワーク)により、変換画像から、入力画像(元画像)の復元を試みた復元画像を生成する。なお、復元部15に入力される変換画像の画像データは入力画像から情報が削除済みの画像データであるので、オートエンコーダのように中間層(潜在ベクトル)で情報を欠落させる必要はない。したがって、復元部15のニューラルネットワークは、中間層で情報が欠落しないモデルとする。
また、変換画像がどのような画像変換によって生成されたかによって元画像の復元の仕方が異なるので、復元部15は変換部14毎に存在する。例えば、第1の復元部15はグレースケール変換された変換画像から元画像を復元し、第2の復元部15は平滑化変換された変換画像から元画像を復元し、第3の復元部15はエッジ抽出変換された変換画像から元画像を復元するといった具合である。
図2及び図3に示すように、復元部15の処理は、オートエンコーダの後半部分(潜在ベクトルから出力画像を生成するデコーダ)の処理と似ている。しかし、オートエンコーダでは潜在ベクトルをブラックボックス的に扱わざるを得なかったのに対し、復元部15では入力画像から削除された情報の種類が分かっている。したがって、制御部10及びユーザは、変換部14が行う画像変換の種類に応じた復元画像の状態を確認することができ、対象判定部11で用いる変換部14及び復元部15を、入力画像の種類や画像分類の用途等に応じて使い分けることも可能になる。
以上、画像分類装置100の機能構成について説明した。次に、画像分類装置100が行う画像分類処理の内容について、図4を参照して説明する。画像分類処理は、操作入力部34を介して、ユーザにより、画像分類装置100に対して画像分類処理の開始が指示されると開始される。なお、ここでは、変換部14が行う画像変換の種類はN種類とし、変換部14及び復元部15はそれぞれ第1から第NまでのN個用意されているものとする。
まず、画像分類装置100の制御部10は、大量の学習用画像データにより、分類部12の学習を行う(ステップS101)。この処理(分類部学習処理)については、図5を参照して後述する。なお、ステップS101(分類部学習処理)は、画像分類処理を開始する前に、予め行っておいてもよい。
次に、制御部10は、大量の学習用画像データにより、復元部15の学習を行う(ステップS102)。この処理(復元部学習処理)については、図6を参照して後述する。なお、ステップS102(復元部学習処理)は、画像分類処理を開始する前に、予め行っておいてもよい。
次に、制御部10は、画像入力部31を介して入力画像(画像分類装置100で分類する未知の画像)を取得する(ステップS103)。そして、画像変換の種類を示す変数iを1に初期化する(ステップS104)。
次に、対象判定部11は、第i番目の画像変換により、入力画像が分類対象に含まれる確率を算出する(ステップS105)。この処理(判定処理)については、図7を参照して後述する。ステップS105は、対象判定ステップとも呼ばれる。
次に、制御部10は、画像変換の種類を示す変数iをインクリメントし(ステップS106)、変数iの値が画像変換の種類数であるNより大きくなったか否かを判定する(ステップS107)。
変数iの値が画像変換の種類数Nより大きくなければ(ステップS107;No)、ステップS105に戻る。変数iの値が画像変換の種類数Nより大きければ(ステップS107;Yes)、分類部12はステップS103で取得した入力画像を分類する(ステップS108)。ステップS108は分類ステップとも呼ばれる。
次に、制御部10は、ステップS105で算出した確率の重み付き平均を求める(ステップS109)。具体的には、第i番目の画像変換により算出した確率をPで表し、第i番目の画像変換の重みをWで表すとすると、確率の重み付き平均Aを、
A=(Σi=1,N(W×P))/(Σi=1,N
として求める。重みWには、機械学習の手法により、第iの画像変換が学習データの分類に寄与する割合に応じ、寄与する割合が大きいほど大きな重みを付与する。
そして、結果出力部13は、ステップS109で求めた確率の重み付き平均Aと、分類部12がステップS108で分類した結果と、を用いて最終的な分類結果を、出力部32を介して出力し(ステップS110)、画像分類処理を終了する。ステップS110は、結果出力ステップとも呼ばれる。
結果出力部13は、例えば、確率の重み付き平均Aが50%以上なら分類部12が分類した結果を出力し、50%未満であれば、「入力画像は分類対象には含まれません」というようなメッセージを出力する。また、結果出力部13は、確率の重み付き平均Aの値の大小によらずに、分類部12が分類した結果と確率の重み付き平均Aとの両方を、最終的な分類結果として出力してもよい。このような出力を行うことで、結果出力部13は、分類部12が分類した結果の信頼度を示すことができる。このように結果出力部13が最終的な分類結果をどのように出力するかは任意である。
以上、説明した画像分類処理により、画像分類装置100は、確率の重み付き平均Aの値によって、入力画像が分類対象に含まれる確率を考慮した分類結果を出力することができるので、従来よりもロバストな分類結果を得ることができる。次に、画像分類処理(図4)のステップS101で行われる分類部学習処理について、図5を参照して説明する。
まず、制御部10は、画像入力部31を介して学習用の入力画像とその正解ラベルを取得する(ステップS201)。そして、分類部12にその入力画像を入力した時に出力される分類結果と正解ラベルとの誤差を逆伝播させることにより、分類部12のニューラルネットワークを学習させる(ステップS202)。
そして、制御部10は、学習を終了するか否かを判定する(ステップS203)。例えば、学習用入力画像を予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS203;No)、ステップS201に戻る。学習を終了するなら(ステップS203;Yes)、分類部学習処理を終了する。
次に、画像分類処理(図4)のステップS102で行われる復元部学習処理について、図6を参照して説明する。復元部15は、画像変換の種類数Nだけ存在するので、第1の復元部15から、第Nの復元部15まで、N個の復元部15が存在する。復元部学習処理では、これらN個の復元部15の学習を行う必要がある。
まず、制御部10は、画像変換の種類を示す変数iを1に初期化する(ステップS301)。そして、制御部10は、画像入力部31を介して取得する学習用の入力画像の取得位置を初期化する(ステップS302)。これは、複数の復元部15の学習を行うため、各復元部15の学習の最初に、学習用の入力画像を最初から入力し直すようにするためである。
次に、制御部10は、画像入力部31を介して学習用の入力画像を取得する(ステップS303)。そして、第iの変換部14が第i番目の画像変換により、学習用の入力画像から変換画像を生成する(ステップS304)。
次に、第iの復元部15がその変換画像を入力した時に出力される復元画像と学習用の入力画像との誤差を逆伝播させることにより、第iの復元部15のニューラルネットワークを学習させる(ステップS305)。
そして、制御部10は、第iの復元部15の学習を終了するか否かを判定する(ステップS306)。例えば、学習用入力画像を予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、第iの復元部15の学習を終了しないなら(ステップS306;No)、ステップS303に戻る。第iの復元部15の学習を終了するなら(ステップS306;Yes)、画像変換の種類を示す変数iをインクリメントする(ステップS307)。
そして、制御部10は、変数iの値が画像変換の種類数であるNより大きくなったか否かを判定する(ステップS308)。変数iの値が画像変換の種類数Nより大きくなければ(ステップS308;No)、ステップS302に戻る。変数iの値が画像変換の種類数Nより大きければ(ステップS308;Yes)、復元部学習処理を終了する。
次に、画像分類処理(図4)のステップS105で行われる判定処理について、図7を参照して説明する。判定処理は、入力画像と、画像変換の種類を示す番号(i)の、2つの引数を取り、第i番目の画像変換を行って入力画像が分類対象に含まれる確率を算出して、その確率を戻り値とする関数として機能する。
まず、制御部10は、第iの変換部14により、第i番目の画像変換を行って、入力画像から変換画像を生成する(ステップS401)。次に、制御部10は、第iの復元部15により、変換画像から復元画像を生成する(ステップS402)。
そして、対象判定部11は、入力画像と復元画像との間の復元誤差を算出する(ステップS403)。復元誤差は、例えば、各画像間で対応する画素の値(色成分)の差の絶対値を全ての画素について加算した値として求めることができる。
次に、対象判定部11は、復元誤差を、入力画像が分類対象に含まれる確率に変換する(ステップS404)。この変換はシグモイド関数等を用いて行われる。基本的には、復元誤差が大きいほど当該確率が低くなり、復元誤差が0に近いほど当該確率が高くなるので、例えば、確率=tanh(1/復元誤差)として、入力画像が分類対象に含まれる確率を求めることができる。そして、この確率を判定処理の呼び出し元に返して(ステップS405)、判定処理を終了する。
以上、説明した判定処理及び画像分類処理により、画像分類装置100は、入力画像が分類対象に含まれる確率を考慮した分類結果を出力することができるので、従来よりもロバストな分類結果を得ることができる。
(変形例1)
上述の実施形態1では、分類部12の学習は、図5に示す分類部学習処理により、学習用入力画像をそのまま用いて学習を行っている。しかし、変換部14や復元部15のように、画像変換の種類毎に分類部12を用意してもよい。学習用入力画像を第i番目の画像変換により変換した変換画像で第iの分類部12の学習を行う変形例1について説明する。
実施形態1では分類部12は1つだけ存在していたが、変形例1では、変換部14によって変換された画像を分類するので、変換部14毎に分類部12が存在する。例えば、第1の分類部12はグレースケール変換された変換画像を分類し、第2の分類部12は平滑化変換された変換画像を分類し、第3の分類部12はエッジ抽出変換された変換画像を分類するといった具合である。
また、変形例1の画像分類処理は、図8に示すように、実施形態1の画像分類処理(図4)のうち、分類部12が関係している処理を、複数の分類部12による処理に置き換えた内容になっている。変形例1の画像分類処理を、図8を参照して説明する。この画像分類処理も、操作入力部34を介して、ユーザにより、画像分類装置100に対して画像分類処理の開始が指示されると開始される。変形例1においても、変換部14が行う画像変換の種類はN種類とする。したがって、分類部12、変換部14及び復元部15はそれぞれ第1から第NまでのN個用意されているものとする。
まず、制御部10は、大量の学習用画像データにより、N個の分類部12の学習を行う(ステップS121)。この処理(分類部学習処理)については、図9を参照して後述する。なお、ステップS121(分類部学習処理)は、画像分類処理を開始する前に、予め行っておいてもよい。
ステップS102からステップS105までの処理は、上述した実施形態1の画像分類処理(図4)、復元部学習処理(図6)及び判定処理(図7)と同じなので、説明を省略する。
ステップS105の次に、制御部10は、第iの変換部14により第i番目の画像変換で入力画像を変換した画像(第iの変換画像)を、第iの分類部12で分類する(ステップS122)。ステップS122は分類ステップとも呼ばれる。ステップS122では、第iの変換画像が分類対象のそれぞれに分類される確率が第iの分類部12により算出される。例えば、分類対象がG,G,Gの3種類あるとし、第iの変換画像が分類対象Gに分類される確率をCijで表すとすると、分類部12が算出する分類結果は(Ci1,Ci2,Ci3)というベクトルで表すことができる。
次のステップS106及びステップS107は、上述した実施形態1の画像分類処理(図4)と同じなので、説明を省略する。
次に、制御部10は、ステップS105で算出した確率とステップS122で算出した分類結果(第iの変換画像が分類対象のそれぞれに分類される確率を示すベクトル)との積の、重み付き平均を求める(ステップS123)。具体的には、第i番目の画像変換により算出した確率をPで表し、分類結果をベクトルCで表し、第i番目の画像変換の重みをWで表すとすると、この重み付き平均を以下に示すベクトルBとして、求める。
B=(Σi=1,N(W×P×C))/(Σi=1,N
ここで、重みWには、機械学習の手法により、第iの画像変換が学習データの分類に寄与する割合に応じ、寄与する割合が大きいほど大きな重みを付与する。
そして、結果出力部13は、ステップS123で求めた重み付き平均であるベクトルBを用いて最終的な分類結果を、出力部32を介して出力し(ステップS110)、画像分類処理を終了する。ステップS110は、結果出力ステップとも呼ばれる。
結果出力部13は、例えばベクトルBの要素のうち最も大きい要素が50%以上の確率を示していれば、その最も大きい要素に対応する分類結果を出力し、50%未満であれば、「入力画像は分類対象には含まれません」というようなメッセージを出力する。また、結果出力部13は、ベクトルB自体を出力してもよい。ベクトルB自体を出力することで、結果出力部13は、分類部12が分類した結果を信頼度と共に示すことができる。このように結果出力部13が最終的な分類結果をどのように出力するかは任意である。
次に、画像変換処理(図8)のステップS121で行われる分類部学習処理について、図9を参照して説明する。変形例1では、分類部12は、画像変換の種類数Nだけ存在するので、第1の分類部12から、第Nの分類部12まで、N個の分類部12が存在する。図9に示す分類部学習処理では、これらN個の分類部12の学習を行う必要がある。
まず、制御部10は、画像変換の種類を示す変数iを1に初期化する(ステップS501)。そして、制御部10は、画像入力部31を介して取得する学習用の入力画像の取得位置を初期化する(ステップS502)。これは、複数の分類部12の学習を行うため、各分類部12の学習の最初に、学習用の入力画像を最初から入力し直すようにするためである。
次に、制御部10は、画像入力部31を介して学習用の入力画像とその正解ラベルを取得する(ステップS503)。そして、第iの変換部14が第i番目の画像変換により、学習用の入力画像から変換画像を生成する(ステップS504)。
そして、第iの分類部12にその変換画像を入力した時に出力される分類結果と正解ラベルとの誤差を逆伝播させることにより、第iの分類部12のニューラルネットワークを学習させる(ステップS505)。
そして、制御部10は、学習を終了するか否かを判定する(ステップS506)。例えば、学習用入力画像を予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、第iの分類部12の学習を終了しないなら(ステップS506;No)、ステップS503に戻る。第iの分類部12の学習を終了するなら(ステップS506;Yes)、画像変換の種類を示す変数iをインクリメントする(ステップS507)。
そして、制御部10は、変数iの値が画像変換の種類数であるNより大きくなったか否かを判定する(ステップS508)。変数iの値が画像変換の種類数Nより大きくなければ(ステップS508;No)、ステップS502に戻る。変数iの値が画像変換の種類数Nより大きければ(ステップS508;Yes)、分類部学習処理を終了する。
以上、説明した変形例1に係る画像分類装置100では、分類対象の判定に用いる画像変換と、分類を行う画像を生成する画像変換と、を一致させることにより、最終的な分類結果をよりロバストなものにすることができる。なぜなら、各画像変換について、復元誤差が大きい変換画像の分類精度は低く、復元誤差が小さい変換画像の分類精度は高いことが予想されるからである。
例えば、第1の画像変換が色成分を削減するグレースケール変換で、第1の復元部15が生成した復元画像の復元誤差(入力画像と復元画像との間の差分)が大きかったとする。この復元誤差が大きいということは、グレースケール画像から元の画像を復元するのが困難であるということを意味する。したがって、この場合、グレースケール画像の分類精度(第1の分類部12による分類精度)も落ちることが予想される。そして、復元誤差が大きいと、復元誤差から得られる確率(入力画像が分類対象に含まれる確率)が小さくなるので、変形例1では、この場合、第1の分類部12による分類結果Cには、この小さい確率Pが乗算されることになり、分類精度の低い分類部12の分類結果の影響度を下げることができる。
なお、結果出力部13は、最終的な分類結果のみならず、変換部14が行った画像変換の種類とともに、各画像変換後に得られた復元誤差及び分類結果を出力してもよい。各画像変換における復元誤差と分類結果とが提示されることにより、ユーザは削減された情報と分類精度との対応を取ることができる。これにより、ユーザは最終的な分類結果が得られた理由を、色成分、高周波成分(複雑な模様)、低周波成分(全体的な模様)等の各成分から直感的に理解することができる。
また、上述の実施形態1及び変形例1では、分類部12、変換部14、復元部15は、それぞれ、これらを実現するプログラムを制御部10が実行することにより、制御部10が分類部12、変換部14、復元部15として機能することとしている。しかし、これに限られない。画像分類装置100は、制御部10とは別に、分類部12、変換部14、復元部15の機能をそれぞれ実現するデバイス(例えば、GPU(Graphics Processing Unit)や、専用のIC(Integrated Circuit)等)を複数備えてもよい。
また、上述の実施形態1では一部の説明で皮膚の疾患を例に挙げたが、本発明は皮膚科の分野に限定されるものではなく、広く一般の画像分類の分野において適用可能である。例えば、花の分類、細菌の顕微鏡写真の分類等にも適用できる。
なお、画像分類装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像分類装置100が行う画像分類処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto-Optical Disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
入力画像が分類対象に含まれる画像であるか否かを判定する対象判定部と、
前記入力画像を分類する分類部と、
前記対象判定部が判定した結果と前記分類部が分類した結果とを用いて、入力画像の最終的な分類結果である最終結果を出力する結果出力部と、
を備える画像分類装置。
(付記2)
元画像の情報量を削減する画像変換を行って変換画像を生成する変換部と、
前記変換画像から前記元画像の復元を試みた復元画像を生成する復元部と、
をさらに備え、
前記変換部は、前記入力画像の情報量を削減する画像変換を行って変換画像を生成し、
前記復元部は、前記変換画像から復元画像を生成し、
前記対象判定部は、前記入力画像と前記復元画像との間の差分である復元誤差に基づいて前記入力画像が前記分類対象に含まれる画像であるか否かを判定する、
付記1に記載の画像分類装置。
(付記3)
前記変換部は、
前記元画像の色成分を削減するグレースケール変換、
前記元画像の高周波成分を削減する平滑化変換、
前記元画像の低周波成分を削減するエッジ抽出変換、及び、
前記元画像の一部の領域を削除する一部領域削除変換、
のうちの少なくとも1つの画像変換を行う、
付記2に記載の画像分類装置。
(付記4)
前記分類部は、前記入力画像を前記変換部により画像変換してから分類する、
付記2または3に記載の画像分類装置。
(付記5)
前記結果出力部は、前記分類部が前記変換部により行った画像変換の種類とともに、前記最終結果を出力する、
付記4に記載の画像分類装置。
(付記6)
前記結果出力部は、前記復元誤差とともに、前記最終結果を出力する、
付記2から5のいずれか1つに記載の画像分類装置。
(付記7)
前記対象判定部は、前記入力画像が前記分類対象に含まれる画像である確率を算出し、
前記結果出力部は、前記対象判定部が算出した確率とともに、前記最終結果を出力する、
付記1から6のいずれか1つに記載の画像分類装置。
(付記8)
前記入力画像は、皮膚疾患の患部を撮影した画像である、
付記1から7のいずれか1つに記載の画像分類装置。
(付記9)
入力画像が分類対象に含まれる画像であるか否かを判定する対象判定ステップと、
前記入力画像を分類する分類ステップと、
前記対象判定ステップで判定した結果と前記分類ステップで分類した結果とを用いて、入力画像の最終的な分類結果である最終結果を出力する結果出力ステップと、
を含む画像分類方法。
(付記10)
画像分類装置のコンピュータに、
入力画像が分類対象に含まれる画像であるか否かを判定する対象判定ステップ、
前記入力画像を分類する分類ステップ、及び、
前記対象判定ステップで判定した結果と前記分類ステップで分類した結果とを用いて、入力画像の最終的な分類結果である最終結果を出力する結果出力ステップ、
を実行させるためのプログラム。
10…制御部、11…対象判定部、12…分類部、13…結果出力部、14…変換部、15…復元部、20…記憶部、31…画像入力部、32…出力部、33…通信部、34…操作入力部、100…画像分類装置

Claims (8)

  1. 入力画像に対し複数種の分類対象に対応する複数種の画像変換処理を個別に行い、
    前記複数種の画像変換処理が個別にされた各々の入力画像の当該画像変換処理の前後の情報に基づいて、前記入力画像が前記複数種の分類対象に含まれる画像であるか否かを判定
    前記分類対象に含まれる画像であると判定された入力画像の種類を前記複数種のうちのいずれかの種類に分類する
    制御部を備える画像分類装置。
  2. 前記制御部は、
    前記入力画像の情報量を削減する画像変換処理を行って前記入力画像の変換画像を生成
    前記変換画像から前記入力画像の復元を試みた復元画像を生成
    前記入力画像の情報量を削減する画像変換を行って変換画像を生成し、
    前記変換画像から復元画像を生成し、
    前記入力画像と前記復元画像との間の差分である復元誤差に基づいて前記入力画像が前記分類対象に含まれる画像であるか否かを判定する、
    請求項1に記載の画像分類装置。
  3. 前記画像変換処理は、
    前記入力画像の色成分を削減するグレースケール変換、
    前記入力画像の高周波成分を削減する平滑化変換、
    前記入力画像の低周波成分を削減するエッジ抽出変換、及び、
    前記入力画像の一部の領域を削除する一部領域削除変換、
    のうちの少なくとも1つの画像変換である
    請求項2に記載の画像分類装置。
  4. 前記復元誤差とともに、前記入力画像の最終的な分類結果である最終結果を出力する、
    請求項2または3に記載の画像分類装置。
  5. 前記制御部は、
    前記入力画像が前記分類対象に含まれる画像である確率を算出し、
    出した確率とともに、前記最終結果を出力する、
    請求項に記載の画像分類装置。
  6. 前記入力画像は、皮膚疾患の患部を撮影した画像である、
    請求項1からのいずれか1項に記載の画像分類装置。
  7. 画像分類装置による画像分類方法であって、
    入力画像に対し複数種の分類対象に対応する複数種の画像変換処理を個別に行うステップと、
    前記複数種の画像変換処理が個別にされた各々の入力画像の当該画像変換処理の前後の情報に基づいて、前記入力画像が前記複数種の分類対象に含まれる画像であるか否かを判定するステップと、
    前記分類対象に含まれる画像であると判定された入力画像の種類を前記複数種のうちのいずれかの種類に分類するステップと、
    含む画像分類方法。
  8. コンピュータに、
    入力画像に対し複数種の分類対象に対応する複数種の画像変換処理を個別に行うステップ、
    前記複数種の画像変換処理が個別にされた各々の入力画像の当該画像変換処理の前後の情報に基づいて、前記入力画像が前記複数種の分類対象に含まれる画像であるか否かを判定するステップ
    前記分類対象に含まれる画像であると判定された入力画像の種類を前記複数種のうちのいずれかの種類に分類するステップ
    実行させるためのプログラム。
JP2019010258A 2019-01-24 2019-01-24 画像分類装置、画像分類方法及びプログラム Active JP7322411B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019010258A JP7322411B2 (ja) 2019-01-24 2019-01-24 画像分類装置、画像分類方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019010258A JP7322411B2 (ja) 2019-01-24 2019-01-24 画像分類装置、画像分類方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020119308A JP2020119308A (ja) 2020-08-06
JP7322411B2 true JP7322411B2 (ja) 2023-08-08

Family

ID=71890874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019010258A Active JP7322411B2 (ja) 2019-01-24 2019-01-24 画像分類装置、画像分類方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7322411B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234627A (ja) 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、及び、カテゴリー識別方法
JP2013077127A (ja) 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd 画像分類装置および画像分類方法
US20150078441A1 (en) 2012-02-27 2015-03-19 Industry-Academia Cooperation Group Of Sejong University Image encoding and decoding apparatus, and image encoding and decoding method
JP2016004549A (ja) 2014-06-19 2016-01-12 ヤフー株式会社 特定装置、特定方法及び特定プログラム
JP2017130155A (ja) 2016-01-22 2017-07-27 富士通テン株式会社 物体認識装置および物体認識方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234627A (ja) 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、及び、カテゴリー識別方法
JP2013077127A (ja) 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd 画像分類装置および画像分類方法
US20150078441A1 (en) 2012-02-27 2015-03-19 Industry-Academia Cooperation Group Of Sejong University Image encoding and decoding apparatus, and image encoding and decoding method
JP2016004549A (ja) 2014-06-19 2016-01-12 ヤフー株式会社 特定装置、特定方法及び特定プログラム
JP2017130155A (ja) 2016-01-22 2017-07-27 富士通テン株式会社 物体認識装置および物体認識方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小向 航平ほか,オートエンコーダによるデータ圧縮と分類器のラベル追加を両立したセンサネットワークモデル,マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム論文集[CD-ROM],2018年07月,第2018巻/第1号,pp.1507-1516

Also Published As

Publication number Publication date
JP2020119308A (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
US10650495B2 (en) High resolution style transfer
US11507800B2 (en) Semantic class localization digital environment
Zhou et al. Semantic-supervised infrared and visible image fusion via a dual-discriminator generative adversarial network
US10621764B2 (en) Colorizing vector graphic objects
US10614337B2 (en) Information processing apparatus and information processing method
US9342870B2 (en) Tree-based linear regression for denoising
Zha et al. Low-rankness guided group sparse representation for image restoration
US9495734B2 (en) Information processing apparatus, system, method, and medium storing program
WO2020233427A1 (zh) 目标的特征的确定方法和装置
CN111062426A (zh) 一种建立训练集的方法、装置、电子设备以及介质
Zhang et al. Image denoising based on sparse representation and gradient histogram
Zhao et al. Gradient-based conditional generative adversarial network for non-uniform blind deblurring via DenseResNet
CN110852351A (zh) 基于图像的垃圾分类方法、装置、终端设备和存储介质
JP2010009517A (ja) パターン検出器の学習装置、学習方法及びプログラム
Pajot et al. Unsupervised adversarial image inpainting
Dey Python image processing cookbook: over 60 recipes to help you perform complex image processing and computer vision tasks with ease
JP7322411B2 (ja) 画像分類装置、画像分類方法及びプログラム
Xu et al. Multi-scale dehazing network via high-frequency feature fusion
CN111325695B (zh) 基于多剂量等级的低剂量图像增强方法、系统及存储介质
Rai et al. A new face reconstruction technique for noisy low-resolution images using regression learning
US11436816B2 (en) Information processing device, learning device, and storage medium storing learnt model
WO2022239216A1 (ja) 学習装置、学習方法、画像処理装置、及び画像処理方法
KR102432766B1 (ko) 알츠하이머 병 분류를 위한 mr 이미지 분석 시스템 및 방법
JP2019082847A (ja) データ推定装置、データ推定方法及びプログラム
JP7238510B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7322411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150