JP2021163483A - 深層学習を利用した判別方法 - Google Patents

深層学習を利用した判別方法 Download PDF

Info

Publication number
JP2021163483A
JP2021163483A JP2021042829A JP2021042829A JP2021163483A JP 2021163483 A JP2021163483 A JP 2021163483A JP 2021042829 A JP2021042829 A JP 2021042829A JP 2021042829 A JP2021042829 A JP 2021042829A JP 2021163483 A JP2021163483 A JP 2021163483A
Authority
JP
Japan
Prior art keywords
classification
discrimination
data
teacher data
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021042829A
Other languages
English (en)
Inventor
武士 永廣
Takeshi Nagahiro
晃治 片山
Koji Katayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tosoh Corp
Original Assignee
Tosoh Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tosoh Corp filed Critical Tosoh Corp
Publication of JP2021163483A publication Critical patent/JP2021163483A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】深層学習において、教師データの足りない希少な例に関して、教師データ不足を補う方法を提供する。
【解決手段】分類として、n個の分類A及びm個の分類Xが存在し、分類Xが分類Aよりも相対的に教師データ数が少なく、2つ以上の異なる分類Aのうちいずれかと共通する特徴を有する入力されたデータの分類を深層学習を利用して判別する方法であって、データを入力するデータ入力工程と、第1の学習済モデルを用いて、入力されたデータが任意の分類A又は当該分類Aと共通する特徴を有する分類Xであるかを判別する初期判別工程と、第1の学習済モデルとは異なる第2の学習済モデルを用いて、入力されたデータが任意の分類Aであるか、分類Xであるかを判別する最終判別工程と、判別工程の判別結果を出力する判別結果出力工程と、を含む。
【選択図】図6

Description

本発明は、深層学習を利用した判別方法に関する。
機械学習の一種である深層学習は、一般的な機械学習が着目するパラメータを指定しなければいけないのに対し、深層学習のプログラム自体が判別のポイントとなる特徴量を学習し、判別性能を向上させていくという手法を採用している。そのため、お手本となるデータ(教師データ)の量と質は非常に重要となる。
画像の判別を行う場合、深層学習を利用することが一般的であり、中でも誤差逆伝搬法という手法を用いるConvolutional Neural Network(CNN)を用いることが一般的である。
誤差逆伝播法を用いる深層学習装置は、ある教師データをニューラルネットワークに入力し、CNNの出力値と教師データの正解値とに基づいて誤差を計算する。深層学習装置は、CNNにおける出力層のノードに、計算した誤差を入力し、入力した誤差が小さくなるように出力層のノードに関する重み計数を更新する。その後、深層学習装置は、出力層よりも前に位置する下位層のノードから出力される出力値の誤差が小さくなるように、各層のノードに関する重み計数を更新する処理を繰り返す。この作業は、目的の例に対してどれくらい似ているかを判断するための小さな画像フィルタを複数作っていることに等しく、それらのフィルタを用いて、目的の画像のどの部分をより注意深く見れば判別できるかを学習していることに等しくなる。
深層学習が利用される分野は、従来は大量のデータを処理するような、いわゆるビッグデータ解析と呼ばれる分野に対しての応用が主流だったが、近年は希少な例の判別にも利用しようという試みがなされるようになってきた。希少な例の場合、教師データを十分に集めることができない事が多いため、回転や縮小などによるデータの水増しと呼ばれる技術や、他の学習で用いた学習済みデータを転用する転移学習といった方法が考案され、使用されている。しかし、回転や縮小による水増しは、回転や縮小による誤差をなくしているだけに等しく、根本的な教師データ不足を解消しているわけではない。
深層学習において、教師データの足りない希少な例に関して、教師データ不足を補う方法を提供することにある。
前記課題を解決するためになされた本発明は、以下の発明を包含する:
すなわち本発明の一態様は、
入力されたデータの分類を判別する方法であって、前記分類としてn個の分類A、m個の分類Xが存在し(nは2以上の整数、mは1以上の整数、ただしm≦nC2)、前記分類Xは前記分類Aよりも相対的に教師データ数が少なく、前記分類Xは2つ以上の異なる、前記分類Aのうちいずれかと共通する特徴を有している。
入力されたデータの分類を判別する方法として、具体的に以下の工程を有している。
(1)データを入力するデータ入力工程。
(2)第1の学習済モデルを用いて、入力されたデータが任意の分類A又は当該分類Aと共通する特徴を有する分類Xであるかを判別する初期判別工程。
(3)前記第1の学習済モデルとは異なる第2の学習済モデルを用いて、入力されたデータが前記任意の分類Aであるか、前記分類Xであるかを判別する最終判別工程。第2の学習済モデルは、前記任意の分類Aとは別の前記分類Xと共通する特徴を有する分類Aの教師データの一部又は全部を前記分類Xの教師データとして転用していることを特徴とする。
(4)前記判別工程の判別結果を出力する判別結果出力工程。
本発明は、教師データが十分に足りていない希少な例を、教師データ不足を補い、判別精度を上げることが可能となる。
分類Aが2個、分類Xが1個の場合の関係性を表したベン図である。 深層学習における、学習のフローチャートを示した図である。 3つの分類の判別を1段階の判別で行った場合のツリーを示した図である。 3つの分類の判別を2段階の判別で行った場合のツリーを示した図である。 判別装置の概略構成の一例を示す機能ブロック図である。 判別装置を用いて本発明の方法を行う場合の流れの一例を示した図である。 分類Aが3個、分類Xが3個ある場合の関係性を表したベン図の一例である。 図7の関係性を持つ分類に関するツリーを示した図である。 分類Aが3個、分類Xが3個ある場合の関係性を表したベン図の別例である。 図9の関係性を持つ分類に関するツリーを示した図である。 実施例として用いた細胞の明視野及び蛍光3種の画像例を示した図である。
以下、本発明の好適な実施形態について、図面を参照しながら説明する。ただし、以下に述べる実施形態は本発明の技術思想を適用した形態の一例であって、本発明が本実施形態の内容により限定されることはない。本発明は1次元のデータでも成り立つが、深層学習は一般的に画像データ(以下、単に画像という場合がある)を用いる場合が多い為、画像を例にして説明する。
(分類Aと分類X)
分類Aは教師データが十分にある分類、分類Xは分類Aよりも相対的に教師データ数が少ない分類のことを指す。分類Aはn個以上(nは2以上の整数)、分類Xはm個以上(mは1以上の整数、ただしm≦nC2)存在しており、分類Xは2つ以上の異なる、分類Aのうちいずれかと共通する特徴を有している。図1に、分類Aが2個、分類Xが1個の場合の関係性を表したベン図を示す。分類X1は、分類A1及び分類A2とそれぞれ異なる共通した特徴(F1、F2)を有していることが分かる。分類A1はF2が無く、分類A2はF1が無いこともわかる。F1、F2は特徴の違いであればよく、細胞である、丸い、モノクロであるなどで問題ない。
(深層学習)
図2に、深層学習における、学習のフローチャートを示す。まず、判別したい分類の数だけ学習をするための教師データを取得し(ステップP11)、それを用いて、それぞれの分類の画像を見分ける為の学習済モデルを作成する(ステップP12)。この学習済モデルは、通常どの分類に属しているかを事前に調べられている(以下、ラベル付けという場合がある)が終わっているものである。この学習済モデルというのは、CNNであれば、学習によって作られた複数枚の画像フィルタと、画像フィルタの画素をどれくらい判断に採用するかという重みづけの値である。本発明ではCNNを前提にして話をするが、類似のことが成り立つ原理であれば、CNNに限らなくてもよい。
次に判別したいデータ(以下、判別データという場合がある)を取得する(ステップP13)。判別データは、ラベル付けされていなくてよく、どんな画像でも構わないが、実用上は学習済モデルに含まれている分類のうちの何れかに該当するものであることが望ましい。その後、学習済モデルを用いて、取得した判別データを判別する(ステップP14)。この時、判別によって出てくる生データは、各分類のフィルタに対して、どれくらい一致しているかを表す一致度であり、最終的に、判別データはこの一致度が最も高い分類に属していると判断され、その判断結果が出力される(ステップP15)。本説明では、前半の学習済モデルを作成するまでの過程を学習段階、判別用データ取得から結果を出力するまでの過程を判別段階と呼ぶ。
(ツリーモデル)
図3に、分類A1、分類A2、分類X1の3つの分類の判別を1段階の判別で行った場合のツリーを示す。この場合、判別部において、入力された判別データに分類A1、分類A2、分類X1の各フィルタを順次適用し、それぞれのフィルタに対して一致度を算出する。そして、最終的に判別した判別データを、一致度が最も高かった分類であると判断する。
分類A2のフィルタを使った場合、分類A2に属するデータと同じ特徴を持つ分類X1に属するデータの一致度が2番目に高く、分類A2に属するデータと最も特徴が似ていない分類A1に属するデータが最も一致度が低くなる。この時、もし判別データの中に必ず分類A2に属するデータがないとすると、分類A2を学習したフィルタを使って選ばれるものは、必ず分類X1という事になる。
例えば、分類A1に属するデータと分類X1に属するデータを教師データとし、学習させたとき、学習装置は分類A1と分類X1の共通となる項目(領域F1)をより学習すると考えられる。また、分類A2に属するデータと分類X1に属するデータを教師データとし、学習させたとき、学習装置は分類A2と分類X1の共通となる項目(領域F2)をより学習すると考えられる。
図4に分類A1、分類A2及び分類X1の3つの分類の判別を2段階の判別で行った場合のツリーを示す。S12が後述する初期判別工程、S14が最終判別工程を表す。まず、S12において分類A1又は分類X1と、分類A2を判別し、S14において分類A1と分類X1を判別する。S12では、判別データが分類A1又は分類X1であれば、S14で判別が行われ、分類A2と判別されれば、そのまま終了となる。S14では分類A1又は分類X1と判断された画像を受け取り、分類A1か分類X1かを判別して終了となる。
(判別装置)
図5は、本発明に用いることが可能な判別装置1の概略構成の一例を示す機能ブロック図である。判別装置1は、入力部10、主制御部20及び表示部30を備えている。主制御部20には、判別部40、学習モデル50、学習部60及び判別結果出力部70を備えている。判別部40は、第1判別部41及び第2判別部42を備えている。また、学習部60は、判別に用いられる学習済モデルを構築する学習装置として機能し、第1学習部61及び第2学習部62を備えている。学習モデル50には、第1学習済モデル51及び第2学習済モデル52が含まれている。
判別装置1は、入力されたデータの分類を判別する装置である。
(入力部)
教師データ入力部10は、判別対象となる画像の教師データの入力を受け付けるものである。教師データ入力部11は、記憶媒体に記憶された教師データファイルを読み込むこと、又は有線若しくは無線のネットワークを介して他の装置から画像を受信することによって、上述した画像の入力を受け付ける。教師データ入力部10は、受け付けた画像を、主制御部20に送信する。教師データは一度学習し、作成した学習済みデータに問題が無ければずっと使用可能であり、一度学習済モデルが完成してしまえば、以降は新たに入力する必要はない。判別データ入力部11は、判別対象となる画像の入力を受け付けるものであり、判定したい画像が入力された場合に都度、受け付けた画像を、判別部40に送信する。
(画像)
教師データ入力部11には、予め、分類A1、分類A2、分類X1のうちのいずれのものであるかの情報とラベル付けがなされたデータを入力する。
判別データ入力部11には、判別データを入力する。この判別データは分類A1、分類A2、分類X1のいずれに属しているかは特定されておらず、判別部40によって判別される。
画像は、特定の一つの撮像手法により得られた画像に限られず、複数の撮像手法により得られた画像を組み合わせて用いるものであってもよい。例えば、顕微鏡の観察画像であれば、明視野観察像、暗視野観察像、位相差観察像及び蛍光観察像の中から選択される2以上の観察像を組み合わせて用いることができる。また、複数の画像を組み合わせて用いる場合、複数の画像を合成して一つの画像とすることができる。例えば、重ねあわせ処理を行って一つの画像に合成したものであってもよく、重ねることなくそれぞれを並べて結合し、一つの画像とするものであってもよい。
また、各画像に対しては、前処理として、コントラスト調整及び特定のチャネルに基づいて、別のチャネルを調整することなどを行ってもよい。例えば、特定のチャネルの輝度値を基に、他のチャネルの輝度値を規格化する処理などをおこなってもよい。
画像の対象としては、細胞又は細胞に類似する微粒子が例示できる。
(学習済モデル)
第1判別部41において用いられる第1学習済モデル51は、判別装置1の教師データ入力部10から入力され、教師データ生成部63で前処理された、第1判別に関する教師データを入力とし、第1学習部61で構築されるものである。この第1学習済モデルは、具体的には、分類A1と分類X1に属するデータを教師データとして作られた学習済モデル(フィルタ)と、分類A2に属するデータを教師データとして作られた学習済モデルのセットである。
一方、第2判別部42において用いられる第2学習済モデル52は、判別装置1の教師データ入力部10から入力され、教師データ生成部63で前処理された、第2判別に関する教師データを入力とし、第2学習部62で構築されるものである。この第2学習済モデルは、具体的には、分類A1の教師データで作られた学習済モデルと、分類X1及び分類A2の教師データから作られた学習済モデルのセットである。
第1学習済モデル51及び第2学習済モデル52は、それぞれ上述した教師データを用いて、複数の畳み込み層を有するCNNに学習させて構築されたモデルである。
(教師データ生成部)
教師データ生成部63は、教師データ入力部10に入力された画像データから、第1学習部61及び第2学習部62で使う教師データを作成する。学習に使う教師データは、効率よく学習できるような幾つかの下処理を、状況に応じてこの教師データ生成部63で行う。例としては、データ数に大きなばらつきがある場合には、入力されたデータ中に存在する数が最も少ない細胞種類のデータ数にあわせる、又は画像の回転及び反転などにより、学習画像枚数を増やすデータ拡張などの操作がある。
学習モデルの項目でも説明した、どの分類の学習済モデルにどの教師画像を適用するかもここで設定することになるが、この機能は状況に応じて学習部の方で行うようなプログラム設定にしてもかまわない。
(第1学習部及び第2学習部)
第1学習部61は、教師データ生成部63が生成した教師データを用いて、公知の機械学習の方法により、第1学習済モデル51を構築する。一方、第2学習部62は、教師データ生成部63が生成した第2学習部62用の教師データを用いて、公知の深層学習の方法により、第2学習済モデル52を構築する。第1学習部61及び第2学習部62は、上述の通り、入力される画像とそれらの情報であるラベルとの対応をCNNに学習させている。
なお、判別装置1とは独立に存在する、第1学習部61と第2学習部62と教師データ生成部63とを含む別の学習装置により、第1学習済モデル51及び第2学習済モデル52を構築するものであってもよい。学習装置が判別装置1とは独立に存在する場合には、判別装置1は、記憶媒体に記憶された各学習済モデルを読み込むこと又は有線若しくは無線のネットワークを介して他の装置から各学習済モデルを受信することで、判別装置1において各学習済モデルが利用可能となる。
(第1判別部)
第1判別部41は、第1学習済モデル51に判別データを入力し、第1学習済モデル51の出力結果から、判別データ入力部11に入力された判別データが分類A1又は分類X1であるか、分類A2であるかを判別する。具体的には、最も確率が高かったものを判別結果として採用し、分類A1又は分類X1と判別された場合には第2判別部42に、分類A2と判別された場合には、その判別結果を判別結果出力部70に送信する。
(第2判別部)
第2判別部42は、第1判別部41において分類A1又は分類X1を示す画像との判別結果が得られた場合にのみ、第2学習済モデル52に画像を入力し、第2学習済モデル52から、分類A1か、分類X1かを判別する。具体的には、最も確率が高かったものを判別結果として採用する。第2判別部42は、その判別結果を判別結果出力部70に送信する。
(表示部)
表示部30は、判別結果出力部70から出力される最終的な判別結果を表示する装置である。表示部30は、最終的な判別結果を画像データ又は文字データとして表示する表示装置である。なお、表示部は、判別装置1に備えられる場合に限らず、判別装置1と接続可能な外部装置として設けられても構わない。
(本発明の方法)
次に、判別装置1を用いて本発明の方法を行う場合の流れの一例を、図6を参照して説明する。
まず、判別部40が、教師データ入力部11を介して、ユーザの入力操作により入力された画像を取得する(ステップS11:データ入力工程)。ここで、判別の対象となる画像は、第1学習済モデル51及び第2学習済モデルの構築に用いられた教師データに含まれる画像と同様の処理操作によって取得されたものである。
次に、第1判別部41が、第1学習済モデル51に対して、画像を入力し、第1学習済モデル51からの出力を取得する。そして、その出力結果から、画像が分類A1又は分類X1を示すものか、分類A2を示すものであるかを判別する(ステップS12;初期判別工程)。画像が分類A1又は分類X1を示すとの判別結果となった場合(ステップS13のyes)、今度は第2判別部42が、第2学習済モデル52に対して、第1学習済モデル51に入力された画像と同じ画像を入力し、第2学習済モデル52からの出力を取得する。そして、その出力結果から、画像が分類A1なのか、分類X1なのかを判別し(ステップS14:最終判別工程)、その判別結果を判別結果出力部70に送信する。一方、第1判別部41における判別で画像が分類A2を示すとの判別結果となった場合(ステップS13のno)、その判別結果を判別結果出力部70に送信する。判別結果出力部70は、第2判別部42から判別結果が送られてきた場合には、第2判別部42からの判別結果を表示部30に出力し、第1判別部41から画像が分類A2であるとの判別結果が送られてきた場合には、第1判別部41からの判別結果を、表示部30に出力する(ステップS15;判別結果出力工程)。
上記の通り、判別装置1を用いた判別処理では、2段階の判別ステップによって、画像の判別を行っている。これにより、目的の分類X1の教師データ不足を分類A2の教師データをうまく利用して、学習精度を落とすことなく学習精度を向上させることができる。分類A2の教師データは、分類X1の教師データ不足を補うことが目的であるため、分類A1、A2の教師データ数と同等になるようにその一部又は全部を転用すればよい。
(本発明の方法2)
分類Aが3個(分類A1、A2、A3)、分類Xが3個(分類X1、X2、X3)ある場合の本発明の適用例を説明する。例えば、各分類には図7のベン図で表されるような関係性があるとする。この場合、図8のような判定のツリーが適切であると考えられる。
ステップS21で、分類A1又は分類X1、分類A2又は分類X2、分類A3又は分類X3の判別を行う(初期判別工程)。
次に、ステップS22で分類A1と分類X1の判別を行うが(第1の最終判別工程)、この際に分類X1と似た特徴を持つ分類A2の教師データを分類X1の教師データとして転用することができるため、分類X1の学習段階において、教師データ不足による精度低下は起こらなくなる。
また、ステップS23で分類A2と分類X2の判別を行うが(第2の最終判別工程)、この際に分類X2と似た特徴を持つ分類A3の教師データを分類X2の教師データとして転用することができる。
同様に、ステップS24で分類A3と分類X3の判別を行うが(第3の最終判別工程)、分類X3と似た特徴を持つ分類A1の教師データを分類X3の教師データとして転用することができる。
また、図9のベン図のような、さらに分類X1と分類X3においても共通の特徴を持つような場合は、図10のような判定のツリーの方が適切であると考えられる。
ステップS31で、分類A1又は分類X1又は分類X3、分類A2又は分類X2、分類A3の判別を行う(初期判別工程)。
次に、ステップS32で分類A1又は分類X1と、分類X3の判別を行うが(中間判別工程)、分類X3の学習過程において、分類A3の教師データを転用することで、教師データ不足を解消することができる。なお、分類A1と類似する分類Xが3つ以上(分類X1、X2、X3)ある場合、分類A1又は分類X1と分類X2又はX3とに判別してもよいし、分類A1又は分類X1又は分類X2と分類X3とに判別し、次に分類A1又は分類X1と分類X3とに判別するというように、分類A1と類似する分類Xが1つになるまで判別工程を繰り返してもよい。いずれの場合であっても、ステップの数だけ学習済モデルが必要になるため、学習部及び判別部もそれに応じて増やす必要がある。
ステップS33で、分類A1と分類X1の判別を行うが(第1の最終判別工程)、分類X1の学習過程において、教師データに分類A2の教師データを転用することで、分類X1の教師データ不足を解消することができる。
ステップS34で、分類A2と分類X2の判別を行うが(第2の最終判別工程)、分類X2の教師データに分類A3の教師データを入れることで、分類X2の教師データ不足を解決することができる。
上記の記述は、あくまでも、分類する数や判断する段数が増えた場合の一例であって、実際の判定における共通する特徴の性質によって、転用する分類A及び多段化する数は複雑化しても良い。
(ソフトウェアによる実現例)
判別装置1の制御ブロック(主制御部20、特に判別部40、学習部60及び判別結果出力部70)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、判別装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
希少細胞の一つであるCK陽性血中循環ガン細胞(以下、CK陽性CTC)と、CK陽性CTCに類似する特徴を持つが、サンプル画像が比較的多く手に入るCK陰性血中循環がん細胞(CK陰性CTC)、細胞に似ているがCKのみ光るゴミ(以下、CK陽性ゴミ)との判別に、本発明を適用した結果を示す。使用した学習データ画像および判別データの撮影条件は、シリコン基板上に30ミクロンのウェル構造を作成し、このウェル内に対象の細胞またはゴミを入れ、蛍光顕微鏡を用いて明視野画像及び蛍光3色の合計4枚の画像を観察し、この4枚の画像群を1セット(1枚ごとの画像のサイズは64×64ピクセル)として深層学習の判別に使用した。この蛍光観察は、CK(上皮間葉転換の可否を示すマーカー)、DAPI(細胞の核を染めるマーカー)、CD45(白血球か否かを判断するマーカー)の蛍光発光を測定しており、その輝度値を元に、事前に専門家の手でそれぞれの分類とラベル付けを行った。分類X1には、DAPIとCKが陽性で、CD45が陰性となるCK陽性CTCを割り当て、分類A1にはDAPIのみ陽性で、CK及びCD45が陰性となるCK陰性CTC、分類A2にはCKのみ陽性で、DAPIとCKが陰性であるCK陽性ゴミの画像を当てはめた。図11にそれぞれの細胞の画像例及び、分類の対応関係を示す。
学習及び判別プログラムは、プログラム言語Pythonで作成し、プリファードネットワーク社が開発した深層学習のライブラリを利用して図4のツリーで示した機能を持つ2段階判別プログラムを独自に構築し、学習及び判別を行った。本発明の画像判別手法の性能を比較するために、本検討に使用した判別プログラムは、学習データの枚数と質以外はすべて条件を変更せず、同じパラメータを用いて判別した。また、2段階判別法と比較をするために作成した、図3のツリーと同等の1段階判別プログラムでの検討も行ったが、その際においても、2段階と1段階の差となるソースコードの部分を除いて、プログラムの内容及びパラメータはすべて同じ条件で検討した。
使用したデータの枚数は、分類A1及び分類A2は200枚、分類X1は110枚使用した。分類A1及び分類A2に関しては、学習用に100枚、判別用に100枚に分け、分類X1については学習用に10枚、判別用に100枚を利用した。判別のばらつきを把握するため、上記の検討は学習用画像と判別用画像に分ける所から判別するところまでを3回行い、平均値と誤差を算出した。この3回の学習及び判定において、学習用画像と判別用画像の組み合わせが毎回異なるように調整した。この判別結果を表1に示す。
Figure 2021163483
表1の(1)の列の結果が1段判別の結果であり、(2)の列の結果が本発明のデータ転用法を用いていない2段階判別の結果であり、(3)の列が本発明のデータ転用法を用いた結果である。本発明を利用したことにより、1段階判別では44.0±7.9%、学習データの転用無しの2段階判別が27.3±3.8%であった正答率(陽性的中率)が、71.7±2.1%まで上昇した。これは、1段階の判別法及び本発明を使用しない2段階の判別法においては、分類X1の画像が10枚しかなく、他の細胞との違いとなる特徴を上手く学習する事があまり出来なかったが、本発明を利用する事によって学習用のデータが110枚に増え、さらに共通する特徴であるDAPIが陽性であるという点をより重点的に学習し、判別結果が向上した。
1 判別装置
10 教師データ入力部
11 判別データ入力部
20 主制御部
30 表示部
40 判別部
41 第1判別部
42 第2判別部
50 学習モデル
51 第1学習済モデル
52 第2学習済モデル
60 学習部(学習装置)
61 第1学習部
62 第2学習部
63 教師データ生成部
70 判別結果出力部

Claims (5)

  1. 入力されたデータの分類を判別する方法であって、
    前記分類としてn個の分類A、m個の分類Xが存在し(nは2以上の整数、mは1以上の整数、ただしm≦nC2)、
    前記分類Xは前記分類Aよりも相対的に教師データ数が少なく、
    前記分類Xは2つ以上の異なる、前記分類Aのうちいずれかと共通する特徴を有し、
    前記方法は、
    データを入力するデータ入力工程と、
    第1の学習済モデルを用いて、入力されたデータが任意の分類A又は当該分類Aと共通する特徴を有する分類Xであるかを判別する初期判別工程と、
    前記第1の学習済モデルとは異なる第2の学習済モデルを用いて、入力されたデータが前記任意の分類Aであるか、前記分類Xであるかを判別する最終判別工程と、
    前記判別工程の判別結果を出力する判別結果出力工程と、
    を含んでなり、
    前記第2の学習済モデルが前記任意の分類Aとは別の前記分類Xと共通する特徴を有する分類Aの教師データの一部又は全部を前記分類Xの教師データとして転用していることを特徴とする前記方法。
  2. 初期判別工程において、任意の分類Aと共通する特徴を有する分類Xが2以上ある場合に、
    最終判別工程前に、第1の学習済モデルとは異なる学習済モデルを用いて、前記分類Xのうちいずれか1つとそれ以外の分類とを判別する中間判別工程を、前記任意の分類Aと共通する特徴を有する前記分類Xが1つになるまで繰り返し、
    前記異なる学習済モデルが前記任意の分類Aとは別の前記分類Xと共通する特徴を有する
    分類Aの教師データの一部又は全部を当該分類Xの教師データとして転用していることを特徴とする請求項1に記載の方法。
  3. 初期判別工程において、任意の分類Aと共通する特徴を有する分類Xが2以上ある場合に、
    最終判別工程前に、第1の学習済モデルとは異なる学習済モデルを用いて、前記任意の分類A又は前記分類Xのうちいずれか1つとそれ以外の分類Xとを判別する中間判別工程を、さらに有し、
    前記異なる学習済モデルが前記任意の分類Aとは別の前記それ以外の分類Xと共通する特徴を有する分類Aの教師データの一部又は全部を当該それ以外の分類Xの教師データとして転用していることを特徴とする請求項1に記載の方法。
  4. データが画像であり、学習の方法が畳み込みニューラルネットワークであることを特徴とする請求項1〜3のいずれかに記載の方法。
  5. 画像が細胞又は細胞に類似する微粒子の明視野画像又は蛍光画像であることを特徴とする請求項4に記載の方法。
JP2021042829A 2020-03-30 2021-03-16 深層学習を利用した判別方法 Pending JP2021163483A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020060753 2020-03-30
JP2020060753 2020-03-30

Publications (1)

Publication Number Publication Date
JP2021163483A true JP2021163483A (ja) 2021-10-11

Family

ID=78003559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021042829A Pending JP2021163483A (ja) 2020-03-30 2021-03-16 深層学習を利用した判別方法

Country Status (1)

Country Link
JP (1) JP2021163483A (ja)

Similar Documents

Publication Publication Date Title
WO2021164382A1 (zh) 针对用户分类模型进行特征处理的方法及装置
CN106290378B (zh) 缺陷分类方法和缺陷检查系统
CN103544506B (zh) 一种基于卷积神经网络的图像分类方法和装置
US11875409B1 (en) Systems and methods for identifying and curing anomalies in insurance claims
CN111881289B (zh) 分类模型的训练方法、数据风险类别的检测方法及装置
JP2007073035A (ja) 紙葉類識別装置および紙葉類識別方法
CN108629772A (zh) 图像处理方法及装置、计算机设备和计算机存储介质
US20230162215A1 (en) Methods and apparatus to perform multi-level hierarchical demographic classification
CN112541817A (zh) 一种个人消费贷款潜在客户的营销响应处理方法及系统
CN112446441B (zh) 模型训练数据筛选方法、装置、设备及存储介质
CN110533116A (zh) 基于欧式距离的自适应集成的不平衡数据分类方法
CN108985617A (zh) 一种基于智能制造的产品生产流程调度方法及系统
CN108376257B (zh) 一种燃气表不完整码字识别方法
CN111105241A (zh) 一种应用于信用卡交易反欺诈的识别方法
CN114663002A (zh) 一种自动化匹配绩效考核指标的方法及设备
CN116797913A (zh) 一种图像质量评价方法、装置、电子设备及存储介质
CN111582315A (zh) 样本数据处理方法、装置及电子设备
CN112508684B (zh) 一种基于联合卷积神经网络的催收风险评级方法及系统
JP2021163483A (ja) 深層学習を利用した判別方法
CN113781456A (zh) 基于人工智能图像识别的钢材表面缺陷检测方法及设备
CN117670889A (zh) 一种基于半监督学习的混合集成电路组件缺陷检测方法
CN112613367A (zh) 票据信息文本框获取方法、系统、设备及存储介质
CN107729918A (zh) 基于代价敏感支持向量机的元胞自动机涌现现象的分类方法
CN113191407A (zh) 一种基于代价敏感的学生经济状况等级分类方法
CN116304811B (zh) 一种基于焦点损失函数动态样本权重调整方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240219