JP6915636B2 - 装置、方法およびプログラム - Google Patents

装置、方法およびプログラム Download PDF

Info

Publication number
JP6915636B2
JP6915636B2 JP2019029896A JP2019029896A JP6915636B2 JP 6915636 B2 JP6915636 B2 JP 6915636B2 JP 2019029896 A JP2019029896 A JP 2019029896A JP 2019029896 A JP2019029896 A JP 2019029896A JP 6915636 B2 JP6915636 B2 JP 6915636B2
Authority
JP
Japan
Prior art keywords
value
learning
model
image
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019029896A
Other languages
English (en)
Other versions
JP2020135568A (ja
Inventor
浩史 坂下
浩史 坂下
幸広 伊奈
幸広 伊奈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2019029896A priority Critical patent/JP6915636B2/ja
Priority to US16/741,689 priority patent/US11270435B2/en
Priority to EP20151886.7A priority patent/EP3699822B1/en
Publication of JP2020135568A publication Critical patent/JP2020135568A/ja
Application granted granted Critical
Publication of JP6915636B2 publication Critical patent/JP6915636B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Description

本発明は、装置、方法およびプログラムに関する。
従来、画像を用いた解析を行う種々の技術が提案されている。例えば、特許文献1に記載の技術では、薬量の各値に対応する複数の画像に画像解析を行って特徴量(特定領域の面積や輝度値)を算出し、薬量と特徴量との関係から、反応が生じる薬量を取得する。
また、非特許文献1に記載の技術では、乳腺濃度に従って分類された4種類の画像を用いて学習処理が施されたモデルを用いることで、評価対象画像を4種類の何れかに分類する。
特許文献1 特開2009−63509号公報
非特許文献1 加納拓弥、周向栄、 子安裕美、横山龍二郎、原武史、松尾政之、藤田広志、「Deep CNNに基づくCT画像からの乳腺濃度の自動分類法」、信学技報 IEICE Technical Report 第116巻、第39号、p21−25
しかしながら、従来技術では、対象事象が発現するパラメータ値を容易に決定することができない。
上記課題を解決するために、本発明の第1の態様においては、装置が提供される。装置は、対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得部を備えてよい。装置は、パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成部を備えてよい。装置は、生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理部を備えてよい。装置は、各推測モデルの推測誤差に応じた評価値を出力する評価値出力部を備えてよい。
装置は、複数の閾値のうち、評価値が最小の推測モデルに対応する閾値に基づいて、対象事象が発現するパラメータの値を決定する決定部をさらに備えてよい。
学習処理部は、各推測モデルについて、対応する学習データセットを用いて学習を繰り返し行ってよい。装置は、複数の閾値のうち、評価値が最も少ない学習回数で基準値以下となった推測モデルに対応する閾値に基づいて、対象事象が発現するパラメータの値を決定する決定部を備えてよい。
生成部は、複数の閾値のそれぞれについて、複数の画像のうち当該閾値を含む範囲内のパラメータの値に対応する複数の画像を用いて学習データセットを生成してよい。
取得部は、対象事象の発現に影響を与える複数のパラメータそれぞれの各値に対応する複数の画像を取得してよい。生成部は、複数のパラメータに関する複数の閾値の複数の組み合わせそれぞれについて、当該組み合わせに含まれる各閾値を境に異なる属性値を複数の画像のそれぞれに付与した学習データセットを生成してよい。
学習処理部は、複数の閾値について生成された複数の学習データセットのそれぞれを用いて、初期条件が等しい複数の推測モデルそれぞれを学習してよい。
学習処理部は、学習済みのモデルを推測モデルとして用い転移学習を行ってよい。
推測モデルは、画像の入力に応じて当該画像の属性値を推測してよい。推測モデルは、画像の入力に応じ、少なくとも1つの属性値について、当該画像が当該属性値を有する確率を推測してよい。
対象事象は、薬の反応であってよい。パラメータは、薬の投与条件であってよい。
本発明の第2の態様においては、方法が提供される。方法は、対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得段階を備えてよい。方法は、パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成段階を備えてよい。方法は、生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理段階を備えてよい。方法は、各推測モデルの推測誤差に応じた評価値を出力する評価値出力段階を備えてよい。
本発明の第3の態様においては、プログラムが提供される。プログラムは、コンピュータに、対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得段階を実行させてよい。プログラムは、コンピュータに、パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成段階を実行させてよい。プログラムは、コンピュータに、生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理段階を実行させてよい。プログラムは、コンピュータに、各推測モデルの推測誤差に応じた評価値を出力する評価値出力段階を実行させてよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係るシステム1を示す。 学習装置2による学習処理を示す。 学習データセットの一例を示す。 投与された薬の量と、従来技術によって算出した分解された細胞質の面積との関係を示す。 推測モデル25ごとの学習回数と評価値との関係を示す。 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
[1.システム1]
図1は、本実施形態に係るシステム1を示す。システム1は、推測モデル25の学習処理を行う学習装置2と、学習された推測モデル25の運用を行う運用装置3とを備える。本実施形態では一例として、対象事象は薬の反応であってよい。
[1.1.学習装置2]
学習装置2は、装置の一例であり、取得部20と、生成部21と、学習処理部22と、複数の推測モデル25と、評価値出力部26と、決定部27と、入出力インタフェース28とを備える。
[1.1.1.取得部20]
取得部20は、対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する。例えば、取得部20は、複数の画像をパラメータの値と対応付けて取得してよい。
各画像は、対象事象の発現の有無を示してよい。例えば、各画像の被写体は、対象事象が発現しているか否かにより形状、大きさ、輝度値、色相、彩度、明度、および、透過率などの少なくとも1つが相違するものであってよい。一例として被写体は、生物の器官や組織、細胞、細胞小器官(例えば核)、有機物(例えばタンパク質や核酸)などの何れかであってよく、生体から採取されたものでよい。
対象事象は薬の反応であってよく、例えば被写体に投与された薬の反応であってよい。本実施形態では一例として、対象事象は、薬の最大反応に対する50%の反応(単に50%反応とも称する)であってよい。つまり、対象事象は、EC(half maximal Effective Concentration)50またはIC(half maximal Inhibitory Concentration)50に対応する反応であってよい。なお、薬の反応は、薬が被写体を変化させる働きであってよく、被写体を健全な状態に変化させてもよいし、異常な状態(一例として破壊された状態)に変化させてもよい。
対象事象の発現に影響を与えるパラメータは、薬の投与条件であってよい。本実施形態では一例として、薬の投与条件は薬の量である。但し、投与条件は温度であってもよいし、薬が反応する状態に被写体をさらした時間(暴露時間とも称する)であってもよい。暴露時間とは、別言すれば、薬の投与から被写体の撮像までの経過時間である。
パラメータの各値は、パラメータの値の上限値および下限値の間で分散してよい。例えば、パラメータの各値はオペレータにより設定されてよく、パラメータ設定値とも称される。複数のパラメータ設定値のそれぞれは、上限値および下限値の間で概ね等間隔となるように設定されてよく、一例として対数で表した場合に上限値および下限値の間で概ね等間隔となるように設定されてよい。パラメータ設定値の個数は、対象事象が発現するパラメータの値(本実施形態では一例として50%反応が得られる薬の量)を取得する場合に、要求される分解能に応じて設定されてよい。
取得部20は、各画像を図示しない記憶装置から取得してよい。取得部20は、取得した画像およびパラメータを生成部21に供給する。
[1.1.2.生成部21]
生成部21は、複数の学習データセットを生成する。生成部21は、パラメータ(本実施形態では一例として薬の量)に関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を複数の画像にそれぞれ付与した1つの学習データセットを生成してよい。
本実施形態では一例として、生成部21は、閾値ごとに、複数の画像のうち当該閾値以下の薬の量に対応する各画像に対し、薬が50%未満の反応をしたことを示す属性値「0」を付与し、当該閾値を超える薬の量に対応する各画像に対し、薬が50%以上の反応をしたことを示す属性値「1」を付与する。生成部21は、生成した学習データセットを学習処理部22および評価値出力部26にそれぞれ供給する。
ここで、パラメータについての複数の閾値は、パラメータの値の上限値および下限値の間で分散するよう予め設定されてよい。例えば、複数の閾値は、上限値および下限値の間で概ね等間隔となるように設定されてよく、一例としてパラメータの値を対数で表した場合に上限値および下限値の間で概ね等間隔となるように設定されてよい。本実施形態では一例として、各閾値は、隣接する2つのパラメータ設定値の間それぞれに設定される。
[1.1.3.学習処理部22]
学習処理部22は、生成された学習データセットごとに、複数の推測モデル25のそれぞれを学習する。学習処理部22はディープラーニングの手法で学習処理を行ってよい。
[1.1.4.推測モデル25]
各推測モデル25は、画像の入力に応じて当該画像の属性を推測する。例えば、各推測モデル25は、入力される画像の属性値(一例として薬の反応の有無を示す「1」または「0」の値)を推測してよい。本実施形態では一例として、各推測モデル25は、各属性値について、入力される画像が当該属性値を有する確率(一例として属性値「1」を有する確率、および「0」を有する確率。属性値の推測確率とも称する)を推測する。この場合、各推測モデル25は属性値ごとの推測確率を返し、入力される画像の対象事象(本実施形態では一例として薬の反応)が完全に発現した状態(発現状態の画像とも称する)に近いほど属性値1の推測確率は1.00(=100%)に近く、属性値0の推測確率は0(=0%)に近くなる。同様に、入力される画像の対象事象が発現状態の画像から遠いほど、属性値1の推測確率は0に近く、属性値0の推測確率は1.00に近くなる。ここで、確率とは、その現象が起こることが期待される度合いであり、本実施形態では一例として0.4などの比であるが、40%などの百分率でもよい。
各推測モデル25は、ニューラルネットワークや畳み込みニューラルネットワーク(CNN)、VGGであってよい。VGGとは、Visual Geometry Group, Department of Engineering Science, University of Oxfordにより開発された推測モデルであり、一例としてKaren Simonyan等による「VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE−SCALE IMAGE RECOGNITION」(ICLR 2015、https://arxiv.org/pdf/1409.1556.pdf.)に開示の推測モデルである。
各推測モデル25は、入力画像が対象事象の発現状態の画像にどれだけ近いかを示す値を出力するニューロンと、対象事象の発現状態の画像からどれだけ遠いかを示す値を出力するニューロンとを出力層に含んでよい。出力層にはソフトマックス関数が適用されてよく、これにより推測モデル25は2つの出力ニューロンから合計して1.00(=100%)になる値を出力してよい。
なお、本実施形態では一例として、各推測モデル25は学習装置2の内部の記憶部250に格納されている。これに代えて、各推測モデル25は、学習装置2の外部サーバ(図示せず)に格納されてもよい。
[1.1.5.評価値出力部26]
評価値出力部26は、各推測モデル25の推測誤差に応じた評価値を出力する。
例えば、評価値出力部26は、学習データセットに含まれる各画像を推測モデル25に入力し、当該画像の各属性値の推測確率を取得する。そして、評価値出力部26は、各属性値の推測確率から画像毎の推測誤差を算出し、複数の画像について得られた複数の推測誤差から、推測モデル25の評価値を算出する。
推測誤差は、数値の集合同士のずれ量を示す尺度であれば、任意の手法により算出される値でよく、一例としてクロスエントロピー(交差エントロピー)でもよいし、二乗誤差でもよく、これらの値にさらに四則演算などの演算を行って得られる値でもよい。クロスエントロピーを推測誤差として算出する場合には、評価値出力部26は、学習データセットにおいて各画像に付与された属性値をワンホット表現の確率に変換する、つまり付与された属性値の確率を1.00(=100%)に、それ以外の属性値の確率を0(=0%)に変換する。そして、評価値出力部26は、推測モデル25から得られた属性値の推測確率y(但し添え字の「k」は属性値の識別番号)と、付与された属性値をワンホットで表現した確率tとを用いて推測誤差E=Σ(−t・log(y))=−t・log(y)…−t・log(y)(但し、添え字の「K」はkの最大値)を画像毎に算出する。
評価値は、推測誤差に基づく値であれば任意の手法により算出される値でよく、本実施形態では一例として、評価値はいわゆるロス値(損失値)であり、値が小さいほど推測精度が高いことを示す。評価値は各画像の推測誤差を推測モデル25毎に平均した値であってよい。なお、評価値は値が大きいほど推測精度が高いことを示す値(信頼度とも称する)であってもよい。信頼度は、一例として1からロス値を引いて得られる値であってもよい。
[1.1.6.決定部27]
決定部27は、複数の閾値のうち、評価値(本実施形態では一例としてロス値)が最小の推測モデル25に対応する閾値に基づいて、対象事象が発現するパラメータの値(発現パラメータ値とも称する)を決定する。なお、値が大きいほど推測精度が高い評価値(一例として信頼度)を用いる場合には、決定部27は、評価値が最大の推測モデルに対応する閾値に基づいて発現パラメータの値を決定してよい。
[1.1.7.入出力インタフェース28]
入出力インタフェース28は、図示しない端末を介して推測モデル25の設定を行う。例えば、入出力インタフェース28は、推測モデル25のノード間をつなぐエッジの重み、および、出力ノードのバイアス値を調整してよい。
また、入出力インタフェース28は、記憶部250から複数の推測モデル25のいずれかを読み出して学習装置2の外部に出力してよい。例えば、入出力インタフェース28は、複数の推測モデル25のうちオペレータにより選択された1つの推測モデル25を読み出して運用装置3に供給してよい。選択される推測モデル25は、評価値(本実施形態では一例としてロス値)が最小の推測モデル25であってもよいし、これに対してさらに学習処理が行われた推測モデル25であってもよい。
[1.2.運用装置3]
運用装置3は、取得部30および推測モデル35を備える。
[1.2.1.取得部30]
取得部30は、図示しない記憶装置から1または複数の画像を取得する。取得される各画像は、対象事象が発現しているか否かを示す属性(本実施形態では一例として各属性値の推測確率)の推測対象とされる。取得部30は、取得した画像を推測モデル35に供給する。
[1.2.2.推測モデル35]
推測モデル35は、入出力インタフェース28により供給された推測モデル25であり、取得部30からの画像入力に応じて当該画像の属性を推測する。例えば、推測モデル35は、入力される画像が対象事象(本実施形態では一例として薬の反応)の発現状態の画像に近いほど属性値1の推測確率として1.00に近い値を、発現状態の画像から遠いほど属性値1の推測確率として0に近い値を、属性値の推測確率として出力する。推測モデル35は、入力される画像が対象事象の発現状態の画像に近いほど属性値0の推測確率として0に近い値を、発現状態の画像から遠いほど属性値0の推測確率として1.00に近い値を、属性値の推測確率として出力する。また、推測モデル35は推測確率が最も大きい属性値を推測属性値として出力してよい。これにより、推測モデル35に画像を入力することで、薬の反応が発現しているかを示す値が得られる。
なお、本実施形態では一例として、推測モデル35は運用装置3の内部の記憶部350に格納されている。これに代えて、各推測モデル35は、運用装置3の外部サーバ(図示せず)に格納されてもよい。
以上のシステム1における学習装置2によれば、パラメータ(本実施形態では一例として薬の量)に関する複数の閾値のそれぞれについて当該閾値を境に異なる属性値を複数の画像に付与した学習データセットが生成されるので、対象事象が発現する発現パラメータ値に対応しない閾値の学習データセットでは、画像に付与された属性値と、対象事象の発現との相関が低くなり、発現パラメータ値に対応する閾値の学習データセットでは、画像に付与された属性値と、対象事象の発現との相関が高くなる。そして、このような学習データセットごとに推測モデル25が学習されて各推測モデル25による推測誤差の評価値(本実施形態では一例としてロス値)が評価値出力部26から出力されるので、発現パラメータ値に対応しない閾値の学習データセットでは、属性値が同じであるべき画像同士に別々の属性値が付与されて学習が行われ、属性値が異なるべき画像同士に同一の属性値が付与されて学習が行われることになる結果、推測誤差が大きくなり、出力される評価値が大きくなる。また、発現パラメータ値に対応する閾値の学習データセットでは、属性値が同じであるべき画像同士に同一の属性値が付与されて学習が行われ、属性値が異なるべき画像同士に別々の属性値が付与されて学習が行われることになる結果、推測誤差が小さくなり、出力される評価値が小さくなる。よって、出力される評価値に基づいて、対象事象が発現する発現パラメータ値を決定することができる。そのため、各パラメータ値の対応画像に画像解析を行い、パラメータ値と特徴量との関係から発現パラメータ値を取得する等の場合と比較して、容易に発現パラメータ値を決定することができる。
また、評価値が最小の推測モデル25に対応する閾値に基づいて発現パラメータ値が決定されるので、容易に発現パラメータ値を取得することができる。
また、対象事象は薬の反応であり、対象事象の発現に影響を与えるパラメータは薬の投与条件であるので、薬が反応する投与条件を発現パラメータ値から決定することができる。
[2.学習装置2の動作]
図2は、学習装置2による学習処理を示す。学習装置2は、ステップS11〜S23の処理を行うことにより発現パラメータ値を決定する。
ステップS11において、取得部20は、対象事象(本実施形態では一例として薬の50%反応)の発現に影響を与えるパラメータ(本実施形態では一例として薬の量)の各値に対応する複数の画像を取得する。各画像は、顕微鏡(一例として光学顕微鏡、電子顕微鏡)により撮像された画像でもよいし、他の撮像手段により撮像された画像でもよい。本実施形態では一例として、各画像は、マイクロプレートのウェルに収容された被写体としての細胞を光学顕微鏡で撮像した画像である。
ステップS13において生成部21は、パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する。生成部21は、取得された全ての画像を各学習データセットに含めてよい。
ステップS15において学習処理部22は、複数の学習データセットのいずれか1つを選択する。学習処理部22は、複数の学習データセットのうち未選択の学習データセットをいずれか1つ選択してよい。
ステップS17において学習処理部22は、選択した学習データセットを用い、いずれか1つの推測モデル25を学習する。学習処理部22は、各学習データセットと各推測モデル25とを1対1で対応付け、選択した学習データセットを用い、当該学習データセットに対応する推測モデル25を学習してよい。
学習処理部22は、同じ学習データセットを用いて複数の第1基準回数だけ学習処理を行ってよい。第1基準回数は一例として、20〜400の範囲内であってよい。
ここで、学習前の複数の推測モデル25は初期条件が互いに等しくてよい。複数の推測モデル25の間で初期条件が等しいとは、例えば推測モデル25のノード間をつなぐエッジの重み、および、出力ノードのバイアス値がそれぞれ等しいことであってよい。
また、学習処理部22は、学習済みのモデルを推測モデル25として用いて転移学習を行ってよい。この場合には、任意のソースドメインで予め学習させた推測モデル25を用いてよい。これに代えて、学習処理部22は、初期条件をランダムに設定した推測モデル25に対して学習を行ってもよい。
ステップS19において評価値出力部26は、各推測モデル25の推測誤差に応じた評価値(本実施形態では一例としてロス値)を出力する。例えば、評価値出力部26は、推測モデル25の識別情報と評価値とを対応付けて、図示しない表示装置に表示させてよい。複数の推測モデル25について評価値が算出されている場合には、評価値出力部26は、算出済みの各評価値を推測モデル25の識別情報と対応付けて表示してよい。評価値出力部26は、推測モデル25の識別情報に代えて、学習データセットの識別情報を表示してもよいし、閾値の識別情報を表示してもよいし、閾値自体を表示してもよい。評価値出力部26は、学習の繰り返し回数と評価値との対応関係をグラフ化して表示させてもよい。
ステップS21において学習処理部22は、生成した全ての学習データセットを選択したか否かを判定する。学習処理部22は、判定結果が否定的であった場合(ステップS21;No)には処理をステップS15に移行する。これによりステップS15〜S19の処理が繰り返され、生成された学習データセットごとに推測モデル25が学習される。学習処理部22は、判定結果が肯定的であった場合(ステップS21;Yes)には処理をステップS23に移行する。
ステップS23において決定部27は、複数の閾値のうち、評価値(本実施形態では一例としてロス値)が最小の推測モデル25に対応する閾値に基づいて発現パラメータ値を決定する。決定部27は、評価値が最小の推測モデル25に対応する閾値そのものを発現パラメータ値としてよい。決定部27は、決定した発現パラメータ値を表示装置に表示させてよい。
なお、決定部27は、全ての推測モデル25の評価値が第1基準値以上である場合には、発現パラメータ値を決定せずに、エラーメッセージを表示装置に表示させてよい。本実施形態では一例として、評価値は0〜1の範囲内で値が小さいほど推測精度が高いことを示すロス値(損失値)であり、第1基準値は0.4であってよい。エラーメッセージは、投与された薬に効果が無いことを示してよい。
以上の動作によれば、複数の学習データセットのそれぞれを用いて初期条件が等しい複数の推測モデル25それぞれが学習されるので、推測モデル25ごとに初期条件が異なる場合と異なり、初期条件の違いが評価値に影響を及ぼしてしまうのを防止することができる。
また、学習済みのモデルが推測モデル25として用いられて転移学習が行われるので、学習処理を確実に収束させて、学習処理の処理時間を短くすることができる。
[3.動作例]
図3は、学習データセットの一例を示す。本図では一例として、各画像は被写体としての繊維状の細胞質(図中の白い部分)を分解する薬が0,2,5,14,41,123,370,1111,3333,10000(nM)の量だけ投与された状態を示す。また、本図では、薬の量の閾値が1に設定されており、閾値以下の薬量に対応する各画像には薬が50%未満の反応をしたことを示す属性値「0」が付与されており、閾値を超える薬量に対応する各画像には薬が50%以上の反応をしたことを示す属性値「1」が付与されている。
図4は、投与された薬の量と、従来技術によって算出した分解された細胞質の面積との関係を示す。図中の横軸は薬の量(nM)を対数で示し、縦軸は分解された細胞質の平均面積を示す。図中のプロットは、0,2,5,14,41,123,370,1111,3333,10000(nM)の薬が投与されたウェル内で撮像された画像をオペレータが解析して得た結果を示す。この例では、370nMおよび1111nMの間で面積が急峻に変化しており、薬の50%反応が発現している。
図5は、推測モデル25ごとの学習回数と評価値との関係を示す。図中の各グラフは、閾値を投与量0,2(nM)の間に設定した学習データセットで学習された推測モデル25(1)、投与量2,5(nM)の間に設定した学習データセットで学習された推測モデル25(2)、投与量5,14(nM)の間に設定した学習データセットで学習された推測モデル25(3)、投与量14,41(nM)の間に設定した学習データセットで学習された推測モデル25(4)、投与量41,123(nM)の間に設定した学習データセットで学習された推測モデル25(5)、投与量123,370(nM)の間に設定した学習データセットで学習された推測モデル25(6)、投与量370,1111(nM)の間に設定した学習データセットで学習された推測モデル25(7)、投与量1111,3333(nM)の間に設定した学習データセットで学習された推測モデル25(8)、投与量3333,10000の間に設定した学習データセットで学習された推測モデル25(9)についての学習回数と評価値(本図ではロス値)との関係を示す。図中の横軸は学習回数を示し、縦軸は評価値を示す。
この図によれば、投与量370,1111(nM)の間に閾値を設定した学習データセットで学習された推測モデル25(7)の評価値が最も小さく、投与量370,1111(nM)の間に発現パラメータ値が存在することが分かる。
[4.変形例]
なお、上記の実施形態においては、学習装置2が決定部27および入出力インタフェース28を備えることとして説明したが、これらの少なくとも1つを備えないこととしてもよい。
また、システム1が運用装置3を備えることとして説明したが、備えないこととしてもよい。また、運用装置3は学習装置2と別体であることとして説明したが、学習装置2と一体化されてもよい。
また、推測モデル25は各属性値について、入力される画像が当該属性値を有する確率を推測することとして説明したが、全ての属性値について、入力画像が当該属性値を有する確率を推測しなくてもよい。例えば、属性値がX,Xの2つのみである場合には、推測モデル25は、一方の属性値Xのみについて、入力画像が当該属性値Xを有する確率Pを推測してよい。この場合には、入力画像が他方の属性値Xを有する確率PはP=1−Pで算出可能なため、評価値出力部26が確率Pを算出してよい。
また、推測モデル25は各画像について0〜1の推測確率を出力することとして説明したが、0または1の属性値を出力してもよい。例えば、推測モデル25は、入力される画像が対象事象の発現状態の画像から遠いほど0に近く、発現状態の画像に近いほど1に近い値を算出し、この値が閾値(一例として0.5より)よりも大きい場合に属性値として1を出力し、閾値よりも小さい場合に属性値として0を出力してもよい。
この場合には、評価値出力部26は、推測される属性値をそのまま属性値の推測確率として用いてよい。例えば属性値として「1」が出力される場合には評価値出力部26は属性値「1」の推測確率を1.00(=100%)、属性値「0」の推測確率を0(0%)としてよい。この場合にも、評価値出力部26は上記の実施形態と同様にして評価値を算出可能である。これに代えて、評価値出力部26は、推測される属性値と、画像に付与された属性値とのずれ量を推測誤差として、複数の画像についての推測誤差の平均などを評価値として用いてもよい。
また、上記の実施形態においては、学習装置2は、初期条件の等しい複数の推測モデルを別々の学習データセットに1対1で対応付けて学習処理を行うこととして説明したが、初期条件が互いに異なるランダムな複数の推測モデルを別々の学習データセットに1対1で対応付けて学習処理を行ってもよい。このような場合であっても、学習処理が収束する場合には、発現パラメータを決定することができる。
また、上記の実施形態においては、学習装置2が複数の学習データセットのそれぞれについて推測モデル25を備える、つまり、複数の学習データセットと同数の推測モデル25を備えることとして説明したが、学習データセットの個数と推測モデル25の個数は異なってもよい。
例えば、学習装置2は、学習データセットよりも少ない個数の推測モデル25を備えてもよい。例えば、学習装置2は推測モデル25を1つのみ備えてもよい。この場合には、学習処理部22は各学習データセットを用いて逐次、推測モデル25の学習を行い、評価値出力部26によって評価値が出力される毎に推測モデル25をリセットしてよい。
また、学習装置2は推測モデル25を2つ備えてもよい。この場合には、学習処理部22は第1の学習データセットを用いて一方の推測モデル25の学習を行い、第2の学習データセットを用いて他方の推測モデル25の学習を行ってよい。学習処理部22は、一方の推測モデル25と、他方の推測モデル25のうち、評価値(本実施形態では一例としてロス値)が高い推測モデル25をリセットし、当該推測モデル25に対し第3の学習データセットを用いて学習を行ってよい。以降、学習処理部22は、評価値が高い推測モデル25をリセットして残りの各学習データセットを用いた学習を行ってよい。この場合には、決定部27は、最終的に評価値が低い方の推測モデル25に対応する閾値に基づいて発現パラメータ値を決定してよい。
また、学習装置2は、学習データセットよりも多い個数の推測モデル25を備えてもよい。例えば、学習装置2は、学習データセットごとに、初期条件が異なる複数の推測モデル25を備えてよい。一例として、学習装置2は、初期条件毎に学習データセットと同数の推測モデル25を備えてよい。この場合、学習処理部22は、各学習データセットを用いて、当該学習データセットに対応する各推測モデル25を第1基準回数(例えば20〜400回)未満だけ学習し、各初期条件の推測モデル25のうち、評価値(本実施形態では一例としてロス値)が第4基準値(一例として0.4)以下となった推測モデル25が最も多い初期条件の推測モデル25のみを第1基準回数までさらに学習してよい。これに代えて、学習処理部22は、一律に各推測モデル25に第1基準回数だけ学習させてもよい。この場合には、決定部27は、評価値が第2基準値(一例として0.2)以下となった各推測モデル25に対応する最も多い閾値に基づいて発現パラメータ値を決定してよい。一例として、決定部27は、評価値が0.2以下の推測モデル25に対応する閾値が「1」,「1」,「4」であった場合には、最も多い閾値「1」に基づいて発現パラメータを決定してよい。
また、上記の実施形態においては、学習処理部22が複数の第1基準回数だけ学習を行い、決定部は評価値が最小の推測モデル25に対応する閾値に基づいて発現パラメータの値を決定することとして説明した。これに代えて、学習処理部22は各推測モデル25について、対応する学習データセットを用いて学習を繰り返し不定数行い、決定部27は複数の閾値のうち、評価値が最も少ない学習回数で第2基準値以下となった推測モデル25に対応する閾値に基づいて発現パラメータ値を決定してよい。この場合には、学習処理部22は複数の推測モデル25の学習を並列に行ってもよいし、1または複数の回数ずつ順に行ってもよく、評価値出力部26は同数の学習が行われた各推測モデル25の評価値を出力してよい。決定部27は、いずれかの推測モデル25の評価値(本実施形態では一例としてロス値)が第2基準値(一例として0.2)以下となった場合に学習処理部22および評価値出力部26による処理を終了させて発現パラメータ値を決定してよい。
また、上述のように不定数の学習を行う場合には、学習処理部22は、必ずしも全ての学習データセットを用いた学習処理を行わなくてよい。例えば、学習処理部22は予め定められた個数(一例として1つ)おきの閾値に対応する一部の学習データセットを用いて対応する推測モデル25の学習処理を行い、いずれの推測モデル25の評価値も第2基準値以下にならない場合には、残りの各閾値に対応する学習データセットを用いて対応する推測モデル25の学習処理を行ってよい。学習処理部22は、一部の学習データセットを用いて対応する推測モデル25の学習処理を行い、評価値が最小であった推測モデル25の対応閾値、または評価値が第3基準値(一例として0.4や0.3)よりも小さかった推測モデル25の対応閾値を検出し、これに近い基準個数(一例として2つ)の閾値に対応する学習データセットを用いて、これに対応する推測モデル25の学習処理をさらに行ってもよい。学習処理部22は、少なくとも一部の学習データセットを用いて対応する推測モデル25の学習処理を行い、第2基準回数(例えば20回)の学習処理を行った段階で評価値(本実施形態では一例としてロス値)が0.4以上の推測モデル25については学習を終了して評価値が0.4未満の推測モデル25のみをさらに学習させてもよい。これらの場合には、決定部27は、いずれかの推測モデル25の評価値が第2基準値以下になった場合には、当該推測モデル25に対応する閾値に基づいて発現パラメータ値を決定してよい。これにより、演算処理を低減して早期に発現パラメータ値を取得することができる。
また、上記の実施形態においては、生成部21はすべての学習データセットをまとめて生成することとして説明したが、学習処理で必要となる学習データセットのみを段階的に生成してもよい。例えば、上述のように学習処理部22が段階的に別々の学習データセットを用いて学習処理を行う場合には、生成部21は、学習処理に使用する学習データセットのみを生成してよい。
また、上記の実施形態においては、対象事象の発現に影響を与えるパラメータを1つとして説明したが、複数としてもよい。例えば、対象事象が薬の反応である場合には、複数のパラメータは、薬の量、暴露時間および温度のうち少なくとも2つであってよい。また、対象事象が被写体の変化である場合には、複数のパラメータは複数の薬それぞれの量であってよい。
パラメータが複数存在する場合には、取得部20は、対象事象の発現に影響を与える複数のパラメータそれぞれの各値に対応する複数の画像を取得してよい。また、生成部21は、複数のパラメータに関する複数の閾値の複数の組み合わせそれぞれについて、当該組み合わせに含まれる各閾値を境に異なる属性値を複数の画像のそれぞれに付与した学習データセットを生成してよい。一例として、生成部21は、薬の量の閾値がN個あり、暴露時間の閾値がM個ある場合には、薬の量に関する第n閾値(但しnは1≦n≦Nの整数)を境にして異なる属性値を各画像に付与し、かつ、暴露時間に関する第m閾値(但しmは1≦m≦Mの整数)を境にして異なる属性値を各画像に付与した学習データセットを(n,m)の組み合わせ毎に生成してよい。これにより、各パラメータについて発現パラメータ値を決定することができる。
また、上記の実施形態においては、対象事象を1つとして説明したが、複数としてもよい。例えば、複数の対象事象は、1または複数の薬による複数の反応であってよい。複数の反応は薬による主作用および副作用の反応であってよい。複数の反応は、薬の段階的な反応(一例として第1段階では被写体が膨張し、第2段階では被写体が崩壊する等)であってもよい。
対象事象が複数存在する場合には、取得部20は当該複数の対象事象の発現に影響を与える1または複数のパラメータ(一例として薬の量および暴露時間)の各値に対応する複数の画像を取得してよい。また、生成部21は、各パラメータに関する対象事象ごとの複数の閾値の複数の組み合わせそれぞれについて、当該組み合わせに含まれる各閾値を境に異なる属性値を複数の画像のそれぞれに付与した学習データセットを生成してよい。
一例として、薬の量の閾値がN個あり、暴露時間の閾値がM個ある場合で、対象事象が主作用の反応および副作用の反応の2つである場合について説明する。この場合には、生成部21は、主作用の反応について薬の量に関する第n閾値(但しnは1≦n≦Nの整数)を境にして異なる属性値を各画像に付与し、かつ、暴露時間に関する第m閾値(但しmは1≦m≦Mの整数)を境にして異なる属性値を各画像に付与し、副作用の反応について薬の量に関する第n閾値(但しnは1≦n≦Nの整数)を境にして異なる属性値を各画像に付与し、かつ、暴露時間に関する第m閾値(但しmは1≦m≦Mの整数)を境にして異なる属性値を各画像に付与した学習データセットを(n,m,n,m)の組み合わせ毎に生成してよい。但し、閾値の番号nおよびn、ならびに、mおよびmの数値はn≠n,m≠mであってもよいし、n<n,n<nであってもよい。
また、対象事象が複数存在する場合には、学習処理部22は、生成部21により生成された学習データセットごとに、画像の入力に応じて対象事象ごとの当該画像の属性(一例として各属性値の推測確率)を推測する推測モデル25を学習してよい。例えば推測モデル25は、一の画像の入力に応じて一の対象事象の各属性値の推測確率と、他の対象事象の属性値の推測確率とを推測してよい。これにより、各対象事象の発現パラメータ値を取得することができる。
また、上記の実施形態においては、生成部21は取得された全ての画像を各学習データセットに含めることとして説明したが、一部の画像のみを学習データセットに含めてもよい。例えば、生成部21は、複数の閾値のそれぞれについて、取得された複数の画像のうち当該閾値を含む範囲内のパラメータ設定値に対応する複数の画像を用いて学習データセットを生成してよい。閾値を含む範囲は、閾値を中央に含む範囲であってよい。また、閾値を含む範囲は、各画像に対応付けられたパラメータ設定値のうち、範囲内に含まれる閾値以上のパラメータ設定値の個数と、範囲内に含まれる閾値未満のパラメータ設定値の個数とが同数となるような範囲であってよい。生成部21は、このような範囲を設定し、取得された複数の画像のうち、範囲内のパラメータ設定値に対応する画像のみを抽出して学習データセットを生成してよい。
この場合には、全ての画像が用いられる場合と比較して学習データセットの生成および学習処理の処理時間を短くすることができる。また、閾値を含む範囲内に含まれないパラメータの値に対応する画像が学習データセットに用いられる場合と異なり、閾値自体が発現パラメータと対応しないにも関わらず属性値と対象事象の発現との相関の高い画像が学習データセットに必ず含まれてしまうことで、全ての閾値の評価値が低くなってしまうこと、ひいては推測精度が高く評価されてしまうことを防止することができる。従って、発現パラメータ値を正確に決定することができる。このような効果は、パラメータの値と対象事象の発現とが段階関数で表される場合に特に顕著となる。
また、取得された全ての画像のうち、一部の画像のみを学習データセットに含める場合には、評価値出力部26は、学習データセットに含まれなかった画像を用いて評価値を算出してよい。これにより、学習処理部22および評価値出力部26は、協働して交差検定(クロスバリデーション)を行ってよい。
また、上記の実施形態においては、決定部27は評価値が最小の推測モデル25に対応する閾値そのものを発現パラメータ値とすることとして説明したが、当該閾値に基づく限りにおいて他の値を発現パラメータとしてもよい。例えば、決定部27は、複数のパラメータ設定値のうち、評価値が最小の推測モデル25に対応する閾値に最も近く、かつ、当該閾値よりも大きいパラメータ設定値(または当該閾値よりも小さいパラメータ設定値)を発現パラメータ値としてもよい。この場合には、学習処理部22は当該発現パラメータ値を閾値とした学習データセットを用いて新たに推測モデル25の学習を行ってよい。また、入出力インタフェース28は、このようにして学習された推測モデル25を運用装置3に供給してよい。
また、上記の実施形態においては、対象事象を薬の反応とし、対象事象の発現に影響を与えるパラメータを薬の量や暴露時間などとし、パラメータの各値に対応する画像の被写体を細胞などとして説明したが、学習装置2の適用対象はこれに限らない。例えば、対象事象を農作物の成熟とし、対象事象の発現に影響を与えるパラメータを日照量や降雨量、農薬の散布量とし、パラメータの各値に対応する画像の被写体を畑の俯瞰画像としてもよい。
また、本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図6は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD−ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。
通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD−ROMドライブ2226は、プログラムまたはデータをDVD−ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。
プログラムが、DVD−ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD−ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU2212は、ハードディスクドライブ2224、DVD−ROMドライブ2226(DVD−ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1 システム、2 学習装置、3 運用装置、20 取得部、21 生成部、22 学習処理部、25 推測モデル、26 評価値出力部、27 決定部、28 入出力インタフェース、30 取得部、35 推測モデル、250 記憶部、350 記憶部、2200 コンピュータ、2201 DVD−ROM、2210 ホストコントローラ、2212 CPU、2214 RAM、2216 グラフィックコントローラ、2218 ディスプレイデバイス、2220 入/出力コントローラ、2222 通信インタフェース、2224 ハードディスクドライブ、2226 DVD−ROMドライブ、2230 ROM、2240 入/出力チップ、2242 キーボード、3333 投与量

Claims (13)

  1. 対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得部と、
    前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成部と、
    生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理部と、
    各推測モデルの推測誤差に応じた評価値を出力する評価値出力部と、
    を備える装置。
  2. 前記学習処理部は、前記推測モデルをディープラーニングの手法で学習する、請求項1に記載の装置。
  3. 前記複数の閾値のうち、前記評価値が最小の前記推測モデルに対応する閾値に基づいて、前記対象事象が発現する前記パラメータの値を決定する決定部
    をさらに備える請求項1または2に記載の装置。
  4. 前記学習処理部は、各推測モデルについて、対応する前記学習データセットを用いて学習を繰り返し行い、
    当該装置は、
    前記複数の閾値のうち、前記評価値が最も少ない学習回数で基準値以下となった前記推測モデルに対応する閾値に基づいて、前記対象事象が発現する前記パラメータの値を決定する決定部
    をさらに備える請求項1または2に記載の装置。
  5. 前記生成部は、前記複数の閾値のそれぞれについて、前記複数の画像のうち当該閾値を含む範囲内の前記パラメータの値に対応する複数の画像を用いて前記学習データセットを生成する請求項1からのいずれか一項に記載の装置。
  6. 前記取得部は、前記対象事象の発現に影響を与える複数のパラメータそれぞれの各値に対応する複数の画像を取得し、
    前記生成部は、前記複数のパラメータに関する複数の閾値の複数の組み合わせそれぞれについて、当該組み合わせに含まれる各閾値を境に異なる属性値を前記複数の画像のそれぞれに付与した学習データセットを生成する請求項1からのいずれか一項に記載の装置。
  7. 前記学習処理部は、前記複数の閾値について生成された複数の学習データセットのそれぞれを用いて、初期条件が等しい複数の推測モデルそれぞれを学習する請求項1からのいずれか一項に記載の装置。
  8. 前記学習処理部は、学習済みのモデルを前記推測モデルとして用い転移学習を行う請求項1からのいずれか一項に記載の装置。
  9. 前記推測モデルは、画像の入力に応じて当該画像の属性値を推測する、請求項1からのいずれか一項に記載の装置。
  10. 前記推測モデルは、画像の入力に応じ、少なくとも1つの属性値について、当該画像が当該属性値を有する確率を推測する、請求項1からのいずれか一項に記載の装置。
  11. 前記対象事象は、薬の反応であり、
    前記パラメータは、前記薬の投与条件である請求項1から10のいずれか一項に記載の装置。
  12. 対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得段階と、
    前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成段階と、
    生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理段階と、
    各推測モデルの推測誤差に応じた評価値を出力する評価値出力段階と、
    を備える方法。
  13. コンピュータに、
    対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得段階と、
    前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成段階と、
    生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理段階と、
    各推測モデルの推測誤差に応じた評価値を出力する評価値出力段階と、
    を実行させるプログラム。
JP2019029896A 2019-02-21 2019-02-21 装置、方法およびプログラム Active JP6915636B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019029896A JP6915636B2 (ja) 2019-02-21 2019-02-21 装置、方法およびプログラム
US16/741,689 US11270435B2 (en) 2019-02-21 2020-01-13 Apparatus, method, and recording medium
EP20151886.7A EP3699822B1 (en) 2019-02-21 2020-01-15 Apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029896A JP6915636B2 (ja) 2019-02-21 2019-02-21 装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020135568A JP2020135568A (ja) 2020-08-31
JP6915636B2 true JP6915636B2 (ja) 2021-08-04

Family

ID=69172648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029896A Active JP6915636B2 (ja) 2019-02-21 2019-02-21 装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US11270435B2 (ja)
EP (1) EP3699822B1 (ja)
JP (1) JP6915636B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301915A (ja) * 1997-04-28 1998-11-13 Toshiba Corp パラメータ調整装置及びパラメータ調整方法
JP4757246B2 (ja) 2007-09-07 2011-08-24 オリンパス株式会社 神経細胞画像解析装置及び神経細胞画像解析ソフトウェア
US8812240B2 (en) * 2008-03-13 2014-08-19 Siemens Medical Solutions Usa, Inc. Dose distribution modeling by region from functional imaging
JP5720351B2 (ja) * 2011-03-24 2015-05-20 横河電機株式会社 画像解析方法および画像解析装置
JP6590690B2 (ja) * 2015-12-25 2019-10-16 富士フイルム株式会社 細胞画像検索装置および方法並びにプログラム
WO2019018693A2 (en) * 2017-07-19 2019-01-24 Altius Institute For Biomedical Sciences METHODS OF ANALYZING MICROSCOPIC IMAGES USING AUTOMATIC LEARNING

Also Published As

Publication number Publication date
EP3699822B1 (en) 2024-06-05
US20200273174A1 (en) 2020-08-27
JP2020135568A (ja) 2020-08-31
US11270435B2 (en) 2022-03-08
EP3699822A1 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
US11687786B2 (en) Pre-processing for data-driven model creation
US20210390416A1 (en) Variable parameter probability for machine-learning model generation and training
US11610131B2 (en) Ensembling of neural network models
US20210374958A1 (en) Neural network classification
US11100403B2 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
US11288550B2 (en) Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
Eaton-Rosen et al. Towards safe deep learning: accurately quantifying biomarker uncertainty in neural network predictions
KR102190299B1 (ko) 인공신경망을 이용한 위암의 예후 예측 방법, 장치 및 프로그램
US10713783B2 (en) Neural network classification
US20190073591A1 (en) Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm
Lee et al. Scaling structural learning with NO-BEARS to infer causal transcriptome networks
Waldmann et al. Boosting joint models for longitudinal and time‐to‐event data
Chen et al. Retina image vessel segmentation using a hybrid CGLI level set method
JP2016194914A (ja) 混合モデル選択の方法及び装置
Mahajan et al. COVID‐19 detection using hybrid deep learning model in chest x‐rays images
JP6915636B2 (ja) 装置、方法およびプログラム
Ahmadi et al. New Technique for Automatic Segmentation of Blood Vessels in CT Scan Images of Liver Based on Optimized Fuzzy C‐Means Method
Chotzoglou et al. Exploring the relationship between segmentation uncertainty, segmentation performance and inter-observer variability with probabilistic networks
US11024030B2 (en) Apparatus, method, and recording medium
Liu et al. Uncertainty-aware semi-supervised framework for automatic segmentation of macular edema in OCT images
JP6422512B2 (ja) 計算機システム及びグラフィカルモデルの管理方法
Cervantes et al. Optimization of vessel segmentation using genetic algorithms
US20240070536A1 (en) Computer-readable recording medium storing determination program, determination apparatus, and determination method
Gtifa et al. Automated brain tumour segmentation from multi‐modality magnetic resonance imaging data based on new particle swarm optimisation segmentation method
KR102676003B1 (ko) 딥러닝을 이용한 비정상 어류 객체 탐지 방법 및 이를 수행하는 전자 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6915636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150