JP6915604B2 - 装置、方法およびプログラム - Google Patents

装置、方法およびプログラム Download PDF

Info

Publication number
JP6915604B2
JP6915604B2 JP2018222705A JP2018222705A JP6915604B2 JP 6915604 B2 JP6915604 B2 JP 6915604B2 JP 2018222705 A JP2018222705 A JP 2018222705A JP 2018222705 A JP2018222705 A JP 2018222705A JP 6915604 B2 JP6915604 B2 JP 6915604B2
Authority
JP
Japan
Prior art keywords
image
drug
efficacy
evaluation target
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018222705A
Other languages
English (en)
Other versions
JP2020081542A (ja
Inventor
幸広 伊奈
幸広 伊奈
浩史 坂下
浩史 坂下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2018222705A priority Critical patent/JP6915604B2/ja
Priority to US16/673,982 priority patent/US11024030B2/en
Priority to EP19210312.5A priority patent/EP3660736B1/en
Publication of JP2020081542A publication Critical patent/JP2020081542A/ja
Application granted granted Critical
Publication of JP6915604B2 publication Critical patent/JP6915604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/40ICT specially adapted for the handling or processing of medical references relating to drugs, e.g. their side effects or intended usage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Medicinal Chemistry (AREA)
  • Molecular Biology (AREA)
  • Chemical & Material Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Toxicology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、装置、方法およびプログラムに関する。
従来、学習済モデルを用いて被写体の分類を行う種々の技術が提案されている。例えば、非特許文献1に記載の技術では、乳腺濃度に従って分類された4種類の画像を用いて学習処理が施されたモデルを用いることで、評価対象画像を4種類の何れかに分類する。
非特許文献1 加納拓弥、周向栄、 子安裕美、横山龍二郎、原武史、松尾政之、藤田広志、「Deep CNNに基づくCT画像からの乳腺濃度の自動分類法」、信学技報 IEICE Technical Report 第116巻、第39号、p21−25
しかしながら、従来技術では、分類の数に応じた学習用画像を用意して学習処理を行う必要がある。そのため、薬の効能がどれだけ発揮されているかをモデルに出力させる場合には、発揮度合ごとに学習用の画像を用意する必要があり、モデルの作成に手間がかかってしまう。
上記課題を解決するために、本発明の第1の態様においては、装置が提供される。装置は、評価対象の被写体を示す評価対象画像を取得する画像取得部を備えてよい。装置は、画像の入力に応じて当該画像の被写体が、薬の効能発揮前、または、薬の効能発揮後として認識される認識確率を出力するモデルを用い、評価対象画像についての認識確率を取得する確率取得部を備えてよい。装置は、評価対象画像の認識確率に基づいて、薬の効能の発揮度合を算出する算出部を備えてよい。
確率取得部は、異なる投与条件で薬が投与された被写体を示す複数の評価対象画像のそれぞれについて認識確率を取得してよい。算出部は、複数の評価対象画像それぞれの認識確率に基づいて、当該評価対象画像の発揮度合を算出してよい。
装置は、各評価対象画像の被写体に対する薬の投与条件を取得する投与条件取得部を備えてよい。装置は、各評価対象画像の発揮度合と、当該評価対象画像に対応する投与条件とに基づいて、発揮度合が予め定められた要約統計量となる投与条件を検出する検出部を備えてよい。
確率取得部は、等しい投与条件で薬が投与された被写体を示す複数の評価対象画像のそれぞれについて認識確率を取得してよい。算出部は、複数の評価対象画像についての複数の認識確率の代表値に基づいて発揮度合を算出してよい。
確率取得部は、等しい投与条件で薬が投与された被写体を示す複数の評価対象画像のそれぞれについて認識確率を取得してよい。算出部は、複数の評価対象画像についての複数の認識確率の分散に基づいて発揮度合を算出してよい。
算出部は、評価対象画像についての認識確率を発揮度合に変換する変換部を有してよい。
装置は、薬の効能発揮前の被写体を示す発揮前画像、および、薬の効能発揮後の被写体を示す発揮後画像を含む学習データを取得する学習データ取得部を備えてよい。装置は、学習データ用いてモデルの学習処理を実行する学習処理部を備えてよい。
発揮前画像は、薬を投与する前の被写体を示す画像であってよい。発揮後画像は、薬の効能が最大限に発揮された状態の被写体を示す画像であってよい。
本発明の第2の態様においては、方法が提供される。方法は、評価対象の被写体を示す評価対象画像を取得する画像取得段階を備えてよい。方法は、画像の入力に応じて当該画像の被写体が、薬の効能発揮前、または、薬の効能発揮後として認識される認識確率を出力するモデルを用い、評価対象画像についての認識確率を取得する確率取得段階を備えてよい。方法は、評価対象画像の認識確率に基づいて、薬の効能の発揮度合を算出する算出段階を備えてよい。
本発明の第3の態様においては、プログラムが提供される。プログラムは、コンピュータに、評価対象の被写体を示す評価対象画像を取得する画像取得段階を実行させてよい。プログラムは、コンピュータに、画像の入力に応じて当該画像の被写体が、薬の効能発揮前、または、薬の効能発揮後として認識される認識確率を出力するモデルを用い、評価対象画像についての認識確率を取得する確率取得段階を実行させてよい。プログラムは、コンピュータに、評価対象画像の認識確率に基づいて、薬の効能の発揮度合を算出する算出段階を実行させてよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る装置1を示す。 装置1による学習処理を示す。 装置1による解析処理を示す。 薬の投与量と、発揮度合との関係を示す。 発揮前画像を示す。 発揮後画像を示す。 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
[1.装置1の構成]
図1は、本実施形態に係る装置1を示す。装置1は、学習処理を施されたモデル13を用いて薬効の解析を行うものである。装置1は、学習データ取得部11と、学習処理部12と、モデル13と、画像取得部14と、確率取得部15と、算出部16と、投与条件取得部17と、検出部18とを備える。
[1.1.学習データ取得部11]
学習データ取得部11は、薬の効能発揮前の被写体を示す発揮前画像、および、薬の効能発揮後の被写体を示す発揮後画像を含む学習データを取得する。ここで、被写体は、生物の器官や組織、細胞、細胞小器官(一例として核)、有機物(一例としてタンパク質や核酸)などであってよく、生体から採取されたものでよい。薬は、被写体に対して効能を有するものである。薬の効能は、薬が被写体を変化させる働きであり、被写体を健全な状態に変化させてもよいし、異常な状態(一例として破壊された状態)に変化させてもよい。
学習データ取得部11は、発揮前画像および発揮後画像の画像データを図示しない記憶装置から取得してよい。学習データ取得部11は、取得した発揮前画像および発揮後画像を学習データとして学習処理部12に供給する。
[1.2.学習処理部12]
学習処理部12は、学習データ用いてモデル13の学習処理を実行する。例えば、学習処理部12はディープラーニングの手法で学習処理を行ってよい。
[1.3.モデル13]
モデル13は、画像の入力に応じて当該画像の被写体が薬の効能発揮前、または、薬の効能発揮後として認識される認識確率を出力する。ここで、確率とは、その現象が起こることが期待される度合いであり、本実施形態では一例として40%などの百分率であるが、0.4などの比でもよい。
モデル13は、学習処理部12による学習処理によって生成されてよい。モデル13は、本実施形態では一例として、畳み込みニューラルネットワーク(CNN)やVGGであってよい。VGGとは、Visual Geometry Group, Department of Engineering Science, University of Oxfordにより開発されたモデルであり、一例としてKaren Simonyan等による「VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE−SCALE IMAGE RECOGNITION」(ICLR 2015、https://arxiv.org/pdf/1409.1556.pdf.)に開示のモデルである。
モデル13は、入力画像が効能発揮前の画像である確率を出力するニューロンと、効能発揮後の画像である確率を出力するニューロンを出力層に含み、モデル13は2つの出力ニューロンから合計して100(%)になる確率を出力してよい。
モデル13は、装置1内部の記憶部130に格納されてよい。モデル13は、入出力インタフェース131を介して装置1の外部に出力されてよい。モデル13は、入出力インタフェース131を介して外部から設定されてよい。
[1.4.画像取得部14]
画像取得部14は、評価対象の被写体を示す1または複数の評価対象画像を取得する。評価対象の被写体は、薬の効能の発揮度合が評価される被写体である。薬の効能の発揮度合とは、薬の効能によって被写体が変化している度合である。一例として、評価対象の被写体は、予め定められた投与条件で薬が投与された被写体であってよい。投与条件とは、一例として薬の投与量であってもよいし、薬の効能が発揮される状態に被写体をさらした時間(暴露時間とも称する)であってもよい。
なお、暴露時間とは、別言すれば、薬の投与から被写体の撮像までの経過時間である。複数の評価対象画像が取得される場合には、これらの間では薬の投与条件が異なっていてもよいし、等しくてもよい。投与条件が異なるとは、薬の投与量および暴露時間の少なくとも一方が異なることであってよい。投与条件が等しいとは、薬の投与量および暴露時間の両方が等しいことであってよい。
画像取得部14は、評価対象画像の画像データを図示しない記憶装置から取得してよい。この記憶装置では、各評価対象画像の画像データに対応付けて、被写体に対する薬の投与条件が記憶されてよい。画像取得部14は、取得した評価対象画像を確率取得部15に供給する。
[1.5.確率取得部15]
確率取得部15は、モデル13を用い、各評価対象画像についての認識確率を取得する。例えば、確率取得部15は、評価対象画像の画像データをモデル13に供給したことに応じてモデル13が出力する認識確率、つまり、薬の効能発揮前または薬の効能発揮後として認識される確率を取得する。
複数の評価対象画像が画像取得部14により取得される場合には確率取得部15は、これらの複数の評価対象画像のそれぞれについて認識確率を取得してよい。確率取得部15は、取得した認識確率を算出部16に供給する。
[1.6.算出部16]
算出部16は、評価対象画像の認識確率に基づいて、評価対象の被写体に対する効能の発揮度合を算出する。
算出部16は、評価対象画像についての認識確率を効能の発揮度合に変換する変換部160を有してよい。変換部160は、予め設定された関数を用いて認識確率を発揮度合に変換してよい。関数は、予め複数の被写体のサンプルを用いて画像に対するモデル13の認識確率と、オペレータにより特定された発揮度合とを取得し、それらの関係を近似することで設定されてよい。一例として、関数は指数関数でもよいし、シグモイド関数でもよい。
複数の評価対象画像の認識確率が確率取得部15により取得される場合には、算出部16は、複数の評価対象画像それぞれの認識確率に基づいて、当該評価対象画像の発揮度合を算出してよい。つまり、算出部16は、評価対象画像ごとに、その認識確率に基づいて発揮度合を算出してよい。算出部16は、算出した発揮度合を検出部18に供給する。なお、算出部16は発揮度合を装置1の外部に出力してもよい。
[1.7.投与条件取得部17]
投与条件取得部17は、評価対象画像の被写体に対する薬の投与条件を取得する。例えば、投与条件取得部17は、複数の評価対象画像が画像取得部14により取得される場合に、それらの被写体に対する薬の投与条件をそれぞれ取得してよい。投与条件取得部17は、評価対象画像と薬の投与条件とを対応付けて記憶した記憶装置から薬の投与条件を取得してよい。これに代えて、投与条件取得部17は、各評価対象画像についてオペレータから投与条件を取得してもよい。投与条件取得部17は、取得した投与条件を検出部18に供給する。
[1.8.検出部18]
検出部18は、各評価対象画像の発揮度合と、当該評価対象画像に対応する投与条件とに基づいて、発揮度合が予め定められた要約統計量(既定要約統計量とも称する)となる投与条件(薬効指標とも称する)を検出する。例えば、検出部18は、薬の投与条件が異なる複数の評価対象画像が画像取得部14により取得される場合に、それらの発揮度合および投与条件に基づいて薬効指標を検出してよい。
ここで、要約統計量とは、標本の分布の特徴を代表的に(要約して)表す値であってよく、一例として平均値、中央値、最大値、最小値などであってよい。本実施形態では一例として、既定要約統計量は、発揮度合の最大値の半分の値、つまりEC(half maximal Effective Concentration)50またはIC(half maximal Inhibitory Concentration)50であってよい。これにより、EC50、IC50を示す薬効指標が検出される。検出部18は、検出した薬効指標を装置1の外部に出力する。検出した薬効指標に対応する評価対象画像や、その識別番号をさらに出力してもよい。検出部18は、検出した薬効指標と併せて、各評価対象画像の投与条件と、発揮度合との関係を示すグラフをさらに出力してもよい。
以上の装置1によれば、評価対象画像の被写体が効能発揮前または発揮後の被写体として認識される認識確率に基づいて効能の発揮度合が算出されるので、効能発揮前後の画像を含む学習データを用いてモデル13の学習処理を行うことで評価対象画像の発揮度合の取得が可能となる。ここで、評価対象画像の発揮度合をモデル13に出力させるには、発揮度合ごとの学習用の画像を用意して学習処理を行うことも考えられる。
これに対し、本実施形態に係る装置1では、効能発揮前後の画像をモデル13の学習処理に用いて、効能の発揮前から発揮後までの間の適切な発揮度合を評価対象画像の発揮度合として出力させることができる。従って、効能の発揮度合ごとの画像を含む学習データを用いて学習処理を行う場合と比較して、容易にモデル13を作成して評価対象画像について効能の発揮度合を取得することができる。
なお、評価対象画像の発揮度合を画像から取得するには、画像処理によって画像の特徴量を検出して効能の発揮度合に変換することも考えられるが(例えば特開2009−63509号公報)、画像処理プログラムの作成や、画像ごとのアルゴリズムやパラメータの調整に手間がかかってしまいユーザの負担となる。
また、認識確率が発揮度合に変換されるので、認識確率をそのまま発揮度合として用いる場合と比較して、発揮度合の把握を容易化することができる。
また、異なる投与条件で薬が投与された被写体を示す複数の評価対象画像が取得され、複数の投与条件について発揮度合が算出されるので、薬の投与条件と、発揮度合との関係を取得することができる。
また、各評価対象画像についての効能の発揮度合と、薬の投与条件とに基づいて、発揮度合が既定要約統計量(一例としてEC50,IC50)となる薬効指標が検出されるので、薬の好ましい投与条件を取得することができる。
[2.装置1の動作]
[2.1.学習処理]
図2は、装置1による学習処理を示す。装置1は、ステップS11〜S13の処理を行うことによりモデル13の学習処理を行う。
ステップS11において、学習データ取得部11は、発揮前画像および発揮後画像を含む学習データを取得する。ここで、発揮前画像は、薬を投与する前の被写体を示す画像であってよい。例えば、発揮前画像は、薬が投与されていない状態の被写体を示す画像であってよい。これに代えて、発揮前画像は、薬が投与された後の被写体を示す画像であってもよく、例えば、薬が投与されて効能を発揮していない状態の被写体を示す画像であってもよい。この場合、発揮前画像は、オペレータにより効能発揮前として分類された画像であってよく、一例として、薬の投与量が第1の基準量より少ない被写体の画像であってもよいし、暴露時間が第1の基準時間より少ない被写体の画像であってもよい。
また、発揮後画像は、薬の効能が最大限に発揮された状態の被写体を示す画像であってよい。例えば、発揮後画像は、薬の投与量および暴露時間を増やしても変化が見られない投与条件での被写体の画像であってよい。これに代えて、発揮後画像は、効能が最大限に発揮されたか否かとは無関係に、薬が投与されて効能の発揮が完了した状態の被写体を示す画像であってもよい。この場合、発揮後画像は、オペレータにより効能発揮後として分類された画像であってよく、一例として、薬の投与量が第2の基準量より多く、暴露時間が第2の経過時間より多い被写体の画像であってよい。
なお、第2の基準量は第1の基準量より大きくてよく、第1の基準時間は第2の基準時間より長くてよい。これらの発揮前画像および発揮後画像は、顕微鏡(一例として光学顕微鏡、電子顕微鏡)により撮像された画像でもよいし、他の撮像手段により撮像された画像でもよい。本実施形態では一例として、発揮前画像および発揮後画像は、マイクロプレートのウェルに収容された被写体としての細胞を光学顕微鏡で撮像した画像である。
ステップS13において、学習処理部12は、学習データ用いてモデル13の学習処理を実行する。一例として、学習処理部34は、ディープラーニングの手法で学習処理を行ってよい。学習処理部34は、モデル13のノード間をつなぐエッジの重み、および、出力ノードのバイアス値を調整することで学習処理を実行してよい。ステップS11〜S13の処理は、モデル13による画像の認識の精度が十分に収束するまで繰り返されてよい。
以上の動作によれば、薬の投与前の被写体を示す発揮前画像と、薬の効能発揮が完了した状態の被写体を示す発揮後画像とを用いて学習処理を行うので、効能の発揮途中の画像が学習処理に使用されない。従って、効能の発揮途中のデータを学習データに含めて学習処理を行う場合と比較して、学習処理を高速化することができる。
[2.2.解析処理]
図3は、装置1による解析処理を示す。装置1は、ステップS21〜S29の処理を行うことにより、学習処理を施されたモデル13を用いて薬効の解析を行う。
ステップS21において画像取得部14は、評価対象の被写体を示す評価対象画像を取得する。例えば画像取得部14は、複数の評価対象画像を取得する。
本実施形態では一例として、画像取得部14は、異なる投与条件で薬が投与された被写体を示す複数の評価対象画像を取得する。例えば、画像取得部14は、投与量を逐次、増加させた一連の評価対象画像を取得してもよいし、暴露時間を逐次、増加させた一連の評価対象画像を取得してもよい。これらの一連の評価対象画像には、薬の効能が発揮されていない状態の被写体を示す画像、および、薬の効能が最大限に発揮された状態の被写体を示す画像が含まれてよい。
また、画像取得部14は、等しい投与条件で薬が投与された被写体を示す複数の評価対象画像を取得する。例えば、画像取得部14は、投与条件ごとに複数の評価対象画像を取得する。一例として、画像取得部14は、マイクロプレートにおける同一のウェルまたは同一の投与条件のウェルにおいて異なる視野で撮像された複数の画像を、等しい投与条件に対応する複数の評価対象画像として取得してよい。
評価対象画像は、発揮前画像および発揮後画像と同種の画像であってよく、顕微鏡(一例として光学顕微鏡、電子顕微鏡)により撮像された画像でもよいし、他の撮像手段により撮像された画像でもよい。本実施形態では一例として、評価対象画像は、マイクロプレートのウェルに収容された被写体としての細胞を光学顕微鏡で撮像した画像である。
ステップS23において投与条件取得部17は、各評価対象画像の被写体に対する薬の投与条件を取得する。ステップS23の処理は、ステップS21の処理より前に行われてもよいし、ステップS25〜S29の間に行われてもよい。
ステップS25において確率取得部15は、モデル13を用い、評価対象画像についての認識確率、例えば薬の効能発揮後として認識される確率を取得する。本実施形態では一例として、確率取得部15は、画像取得部14により取得される複数の評価対象画像のそれぞれについて認識確率を取得する。
ステップS27において算出部16は、評価対象画像の認識確率に基づいて、薬の効能の発揮度合を算出する。例えば、算出部16は、等しい投与条件で薬が投与された被写体を示す複数の評価対象画像についての複数の認識確率の代表値(一例として平均値、中央値、最頻値)に基づいて、当該複数の評価対象画像の発揮度合を算出してよい。つまり、算出部16は、投与条件ごとに評価対象画像の発揮度合を算出してよい。算出部16は、変換部160を用いて複数の評価対象画像についての認識確率(一例として等しい投与条件で薬が投与された被写体を示す複数の評価対象画像についての認識確率の平均値)を効能の発揮度合に変換してよい。一例として変換部160は、百分率の認識確率を0から1の発揮度合に変換してよい。
ステップS29において検出部18は、各評価対象画像の発揮度合と、当該評価対象画像に対応する投与条件とに基づいて、発揮度合が既定要約統計量(本実施形態では一例としてEC50,IC50)となる薬効指標を検出する。例えば、検出部18は、投与条件ごとの評価対象画像の発揮度合のうち、既定要約統計量に最も近い発揮度合に対応する投与条件を薬効指標として検出してよい。検出部18は、検出した薬効指標と併せて、当該薬効指標に対応する評価対象画像や、その画像またはウェルの識別番号をさらに出力してもよい。検出部18は、検出した薬効指標と併せて、各評価対象画像の投与条件と、発揮度合との関係を示すグラフを出力してよい。
なお、評価対象画像と、その投与条件との対応関係がオペレータにより把握可能である場合(一例として記憶装置に記憶されている場合)には、検出部18は、各評価対象画像の識別番号と、発揮度合との関係を示すグラフを出力してもよい。同様に、評価対象画像が撮像されたウェルと、そのウェルに対する薬の投与条件との対応関係がオペレータにより把握可能である場合には、検出部18は、各ウェルの識別番号と、発揮度合との関係を示すグラフを出力してもよい。
以上の動作によれば、薬の投与条件の等しい複数の評価対象画像についての複数の認識確率の代表値に基づいて発揮度合が算出されるので、投与条件の等しい評価対象画像間で認識確率にばらつきがある場合に、適切な発揮度合を取得することができる。
また、評価対象画像の投与条件と、発揮度合との関係を示すグラフが出力されるので、投与条件と、発揮度合との関係を容易に把握することができる。
[3.動作例]
図4は、薬の投与量と、発揮度合との関係を示す。図中の横軸は、薬の投与量(本実施形態では一例としてnM)を対数で示す。なお、横軸は薬の暴露時間であってもよい。図中の縦軸は、薬の効能の発揮度合を示す。図中のプロット,エラーバーは、同一の投与量のウェル内で撮像された複数の評価対象画像(例えば25〜49枚の画像)についての効能の発揮度合の平均値,分散を示す。この例では、投与量ごとの効能の発揮度合のうち、既定要約統計量(本動作例では一例として発揮度合0.5)に最も近い発揮度合0.23に対応する投与量1111nMの投与量が薬効指標として検出される。
図5は、発揮前画像を示す。本図では一例として、発揮前画像は、繊維状の細胞質(図中の白い部分)を分解する薬が投与されていない状態の被写体を示す。
図6は、発揮後画像を示す。本図では一例として、発揮後画像は、薬の効能によって細胞質が最大限に分解された状態の被写体を示す。
[4.変形例]
なお、上記の実施形態においては、装置1が学習データ取得部11、学習処理部12、モデル13、投与条件取得部17および検出部18を備えることとして説明したが、これらの少なくとも1つを備えないこととしてもよい。例えば、装置1は、モデル13の学習処理を行わない場合には、学習データ取得部11および学習処理部12を備えなくてもよい。また、装置1は、発揮度合が既定要約統計量となる薬効指標を検出しない場合には、投与条件取得部17および検出部18を備えなくてもよい。また、モデル13は、装置1の外部のサーバに格納されてもよい。
また、薬が効能を1段階で発揮し、モデル13は評価対象画像が効能の発揮後画像(または発揮前画像)として認識される確率を出力し、算出部16は効能の発揮度合を算出することとして説明した。しかしながら、薬が段階的に効能を発揮する場合(一例として第1段階では被写体が膨張し、第2段階では被写体が崩壊する等の場合)には、モデル13は評価対象画像が各段階での効能の発揮後画像(または発揮前画像)として認識される確率を出力してよい。
また、算出部16は、少なくとも1つの段階の効能の発揮度合を算出してもよい。この場合には、算出部16は、薬の投与量または暴露時間を逐次、増加させた一連の評価対象画像について、各段階の効能の発揮度合が0から1の範囲内に収まるように、確率取得部15からの認識確率、または、算出部16が算出した発揮度合自体をノーマライズしてよい。
例えば、薬がn段階(但しnは2以上の自然数)に効能を発揮する場合には、第1段階の効能の発揮後画像(または発揮前画像)としての認識確率Pから、第n段階の効能の発揮後画像(または発揮前画像)としての認識確率Pまでのn個の認識確率が取得され得る。この場合に、算出部16は、認識確率P〜Pを使ってノーマライズを行ってよい。これにより、効能が複数段階で発揮される場合に、何れの段階の効能が発揮されているかを容易に把握することができる。
一例として、算出部16は、全ての効能に対する発揮度合、別言すれば最終的な効能に対する発揮度合が0から1の範囲内に収まるように、確率取得部15からの認識確率、または、算出部16が算出した発揮度合自体をノーマライズしてもよい。例えば、算出部16は、全n段階の効能における各段階の効能の発揮後画像としての認識確率がそれぞれ0%(または0%未満の値)の場合に発揮度合が0になり、第n段階の効能の発揮後画像としての認識確率が100%(または100%を超える値)の場合に発揮度合が1になるようノーマライズを行ってよい。この場合には、算出部16は、複数の段階の発揮後画像としての認識確率のうち、最も高い認識確率についてのみ発揮度合を算出してよい。一例として、第N段階(但しNは1≦N≦nの自然数)の発揮後画像としての認識確率Pが最も高い場合について説明する。算出部16は、第n段階の効能の発揮が完了する投与条件(一例として投与量または暴露時間)を100とした場合に、第N段階の効能の発揮が開始する投与条件の割合QN_START、および、発揮が完了する投与条件の割合QN_ENDをそれぞれ取得してよい。一例として、QN_STARTは100N/n−100/2n(%)であってよく、QN_ENDは100N/n+100/2n(%)に設定されてよい。算出部16は、効能の発揮度合を(QN_START+(QN_END−QN_START)×P)/100として算出してよい。
また、算出部16は評価対象画像の認識確率を関数により変換することで効能の発揮度合を算出することとして説明したが、認識確率をそのまま効能の発揮度合としてもよい。
また、算出部16は、薬の投与条件が等しい複数の評価対象画像についての複数の認識確率の代表値に基づいて発揮度合を算出することとして説明したが、これに加えて、またはこれに代えて、複数の認識確率の分散に基づいて発揮度合を算出してもよい。一例として、算出部16は、分散そのものを発揮度合としてよい。この場合には、検出部18は、分散が最大となる投与条件を薬効指標として検出してよい。例えば上述の図4の例の場合には、検出部18は、分散が最大となる薬の投与量1111nMの条件を薬効指標として検出してよい。これにより、薬の効能が発揮され得る投与条件、つまり、投与量および暴露時間の少なくとも一方を逐次、増加させた場合に薬が効き始める投与条件を検出することができる。
また、学習処理部12は、1つの薬の発揮前画像および発揮後画像を用いてモデル13の学習処理を実行することとして説明したが、複数の薬の発揮前画像および発揮後画像をそれぞれ用いて学習処理を実行してもよい。この場合には、モデル13は、評価対象画像の入力に応じて当該評価対象画像が各薬の効能発揮後(または効能発揮前)として認識される認識確率を出力してよい。
また、算出部16は、各薬についての評価対象画像の認識確率に基づいて、各薬の効能の発揮度合を算出してよい。一例として、モデル13が評価対象画像について2つの薬のそれぞれの効能発揮後として認識される認識確率を出力する場合には、算出部16は、一方の薬についての効能の発揮度合と、他方の薬についての効能の発揮度合とをそれぞれ算出してよい。
また、モデル13の学習処理が終了した後に解析処理が行われることとして説明したが、解析処理の結果を用いてモデル13に対してさらに学習処理を行ってもよい。例えば、学習データ取得部11は解析処理により基準値以上の認識確率で効能発揮前または効能発揮後とされた評価対象画像を発揮前画像,発揮後画像として取得してよい。
また、学習処理部12は、このようにして取得された画像を含む学習データを用いて学習処理を行ってよい。
また、本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図7は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD−ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。
通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD−ROMドライブ2226は、プログラムまたはデータをDVD−ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。
プログラムが、DVD−ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD−ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU2212は、ハードディスクドライブ2224、DVD−ROMドライブ2226(DVD−ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1 装置、11 学習データ取得部、12 学習処理部、13 モデル、14 画像取得部、15 確率取得部、16 算出部、17 投与条件取得部、18 検出部、34 学習処理部、160 変換部、2200 コンピュータ、2201 DVD−ROM、2210 ホストコントローラ、2212 CPU、2214 RAM、2216 グラフィックコントローラ、2218 ディスプレイデバイス、2220 入/出力コントローラ、2222 通信インタフェース、2224 ハードディスクドライブ、2226 DVD−ROMドライブ、2230 ROM、2240 入/出力チップ
2242 キーボード

Claims (11)

  1. 評価対象の被写体を示す評価対象画像を取得する画像取得部と、
    画像の入力に応じて当該画像の被写体が、薬の複数段階の効能それぞれについて効能発揮前、または、能発揮後として認識される認識確率を出力するモデルを用い、前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率を取得する確率取得部と、
    前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率のうち、最も高い認識確率に基づいて、この認識確率に対応する段階での前記薬の効能の発揮度合を算出する算出部と、
    を備える装置。
  2. 前記算出部は、前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率に基づいて、前記複数段階それぞれでの前記薬の効能の発揮度合を算出する、請求項1に記載の装置。
  3. 前記確率取得部は、異なる投与条件で前記薬が投与された被写体を示す複数の前記評価対象画像のそれぞれについて前記認識確率を取得し、
    前記算出部は、前記複数の評価対象画像それぞれの前記認識確率に基づいて、当該評価対象画像の前記発揮度合を算出する、請求項1または2に記載の装置。
  4. 各評価対象画像の被写体に対する前記薬の投与条件を取得する投与条件取得部と、
    各評価対象画像の前記発揮度合と、当該評価対象画像に対応する投与条件とに基づいて、前記発揮度合が予め定められた要約統計量となる投与条件を検出する検出部と、
    をさらに備える、請求項に記載の装置。
  5. 前記確率取得部は、等しい投与条件で前記薬が投与された被写体を示す複数の前記評価対象画像のそれぞれについて前記認識確率を取得し、
    前記算出部は、前記複数の評価対象画像についての複数の前記認識確率の代表値に基づいて前記発揮度合を算出する、請求項1〜のいずれか一項に記載の装置。
  6. 前記確率取得部は、等しい投与条件で前記薬が投与された被写体を示す複数の前記評価対象画像のそれぞれについて前記認識確率を取得し、
    前記算出部は、前記複数の評価対象画像についての複数の前記認識確率の分散に基づいて前記発揮度合を算出する、請求項1〜のいずれか一項に記載の装置。
  7. 前記算出部は、前記評価対象画像についての前記認識確率を前記発揮度合に変換する変換部を有する、請求項1〜のいずれか一項に記載の装置。
  8. 前記複数段階それぞれでの前記薬の効能発揮前の被写体を示す発揮前画像、および、前記薬の効能発揮後の被写体を示す発揮後画像を含む学習データを取得する学習データ取得部と、
    前記学習データ用いて前記モデルの学習処理を実行する学習処理部と、
    をさらに備える、請求項1〜のいずれか一項に記載の装置。
  9. 前記発揮前画像は、前記薬を投与する前の被写体を示す画像または前記複数段階の何れかでの前記薬の効能が発揮していない状態の被写体を示す画像であり、
    前記発揮後画像は、前記複数段階それぞれでの前記薬の効能が最大限に発揮された状態の被写体を示す画像である、請求項に記載の装置。
  10. 評価対象の被写体を示す評価対象画像を取得する画像取得段階と、
    画像の入力に応じて当該画像の被写体が、薬の複数段階の効能それぞれについて効能発揮前、または、能発揮後として認識される認識確率を出力するモデルを用い、前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率を取得する確率取得段階と、
    前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率のうち、最も高い認識確率に基づいて、この認識確率に対応する段階での前記薬の効能の発揮度合を算出する算出段階と、
    を備える方法。
  11. コンピュータに、
    評価対象の被写体を示す評価対象画像を取得する画像取得段階と、
    画像の入力に応じて当該画像の被写体が、薬の複数段階の効能それぞれについて効能発揮前、または、能発揮後として認識される認識確率を出力するモデルを用い、前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率を取得する確率取得段階と、
    前記評価対象画像についての前記複数段階の効能それぞれの前記認識確率のうち、最も高い認識確率に基づいて、この認識確率に対応する段階での前記薬の効能の発揮度合を算出する算出段階と、
    を実行させるプログラム。
JP2018222705A 2018-11-28 2018-11-28 装置、方法およびプログラム Active JP6915604B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018222705A JP6915604B2 (ja) 2018-11-28 2018-11-28 装置、方法およびプログラム
US16/673,982 US11024030B2 (en) 2018-11-28 2019-11-05 Apparatus, method, and recording medium
EP19210312.5A EP3660736B1 (en) 2018-11-28 2019-11-20 Image analysis for evaluating the effect of a drug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222705A JP6915604B2 (ja) 2018-11-28 2018-11-28 装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020081542A JP2020081542A (ja) 2020-06-04
JP6915604B2 true JP6915604B2 (ja) 2021-08-04

Family

ID=68732690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222705A Active JP6915604B2 (ja) 2018-11-28 2018-11-28 装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US11024030B2 (ja)
EP (1) EP3660736B1 (ja)
JP (1) JP6915604B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3232596A1 (en) * 2021-09-16 2023-03-23 Johnson & Johnson Consumer Inc. Analysis and characterization of epithelial tissue structure

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080279441A1 (en) * 2005-03-29 2008-11-13 Yuichiro Matsuo Cell-Image Analysis Method, Cell-Image Analysis Program, Cell-Image Analysis Apparatus, Screening Method, and Screening Apparatus
US7736905B2 (en) * 2006-03-31 2010-06-15 Biodesix, Inc. Method and system for determining whether a drug will be effective on a patient with a disease
US7972266B2 (en) * 2007-05-22 2011-07-05 Eastman Kodak Company Image data normalization for a monitoring system
JP4757246B2 (ja) * 2007-09-07 2011-08-24 オリンパス株式会社 神経細胞画像解析装置及び神経細胞画像解析ソフトウェア
US8812240B2 (en) 2008-03-13 2014-08-19 Siemens Medical Solutions Usa, Inc. Dose distribution modeling by region from functional imaging
JP5720351B2 (ja) * 2011-03-24 2015-05-20 横河電機株式会社 画像解析方法および画像解析装置
US10395764B2 (en) * 2015-01-06 2019-08-27 Aic Innovations Group, Inc. Method and apparatus for recognition of patient activity
JP6590690B2 (ja) * 2015-12-25 2019-10-16 富士フイルム株式会社 細胞画像検索装置および方法並びにプログラム
US10748277B2 (en) 2016-09-09 2020-08-18 Siemens Healthcare Gmbh Tissue characterization based on machine learning in medical imaging
JP6627069B2 (ja) * 2018-06-01 2020-01-08 株式会社フロンティアファーマ 画像処理方法、薬剤感受性試験方法および画像処理装置

Also Published As

Publication number Publication date
EP3660736B1 (en) 2023-12-27
US20200167927A1 (en) 2020-05-28
US11024030B2 (en) 2021-06-01
EP3660736A1 (en) 2020-06-03
JP2020081542A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
Masethe et al. Prediction of heart disease using classification algorithms
Jerlin Rubini et al. Efficient classification of chronic kidney disease by using multi‐kernel support vector machine and fruit fly optimization algorithm
Karabulut et al. Analysis of cardiotocogram data for fetal distress determination by decision tree based adaptive boosting approach
Kaur et al. A systematic review on metaheuristic optimization techniques for feature selections in disease diagnosis: open issues and challenges
Elmuogy et al. An efficient technique for CT scan images classification of COVID-19
TW202223917A (zh) 基於醫學影像的疾病預測方法
El Gannour et al. COVID-19 Detection on x-ray images using a combining mechanism of pre-trained CNNs
Marathe et al. Prediction of heart disease and diabetes using naive Bayes algorithm
Alturki et al. Predictors of readmissions and length of stay for diabetes related patients
El Zein et al. Transfer learning based model for pneumonia detection in chest X-ray images
JP6915604B2 (ja) 装置、方法およびプログラム
Kaushik et al. Performance evaluation of learning models for the prognosis of COVID-19
CN112699907B (zh) 数据融合的方法、装置和设备
Tabarisaadi et al. A deep bayesian ensembling framework for COVID-19 detection using chest CT images
izza Rufaida et al. Residual convolutional neural network for diabetic retinopathy
Rao et al. Medical Big Data Analysis using LSTM based Co-Learning Model with Whale Optimization Approach.
KR102394759B1 (ko) 데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치
JP2024500470A (ja) 医療画像における病変分析方法
US20220208356A1 (en) Radiological Based Methods and Systems for Detection of Maladies
Dua et al. Classifying Pulmonary Embolism Cases in Chest CT Scans Using VGG16 and XGBoost
Alkrimi et al. Using Knowledge Discovery to Enhance Classification Techniques for Detect Malaria-Infected Red Blood Cells
Srinivasulu Early prediction of covid-19 using modified recurrent neural networks
Khan et al. A CNN-based CADx Model for Pneumonia Detection from Chest Radiographs with Web Application
Diolkar COVID-19 Detection using Chest X-Ray Images by Artificial Intelligence
US11270435B2 (en) Apparatus, method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6915604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150