JP2020135568A - 装置、方法およびプログラム - Google Patents
装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2020135568A JP2020135568A JP2019029896A JP2019029896A JP2020135568A JP 2020135568 A JP2020135568 A JP 2020135568A JP 2019029896 A JP2019029896 A JP 2019029896A JP 2019029896 A JP2019029896 A JP 2019029896A JP 2020135568 A JP2020135568 A JP 2020135568A
- Authority
- JP
- Japan
- Prior art keywords
- value
- learning
- image
- estimation
- estimation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得部と、前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成部と、生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理部と、各推測モデルの推測誤差に応じた評価値を出力する評価値出力部と、を備える装置が提供される。
【選択図】図1
Description
非特許文献1 加納拓弥、周向栄、 子安裕美、横山龍二郎、原武史、松尾政之、藤田広志、「Deep CNNに基づくCT画像からの乳腺濃度の自動分類法」、信学技報 IEICE Technical Report 第116巻、第39号、p21−25
推測モデルは、画像の入力に応じて当該画像の属性値を推測してよい。推測モデルは、画像の入力に応じ、少なくとも1つの属性値について、当該画像が当該属性値を有する確率を推測してよい。
図1は、本実施形態に係るシステム1を示す。システム1は、推測モデル25の学習処理を行う学習装置2と、学習された推測モデル25の運用を行う運用装置3とを備える。本実施形態では一例として、対象事象は薬の反応であってよい。
学習装置2は、装置の一例であり、取得部20と、生成部21と、学習処理部22と、複数の推測モデル25と、評価値出力部26と、決定部27と、入出力インタフェース28とを備える。
取得部20は、対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する。例えば、取得部20は、複数の画像をパラメータの値と対応付けて取得してよい。
生成部21は、複数の学習データセットを生成する。生成部21は、パラメータ(本実施形態では一例として薬の量)に関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を複数の画像にそれぞれ付与した1つの学習データセットを生成してよい。
学習処理部22は、生成された学習データセットごとに、複数の推測モデル25のそれぞれを学習する。学習処理部22はディープラーニングの手法で学習処理を行ってよい。
各推測モデル25は、画像の入力に応じて当該画像の属性を推測する。例えば、各推測モデル25は、入力される画像の属性値(一例として薬の反応の有無を示す「1」または「0」の値)を推測してよい。本実施形態では一例として、各推測モデル25は、各属性値について、入力される画像が当該属性値を有する確率(一例として属性値「1」を有する確率、および「0」を有する確率。属性値の推測確率とも称する)を推測する。この場合、各推測モデル25は属性値ごとの推測確率を返し、入力される画像の対象事象(本実施形態では一例として薬の反応)が完全に発現した状態(発現状態の画像とも称する)に近いほど属性値1の推測確率は1.00(=100%)に近く、属性値0の推測確率は0(=0%)に近くなる。同様に、入力される画像の対象事象が発現状態の画像から遠いほど、属性値1の推測確率は0に近く、属性値0の推測確率は1.00に近くなる。ここで、確率とは、その現象が起こることが期待される度合いであり、本実施形態では一例として0.4などの比であるが、40%などの百分率でもよい。
評価値出力部26は、各推測モデル25の推測誤差に応じた評価値を出力する。
決定部27は、複数の閾値のうち、評価値(本実施形態では一例としてロス値)が最小の推測モデル25に対応する閾値に基づいて、対象事象が発現するパラメータの値(発現パラメータ値とも称する)を決定する。なお、値が大きいほど推測精度が高い評価値(一例として信頼度)を用いる場合には、決定部27は、評価値が最大の推測モデルに対応する閾値に基づいて発現パラメータの値を決定してよい。
入出力インタフェース28は、図示しない端末を介して推測モデル25の設定を行う。例えば、入出力インタフェース28は、推測モデル25のノード間をつなぐエッジの重み、および、出力ノードのバイアス値を調整してよい。
運用装置3は、取得部30および推測モデル35を備える。
取得部30は、図示しない記憶装置から1または複数の画像を取得する。取得される各画像は、対象事象が発現しているか否かを示す属性(本実施形態では一例として各属性値の推測確率)の推測対象とされる。取得部30は、取得した画像を推測モデル35に供給する。
推測モデル35は、入出力インタフェース28により供給された推測モデル25であり、取得部30からの画像入力に応じて当該画像の属性を推測する。例えば、推測モデル35は、入力される画像が対象事象(本実施形態では一例として薬の反応)の発現状態の画像に近いほど属性値1の推測確率として1.00に近い値を、発現状態の画像から遠いほど属性値1の推測確率として0に近い値を、属性値の推測確率として出力する。推測モデル35は、入力される画像が対象事象の発現状態の画像に近いほど属性値0の推測確率として0に近い値を、発現状態の画像から遠いほど属性値0の推測確率として1.00に近い値を、属性値の推測確率として出力する。また、推測モデル35は推測確率が最も大きい属性値を推測属性値として出力してよい。これにより、推測モデル35に画像を入力することで、薬の反応が発現しているかを示す値が得られる。
図2は、学習装置2による学習処理を示す。学習装置2は、ステップS11〜S23の処理を行うことにより発現パラメータ値を決定する。
図3は、学習データセットの一例を示す。本図では一例として、各画像は被写体としての繊維状の細胞質(図中の白い部分)を分解する薬が0,2,5,14,41,123,370,1111,3333,10000(nM)の量だけ投与された状態を示す。また、本図では、薬の量の閾値が1に設定されており、閾値以下の薬量に対応する各画像には薬が50%未満の反応をしたことを示す属性値「0」が付与されており、閾値を超える薬量に対応する各画像には薬が50%以上の反応をしたことを示す属性値「1」が付与されている。
なお、上記の実施形態においては、学習装置2が決定部27および入出力インタフェース28を備えることとして説明したが、これらの少なくとも1つを備えないこととしてもよい。
Claims (12)
- 対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得部と、
前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成部と、
生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理部と、
各推測モデルの推測誤差に応じた評価値を出力する評価値出力部と、
を備える装置。 - 前記複数の閾値のうち、前記評価値が最小の前記推測モデルに対応する閾値に基づいて、前記対象事象が発現する前記パラメータの値を決定する決定部
をさらに備える請求項1に記載の装置。 - 前記学習処理部は、各推測モデルについて、対応する前記学習データセットを用いて学習を繰り返し行い、
当該装置は、
前記複数の閾値のうち、前記評価値が最も少ない学習回数で基準値以下となった前記推測モデルに対応する閾値に基づいて、前記対象事象が発現する前記パラメータの値を決定する決定部
をさらに備える請求項1に記載の装置。 - 前記生成部は、前記複数の閾値のそれぞれについて、前記複数の画像のうち当該閾値を含む範囲内の前記パラメータの値に対応する複数の画像を用いて前記学習データセットを生成する請求項1から3のいずれか一項に記載の装置。
- 前記取得部は、前記対象事象の発現に影響を与える複数のパラメータそれぞれの各値に対応する複数の画像を取得し、
前記生成部は、前記複数のパラメータに関する複数の閾値の複数の組み合わせそれぞれについて、当該組み合わせに含まれる各閾値を境に異なる属性値を前記複数の画像のそれぞれに付与した学習データセットを生成する請求項1から4のいずれか一項に記載の装置。 - 前記学習処理部は、前記複数の閾値について生成された複数の学習データセットのそれぞれを用いて、初期条件が等しい複数の推測モデルそれぞれを学習する請求項1から5のいずれか一項に記載の装置。
- 前記学習処理部は、学習済みのモデルを前記推測モデルとして用い転移学習を行う請求項1から6のいずれか一項に記載の装置。
- 前記推測モデルは、画像の入力に応じて当該画像の属性値を推測する、請求項1から7のいずれか一項に記載の装置。
- 前記推測モデルは、画像の入力に応じ、少なくとも1つの属性値について、当該画像が当該属性値を有する確率を推測する、請求項1から8のいずれか一項に記載の装置。
- 前記対象事象は、薬の反応であり、
前記パラメータは、前記薬の投与条件である請求項1から9のいずれか一項に記載の装置。 - 対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得段階と、
前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成段階と、
生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理段階と、
各推測モデルの推測誤差に応じた評価値を出力する評価値出力段階と、
を備える方法。 - コンピュータに、
対象事象の発現に影響を与えるパラメータの各値に対応する複数の画像を取得する取得段階と、
前記パラメータに関する複数の閾値のそれぞれについて、当該閾値を境に異なる属性値を前記複数の画像の少なくとも一部にそれぞれ付与した学習データセットを生成する生成段階と、
生成された学習データセットごとに、画像の入力に応じて当該画像の属性を推測する推測モデルを学習する学習処理段階と、
各推測モデルの推測誤差に応じた評価値を出力する評価値出力段階と、
を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029896A JP6915636B2 (ja) | 2019-02-21 | 2019-02-21 | 装置、方法およびプログラム |
US16/741,689 US11270435B2 (en) | 2019-02-21 | 2020-01-13 | Apparatus, method, and recording medium |
EP20151886.7A EP3699822B1 (en) | 2019-02-21 | 2020-01-15 | Apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029896A JP6915636B2 (ja) | 2019-02-21 | 2019-02-21 | 装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135568A true JP2020135568A (ja) | 2020-08-31 |
JP6915636B2 JP6915636B2 (ja) | 2021-08-04 |
Family
ID=69172648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019029896A Active JP6915636B2 (ja) | 2019-02-21 | 2019-02-21 | 装置、方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11270435B2 (ja) |
EP (1) | EP3699822B1 (ja) |
JP (1) | JP6915636B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301915A (ja) * | 1997-04-28 | 1998-11-13 | Toshiba Corp | パラメータ調整装置及びパラメータ調整方法 |
JP2012202743A (ja) * | 2011-03-24 | 2012-10-22 | Yokogawa Electric Corp | 画像解析方法および画像解析装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4757246B2 (ja) | 2007-09-07 | 2011-08-24 | オリンパス株式会社 | 神経細胞画像解析装置及び神経細胞画像解析ソフトウェア |
US8812240B2 (en) * | 2008-03-13 | 2014-08-19 | Siemens Medical Solutions Usa, Inc. | Dose distribution modeling by region from functional imaging |
JP6590690B2 (ja) * | 2015-12-25 | 2019-10-16 | 富士フイルム株式会社 | 細胞画像検索装置および方法並びにプログラム |
US11501429B2 (en) * | 2017-07-19 | 2022-11-15 | Altius Institute For Biomedical Sciences | Methods of analyzing microscopy images using machine learning |
-
2019
- 2019-02-21 JP JP2019029896A patent/JP6915636B2/ja active Active
-
2020
- 2020-01-13 US US16/741,689 patent/US11270435B2/en active Active
- 2020-01-15 EP EP20151886.7A patent/EP3699822B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301915A (ja) * | 1997-04-28 | 1998-11-13 | Toshiba Corp | パラメータ調整装置及びパラメータ調整方法 |
JP2012202743A (ja) * | 2011-03-24 | 2012-10-22 | Yokogawa Electric Corp | 画像解析方法および画像解析装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3699822A1 (en) | 2020-08-26 |
JP6915636B2 (ja) | 2021-08-04 |
EP3699822B1 (en) | 2024-06-05 |
US20200273174A1 (en) | 2020-08-27 |
US11270435B2 (en) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11610131B2 (en) | Ensembling of neural network models | |
US11687786B2 (en) | Pre-processing for data-driven model creation | |
US20210390416A1 (en) | Variable parameter probability for machine-learning model generation and training | |
US11935233B2 (en) | Neural network classification | |
US11100403B2 (en) | Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation | |
Piray et al. | Hierarchical Bayesian inference for concurrent model fitting and comparison for group studies | |
US11288550B2 (en) | Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program | |
Jerlin Rubini et al. | Efficient classification of chronic kidney disease by using multi‐kernel support vector machine and fruit fly optimization algorithm | |
US11853893B2 (en) | Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm | |
KR102190299B1 (ko) | 인공신경망을 이용한 위암의 예후 예측 방법, 장치 및 프로그램 | |
US10713783B2 (en) | Neural network classification | |
Waldmann et al. | Boosting joint models for longitudinal and time‐to‐event data | |
Mahajan et al. | COVID‐19 detection using hybrid deep learning model in chest x‐rays images | |
JP6915636B2 (ja) | 装置、方法およびプログラム | |
US11024030B2 (en) | Apparatus, method, and recording medium | |
Schaffter | From genes to organisms: Bioinformatics system models and software | |
Cervantes et al. | Optimization of vessel segmentation using genetic algorithms | |
CN118072976B (zh) | 基于数据分析的儿童呼吸道疾病预测系统及方法 | |
US20240070536A1 (en) | Computer-readable recording medium storing determination program, determination apparatus, and determination method | |
Rocha et al. | Classification of Failure Using Decision Trees Induced by Genetic Programming | |
Sajjadi et al. | Exploiting Clinical Staging Data to Constrain Pseudo-Time Modelling of Disease Progression | |
Victoria et al. | 13 Libraries for Explainable | |
Victoria et al. | Libraries for Explainable Artificial Intelligence (EXAI): Python | |
Zhang et al. | Fairness-Aware Multiobjective Evolutionary Learning | |
WO2024155490A1 (en) | Methods, systems, and related aspects for the automated optimization and individualization of clinical management |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6915636 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |