JP2019204313A - 生物組織画像処理システム及び機械学習方法 - Google Patents

生物組織画像処理システム及び機械学習方法 Download PDF

Info

Publication number
JP2019204313A
JP2019204313A JP2018099387A JP2018099387A JP2019204313A JP 2019204313 A JP2019204313 A JP 2019204313A JP 2018099387 A JP2018099387 A JP 2018099387A JP 2018099387 A JP2018099387 A JP 2018099387A JP 2019204313 A JP2019204313 A JP 2019204313A
Authority
JP
Japan
Prior art keywords
biological tissue
image
estimator
candidate
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018099387A
Other languages
English (en)
Other versions
JP7181001B2 (ja
Inventor
功記 小西
Koki Konishi
功記 小西
三雄 須賀
Mitsuo Suga
三雄 須賀
秀夫 西岡
Hideo Nishioka
秀夫 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jeol Ltd
Nikon Corp
Original Assignee
Jeol Ltd
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jeol Ltd, Nikon Corp filed Critical Jeol Ltd
Priority to JP2018099387A priority Critical patent/JP7181001B2/ja
Priority to PCT/JP2019/019740 priority patent/WO2019225505A1/ja
Priority to EP19806542.7A priority patent/EP3805744A4/en
Publication of JP2019204313A publication Critical patent/JP2019204313A/ja
Priority to US17/101,267 priority patent/US11854201B2/en
Application granted granted Critical
Publication of JP7181001B2 publication Critical patent/JP7181001B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/20Means for supporting or positioning the objects or the material; Means for adjusting diaphragms or lenses associated with the support
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • G01N33/4833Physical analysis of biological material of solid biological material, e.g. tissue samples, cell cultures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/20Positioning, supporting, modifying or maintaining the physical state of objects being observed or treated
    • H01J2237/202Movement
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Immunology (AREA)
  • Medicinal Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Food Science & Technology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】生物組織中の注目要素(例えば細胞膜)を推定する機械学習型の推定器の学習過程において、学習の質を高められるようにする。【解決手段】生物組織における複数の既観察エリアに基づいて、複数の候補エリアの中から現観察エリアが探索的に決定される。その際には、生物組織の低倍率観察により得られた複数の参照画像が利用される。決定された現観察エリアの高倍率観察により学習用画像が取得される。複数の候補エリアの評価に際して、推定器が有する複数の畳み込みフィルタを利用し得る。【選択図】図8

Description

本発明は生物組織画像処理システム及び機械学習方法に関する。
生物組織の三次元構造を解析し又はそれをイメージングするための手法として、三次元顕微鏡法が知られている。三次元顕微鏡法においては、一般に、電子顕微鏡又は光学顕微鏡が用いられる。例えば、走査型電子顕微鏡(Scanning Electron Microscope)を用いた三次元顕微鏡法として、Focused Ion Beam SEM(FIB-SEM)法、Serial Block-Face SEM(SBF-SEM)法、及び、連続切片SEM(Serial Section SEM)法(非特許文献1を参照)が提案されている。連続切片SEM法は、アレイトモグラフィ(Array-tomography)法とも呼ばれている。
連続切片SEM法では、生物組織の試料から、深さ方向に連なる複数の試料切片(極薄片)が切り出され、それらが基板上に配列される。基板上の各試料切片が走査型電子顕微鏡により順次観察され、これにより複数の画像が取得される。取得された複数の画像に基づいて、生物組織に含まれる特定の器官(細胞、ミトコンドリア、核等)の三次元構造が解析され、あるいは、それがイメージングされる。連続切片SEM法によれば、既に観察した試料切片を再び観察することが可能である。
甲賀ほか「連続切片SEM法とゴルジ装置の3D構造解析への応用」顕微鏡,49巻3号,2014.
生物組織の観察により得られた画像の処理において、細胞、細胞膜、細胞内の特定の小器官等の注目要素(Target Component)を検出又は識別するために、機械学習型の推定器を利用することが考えられる。その場合、推定器の学習過程において、推定器の学習が適正に又は効率的に実行されることが望まれる。例えば、推定器の汎化性能が上がるように推定器に対して多様な学習用画像が与えられるようにすることが望まれる。
本発明の目的は、生物組織中の注目要素を推定する機械学習型の推定器の学習過程において、学習の質を高めることにある。
本発明に係る生物組織画像処理システムは、顕微鏡による生物組織の観察により得られた画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器と、前記推定器の機械学習過程において、前記生物組織における現観察エリアを決定する決定部と、前記推定器の機械学習過程において、前記現観察エリアが観察対象となるように前記顕微鏡の動作を制御する制御部と、を含み、前記決定部は、前記生物組織における複数の既観察エリアからなる既観察エリア集合に基づいて、前記現観察エリアを探索的に決定する、ことを特徴とするものである。
本発明に係る機械学習方法は、顕微鏡による生物組織の高倍率観察により得られた画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含む生物画像処理システムにおいて、前記推定器を学習させるための機械学習方法であって、前記顕微鏡による前記生物組織の低倍率観察により1又は複数の参照画像からなる参照画像群を取得する工程と、前記参照画像群における候補部分ごとに、当該候補部分と前記参照画像群における複数の既観察部分との間で評価値を演算し、前記参照画像群における複数の候補部分について演算された複数の評価値に基づいて特定の候補部分を選択する工程と、前記特定の候補部分に対応する前記生物組織中の現観察エリアが前記顕微鏡により高倍率観察されるように前記顕微鏡の動作を制御する工程と、前記現観察エリアの高倍率観察により得られた画像を学習用画像として前記推定器に入力する工程と、を含むことを特徴とするものである。
上記方法は、ハードウエアの機能又はソフトウエアの機能として実現され、後者の場合、その機能を実行するプログラムが、ネットワーク又は可搬型記憶媒体を介して、情報処理装置へインストールされる。情報処理装置の概念には、パーソナルコンピュータ、生物画像処理システム(電子顕微鏡システム、光学顕微鏡システムを含む)、等が含まれる。
本発明によれば、生物組織中の注目要素を推定する機械学習型の推定器の学習過程において、学習の質を高められる。
実施形態に係る生物組織画像処理システムを示す概念図である。 生物組織画像処理装置の本体の第1構成例を示すブロック図である。 機械学習型膜推定器の構成例を示すブロック図である。 膜尤度マップに基づく仮膜画像の生成を示す図である。 作業ウインドウを示す図である。 ラベリング処理の一例を示す図である。 実施形態に係る機械学習方法を示すフローチャートである。 第1の学習用画像取得方法を示す説明図である。 第2の学習用画像取得方法を示す説明図である。 第2の学習用画像取得方法を実行するための本体の第2構成例を示すブロック図である。 第2の学習用画像取得方法の変形例を示す説明図である。
(A)実施形態の概要
実施形態に係る生物組織処理システムは、機械学習型の推定器、決定部、及び、制御部を含む。推定器は、顕微鏡による生物組織の観察により得られた画像に対して生物組織に含まれる注目要素を推定する処理を適用し、推定結果を得るものである。制御部は、推定器の機械学習過程において、生物組織における現観察エリアが観察対象となるように顕微鏡の動作を制御するものである。決定部は、推定器の機械学習過程において、現観察エリアを決定するものであり、詳しくは、生物組織における既観察エリア集合に基づいて現観察エリアを探索的に決定するものである。
上記構成によれば、機械学習過程での今までの観察実績(既観察エリア集合)を考慮した上で、次の観察対象(現観察エリア)を決定することが可能となる。これにより、推定器に対して実効性の高い学習用画像を与えることが可能となる。上記構成によれば、推定器の学習の質を高められ、ひいては推定器の汎化性能や推定精度を高められる。
注目要素(注目要素像)は、画像処理に際して、検出対象又は識別対象となる特定の組織構成要素である。最終的な解析対象又は画像化対象が注目要素とされてもよいし、最終的な解析対象又は画像化対象とは別の組織構成要素が注目要素とされてもよい。例えば、細胞膜に囲まれた細胞質の画像化に際して、最初に、細胞膜が注目要素として検出又は識別されてもよい。
実施形態において、推定器に入力される画像は走査型電子顕微鏡により取得される。光学顕微鏡等によってその画像が取得されてもよい。機械学習型の推定器は、例えばCNNで構成されるが、他のタイプの機械学習型の推定器が利用されてもよい。実施形態においては、連続切片SEM法(アレイトモグラフィ法)により複数の画像が取得されているが、FIB-SEM法、SBF-SEM法、その他の手法により複数の画像が取得されてもよい。上記構成は、三次元顕微鏡法の他、二次元顕微鏡法等に適用し得るものである。
実施形態において、決定部は、既観察エリア集合に基づいて、複数の候補エリアについて複数の評価値を演算する評価値演算部と、複数の評価値に基づいて、複数の候補エリアの中から特定の候補エリアを現観察エリアとして選択する選択部と、を含む。この構成によれば、各候補エリアについて個別的に演算される評価値に基づいて現観察エリアが選択される。
実施形態において、評価値演算部は、候補エリアごとに、当該候補エリアと複数の既観察エリアとの間で複数の類似度を演算する類似度演算器と、候補エリアごとに、複数の類似度に基づいて評価値を演算する評価値演算器と、を含む。この構成によれば、個々の候補エリアを総合評価することが可能となる。例えば、複数の類似度の総和、平均値又は代表値等として、評価値が定められる。
実施形態において、推定器に入力される画像は、生物組織の高倍率観察により得られた画像であり、生物組織の低倍率観察により1又は複数の参照画像からなる参照画像群が取得され、類似度演算器は、候補エリアに対応する、参照画像群中の候補部分と、複数の既観察エリアに対応する、参照画像群中の複数の既観察部分と、に基づいて複数の類似度を演算する。この構成によれば、画像比較によって各類似度が演算される。画像比較の手法として、参照画像群中における複数の部分をそのまま対比する第1方法、参照画像中における複数の部分を処理した上で処理後の複数の部分を対比する第2方法、等があげられる。高倍率観察では第1倍率が設定され、低倍率観察では第1倍率よりも低い第2倍率が設定される。低倍率観察によれば、一般に、試料における広い範囲にわたって迅速に画像取得を行える。
参照画像群中の各候補部分は、生物組織において観念される各候補エリアの実体を表す画像部分であり、参照画像群中の各既観察部分は、生物組織における各既観察エリアの実体を表す画像部分である。実施形態において、参照画像は低倍率画像により構成されているが、低倍率画像以外の画像が参照画像として利用されてもよい。例えば、生物組織中の広範囲の高倍率観察により取得された高倍率画像が参照画像として利用されてもよい。また、異種の画像が参照画像として利用されてもよい。
実施形態において、類似度演算器は、候補部分に対してアップサンプリングを適用する第1アップサンプリング処理器と、複数の既観察部分に対してアップサンプリングを適用する第2アップサンプリング処理器と、アップサンプリング後の候補部分に対して推定器が有する少なくとも1つの畳み込みフィルタを適用する第1フィルタ処理器と、アップサンプリング後の複数の既観察部分に対して推定器が有する少なくとも1つの畳み込みフィルタを適用する第2フィルタ処理器と、アップサンプリング及び少なくとも1つの畳み込みフィルタが適用された候補部分と、アップサンプリング及び少なくとも1つの畳み込みフィルタが適用された複数の既観察部分と、に基づいて、複数の類似度を演算する演算器と、を含む。
上記構成によれば、推定器内で実行される画像処理(特徴量抽出処理)の全部又は一部を経た2つの画像部分に基づいて類似度が演算される。これにより、推定器の特性が考慮された評価値を演算することが可能となる。推定器が有する複数の畳み込みフィルタは外部に取り出すことが可能であり、上記構成は、それらの全部又は一部を類似度演算において援用するものである。例えば、推定器内には、並列的に機能する複数の畳み込みフィルタが存在する。そのような複数の畳み込みフィルタが個々の候補部分及び個々の既観察部分に対して適用される。推定器内における各畳み込みフィルタは、学習過程の進行に伴って更新されてゆく。類似度の演算に際しては、望ましくは、最新の畳み込みフィルタが利用される。つまり、推定器内でのフィルタ処理の変化に伴って、類似度演算器内でのフィルタ処理が変化する。
実施形態において、類似度演算器は、候補部分に対してアップサンプリングを適用するアップサンプリング処理器と、アップサンプリング後の候補部分に対して推定器が有する少なくとも1つの畳み込みフィルタを適用する第1フィルタ処理器と、複数の既観察部分に対応する複数の高倍率画像に対して推定器が有する少なくとも1つの畳み込みフィルタを適用する第2フィルタ処理器と、アップサンプリング及び少なくとも1つの畳み込みフィルタが適用された候補部分と少なくとも1つの畳み込みフィルタが適用された複数の高倍率画像とに基づいて複数の類似度を演算する演算器と、を含む。この構成によれば、上記同様に、推定器の特性を考慮しつつ評価値を演算することが可能となる。また、既に取得されている複数の高倍率画像を利用するので、複数の既観察部分に対するアップサンプリング処理を省略できる。
実施形態において、複数の参照画像は、生物組織における複数の深さに対応した複数の生物組織切片の低倍率観察により得られたものである。この構成によれば、解析過程において複数の深さに対応する複数の画像を推定器に入れることを前提として、学習過程において推定器を適正に又は効率的に学習させることが可能となる。実施形態において、顕微鏡は、観察用光軸に対して複数の生物組織切片を載せた基板を相対的に動かす移動機構を備え、制御部は、現観察エリアが高倍率観察されるように移動機構を制御する。観察用光軸は、電子ビーム軸、光学軸等である。基板を固定し、観察用光軸を移動させてもよい。
実施形態に係る機械学習方法は、顕微鏡による生物組織の高倍率観察により得られた画像に対して生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含む生物画像処理システムにおいて、推定器を学習させるための機械学習方法である。具体的には、実施形態に係る機械学習方法は、顕微鏡による生物組織の低倍率観察により1又は複数の参照画像からなる参照画像群を取得する工程と、参照画像群における候補部分ごとに、当該候補部分と参照画像群における複数の既観察部分との間で評価値を演算し、参照画像群における複数の候補部分について演算された複数の評価値に基づいて特定の候補部分を選択する工程と、特定の候補部分に対応する生物組織中の現観察エリアが顕微鏡により高倍率観察されるように顕微鏡の動作を制御する工程と、現観察エリアの高倍率観察により得られた画像を学習用画像として推定器に入力する工程と、を含む。この方法によれば、推定器に対して質の高い学習用画像を与えることが可能となる。ひいては、推定器の推定精度を高められる。
(B)実施形態の詳細
図1には、実施形態に係る生物組織画像処理システムが示されている。図示された生物組織画像処理システム10は、生物組織について、三次元構造の解析やイメージングを行うためのシステムである。この生物組織画像処理システムを利用して、例えば、人体又は動物の脳内の神経細胞を三次元的に表現した画像が生成される。生物中の任意の組織、器官、その他が解析対象又はイメージング対象になり得る。
図1に示す構成例において、生物組織画像処理システム10は、試料前処理装置12、連続切片作成装置14、走査型電子顕微鏡(SEM)16、及び、生物組織画像処理装置18によって構成されている。
試料前処理装置12は、生体から取り出された組織20に対して前処理を行う装置であり、又は、その前処理のための各種の器具に相当する。前処理として、固定処理、染色処理、導電処理、樹脂包埋処理、整形処理等が挙げられる。それらの全部又は一部が、必要に応じて、実施される。染色処理においては四酸化オスミウム、酢酸ウラン、クエン酸鉛等が用いられてもよい。染色処理が以下に説明する各試料切片に対して行われてもよい。前処理に含まれる一部又は全部の工程が手作業によって行われてもよい。
連続切片作成装置14は、SEM16の外部に設けられ、あるいは、SEM16の内部に設けられる。連続切片作成装置14により、前処理後のキュービック状の試料から、深さ方向(Z方向)に並ぶ複数の試料切片24が切り出される。その際には、ウルトラミクロトーム等の装置が利用されてもよい。その作業が手作業で行われてもよい。複数の試料切片24により、試料切片群22が構成される。実際には、切り出された複数の試料切片24は、基板28上に所定の配列で配置される。基板28は、例えば、ガラス基板、シリコーン基板である。図1においては、基板28上に、2つの試料切片列からなる試料切片アレイ22Aが構成されているが、それは例示に過ぎない。基板28及び試料切片アレイ22Aにより、試料ユニット26が構成される。
ちなみに、個々の試料切片24における縦及び横のサイズは、例えば、nmオーダー又はμmオーダーである。それ以上のサイズ(例えばmmオーダーのサイズ)を有する試料切片24が作製されてもよい。個々の試料切片24の厚み(Z方向のサイズ)は、例えば、数nm〜数百nmであり、実施形態においては、その厚みは例えば30〜70nmの範囲内である。本願明細書において挙げる数値はいずれも例示である。
SEM16は、電子銃、偏向器(走査器)、対物レンズ、試料室、検出器34、制御部202、移動機構204等を有している。試料室内には、試料ユニット26を保持するステージ、及び、そのステージを動かす移動機構204、が設けられている。制御部202により、移動機構204の動作つまりステージの移動が制御される。具体的には、試料切片アレイ22Aの中から選択された特定の試料切片24に対して電子ビーム30が照射される。照射位置を走査(例えばラスタースキャン)させながら、各照射位置から放出される反射電子32が検出器34で検出される。これによりSEM画像が形成される。これが試料切片24ごとに実行される。その結果として、複数の試料切片24の観察結果である複数のSEM画像38が得られる。複数のSEM画像38はSEM画像スタック36を構成する。SEM画像スタック36が解析対象となる。
SEM画像スタック36は、Z方向における複数の深さに対応する(換言すればデータ記憶空間内でZ方向に並ぶ)複数のSEM画像38により構成される。各SEM画像38は、生物組織画像処理装置18側から見て、元画像又は入力画像である。各SEM画像38は電子データであり、各SEM画像38がSEM16から生物組織画像処理装置18へ、ネットワーク又は可搬型記憶媒体を介して、伝送される。
なお、Z方向に直交する方向をX方向と定義し、Z方向及びX方向に直交する方向をY方向と定義した場合、生物組織の解析過程では、望ましくは、X方向観察範囲及びY方向観察範囲が互いに一致するように、各試料切片24における観察範囲(電子ビーム二次元走査範囲)が定められる。反射電子32ではなく、二次電子等が検出されてもよい。制御部202は、電子ビーム30を形成するための加速電圧を可変する機能、及び、倍率を変更する機能も備えている。生物組織、生物組織中の観察対象、観察目的等に応じて、電子ビーム形成時の加速電圧が切り替えられてもよい。一般に、後述する膜推定器42の学習過程及びその後の生物組織の解析過程では同じ加速電圧が設定される。
膜推定器42の機械学習過程では、上記同様の手法によって、複数の深さに対応する、機械学習用の複数の試料切片が製作される。機械学習用として1つの試料切片だけが製作されてもよいが、三次元顕微鏡法用の推定器について、その学習の質を高めるためには、上記のように深さ方向に並ぶ複数の試料切片が製作されるのが望ましい。
一次学習(初期学習)過程では、複数の試料切片の中においてランダムに設定された複数の観察エリアが高倍率観察され、これにより複数の高倍率画像としての複数の初期学習用画像(図示せず)が取得される。それらを利用して膜推定器42の一次学習が実行される。その際、複数の初期学習用画像は、SEM16から生物組織画像処理装置18へ、ネットワーク又は可搬型記憶媒体を介して、伝送される。それらの初期学習用画像が、正解画像を作成するための他の装置へ伝送されてもよい。一次学習過程の詳細については後に説明する。
続いて、二次学習過程の実行に先立って、又は、二次学習過程の最初に、参照画像群(参照画像スタック)206が取得される。具体的には、学習用の試料切片ごとに、その全体又はその比較的に広い部分が低倍率で観察される。これにより、複数の試料切片に対応する複数の参照画像(低倍率画像)208が取得される。それらの参照画像208により参照画像群206が構成される。高倍率は第1倍率であり、低倍率は第1倍率よりも低い第2倍率である。複数の参照画像208は、膜推定器42の二次学習過程において、高倍率観察する1又は複数の現観察エリアを探索的に決定するために取得されるものである。
二次学習過程においては、膜推定器42の学習の質を高めるために、あるいは、膜推定器42に対して多様な学習用画像を与えるために、後述する手法により、参照画像群206に基づいて、複数の試料切片の中において複数の現観察エリアが探索的に決定される。その上で、複数の現観察エリアが高倍率観察される。これにより、複数の高倍率画像として複数の学習用画像212が取得される。それらは学習用画像群210を構成する。学習用画像群210を利用して膜推定器42の二次学習が実行される。一定の膜推定精度が得られるまで、学習用画像群210の取得及びそれを利用した膜推定器42の二次学習が繰り返し実行される。参照画像群206及び学習用画像群210により二次学習過程用の画像セット205が構成される。参照画像群206及び学習用画像群210も、SEM16から生物組織画像処理装置18へ、ネットワーク又は可搬型記憶媒体を介して、伝送される。第2学習過程の詳細についても後に説明する。
生物組織画像処理装置18は、図示の構成例において、パーソナルコンピュータによって構成されている。生物組織画像処理装置18がSEM16内に組み込まれてもよく、生物組織画像処理装置18がSEM16等を制御するシステムコンピュータ内に組み込まれてもよい。生物組織画像処理装置18によりSEM16が制御されてもよい。
生物組織画像処理装置18は、本体40、表示器46及び入力器48を有している。本体40が有する複数の機能については、後に、図2以降の各図に基づいて詳しく説明する。図1においては、本体40が発揮する代表的な2つの機能(膜推定機能及び学習制御機能)がそれぞれブロックとして表現されている。具体的には、本体40は、機械学習型の膜推定器42及び学習制御部200を有している。表示器46は、LCD、有機EL表示デバイス等によって構成される。入力器48は、ユーザーによって操作されるキーボード、ポインティングデバイス等によって構成される。
上記のように、本実施形態では、二次学習過程において、学習制御部200により、複数の現観察エリアが探索的に決定される。SEM16内の制御部202は、複数の試料切片24における複数の現観察エリアが順次、高倍率観察されるように、移動機構204を制御し、また、観察倍率を制御する。複数の現観察エリアの高倍率観察の結果、複数の高倍率画像として複数の学習用画像212が取得される。それらを利用して膜推定器42の二次学習が実行される。
図2には、本体40についての第1構成例が示されている。本体40は、大別して、学習制御サブシステム40A及び画像処理サブシステム40Bからなる。まず、後者の画像処理サブシステム40Bについて説明する。
画像処理サブシステム40Bは、機械学習型の膜推定器42、二値化器(画像生成器)50、加工ツールユニット(作業支援部)44、ボリュームデータ処理部56、等を有する。加工ツールユニット44は、修正部52及びラベリング処理部54を有している。ボリュームデータ処理部56は、解析部56A及びレンダリング部56Bを有している。
図2に示される各構成の実体は、ユーザーの作業又は行為に相当する部分を除いて、基本的に、CPU、GPU等の汎用プロセッサによって実行されるソフトウエアつまりプログラムである。もっとも、それらの構成の一部又は全部が専用プロセッサ又は他のハードウエアによって構成されてもよい。生物組織画像処理装置が有する機能の全部又は一部がネットワーク上に存在する1又は複数の情報処理デバイスにより実行されてもよい。
膜推定器42は、膜推定手段として機能する。膜推定器42は、入力された元画像(SEM画像、高倍率画像)58に対して膜推定処理を適用し、これによって膜尤度マップ60を出力するものである。図示の構成例において、膜推定器42は、CNN(Convolutional Neural Network)により構成されている。その具体的な構成例については後に図3を用いて説明する。CNNによって膜が正しく推定されるように、CNNの実際の稼働に先立って、CNN学習過程が事前に実行される。その学習過程には、上記のように、一次学習過程(初期学習過程)と、二次学習過程と、が含まれる。
一次学習過程では、教師データを構成する複数の画像ペアが膜推定器42に与えられ、これにより膜推定器42内のCNNパラメータ群が優良化(最適化)される。すなわち、膜推定器42内に機械学習結果が蓄積される。ここで、個々の画像ペアは、元画像(SEM画像、高倍率画像)58とそれに対応する正解画像68とにより構成される。正解画像68は、例えば、元画像58に対する手作業により作成される。教師なし機械学習器、簡易な識別器(例えばSVM(Support Vector Machine))等によって、元画像58から正解画像68が作成されてもよい。この場合、かかる識別器に対して元画像58を入力し、その出力に基づいてユーザーにおいて識別器がある程度働いていると判断できた場合に、その出力を正解画像68として利用してもよい。一定の一次学習過程を経た膜推定器42の出力に基づいて正解画像68が作成されてもよい。
続く二次学習過程では、一次学習過程を経て膜推定器42がある程度働くことを前提として、膜推定器42に対して、一次学習過程と同様に、教師データとして複数の画像ペアが与えられる。実施形態においては、その教師データは、一次学習過程で利用された複数の画像ペアと二次学習過程で追加された複数の画像ペアとにより構成される。追加される各画像ペアは、元画像58(具体的には上記の学習用画像212)とそれに対応する正解画像64Aとからなる。正解画像64Aは、膜推定器42から加工ツールユニット44までの構成により、生物画像処理装置自身によって作成される。具体的に説明すると、元画像58を膜推定器42に入力すると、膜推定器42から推定結果画像として膜尤度マップ60が出力される。膜尤度マップ60に基づく仮膜画像の生成、及び、加工ツールユニット44を利用した仮膜画像62に対するユーザー(専門家)修正を経て、正解画像64Aが作成される。個々の処理については後に詳述する。仮膜画像62を正解画像62Aとして利用することも考えられる。二次学習過程により、膜推定器42内のCNNパラメータ群が更に優良化される。つまり、膜推定器42内に機械学習結果が更に蓄積される。二次学習過程は、例えば、元画像58に対する推定処理の結果が、元画像58に対応する正解画像68,64Aに十分に類似したと判断された場合に終了する。その後、必要に応じて、上記同様の手法により、膜推定器42の再学習が実行される。
二次学習過程では、膜推定結果を基礎として正解画像を作成できるので、元画像から正解画像の全体を手作業で作成する場合に比べ、ユーザーの負担が大幅に軽減される。二次学習過程後における必要な学習過程においても同様である。なお、一次学習過程及び二次学習過程において、膜推定器42に対し、複数の画像ペアが一括して与えられて、それがバッチ処理されてもよい。
データベース57には、複数の元画像58、及び、複数の正解画像68,64Aが格納される。膜推定器42とデータベース57とが一体化されてもよい。機械学習型の膜推定器として、U−netが利用されてもよく、また、SVM、ランダムフォレスト等が利用されてもよい。
二値化器50は、画像生成器として機能するものである。具体的には、二値化器50は、後に図4を用いて例示するように、膜尤度マップ60に対する二値化処理により、仮膜画像62を生成するモジュールである。膜尤度マップ60は、二次元配列された複数の膜尤度からなる。個々の膜尤度は、膜である確からしさ(確率)を示す数値である。膜尤度は例えば0から1の間をとる。膜尤度マップ60を膜尤度画像として捉えることもできる。実施形態において、二値化器50には閾値が設定されており、閾値以上の膜尤度を1に変換し、閾値未満の膜尤度を0に変換する。その結果として生成される画像が仮膜画像62である。実施形態においては、便宜上、修正前の膜画像を修正後の膜画像から区別するために、修正前の膜画像を仮膜画像62と呼んでいる。
なお、膜推定器42及び二値化器50の両者により画像生成部61が構成される。画像生成部61の全体がCNN等により構成されてもよい。その場合でも、膜尤度マップ及び仮膜画像の段階的な生成を観念できる。仮膜画像62を正解画像62Aとして用いることも可能である。二値化処理前に、膜尤度マップ60に対して、ノイズ除去、エッジ強調等の処理が適用されてもよい。
加工ツールユニット44は、作業支援部又は作業支援手段として機能するものである。加工ツールユニット44は、情報処理の観点から見て、表示処理機能及び画像処理機能を有している。作業の観点から見て、修正機能及びラベリング機能を有しており、図2においては、それらの機能が修正部52及びラベリング処理部54として表現されている。
修正部52は、後に図5において例示する作業ウインドウを介して、ユーザーに対して作業対象となった仮膜画像を作業対象画像として表示し、また、作業対象画像上におけるユーザーの修正指示を受け付けるものである。修正内容は作業対象画像となった仮膜画像に反映される。作業対象画像内に例えば膜の途切れ部分が含まれる場合、その途切れ部分に対して膜画素群が追加される。作業対象画像内に例えば膜以外の部分が含まれ、その部分が膜として誤認されている場合、その部分を構成する膜画素群が削除される。そのような追加及び削除に際し、ユーザーの作業又は操作を支援し各仮膜画像を管理するモジュールが修正部52である。
図示の構成例においては、修正部52(又は加工ツールユニット44)に対して、生成された仮膜画像62の他に、入力された元画像58、及び、生成された膜尤度マップ60も並列的に入力されている。これにより、作業対象画像としての仮膜画像と共に、又はそれに代えて、作業対象画像に対応する元画像58又は膜尤度マップ60を表示することが可能である。
ラベリング処理部54は、修正後の膜画像(又は修正未了の膜画像)に含まれる個々の領域(細胞内腔)に対して、ラベリング(ペイント及びラベル付け)を行うためのモジュールである。ラベリングには、ユーザーによるマニュアルでのラベリング、及び、自動的なラベリングがある。修正作業及びラベリング作業が完了した段階で、細胞内腔とそれ以外とが区別された三次元ラベリングデータ66が構成される。それがボリュームデータ処理部56へ送られる。ラベリングについては後に図6を用いて説明する。
ボリュームデータ処理部56には、図示の構成例において、複数の元画像からなる元画像スタック(SEM画像スタック)36が入力されている。元画像スタック36はボリュームデータを構成するものである。また、ボリュームデータ処理部56には、上記のように、三次元ラベリングデータ66も入力されている。それもボリュームデータの一種である。
解析部56Aは、例えば、三次元ラベリングデータ66に基づいて、対象器官(例えば神経細胞)を解析する。例えば、形態、体積、長さ等が解析されてもよい。その際、三次元ラベリングデータを参照しながら元画像スタック36が解析される。レンダリング部56Bは、三次元ラベリングデータ66に基づいて、三次元画像(立体的表現画像)を形成するものである。例えば、三次元ラベリングデータ66に基づいて、元画像スタック36の中から画像化部分が抽出され、それに対してレンダリング処理が適用されてもよい。
既に説明した二次学習過程においては、修正後の各膜画像64がそれぞれ正解画像64Aとして膜推定器42に入力される。各正解画像64Aの作製に際して、膜推定器42による推定結果を利用することができるので、且つ、加工ツールユニット44を利用することができるので、それらを利用しない場合に比べて、各正解画像64Aの作製負担が大幅に削減される。すなわち、上記構成によれば、膜推定器42の学習過程で要する労力及び時間を削減することが可能である。二次学習過程後の解析過程においては、膜推定器42及び加工ツールユニット44の併用により、解析対象又はレンダリング対象となる画像群の品質を高められ、また、その画像群を簡便かつ迅速に生成することが可能である。
次に、図2における学習制御サブシステム40Aについて説明する。実施形態においては、二次学習過程において、学習制御サブシステム40Aが機能する。その後の学習過程で、学習制御サブシステム40Aが機能してもよい。一次学習過程において、学習制御サブシステム40Aが機能してもよい。画像記憶部214には、複数の参照画像208が記憶される。画像記憶部214が上記のデータベース57と一体化されてもよい。
学習制御部200は、学習制御手段として機能するものであり、それは評価値演算部216及び観察エリア決定部218を有する。評価値演算部216は、評価値演算手段として、又は、類似度演算器及び評価値演算器として、機能するものであり、複数の候補エリアについて複数の評価値を演算するものである。実施形態において、各評価値は類似評価値である。個々の候補エリアごとに、当該候補エリアと複数の既観察エリアとの間で複数の類似度が演算される。個々の候補エリアごとに、複数の類似度に基づいて評価値が演算される。評価値は、候補エリアが既観察エリア集合に対してどの程度類似しているのかを示す指標である。
観察エリア決定部218は、観察エリア決定手段又は選択手段として機能するものであり、複数の候補エリアについて演算された複数の評価値に基づいて、1又は複数の候補エリアを1又は複数の現観察エリアとして決定又は選択する。実施形態では、演算量を削減するために、1回の処理で、複数の現観察エリアが決定されている。より詳しくは、二次学習過程において、学習用画像セットに多様性をもたせるために、類似度の低い複数の候補エリアが探索的に選択される。各現観察エリアの座標情報がSEM内の制御部202へ送られる。
学習制御部200における具体的な処理内容については、後に図7以降の各図を参照しながら詳述する。SEM内又はシステム制御装置内に学習制御部200が設けられてもよい。
図3には、膜推定器42の構成例が模式的に示されている。膜推定器42は、多数の層を有しており、それには、入力層80、畳み込み層82、プーリング層84、出力層86等が含まれる。それらはCNNパラメータ群88に従って作用する。CNNパラメータ群88には、多数の重み係数、多数のバイアス値、その他が含まれる。CNNパラメータ群88は最初に初期値群94によって構成される。例えば、乱数等を利用して初期値群94が生成される。膜推定器42は、通常、畳み込み層を有する。各畳み込み層には1又は複数の畳み込みフィルタが含まれる。
学習過程では、評価部90及び更新部92が機能する。例えば、評価部90は、教師データを構成する複数の画像ペア(元画像58とそれに対応する正解画像68,64A)に基づいて評価値を計算するものである。具体的には、元画像58に対する推定処理の結果60Aと元画像58に対応する正解画像68,64Aとを誤差関数に順次与えることにより評価値が演算される。更新部92は、その評価値が良い方向に変化するように、CNNパラメータ群88を更新する。それを繰り返すことによって、CNNパラメータ群88が全体的に最適化される。実際には、評価値が一定値に到達した時点で、学習過程の終了が判断される。図3に示した構成は単なる例示に過ぎず、膜推定器42として、多様な構造を有する推定器を利用することが可能である。
図4には、二値化器の作用が示されている。膜推定器から膜尤度マップ60が出力される。膜尤度マップ60は、複数の画素に相当する複数の膜尤度60aからなるものであり、個々の膜尤度60aは膜であることの確からしさを示す数値である。符号50Aで示されるように、二値化器は膜尤度マップ60を二値化し、これにより二値化画像としての仮膜画像62を生成する。二値化に際しては、個々の膜尤度60aが閾値と比較される。例えば、閾値以上の膜尤度60aが値1を有する画素62aに変換され、閾値未満の膜尤度60aが値0を有する画素62bに変換される。画素62aが膜を構成する画素(膜画素)として取り扱われる。閾値はユーザーにより可変設定し得る。その設定が自動化されてもよい。例えば、仮膜画像62を観察しながら閾値が可変されてもよい。
図5には、加工ツールユニットにより表示される作業ウインドウが例示されている。図示の例において、作業ウインドウ100は、表示画像102を含んでいる。表示画像102は、ユーザーによって選択された深さに対応する仮膜画像(作業対象画像)及び元画像からなる合成画像(複合画像)である。グレイスケール画像としての元画像が背景画像を構成しており、それに対して、カラー画像(例えば青色画像)としての仮膜画像(作業対象画像)が重畳表示されている。なお、図示された表示画像102は脳組織を示しており、そこには、複数の細胞の断面が現れている。同時に、細胞内の小器官(ミトコンドリア等)の断面も現れている。
タブ104が選択された場合、上記で説明した表示画像102が表示される。タブ105が選択された場合、グレイスケール画像としての元画像だけが表示される。タブ106が選択された場合、グレイスケール画像としての膜尤度マップ(膜尤度画像)だけが表示される。膜尤度マップの観察により、閾値が適切に設定されていること等を確認できる。また、元画像の単独表示によれば、膜の細部を詳細観察することが容易となる。作業対象画像としての仮膜画像だけを表示するタブを追加してもよい。膜尤度マップを背景画像とし、それに対して仮膜画像が重畳表示されてもよい。
深さ選択ツール108は、Z方向において、特定の深さ(表示深さ)を選択するための表示要素(操作要素)である。それは、Z軸を表すZ軸シンボル108bと、Z軸シンボル108bに沿ってスライド運動するスライダとしてのマーカー108aと、からなる。マーカー108aを移動させて、所望の深さを選択することが可能である。このような深さ選択ツール108によれば、選択する深さや深さ変化量を直感的に認識し易いという利点を得られる。なお、Z軸シンボル108bの左端点が深さゼロに相当し、Z軸シンボル108bの右端点が最大深さに相当している。他の形態を有する深さ選択ツールを採用してもよい。深さ入力欄114は、深さを数値として直接的に指定するための欄である。深さ入力欄114に、現在選択されている深さが数値として表示されてもよい。
透過度調整ツール110は、表示画像102が表示されている状態において、合成表示されているカラーの仮膜画像(作業対象画像)の透過度(表示重み)を調整するためのツールである。例えば、マーカー110aを左側へ移動させると、カラーの仮膜画像の表示重みが小さくなり、その透明度が上がって、元画像が支配的に表示されるようになる。逆に、マーカー110aを右側へ移動させると、カラーの仮膜画像の表示重みが大きくなり、その透明度が下がって、カラーの仮膜画像がよりはっきりと表現されるようになる。
重合表示ツール112は、現在表示されている画像(合成画像、元画像又は膜尤度マップ)に対して、深さ方向に浅い側に隣接する画像(合成画像、元画像又は膜尤度マップ)又は深さ方向に深い側に隣接する画像(合成画像、元画像又は膜尤度マップ)を重ねて表示する場合において操作されるものである。マーカー112aを左側へ移動させると、浅い側に隣接する画像に対する表示重みが大きくなり、逆に、マーカー112aを右側へ移動させると、深い側に隣接する画像に対する表示重みが大きくなる。3つ以上の画像を重ね合わせて表示してもよい。もっとも、あまり多くの画像を重ね合わせると、画像内容が複雑になり過ぎてしまうので、少数の画像を重ね合わせるのが望ましい。このような重合表示によれば、奥行き情報を得られ易くなる。
ボタン列115は、仮想的な複数のボタン116,118,120,121,122,126によって構成される。ボタン116は、画像ズーム(拡大又は縮小)を行う場合に操作される表示要素である。ボタン118は、ペンツールを利用する場合に操作される表示要素である。ボタン118をオンにすると、カーソルの形態がペン形に代わり、それを用いて膜画素の追加を行える。ペンのサイズを変更することも可能である。ボタン120は、消しゴムを利用する場合に操作される表示要素である。ボタン120をオンにすると、カーソルの形態が消しゴム形に代わり、それを用いて膜画素の削除を行える。消しゴムのサイズを変更することも可能である。
ボタン121は、ペイントを行う場合に操作される表示要素である。ボタン121をオンした上で、いずれかの領域を指定すれば、その領域が塗り潰される。また、ボタン121の操作によって、ペイント(又はラベリング)のために用意されている複数の機能の中から任意の機能を選択することも可能である。オブジェクト番号(ラベル)付けボタン122の操作により、カラーパレット124が表示される。例えば、ペイント処理済み領域に対して、カラーパレットの中から選択されたカラーが与えられる。これにより、その領域が、選択されたカラーによって着色される。個々の色がそれぞれオブジェクト番号に対応付けられている。レイヤ間にわたって複数の領域に対して同じカラーつまり同じオブジェクト番号を付与すれば、それらの領域によって特定細胞内の三次元内腔領域が画定される。
ボタン126は、白黒反転用のボタンである。それを操作すると、表示された画像において、黒く表示されていた部分が白く表示され、逆に白く表示されていた部分が黒く表示される。
上記の他、三次元像を表示させるためのボタンを設けるのが望ましい。図5に示した作業ウインドウ100の内容は例示に過ぎず、ユーザー作業においてその作業性が良好になるように、その内容が適宜定められるのが望ましい。例えば、ラベリング結果を示す三次元像が表示されてもよい。
図6には、ラベリング処理に含まれる三次元繋ぎ処理が例示されている。図6においては、Z方向に並ぶ複数の仮膜画像D1〜D4が示されている。深さZiに対応する仮膜画像D1が作業対象画像である。それが以下に説明する処理での基準画像とされる。
三次元繋ぎ処理の第1例では、基準画像である仮膜画像D1に含まれる領域R1について代表点が特定される。例えば、代表点として中心点、重心点等が特定される。次いで、その代表点を通過する垂線Cが定義される。基準画像から、例えば、深い側にN枚の仮膜画像が参照され、それらの画像において垂線Cが通過している各領域が特定される。そして、垂線Cが通過している領域R1,R2,R3,R4,・・・に対して、同じラベルが付与される。また、以上の処理が基準画像から浅い側のN枚の仮膜画像に対して適用されてもよい。自動的なラベリングの結果は、通常、ユーザーによって目視確認される。
三次元繋ぎ処理の第2例では、基準画像である仮膜画像D1に含まれる領域R1(の外縁)が仮膜画像D2上に投影され、投影領域R1aが定義される。仮膜画像D2上において、投影領域R1aに対して最も重なり合う領域R2が特定される。続いて、領域R2が仮膜画像D3上に投影され、投影領域R2aが定義される。仮膜画像D3上において、投影領域R2aに対して最も重なり合う領域R3が特定される。同様に、仮膜画像D4上において、投影領域R3aが定義され、それに基づいて領域R4が特定される。領域R1、及び、それを出発点として特定された領域R2,R3,R4の全部に対して、同じラベルが付与される。
上記の処理では、投影元の領域がレイヤ変更時に逐次更新されていたが、それを固定するようにしてもよい。例えば、領域R1を仮膜画像D2,D3,D4へ投影するようにしてもよい。また、上記の処理では、基準画像からZ方向の一方側に繋がり先が探索されていたが、基準画像からZ方向の両側に繋がり先が探索されてもよい。その探索範囲がユーザー選択されてもよい。いずれにしても、自動的なラベリングの結果が、通常、ユーザーによって目視確認される。その場合には、図5に示した作業ウインドウが利用される。
以上説明した三次元繋ぎ処理は例示であり、上記以外の三次元繋ぎ処理が採用されてもよい。領域間における繋がり関係の特定に際しては、領域ごとの1又は複数の特徴量が利用され得る。領域の特徴量として、面積、形態、周囲長、重心点、輝度ヒストグラム、テクスチャ、等が利用されてもよい。あるいは、領域間の特徴量として、重合面積、代表点間距離、等が利用されてもよい。
図7は、実施形態に係る機械学習方法を示すフローチャートである。この機械学習方法には、1次学習過程(S12〜S20)と、2次学習過程(S24〜S38)とが含まれる。
S12では、係数a,b,cが初期設定される。係数aは、一次学習過程において、取得する画像の個数を決める係数である。係数bは、二次学習過程において、設定する候補エリアの個数を決める係数である。係数cは、二次学習過程において、b個の候補エリアの中から現観察エリアとして選定する候補エリアの個数を決める係数である。係数a、b、cはそれぞれ1以上の整数であり、b>cの関係がある。
S14では、複数の試料切片の中から、a個の初期観察エリアがランダムに選定される。a個の初期観察エリアがユーザーによって人為的に選択されてもよい。S16では、SEMの制御によって、a個の初期観察エリアが順次観察され、これによって一次学習用のa個の画像(高倍率画像)が取得される。S18では、a個の画像に対する手作業修正等に基づいて、a個の正解画像が作成される。
S20では、a個の画像ペアが未学習の膜推定器に入力され、膜推定器の一次学習(初期学習)が実行される。a個の画像ペアは、S16で取得されたa個の画像とS18で作成されたa個の正解画像とからなる。
S22では、複数の試料切片の全体が低倍率観察され、これにより複数の参照画像(参照画像群)が取得される。各試料切片の全体又はそれに近い範囲に対する任意倍率観察により、複数の参照画像を得てもよい。複数の低倍率画像の取得によれば、一般に、データ総量を少なくでき、また、演算時間を短縮化できる。
続いて、二次学習過程が実行される。S24では、参照画像群に対してb個の候補部分が設定される。b個の候補部分は、複数の試料切片上に観念し得るb個の候補エリアに対応するものであり、それらの実体を表すものである。実施形態においては、b個の候補部分がランダムに設定される。他の方法により、b個の候補部分が設定されてもよい。多様性確保の観点から、既観察部分集合を構成する複数の既観察部分と同一の部分はb個の候補部分の対象から除外される。すなわち、非重複条件が満たされるようにb個の候補部分が選定される。その場合、重複度に基づいて非重複条件が満たされるか否かが判断されてもよい。
S26では、b個の候補部分についてb個の評価値が演算される。その際には、候補部分ごとに、候補部分と複数の既観察部分との間で複数の類似度が演算され、複数の類似度に基づいて評価値が演算される。類似度は、相関演算、ベクトルのノルム演算、その他の手法により演算され得る。評価値は、例えば、複数の類似度の総和又は平均値である。S28では、b個の評価値の中から、総合的に見て類似性の低い下位c個(最下位を含むc個)の評価値が特定され、それらに対応するc個の候補部分からc個の候補エリアが特定される。c個の候補エリアがc個の現観察エリアとして選定される。S30では、c個の現観察エリアが高倍率観察される。これにより二次学習用のc個の画像が取得される。なお、二次学習過程において、学習用の複数の画像を取得する方法として、第1の学習用画像取得方法及び第2の学習用画像取得方法が挙げられる。それらについては後に図8〜図11に基づいて詳述する。
S32では、S30で取得されたc個の画像が膜推定器に順次入力される。これにより膜推定器からc個の膜尤度マップが順次出力される。それらに基づいてc個の仮膜画像が生成される。S34では、c個の仮膜画像の修正により、c個の正解画像が作成される。S36では、S30で取得されたc個の画像及びそれらに対応するc個の正解画像により構成されるc個の画像ペアが膜推定器に入力され、これによって膜推定器の二次学習が実行される。S38において、膜推定器の推定精度が一定値に到達していないと判断された場合(学習継続が判断された場合)、S24からの各工程が繰り返し実行される。S38において、学習終了が判定された場合、本処理が終了する。
上記の機械学習方法では、二次学習過程において、学習用画像セットの多様性が高められるように、c個の現観察エリアが決定されているので、膜推定器の学習の質を高められる。
図8には、第1の学習用画像取得方法が示されている。実施形態において、この第1の学習用画像取得方法は、二次学習過程において実行されるものである。この学習用画像取得方法が一次学習過程等において実行されてもよい。
図8において、左側上段にある符号216Aは、評価値演算部によって実行される処理を示している。左側下段にある符号218Aは、観察エリア決定部によって実行される処理を示している。図8においては、同じ参照画像群が、説明の便宜上、参照画像群206A(図中左側を参照)及び参照画像群206B(図中中央を参照)として、表現されている。図中右側には、試料切片群22が示されている。
参照画像群206Aに対しては複数の候補部分224が定められる。複数の候補部分224は、試料切片群22において観念される複数の候補エリア300の実体を表すものである。例えば、複数の候補部分224は、参照画像群206Aの中からランダムに選定される。その場合、以下に説明するいずれかの既観察部分222が候補部分224とならないように、つまり非重複条件が満たされるように、選定処理が実行される。非重複条件は、上記のように、既観察エリア302が現観察エリアとして重複して観察されないようにするための条件である。これにより、学習用画像セットにおける多様性を確保できる。参照画像群206Aにおいては、複数の既観察部分が破線で示されている(符号222aを参照)。
参照画像群206Bには複数の既観察部分222が含まれる。それらは既観察部分集合220を構成する。複数の既観察部分222は、試料切片群22における複数の既観察エリア302の実体を表すものである。既に説明したように、複数の参照画像208は、複数の試料切片24の高倍率観察により得られたものであり、例えば、各参照画像208は各試料切片24の全体又はそれに近い範囲を表す画像である。
学習用の試料切片群22は、複数の試料切片24により構成される。上記のように、複数の試料切片24には複数の既観察エリア302が含まれ、また、複数の試料切片24においては複数の候補エリア300を観念できる。複数の既観察エリア302に対して高倍率観察が既に実行されており、これにより、複数の高倍率画像(学習用画像)212が得られている。
候補部分224ごとに評価値を演算するために、候補部分224と既観察部分集合220を構成する複数の既観察部分222との間で、複数の類似度が演算される。複数の類似度から評価値が演算される。評価値は、例えば、複数の類似度の総和、平均値、その他(最小値、最大値、重心値等)として定められる。評価値は類似性の大小を総合評価するための類似評価値である。
図8に示す具体例においては、1番目の候補部分224と複数の既観察部分222との間で個別的に演算された複数の類似度がe1−1,e1−2,e1−3,e1−4,e1−5,・・・で示されている。それらの類似度から評価値E1が演算されている。これが候補部分224ごとに実行され、その結果として、複数の候補部分224について複数の評価値E1,E2,E3,・・・が演算される。例えば、候補部分224の個数がm個であり、既観察部分222の個数がn個である場合、候補部分224ごとにn個の類似度が演算され、それらに基づいてm個の候補部分224についてm個の評価値が演算される。
符号226で示されるように、観察エリア決定部は、上記のように演算された複数の評価値の中で、最小値(類似性の最も低いもの)からc個の評価値を選択する。続いて、符号228で示されるように、観察エリア決定部は、選択されたc個の評価値に対応するc個の候補エリアを、c個の現観察エリアとして決定する。ここで、cは1以上の任意の整数である。十分な学習結果が得られるまで、以上の処理が繰り返し実行される。
上記の第1の学習用画像取得方法によれば、既観察エリア集合に基づいて、1又は複数の現観察エリアを定めることができるので、学習用画像セットにおける多様性を高めることができ、推定器の学習効率を高められる。
次に、図9〜図11を用いて、第2の学習用画像取得方法について説明する。実施形態において、第2の学習用画像取得方法は、二次学習過程において実行されるものである。第2の学習用画像取得方法がその後の学習過程等において実行されてもよい。
図9において、左側上段にある符号216Aは、評価値演算部によって実行される処理を示しており、左側下段にある符号218Aは、観察エリア決定部によって実行される処理を示している。図9においては、上記図8と同様、同じ参照画像群が、説明の便宜上、参照画像群206A(図中左側を参照)及び参照画像群206B(図中右側を参照)として、表現されている。図9においては、試料切片群の図示が省略されている。なお、図9において、図8に示した要素と同様の要素には同一符号を付する。
参照画像群206Aに対しては複数の候補部分224が定められる。例えば、複数の候補部分224は、参照画像群206Aの中からランダムに選定される。その場合、上記非重複条件が満たされるように、選定処理が実行される。参照画像群206Aにおいては、複数の既観察部分が破線で示されている(符号222aを参照)。参照画像群206Bには複数の既観察部分222が含まれる。それらは既観察部分集合220を構成する。
フィルタ列を構成するk個のフィルタF1〜Fkは、CNNで構成された膜推定器から取り出される複数の畳み込みフィルタである。図9においては、説明の便宜上、中央右側寄り及び中央左側寄りに2つのフィルタ列が示されている。それらの実体は同一である。膜推定器において、各フィルタは、対象画像のサイズよりも小さなサイズを有し、畳み込み演算によって、対象画像からその特徴量を抽出するものである。実施形態においては、並列的に作用するk個のフィルタF1〜Fkが取り出されて、評価値演算において利用されている。膜推定器が有する全部のフィルタが評価値演算で利用されてもよいし、膜推定器が有する一部のフィルタが利用されてもよい。膜推定器が有する特定の1つのフィルタを利用することも考えられる。膜推定器での処理を考慮しつつ類似度を演算するためには、一般的には、膜推定器が有するできるだけ多くのフィルタを利用するのが望ましい。
図9において、US250は、複数の候補部分224に対してアップサンプリングを行うモジュールであり、US252は、複数の既観察部分222に対してアップサンプリングを行うモジュールである。US250及びUS252が単一のモジュールで構成されてもよい。アップサンプリングは、低倍率画像を高倍率画像(膜推定器の入力画像)に相当する画像に変換する処理である。変換後の画像は、膜推定器の入力画像と同じ画素数及び見かけ上の倍率を有する画像となる。図9においては、アップサンプリング後の複数の候補部分がV1,V2,V3,・・・で表現されている。
続いて、アップサンプリング後の複数の候補部分V1,V2,V3,・・・に対して、それぞれフィルタF1〜Fkが適用され、これによりアップサンプリング後且つフィルタ処理後の複数の候補部分V11,・・・,V1k,V21,・・・,V2k,V31,・・・,V3k,・・・が生じる。
一方、US252により、複数の既観察部分222に対してアップサンプリングが適用され、これによりアップサンプリング後の複数の既観察部分U1,U2,U3,・・・が生じる。続いて、アップサンプリング後の複数の既観察部分U1,U2,U3,・・・に対して、それぞれフィルタF1〜Fkが適用され、これによりアップサンプリング後且つフィルタ処理後の複数の既観察部分U11,・・・,U1k,U21,・・・,U2k,U31,・・・,U3k,・・・が生じる。
評価値演算に際しては、アップサンプリング後且つフィルタ処理後の複数の候補部分V11,・・,V1k,V21,・・・,V2k,V31,・・・,V3k,・・・と、アップサンプリング後且つフィルタ処理後の複数の既観察部分U11,・・・,U1k,U21,・・・,U2k,U31,・・・,U3k,・・・との間で、複数の個別類似度が演算される。その場合、同じフィルタ処理が適用されたすべての組み合わせ(2つの部分の組み合わせ)について個別類似度が演算される。
例えば、同じフィルタ処理が適用された1番目の候補部分V11と複数の既観察部分U11,U21,U31,・・・との間で複数の個別評価値e11,e12,e13,・・・が演算される。同様に、同じフィルタ処理が適用された2番目の候補部分と複数の既観察部分との間で複数の個別類似度が演算される。このようにして、最終的に、同じフィルタ処理が適用されたすべての組み合わせについて個別類似度が演算される。候補部分224ごとに、それについて演算された複数の個別類似度に基づいて、例えば、それらの総和、平均値等として、評価値E1,E2,E3,・・・が演算される。個々の評価値E1,E2,E3,・・・は、第1の学習用画像取得方法と同様に、既観察エリア集合に対する個々の候補エリアの類似性の大小を示すものである。
以上を整理すると、候補部分224の個数をm個とし、既観察部分222の個数をnとし、フィルタの個数をk個とした場合、候補部分224ごとに、k×n個の個別類似度が演算され、k×n個の個別類似度の総和等として評価値が演算される。つまり、m個の候補部分224についてm個の評価値が演算される。なお、評価値の演算を二段階で行うようにしてもよい。例えば、アップサンプリング後且つフィルタ処理後の候補部分V11,・・,V1k,V21,・・・,V2k,V31,・・・,V3k,・・・ごとに、n個の個別類似度に基づいて中間評価値(例えばE11を参照)を求め、続いて、候補部分224ごとに、k個の中間評価値から評価値E1を求めるようにしてもよい。この場合においても、m個の候補部分224についてm個の評価値が求まることになる。
符号240で示されるように、観察エリア決定部は、上記のように演算された複数の評価値の中で、最小値(類似性の最も低いもの)からc個の評価値を選択する。続いて、符号242で示されるように、観察エリア決定部は、選択されたc個の評価値に対応するc個の候補エリアを、c個の現観察エリアとして決定する。十分な学習結果が得られるまで、以上の処理が繰り返し実行される。
上記の第2の学習用画像取得方法によれば、第1の学習用画像取得方法と同様に、既観察エリア集合に基づいて、1又は複数の現観察エリアを定めることができるので、学習用画像セットにおける多様性を高められ、これにより学習効率を高められる。また、膜推定器の特性の全部又は一部を考慮して評価値を演算することが可能となる。
第2の学習用画像取得方法を実行するには、例えば、図10に示される構成が採用される。図10には本体の第2構成例が示されている。なお、図2に示した構成と同様の構成には同一符号を付し、その説明を省略する。
図10において、本体234は学習制御サブシステム234A及び画像処理サブシステム234Bにより構成される。膜推定器42に含まれるフィルタ列(複数の畳み込みフィルタ)236が取り出され、それが評価値演算部216へ送られている。評価値演算部216は、図9に示した処理によって、フィルタ列236を利用して、複数の候補エリアごとに評価値を演算する。
図11には、第2の学習用画像取得方法の変形例が示されている。図9に示した要素と同様の要素には同一符号を付してその説明を省略する。図11においては、図9に示されていたUS252が除去されている。図11においては、アップサンプリング後の複数の既観察部分(高密度画像)U1,U2,U3,・・・の代わりに、複数の既観察エリアから取得された複数の学習用画像(高密度画像)H1,H2,H3,・・・が利用されている。複数の学習用画像H1,H2,H3,・・・に対して、それぞれフィルタ処理が適用されている。これにより、複数の学習用画像に基づくフィルタ処理後の複数の既観察部分U11,・・・,U1k,U21,・・・,U2k,U31,・・・,U3k,・・・が生成されている。複数の評価値E1,E2,E3,・・・の演算方法は、図9に示したものと同一である。
この変形例によっても、観察実績に基づいて、1又は複数の現観察エリアを定めることができるので、膜推定器の学習効率を高められる。また、膜推定器の特性の全部又は一部を考慮して評価値を演算することが可能となる。
10 生物組織画像処理システム、16 走査型電子顕微鏡(SEM)、18 生物組織画像処理装置、42 膜推定器、44 加工ツールユニット(作業支援部)、50 二値化器、52 修正部、54 ラベリング処理部、56 ボリュームデータ処理部、216 評価値演算部、218観察エリア決定部。

Claims (10)

  1. 顕微鏡による生物組織の観察により得られた画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器と、
    前記推定器の機械学習過程において、前記生物組織における現観察エリアを決定する決定部と、
    前記推定器の機械学習過程において、前記現観察エリアが観察対象となるように前記顕微鏡の動作を制御する制御部と、
    を含み、
    前記決定部は、前記生物組織における複数の既観察エリアからなる既観察エリア集合に基づいて、前記現観察エリアを探索的に決定する、
    ことを特徴とする生物組織画像処理システム。
  2. 請求項1記載の生物組織画像処理システムにおいて、
    前記決定部は、
    前記既観察エリア集合に基づいて、複数の候補エリアについて複数の評価値を演算する評価値演算部と、
    前記複数の評価値に基づいて、前記複数の候補エリアの中から特定の候補エリアを前記現観察エリアとして選択する選択部と、
    を含む、ことを特徴とする生物組織画像処理システム。
  3. 請求項2記載の生物組織画像処理システムにおいて、
    前記評価値演算部は、
    前記候補エリアごとに、当該候補エリアと前記複数の既観察エリアとの間で複数の類似度を演算する類似度演算器と、
    前記候補エリアごとに、前記複数の類似度に基づいて前記評価値を演算する評価値演算器と、
    を含む、ことを特徴とする生物組織画像処理システム。
  4. 請求項3記載の生物組織画像処理システムにおいて、
    前記推定器に入力される前記画像は、前記生物組織の高倍率観察により得られた画像であり、
    前記生物組織の低倍率観察により1又は複数の参照画像からなる参照画像群が取得され、
    前記類似度演算器は、前記参照画像群における前記候補エリアに対応する候補部分と、前記参照画像群における前記複数の既観察エリアに対応する複数の既観察部分と、に基づいて前記複数の類似度を演算する、
    ことを特徴とする生物組織画像処理システム。
  5. 請求項4記載の生物組織画像処理システムにおいて、
    前記類似度演算器は、
    前記候補部分に対してアップサンプリングを適用する第1アップサンプリング処理器と、
    前記複数の既観察部分に対してアップサンプリングを適用する第2アップサンプリング処理器と、
    前記アップサンプリング後の候補部分に対して前記推定器が有する少なくとも1つの畳み込みフィルタを適用する第1フィルタ処理器と、
    前記アップサンプリング後の複数の既観察部分に対して前記推定器が有する少なくとも1つの畳み込みフィルタを適用する第2フィルタ処理器と、
    前記アップサンプリング及び前記少なくとも1つの畳み込みフィルタが適用された候補部分と、前記アップサンプリング及び前記少なくとも1つの畳み込みフィルタが適用された複数の既観察部分と、に基づいて、前記複数の類似度を演算する演算器と、
    を含む、ことを特徴とする生物組織画像処理システム。
  6. 請求項4記載の生物組織画像処理システムにおいて、
    前記類似度演算器は、
    前記候補部分に対してアップサンプリングを適用するアップサンプリング処理器と、
    前記アップサンプリング後の候補部分に対して前記推定器が有する少なくとも1つの畳み込みフィルタを適用する第1フィルタ処理器と、
    前記複数の既観察部分に対応する複数の高倍率画像に対して前記推定器が有する少なくとも1つの畳み込みフィルタを適用する第2フィルタ処理器と、
    前記アップサンプリング及び前記少なくとも1つの畳み込みフィルタが適用された候補部分と、前記少なくとも1つの畳み込みフィルタが適用された複数の高倍率画像と、に基づいて、前記複数の類似度を演算する演算器と、
    を含む、ことを特徴とする生物組織画像処理システム。
  7. 請求項4乃至6のいずれかに記載の生物組織画像処理システムにおいて、
    前記複数の参照画像は、前記生物組織における複数の深さに対応した複数の生物組織切片の低倍率観察により得られたものである、
    ことを特徴とする生物組織画像処理システム。
  8. 請求項7記載の生物組織画像処理システムにおいて、
    前記顕微鏡は、観察用光軸に対して前記複数の生物組織切片を載せた基板を相対的に動かす移動機構を備え、
    前記制御部は、前記現観察エリアが高倍率観察されるように前記移動機構を制御する、
    ことを特徴とする生物組織画像処理システム。
  9. 顕微鏡による生物組織の高倍率観察により得られた画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含む生物画像処理システムにおいて、前記推定器を学習させるための機械学習方法であって、
    前記顕微鏡による前記生物組織の低倍率観察により1又は複数の参照画像からなる参照画像群を取得する工程と、
    前記参照画像群における候補部分ごとに、当該候補部分と前記参照画像群における複数の既観察部分との間で評価値を演算し、前記参照画像群における複数の候補部分について演算された複数の評価値に基づいて特定の候補部分を選択する工程と、
    前記特定の候補部分に対応する前記生物組織中の現観察エリアが前記顕微鏡により高倍率観察されるように前記顕微鏡の動作を制御する工程と、
    前記現観察エリアの高倍率観察により得られた画像を学習用画像として前記推定器に入力する工程と、
    を含む、ことを特徴とする機械学習方法。
  10. 顕微鏡による生物組織の高倍率観察により得られた画像に対して前記生物組織に含まれる注目要素を推定する処理を適用する機械学習型の推定器を含む情報処理装置において実行され、前記推定器を学習させるためのプログラムであって、
    前記顕微鏡による前記生物組織の低倍率観察により1又は複数の参照画像からなる参照画像群を取得する機能と、
    前記参照画像群における候補部分ごとに、当該候補部分と前記参照画像群における複数の既観察部分との間で評価値を演算し、前記参照画像群における複数の候補部分について演算された複数の評価値に基づいて特定の候補部分を選択する機能と、
    前記特定の候補部分に対応する前記生物組織中の現観察エリアが前記顕微鏡により高倍率観察されるように前記顕微鏡の動作を制御する機能と、
    前記現観察エリアの高倍率観察により得られた画像を学習用画像として前記推定器に入力する機能と、
    を含む、ことを特徴とするプログラム。
JP2018099387A 2018-05-24 2018-05-24 生物組織画像処理システム及び機械学習方法 Active JP7181001B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018099387A JP7181001B2 (ja) 2018-05-24 2018-05-24 生物組織画像処理システム及び機械学習方法
PCT/JP2019/019740 WO2019225505A1 (ja) 2018-05-24 2019-05-17 生物組織画像処理システム及び機械学習方法
EP19806542.7A EP3805744A4 (en) 2018-05-24 2019-05-17 Biological tissue image processing system, and machine learning method
US17/101,267 US11854201B2 (en) 2018-05-24 2020-11-23 Biological tissue image processing system, and machine learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099387A JP7181001B2 (ja) 2018-05-24 2018-05-24 生物組織画像処理システム及び機械学習方法

Publications (2)

Publication Number Publication Date
JP2019204313A true JP2019204313A (ja) 2019-11-28
JP7181001B2 JP7181001B2 (ja) 2022-11-30

Family

ID=68616764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099387A Active JP7181001B2 (ja) 2018-05-24 2018-05-24 生物組織画像処理システム及び機械学習方法

Country Status (4)

Country Link
US (1) US11854201B2 (ja)
EP (1) EP3805744A4 (ja)
JP (1) JP7181001B2 (ja)
WO (1) WO2019225505A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102748A1 (ja) * 2020-11-12 2022-05-19 株式会社GramEye 顕微鏡検査支援装置、顕微鏡検査支援方法、自動染色装置、自動染色物質推定システム、プログラム、及び記録媒体

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3608701A1 (de) * 2018-08-09 2020-02-12 Olympus Soft Imaging Solutions GmbH Verfahren zur bereitstellung wenigstens einer auswertemethode für proben
TWI808321B (zh) * 2020-05-06 2023-07-11 圓展科技股份有限公司 應用於畫面顯示的物件透明度改變方法及實物投影機
US20230099947A1 (en) * 2021-09-30 2023-03-30 Fei Company Data acquisition in charged particle microscopy
EP4231310A1 (en) * 2022-02-16 2023-08-23 Leica Instruments (Singapore) Pte Ltd Systems and methods for training and application of machine learning algorithms for microscope images
CN116046810B (zh) * 2023-04-03 2023-06-23 云南通衢工程检测有限公司 基于rpc盖板破坏荷载的无损检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100183217A1 (en) * 2007-04-24 2010-07-22 Seung H Sebastian Method and apparatus for image processing
JP2012037861A (ja) * 2010-07-12 2012-02-23 Sony Corp 顕微鏡制御装置、画像表示装置、画像管理サーバ、合焦位置情報生成方法、画像表示方法、画像管理方法及び顕微鏡画像管理システム
JP2016067287A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 細胞撮像装置および方法
JP2017027138A (ja) * 2015-07-16 2017-02-02 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理用のプログラム
JP2018072240A (ja) * 2016-11-01 2018-05-10 株式会社日立ハイテクノロジーズ 画像診断支援装置及びシステム、画像診断支援方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10049450B2 (en) * 2015-12-03 2018-08-14 Case Western Reserve University High-throughput adaptive sampling for whole-slide histopathology image analysis
WO2018155898A1 (en) * 2017-02-21 2018-08-30 Koh Young Technology Inc Method and apparatus for processing histological image captured by medical imaging device
TWI699816B (zh) * 2017-12-26 2020-07-21 雲象科技股份有限公司 自動化顯微鏡系統之控制方法、顯微鏡系統及電腦可讀取記錄媒體
BR112020019896A2 (pt) * 2018-03-30 2021-01-05 The Regents Of The University Of California Método e sistema para coloração digital de imagens de fluorescência sem etiquetas usando aprendizagem profunda
US11222415B2 (en) * 2018-04-26 2022-01-11 The Regents Of The University Of California Systems and methods for deep learning microscopy
US10943346B2 (en) * 2018-05-21 2021-03-09 Corista, LLC Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100183217A1 (en) * 2007-04-24 2010-07-22 Seung H Sebastian Method and apparatus for image processing
JP2012037861A (ja) * 2010-07-12 2012-02-23 Sony Corp 顕微鏡制御装置、画像表示装置、画像管理サーバ、合焦位置情報生成方法、画像表示方法、画像管理方法及び顕微鏡画像管理システム
JP2016067287A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 細胞撮像装置および方法
JP2017027138A (ja) * 2015-07-16 2017-02-02 コニカミノルタ株式会社 画像処理装置、画像処理方法、および画像処理用のプログラム
JP2018072240A (ja) * 2016-11-01 2018-05-10 株式会社日立ハイテクノロジーズ 画像診断支援装置及びシステム、画像診断支援方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIGONG HAN ET AL.: "Learning Generative Models of Tissure Organization with Supervised GANs", 2018 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION, JPN6019026844, 12 March 2018 (2018-03-12), pages 682 - 690, ISSN: 0004909076 *
内橋堅志 他: "敵対的生成モデルを用いた電子顕微鏡画像からの神経細胞膜セグメンテーション", 第31回人工知能学会全国大会論文集, vol. 4K1-4in2, JPN6019026842, 2017, pages 1 - 4, ISSN: 0004765810 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022102748A1 (ja) * 2020-11-12 2022-05-19 株式会社GramEye 顕微鏡検査支援装置、顕微鏡検査支援方法、自動染色装置、自動染色物質推定システム、プログラム、及び記録媒体

Also Published As

Publication number Publication date
JP7181001B2 (ja) 2022-11-30
EP3805744A1 (en) 2021-04-14
WO2019225505A1 (ja) 2019-11-28
US11854201B2 (en) 2023-12-26
EP3805744A4 (en) 2022-06-29
US20210073992A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
WO2019225505A1 (ja) 生物組織画像処理システム及び機械学習方法
Klumpe et al. A modular platform for automated cryo-FIB workflows
CN111007661B (zh) 一种基于深度学习的显微图像自动聚焦方法及装置
CN103649992B (zh) 用于自动调节数字病理图像的焦平面的方法
CN107680107B (zh) 一种基于多图谱的扩散张量磁共振图像的自动分割方法
JP7419007B2 (ja) 画像セグメント化を使用した物体追跡
CN110736747B (zh) 一种细胞液基涂片镜下定位的方法及系统
US20220222822A1 (en) Microscopy System and Method for Evaluating Image Processing Results
Waggoner et al. 3D materials image segmentation by 2D propagation: A graph-cut approach considering homomorphism
CN113744195B (zh) 一种基于深度学习的hRPE细胞微管自动检测方法
Fortun et al. Reconstruction from multiple particles for 3D isotropic resolution in fluorescence microscopy
US8837795B2 (en) Microscopy of several samples using optical microscopy and particle beam microscopy
Rangan et al. Deep reconstructing generative networks for visualizing dynamic biomolecules inside cells
JP7181000B2 (ja) 生物組織画像処理装置及び方法
JP7181003B2 (ja) 生物組織画像処理装置及び方法
JP7181002B2 (ja) 生物組織画像処理システム及び機械学習方法
On et al. 3D Reconstruction of Phase Contrast Images Using Focus Measures
Chen et al. Retention of features on a mapped drosophila brain surface using a bezier-tube-based surface model averaging technique
US20230245360A1 (en) Microscopy System and Method for Editing Overview Images
WO2022113366A1 (ja) 学習済みモデルを生成する方法、画像処理方法、画像変換装置、プログラム
Rojas et al. Improved segmentation of meristem cells by an automated optimisation algorithm
EP3531428A1 (en) Method for use in tissue engineering
JP2022023322A (ja) 荷電粒子線装置および帯電評価方法
CN115249287A (zh) 一种应用于糖尿病足的足部模型构建方法
CN117953158A (zh) 一种图像处理方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221117

R150 Certificate of patent or registration of utility model

Ref document number: 7181001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150