JP6646552B2 - 画像診断支援装置、画像診断支援方法及び試料分析システム - Google Patents

画像診断支援装置、画像診断支援方法及び試料分析システム Download PDF

Info

Publication number
JP6646552B2
JP6646552B2 JP2016178245A JP2016178245A JP6646552B2 JP 6646552 B2 JP6646552 B2 JP 6646552B2 JP 2016178245 A JP2016178245 A JP 2016178245A JP 2016178245 A JP2016178245 A JP 2016178245A JP 6646552 B2 JP6646552 B2 JP 6646552B2
Authority
JP
Japan
Prior art keywords
local region
calculation unit
unit
region feature
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016178245A
Other languages
English (en)
Other versions
JP2018044806A (ja
Inventor
容弓 柿下
容弓 柿下
英春 服部
英春 服部
内田 憲孝
憲孝 内田
定光 麻生
定光 麻生
智也 桜井
智也 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp filed Critical Hitachi High Technologies Corp
Priority to JP2016178245A priority Critical patent/JP6646552B2/ja
Priority to US16/323,808 priority patent/US11176668B2/en
Priority to CN201780049445.0A priority patent/CN109564683B/zh
Priority to PCT/JP2017/030817 priority patent/WO2018051777A1/ja
Priority to EP17850681.2A priority patent/EP3514755B1/en
Publication of JP2018044806A publication Critical patent/JP2018044806A/ja
Application granted granted Critical
Publication of JP6646552B2 publication Critical patent/JP6646552B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Fuzzy Systems (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、画像診断支援装置、画像診断支援方法及び試料分析システムに関するものであり、特に、細胞画像または組織画像に基づいて細胞または組織の状態を自動識別しその識別結果を表示する画像診断支援装置に適用して好適なものである。
近年、がん患者数の増加に伴って病理医の不足が課題となっている。これを解決する手段として、デジタル化した病理画像を用いた診断支援や遠隔診断を行うデジタルパソロジーという技術が注目されている(特許文献1参照)。これは、高倍率の病理画像及び低倍率の病理画像を用いて病理組織を自動識別する技術である。
特開2010−203949号公報
上述した従来の手法では、病理画像から矩形の注目領域を選択し、注目領域毎に識別結果を表示している。しかしながら注目領域内で一定の識別結果しか表示されず、注目領域内の細胞、組織の状態を表示することができない。仮に注目領域を画素単位でずらしながら識別することで画素単位の識別結果を得て、注目領域の中心等のアンカー位置に識別結果を表示したとしても、識別結果はアンカー周辺の画像から総合的に判断した結果であるためアンカー位置の細胞組織の状態を正確に表示することは難しい。
本発明は以上の点を考慮してなされたもので、注目領域内の正確な位置に細胞または組織の状態を可視化して十分な診断支援が可能な画像診断支援装置、画像診断支援方法及び試料分析システムを提案するものである。
かかる課題を解決するため、本発明においては、入力画像から局所領域特徴量を算出する局所領域特徴量算出部と、前記局所領域特徴量を用いて複数の識別を実施する識別部と、前記局所領域特徴量の算出結果及び前記複数の識別の結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出部と、前記複数の反応値の差分を算出する反応値差分算出部とを備えることを特徴とする。
また、本発明においては、演算部が入力画像を染色濃淡に応じて分類する染色濃淡分類ステップと、前記演算部が入力画像から局所領域特徴量を算出する局所領域特徴量算出ステップと、前記演算部が前記局所領域特徴量を用いて複数の識別を実施する識別ステップと、前記演算部が前記局所領域特徴量の算出結果と複数の識別結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出ステップと、前記演算部が複数の反応値の差分を算出する反応値差分算出ステップとを有することを特徴とする。
また、本発明においては、演算部が入力画像から局所領域特徴量を算出する局所領域特徴量算出ステップと、前記演算部が前記局所領域特徴量を用いて複数の識別を実施する識別ステップと、前記演算部が前記局所領域特徴量の算出結果と複数の識別結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出ステップと、前記演算部が複数の反応値の差分を算出する反応値差分算出ステップとを有することを特徴とする。
また、本発明においては、入力画像から局所領域特徴量を算出する局所領域特徴量算出部と、前記局所領域特徴量を用いて複数の識別を実施する識別部と、前記局所領域特徴量の算出結果及び前記複数の識別の結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出部と、前記複数の反応値の差分を算出する反応値差分算出部と、前記算出した情報に基づいて試料を採取する試料採取部と、前記試料採取部によって採取された前記試料の分析を実施する分析部とを備えることを特徴とする。
本発明によれば、注目領域内の正確な位置に細胞または組織の状態を可視化して十分な診断支援が可能となる。
第1の実施の形態に係る画像診断支援装置のハードウェア構成図である。 第1の実施の形態に係る演算装置のブロック図である。 局所領域特徴量算出処理の一例である。 識別処理の手順の一例である。 反応値算出フローの一例である。 反応値および反応値差分算出の一例である。 反応値選択GUIである。 第2の実施の形態に係る演算装置のブロック図である。 染色濃淡分類方法の一例である。 局所領域特徴量算出部の一例である。 第3の実施の形態に係るシステム構成図である。 第3の実施の形態に係るシステムのブロック図である。
以下、図面について、本発明の実施の形態について詳述する。
(1)第1の実施の形態による画像診断支援装置の構成
図1は、第1の実施の形態に係る画像診断支援装置100のハードウェア構成図である。画像診断支援装置100は、画像入力装置101、メモリ102、演算装置103、ユーザーインターフェース104及び画像表示装置105を備えている。
画像入力装置101は、バーチャルスライドや顕微鏡画像の入力を受付ける。メモリ102には、例えば特徴量抽出及び識別に用いる係数群または入力された画像及び算出した反応値が保存される。本実施の形態では、特徴量抽出及び識別に用いる係数群を「重み」と呼ぶ。演算装置103は、CPUまたはFPGA等であり、例えば局所領域特徴量の抽出や識別、反応値の算出を行う。
ユーザーインターフェース104は、キーボードやマウスなどを用いてユーザーからの操作情報を受付ける。画像表示装置105は、例えばディスプレイ装置である。この画像表示装置105は、演算装置103を介してユーザーに情報を表示する。画像診断支援装置100は、図示は省略するが、外部との間で通信を行うための通信装置を内蔵していても良いし、別途、通信装置を外付けしていても良い。
図2は、図1に示す画像診断支援装置100の機能ブロックを示す。画像入力部201は画像入力装置101から細胞、組織画像の入力を受付ける。局所領域特徴量算出部202は画像入力部201から入力された画像に対して、局所領域に対する特徴量を算出する。
識別部203は複数の識別器を有し、局所領域特徴量算出部202が出力した局所領域特徴量を用いて複数状態の識別結果を出力する。反応値算出部204は局所領域特徴量算出部202と識別部203が出力した特徴量と識別結果を用いて、各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する。
反応値差分算出部205は反応値算出部204が出力した複数の反応値に対して差分や合成等の処理を行う。合成とは加算、乗算、論理和、論理積等である。この差分及び合成の結果を反応値差分情報と呼ぶ。この反応値差分算出部205は、差分や合成等に用いる反応値の指定情報をユーザーインターフェース部206から受付ける。
ユーザーインターフェース部206は、ユーザーからの操作情報を受付け、差分や合成等に用いる反応値の指定情報を反応値差分算出部205及び表示部207に出力する。表示部207は、画像表示装置105に表示すべき情報を決定する。
表示部207は、画像入力部201から入力画像、反応値差分算出部205から反応値差分情報、ユーザーインターフェース部206からユーザーの操作情報の入力を受付け、操作情報に応じて入力画像と反応値差分画像とを切替えて表示する、あるいは入力画像と反応値差分情報との重畳画像を表示する。
以降、局所領域特徴量算出部202、識別部203、反応値算出部204及び反応値差分算出部205について詳しく説明する。
次に局所領域特徴量算出部202について説明する。局所領域特徴量算出部202は、メモリ102内に保存されている入力画像の局所的な色や輝度、形状といった特徴量を抽出するための重みを用いて入力画像内の各画素あるいは小領域単位の特徴量を得る。これを「局所領域特徴量」と呼ぶ。本実施の形態では、局所領域特徴量算出方法の一例として重みを入力データに畳込む方法を説明するが、HOG(Histogram
of Oriented Gradients)等、その他の方法で局所領域特徴量を求めても良い。
図3は、局所領域特徴量算出処理の一例を示す。入力データ301は、チャンネルCh、垂直方向位置Y、水平方向位置Xの次元を持つ3次元配列である。重み302は、入力データ301から複数の特徴量を抽出するために複数の重みを有する。そのため、この重み302は、チャンネルCh、垂直方向位置Fy及び水平方向位置Fx次元に加えて、特徴量番号Dの次元を持つ4次元配列である。重み302は人手で設計したものを用いても良いし、例えばいわゆるAI(Artificial Intelligence)のような機械学習により学習したものを用いても良い。
尚、本実施の形態では局所領域特徴量算出に使用する重みは機械学習により学習済みの重みを使用すると仮定するが、例えば、いわゆる教師なし学習等の手法により、入力された画像を用いて重みを更新してもよい。上述した重みの更新は装置内での実行に限らず、通信装置を介してサーバー等に情報を送信し、サーバーで更新を行った結果を受信する等の方式でもよい。
出力データである局所特徴量303は特徴量番号D、垂直方向位置Y、水平方向位置Xの次元を持つ3次元配列である。図3に示す例では、入力データ301の局所領域に対して重み302を掛け合わせる処理を、局所領域をずらしながら繰り返すことで局所特徴量303を算出する。出力データである局所特徴量303の一要素は次のような数式(1)によって求められる。
F:局所領域特徴量
I:入力データ
W:重み
G:非線形関数または線形関数
d:特徴量番号(0,1,…,D)
y:入力データ内の垂直方向位置(0,1,・・・,Y)
x:入力データ内の水平方向位置(0,1,・・・,X)
ch:入力データのチャンネル(0,1,・・・,Ch)
fy:フィルタ内の垂直方向位置(0,1,・・・,Fy)
fx:フィルタ内の水平方向位置(0,1,・・・,Fx)
F(d,y,x)は、特徴量番号d、垂直方向位置y及び水平方向位置xにおける局所特徴量303の値を示している。F(d,y,x)は、入力データ301のチャンネル0からCh、垂直方向位置yからy+fy、水平方向位置xからx+fxの各要素に、重み302の各要素w(d,ch,fy,fx)を乗算後、総和することで算出される。
なお、局所領域特徴量は多層化して求めることが可能である。多層化した場合は前層の出力が次層の入力となる。
識別部203について説明する。識別部203は、局所領域特徴量算出部202が出力する局所領域特徴量を用いて複数状態の識別を実施する。識別部203は、メモリ102に保存されている局所領域特徴量に対する重みを用いて各状態の尤度を算出する。尤度とは、注目領域に対する各状態らしさを表す数値である。本実施の形態では識別方法の一例として、局所領域特徴量に重みを乗算して足し合わせることで各状態の尤度を算出する方式を説明するが、例えば、決定木等、その他の方法で識別しても良い。
図4は、識別処理の手順の一例を示す。局所領域特徴量F401は局所領域特徴量算出部202で求めた局所領域特徴量であり、特徴量番号D、垂直方向位置Y、水平方向位置Xの次元を持つ3次元配列である。
重みWc402は特徴量のインデックスD、垂直方向位置Y、水平方向位置Xと状態Sの次元を持つ4次元配列である。重みは人手で設計したものを用いても良いし、機械学習により学習したものを用いても良い。
尚、本実施の形態では識別に使用する重みは機械学習により学習済みの重みを使用すると仮定するが、例えば、いわゆる半教師あり学習等の手法により、入力された画像を用いて重みを更新してもよい。また、重みの更新は装置内での実行に限らず、通信装置を介してサーバー等に情報を送信し、サーバーで更新を行った結果を受信する等の方式でもよい。
尤度P403は状態Sの次元を持つ1次元配列である。図4に示す例では、局所領域特徴量F401に対して状態毎の重みWc402を掛け合わせることで各状態の尤度P403を算出している。尤度P403の一要素は次のような数式(2)によって求められる。
P:識別結果
F:局所領域特徴量
Wc::重み
G:非線形関数または線形関数
S:状態番号(0,1,・・・,S)
d:特徴量番号(0,1,・・・,D)
y:入力データ内の垂直方向位置(0,1,・・・,Y)
x:入力データ内の水平方向位置(0,1,・・・,X)
P(s)は状態sに対する尤度P403を示しており、局所領域特徴量F401の各要素に重みWc402の各要素を乗算後、総和することで算出する。
次に反応値算出部204について説明する。反応値算出部204は、各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す反応値を画素または小領域単位で算出する。反応値は、局所領域特徴量算出部202と識別部203の各出力と重みから算出する。ここでは反応値算出方法の一例を述べる。
図5は、反応値を算出する手順の一例を示す。説明を容易にするために、図10に示すような局所領域特徴量算出部202及び識別部203を有するものと仮定する。すなわち局所領域特徴量算出部が多重化構成とされている。
まずステップS501では、第1局所特徴量算出部1001が入力画像から第1の局所特徴量を算出する。一方、ステップS502では、第2局所特徴量算出部1002が第1の局所特徴量から第2の局所特徴量を算出する。
ステップS503では、識別部203が第2の局所特徴量を用いて識別を行い、識別結果を得る。ステップS504では、第2の局所特徴量F2による識別結果に対する寄与度R2が算出される。寄与度とは、入力の各要素が出力値の上昇にどの程度寄与したかを示す値である。すなわち寄与度R2は、第2の局所特徴量F2の各要素が識別結果の上昇にどの程度寄与したかを示す。寄与度R2は次のような数式(3)によって求められる。
R2:識別結果に対する2層目の局所特徴量の寄与度
F2:2層目の局所特徴量
Wc:識別部の重み
s:状態番号(0,1,・・・,S)
d:特徴量番号(0,1,・・・,D)
y:垂直方向位置(0,1,・・・,Y)
x:水平方向位置(0,1,・・・,X)
数式(3)は、2層目の局所特徴量F2と識別部の重みWcとの内積を示しており、R2の値が大きいほど各状態の尤度上昇に寄与している。
ステップS505では、第1の局所特徴量F1による第2の局所特徴量F2に対する寄与度R1が算出される。寄与度R1は次のような数式(4)によって算出される。
R1:寄与度R2に対する1層目の局所特徴量の寄与度
F1:1層目の局所特徴量
W2:2層目の重み
d2:2層目の特徴量番号(0,1,・・・,D2)
d1:1層目の特徴量番号(0,1,・・・,D1)
y:垂直方向位置(0,1,・・・,Y)
x:水平方向位置(0,1,・・・,X)
fy:フィルタ内の垂直方向位置(0,1,・・・,Fy)
fx:フィルタ内の水平方向位置(0,1,・・・,Fx)
上述した数式(4)は、第1の局所特徴量F1と第2局所特徴量算出部1002の重みW2の局所的な内積を示しており、R1の値が大きいほど第2の局所特徴量F2の上昇に寄与していることを表している。
ステップS506では、反応値算出部204が入力画像による第1の局所特徴量F1に対する寄与度R0が算出される。寄与度R0は次のような数式(5)によって表される。
R0:寄与度R1に対する入力画像の寄与度
I:入力画像
W1:1層目の重み
d1:1層目の特徴量番号(0,1,・・・,D1)
ch:入力画像のチャンネル(0,1,・・・,Ch)
y:垂直方向位置(0,1,・・・,Y)
x:水平方向位置(0,1,・・・,X)
fy:フィルタ内の垂直方向位置(0,1,・・・,Fy)
fx:フィルタ内の水平方向位置(0,1,・・・,Fx)
数式(5)は入力画像Iと第1局所特徴量算出部1001の重みW1の局所的な内積を示しており、R0の値が大きいほど局所特徴量F1の上昇に寄与することを表している。
ステップS507では、反応値算出部204が次のような数式(6)を用いて、ステップS504〜S506において求めた寄与度R2、R1,R0の値を乗算する。
R:識別結果に対する入力画像の寄与度
R2:識別結果に対する2層目の局所特徴量F2の寄与度
R1:R2に対する1層目の局所特徴量F1の寄与度
R0:R1に対する入力画像の寄与度
s:状態番号(0,1,・・・,S)
y:垂直方向位置(0,1,・・・,Y)
x:水平方向位置(0,1,・・・,X)
d2:2層目の特徴量番号(0,1,・・・,D2)
d1:1層目の特徴量番号(0,1,・・・,D1)
ch:入力画像のチャンネル(0,1,・・・,Ch)
これにより、反応値算出部204が各識別結果に対する入力画像の寄与度である反応値Rを算出する。以上が反応値算出方法の一例である。
尚、上述した反応値算出方法の任意のステップにおいて、反応値の視認性を上げるために、寄与度R2、R1、R0あるいはその乗算結果に対して値の正規化処理や閾値処理、強調処理またはぼかし処理等を適用してもよい。
本実施の形態では局所特徴量の算出を2層で行う場合について説明したが、3層以上であっても同様に反応値を求めることが可能である。
次に反応値差分算出部205について説明する。反応値差分算出部205は、反応値算出部204から入力される、複数の状態に対する反応値を用いて、ユーザーインターフェース部206から入力される反応値指定情報に基づき、反応値の差分を求める。
図6は、反応値差分を算出する一例を示す。入力画像601には状態Aの組織602、状態Bの組織603及び間質604が含まれている。反応値A605は状態Aに対する反応値であり、反応値B606は状態Bに対する反応値である。反応値差分607は、反応値A605から反応値B606を減算した結果を示している。
反応値A605、反応値B606及び反応値差分607の網掛けは正の反応値の領域を示しており、網掛けが濃い部分ほど反応値が大きい領域であることを示している。一方、網掛けが無い部分は、反応値が0以下または0に近い値の領域であることを示す。
細胞及び組織画像においては、細胞及び組織の異なる状態間で共通する特徴を多く含む。例えば図6に示した間質604は、組織の状態に関わらず組織の周辺に頻繁に出現する。そのため、いわゆる機械学習または統計的な手法により特徴を求めた場合、間質604の部分は状態A、Bの両者に対して類似した反応値になりやすく、図6の反応値A605と反応値B606のように異なる状態に対する反応値であっても共通の領域に反応値が発生することがある。一方、状態Aの組織602の領域では反応値A605の値が大きくなっており、状態Bの組織603の領域では反応値B606の値が大きくなっている。
反応値差分607を算出することで、反応値の共通成分を除外することが可能となる。図6の反応値差分607は、反応値A605から反応値B606を減算した結果を表しており、このときの反応値A605を導出成分、反応値B606を除外成分と呼ぶ。間質604では、反応値A605と反応値B606は同程度であるため、反応値差分607では0に近い値となる。状態Bの組織603においては、反応値A605よりも反応値B606の方が大きいため、反応値差分607は負の値となる。
一方、状態Aの組織602においては反応値A605の方が反応値B606よりも大きいため、正の反応値となる。これにより、複数の状態に共通の特徴を持つ領域を除外し、各状態らしい領域を選択的に表示することが可能となる。
反応値差分情報は3つ以上の反応値から求めても良い。具体的には1つの反応値から複数の反応値の合成結果を減算する、複数の反応値の合成結果から1つの反応値を減算する、複数の反応値の合成結果から複数の反応値の合成結果を減算する手法がある。合成とは、加算、乗算、論理和、論理積等であり、合成結果の各要素に対して何らかの関数を適用しても良い。
図6では、反応値差分607において反応値が正の箇所のみを示しているが、表示色を反応値の正負で切り替える等の処理によって負の箇所を同時に表示しても良い。この場合、反応値差分607が負の箇所は、反応値B606から反応値A605を減算した結果が正の値となる領域であり、反応値差分607と併せて表示することで2つの状態の反応値差分情報を同時に表示することができる。
またその他の手法としては、3つ以上の反応値に対して予め各状態に色を割り当てておき、反応値差分算出部205が画素毎に最も値の大きい反応値を導出成分、2番目に値の大きい反応値を除外成分として反応値差分情報を算出するようにしても良い。この場合、表示部207は導出成分となる各状態に割り当てた色で反応値差分情報を表示する等の方法で、3つ以上の反応値差分情報を同時に表示してもよい。
図7は、反応値差分情報の算出に用いる反応値の選択に係るGUIの一例を示す。図7に示す例では、識別する状態数が4の場合であり、状態Aから状態Dを挙げる。ウィンドウ701には、導出成分及び除外成分の選択用にチェックボックス等が配置されている。この例では、状態Aに対する反応値が導出成分となる一方、状態C及び状態Dに対する反応値の合成結果が除外成分となる。
表示部207は、図7に示す選択内容が変化したことを契機として、図6の表示結果を切り替え、指定した反応値差分情報を画像表示装置105に表示する。以上により正確な位置に細胞または組織の状態を可視化でき、病理医の診断支援が可能となる。
(2)第2の実施の形態
細胞、組織診断においては視認性向上のために細胞や組織を染色するための薬品を用いて細胞や組織を染色することが一般的である。しかしながら薬品の劣化や染色方法によって染色濃淡にばらつきが生じる場合があり、染色濃淡に応じた特徴量算出方法及び識別方法を使用しないと、細胞または組織の状態の識別精度低下や、細胞、組織状態の可視化結果の誤りが発生する場合がある。
第2の実施の形態では、染色濃淡の異なる細胞または組織画像を自動分類することで、染色濃淡に合わせた識別を行い、その結果に基づいて細胞、組織の状態の可視化を行う方法及び装置に関するものである。これにより、細胞または組織画像の染色濃淡にばらつきがある場合でも正確な細胞または組織の状態の可視化を行うことができ、病理医の診断支援が可能となる。
なお、第2の実施の形態では、ハードウェア構成については第1の実施の形態と同様であるため、図1を援用して説明を省略する。
図8は、画像診断支援装置の機能ブロックを示す。第2の実施の形態における画像入力部801、反応値算出部804、反応値差分算出部805、ユーザーインターフェース部806及び表示部807は、それぞれ、第1の実施の形態の図2における画像入力部201、反応値算出部204、反応値差分算出部205、ユーザーインターフェース部206及び表示部207と同様であるため、説明を省略する。
染色濃淡分類部808は、画像入力部801から入力された細胞または組織画像を染色濃淡毎に分類し、分類結果を局所領域特徴量算出部802、または識別部803、あるいは局所領域特徴量算出部802と識別部803の両方に出力する。本実施の形態では一例として局所領域特徴量算出部802と識別部803の両方に出力する場合を説明するが、どちらか一方だけを切替える方式でも良い。
局所領域特徴量算出部802は、画像入力部801から入力された画像に対して、局所領域に対する特徴量を算出する。この際、局所領域特徴量算出部802は、染色濃淡分類部808から入力される染色濃淡分類結果に基づいて特徴量算出方法を切替える。
識別部803は、図示しないが複数の識別器を有し、局所領域特徴量算出部802が出力した局所領域特徴量を用いて複数状態の識別結果を出力する。このとき識別部803は、染色濃淡分類部808から入力される染色濃淡分類結果に基づいて識別方法を切替える。
染色濃淡分類部808について説明する。染色濃淡分類部808は、画像入力部801から入力された細胞または組織画像を染色濃淡毎に自動分類する。ここでは、染色濃淡分類方法の一例を説明する。
染色濃淡分類部808は、染色濃淡を分類するための一つ以上の評価指標を有する。評価指標には、入力画像に対するRGB各チャンネルの平均値、分散値若しくは平均値または分散値を主成分分析により変換した値等を用いる。
図9は、染色濃淡分類方法の一例を示す。図示の例では評価指標A901と評価指標B902の2つの評価指標を用いた場合を示している。複数の評価指標が成す空間を評価指標空間905とする。評価指標A901と評価指標B902とはそれぞれ、閾値A903と閾値B904とで2つの区間に分けられている。評価指標A901と評価指標B902との区間の組合せによって、評価指標空間905は、第1グループ906、第2グループ907、第3グループ908及び第4グループ909に分割される。以降、このグループを「染色濃淡グループ」と呼ぶ。
入力画像が染色濃淡分類部808に入力されると、染色濃淡分類部808は評価指標A901及び評価指標B902に対する数値をそれぞれ算出する。評価指標A901及び評価指標B902は次のような数式(7A)及び数式(7B)によって算出される。
A:評価指標A
B:評価指標B
aveRGB:入力画像のRGB各チャンネルの平均値
varRGB:入力画像のRGB各チャンネルの分散値
PCAa:RGBの平均値と分散値の任意の主成分a
PCAb:RGBの平均値と分散値の任意の主成分b
PCAc:RGBの平均値と分散値の任意の主成分c
PCAd:RGBの平均値と分散値の任意の主成分d
α1:PCAaに乗算する係数
α2:PCAbに乗算する係数
β1:PCAcに乗算する係数
β2:PCAdに乗算する係数
入力画像のRGB各チャンネルの平均値aveRGB及び分散値varRGBの主成分分析結果を「PCA」とし、任意の主成分をPCAa、PCAb、PCAc、PCAdとする。
数式(7A)及び数式(7B)の例では、評価指標A901として主成分PCAaと主成分PCAbにそれぞれ係数α1とα2を掛けて足し合わせた数値、評価指標B902として主成分PCAcと主成分PCAdにそれぞれ係数β1とβ2を掛けて足し合わせた数値を用いている。
入力画像の評価指標Aを計算した結果の一例を評価指標A計算結果910に示す。同様に評価指標Bを計算した結果の一例を評価指標B計算結果911に示す。また、評価指標A計算結果910と評価指標B計算結果911を評価指標空間905上にプロットした結果をプロット結果912に示す。
図9の例では、評価指標空間905においていずれの染色濃淡グループ内にプロットされるかによって染色濃淡を分類する。プロット結果912の例では、第2グループ907内にプロットされているため、分類結果は第2グループ907となる。染色濃淡分類部808は、上述した方法により入力画像の染色濃淡を分類した結果を染色濃淡分類結果として出力する。
図9は、各評価指標上の閾値により評価指標空間905を分割しているが、評価指標空間905内に複数の代表点を設定して代表点からの距離に基づいて分類する等、その他の手法により評価指標空間905を分割しても良い。尚、評価指標上の閾値等は固定値でも良いし、評価指標空間上の分布等から動的に定めても良い。
次に局所領域特徴量算出部802について説明する。局所領域特徴量算出部802は、メモリ102内に保存されている重みを用いて入力画像内の各画素若しくは小領域内の色、輝度及び形状といった局所領域特徴量を抽出する。
第2の実施の形態における局所領域特徴量の算出方法は、第1の実施の形態の局所領域特徴量算出部202による算出方法と同様であるが、染色濃淡に応じて局所領域特徴量抽出用の重みを切替える点が第1の実施の形態とは異なる。
メモリ102には、各染色濃淡グループに対する局所領域特徴量算出用の重みを保存しておく、またはベースとなる局所領域特徴量算出用の重みを保存しておく。染色濃淡分類結果に応じて重みを切替える、または重みを変換する等の方法により、染色濃淡に合わせて局所領域特徴量算出用の重みが切り替えられる。
この重みを用いて局所領域特徴量算出部802は、染色濃淡分類結果に応じた局所領域特徴量を算出する。尚、本実施の形態では、局所領域特徴量算出に使用する重みは機械学習により学習済みの重みを使用すると仮定するが、例えばいわゆる教師なし学習等の手法により、入力された画像を用いて重みを更新してもよい。さらには上述した重みの更新は装置内での実行に限らず、通信装置を介してサーバー等に情報を送信し、サーバーで更新を行った結果を受信する等の方式でもよい。
次に識別部803について説明する。識別部803は、メモリ102内に保存されている重みを用いて局所領域特徴量算出部802が出力する局所領域特徴量から複数状態の識別を実施する。
第2の実施の形態における識別方法は、第1の実施の形態の識別部203による識別方法と同様であるが、染色濃淡に応じて識別用の重みを切替える点が第1の実施の形態とは異なる。
メモリ102には、各染色濃淡グループに対する細胞若しくは組織の複数状態を識別するための重みを保存しておく、またはベースとなる細胞、組織の複数状態を識別するための重みを保存しておく。染色濃淡分類結果に応じて重みを切替える、または重みを変換する等の方法により、染色濃淡に合わせて細胞、組織の複数状態を識別するための重みが切り替えられる。
尚、本実施の形態においては、各染色濃淡グループに対する細胞、組織の複数状態を識別するための重みは事前に機械学習等で作成済みであるとするが、例えば半教師あり学習等の手法により、入力された画像を用いて重みを更新してもよい。さらに、上述した重みの更新は装置内での実行に限らず、通信装置を介してサーバー等に情報を送信し、サーバーで更新を行った結果を受信する等の方式でもよい。
この重みを用いて識別部803は、染色濃淡分類部808が出力する染色濃淡分類結果に応じた識別を実施する。
以上により、入力画像の染色濃淡のばらつきに対応した特徴抽出と識別が可能となる。これにより入力画像の染色濃淡のばらつきがある場合でも正確な位置に細胞または組織の状態を可視化することができ、病理医の診断支援が可能となる。
(3)第3の実施の形態
第3の実施の形態は、第1の実施の形態または第2の実施の形態に記載の方法で求めた細胞若しくは組織状態の情報に基づいて、例えば、マイクロダイセクション等の試料採取装置により試料を採取し、質量分析装置やDNAシーケンサー等の分析装置で分析を行う試料分析システムを採用している。
図11は、第3の実施の形態に係る試料分析システムの構成例を示す。画像診断支援装置1109には、既述の実施の形態の構成と同様に、画像入力装置1101、メモリ1102、演算装置1103、ユーザーインターフェース1104及び画像表示装置1105を備えている。すなわち、これら画像入力装置1101、メモリ1102、演算装置1103、ユーザーインターフェース1104及び画像表示装置1105は、それぞれ、第1の実施の形態および第2の実施の形態の画像入力装置101、メモリ102、演算装置103、ユーザーインターフェース104及び画像表示装置105を備え、同様な動作を行うため、その説明を省略する。
さらに第3の実施の形態による試料分析システムは、試料採取装置1106、分析装置1107及び分析結果表示装置1108を備えている。試料採取装置1106は、画像診断支援装置1109から出力される反応値差分情報に基づき試料採取を行う。分析装置1107は、試料採取装置1106が採取した試料を受付けて分析を行う。分析結果表示装置1108は、例えば、分析装置1107の分析結果を表示するディスプレイまたはプリンタである。
図12は、第3の実施の形態による試料分析システムの機能ブロックを示す。画像診断支援装置1109は、第1の実施の形態または第2の実施の形態に記載の画像診断支援装置100と同様な構成である。
試料採取装置制御部1201は、画像診断支援装置1109が出力する反応値差分情報に基づいて試料採取領域を決定し試料を採取する。分析装置制御部1202は、試料採取装置制御部1201から入力された試料採取状況に基づいて試料の分析を行う。分析結果表示部1203は、分析装置制御部1202の分析結果を受付け、分析結果を表示する。
試料採取装置制御部1201について詳しく説明する。試料採取装置制御部1201は、画像診断支援装置1109から既述の反応値差分情報を受付け、試料採取領域を決定する。試料採取領域の決定方法としては、例えば反応値差分情報が閾値を超える領域を採取する、反応値差分情報を正規化して、値が高い領域から一定面積を採取する。
分析装置制御部1202は、試料採取装置制御部1201から採取した試料を受付け、試料の分析を行う。分析結果表示部1203は、分析装置制御部1202から試料の分析結果を受付け、分析結果表示装置1108を介してユーザーに分析結果を提示する。
これにより、第1の実施の形態または第2の実施の形態に記載の画像診断支援装置が出力する細胞または組織状態の情報に基づいて試料採取から試料分析までを一貫して行う分析システムをユーザーに提供することができるようになる。
(4)その他の実施形態
上記実施形態は、本発明を説明するための例示であり、本発明をこれらの実施形態にのみ限定する趣旨ではない。本発明は、その趣旨を逸脱しない限り、様々な形態で実施することができる。例えば、上記実施形態では、各種プログラムの処理をシーケンシャルに説明したが、特にこれにこだわるものではない。従って、処理結果に矛盾が生じない限り、処理の順序を入れ替えまたは並行動作するように構成しても良い。
202……局所領域特徴量算出部、203……識別部、204……反応値算出部、205……反応値差分算出部、1106……試料採取装置、1107……分析装置、1108……分析結果表示装置、1109……画像診断支援装置、1201……試料採取装置制御部、1202……分析装置制御部、1203……分析結果表示部1203。

Claims (9)

  1. 入力画像から局所領域特徴量を算出する局所領域特徴量算出部と、
    前記局所領域特徴量を用いて複数の識別を実施する識別部と、
    前記局所領域特徴量の算出結果及び前記複数の識別の結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出部と、
    前記複数の反応値の差分を算出する反応値差分算出部と
    を備えることを特徴とする画像診断支援装置。
  2. 前記局所領域特徴量算出部によって前記入力画像から前記局所領域特徴量を算出する前に、前記入力画像を染色濃淡に応じて分類する染色濃淡分類部を備える
    ことを特徴とする請求項1に記載の画像診断支援装置。
  3. 前記局所領域特徴量算出部は、
    前記入力画像を用いて局所領域特徴量の算出または識別に使用する係数群を更新することを特徴とする請求項1に記載の画像診断支援装置。
  4. 演算部が入力画像から局所領域特徴量を算出する局所領域特徴量算出ステップと、
    前記演算部が前記局所領域特徴量を用いて複数の識別を実施する識別ステップと、
    前記演算部が前記局所領域特徴量の算出結果と複数の識別結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出ステップと、
    前記演算部が複数の反応値の差分を算出する反応値差分算出ステップと
    を有することを特徴とする画像診断支援方法。
  5. 前記局所領域特徴量算出ステップにおいて前記演算部によって前記入力画像から前記局所領域特徴量が算出される前に、前記演算部が前記入力画像を染色濃淡に応じて分類する染色濃淡分類ステップを有することを特徴とする請求項4に記載の画像診断支援方法。
  6. 前記演算部が前記入力画像を用いて前記局所領域特徴量の算出または識別に使用する係数群を更新する更新ステップを有する請求項4に記載の画像診断支援方法。
  7. 入力画像から局所領域特徴量を算出する局所領域特徴量算出部と、
    前記局所領域特徴量を用いて複数の識別を実施する識別部と、
    前記局所領域特徴量の算出結果及び前記複数の識別の結果を用いて各識別結果が前記入力画像うちのどの単位領域に基づいて判断されたかを示す複数の反応値を算出する反応値算出部と、
    前記複数の反応値の差分を算出する反応値差分算出部と、
    前記算出した情報に基づいて試料を採取する試料採取部と、
    前記試料採取部によって採取された前記試料の分析を実施する分析部と
    を備えることを特徴とする試料分析システム。
  8. 前記局所領域特徴量算出部によって前記入力画像から前記局所領域特徴量を算出する前に、前記入力画像を色濃淡に応じて分類する染色濃淡分類部を備える
    ことを特徴とする請求項7に記載の試料分析システム。
  9. 前記局所領域特徴量算出部は、
    前記入力画像を用いて局所領域特徴量の算出または識別に使用する係数群を更新することを特徴とする請求項7に記載の試料分析システム。
JP2016178245A 2016-09-13 2016-09-13 画像診断支援装置、画像診断支援方法及び試料分析システム Active JP6646552B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016178245A JP6646552B2 (ja) 2016-09-13 2016-09-13 画像診断支援装置、画像診断支援方法及び試料分析システム
US16/323,808 US11176668B2 (en) 2016-09-13 2017-08-28 Image diagnosis assisting apparatus, image diagnosis assisting method and sample analyzing system
CN201780049445.0A CN109564683B (zh) 2016-09-13 2017-08-28 图像诊断辅助装置、图像诊断辅助方法及试料分析系统
PCT/JP2017/030817 WO2018051777A1 (ja) 2016-09-13 2017-08-28 画像診断支援装置、画像診断支援方法及び試料分析システム
EP17850681.2A EP3514755B1 (en) 2016-09-13 2017-08-28 Image diagnostic assistance device, image diagnostic assistance method, and sample analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016178245A JP6646552B2 (ja) 2016-09-13 2016-09-13 画像診断支援装置、画像診断支援方法及び試料分析システム

Publications (2)

Publication Number Publication Date
JP2018044806A JP2018044806A (ja) 2018-03-22
JP6646552B2 true JP6646552B2 (ja) 2020-02-14

Family

ID=61620008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016178245A Active JP6646552B2 (ja) 2016-09-13 2016-09-13 画像診断支援装置、画像診断支援方法及び試料分析システム

Country Status (5)

Country Link
US (1) US11176668B2 (ja)
EP (1) EP3514755B1 (ja)
JP (1) JP6646552B2 (ja)
CN (1) CN109564683B (ja)
WO (1) WO2018051777A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU100870B1 (de) * 2018-07-09 2020-01-09 Cytena Gmbh Verfahren zum Untersuchen einer flüssigen Probe
US11836597B2 (en) * 2018-08-09 2023-12-05 Nvidia Corporation Detecting visual artifacts in image sequences using a neural network model
JP7059162B2 (ja) * 2018-10-29 2022-04-25 株式会社日立製作所 分析装置、分析方法、および分析プログラム
JP2022007281A (ja) * 2020-06-26 2022-01-13 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム
JP7412321B2 (ja) * 2020-12-08 2024-01-12 株式会社日立ハイテク オブジェクト分類装置、オブジェクト分類システム及びオブジェクト分類方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7219016B2 (en) * 2001-04-20 2007-05-15 Yale University Systems and methods for automated analysis of cells and tissues
CA2491703A1 (en) * 2002-07-09 2004-01-15 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
JP5321145B2 (ja) 2009-03-04 2013-10-23 日本電気株式会社 画像診断支援装置、画像診断支援方法、画像診断支援プログラム、及びその記憶媒体
JP5508792B2 (ja) * 2009-09-01 2014-06-04 オリンパス株式会社 画像処理方法、画像処理装置および画像処理プログラム
JP2011095921A (ja) * 2009-10-28 2011-05-12 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP5011452B2 (ja) * 2010-04-12 2012-08-29 オリンパスメディカルシステムズ株式会社 医用画像処理装置および医用画像処理装置の制御方法
JP5442542B2 (ja) * 2010-06-25 2014-03-12 大日本スクリーン製造株式会社 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
JP2012071037A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 超音波画像診断装置、超音波画像生成方法およびプログラム
CA2830501C (en) * 2011-03-17 2023-10-17 Cernostics, Inc. Systems and compositions for diagnosing barrett's esophagus and methods of using the same
WO2013022688A1 (en) 2011-08-05 2013-02-14 Siemens Healthcare Diagnostics Inc. Automated detection of diagnostically relevant regions in pathology images
AU2013277097A1 (en) * 2012-06-20 2015-01-22 Merrimack Pharmaceuticals, Inc. Marker quantitation in single cells in tissue sections
US9020221B2 (en) * 2012-07-13 2015-04-28 Sony Corporation Method and apparatus for automatic cancer diagnosis scoring of tissue samples
WO2016076104A1 (ja) * 2014-11-13 2016-05-19 コニカミノルタ株式会社 画像処理方法、画像処理装置、及びプログラム
US10395368B2 (en) * 2015-12-18 2019-08-27 Abbott Laboratories Methods and systems for assessing histological stains
US11515009B2 (en) * 2018-03-19 2022-11-29 International Business Machines Corporation Biomarker quantification in a tissue sample

Also Published As

Publication number Publication date
WO2018051777A1 (ja) 2018-03-22
EP3514755A4 (en) 2020-04-29
CN109564683B (zh) 2023-07-04
US20190172206A1 (en) 2019-06-06
JP2018044806A (ja) 2018-03-22
CN109564683A (zh) 2019-04-02
EP3514755B1 (en) 2025-06-25
US11176668B2 (en) 2021-11-16
EP3514755A1 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
US10733726B2 (en) Pathology case review, analysis and prediction
JP6646552B2 (ja) 画像診断支援装置、画像診断支援方法及び試料分析システム
Rizk et al. Segmentation and quantification of subcellular structures in fluorescence microscopy images using Squassh
KR102801007B1 (ko) 조직학적 이미지 분석
JP7678424B2 (ja) 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法
US20210312627A1 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
Hartig Basic image analysis and manipulation in ImageJ
US8340389B2 (en) Cellular- or sub-cellular-based visualization information using virtual stains
Torsney-Weir et al. Tuner: Principled parameter finding for image segmentation algorithms using visual response surface exploration
CN112106107A (zh) 显微镜切片图像的聚焦加权的机器学习分类器误差预测
US11062168B2 (en) Systems and methods of unmixing images with varying acquisition properties
US20240029266A1 (en) Characterization platform for scalable, spatially-resolved multispectral analysis of tissue
WO2022066725A1 (en) Training end-to-end weakly supervised networks in a multi-task fashion at the specimen (supra-image) level
US11989959B2 (en) Method and computer program for clustering large multiplexed spatially resolved data of a biological sample
Geurts et al. Visual comparison of 3D medical image segmentation algorithms based on statistical shape models
Mascalchi et al. Which elements to build Co-localization workflows? From metrology to analysis
CN116075852A (zh) 图像解析装置
JP5910637B2 (ja) 生体画像解析システム、生体画像解析方法および生体画像解析プログラム
Santiago et al. Advances in geometric techniques for analyzing blebbing in chemotaxing Dictyostelium cells
JP7786497B2 (ja) 画像解析装置
Du et al. Classification of normal and apoptotic cells from fluorescence microscopy images using generalized polynomial chaos and level set function
Reyes et al. Comparative analysis of stained normalization in H&E histopathological images of breast cancer for nuclei segmentation improvement
Shivanna et al. Deep Learning based Diagnosis of Jaw Cyst using Hematoxylin and Eosin Stained Incisional Biopsies Microscopic Images
Selaru et al. NLTD 2.0: A Nonlinear Framework for Robust and Customizable Color Deconvolution in Histopathology
Odeh et al. FibroTrack: A Standalone Deep Learning Platform for Automated Fibrosis Quantification in Muscle and Cardiac Histology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200110

R150 Certificate of patent or registration of utility model

Ref document number: 6646552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350