JP2020054581A - 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム - Google Patents

疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム Download PDF

Info

Publication number
JP2020054581A
JP2020054581A JP2018186790A JP2018186790A JP2020054581A JP 2020054581 A JP2020054581 A JP 2020054581A JP 2018186790 A JP2018186790 A JP 2018186790A JP 2018186790 A JP2018186790 A JP 2018186790A JP 2020054581 A JP2020054581 A JP 2020054581A
Authority
JP
Japan
Prior art keywords
image
learning
unit
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018186790A
Other languages
English (en)
Other versions
JP7098498B2 (ja
Inventor
赤堀 貞登
Sadataka Akahori
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018186790A priority Critical patent/JP7098498B2/ja
Priority to US16/584,866 priority patent/US11176413B2/en
Publication of JP2020054581A publication Critical patent/JP2020054581A/ja
Application granted granted Critical
Publication of JP7098498B2 publication Critical patent/JP7098498B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラムにおいて、疾患の正解領域を示すデータを多く用意することが困難な画像であっても、限られたデータを用いて疾患領域を精度よく判別する。【解決手段】判別器は、共通学習部と、共通学習部の出力部に接続された複数の学習部と、を備える。疾患を発症している被検体を撮影することにより得られた第1の画像及び第1の画像における疾患領域の正解マスクのデータセットを複数用いて、第1の画像を共通学習部へ入力した場合に、第1の学習部から疾患領域を示す情報が出力されるように学習させる。第1の画像及び第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、第2の学習部の出力部から第2の画像の推定画像が出力されるように学習させる。【選択図】図2

Description

本開示は、疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラムに関する。
近年、CT(Computed Tomography)装置及びMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。特に、対象部位を脳とした場合においては、CT画像及びMR画像等を用いた画像診断により、脳梗塞及び脳出血等の脳の血管障害を起こしている領域を特定することができる。このため、画像診断を支援するための各種手法が提案されている。
例えば、特許文献1においては、MRIの拡散強調画像(DWI:Diffusion Weighted Image)に含まれる脳梗塞部位を検出し、拡散強調画像の異常部位と健常者の拡散強調画像とから、両者の解剖学的位置合わせに必要な位置変換データを取得し、患者の脳の各組織位置が健常者の脳の各組織位置に合致するように、位置変換データを用いて、SPECT(Single Photon Emission Computed Tomography)装置で撮影されたSPECT画像を変換し、SPECT画像上で脳梗塞部位を判別する手法が提案されている。また、特許文献2においては、MR画像を入力し、入力されたMR画像に機械学習による変換を適用してCT画像を生成し、生成したCT画像を含めた複数のモダリティの画像を用いて診断を行う手法が提案されている。
また、特許文献3においては、入力層と中間層と出力層とを有する第1及び第2のニューラルネットワークを備え、第1のニューラルネットワークのうちの入力層から中間層までの出力を、第2のニューラルネットワークの入力層に入力するように結合した判別装置が提案されている。特許文献3に記載の判別装置においては、第1のニューラルネットワークに入力される画像データに基づいて、画像データの領域属性についての判別結果が出力される。このような判別装置を用いることにより、上述したような医用画像に含まれる特定の医学的特徴を判別することが可能となる。
ところで、脳梗塞患者に対しては、アルテプラーゼという治療薬を使った血栓溶解療法が行われる。血栓溶解療法においては、脳梗塞の未発症が確認された時刻から4.5時間以内が適用対象であり、時間の経過により梗塞領域が広がるほど、治療後に出血が生じるリスクが高くなることが知られている。このため、血栓溶解療法の適否を判断するためには、医用画像を用いて梗塞領域を迅速かつ適切に判別することが必要である。
特開2013−165765号公報 特表2018−505705号公報 特開平8−251404号公報
一方、梗塞領域がすでに広範囲である場合には出血が生じる可能性が高くなることが知られている。しかしながら、CT画像上で梗塞領域を的確に捉えることは、専門医であっても難易度が高く、計算機による梗塞領域の自動抽出と定量化が望まれている。そこで、梗塞領域を自動抽出する方法として、近年注目されている深層学習を応用することができる。深層学習を用いるには、CT画像とCT画像における梗塞の正解領域とのデータセットを複数含む学習情報が必要になる。しかしながら、CT画像上において梗塞領域は必ずしも鮮明ではないため、CT画像における梗塞の正解領域を示すデータを多く用意することは困難である。
本開示は上記事情に鑑みなされたものであり、疾患の正解領域を示すデータを多く用意することが困難な画像であっても、限られたデータを用いて疾患領域を精度よく判別することを目的とする。
本開示の学習方法は、入力部及び出力部を有する共通学習部と、各々入力部及び出力部を有し、各々の入力部が共通学習部の出力部に接続された複数の学習部と、を備えた判別器を学習させる学習方法であって、
疾患を発症している被検体を撮影することにより得られた第1の画像及びこの第1の画像において疾患が現れた疾患領域の正解マスクのデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、複数の学習部のうちの第1の学習部の出力部から疾患領域を示す情報が出力されるように学習させ、
かつ、第1の画像及び被検体と同一の被検体を撮影することにより得られた第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、複数の学習部のうちの第2の学習部の出力部から第2の画像の推定画像が出力されるように学習させる。
ここで、本開示においては、例えば同じCT画像であっても、被検体に造影剤が投与されて取得されたCT画像と被検体に造影剤が投与されずに取得されたCT画像とでは「異なる種類の画像」とする。すなわち、少しでも異なる撮影条件で撮影されて取得された画像であれば「異なる種類の画像」とする。また、CT画像、MR画像、及びPET(Positron Emission Tomography)画像等、異なる撮影原理により取得された画像も「異なる種類の画像」とする。
なお、本開示の学習方法においては、第1の画像と第2の画像は、撮影条件が異なる画像であってもよい。
ここで、本開示において「撮影条件」は、被検体に造影剤が投与されているか否か、X線照射条件、スライス幅等、撮影時の各種条件を意味する。
また、本開示の学習方法においては、第1の画像と第2の画像は、撮影原理が異なる画像であってもよい。
ここで、本開示において「撮影原理」は、CT撮影、MR撮影、及びPET撮影等の撮影行う際の撮影方法を意味する。
また、本開示の学習方法においては、第1の画像がCT画像であり、第2の画像がMR画像であってもよい。
また、本開示の学習方法においては、MR画像が拡散強調画像であってもよい。
また、本開示の学習方法においては、被検体が脳梗塞を発症している患者の脳であり、疾患領域が梗塞領域であってもよい。
また、本開示の学習方法においては、共通学習部及び複数の学習部の各々は、入力部としての入力層、複数の中間層、及び出力部としての出力層を備えたニューラルネットワークであってもよい。
なお、本開示による学習方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示の学習装置は、入力部及び出力部を有する共通学習部と、各々入力部及び出力部を有し、各々の入力部が共通学習部の出力部に接続された複数の学習部と、を備えた判別器を学習させる学習装置であって、
疾患を発症している被検体を撮影することにより得られた第1の画像及びこの第1の画像において疾患が現れた疾患領域の正解マスクのデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、複数の学習部のうちの第1の学習部の出力部から疾患領域を示す情報が出力されるように学習させ、
かつ、第1の画像及び上記被検体と同一の被検体を撮影することにより得られた第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、複数の学習部のうちの第2の学習部の出力部から第2の画像の推定画像が出力されるように学習させる。
本開示による他の学習装置は、入力部及び出力部を有する共通学習部と、各々入力部及び出力部を有し、各々の入力部が共通学習部の出力部に接続された複数の学習部と、を備えた判別器を学習させる学習装置であって、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
疾患を発症している被検体を撮影することにより得られた第1の画像及びこの第1の画像において疾患が現れた疾患領域の正解マスクのデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、複数の学習部のうちの第1の学習部の出力部から疾患領域を示す情報が出力されるように学習させ、
かつ、第1の画像及び上記被検体と同一の被検体を撮影することにより得られた第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、第1の画像を共通学習部の入力部へ入力した場合に、複数の学習部のうちの第2の学習部の出力部から第2の画像の推定画像が出力されるように学習させる処理を実行する。
本開示の判別器は、本開示の上記学習方法、上記学習装置、及び上記学習プログラムの何れかにより学習がなされた判別器である。
本開示の疾患領域判別装置は、判別対象の第1の画像を取得する画像取得部と、
判別対象の第1の画像における疾患領域を判別する、本開示の判別器とを備える。
なお、本開示の疾患領域判別装置においては、判別器による判別結果を表示部に表示させる表示制御部をさらに備えてもよい。
本開示の疾患領域判別プログラムは、判別対象の第1の画像を取得する手順と、
本開示の判別器により、判別対象の第1の画像における疾患領域を判別する手順とをコンピュータに実行させる。
本開示の他の疾患領域判別装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
判別対象の第1の画像を取得し、
本開示の判別器により、判別対象の第1の画像における疾患領域を判別する処理を実行する。
本開示の疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラムによれば、疾患の正解領域を示すデータを多く用意することが困難な画像であっても、限られたデータを用いて疾患領域を精度よく判別することができる。
本開示の一実施形態である疾患領域判別装置を適用した、診断支援システムの概要を示すハードウェア構成図 本開示の一実施形態である疾患領域判別装置の構成を示す概略ブロック図 CT画像と梗塞領域とのデータセットを説明するための図 CT画像とMR画像とのデータセットを説明するための図 判別器の構成を示す概略図 MR推定画像の一例を示す図 判別対象の脳のCT画像を示す図 表示された脳のCT画像を示す図 学習時に行われる処理を示すフローチャート 梗塞領域の判別時に行われる処理を示すフローチャート
以下、図面を参照して本開示の第1の実施形態について説明する。図1は、本開示の実施形態による判別器の学習装置、判別器及び疾患領域判別装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による疾患領域判別装置1、3次元画像撮影装置2、及び画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。なお、疾患領域判別装置1には、本実施形態による学習装置及び判別器が内包される。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、及びPET装置等である。この3次元画像撮影装置2により生成された医用画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置2A及びMRI装置2Bである。そして、CT装置2Aにおいて、被検体の脳を含む3次元のCT画像Bc0を生成し、MRI装置2Bにおいて、被検体の脳を含む3次元のMR画像Bm0を生成する。なお、本実施形態においては、MR画像Bm0は、拡散強調画像とする。また、本実施形態においては、CT画像Bc0は、造影剤を使用しないで撮影を行うことにより取得される非造影CT画像とするが、造影剤を使用して撮影を行うことにより取得した造影CT画像を用いてもよい。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置及びデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成されたCT画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式及びネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
疾患領域判別装置1は、1台のコンピュータに、本開示の学習プログラム及び疾患領域判別プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーション又はパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。学習プログラム及び疾患領域判別プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。又は、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに学習プログラム及び疾患領域判別プログラムをインストールすることにより実現される本開示の一実施形態である疾患領域判別装置の概略構成を示す図である。図2に示すように、疾患領域判別装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12及びストレージ13を備えている。また、疾患領域判別装置1には、液晶ディスプレイ等からなる表示部14、並びにキーボード及びマウス等からなる入力部15が接続されている。入力部15は、ユーザによる種々の設定入力を受け付ける。なお、タッチパネルを用いることによって表示部14と入力部15とを兼用するようにしてもよい。
ストレージ13は、ハードディスクドライブ及びSSD(Solid State Drive)等からなる。ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した、被検体の医用画像、並びに処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、学習プログラム及び疾患領域判別プログラムが記憶されている。学習プログラムは、後述する第1CNN(Convolutional Neural Network)31(共通学習部)と、後述する第2CNN32(第1の学習部)及び第3CNN33(第2の学習部)とを備えた判別器23を学習させる学習プログラムであって、CPU11に実行させる処理として、梗塞を発症している脳を撮影することにより得られたCT画像及びCT画像において梗塞が現れた梗塞領域の正解マスクのデータセットを複数用いて、CT画像を第1CNN31の入力部へ入力した場合に、第2CNN32の出力部から梗塞領域を示す情報が出力されるように学習させる処理、及びCT画像及び上記脳と同一の脳を撮影することにより得られたCT画像とは異なる種類のMR画像(拡散強調画像を含む)とを位置合わせした画像の組のデータセットを複数用いて、CT像を第1CNN31の入力部へ入力した場合に第3CNN33の出力部から拡散強調画像の推定画像が出力されるように学習させる処理を規定する。
また、疾患領域判別プログラムは、CPU11に実行させる処理として、判別対象のCT画像を取得する画像取得処理、判別対象のCT画像における梗塞領域を判別する判別処理、及び判別器23による判別結果を表示部14に表示する表示制御処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、学習部22、判別器23及び表示制御部24として機能する。ここで、学習部22が、本実施形態の判別器23の学習装置を構成する。また、画像取得部21、判別器23及び表示制御部24が、本実施形態の疾患領域判別装置を構成する。
画像取得部21は、後述する判別器23の学習のために、脳梗塞を発症している被検体の脳のCT画像Bc0及びMR画像Bm0を画像保管サーバ3から取得する。また、梗塞領域の判別のために、梗塞領域の判別対象となるCT画像Bc1を画像保管サーバ3から取得する。なお、CT画像Bc0、CT画像Bc1及びMR画像Bm0が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13からCT画像Bc0、CT画像Bc1及びMR画像Bm0を取得するようにしてもよい。また、画像取得部21は、後述する判別器23の学習のために、多数の被検体についてのCT画像Bc0及びMR画像Bm0を取得する。
学習部22は、判別器23を学習させる。図3はCT画像Bc0と梗塞領域A1とのデータセットを説明するための図、図4はCT画像とMR画像との位置合わせを説明するための図である。なお、図3において、CT画像Bc0は3次元画像であるが、ここでは説明のため、CT画像Bc0の1つの断層面における2次元の断層画像を用いて説明する。また、図4において、CT画像Bc0およびMR画像Bm0はともに3次元画像であるが、ここでは説明のため、CT画像Bc0およびMR画像Bm0の対応する1つの断層面における2次元の断層画像を用いて説明する。
学習部22は、図3に示すように、CT画像Bc0とCT画像Bc0において特定された梗塞領域A1とのデータセットを教師データとして、入力されたCT画像Bc1における梗塞領域を判別する判別器23を学習する。また、学習部22は、図4に示すように、位置合わせがなされたCT画像Bc0及びMR画像Bm0の画像の組のデータセットを教師データとして、入力されたCT画像Bc1と同一の被検体を撮影することにより得られたMR画像を推定したMR推定画像Dm1を出力するように判別器23を学習する。
ここで、CT画像Bc0とMR画像Bm0との位置合わせは、学習部22に備えられた位置合わせ部(図示せず)によって行うことができる。位置合わせ部は、画像取得部21により取得された多数の被検体についてのCT画像Bc0及びMR画像Bm0に対して、CT画像Bc0とMR画像Bm0との位置合わせを行う。図4に示すように、同一被検体においては、脳の形状は略同一となる。一方、MR画像Bm0においては、梗塞領域が他の領域と比較して大きい画素値(高い信号値)を有するものとなる。なお、CT画像Bc0は、拡散強調画像であるMR画像Bm0とは異なり、頭蓋骨および脳実質を含んでいる。このため、位置合わせ部22Bは、CT画像Bc0から脳実質の領域を脳領域として抽出し、抽出した脳領域とMR画像Bm0との位置合わせを行う。
本実施形態において、位置合わせ部は、剛体位置合わせにより、CT画像Bc0およびMR画像Bm0のいずれか一方を他方に対して位置合わせする。本実施形態においては、CT画像Bc0をMR画像Bm0に対して位置合わせするものとするが、MR画像Bm0をCT画像Bc0に対して位置合わせするようにしてもよい。なお、位置合わせとしては非剛体位置合わせを用いてもよい。非剛体位置合わせとしては、例えばBスプラインおよびシンプレートスプライン等の関数を用いて、CT画像Bc0における特徴点をMR画像Bm0における特徴点に対応する対応点に非線形に変換することによる手法を用いることができるが、これに限定されるものではない。
なお、本実施形態においては、位置合わせ部は学習部22に備えられているが、本開示はこれに限られず、例えば疾患領域判別装置1が新たに位置合わせ部を備えていてもよいし、疾患領域判別装置1とは別に新たに位置合わせ部を備えていてもよい。
次に、判別器23について説明する。判別器23は、CT画像Bc1における疾病領域を判別する。本実施形態においては、一例として疾病領域を梗塞領域とする。本実施形態においては、判別器23は、複数の処理層が階層的に接続され、深層学習(ディープラーニング)がなされた多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(以下CNNとする)を複数含むものとする。
図5は本実施形態における判別器23の構成を示す概略図である。図5に示すように、判別器23は、第1CNN31、第2CNN32、及び第3CNN33を有する。第1CNN31、第2CNN32、及び第3CNN33は、各々入力部としての入力層31a,32a,33a及び出力部としての出力層31b,32b,33bを含む複数の処理層を有して構成されている。第1CNN31の出力層31bは、第2CNN32の入力層32a及び第3CNN33の入力層33aと接続されている。なお、第1CNN31は本開示の共通学習部、第2CNN32は本開示の第1の学習部、第3CNN33は本開示の第2の学習部にそれぞれ対応する。
第1CNN31、第2CNN32及び第3CNN33が有する処理層は、畳み込み層及びプーリング層の少なくとも一方を含む。畳み込み層は、入力される画像に対して各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴量データからなる特徴量マップを出力する。カーネルは、n×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。具体的には、CT画像Bc1又は特徴量マップといった2次元画像のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層は、カーネルの注目画素をずらしながら、CT画像Bc1又は特徴量マップの全体にカーネルを適用する。さらに、畳み込み層は、畳み込みされた値に対してシグモイド関数等の活性化関数を適用し、特徴量マップを出力する。
プーリング層は、畳み込み層が出力した特徴量マップをプーリングすることにより、特徴量マップのデータ量を低減して、データ量が低減された特徴量マップを出力する。
なお、本実施形態においては、2次元のカーネルを用いた畳み込み処理を使用したが、本開示の技術はこれに限られず、3次元フィルタを使用した畳み込み処理を使用することができる。例えば、3次元のカーネルを使用する場合、カーネルはn×n×nボクセルサイズ(例えばn=3)を有し、各要素に重みが設定される。
本実施形態において、第1CNN31及び第2CNN32は、梗塞領域を含む多数の脳のCT画像Bc0とCT画像CT画像Bc0において特定された梗塞領域A1とのデータセットを教師データとして使用して、入力されたCT画像Bc1に含まれる各画素についての梗塞領域の判別結果R1を出力するように学習がなされている。これにより、第1CNN31の入力層31aにCT画像Bc1が入力されると、第1CNN31及び第2CNN32の複数の処理層において、前段の処理層から出力された特徴量マップが次段の処理層に順次入力され、CT画像Bc1における各画素についての梗塞領域の判別結果R1が第2CNN32の出力層32bから出力される。なお、第2CNN32が出力する判別結果R1は、CT画像Bc1の各画素が梗塞領域であるか梗塞領域以外の領域であるかを判別した結果となる。
また、第1CNN31及び第3CNN33は、多数の脳のCT画像Bc0と、CT画像Bc0と同一の被写体を撮影することにより得られたMR画像Bm0とを位置合わせした画像の組のデータセットを教師データとして使用して、入力されたCT画像Bc1に含まれる被検体と同一の被検体を撮影することにより得られたMR画像を推定したMR推定画像Dm1を判別結果R2として出力するように学習がなされている。
一般的に脳のCT画像Bc1においては、梗塞領域と他の領域との信号値の相違はそれほど大きくないため、CT画像Bc1を用いて梗塞領域を抽出することは、困難であることが多い。一方、拡散強調画像であるMR画像は、頭蓋骨が描出されず脳実質等の軟部組織のみを含む画像(図5の右図のMR画像Bm0参照)であり、梗塞領域は他の領域と比較して大きい画素値(高い信号値)を有する。そこで、学習部22は、CT画像Bc1に基づいて脳のMR画像を推定したMR推定画像Dm1を出力できるように判別器23を学習させることにより、MRの画素値と、CT画像における画像特徴との関係を捉えることを可能にする。図6はMR推定画像Dm1の一例を示す図である。なお、MR推定画像Dm1は3次元画像であるが、ここでは説明のため、MR推定画像Dm1の対応する1つの断層面における2次元の断層画像を用いて説明する。図6に示すように、拡散強調画像であるMR画像の推定画像であるMR推定画像Dm1は、頭蓋骨が描出されず脳実質等の軟部組織のみを含む画像となる。
以上により、第1CNN31の入力層31aにCT画像Bc1が入力されると、第1CNN31及び第3CNN33の複数の処理層において、前段の処理層から出力された特徴量マップが次段の処理層に順次入力され、判別結果R2としてのMR推定画像Dm1が第3CNN33の出力層33bから出力される。
本実施形態においては、第1CNN31の出力層31bから出力された特徴量マップが、第2CNN32の入力層32aと第3CNN33の入力層33aの両方に入力される。すなわち、第1CNN31においては、梗塞領域を判別する場合とMR推定画像を出力する場合の両方において、共通の特徴量マップが出力される。
MR画像において梗塞領域は大きい画素値を有することから、CT画像からMR画像を推定する際に重要な画像特徴と、CT画像から梗塞領域を抽出する際に重要な画像特徴とは共通性が高いと考えることができる。したがって、本実施形態においては、第2CNN32及び第3CNN33の入力層32a,33aには、第1CNN31の出力層31bから出力された共通の特徴量マップが入力される。そして、第2CNN32の出力層32bからは、CT画像Bc1における梗塞領域の判別結果R1が出力され、第3CNN33の出力層33bからは、判別結果R2としてCT画像Bc1に基づいたMR推定画像Dm1が出力されることとなる。
図7は判別対象の脳のCT画像Bc1を示す図である。なお、CT画像Bc1は3次元画像であるが、ここでは説明のため、CT画像Bc1の対応する1つの断層面における2次元の断層画像を用いて説明する。一例として図7に示すように、非造影CTのCT画像Bc1においては、梗塞領域の描出は淡く、正解領域を示すデータを多く用意することは困難である。本実施形態においては、第1CNN31において、梗塞の正解領域を示すデータだけではなく、CT画像Bc1からMR推定画像Dm1を推定するタスクが学習されている。すなわち、第2CNN32から出力される梗塞領域の判別結果R1には、梗塞だけではなく、MR推定画像Dm1を推定するための知識が反映されていることとなり、判別結果の精度が向上する。
表示制御部24は、梗塞領域が判別された脳画像を表示部14に表示する。図8は表示された脳のCT画像を示す図である。なお、図8においては、CT画像Bc1の1つの断層面のスライス画像を示している。CT画像Bc1において判別された梗塞領域A1は、図8に示すように、線で囲まれて表示されている。なお、表示制御部24は、梗塞領域A1を網掛で表示させる、梗塞領域A1に特定の色を付与する、梗塞領域A1に矢印を付与する、及び梗塞領域A1を他の領域とは異ならせて強調して表示する等、任意の態様を用いて表示部14に表示することができる。
次いで、本実施形態において行われる処理について説明する。図9は本実施形態において学習時に行われる処理を示すフローチャートである。まず、画像取得部21が、脳梗塞を発症している被検体の脳のCT画像Bc0及びMR画像Bm0を取得する(ステップST1)。次いで、学習部22は、CT画像Bc0において特定された梗塞領域を教師データとして、入力されたCT画像Bc1における梗塞領域を判別するように判別器23を学習させ、かつ、位置合わせがなされたCT画像Bc0及びMR画像Bm0の画像の組のデータセットを教師データとして、入力されたCT画像Bc1からMR推定画像Dm1が出力されるように判別器23を学習させて(ステップST2)、処理を終了する。
図10は本実施形態において梗塞領域の判別時に行われる処理を示すフローチャートである。まず、画像取得部21が、判別対象となるCT画像Bc1を取得し(ステップST21)、判別器23が判別対象のCT画像Bc1における梗塞領域を判別する(ステップST22)。そして、表示制御部24が、梗塞領域が判別されたCT画像Bc1を表示部14に表示し(ステップST23)、処理を終了する。
このように、本実施形態においては、判別器23の第1CNN31及び第2CNN32によりCT画像Bc1における梗塞領域が判別され、第1CNN31及び第3CNN33により、CT画像Bc1からMR推定画像Dm1を推定する処理が行われる。この際、第1CNN31の出力層31bから出力された特徴量マップが、第2CNN32の入力層32aと第3CNN33の入力層33aの両方に入力される。すなわち、第1CNN31においては、梗塞領域を判別する場合とMR推定画像Dm1を推定する場合の両方において、共通の特徴量マップが出力される。
このため、第1CNN31において、梗塞の正解領域を示すデータだけではなく、MR推定画像を推定するタスクを用いて学習がなされている。すなわち、第2CNN32から出力される梗塞領域の判別結果には、梗塞だけではなく、MR推定画像を推定するための知識が反映されていることとなるので、判別結果の精度が向上する。従って、本実施形態においては、疾患の正解領域を示すデータを多く用意することが困難な画像であっても、限られたデータを用いて疾患領域を精度よく判別することができる。
なお、上記実施形態においては、本開示の複数の学習部として2つのCNN32,33を備えているが、本開示の技術はこれに限られず、2つ以上のCNNを備えていればいくつ備えていてもよい。例えば、CT画像から梗塞領域を抽出するために使用可能な、例えばPET画像、超音波画像、T1画像、及びT2画像等から梗塞領域を抽出するために学習部をさらに備えることができる。
また、上記実施形態においては、疾患を梗塞としたが、本開示の技術はこれに限られず、例えば疾患は血栓及び出血等であってもよい。
また、上記実施形態においては、本開示の第1の画像としてCT画像を用いているが、本開示の技術はこれに限定されるものではなく、本開示の第1の画像は例えばPET画像、超音波画像、T1画像、T2画像、及び拡散強調画像等の他の医用画像であってもよい。また、本開示の第2の画像として拡散強調画像を用いているが、本開示の技術はこれに限定されるものではなく、本開示の第2の画像は第1の画像と異なる画像であれば、例えばPET画像、超音波画像、T1画像、及びT2画像等の他の医用画像であってもよい。なお、第1の画像は撮影が容易であるが、疾患領域の判別が第2の画像よりも困難である画像、第2の画像は撮影は第1の画像を取得する場合よりも困難であるが、疾患領域の判別が第1の画像よりも容易である画像とすると、本開示の技術による効果がより高められる。
また、上記実施形態においては、医用画像として脳画像を用いているが、これに限定されるものではない。例えば、人体の胸部、腹部、全身及び四肢等の医用画像に含まれる医学的特徴を判別する場合にも、本開示を適用することができる。
また、上記実施形態においては、各CNNとして畳み込みニューラルネットワークを用いているが、これに限定されるものではない。複数の処理層から構成されるニューラルネットワークであれば、ディープニューラルネットワーク(DNN(Deep Neural Network))及びリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等を用いることができる。また、全てのニューラルネットワークが同一のニューラルネットワークでなくてもよい。例えば、第1CNN31を畳み込みニューラルネットワークとし、その他のCNNをリカレントニューラルネットワークとしてもよい。CNNの種類については適宜変更することができる。
また、上記実施形態においては、本開示の共通学習部である第1CNN31以外のCNNは互いに接続されていないが、本開示の技術は、第1CNN31以外のCNNについても各々が接続していてもよい。
また、上記実施形態においては、CT画像Bc1,Bc0として、非造影CT画像を用いているが、造影CT画像及び非造影CT画像の双方を判別器23の学習に用いるようにしてもよい。このように学習された判別器23を用いることにより、判別対象のCT画像が造影CT画像及び非造影CT画像のいずれであっても、疾患領域を判別できることとなる。
また、上述した実施形態において、例えば、画像取得部21、学習部22、判別器23、及び表示制御部24といった各種の処理を実行する処理部(Processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 疾患領域判別装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 表示部
15 入力部
21 画像取得部
22,22−2 学習部
23 判別器
24 表示制御部
31 第1CNN(共通学習部)
32 第2CNN(第1の学習部)
33 第3CNN(第2の学習部)
A1 梗塞領域
Bc1 判別対象のCT画像
Bc0 梗塞領域を含むCT画像
Bm0 梗塞領域を含むMR画像
Dm1 推定MR画像

Claims (13)

  1. 入力部及び出力部を有する共通学習部と、各々入力部及び出力部を有し、各々の入力部が前記共通学習部の出力部に接続された複数の学習部と、を備えた判別器を学習させる学習方法であって、
    疾患を発症している被検体を撮影することにより得られた第1の画像及び該第1の画像において疾患が現れた疾患領域の正解マスクのデータセットを複数用いて、前記第1の画像を前記共通学習部の入力部へ入力した場合に、前記複数の学習部のうちの第1の学習部の出力部から前記疾患領域を示す情報が出力されるように学習させ、
    かつ、前記第1の画像及び前記被検体と同一の被検体を撮影することにより得られた前記第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、前記第1の画像を前記共通学習部の入力部へ入力した場合に、前記複数の学習部のうちの第2の学習部の出力部から前記第2の画像の推定画像が出力されるように学習させる学習方法。
  2. 前記第1の画像と前記第2の画像は、撮影条件が異なる画像である請求項1に記載の学習方法。
  3. 前記第1の画像と前記第2の画像は、撮影原理が異なる画像である請求項1に記載の学習方法。
  4. 前記第1の画像がCT画像であり、前記第2の画像がMR画像である請求項1に記載の学習方法。
  5. 前記MR画像が拡散強調画像である請求項4に記載の学習方法。
  6. 被検体が脳梗塞を発症している患者の脳であり、前記疾患領域が梗塞領域である請求項1から5の何れか1項に記載の学習方法。
  7. 前記共通学習部及び前記複数の学習部の各々は、前記入力部としての入力層、複数の中間層、及び前記出力部としての出力層を備えたニューラルネットワークである請求項1から6の何れか1項に記載の学習方法。
  8. 入力部及び出力部を有する共通学習部と、各々入力部及び出力部を有し、各々の入力部が前記共通学習部の出力部に接続された複数の学習部と、を備えた判別器を学習させる学習装置であって、
    疾患を発症している被検体を撮影することにより得られた第1の画像及び該第1の画像において疾患が現れた疾患領域の正解マスクのデータセットを複数用いて、前記第1の画像を前記共通学習部の入力部へ入力した場合に、前記複数の学習部のうちの第1の学習部の出力部から前記疾患領域を示す情報が出力されるように学習させ、
    かつ、前記第1の画像及び前記被検体と同一の被検体を撮影することにより得られた前記第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、前記第1の画像を前記共通学習部の入力部へ入力した場合に、前記複数の学習部のうちの第2の学習部の出力部から前記第2の画像の推定画像が出力されるように学習させる学習装置。
  9. 入力部及び出力部を有する共通学習部と、各々入力部及び出力部を有し、各々の入力部が前記共通学習部の出力部に接続された複数の学習部と、を備えた判別器を学習させる学習プログラムであって、
    疾患を発症している被検体を撮影することにより得られた第1の画像及び該第1の画像において疾患が現れた疾患領域の正解マスクのデータセットを複数用いて、前記第1の画像を前記共通学習部の入力部へ入力した場合に、前記複数の学習部のうちの第1の学習部の出力部から前記疾患領域を示す情報が出力されるように学習させる手順と、
    前記第1の画像及び前記被検体と同一の被検体を撮影することにより得られた前記第1の画像とは異なる種類の第2の画像とを位置合わせした画像の組のデータセットを複数用いて、前記第1の画像を前記共通学習部の入力部へ入力した場合に、前記複数の学習部のうちの第2の学習部の出力部から前記第2の画像の推定画像が出力されるように学習させる手順とをコンピュータに実行させる学習プログラム。
  10. 請求項1から7何れか1項に記載の学習方法、請求項8に記載の学習装置、及び請求項9に記載の学習プログラムの何れかにより学習がなされた判別器。
  11. 判別対象の第1の画像を取得する画像取得部と、
    前記判別対象の第1の画像における疾患領域を判別する、請求項10に記載の判別器とを備えた疾患領域判別装置。
  12. 前記判別器による判別結果を表示部に表示させる表示制御部をさらに備えた請求項11に記載の疾患領域判別装置。
  13. 判別対象の第1の画像を取得する手順と、
    請求項10に記載の判別器により、前記判別対象の第1の画像における疾患領域を判別する手順とをコンピュータに実行させる疾患領域判別プログラム。
JP2018186790A 2018-10-01 2018-10-01 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム Active JP7098498B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018186790A JP7098498B2 (ja) 2018-10-01 2018-10-01 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
US16/584,866 US11176413B2 (en) 2018-10-01 2019-09-26 Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186790A JP7098498B2 (ja) 2018-10-01 2018-10-01 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020054581A true JP2020054581A (ja) 2020-04-09
JP7098498B2 JP7098498B2 (ja) 2022-07-11

Family

ID=69947640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186790A Active JP7098498B2 (ja) 2018-10-01 2018-10-01 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム

Country Status (2)

Country Link
US (1) US11176413B2 (ja)
JP (1) JP7098498B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020062281A (ja) * 2018-10-18 2020-04-23 富士フイルム医療ソリューションズ株式会社 情報処理システム及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
JP2017520305A (ja) * 2014-06-30 2017-07-27 ウニヴェルズィテート・ベルンUniversitat Bern 急性脳虚血患者における組織領域の区分法及び予測法
WO2018048507A1 (en) * 2016-09-06 2018-03-15 Han Xiao Neural network for generating synthetic medical images

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251404A (ja) 1995-03-13 1996-09-27 Minolta Co Ltd 画像領域属性判別方法及び装置
JP5989354B2 (ja) 2012-02-14 2016-09-07 東芝メディカルシステムズ株式会社 画像診断支援装置及び画像診断支援装置の作動方法
US9275308B2 (en) * 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US9700219B2 (en) * 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US9668699B2 (en) * 2013-10-17 2017-06-06 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
KR102294734B1 (ko) * 2014-09-30 2021-08-30 삼성전자주식회사 영상 정합 장치, 영상 정합 방법 및 영상 정합 장치가 마련된 초음파 진단 장치
US10438380B2 (en) 2014-12-10 2019-10-08 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning
US10452813B2 (en) * 2016-11-17 2019-10-22 Terarecon, Inc. Medical image identification and interpretation
EP3392832A1 (en) * 2017-04-21 2018-10-24 General Electric Company Automated organ risk segmentation machine learning methods and systems
EP3624056B1 (en) * 2018-09-13 2021-12-01 Siemens Healthcare GmbH Processing image frames of a sequence of cardiac images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017520305A (ja) * 2014-06-30 2017-07-27 ウニヴェルズィテート・ベルンUniversitat Bern 急性脳虚血患者における組織領域の区分法及び予測法
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
WO2018048507A1 (en) * 2016-09-06 2018-03-15 Han Xiao Neural network for generating synthetic medical images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
得居 誠也: "最適化から見たディープラーニングの考え方", オペレーションズ・リサーチ, vol. 2015年4月号, JPN6021050942, April 2015 (2015-04-01), JP, pages 191 - 197, ISSN: 0004666492 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020062281A (ja) * 2018-10-18 2020-04-23 富士フイルム医療ソリューションズ株式会社 情報処理システム及び情報処理方法
JP7097794B2 (ja) 2018-10-18 2022-07-08 富士フイルム医療ソリューションズ株式会社 情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
JP7098498B2 (ja) 2022-07-11
US11176413B2 (en) 2021-11-16
US20200104634A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7129869B2 (ja) 疾患領域抽出装置、方法及びプログラム
JP7018856B2 (ja) 医用画像処理装置、方法およびプログラム
JP7129870B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
US11049251B2 (en) Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
EP3550515A1 (en) Cross-modality image synthesis
JP2019149130A (ja) 医用画像表示装置、方法およびプログラム
WO2020158717A1 (ja) 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
JP6981940B2 (ja) 画像診断支援装置、方法及びプログラム
JP6945493B2 (ja) 医用画像処理装置、方法およびプログラム
WO2020054188A1 (ja) 医用画像処理装置、方法およびプログラム
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
WO2019216125A1 (ja) 梗塞領域を判別する判別器の学習装置、方法およびプログラム、梗塞領域を判別する判別器、並びに梗塞領域判別装置、方法およびプログラム
JP7098498B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
CA3034814C (en) System and method for using imaging quality metric ranking
JPWO2019208130A1 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
JP2019213785A (ja) 医用画像処理装置、方法およびプログラム
JP2020068881A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2021187483A1 (ja) 文書作成支援装置、方法およびプログラム
JP7064430B2 (ja) 優先度判定装置、方法およびプログラム
JP2021175454A (ja) 医用画像処理装置、方法およびプログラム
JP7361930B2 (ja) 医用画像処理装置、方法およびプログラム
WO2020262681A1 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
US20240037738A1 (en) Image processing apparatus, image processing method, and image processing program
US20230022549A1 (en) Image processing apparatus, method and program, learning apparatus, method and program, and derivation model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150