JP2018175227A - 医用画像表示装置、方法およびプログラム - Google Patents

医用画像表示装置、方法およびプログラム Download PDF

Info

Publication number
JP2018175227A
JP2018175227A JP2017077361A JP2017077361A JP2018175227A JP 2018175227 A JP2018175227 A JP 2018175227A JP 2017077361 A JP2017077361 A JP 2017077361A JP 2017077361 A JP2017077361 A JP 2017077361A JP 2018175227 A JP2018175227 A JP 2018175227A
Authority
JP
Japan
Prior art keywords
case
images
change
mapping
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017077361A
Other languages
English (en)
Other versions
JP2018175227A5 (ja
Inventor
大沢 哲
Satoru Osawa
哲 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017077361A priority Critical patent/JP2018175227A/ja
Priority to US15/943,002 priority patent/US10980493B2/en
Priority to DE102018108153.7A priority patent/DE102018108153A1/de
Publication of JP2018175227A publication Critical patent/JP2018175227A/ja
Publication of JP2018175227A5 publication Critical patent/JP2018175227A5/ja
Priority to JP2021051497A priority patent/JP7225295B2/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

【課題】医用画像表示装置、方法およびプログラムにおいて、間質性肺疾患等の疾患についての画像を用いて、経時比較観察を精度よく行うことができるようにする。
【解決手段】分類部22が、同一被写体についての撮影時期が異なる2つの3次元画像V0,V1のそれぞれに含まれる肺領域を複数種類の症例領域に分類し、マッピング画像生成部23が、分類された各症例領域をラベリングすることにより、3次元画像V0,V1のそれぞれに対応する複数のマッピング画像M0,M1を生成する。変化算出部25が、マッピング画像M0,M1における対応する位置の症例領域について、この症例領域の重心位置を算出し、マッピング画像M0,M1間における重心位置の移動量および移動方向を各症例領域の変化として算出する。表示制御部26が、変化に関する情報をディスプレイ14に表示する。
【選択図】図2

Description

本発明は、医用画像に含まれる複数種類の症例領域を識別して表示する医用画像表示装置、方法およびプログラムに関するものである。
被写体である患者の放射線画像および超音波画像を撮影することにより取得した医用画像を用いての画像診断が行われている。また、近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の3次元画像が画像診断に用いられるようになってきている。
ところで、肺の疾患として間質性肺炎が知られている。間質性肺炎の患者のCT画像を解析することにより、CT画像に含まれる蜂窩肺、網状影および嚢胞等の特定の症状を呈する病変を分類して定量化する手法が提案されている(非特許文献1,2参照)。このようにCT画像を解析して病変を分類して定量化することにより、肺の疾患の程度を容易に判定することができる。また、このように分類して定量化した領域にそれぞれ異なる色を割り当てることにより、特定の症状の領域がどの程度画像内に含まれているかを、容易に診断できることとなる。
一方、病気の治癒状況あるいは進行状況の診断を行うために、同一患者についての過去の医用画像を用いて経時比較観察を行う場合がある。例えば、撮影時期が異なる胸部の放射線画像の差分画像を求め、差分画像において、経時変化部分に対応する部分をラベリング処理し、所定以上の大きさの経時変化領域を塗りつぶしパターン等で表現することにより、経時変化部分の強調度を高めて表示する手法が提案されている(特許文献1参照)。また、撮影時期が異なるCT画像について、対応する部位を位置合わせした上で、動画表示する手法も提案されている(特許文献2参照)。
また、3次元画像から注目する臓器等の構造物を抽出するためには、3次元画像において構造物を検出する必要がある。ここで、画像における注目する画素を複数のクラスに分類するために、深層学習(ディープラーニング)の手法が提案されている。ディープラーニングとは、複数の処理層が階層的に接続されることにより構築された多層ニューラルネットワークを用いた機械学習の手法である。
ディープラーニングにおいては、多層ニューラルネットワークの各層において、入力されるデータに対する前段の階層により得られる異なる複数の演算結果データ、すなわち特徴量の抽出結果データに対して演算処理を行う。そして、これにより得られる特徴量のデータに対して、次段以降の処理層においてさらなる演算処理を行うことにより、特徴量の認識率を向上させて、入力されたデータを複数のクラスに分類することができる。
このようなディープラーニングの手法を、上述した3次元画像に適用して、3次元画像の各画素を複数のクラスに分類することが考えられる。例えば、3次元画像に含まれる複数種類の構造物を分類するに際し、3次元画像を入力として、3次元画像における処理対象となる画素を、複数種類の構造物のいずれに分類するように、ニューラルネットワークに対してディープラーニングを行う。このようにしてディープラーニングがなされたニューラルネットワークを用いることにより、入力された3次元画像の対象とする画素を、複数種類の構造物のいずれに分類することが可能となる。
特許3577680号公報 特許5661453号公報 Evaluation of computer-based computer tomography stratification against outcome models in connective tissue disease-related interstitial lung disease: a patient outcome study、Joseph Jacob1ら、BMC Medicine (2016) 14:190、DOI 10.1186/s12916-016-0739-7 コンピュータによる間質性肺炎のCT画像の定量評価、岩澤多恵、断層映像研究会雑誌 第41巻第2号、2014年8月
上述した間質性肺疾患についても、過去画像と最新の画像とにおけるマッピングの結果を用いて、経時比較観察を精度よく行うことが望まれている。しかしながら、間質性肺疾患は、複数の症状を呈する領域が肺の中に含まれるため、症状毎の領域の変化を精度よく表示して、経時比較観察を精度よく行うことは困難である。
本発明は、上記事情に鑑みなされたものであり、間質性肺疾患等の疾患についての画像を用いて、経時比較観察を精度よく行うことができるようにすることを目的とする。
本発明による第1の医用画像表示装置は、同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を、複数種類の症例領域に分類する分類手段と、
各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する、各症例領域に関するマッピング画像を生成するマッピング画像生成手段と、
複数のマッピング画像における対応する位置の症例領域について、対応する位置の症例領域の重心位置を算出し、複数のマッピング画像間における重心位置の移動量および移動方向の少なくとも一方を、複数のマッピング画像間における、分類された各症例領域の変化として算出する変化算出手段と、
変化に関する情報を表示手段に表示する表示制御手段とを備えたことを特徴とするものである。
なお、本発明による第1の医用画像表示装置においては、変化算出手段は、複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、さらに変化として算出するものであってもよい。
本発明による第2の医用画像表示装置は、同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類する分類手段と、
各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する複数のマッピング画像を生成するマッピング画像生成手段と、
複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、複数のマッピング画像間における、分類された各症例領域の変化として算出する変化算出手段と、
変化に関する情報を表示手段に表示する表示制御手段とを備えたことを特徴とするものである。
「症例領域」とは、対象領域内における特定の症状または特定の形態を呈する領域を意味する。このため、本実施形態においては、心臓および横隔膜等の特定の形態を呈する構造物そのものの領域も症例領域に含まれるものとする。
なお、本発明による第1および第2の医用画像表示装置においては、複数の医用画像の位置合わせを行い、位置合わせ結果に基づいて複数のマッピング画像の位置合わせを行う位置合わせ手段をさらに備えるものとしてもよい。
この場合、位置合わせ手段は、複数の医用画像のうち、撮影時期が最も古い医用画像に最も古い医用画像以外の医用画像の位置を合わせる第1の位置合わせ、撮影時期が最も新しい医用画像に最も新しい医用画像以外の医用画像の位置を合わせる第2の位置合わせ、および指定された医用画像に指定された医用画像以外の医用画像の位置を合わせる第3の位置合わせのうちの、指定された位置合わせを行うものであってもよい。
また、本発明による第1および第2の医用画像表示装置においては、分類手段は、複数種類の症例を分類するようにディープラーニングがなされた判別器を有し、判別器により対象領域を複数種類の症例領域に分類するものであってもよい。
本発明による第1および第2の医用画像表示装置においては、複数の被写体についての、各症例領域の変化に関する情報を保存する保存手段をさらに備えるものとし、
表示制御手段は、表示の対象となる被写体と異なる被写体についての、各症例領域の変化に関する情報を保存手段から取得し、取得した変化に関する情報をさらに表示するものであってもよい。
「各症例領域の変化に関する情報」とは、各症例領域がその後にどのように変化したかを表す情報を意味する。例えば、ある症例領域が広がって悪化したり、薬の投与によりある症例領域が狭くなって治癒したりしたことを、各症例領域の変化に関する情報として用いることができる。
本発明による第1の医用画像表示方法は、同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を、複数種類の症例領域に分類し、
各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する、各症例領域に関するマッピング画像を生成し、
複数のマッピング画像における対応する位置の症例領域について、対応する位置の症例領域の重心位置を算出し、複数のマッピング画像間における重心位置の移動量および移動方向の少なくとも一方を、複数のマッピング画像間における、分類された各症例領域の変化として算出し、
変化に関する情報を表示手段に表示することを特徴とするものである。
本発明による第2の医用画像表示方法は、同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類し、
各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する複数のマッピング画像を生成し、
複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、複数のマッピング画像間における、分類された各症例領域の変化として算出し、
変化に関する情報を表示手段に表示することを特徴とするものである。
なお、本発明による第1および第2の医用画像表示方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明による他の第1の医用画像表示装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサであって、
同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を、複数種類の症例領域に分類し、
各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する、各症例領域に関するマッピング画像を生成し、
複数のマッピング画像における対応する位置の症例領域について、対応する位置の症例領域の重心位置を算出し、複数のマッピング画像間における重心位置の移動量および移動方向の少なくとも一方を、複数のマッピング画像間における、分類された各症例領域の変化として算出し、
変化に関する情報を表示手段に表示する処理を実行するプロセッサを備えたことを特徴とするものである。
本発明による他の第2の医用画像表示装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサであって、
同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類し、
各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する複数のマッピング画像を生成し、
複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、複数のマッピング画像間における、分類された各症例領域の変化として算出し、
変化に関する情報を表示手段に表示する処理を実行するプロセッサを備えたことを特徴とするものである。
本発明による第1の医用画像表示装置および方法によれば、同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域が複数種類の症例領域に分類され、各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する、各症例領域に関するマッピング画像が生成される。そして、複数のマッピング画像における対応する位置の症例領域について、症例領域の重心位置が算出され、重心位置の複数のマッピング画像間における移動量および移動方向の少なくとも一方が、複数のマッピング画像間における分類された各症例領域の変化として算出され、変化に関する情報が表示手段に表示される。このように、本発明においては、対応する位置の症例領域の重心位置の複数のマッピング画像間における移動量および移動方向の少なくとも一方を各症例領域の変化として算出しているため、症例領域の変化を精度よく算出することができる。したがって、撮影時期が異なる複数の医用画像を用いた経時比較観察を精度よく行うことができる。
本発明による第2の医用画像表示装置および方法によれば、同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域が複数種類の症例領域に分類され、各症例領域をラベリングすることにより、複数の医用画像のそれぞれに対応する、各症例領域に関するマッピング画像が生成される。そして、複数のマッピング画像における対応する位置の症例領域の大きさの変化量が、複数のマッピング画像間における分類された各症例領域の変化として算出され、変化に関する情報が表示手段に表示される。このように、本発明においては、対応する位置の症例領域の大きさの変化量を各症例領域の変化として算出しているため、症例領域の変化を精度よく算出することができる。したがって、撮影時期が異なる複数の医用画像を用いた経時比較観察を精度よく行うことができる。
本発明の実施形態による医用画像表示装置を適用した、診断支援システムの概要を示すハードウェア構成図 本実施形態による医用画像表示装置の構成を示す概略ブロック図 多層ニューラルネットワークの一例を示す図 分類に応じた色が割り当てられた3次元画像を示す図 マッピング画像を示す図 重心位置の算出を説明するための図 重心位置の移動量および移動方向を示す図 表示された変化に関する情報を示す図 本実施形態において行われる処理を示すフローチャート 面積の変化量のみを算出した場合における表示された変化に関する情報を示す図
以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の実施形態による医用画像表示装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による医用画像表示装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
3次元画像撮影装置2は、被写体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。この3次元画像撮影装置2により生成された3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被写体である患者の診断対象部位は肺であり、3次元画像撮影装置2はCT装置であり、被写体の肺を含む胸部のCT画像を3次元画像V0として生成する。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された3次元画像V0の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。なお、本実施形態においては、画像保管サーバ3には、同一被写体の撮影時期が異なる複数の3次元画像が保存されているものとする。
医用画像表示装置1は、1台のコンピュータに、本発明の医用画像表示プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。医用画像表示プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに医用画像表示プログラムをインストールすることにより実現される医用画像表示装置の概略構成を示す図である。図2に示すように、医用画像表示装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、医用画像表示装置1には、ディスプレイ14および、マウス等の入力部15が接続されている。
ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した、被写体の3次元画像、並びに処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、医用画像表示プログラムが記憶されている。医用画像表示プログラムは、CPU11に実行させる処理として、同一被写体についての撮影時期が異なる複数の3次元画像を取得する画像取得処理、複数の3次元画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類する分類処理、各症例領域をラベリングすることにより、複数の3次元画像のそれぞれに対応する、各症例領域に関するマッピング画像を生成するマッピング画像生成処理、複数の3次元画像の位置合わせを行い、位置合わせ結果に基づいて複数のマッピング画像の位置合わせを行う位置合わせ処理、複数のマッピング画像における対応する位置の症例領域について、症例領域の重心位置を算出し、複数のマッピング画像間における重心位置の移動量および移動方向の少なくとも一方を、複数のマッピング画像間における、分類された各症例領域の変化として算出する変化算出処理、並びに変化に関する情報をディスプレイ14に表示する表示制御処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、分類部22、マッピング画像生成部23、位置合わせ部24、変化算出部25、および表示制御部26として機能する。なお、医用画像表示装置1は、画像取得処理、分類処理、マッピング画像生成処理、位置合わせ処理、変化算出処理および表示制御処理をそれぞれ行う複数のプロセッサまたは処理回路を備えるものであってもよい。また、本実施形態の医用画像表示装置1は、分類部22、マッピング画像生成部23、位置合わせ部24、変化算出部25、および表示制御部26のみから構成されるものであってもよい。また、本実施形態においては、対象領域は3次元画像に含まれる肺領域である。また、ストレージ13および画像保管サーバ3が保存手段に対応する。
画像取得部21は、同一被写体についての撮影時期が異なる複数の3次元画像を画像保管サーバ3から取得する。なお、3次元画像が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13から3次元画像を取得するようにしてもよい。本実施形態においては、経時比較観察のために、最新の3次元画像V0および最新の3次元画像V0よりも撮影時期が前の3次元画像V1を取得するものとする。
分類部22は、3次元画像V0,V1のそれぞれに含まれる肺領域を複数種類の症例領域に分類する。なお、3次元画像V0,V1のそれぞれに対する分類処理は同一であるため、ここでは3次元画像V0に対する分類処理についてのみ説明し、3次元画像V1に対する分類処理については説明を省略する。
本実施形態においては、分類部22は、肺領域についての複数種類の症例領域を分類できるようにディープラーニング(深層学習)がなされた多層ニューラルネットワークからなる判別器を有する。多層ニューラルネットワークでは、入力されるデータに対する前段の階層により得られる異なる複数の演算結果データ、すなわち特徴量の抽出結果データに対して、各層において各種カーネルを用いて演算処理を行い、これにより得られる特徴量のデータを取得し、特徴量のデータに対して次段以降の処理層においてさらなる演算処理を行うことにより、特徴量の認識率を向上させて、入力されたデータを複数のクラスに分類することができる。
なお、本実施形態においては、多層ニューラルネットワーク40を3次元画像V0を入力として、肺領域の複数種類の症例領域への分類結果を出力するものとして説明するが、3次元画像V0を構成する被写体の各断層面を表す2次元の断層画像を入力とし、肺領域の複数種類の症例領域への分類結果を出力するように構成することも可能である。
図3は多層ニューラルネットワークの一例を示す図である。図3に示すように多層ニューラルネットワーク40は、入力層41および出力層42を含む複数の階層からなる。本実施形態においては、3次元画像V0に含まれる肺領域を、正常肺、GGO(ground glass opacity)腫瘤結節影、Mixed腫瘤結節影、Solid腫瘤結節影、すりガラス影、淡いすりガラス影、小葉中心性すりガラス影、コンソリデーション、低吸収、小葉中心性気腫、汎小葉性気腫、正常肺気腫傾向、嚢胞、TIB(tree-in-bud appearance)、小結節(非小葉中心性)、小葉中心性小結節影、小葉間隔壁肥厚、気管支壁肥厚、気管支拡張、細気管支拡張、気管支透亮像、牽引性気管支拡張、空洞浸潤影、空洞腫瘤、網状影、微細網状影、蜂窩肺、胸水、胸膜肥厚、胸壁、心臓、横隔膜、および血管の33種類の症例領域に分類するように学習がなされている。なお、本実施形態においては、症例領域には、肺領域内における特定の症状または特定の形態を呈する領域を含む。このため、本実施形態においては、心臓および横隔膜等の特定の形態を呈する構造物そのものの領域も症例領域に含まれるものとする。
本実施形態においては、これら33種類の症例について、数百万という多数の教師データを用いて、多層ニューラルネットワーク40に学習させる。学習の際には症例が既知の3次元画像から、予め定められたサイズ(例えば1.5cm×1.5cm×1.5cm)に正規化されたボクセル領域を切り出し、切り出したボクセル領域の画像を教師データとして用いる。そして、多層ニューラルネットワーク40に教師データを入力して、症例領域の分類結果を出力させる。次いで、出力された結果を教師データと比較し、正解か不正解かに応じて、出力側から入力側に向かって、多層ニューラルネットワーク40の各層に含まれるユニット(図3に丸印で示す)の各階層間における結合の重みを修正する。結合の重みの修正を、多数の教師データを用いて、予め定められた回数、または出力される分類結果の正解率が100%になるまで繰り返し行い、学習を終了する。
分類部22は、分類のために、3次元画像V0から対象領域である肺領域を抽出する。肺領域を抽出する手法としては、3次元画像V0における画素毎の信号値をヒストグラム化し、肺をしきい値処理することにより抽出する方法、または肺を表すシード点に基づく領域拡張法(Region Growing)等、任意の手法を用いることができる。
分類部22は、上述したように学習がなされた多層ニューラルネットワーク40からなる判別器に、抽出した肺領域から教師データと同一の領域を順次切り出して入力する。これにより、切り出した領域の中心画素について、33種類の症例領域に対する分類結果を表す値が出力される。多層ニューラルネットワーク40は、入力された領域の中心画素を、多層ニューラルネットワーク40の33の出力のうち最も値が大きい症例領域に分類する。これにより、3次元画像V0に含まれる肺領域の全画素が33種類の症例領域のいずれに分類される。
マッピング画像生成部23は、分類部22により分類された各症例領域をラベリングすることにより、3次元画像V0,V1のそれぞれに対応する、各症例領域に関する複数のマッピング画像M0,M1を生成する。なお、ここでもマッピング画像の生成は、3次元画像V0についてのみ説明し、3次元画像V1のマッピング画像の生成については説明を省略する。
マッピング画像生成部23は、表示されたマッピング画像M0を見やすくするために、分類部22が分類した33種類の症例領域を8種類の症例領域に纏める。そして、マッピング画像生成部23は、3次元画像V0に含まれる肺領域の各画素に対して、同一の分類とされた画素を抽出する。さらに、マッピング画像生成部23は、8種類の症例領域の分類のそれぞれにおいて抽出された画素に対して同一の色を割り当てる。図4は症例領域に応じた色が割り当てられた3次元画像を示す図である。なお、図4においては、3次元画像V0におけるある断層面の断層画像を示しているが参照符号としてV0を示している。図4に示すように、33種類の症例領域は、すりガラス影、正常影、気管支、蜂窩肺、網状影、コンソリデーション、低吸収域および嚢胞の8種類の症例領域に纏められ、そのそれぞれに異なる色が割り当てられている。図4においては色が異なることを模様が異なることにより示している。また、図4には、各色がいずれの症例であるかを示すレファレンス50を示している。
マッピング画像生成部23は、8種類に分類された症例領域について、一定以上の体積となる症例領域をラベリングして、3次元画像V0に対応する3次元のマッピング画像M0を生成する。なお、マッピング画像M0が断層画像であれば、ラベリングは一定以上の面積となる症例領域に対して行われる。
図5はマッピング画像を示す図である。なお、図5は図4に示す断層画像についてのマッピング画像を示している。なお、図5においては、説明を簡単なものとするために、すりガラス影および蜂窩肺に分類された症例領域に対してのみ、ラベリングを行っている。図5に示すように、マッピング画像M0においては、すりガラス影に分類された3つの領域にラベル1〜3のラベリングを行い、蜂窩肺に分類された1つの領域にラベル4のラベリングが行われている。
位置合わせ部24は、3次元画像V0,V1の位置合わせを行い、この位置合わせ結果に基づいて複数のマッピング画像M0,M1の位置合わせを行う。ここで、3次元画像V0,V1は同一被写体の胸部を撮影することにより取得されたものであるが、呼吸、姿勢変化および撮影範囲等の撮影条件の変化により、含まれる構造物の位置、形状および大きさ等が異なるものとなっている。このため、位置合わせ部24は、3次元画像V0と3次元画像V1との位置合わせを行う。なお、本実施形態では、撮影時期が古い3次元画像V1を基準として、3次元画像V1に最新の3次元画像V0の位置を合わせるものとするが、最新の3次元画像V0を基準として、3次元画像V0に撮影時期が古い3次元画像V1の位置を合わせるようにしてもよい。位置合わせの基準となる画像は、予め定められていてもよく、入力部15からの操作者の指示により決定してもよい。また、3次元画像V0,V1とは異なる3次元画像を基準として、3次元画像V0,V1を位置合わせしてもよい。この場合、基準となる3次元画像は、操作者による入力部15からの入力により決定すればよい。
位置合わせ部24は、3次元画像V0と3次元画像V1との対応する画素について、3次元画像V0の各画素の3次元画像V1の対応する画素に対するシフト量および方向を算出する。そして、算出したシフト量および方向に基づいて3次元画像V0を非線形変換して、3次元画像V0を3次元画像V1に位置合わせする。なお、位置合わせの手法としてはこれに限定されるものではなく、他の任意の手法を用いることができる。例えば、特開2002−032735号公報に記載された、2つの画像の大まかな位置合わせを行った後に、局所的な領域において位置合わせを行う手法等を用いることができる。
位置合わせ部24は、3次元画像V0と3次元画像V1との位置合わせ結果に基づいて、マッピング画像M0,M1の位置合わせを行う。具体的には、算出したシフト量および方向に基づいてマッピング画像M0を非線形変換して、マッピング画像M0をマッピング画像M1に位置合わせする。
なお、本実施形態においては、先に3次元画像V0,V1の位置合わせを行った後に、分類処理およびマッピング画像生成処理を行うようにしてもよい。
変化算出部25は、複数のマッピング画像M0,M1における対応する位置の症例領域について、症例領域の重心位置を算出し、複数のマッピング画像M0,M1間における重心位置の移動量および移動方向の少なくとも一方を、複数のマッピング画像M0,M1間における、分類された各症例領域の変化として算出する。本実施形態においては、重心位置の移動量および移動方向の双方を算出するものとする。このために、変化算出部25は、マッピング画像M0,M1のそれぞれにおいて、ラベリングされた症例領域の重心位置を算出する。
図6は重心位置の算出を説明するための図である。なお、図6においては、3次元画像V0,V1に含まれる1つの断層面のマッピング画像M0,M1を示している。また、図6において、マッピング画像M1には、図5に示すラベル1〜4に対応する4つの症例領域A11〜A14が示されている。また、マッピング画像M0においては、マッピング画像M1における症例領域A13が蜂窩肺に悪化することにより、症例領域A14と一体化されて分類されている。このため、マッピング画像M0には、3つの症例領域A01,A02,A04が示されている。図6に示すように、マッピング画像M1においては、症例領域A11〜A14のそれぞれにおいて重心位置G11〜G14が、マッピング画像M0においては、症例領域A01,A02,A04のそれぞれにおいて重心位置G01,G02,G04が算出されている。
変化算出部25は、マッピング画像M1とマッピング画像M0とにおける対応する症例領域について、重心位置の移動量および移動方向を算出する。図7は重心位置の移動量および移動方向を示す図である。マッピング画像M1とマッピング画像M0とにおいて、ラベル1の症例領域A11と症例領域A01とが対応し、ラベル2の症例領域A12と症例領域A02とが対応し、ラベル4の症例領域A14と症例領域A04とが対応する。ラベル1の症例領域A11および症例領域A01に関しては、重心位置G11の重心位置G01への移動量および移動方向を算出する。ラベル2の症例領域A11および症例領域A01に関しては、重心位置G12の重心位置G02への移動量および移動方向を算出する。ラベル4の症例領域A14および症例領域A04に関しては、重心位置G11の重心位置G01への移動量および移動方向を算出する。変化算出部25は、算出した重心位置の移動方向および移動量をベクトルとして、マッピング画像M0に付与する。図7においては、マッピング画像M0に対して、マッピング画像M1から見た症例領域A01,A02,A04の重心位置の移動量および移動方向を表すベクトルが示されている。なお、ラベル2の症例領域A12,A02については、重心位置は移動していないため、ベクトルは示されていない。
このようにベクトルが付与されたマッピング画像M0を見れば、症例領域A01に関しては、症例領域A11と比較して面積(3次元画像であれば体積)が小さくなり、重心位置が移動していることが分かる。症例領域A02に関しては症例領域A12と比較して変化がないことが分かる。症例領域A04に関しては、症例領域A14と比較して面積が大きくなり、重心位置が移動していることが分かる。
なお、本実施形態においては、変化算出部25は、各症例領域の大きさの変化量についても変化として算出する。大きさの変化量は症例領域A01の面積(3次元画像であれば体積)と症例領域A11の面積との差分値、症例領域A02の面積と症例領域A12の面積との差分値、および症例領域A04の面積と症例領域A14の面積との差分値を算出すればよい。また、症例領域A01の面積の症例領域A11の面積からの変化率、症例領域A02の面積の症例領域A12の面積からの変化率、および症例領域A04の面積の症例領域A14の面積からの変化率を算出してもよい。
表示制御部26は、変化算出部25が算出した変化に関する情報をディスプレイ14に表示する。図8は表示された変化に関する情報を示す図である。図8に示すように、ディスプレイ14には、図7と同一のマッピング画像M0および変化に関する情報が示された表51が表示される。また、マッピング画像M0の横には、図4に示すレファレンスが示されている。なお、図8においては、マッピング画像M0には、説明を容易とするためにすりガラス影および蜂窩肺のみについて示しているが、実際には8つの分類についてのラベリング結果が示される。マッピング画像M0には図7と同様に、マッピング画像M1から見た症例領域A01,A02,A04の重心位置の移動量および移動方向を表すベクトルが示されている。表51には、ラベル1〜4について、症例の種類、過去画像(すなわち3次元画像V1)における面積、現在画像(すなわち3次元画像V0)における面積、面積の変化量、および症例進行状況が示されている。なお、マッピング画像M0が3次元画像であれば、表51には面積に代えて、過去画像における体積、現在画像における体積および体積の変化量が示される。
次いで、本実施形態において行われる処理について説明する。図9は本実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、同一被写体についての撮影時期が異なる2つの3次元画像V0,V1を取得する(ステップST1)。次いで、分類部22が、3次元画像V0,V1のそれぞれに含まれる肺領域を複数種類の症例領域に分類し(ステップST2)、マッピング画像生成部23が、分類された各症例領域をラベリングすることにより、3次元画像V0,V1のそれぞれに対応する、各症例領域に関する複数のマッピング画像M0,M1を生成する(ステップST3)。
そして、位置合わせ部24が、3次元画像V0,V1の位置合わせを行い、この位置合わせ結果に基づいてマッピング画像M0,M1の位置合わせを行う(ステップST4)。さらに、変化算出部25が、マッピング画像M0,M1における対応する位置の症例領域について、症例領域の重心位置を算出し、マッピング画像M0,M1間における重心位置の移動量および移動方向を、並びに大きさの変化量を分類された各症例領域の変化として算出する(ステップST5)。そして、表示制御部26が、変化に関する情報をディスプレイ14に表示し(ステップST6)、処理を終了する。
このように、本実施形態においては、対応する位置の症例領域の重心位置の複数のマッピング画像M0,M1間における移動量および移動方向を各症例領域の変化として算出しているため、症例領域の変化を精度よく算出することができる。したがって、撮影時期が異なる複数の3次元画像V0,V1を用いた経時比較観察を精度よく行うことができる。
また、3次元画像V0,V1の位置合わせを行い、位置合わせ結果に基づいて複数のマッピング画像M0,M1の位置合わせを行うことにより、各症例領域の変化をより精度よく算出することができるため、撮影時期が異なる複数の3次元画像V0,V1を用いた経時比較観察をより精度よく行うことができる。
なお、上記実施形態においては、対応する症例領域の重心位置の移動量および移動方向、並びに大きさの変化量を変化として算出しているが、対応する症例領域の重心位置の移動量および移動方向のみを変化として算出してもよい。また、対応する症例領域の大きさの変化量のみを変化として算出してもよい。図10は大きさの変化量として面積の変化量のみを算出した場合における表示された変化に関する情報を示す図である。図10に示すように、ディスプレイ14には、図4と同一のマッピング画像M0および面積の変化量を表す表52が表示される。なお、表52において面積の変化量として変化率が示されている。また、表52においては、8種類の症例領域のそれぞれについて変化量が算出されている。
また、上記実施形態においては、画像保管サーバから3次元画像V0,V1を読み出し、3次元画像V0,V1の双方に対して分類、マッピング画像の生成を行っているが、過去の3次元画像については、分類結果およびマッピング画像を併せて画像保管サーバ3に保存しておき、過去の3次元画像を読み出す際に、分類結果およびマッピング画像を合わせて読み出すようにしてもよい。これにより、過去の3次元画像について分類処理およびマッピング画像生成処理を行う必要が無くなるため、処理を迅速に行うことができる。
また、上記実施形態においてはストレージ13または画像保管サーバ3に、複数の被写体についての、各症例領域の変化に関する情報を保存しておくようにしてもよい。この場合、表示制御部26が、表示の対象となる被写体と異なる被写体についての、各症例領域の変化に関する情報を取得し、取得した変化に関する情報をさらに表示してもよい。これにより、取得した変化に関する情報に基づいて、被写体に含まれる各症例領域が、今後どのように変化するかを予測することができる。
以下、本実施形態の作用効果について説明する。
複数の医用画像の位置合わせを行い、位置合わせ結果に基づいて複数のマッピング画像の位置合わせを行うことにより、各症例領域の変化をより精度よく算出することができるため、撮影時期が異なる複数の医用画像を用いた経時比較観察をより精度よく行うことができる。
複数の被写体についての、各症例領域の変化に関する情報を保存しておき、表示の対象となる被写体と異なる被写体についての、各症例領域の変化に関する情報を取得し、取得した変化に関する情報をさらに表示することにより、取得した変化に関する情報に基づいて、被写体の症例領域が、今後どのように変化するかを予測することができる。
1 医用画像表示装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 画像取得部
22 分類部
23 マッピング画像生成部
24 位置合わせ部
25 変化算出部
26 表示制御部
27 学習部
40 多層ニューラルネットワーク
41 入力層
42 出力層
50 レファレンス
51,52 表
A01,A02,A04,A11〜A14 症例領域
G01,G02,G04,G11〜G14 重心位置
M0,M1 マッピング画像
V0,V1 3次元画像

Claims (11)

  1. 同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を、複数種類の症例領域に分類する分類手段と、
    前記各症例領域をラベリングすることにより、前記複数の医用画像のそれぞれに対応する、前記各症例領域に関するマッピング画像を生成するマッピング画像生成手段と、
    前記複数のマッピング画像における対応する位置の症例領域について、該対応する位置の症例領域の重心位置を算出し、前記複数のマッピング画像間における前記重心位置の移動量および移動方向の少なくとも一方を、前記複数のマッピング画像間における、前記分類された各症例領域の変化として算出する変化算出手段と、
    前記変化に関する情報を表示手段に表示する表示制御手段とを備えたことを特徴とする医用画像表示装置。
  2. 前記変化算出手段は、前記複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、さらに前記変化として算出する請求項1記載の医用画像表示装置。
  3. 同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類する分類手段と、
    前記各症例領域をラベリングすることにより、前記複数の医用画像のそれぞれに対応する複数のマッピング画像を生成するマッピング画像生成手段と、
    前記複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、前記複数のマッピング画像間における、前記分類された各症例領域の変化として算出する変化算出手段と、
    前記変化に関する情報を表示手段に表示する表示制御手段とを備えたことを特徴とする医用画像表示装置。
  4. 前記複数の医用画像の位置合わせを行い、該位置合わせ結果に基づいて前記複数のマッピング画像の位置合わせを行う位置合わせ手段をさらに備えた請求項1から3のいずれか1項記載の医用画像表示装置。
  5. 前記位置合わせ手段は、前記複数の医用画像のうち、撮影時期が最も古い医用画像に該最も古い医用画像以外の医用画像の位置を合わせる第1の位置合わせ、前記撮影時期が最も新しい医用画像に該最も新しい医用画像以外の医用画像の位置を合わせる第2の位置合わせ、および指定された医用画像に該指定された医用画像以外の医用画像の位置を合わせる第3の位置合わせのうちの、指定された位置合わせを行う請求項4記載の医用画像表示装置。
  6. 前記分類手段は、前記複数種類の症例を分類するようにディープラーニングがなされた判別器を有し、該判別器により前記対象領域を複数種類の症例領域に分類する請求項1から5のいずれか1項記載の医用画像表示装置。
  7. 複数の被写体についての、前記各症例領域の変化に関する情報を保存する保存手段をさらに備え、
    前記表示制御手段は、表示の対象となる被写体と異なる被写体についての、前記各症例領域の変化に関する情報を前記保存手段から取得し、該取得した変化に関する情報をさらに表示する請求項1から6のいずれか1項記載の医用画像表示装置。
  8. 同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を、複数種類の症例領域に分類し、
    前記各症例領域をラベリングすることにより、前記複数の医用画像のそれぞれに対応する、前記各症例領域に関するマッピング画像を生成し、
    前記複数のマッピング画像における対応する位置の症例領域について、該対応する位置の症例領域の重心位置を算出し、前記複数のマッピング画像間における前記重心位置の移動量および移動方向の少なくとも一方を、前記複数のマッピング画像間における、前記分類された各症例領域の変化として算出し、
    前記変化に関する情報を表示手段に表示することを特徴とする医用画像表示方法。
  9. 同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類し、
    前記各症例領域をラベリングすることにより、前記複数の医用画像のそれぞれに対応する複数のマッピング画像を生成し、
    前記複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、前記複数のマッピング画像間における、前記分類された各症例領域の変化として算出し、
    前記変化に関する情報を表示手段に表示することを特徴とする医用画像表示方法。
  10. 同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を、複数種類の症例領域に分類する手順と、
    前記各症例領域をラベリングすることにより、前記複数の医用画像のそれぞれに対応する、前記各症例領域に関するマッピング画像を生成する手順と、
    前記複数のマッピング画像における対応する位置の症例領域について、該対応する位置の症例領域の重心位置を算出し、前記複数のマッピング画像間における前記重心位置の移動量および移動方向の少なくとも一方を、前記複数のマッピング画像間における、前記分類された各症例領域の変化として算出する手順と、
    前記変化に関する情報を表示手段に表示する手順とをコンピュータに実行させることを特徴とする医用画像表示プログラム。
  11. 同一被写体についての撮影時期が異なる複数の医用画像のそれぞれに含まれる対象領域を複数種類の症例領域に分類する手順と、
    前記各症例領域をラベリングすることにより、前記複数の医用画像のそれぞれに対応する複数のマッピング画像を生成する手順と、
    前記複数のマッピング画像における対応する位置の症例領域の大きさの変化量を、前記複数のマッピング画像間における、前記分類された各症例領域の変化として算出する手順と、
    前記変化に関する情報を表示手段に表示する手順とをコンピュータに実行させることを特徴とする医用画像表示プログラム。
JP2017077361A 2017-04-10 2017-04-10 医用画像表示装置、方法およびプログラム Pending JP2018175227A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017077361A JP2018175227A (ja) 2017-04-10 2017-04-10 医用画像表示装置、方法およびプログラム
US15/943,002 US10980493B2 (en) 2017-04-10 2018-04-02 Medical image display device, method, and program
DE102018108153.7A DE102018108153A1 (de) 2017-04-10 2018-04-06 Medizinische Bilddisplayvorrichtung, medizinisches Bilddisplayverfahren und -programm
JP2021051497A JP7225295B2 (ja) 2017-04-10 2021-03-25 医用画像表示装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017077361A JP2018175227A (ja) 2017-04-10 2017-04-10 医用画像表示装置、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021051497A Division JP7225295B2 (ja) 2017-04-10 2021-03-25 医用画像表示装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018175227A true JP2018175227A (ja) 2018-11-15
JP2018175227A5 JP2018175227A5 (ja) 2019-09-19

Family

ID=63588157

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017077361A Pending JP2018175227A (ja) 2017-04-10 2017-04-10 医用画像表示装置、方法およびプログラム
JP2021051497A Active JP7225295B2 (ja) 2017-04-10 2021-03-25 医用画像表示装置、方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021051497A Active JP7225295B2 (ja) 2017-04-10 2021-03-25 医用画像表示装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US10980493B2 (ja)
JP (2) JP2018175227A (ja)
DE (1) DE102018108153A1 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020167042A1 (ko) * 2019-02-15 2020-08-20 주식회사 메디트 스캔 과정 재생 방법
JP2020126598A (ja) * 2018-12-27 2020-08-20 ゼネラル・エレクトリック・カンパニイ 人工知能の検出出力から疾患の進行を決定するシステムおよび方法
WO2020170533A1 (ja) * 2019-02-21 2020-08-27 畑中廣美 医用画像にaiの判断で進行度合いを表示する計測方法
JP2020174861A (ja) * 2019-04-17 2020-10-29 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2021060461A1 (ja) * 2019-09-25 2021-04-01 富士フイルム株式会社 画像処理装置、方法およびプログラム
WO2021070527A1 (ja) * 2019-10-07 2021-04-15 富士フイルム株式会社 画像処理装置、方法およびプログラム
WO2021080024A3 (ja) * 2019-10-25 2021-06-17 直己 岡田 重症度評価装置及びモデル生成装置
JP2021106887A (ja) * 2017-04-10 2021-07-29 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
WO2021167080A1 (ja) * 2020-02-20 2021-08-26 富士フイルム株式会社 情報処理装置、方法およびプログラム
JP2021176424A (ja) * 2020-05-08 2021-11-11 コニカミノルタ株式会社 医療診断支援装置、医療診断支援プログラム、および医療診断支援方法
WO2021246013A1 (ja) * 2020-06-03 2021-12-09 株式会社日立ハイテク 画像診断方法、画像診断支援装置、及び計算機システム
JP7387340B2 (ja) 2019-08-30 2023-11-28 株式会社 資生堂 生体構造識別装置、生体構造識別方法及び生体構造識別用コンピュータプログラム
JP7413147B2 (ja) 2020-05-21 2024-01-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7426712B2 (ja) 2020-06-16 2024-02-02 国立大学法人旭川医科大学 画像処理装置、画像処理方法、およびプログラム
US11941802B2 (en) 2020-03-31 2024-03-26 Alibaba Group Holding Limited Data processing method, means and system
JP7463538B2 (ja) 2020-09-28 2024-04-08 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル
JP7472621B2 (ja) 2020-04-21 2024-04-23 富士通株式会社 医用画像経時比較プログラム、医用画像経時比較方法及び医用画像経時比較システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201716890D0 (en) * 2017-10-13 2017-11-29 Optellum Ltd System, method and apparatus for assisting a determination of medical images
WO2020095909A1 (ja) * 2018-11-07 2020-05-14 株式会社 東芝 画像処理装置、画像処理方法及びプログラム
JP7098835B2 (ja) * 2019-05-28 2022-07-11 富士フイルム株式会社 マッチング装置、方法およびプログラム
JP7410619B2 (ja) * 2019-10-31 2024-01-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN113034434B (zh) * 2021-02-03 2022-09-02 深圳市第三人民医院(深圳市肝病研究所) 一种预测covid-19严重程度的多因素人工智能分析方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046594A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像診断支援装置
JP2007287018A (ja) * 2006-04-19 2007-11-01 Fujifilm Corp 診断支援システム
JP2009045121A (ja) * 2007-08-14 2009-03-05 Fujifilm Corp 医用画像処理システム、医用画像処理方法、及びプログラム
US20100091035A1 (en) * 2008-10-15 2010-04-15 Siemens Corporation Combined Segmentation And Registration Framework For Parametric Shapes
WO2010082246A1 (ja) * 2009-01-14 2010-07-22 キヤノン株式会社 情報処理装置および情報処理方法
JP2013198817A (ja) * 2013-07-10 2013-10-03 Canon Inc 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US20170046616A1 (en) * 2015-08-15 2017-02-16 Salesforce.Com, Inc. Three-dimensional (3d) convolution with 3d batch normalization

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5148100A (ja) 1974-10-22 1976-04-24 Tokyo Shibaura Electric Co Kitaihaikibutsushorikeino dorenhaishutsusochi
JP3577680B2 (ja) 1995-04-27 2004-10-13 コニカミノルタホールディングス株式会社 画像処理装置
JP4294881B2 (ja) 2000-05-12 2009-07-15 富士フイルム株式会社 画像の位置合わせ方法および装置
WO2005117712A1 (ja) * 2004-06-03 2005-12-15 Hitachi Medical Corporation 画像診断支援方法及び画像診断支援装置
US20070127793A1 (en) * 2005-11-23 2007-06-07 Beckett Bob L Real-time interactive data analysis management tool
JP5566567B2 (ja) * 2007-03-14 2014-08-06 株式会社東芝 医用画像表示装置、医用画像表示方法及び医用画像診断装置
JP5661453B2 (ja) * 2010-02-04 2015-01-28 株式会社東芝 画像処理装置、超音波診断装置、及び画像処理方法
US9949701B2 (en) * 2013-02-14 2018-04-24 Siemens Aktiengesellschaft Registration for tracked medical tools and X-ray systems
US20160007972A1 (en) * 2013-03-25 2016-01-14 Hitachi Aloka Medical, Ltd. Ultrasonic imaging apparatus and ultrasound image display method
KR20160020917A (ko) * 2014-08-14 2016-02-24 삼성전자주식회사 컴퓨터 보조 진단 장치 및 방법
US10748661B2 (en) * 2014-10-30 2020-08-18 Panasonic Corporation Method for controlling information terminal, and recording medium
KR102314650B1 (ko) * 2014-11-28 2021-10-19 삼성전자주식회사 사용자의 진단 의도에 기초한 컴퓨터 보조 진단 장치 및 방법
JP2017077361A (ja) * 2015-10-20 2017-04-27 雪印メグミルク株式会社 容器
US20180344161A1 (en) * 2015-11-12 2018-12-06 Koninklijke Philips N.V. Medical instrument for analysis of white matter brain lesions
CN108289651B (zh) * 2015-11-25 2019-07-12 皇家飞利浦有限公司 用于跟踪身体部位中的超声探头的系统
US20170215967A1 (en) * 2016-02-03 2017-08-03 William B. Spath Implant recommendation system and method
EP3549100B1 (en) * 2016-11-29 2021-03-03 Koninklijke Philips N.V. Heart segmentation methodology for cardiac motion correction
JP2018175227A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
EP3622526A1 (en) * 2017-05-09 2020-03-18 Baxter International Inc. Parenteral nutrition diagnostic system, apparatus, and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046594A (ja) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc 画像診断支援装置
JP2007287018A (ja) * 2006-04-19 2007-11-01 Fujifilm Corp 診断支援システム
JP2009045121A (ja) * 2007-08-14 2009-03-05 Fujifilm Corp 医用画像処理システム、医用画像処理方法、及びプログラム
US20100091035A1 (en) * 2008-10-15 2010-04-15 Siemens Corporation Combined Segmentation And Registration Framework For Parametric Shapes
WO2010082246A1 (ja) * 2009-01-14 2010-07-22 キヤノン株式会社 情報処理装置および情報処理方法
JP2013198817A (ja) * 2013-07-10 2013-10-03 Canon Inc 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US20170046616A1 (en) * 2015-08-15 2017-02-16 Salesforce.Com, Inc. Three-dimensional (3d) convolution with 3d batch normalization

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大沢 哲 他4名: ""医師の思考を効果的にサポートする類似症例検索システム「SYNAPSE Case Match」の開発と商用化"", MEDICAL IMAGING TECHNOLOGY, vol. 32, no. 1, JPN6021001195, 2014, pages 26 - 31, ISSN: 0004427965 *
放射線科ポータル RAD FAN ONLINE: ""富士フイルム、類似症例検索システム「SYNAPSE Case Match]に、「びまん性肺疾患」の症例検索機能を新た", [オンライン], vol. [令和3年1月6日検索], JPN6021001196, 27 February 2017 (2017-02-27), ISSN: 0004427966 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7225295B2 (ja) 2017-04-10 2023-02-20 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP2021106887A (ja) * 2017-04-10 2021-07-29 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP7187430B2 (ja) 2018-12-27 2022-12-12 ゼネラル・エレクトリック・カンパニイ 人工知能の検出出力から疾患の進行を決定するシステムおよび方法
JP2020126598A (ja) * 2018-12-27 2020-08-20 ゼネラル・エレクトリック・カンパニイ 人工知能の検出出力から疾患の進行を決定するシステムおよび方法
WO2020167042A1 (ko) * 2019-02-15 2020-08-20 주식회사 메디트 스캔 과정 재생 방법
WO2020170533A1 (ja) * 2019-02-21 2020-08-27 畑中廣美 医用画像にaiの判断で進行度合いを表示する計測方法
JP2020135515A (ja) * 2019-02-21 2020-08-31 廣美 畑中 医用画像にaiの判断で進行度合いを表示する測計方法。
JP2020174861A (ja) * 2019-04-17 2020-10-29 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7387340B2 (ja) 2019-08-30 2023-11-28 株式会社 資生堂 生体構造識別装置、生体構造識別方法及び生体構造識別用コンピュータプログラム
WO2021060461A1 (ja) * 2019-09-25 2021-04-01 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP7288070B2 (ja) 2019-10-07 2023-06-06 富士フイルム株式会社 画像処理装置、方法およびプログラム
WO2021070527A1 (ja) * 2019-10-07 2021-04-15 富士フイルム株式会社 画像処理装置、方法およびプログラム
WO2021080024A3 (ja) * 2019-10-25 2021-06-17 直己 岡田 重症度評価装置及びモデル生成装置
WO2021167080A1 (ja) * 2020-02-20 2021-08-26 富士フイルム株式会社 情報処理装置、方法およびプログラム
JP7420913B2 (ja) 2020-02-20 2024-01-23 富士フイルム株式会社 情報処理装置、方法およびプログラム
US11941802B2 (en) 2020-03-31 2024-03-26 Alibaba Group Holding Limited Data processing method, means and system
JP7472621B2 (ja) 2020-04-21 2024-04-23 富士通株式会社 医用画像経時比較プログラム、医用画像経時比較方法及び医用画像経時比較システム
JP2021176424A (ja) * 2020-05-08 2021-11-11 コニカミノルタ株式会社 医療診断支援装置、医療診断支援プログラム、および医療診断支援方法
JP7413147B2 (ja) 2020-05-21 2024-01-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2021246013A1 (ja) * 2020-06-03 2021-12-09 株式会社日立ハイテク 画像診断方法、画像診断支援装置、及び計算機システム
JP7426712B2 (ja) 2020-06-16 2024-02-02 国立大学法人旭川医科大学 画像処理装置、画像処理方法、およびプログラム
JP7463538B2 (ja) 2020-09-28 2024-04-08 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル

Also Published As

Publication number Publication date
JP2021106887A (ja) 2021-07-29
JP7225295B2 (ja) 2023-02-20
US10980493B2 (en) 2021-04-20
US20180289336A1 (en) 2018-10-11
DE102018108153A1 (de) 2018-10-11

Similar Documents

Publication Publication Date Title
JP7225295B2 (ja) 医用画像表示装置、方法およびプログラム
JP6525912B2 (ja) 画像分類装置、方法およびプログラム
JP6906347B2 (ja) 医用画像分類装置、方法およびプログラム
JP6807820B2 (ja) 画像検索装置、方法およびプログラム
US11364002B2 (en) Medical-image processing apparatus and medical-image diagnostic apparatus
US11941812B2 (en) Diagnosis support apparatus and X-ray CT apparatus
JP2009502230A (ja) 医用画像における傷病部位の検知
US10219767B2 (en) Classification of a health state of tissue of interest based on longitudinal features
JP5415245B2 (ja) 医用画像表示装置および方法並びにプログラム
JP7004829B2 (ja) 類似度決定装置、方法およびプログラム
US11756673B2 (en) Medical information processing apparatus and medical information processing method
JP7034306B2 (ja) 領域分割装置、方法およびプログラム、類似度決定装置、方法およびプログラム、並びに特徴量導出装置、方法およびプログラム
JP2023114463A (ja) 表示装置、方法およびプログラム
US20230169647A1 (en) Information processing apparatus, information processing method, and information processing system
WO2022187768A1 (en) System and methods for inferring thickness of object classes of interest in two-dimensional medical images using deep neural networks
JP6653765B2 (ja) 画像解析装置、方法およびプログラム
WO2020044736A1 (ja) 類似度決定装置、方法およびプログラム
JPWO2019150717A1 (ja) 葉間膜表示装置、方法およびプログラム
WO2022054541A1 (ja) 画像処理装置、方法およびプログラム
JP7170868B2 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
JP6765396B2 (ja) 医用画像処理装置、方法およびプログラム
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
WO2020241857A1 (ja) 医療文書作成装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル
US20220044052A1 (en) Matching apparatus, matching method, and matching program
JP2023092327A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210119