JP7339270B2 - 医用画像処理装置、方法およびプログラム - Google Patents

医用画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP7339270B2
JP7339270B2 JP2020546713A JP2020546713A JP7339270B2 JP 7339270 B2 JP7339270 B2 JP 7339270B2 JP 2020546713 A JP2020546713 A JP 2020546713A JP 2020546713 A JP2020546713 A JP 2020546713A JP 7339270 B2 JP7339270 B2 JP 7339270B2
Authority
JP
Japan
Prior art keywords
neural network
medical
medical image
feature
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020546713A
Other languages
English (en)
Other versions
JPWO2020054188A1 (ja
Inventor
瑞希 武井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020054188A1 publication Critical patent/JPWO2020054188A1/ja
Application granted granted Critical
Publication of JP7339270B2 publication Critical patent/JP7339270B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本開示は、頭部のCT(Computed Tomography)画像等の医用画像に含まれる医学的特徴を判別する医用画像処理装置、方法およびプログラムに関するものである。
近年、CT装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、対象部位を脳とした場合において、CT画像およびMRI画像等を用いた画像診断により、脳梗塞および脳出血等の血管障害を起こしている疾病領域を特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。一般に疾病領域はCT画像上において周囲の領域と比較して高いCT値を示す。このため、画像診断においては周囲の領域と比較して高いCT値を示す領域の有無を読影することにより、疾病領域を判別することができる。
このように、医用画像から疾病領域を自動的に判別するための各種手法が提案されている。例えば、特開平8-251404号公報においては、入力層と中間層と出力層とを有する第1および第2のニューラルネットワークを備え、第1のニューラルネットワークのうちの入力層から中間層までの出力を、第2のニューラルネットワークの入力層に入力するように結合した判別装置が提案されている。特開平8-251404号公報に記載の判別装置においては、第1のニューラルネットワークに入力される画像データに基づいて、画像データの領域属性についての判別結果が出力される。このような判別装置を用いることにより、上述したような医用画像に含まれる特定の医学的特徴を判別することが可能となる。
しかしながら、医学的特徴の種類によっては、医用画像からの判別が困難となる場合がある。
本開示は上記事情に鑑みなされたものであり、医用画像からの医学的特徴を容易に判別できるようにすることを目的とする。
本開示による医用画像処理装置は、医用画像に含まれる第1の医学的特徴の領域を判別する判別部を備え、
判別部は、医用画像における第1の医学的特徴を判別する、複数の処理層からなる第1のニューラルネットワークと、
第1の医学的特徴と関連する第2の医学的特徴を医用画像において判別する、複数の処理層からなる第2のニューラルネットワークとを有し、
第1のニューラルネットワークには、第2のニューラルネットワークの途中の処理層が出力した特徴量、または第2のニューラルネットワークの出力結果が入力される。
「判別」は医用画像における第1または第2の医学的特徴の有無を判別すること、医用画像における第1または第2の医学的特徴の場所を判別することの双方を含む。
第2のニューラルネットワークの途中の処理層が出力した特徴量または第2のニューラルネットワークの出力結果が入力されるのは、第1のニューラルネットワークにおける途中の処理層であってもよく、最初の処理層であってもよい。
また、本開示による医用画像処理装置においては、第2のニューラルネットワークは、第1のニューラルネットワークとは異なるタスクが学習されてなるものであってもよい。
また、本開示による医用画像処理装置においては、第2のニューラルネットワークが学習するタスクは、疾患の有無を予測するタスク、疾患の種類を予測するタスク、患者に発現している臨床所見を予測するタスク、および患者の意識レベルを予測するタスクのいずれかであってもよい。
また、本開示による医用画像処理装置においては、第1のニューラルネットワークは、医用画像から局所的な医学的特徴を第1の医学的特徴として判別し、
第2のニューラルネットワークは、医用画像から大局的な医学的特徴を第2の医学的特徴として判別するものであってもよい。
また、本開示による医用画像処理装置においては、医用画像は脳を含み、
局所的な医学的特徴は脳の出血領域および梗塞領域の少なくとも一方であり、
大局的な医学的特徴は、出血領域および梗塞領域の少なくとも一方の有無であってもよい。
また、本開示による医用画像処理装置においては、局所的な医学的特徴が特定された医用画像を表示部に表示する表示制御部をさらに備えるものであってもよい。
また、本開示による医用画像処理装置においては、医用画像は脳のCT画像であってもよい。
本開示による医用画像処理方法は、医用画像に含まれる第1の医学的特徴の領域を判別部により判別する医用画像処理方法であって、
判別部は、第1のニューラルネットワークと第2のニューラルネットワークとを有し、第1のニューラルネットワークには、第2のニューラルネットワークの途中の処理層が出力した特徴量、または第2のニューラルネットワークの出力結果が入力され、
第1のニューラルネットワークにより医用画像における第1の医学的特徴を判別し、
第2のニューラルネットワークにより、第1の医学的特徴と関連する第2の医学的特徴を医用画像において判別する。
なお、本開示による医用画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示による他の医用画像処理装置は、医用画像に含まれる第1の医学的特徴の領域を判別部により判別する処理をコンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
第1のニューラルネットワークと第2のニューラルネットワークとを有し、第1のニューラルネットワークには、第2のニューラルネットワークの途中の処理層が出力した特徴量、または第2のニューラルネットワークの出力結果が入力される判別部として機能し、
第1のニューラルネットワークにより医用画像における第1の医学的特徴を判別し、
第2のニューラルネットワークにより、第1の医学的特徴と関連する第2の医学的特徴を医用画像において判別する処理を実行する。
本開示によれば、医用画像において第1の医学的特徴を容易かつ精度よく判別することができる。
本開示の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図 本開示の実施形態による医用画像処理装置の概略構成を示す図 本実施形態における畳み込みニューラルネットワークの構成を示す概略図 出血領域が特定された脳画像を示す図 本実施形態において行われる処理を示すフローチャート
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による医用画像処理装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。3次元画像撮影装置2により生成された3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置であり、被検体の脳を含む頭部のCT画像を3次元の脳画像B0として生成する。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された脳画像B0の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
医用画像処理装置1は、1台のコンピュータに、本実施形態の医用画像処理プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。医用画像処理プログラムは、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに医用画像処理プログラムをインストールすることにより実現される医用画像処理装置の概略構成を示す図である。図2に示すように、医用画像処理装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、医用画像処理装置1には、液晶ディスプレイ等の表示部14、並びにキーボードおよびマウス等の入力部15が接続されている。
ストレージ13はハードディスクドライブ等からなり、ネットワーク4を経由して画像保管サーバ3から取得した、被検体の脳画像、並びに処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、医用画像処理プログラムが記憶されている。医用画像処理プログラムは、CPU11に実行させる処理として、被検体の脳画像B0を取得する画像取得処理、脳画像B0に含まれる疾病領域を判別する判別処理、および判別された疾病領域を表示部14に表示する表示制御処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、判別部22および表示制御部23として機能する。
画像取得部21は、被検体の脳の脳画像B0を画像保管サーバ3から取得する。なお、脳画像B0が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13から脳画像B0を取得するようにしてもよい。
判別部22は、脳画像B0における疾病領域を判別する。疾病領域としては、本実施形態においては出血領域とする。本実施形態においては、判別部22は、複数の処理層が階層的に接続され、深層学習(ディープラーニング)がなされた多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(以下CNN(Convolutional Neural Network)とする)であるものとする。
図3は本実施形態におけるCNNの構成を示す概略図である。図3に示すように、CNN30は、第1のニューラルネットワーク31および第2のニューラルネットワーク32を有する。第1のニューラルネットワーク31は、複数の処理層31-1,31-2…,31-n(nは処理層の数)を有する。また、第2のニューラルネットワーク32は、複数の処理層32-1,32-2…,32-m(mは処理層の数)を有する。なお、第1および第2のニューラルネットワーク31,32における最初の処理層31-1,32-1は入力層であり、最後の処理層31-n、32-mは出力層である。
第1のニューラルネットワーク31および第2のニューラルネットワーク32が有する処理層は、畳み込み層またはプーリング層からなる。畳み込み層は、入力される画像に対して各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴量データからなる特徴量マップを出力する。カーネルは、n×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。具体的には、脳画像B0または特徴量マップといった2次元画像のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層は、カーネルの注目画素をずらしながら、脳画像B0または前段の処理層から出力された特徴量マップの全体にカーネルを適用する。さらに、畳み込み層は、畳み込みされた値に対して、シグモイド関数等の活性化関数を適用し、特徴量マップを出力する。
プーリング層は、畳み込み層が出力した特徴量マップをプーリングすることにより、特徴量マップのデータ量を低減して、データ量が低減された特徴量マップを出力する。
本実施形態において、第1のニューラルネットワーク31は、出血領域を含む多数の脳画像を教師データとして使用して、入力された脳画像に含まれる各画素についての出血領域の判別結果R1を出力するように学習がなされている。なお、出血領域が第1の医学的特徴に相当する。これにより、第1のニューラルネットワーク31に脳画像B0が入力されると、複数の処理層31-i(i=1~n)において、前段の処理層から出力された特徴量マップが次段の処理層に順次入力され、脳画像B0における各画素についての出血領域の判別結果R1が出力層31-nから出力される。なお、第1のニューラルネットワーク31が出力する判別結果R1は、脳画像B0の各画素が出血領域であるか出血領域以外の領域であるかを判別した結果となる。
第2のニューラルネットワーク32は、第1のニューラルネットワーク31とは異なり、脳画像B0の全体における疾患の有無を予測するタスクが学習されてなる。なお、出血の有無が第2の医学的特徴に対応する。このために、第2のニューラルネットワーク32は、出血領域があることが分かっている多数の脳画像を教師データとして使用し、入力された脳画像に出血領域が含まれるか否かの判別結果R2を出力するように学習がなされる。これにより、第2のニューラルネットワーク32に脳画像B0が入力されると、複数の処理層32-j(j=1~m)において、前段の処理層から出力された特徴量マップが次段の処理層に順次入力され、脳画像B0の全体の情報が統合されて、脳画像B0に出血領域が含まれるか否かの判別結果R2が出力層32-mから出力される。
なお、第1のニューラルネットワーク31の判別結果R1は脳画像B0内における出血領域の位置の情報を含むが、第2のニューラルネットワーク32の判別結果R2は、出血領域の有無を表すのみであるため、脳画像B0内における位置の情報を含まない。
ここで、本実施形態においては、第2のニューラルネットワーク32における途中の処理層32-kから出力された特徴量マップT2kが、第1のニューラルネットワーク31の途中の処理層31-rに入力される。特徴量マップT2kは、入力された脳画像B0における出血領域の有無がある程度分かっているような特徴量を含む。第2のニューラルネットワーク32におけるいずれの処理層から出力された特徴量マップを第1のニューラルネットワーク31のいずれの処理層に入力するかは、第1および第2のニューラルネットワーク31,32の学習の段階において予め設計されてなる。なお、特徴量マップT2kは、処理層31-rの前段の処理層31-r-1から出力される特徴量マップT1r-1と同一サイズとなるように拡大縮小されて、特徴量マップT1r-1と併せて、処理層31-rに入力される。したがって、本実施形態においては、第1のニューラルネットワーク31は、処理層31-r以降の処理層において、第2のニューラルネットワーク32の途中の処理層から出力された特徴量マップを統合して、脳画像B0における局所的な出血領域の判別結果R1を出力するものとなる。
ここで、脳画像B0によっては、局所的な特徴のみでは出血領域を判別することが難しいものがある。このような脳画像B0の出血領域は熟練した医師が読影すれば確認することはできるが、畳み込みニューラルネットワーク等を用いた判別部においては、出血領域を精度よく判別することは難しい場合がある。本実施形態においては、第1のニューラルネットワーク31において、第2のニューラルネットワーク32の出力、すなわち脳画像B0内における出の有無の情報が統合されて出血領域の判別結果R1が出力されることとなる。
表示制御部23は、出血領域が判別された脳画像を表示部14に表示する。図4は表示された脳画像を示す図である。なお、図4においては、脳画像B0の1つの断層面のスライス画像を示している。図4に示すように、脳画像B0において判別された出血領域A1がハイライトされて表示されている。なお、ハイライトは、出血領域A1を線で囲む、出血領域A1に特定の色を付与する、および出血領域A1に矢印を付与する等、任意の態様を用いることができる。
次いで、本実施形態において行われる処理について説明する。図5は本実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、被検体の脳画像B0を取得する(ステップST1)。次いで、判別部22が脳画像B0内における出血領域を判別し(ステップST2)、表示制御部23が出血領域が判別された脳画像B0を表示部14に表示し(ステップST3)、処理を終了する。
このように、本実施形態においては、判別部22の第1のニューラルネットワーク31により、脳画像B0における出血領域が判別され、第2のニューラルネットワーク32により、脳画像B0における出血領域の有無が判別される。この際、第1のニューラルネットワーク31には、第2のニューラルネットワーク32の途中の処理層32-kが出力した特徴量マップT2kが入力される。このため、第1のニューラルネットワーク31における特徴量マップと、第2のニューラルネットワーク32が判別する出血領域の有無に関する特徴量マップとが統合されて、第1のニューラルネットワーク3において、脳画像B0における出血領域が判別されることとなる。したがって、本実施形態によれば、脳画像B0において出血領域を容易かつ精度よく判別することができる。
なお、上記実施形態においては、第2のニューラルネットワーク32の途中の処理層32-kが出力した特徴量マップT2kを第1のニューラルネットワーク31に入力しているが、第2のニューラルネットワーク32の出力層32-mが出力した判別結果R2を、第1のニューラルネットワーク31に入力するようにしてもよい。
また、上記実施形態においては、第2のニューラルネットワーク32の途中の処理層32-kが出力した特徴量マップT2kを、第1のニューラルネットワーク31の途中の処理層31-rに入力しているが、これに限定されるものではない。第2のニューラルネットワーク32の途中の処理層32-kが出力した特徴量マップT2kまたは第2のニューラルネットワーク32の出力層32-mが出力した判別結果R2を、第1のニューラルネットワーク31の最初の処理層31-1、すなわち入力層に入力するようにしてもよい。
また、上記実施形態においては、第2のニューラルネットワーク32は、出血領域の有無を予測するタスクが学習されてなる。しかしながら、第2のニューラルネットワーク32が学習するタスクはこれに限定されるものではない。例えば、脳画像B0における疾病の種類、例えば出血および梗塞を予測するタスクが学習されてなるものであってもよい。この場合、第2のニューラルネットワーク32は、含まれる疾病が出血および梗塞のいずれかであることが分かっている脳画像を教師データとして使用し、脳画像が入力されると含まれる疾病の種類(出血、梗塞および疾病無し)の判別結果を出力するように学習がなされる。
一方、疾病の種類としては、出血の種類としてもよい。例えば、出血の種類として、脳内出血、脳室内出血、くも膜下出血および硬膜外出血のいずれの種類であるかの判別結果を出力するように、第2のニューラルネットワーク32を学習するようにしてもよい。また、第2のニューラルネットワーク32は、脳圧迫所見の有無を判別するように学習されたものであってもよく、脳梗塞の種類(急性期および陳旧性等)を判別するように学習されたものであってもよい。
また、第2のニューラルネットワーク32が学習するタスクとして、被検体である患者に発現している臨床所見を予測するタスクであってもよい。ここで、臨床所見としては、意識の状態、開眼の状態および覚醒の状態等が挙げられる。この場合、第2のニューラルネットワーク32は、臨床所見が分かっている脳画像を教師データとして使用し、脳画像が入力されると臨床所見の判別結果を出力するように学習がなされる。
また、上記実施形態においては、脳画像B0としてCT画像を用いているが、これに限定されるものではなく、MRI画像およびPET画像等の他の医用画像を用いてもよい。
また、上記実施形態においては、医用画像として脳画像B0を用いているが、これに限定されるものではない。例えば、人体の胸部、腹部、全身および四肢等の医用画像に含まれる医学的特徴を判別する場合にも、本開示を適用することができる。
また、上記実施形態においては、第1および第2のニューラルネットワーク31,32として畳み込みニューラルネットワークを用いているが、これに限定されるものではない。複数の処理層から構成されるニューラルネットワークであれば、ディープニューラルネットワーク(DNN(Deep Neural Network))およびリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等を用いることができる。また、第1のニューラルネットワーク31と第2のニューラルネットワーク32とは、同一のニューラルネットワークで無くてもよい。例えば、第1のニューラルネットワーク31を畳み込みニューラルネットワークとし、第2のニューラルネットワーク32をリカレントニューラルネットワークとしてもよい。
また、上記各実施形態において、例えば、画像取得部21、判別部22および表示制御部23といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
1 医用画像処理装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 画像取得部
22 判別部
23 表示制御部
30 CNN
31 第1のニューラルネットワーク
31-1,31-2… 処理層
32 第2のニューラルネットワーク
32-1,32-2… 処理層
A1 出血領域
B0 脳画像
R1,R2 判別結果
T1r-1,T2k 特徴量マップ

Claims (11)

  1. 脳を含む医用画像に含まれる学的特徴判別する判別部を備え、
    前記判別部は、前記医用画像における脳の出血領域および梗塞領域の少なくとも一方を局所的な医学的特徴として判別する、複数の処理層からなる第1のニューラルネットワークと、
    前記医用画像における前記出血領域および前記梗塞領域の少なくとも一方の有無を前記局所的な医学的特徴と関連する大局的な医学的特徴として判別する、複数の処理層からなる第2のニューラルネットワークとを有し、
    前記第1のニューラルネットワークには、前記第2のニューラルネットワークの途中の処理層が出力した特徴量が入力される医用画像処理装置。
  2. 脳のCT画像である医用画像に含まれる学的特徴判別する判別部を備え、
    前記判別部は、前記医用画像における1の医学的特徴を判別する、複数の処理層からなる第1のニューラルネットワークと、
    前記第1の医学的特徴と関連する第2の医学的特徴を前記医用画像において判別する、複数の処理層からなる第2のニューラルネットワークとを有し、
    前記第1のニューラルネットワークには、前記第2のニューラルネットワークの途中の処理層が出力した特徴量が入力される医用画像処理装置。
  3. 前記第2のニューラルネットワークは、前記第1のニューラルネットワークとは異なるタスクが学習されてなる請求項に記載の医用画像処理装置。
  4. 前記第2のニューラルネットワークが学習するタスクは、疾患の有無を予測するタスク、疾患の種類を予測するタスク、患者に発現している臨床所見を予測するタスク、および患者の意識レベルを予測するタスクのいずれかである請求項に記載の医用画像処理装置。
  5. 前記第1のニューラルネットワークは、前記医用画像における局所的な医学的特徴を前記第1の医学的特徴として判別し、
    前記第2のニューラルネットワークは、前記医用画像における大局的な医学的特徴を前記第2の医学的特徴として判別する請求項2から4のいずれか1項に記載の医用画像処理装置。
  6. 前記局所的な医学的特徴は脳の出血領域および梗塞領域の少なくとも一方であり、
    前記大局的な医学的特徴は、前記出血領域および前記梗塞領域の少なくとも一方の有無である請求項に記載の医用画像処理装置。
  7. 前記局所的な医学的特徴が特定された前記医用画像を表示部に表示する表示制御部をさらに備えた請求項1、5または6に記載の医用画像処理装置。
  8. 脳を含む医用画像に含まれる学的特徴判別部により判別する医用画像処理方法であって、
    前記判別部は、第1のニューラルネットワークと第2のニューラルネットワークとを有し、前記第1のニューラルネットワークには、前記第2のニューラルネットワークの途中の処理層が出力した特徴量が入力され、
    前記第1のニューラルネットワークにより、前記医用画像における脳の出血領域および梗塞領域の少なくとも一方を局所的な医学的特徴として判別し、
    前記第2のニューラルネットワークにより、前記医用画像における前記出血領域および前記梗塞領域の少なくとも一方の有無を前記局所的な医学的特徴と関連する大局的な医学的特徴として判別する医用画像処理方法。
  9. 脳のCT画像である医用画像に含まれる学的特徴判別部により判別する医用画像処理方法であって、
    前記判別部は、第1のニューラルネットワークと第2のニューラルネットワークとを有し、前記第1のニューラルネットワークには、前記第2のニューラルネットワークの途中の処理層が出力した特徴量が入力され、
    前記第1のニューラルネットワークにより前記医用画像における1の医学的特徴を判別し、
    第2のニューラルネットワークにより、前記第1の医学的特徴と関連する第2の医学的特徴を前記医用画像において判別する医用画像処理方法。
  10. 脳を含む医用画像に含まれる学的特徴判別する処理をコンピュータに実行させる医用画像処理プログラムであって、
    前記コンピュータを、第1のニューラルネットワークと第2のニューラルネットワークとを有し、前記第1のニューラルネットワークには、前記第2のニューラルネットワークの途中の処理層が出力した特徴量が入力される判別部として機能させ、
    前記第1のニューラルネットワークにより、前記医用画像における脳の出血領域および梗塞領域の少なくとも一方を局所的な医学的特徴として判別する手順と、
    前記第2のニューラルネットワークにより、前記医用画像における前記出血領域および前記梗塞領域の少なくとも一方の有無を前記局所的な医学的特徴と関連する大局的な医学的特徴として判別する手順とをコンピュータに実行させる医用画像処理プログラム。
  11. 脳のCT画像である医用画像に含まれる学的特徴判別する処理をコンピュータに実行させる医用画像処理プログラムであって、
    前記コンピュータを、第1のニューラルネットワークと第2のニューラルネットワークとを有し、前記第1のニューラルネットワークには、前記第2のニューラルネットワークの途中の処理層が出力した特徴量が入力される判別部として機能させ、
    前記第1のニューラルネットワークにより前記医用画像における1の医学的特徴を判別する手順と、
    第2のニューラルネットワークにより、前記第1の医学的特徴と関連する第2の医学的特徴を前記医用画像において判別する手順とをコンピュータに実行させる医用画像処理プログラム。
JP2020546713A 2018-09-14 2019-07-03 医用画像処理装置、方法およびプログラム Active JP7339270B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018172989 2018-09-14
JP2018172989 2018-09-14
PCT/JP2019/026533 WO2020054188A1 (ja) 2018-09-14 2019-07-03 医用画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020054188A1 JPWO2020054188A1 (ja) 2021-08-30
JP7339270B2 true JP7339270B2 (ja) 2023-09-05

Family

ID=69778538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020546713A Active JP7339270B2 (ja) 2018-09-14 2019-07-03 医用画像処理装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US11915414B2 (ja)
EP (1) EP3851049A4 (ja)
JP (1) JP7339270B2 (ja)
WO (1) WO2020054188A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210093278A1 (en) * 2019-09-30 2021-04-01 GE Precision Healthcare LLC Computed tomography medical imaging intracranial hemorrhage model
JPWO2022054858A1 (ja) * 2020-09-11 2022-03-17
JP2022074224A (ja) * 2020-11-04 2022-05-18 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017106645A1 (en) 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
CN107292884A (zh) 2017-08-07 2017-10-24 北京深睿博联科技有限责任公司 一种识别mri图像中水肿和血肿的方法及装置
WO2018026431A1 (en) 2016-08-01 2018-02-08 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US20180068218A1 (en) 2016-09-07 2018-03-08 Samsung Electronics Co., Ltd. Neural network based recognition apparatus and method of training neural network
US20180075628A1 (en) 2016-09-12 2018-03-15 Zebra Medical Vision Ltd. Systems and methods for automated detection of an indication of malignancy in a mammographic image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251404A (ja) 1995-03-13 1996-09-27 Minolta Co Ltd 画像領域属性判別方法及び装置
CN101065762A (zh) * 2004-11-23 2007-10-31 伊斯曼柯达公司 使用组织信息的自动放射线照片分类
EP1780651A1 (en) * 2005-10-25 2007-05-02 Bracco Imaging, S.P.A. Method and system for automatic processing and evaluation of images, particularly diagnostic images
JP2016031747A (ja) 2014-07-30 2016-03-07 キヤノン株式会社 情報処理装置、情報処理方法
US20170236027A1 (en) * 2016-02-16 2017-08-17 Brainchip Inc. Intelligent biomorphic system for pattern recognition with autonomous visual feature extraction
US9886758B2 (en) * 2016-03-31 2018-02-06 International Business Machines Corporation Annotation of skin image using learned feature representation
KR101908680B1 (ko) * 2016-08-30 2018-10-17 주식회사 루닛 약한 지도 학습 기반의 기계 학습 방법 및 그 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017106645A1 (en) 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
WO2018026431A1 (en) 2016-08-01 2018-02-08 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US20180068218A1 (en) 2016-09-07 2018-03-08 Samsung Electronics Co., Ltd. Neural network based recognition apparatus and method of training neural network
US20180075628A1 (en) 2016-09-12 2018-03-15 Zebra Medical Vision Ltd. Systems and methods for automated detection of an indication of malignancy in a mammographic image
CN107292884A (zh) 2017-08-07 2017-10-24 北京深睿博联科技有限责任公司 一种识别mri图像中水肿和血肿的方法及装置

Also Published As

Publication number Publication date
WO2020054188A1 (ja) 2020-03-19
US11915414B2 (en) 2024-02-27
JPWO2020054188A1 (ja) 2021-08-30
EP3851049A4 (en) 2021-11-10
US20210150713A1 (en) 2021-05-20
EP3851049A1 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
JP7018856B2 (ja) 医用画像処理装置、方法およびプログラム
US11244455B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
US11915414B2 (en) Medical image processing apparatus, method, and program
JP7129869B2 (ja) 疾患領域抽出装置、方法及びプログラム
US11049251B2 (en) Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
US20190026888A1 (en) Method and apparatus for presentation of medical images
JPWO2020158717A1 (ja) 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
US20140153795A1 (en) Parametric imaging for the evaluation of biological condition
JP7114347B2 (ja) 断層画像予測装置および断層画像予測方法
US11551351B2 (en) Priority judgement device, method, and program
JP7479546B2 (ja) 表示装置、方法およびプログラム
JP7007469B2 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
WO2019102917A1 (ja) 読影医決定装置、方法およびプログラム
JP7098498B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
US11328414B2 (en) Priority judgement device, method, and program
WO2020262681A1 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
WO2020110520A1 (ja) 類似度決定装置、方法およびプログラム
WO2021060461A1 (ja) 画像処理装置、方法およびプログラム
WO2021246047A1 (ja) 経過予測装置、方法およびプログラム
US20230143966A1 (en) Image processing apparatus and non-transitory computer readable medium
CN118103923A (zh) 用于阿尔茨海默病分类的多模态神经网络

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220412

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220705

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230117

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230824

R150 Certificate of patent or registration of utility model

Ref document number: 7339270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150