JP7389233B2 - 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル - Google Patents

画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル Download PDF

Info

Publication number
JP7389233B2
JP7389233B2 JP2022514447A JP2022514447A JP7389233B2 JP 7389233 B2 JP7389233 B2 JP 7389233B2 JP 2022514447 A JP2022514447 A JP 2022514447A JP 2022514447 A JP2022514447 A JP 2022514447A JP 7389233 B2 JP7389233 B2 JP 7389233B2
Authority
JP
Japan
Prior art keywords
image
tomographic
dimensional
coordinate information
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022514447A
Other languages
English (en)
Other versions
JPWO2021205990A1 (ja
JPWO2021205990A5 (ja
Inventor
卓也 淵上
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021205990A1 publication Critical patent/JPWO2021205990A1/ja
Publication of JPWO2021205990A5 publication Critical patent/JPWO2021205990A5/ja
Application granted granted Critical
Publication of JP7389233B2 publication Critical patent/JP7389233B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、3次元画像に対する画像処理装置、方法およびプログラム、学習装置、方法およびプログラム並びに導出モデルに関する。
近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、CT画像およびMRI画像等の3次元画像を用いた画像診断により、病変の領域を精度よく特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。
ところで、3次元画像に含まれる臓器等の構造物を抽出するために、構造物の範囲を示す直方体(すなわちバウンディングボックス)を3次元画像に設定することが提案されている。例えば特表2016-527994号公報には、3次元画像の1つの断層画像において同定された位置において、中間的な3次元表現を生成し、中間的な3次元表現から構造物の3次元モデルを生成することにより、その3次元モデルの範囲を示すバウンディングボックスを描画する手法が提案されている。
しかしながら、3次元画像において構造物の範囲を示すバウンディングボックスの3次元座標を設定する処理は演算量が多いため、処理に長時間を要する。
本開示は上記事情に鑑みなされたものであり、3次元画像において構造物の範囲を示す3次元座標を効率よく設定することを目的とする。
本開示による画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、構造物を含む断層画像から、構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出する。
なお、本開示による画像処理装置においては、プロセッサは、複数の断層画像を含む3次元画像から構造物を含む少なくとも1つの断層画像を選択するものであってもよい。
また、本開示による画像処理装置においては、3次元座標情報は、構造物を囲む直方体を規定する複数の頂点の3次元座標を含むものであってもよい。
また、本開示による画像処理装置においては、複数の頂点は、直方体を規定する頂点のうちの、最も離れた位置にある2つの頂点を含むものであってもよい。
「最も離れた位置にある2つの頂点を含む」とは、最も離れた位置にある2つの頂点のみならず、2つの頂点以外の他の頂点を含んでいてもよいことを意味する。
また、本開示による画像処理装置においては、プロセッサは、共通の構造物を含む複数の断層画像のそれぞれから構造物についての仮の3次元座標情報を導出し、仮の3次元座標情報を統合して、3次元座標情報を導出するものであってもよい。
この場合、プロセッサは、複数の断層画像のそれぞれについての仮の3次元座標情報を共通の座標系に変換し、変換された仮の3次元座標情報を統合することにより3次元座標情報を導出するものであってもよい。
またこの場合、プロセッサは、同一の構造物の上端または下端を含む断層画像について導出した仮の3次元座標情報に対しては、上端または下端に近い方の仮の3次元座標情報を高い優先度で統合して、3次元座標情報を導出するものであってもよい。
「統合」とは、複数の仮の3次元座標情報から1つの3次元座標情報を導出することを意味する。例えば、「統合」としては、加算平均および重み付け加算平均等を用いることができる。
また、本開示による画像処理装置においては、プロセッサは、それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像を取得し、
第1の3次元画像に含まれる構造物についての第1の3次元座標情報および第2の3次元画像に含まれる構造物についての第2の3次元座標情報を導出し、
第1の3次元座標情報および第2の3次元座標情報を用いて、第1の3次元画像および第2の3次元画像にそれぞれ含まれる共通の構造物の、少なくとも断層画像と交わる方向における位置合わせを行うことにより、第1の3次元画像と第2の3次元画像との、少なくとも断層画像と交わる方向における位置合わせを行うものであってもよい。
この場合、第1の3次元画像および第2の3次元画像は、同一被検体についての撮影装置が異なる3次元画像であってもよい。
また、この場合、第1の3次元画像および第2の3次元画像は、同一被検体についての撮影時期が異なる3次元画像であってもよい。
また、この場合、プロセッサは、第1および第2の3次元画像のそれぞれについて、異なる手法により第1および第2の3次元座標情報を導出するものであってもよい。
また、本開示による画像処理装置においては、断層画像が入力されると、入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いて学習がなされた導出モデルを有するものであってもよい。
本開示による学習装置は、少なくとも1つのプロセッサを備え、
プロセッサは、断層画像が入力されると、入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を出力する導出モデルを、教師データを用いての機械学習を行うことにより構築する。
なお、本開示による学習装置においては、教師データは、教師用断層画像、および教師用断層画像に含まれる構造物の断層面内の位置を規定し、かつ教師用断層画像と交わる方向における構造物の端部の断層面外の位置を規定する教師用3次元座標情報を含むものであってもよい。
本開示による導出モデルは、断層画像が入力されると、入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いての機械学習を行うことにより構築されている。
本開示による画像処理方法は、構造物を含む断層画像から、構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出する。
本開示による学習方法は、断層画像が入力されると、入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を出力する導出モデルを、教師データを用いての機械学習を行うことにより構築する。
なお、本開示による画像処理方法および学習方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、3次元画像において構造物の範囲を示す3次元座標を効率よく設定することができる。
本開示の実施形態による画像処理装置および学習装置を適用した医療情報システムの概略構成を示す図 本実施形態による画像処理装置の概略構成を示す図 本実施形態による画像処理装置の機能構成図 人体の胴体部分のコロナル断面を模式的に示す図 断層画像の選択を説明するための図 3次元座標情報の導出を説明するための図 バウンディングボックスを3次元的に示す図 本実施形態における導出モデルに用いられるネットワークの構成を示すブロック図 教師データの例を示す図 バウンディングボックスと3次元座標情報との関係を説明するための図 肺が見切れている3次元画像を示す図 肝臓の断層面の位置に応じた教師データの導出を説明するための図 3次元座標情報の導出の精度を説明するための図 ある臓器から見た断層画像の相対位置と、損失に対する重みとの関係を示す図 3次元座標情報の導出を説明するための図 3次元座標情報の導出を説明するための図 仮の3次元座標情報の統合を説明するための図 位置合わせを説明するための図 表示画面を示す図 本実施形態において行われる学習処理を示すフローチャート 本実施形態において行われる画像処理を示すフローチャート 断層画像の選択を説明するための図
以下、図面を参照して本開示の実施形態について説明する。まず、本実施形態による画像処理装置および学習装置を適用した医療情報システム1の構成について説明する。図1は、医療情報システム1の概略構成を示す図である。図1に示す医療情報システム1は、公知のオーダリングシステムを用いた診療科の医師からの検査オーダに基づいて、被写体の検査対象部位の撮影、撮影により取得された医用画像の保管、読影医による医用画像の読影と読影レポートの作成、および依頼元の診療科の医師による読影レポートの閲覧と読影対象の医用画像の詳細観察とを行うためのシステムである。
図1に示すように、医療情報システム1は、複数の撮影装置2、読影端末である複数の読影WS(WorkStation)3、診療WS4、画像サーバ5、画像データベース(以下、画像DB(DataBase)とする)6、レポートサーバ7およびレポートデータベース(以下レポートDBとする)8が、有線または無線のネットワーク10を介して互いに通信可能な状態で接続されて構成されている。
各機器は、医療情報システム1の構成要素として機能させるためのアプリケーションプログラムがインストールされたコンピュータである。アプリケーションプログラムは、ネットワーク10に接続されたサーバコンピュータの記憶装置、若しくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)およびCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
撮影装置2は、被写体の診断対象となる部位を撮影することにより、診断対象部位を表す医用画像を生成する装置(モダリティ)である。具体的には、単純X線撮影装置、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。本実施形態においては、撮影装置2において、複数のスライス画像からなる3次元画像を医用画像として取得するものとする。撮影装置2により生成された医用画像は画像サーバ5に送信され、画像DB6に保存される。
読影WS3は、例えば放射線科の読影医が、医用画像の読影および読影レポートの作成等に利用するコンピュータであり、本実施形態による画像処理装置および学習装置を内包する。読影WS3では、画像サーバ5に対する医用画像の閲覧要求、画像サーバ5から受信した医用画像に対する各種画像処理、医用画像の表示、および医用画像に関する所見文の入力受け付け等が行われる。また、読影WS3では、医用画像の読影、読影結果に基づく読影レポートの作成、レポートサーバ7に対する読影レポートの登録要求と閲覧要求、およびレポートサーバ7から受信した読影レポートの表示が行われる。これらの処理は、読影WS3が各処理のためのソフトウェアプログラムを実行することにより行われる。
診療WS4は、診療科の医師が、画像の詳細観察、読影レポートの閲覧、および電子カルテの作成等に利用するコンピュータであり、処理装置、ディスプレイ等の表示装置、並びにキーボードおよびマウス等の入力装置により構成される。診療WS4では、画像サーバ5に対する画像の閲覧要求、画像サーバ5から受信した画像の表示、レポートサーバ7に対する読影レポートの閲覧要求、およびレポートサーバ7から受信した読影レポートの表示が行われる。これらの処理は、診療WS4が各処理のためのソフトウェアプログラムを実行することにより行われる。
画像サーバ5は、汎用のコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。また、画像サーバ5は画像DB6が構成されるストレージを備えている。ストレージは、画像サーバ5とデータバスとによって接続されたハードディスク装置であってもよいし、ネットワーク10に接続されているNAS(Network Attached Storage)およびSAN(Storage Area Network)に接続されたディスク装置であってもよい。また、画像サーバ5は、撮影装置2からの医用画像の登録要求を受け付けると、その医用画像をデータベース用のフォーマットに整えて画像DB6に登録する。
画像DB6には、撮影装置2において取得された医用画像の画像データと付帯情報とが登録される。付帯情報には、例えば、個々の医用画像を識別するための画像ID(identification)、被写体を識別するための患者ID、検査を識別するための検査ID、医用画像毎に割り振られるユニークなID(UID:unique identification)、医用画像が生成された検査日、検査時刻、医用画像を取得するための検査で使用された撮影装置の種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の医用画像を取得した場合のシリーズ番号あるいは採取番号等の情報が含まれる。また、本実施形態においては、画像DB6には、同一患者についての撮影日時が異なる複数の医用画像、または同一患者についての撮影装置が異なる複数の医用画像を保管して管理しているものとする。例えば、画像DB6は、同一患者について、CT装置およびMRI装置により同時期に取得されたCT画像およびMRI画像を保管して管理している。
また、画像サーバ5は、読影WS3および診療WS4からの閲覧要求をネットワーク10経由で受信すると、画像DB6に登録されている医用画像を検索し、検索された医用画像を要求元の読影WS3および診療WS4に送信する。なお、本実施形態においては、画像サーバ5には、後述する導出モデル23Aを学習するための多数の教師データが保存されている。画像サーバ5は、教師データの取得要求をネットワーク10経由で受信すると、教師データを要求元の読影WS3に送信する。
レポートサーバ7には、汎用のコンピュータにデータベース管理システムの機能を提供するソフトウェアプログラムが組み込まれる。レポートサーバ7は、読影WS3からの読影レポートの登録要求を受け付けると、その読影レポートをデータベース用のフォーマットに整えてレポートDB8に登録する。
レポートDB8には、読影医が読影WS3を用いて作成した所見文を少なくとも含む読影レポートが登録される。読影レポートは、例えば、読影対象の医用画像、医用画像を識別する画像ID、読影を行った読影医を識別するための読影医ID、病変名、病変の位置情報、特定領域を含む医用画像にアクセスするための情報、および性状情報等の情報を含んでいてもよい。
また、レポートサーバ7は、読影WS3および診療WS4からの読影レポートの閲覧要求をネットワーク10経由で受信すると、レポートDB8に登録されている読影レポートを検索し、検索された読影レポートを要求元の読影WS3および診療WS4に送信する。
なお、本実施形態においては、CT画像およびMRI画像等の3次元画像を読影の対象とする。しかしながら、読影の対象は、CT画像およびMRI画像に限定されるものではなく、単純X線撮影装置により取得された単純2次元画像等の任意の医用画像を用いることができる。
ネットワーク10は、病院内の各種機器を接続する有線または無線のローカルエリアネットワークである。読影WS3が他の病院あるいは診療所に設置されている場合には、ネットワーク10は、各病院のローカルエリアネットワーク同士をインターネットまたは専用回線で接続した構成としてもよい。
次いで、本開示の実施形態による画像処理装置および学習装置について説明する。図2は、本実施形態による画像処理装置および学習装置のハードウェア構成を説明する。図2に示すように、画像処理装置および学習装置(以下、画像処理装置で代表させる)20は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、画像処理装置20は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク10に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像処理プログラム12Aおよび学習プログラム12Bが記憶される。CPU11は、ストレージ13から画像処理プログラム12Aおよび学習プログラム12Bを読み出してメモリ16に展開し、展開した画像処理プログラム12Aおよび学習プログラム12Bを実行する。
次いで、本実施形態による画像処理装置の機能的な構成を説明する。図3は、本実施形態による画像処理装置の機能的な構成を示す図である。図3に示すように画像処理装置20は、CPU11が、画像処理プログラム12Aおよび学習プログラム12Bを実行することにより、画像取得部21、選択部22、導出部23、学習部24、位置合わせ部25、表示制御部26、保存制御部27および通信部28として機能する。
画像取得部21は、操作者である読影医による入力デバイス15からの指示により、画像サーバ5から読影レポートを作成するためのCT画像G1およびMRI画像G2を取得する。CT画像G1およびMRI画像G2は同一患者を同時期に撮影することにより取得されたものである。なお、CT画像G1およびMRI画像G2は、複数の断層画像を含む3次元画像である。このため、本実施形態においては、CT画像G1およびMRI画像G2を区別しない場合には、単に3次元画像と称する場合があるものとする。CT画像G1およびMRI画像G2が、本開示の第1の3次元画像および第2の3次元画像の一例である。
選択部22は、CT画像G1およびMRI画像G2から断層画像を選択する。ここで、CT画像G1およびMRI画像G2は3次元画像であり、患者の体軸に交わるアキシャル断面を表す複数の断層画像からなる。図4は、人体の胴体部分のコロナル断面を模式的に示す図である。コロナル断面は患者を正面から見た断面である。人体内には、図4に示す肺、心臓、肝臓、胃、小腸、大腸および腎臓(破線で示す)に加えて、脳、骨および血管等の構造物が存在し、アキシャル断面の位置に応じて、断層画像に含まれる構造物が異なる。例えば、断層面D01の断層画像は肺および心臓等を含み、断層面D02の断層画像は肝臓および胃等を含み、断層面D03の断層画像は腎臓、大腸および小腸等を含む。
本実施形態においては、選択部22は、上述したように画像取得部21が取得したCT画像G1およびMRI画像G2のそれぞれから、予め定められた間隔により複数の断層画像を選択する。図5は断層画像の選択を説明するための図である。図5に示すように、選択部22は、CT画像G1およびMRI画像G2を構成する断層画像を等間隔で間引くことにより、複数の断層面Dkのそれぞれを表す断層画像DGk(ここではk=1~8)を選択する。なお、以降の説明においては、図5に示すように人体を正面から見た場合の左右方向をx方向、奥行き方向をy方向、上下方向すなわち体軸方向をz方向とする。断層画像により表される断層面は、3次元画像におけるxy方向の断層面となる。
導出部23は、3次元画像G1,G2において、選択部22が選択した断層画像DGkから、断層画像DGkに含まれる構造物の断層面内の位置を規定し、かつ断層画像DGkと交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出する。例えば、図5に示す断層面D3を表す断層画像DG3に関して、導出部23は、3次元画像G1,G2において、選択した断層画像DG3に含まれる左右の肺のそれぞれの断層面内の位置を規定し、かつ断層画像DG3と交わる方向における左右の肺の断層面外にある上下端部を規定する3次元座標情報を導出する。本実施形態において、断層画像DG3と交わる方向は体軸方向であるz方向である。3次元座標情報は、図6に示すように、3次元画像G1,G2において、断層画像DG3に含まれる左右の肺を囲むバウンディングボックス40R,40Lを規定する複数の頂点の座標値である。なお、図6および以降の説明においては、3次元画像G1,G2を2次元で、バウンディングボックスを矩形の領域で表す場合があるものとする。
図7はバウンディングボックスを3次元的に示す図である。図7に示すように、断層画像DG3には、左右の肺の断層像41R,41Lが含まれている。3次元画像G1,G2においては、左右の肺は図7における破線42R,42Lに示すように存在する。導出部23は、断層画像DG3から、3次元画像において、肺に外接することにより肺を囲むバウンディングボックス40R,40Lを規定する複数の頂点の3次元座標を、3次元座標情報として導出する。
ここで、バウンディングボックス40R,40Lは、x方向、y方向およびz方向に平行な辺を有する直方体である。バウンディングボックス40R,40Lを規定する8つの頂点のうち、最も離れた位置にある2つの頂点が規定されれば、直方体の形状を規定できる。例えば、図7に示す頂点43R,44Rが規定されれば、バウンディングボックス40Rの直方体の形状を規定できる。本実施形態においては、導出部23は、3次元画像内において構造物である肺を囲むバウンディングボックス40R,40Lを規定する8つの頂点のうちの、最も離れた位置にある2つの頂点の3次元座標を、3次元座標情報として導出するものとする。
本実施形態においては、3次元座標情報を導出するために、導出部23は、断層画像が入力されると、入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いての機械学習を行うことに構築された導出モデル23Aを有する。
以下、導出モデル23Aを構築するための機械学習について説明する。導出モデル23Aを構築するための機械学習は、学習部24が行う。本実施形態においては、学習部24は、教師用3次元画像に含まれる教師用断層画像、および教師用3次元画像に含まれる構造物の断層面内の位置を規定し、かつ教師用断層画像と交わる方向における構造物の端部の断層面外の位置を規定する教師用3次元座標情報を含む教師データを用いて、ニューラルネットワークを機械学習することにより、導出モデル23Aを構築する。
ここで、ニューラルネットワークとして、深層学習(ディープラーニング)がなされた多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(以下CNN(Convolutional Neural Network)とする)を用いたFaster-RCNN(Regions with CNN features)が知られている(例えば、米国特許第9858496号明細書および「Ren, Shaoqing, et al. "Faster R-CNN: Towards real-time object detection with region proposal networks." Advances in neural information processing systems. 2015.」参照)。本実施形態においては、導出モデル23Aは、Faster-RCNNをベースにしたネットワークを機械学習することにより構築されるものとする。
なお、導出モデル23Aを構築するネットワークは、Faster-RCNNをベースとしたものに限定されない。例えば、「Wei Liu et al., "SSD: Single Shot MultiBox Detector", ECCV, 2016」、「Joseph Redmon et al., "You Only Look Once: Unified, Real-Time Object Detection", arXiv, 2016」、「Mingxing Tan et al., "EfficientDet: Scalable and Efficient Object Detection", arXiv, 2020」、または「Nicolas Carion et al., "End-to-End Object Detection with Transformers", arXiv, 2020」等の他の物体検出モデルをベースにして導出モデル23Aを構築してもよい。
ここで、Faster-RCNNは、入力画像から特徴量を抽出して特徴マップを生成する畳み込み層と、入力画像における物体の候補領域を特定するRPN(Region Proposal Networks)と、特徴マップおよび物体候補領域を入力として、物体のカテゴリの分類および回帰の結果を出力する分類ネットワークとから構成される。図8は、本実施形態における導出モデル23Aに用いられるFaster-RCNNをベースにしたネットワークの構成を示すブロック図である。図8に示すように、ネットワーク30は、入力画像である断層画像DG0から特徴マップM0を生成する畳み込み層31、特徴マップM0に含まれる構造物の候補領域を特定するRPN32、および特徴マップM0と構造物の候補領域とに基づいて候補領域を分類し、分類した構造物の3次元座標情報を出力する分類ネットワーク33を含む。
畳み込み層31は、入力された断層画像DG0に対して各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴データからなる特徴マップを出力する。カーネルは、n×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。具体的には入力された画像のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層31は、カーネルの注目画素をずらしながら、入力された画像または前段の処理層から出力された特徴マップの全体にカーネルを適用する。さらに、畳み込み層31は、畳み込みされた値に対して、シグモイド関数等の活性化関数を適用し、特徴マップM0を出力する。
RPN32においては、複数種類のアスペクト比およびサイズを有するアンカーと呼ばれる矩形領域が予め定義される。RPN32においては、複数種類のアンカーを断層画像DG0から生成された特徴マップM0の各画素位置に適用し、断層画像DG0に含まれる物体候補との重なり率が最も大きいアンカーが選択される。そして、RPN32においては、選択されたアンカーを用いて、物体候補を囲む矩形(正解ボックス)と一致するようにアンカーを回帰させる(すなわち変形および移動させる)処理を、特徴マップM0の全画素において行い、正解ボックスと一致するように回帰されたアンカーの位置およびサイズが、入力された断層画像DG0における物体候補領域A0としてRPN32から出力される。
分類ネットワーク33は、全結合層からなり、物体候補領域A0および特徴マップM0に基づいて、断層画像DG0における物体候補領域の分類および分類した構造物の3次元座標情報の導出が行われる。具体的には、断層画像DG0の画素毎に、物体候補領域A0がある特定の領域であることのスコアを導出し、スコアが最大となる構造物にその画素を分類する。なお、スコアは0~1の値をとる。また、分類された画素からなる領域を囲むバウンディングボックスを規定する3次元座標情報を出力する。
次いで、導出モデル23Aにおけるネットワーク30を機械学習するための教師データについて説明する。図9は、教師データの例を示す図である。図9に示すように、教師データ50は、教師用3次元画像に含まれる教師用断層画像51、教師用断層画像51に含まれる構造物を表すラベル52、および教師用3次元画像において、教師用断層画像51に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する教師用3次元座標情報53を含む。なお、教師データ50に含まれる教師用断層画像51は1つに限定されるものではなく、複数であってもよい。
図9に示すように、教師用断層画像51は構造物として左右の肺を含む。ラベル52の内容は「肺」である。教師用3次元座標情報53は、教師用3次元画像に含まれる右肺を囲むバウンディングボックスを規定する3次元座標P1(x1,y1,z1)、P2(x2,y2,z2)、および左肺を囲む3次元座標P3(x3,y3,z3)、P4(x4,y4,z4)を含む。3次元座標P1,P2は、図10に示すように、教師用断層画像51に含まれる右肺を囲むバウンディングボックスの最も離れた2点の教師用3次元画像内における位置を規定する。3次元座標P3,P4は、教師用断層画像51に含まれる左肺を囲むバウンディングボックスの最も離れた2点の教師用3次元画像内における位置を規定する。ここで、バウンディングボックスを規定する3次元座標P1~P4のz座標は、教師用3次元画像を基準とした値を有するものであってもよいが、本実施形態においては、教師用断層画像51を基準とした値を有するものとする。例えば、本実施形態においては、教師用断層画像51の各画素のz座標の値を0としてバウンディングボックスの3次元座標P1~P4のz座標の値が定められる。
なお、本実施形態において、3次元画像はCT画像およびMRI画像である。ここで、人体に含まれる各種構造物は、同一の構造物であってもCT画像とMRI画像とで輝度値の分布範囲が異なる。このため、教師データに含まれる教師用断層画像51は、それがCT画像であってもMRI画像であっても、輝度値の分布範囲を一致させるための処理が施されている。輝度値の分布範囲を一致させるための処理としては、例えばMRI画像の輝度値をCT画像の輝度値に一致させるものであってもよく、CT画像の輝度値をMRI画像の輝度値に一致させるものであってもよい。なお、輝度値の分布範囲を一致させる処理は、例えば輝度値を変換するための変換テーブルあるいは変換式等を用いて行えばよい。また、CT画像およびMRI画像のそれぞれにおいて、画像内の輝度値分布が0から1までの範囲内に収まるように正規化処理を行うことにより、輝度値の分布範囲を一致させるようにしてもよい。正規化は、CT画像およびMRI画像のそれぞれについて、画像内の輝度値分布の標準偏差を求め、画像内の各ボクセルの輝度値をその標準偏差または標準偏差の定数倍の値で除算する等により行えばよい。
学習部24は、教師データ50に含まれる教師用断層画像51をネットワーク30に入力し、教師用断層画像51に含まれる構造物の分類結果を表すスコア、および構造物の端部を規定する3次元座標情報を出力させる。この場合、教師用断層画像51に含まれうる複数種類の構造物のそれぞれについてスコアが0~1の値の範囲で導出される。学習部24は、ラベル52に規定された構造物のスコアが1となるように、導出されたスコアと1との誤差を損失として導出する。そして、導出した損失により、確率的勾配降下法または誤差逆伝播法を用いて、ネットワーク30を構成する畳み込み層31、RPN32および分類ネットワーク33を学習する。
また、学習部24は、導出された3次元座標情報と、教師データ50に含まれる教師用3次元座標情報53との誤差を損失として導出する。そして損失が最小となるように、確率的勾配降下法または誤差逆伝播法を用いて、ネットワーク30を構成する畳み込み層31、RPN32および分類ネットワーク33を学習する。具体的には、ネットワーク30に含まれる畳み込み層31における層の数、プーリング層の数、カーネルの係数およびカーネルの大きさ等を導出し、RPN32におけるアンカーの位置および大きさ等を導出し、かつ分類ネットワーク33を構成する全結合層における結合の重み等を導出することにより、ネットワーク30を学習する。
これにより、ネットワーク30は、断層画像が入力されると、断層画像に含まれる構造物の分類結果、および分類された構造物を3次元画像内において囲むバウンディングボックスの3次元座標情報を出力するものとなる。
なお、3次元画像に含まれる構造物が、その3次元画像内で見切れている場合がある。例えば、図11に示すように肝臓を中心に撮影を行うことにより取得された3次元画像の場合、肺の上側が見切れている。このような3次元画像を教師用3次元画像として用いて肺についての教師データを導出する場合、肺の下側(足側)については、肺を囲むバウンディングボックスの教師用3次元座標情報を得ることができる。しかしながら、肺の上側(頭側)についてはバウンディングボックスの教師用3次元座標情報を得ることができない。
このような肺が見切れている教師用3次元画像から教師データを生成する場合、教師用3次元画像に含まれる範囲内において、肺を囲むバウンディングボックスについての3次元座標情報を、教師用3次元座標情報として用いる。具体的には、図11に示すように、右肺については、バウンディングボックス46Rについての最も離れた2つの頂点P11,P12の3次元座標情報を教師用3次元座標情報として用いる。また、左肺については、バウンディングボックス46Lについての最も離れた2つの頂点P13,P14の3次元座標情報を教師用3次元座標情報として用いる。さらに、教師データには、肺の上側が見切れていることを表すフラグを付与する。
そして、このような教師データを用いてネットワーク30の学習を行う際には、学習部24は、ネットワーク30から出力された3次元座標情報に関して、肺の上側の3次元座標については、教師データとの誤差すなわち損失に対する重みを小さくして、ネットワーク30の学習を行う。これにより、教師データを生成した教師用3次元画像において、構造物がz方向において見切れている場合であっても、見切れている構造物の影響を小さくしてネットワーク30の学習を行うことができる。
また、断層画像に含まれる構造物について、構造物のz方向における断層面の位置に応じて、ネットワーク30を用いての3次元座標情報の導出の精度が異なる。例えば、図12に示すように、肝臓の上部の断層面D11、中部の断層面D12および下部の断層面D13のそれぞれについて教師データを導出する場合を考える。図13は3次元座標情報の導出の精度を説明するための図である。なお、図13には肝臓を囲むバウンディングボックス60を実線で示し、ネットワーク30が出力した3次元座標情報に基づくバウンディングボックス(以下出力バウンディングボックスとする)61を破線で示している。図13に示すように、肝臓の上部の断層面D11を表す断層画像DG11をネットワーク30に入力した場合、出力された肝臓の上部側の3次元座標情報の精度は高いが、下部側の3次元座標情報の精度は低くなる。このため、肝臓の上部において、出力バウンディングボックス61はバウンディングボックス60と略一致するが、肝臓の下部において、出力バウンディングボックス61はバウンディングボックス60との相違が大きくなる。逆に、肝臓の下部の断層面D13を表す断層画像DG13をネットワーク30に入力した場合、出力された肝臓の下部側の3次元座標情報の精度は高いが、上部側の3次元座標情報の精度は低くなる。
このため、ネットワーク30の学習を行う際に、ネットワーク30により出力された3次元座標情報のz座標に関して、学習部24は、教師データに含まれる教師用断層画像に含まれる構造物の、z方向における断層面の位置に応じて、教師データとの損失の重みを変更して、ネットワーク30の学習を行う。図14は、ある臓器から見た断層画像の相対位置と、損失に対する重みとの関係を示す図である。図14において、実線R1は、断層画像から予測される「構造物の下端の3次元座標」と正解となる教師用3次元座標との誤差(すなわち損失)に対する重み係数を表す。破線R2は、断層画像から予測される「構造物の上端の3次元座標」と正解となる教師用3次元座標との誤差に対する重み係数を表す。ここで、重み係数は、その値が大きいほど、学習時における損失、すなわち正解との誤差に対するペナルティが大きいものとなる。
実線R1に示すように、断層画像が臓器の上端付近であれば、下端の3次元座標の予測は難しいため重みは小さくなる。逆に断層画像が臓器の下端付近であれば、下端の3次元座標の予測は容易であるため、重みは大きくなる。一方、破線R2に示すように、断層画像が臓器の上端付近であれば、上端の3次元座標の予測は容易であるため重みは大きくなる。逆に断層画像が臓器の下端付近であれば、上端の3次元座標の予測は難しいため重みは小さくなる。
図14に示すような重みを用いることにより、上述した図12に示す肝臓の上部の断層面D11を表す断層画像DG11を教師用断層画像として用いる場合、導出モデル23Aにおけるネットワーク30から出力された3次元座標情報について、上端側の3次元座標情報に対しては損失に対する重みが大きくなり、下端側の3次元座標情報に対しては損失に対する重みが小さくなる。また、上述した図12に示す肝臓の下部の断層面D13を表す断層画像DG13を教師用断層画像として用いる場合、ネットワーク30から出力された3次元座標情報について、下端側の3次元座標情報に対しては損失に対する重みが大きくなり、上端側の3次元座標情報に対しては損失に対する重みが小さくなる。
これにより、3次元座標情報を導出する精度がそれほどよくない教師用断層画像を含む教師データを用いる場合であっても、そのような教師データのネットワーク30の学習に対する影響を小さくすることができる。このため、構造物の上端および下端を規定する3次元座標情報をより精度よく導出できるように、ネットワーク30の学習を行うことができる。
導出モデル23Aは、上記のように機械学習により構築される。このため、導出モデル23Aは、断層画像が入力されると、入力された断層画像に含まれる構造物を囲むバウンディングボックスを規定する3次元座標情報を出力する。例えば、選択部22によって図5に示す断層面D5を表す断層画像DG5が選択されたとすると、導出部23は、断層画像DG5に含まれる左肺、右肺および肝臓についての3次元画像G1,G2内の3次元座標情報を導出する。なお、CT画像G1について導出した3次元座標情報が、本開示の第1の3次元座標情報に対応し、MRI画像G2について導出した3次元座標情報が、本開示の第2の3次元座標情報に対応する。
ここで、導出モデル23Aが出力したバウンディングボックスを規定する3次元座標情報に含まれるz座標は、導出モデル23Aに入力される断層画像を基準としたものとなる。すなわち、導出モデル23Aが出力したバウンディングボックスを規定する3次元座標情報に含まれるz座標は、断層画像のz座標の値を0としたときの値を有するものとなる。このため、バウンディングボックスを規定する3次元座標情報に含まれるz座標を3次元画像G1,G2の座標系と一致させるために、導出部23は、導出モデル23Aが出力した3次元座標情報に含まれるz座標を、導出モデル23Aに入力された断層画像の3次元画像G1,G2内におけるz座標に基づいて修正する。修正は、導出モデル23Aが出力したバウンディングボックスを規定する3次元座標情報に含まれるz座標に、断層画像の3次元画像G1,G2におけるz座標の値を加算することにより行えばよい。
このようにして導出された3次元座標情報を用いることにより、図15に示すように、3次元画像G1,G2に右肺を囲むバウンディングボックス62、左肺を囲むバウンディングボックス63および肝臓を囲むバウンディングボックス64を設定することができる。
ここで、導出部23は、3次元座標情報を導出する際に、CT画像G1とMRI画像G2との輝度値の分布範囲を一致させるための前処理を行う。前処理は、上述した教師データの教師用断層画像を生成する場合と同様に行えばよい。
なお、導出部23は、図5に示すように選択された複数の断層画像DG1~DG8のそれぞれについて、断層画像DG1~DG8に含まれる構造物の上端および下端を規定する3次元座標情報を導出する。この場合、導出部23は、例えば、肺を含む複数の断層画像DG2~DG6のそれぞれについて、3次元画像内の肺を囲むバウンディングボックスを規定する3次元座標情報を導出する。しかしながら、導出モデル23Aが出力する3次元座標情報は、構造物が同一であってもすべての断層画像において必ずしも一致するものではない。例えば、右肺について、断層画像DG2から導出した3次元座標情報により規定されるバウンディングボックス(以下、断層画像DG2に基づくバウンディングボックスとする)、および断層画像DG5から導出した3次元座標情報により定められるバウンディングボックス(以下、断層画像DG5に基づくバウンディングボックスとする)を考える。図16に示すように、断層画像DG2に基づくバウンディングボックス65と、断層画像DG5に基づくバウンディングボックス66とでは、その位置は完全には一致しない。
このため、導出部23は、導出モデル23Aにより、共通の構造物を含む複数の断層画像のそれぞれについての複数の仮の3次元座標情報を出力する。そして、導出部23は、導出モデル23Aが出力した複数の仮の3次元座標情報を統合して、共通の構造物についての3次元座標情報を導出する。具体的には、導出部23は、複数の断層画像のそれぞれについて導出モデル23Aが出力した仮の3次元座標情報の平均値を導出し、導出した平均値を複数の断層画像に含まれる共通の構造物についての3次元座標情報とする。この場合、平均値としては加算平均値でもよい。
なお、仮の3次元座標情報に含まれる座標は、仮の3次元座標情報を導出した断層画像のそれぞれが基準となっている。このため、統合に際しては、複数の仮の3次元座標情報の座標系を共通の座標系、例えば3次元画像G1,G2の座標系に変換した上で、複数の仮の3次元座標情報の平均値等を算出する必要がある。以下、統合について詳細に説明する。図17は仮の3次元座標情報の統合を説明するための図である。なお、以下では、図5に示す2つの断層画像DG6,DG7を用いることにより、肝臓を囲むバウンディングボックスの3次元座標情報が求められたものとして説明を行う。また、図17においては説明のために、アキシャル断面の断層画像を用いた統合の処理を示している。
図17に示すように、断層画像DG6に基づいてバウンディングボックス67が導出され、断層画像DG7に基づいてバウンディングボックス68が導出されたとする。バウンディングボックス67の座標系を、断層画像DG6を基準としたx6-z6座標系とする。バウンディングボックス68の座標系を、断層画像DG7を基準としたx7-z7座標系とする。バウンディングボックス67の仮の3次元座標情報に基づく上側および下側のz座標をそれぞれzs1,ze1とし、左側および右側のx座標をそれぞれxs1,xe1とする。x6-z6座標系においては断層画像DG6の位置のz座標の値が0となる。また、バウンディングボックス68の仮の3次元座標情報に基づく上側および下側のz座標をそれぞれzs2,ze2とし、左側および右側のx座標をそれぞれxs2,xe2とする。x7-z7座標系においては断層画像DG7の位置のz座標の値が0となる。
導出部23は、統合に際してバウンディングボックス67,68の座標系を3次元画像G1,G2の座標系に変換する。ここで、3次元画像G1,G2の座標系において、断層画像DG6のz座標をz_D6、断層画像DG7のz座標をz_D7とすると、導出部23は、バウンディングボックス67の上側および下側のz座標にz_D6を加算し、バウンディングボックス68の上側および下側のz座標にz_D7を加算することにより、座標系を変換する。これにより、バウンディングボックス67の上側および下側のz座標はそれぞれzs1+z_D6,ze1+z_D6となる。また、バウンディングボックス68の上側および下側のz座標はそれぞれzs2+z_D7,ze2+z_D7となる。なお、バウンディングボックス67,68のx座標およびy座標については変換されない。
そして、導出部23は、バウンディングボックス67,68のそれぞれについての座標変換後の仮の3次元座標情報の平均値を算出することにより、仮の3次元座標情報を統合する。具体的には、座標変換後のバウンディングボックス67,68のz座標およびx座標の加算平均を算出することにより、仮の3次元座標情報を統合する。これにより、統合されたバウンディングボックス69の上側のz座標は{(zs1+z_D6)+(zs2+z_D7)}/2となり、下側のz座標は{(ze1+z_D6)+(ze2+z_D7)}/2となる。なお、バウンディングボックス69の左側のx座標は(xs1+xs2)/2となり、右側のx座標は(xe1+xe2)/2となる。なお、バウンディングボックス69のy軸方向の座標値については、x軸方向と同様に算出すればよい。
一方、上述したように導出モデル23Aを構成するネットワーク30を学習する場合と同様に、断層画像に含まれる構造物のz方向における断層面の位置に応じて、導出モデル23Aが出力する3次元座標情報の精度が異なる。例えば、図5に示す断層面D2を表す断層画像DG2を用いた場合、肺の上端側の3次元座標情報の精度は高いが、肺の下端側の3次元座標情報の精度は上端ほど高くない。一方、断層面D5を表す断層画像DG5を用いた場合、肺の下端側の3次元座標情報の精度は高いが、肺の上端側の3次元座標情報の精度は下端ほど高くない。このため、各断層画像について導出した構造物の仮の3次元座標情報を統合するに際して、各断層画像に含まれる構造物のz方向における断層面の位置に応じた重み付け平均値を、最終的な3次元座標情報として導出することが好ましい。
例えば、説明のために、4つの断層面D2~D5のそれぞれを表す4つの断層画像DG2~DG5について、導出モデル23Aが出力し、かつ共通の座標系に変換した右肺の上端側の3次元座標情報をPu22~Pu25とした場合、下記の式(1)により、最終的な右肺の上端側の3次元座標情報Pu0を導出する。また、導出モデル23Aが出力し、かつ共通の座標系に変換した右肺の下端側の3次元座標情報をPl22~Pl25とした場合、下記の式(2)により、最終的な右肺の下端の3次元座標情報Pl0を導出する。
Pu0=w12*Pu22+w13*Pu23+w14*Pu24+w15*Pu25 (1)
Pl0=w22*Pl22+w23*Pl23+w24*Pl24+w25*Pl25 (2)
式(1)においてw12~w15は重み係数であり、w12+w13+w14+w15=1かつw12>w13>w14>w15である。式(2)において、w22~w25は重み係数であり、w22+w23+w24+w25=1かつw22<w23<w24<w25である。これにより、複数の断層画像に共通の構造物が含まれる場合であっても、構造物のz方向における断層面の位置に拘わらず、精度よく3次元座標情報を導出することができる。
位置合わせ部25は、CT画像G1とMRI画像G2との位置合わせを行う。このために、位置合わせ部25は、導出部23が導出した、CT画像G1に含まれる構造物の3次元座標情報と、MRI画像G2に含まれる構造物の3次元座標情報とを用いて、CT画像G1およびMRI画像G2にバウンディングボックスを設定する。そして、位置合わせ部25は、バウンディングボックスを用いてCT画像G1とMRI画像G2との位置合わせを行う。
図18は、CT画像とMRI画像との位置合わせを説明するための図である。なお、ここでは、CT画像G1およびMRI画像G2のそれぞれにおいて、右肺、左肺および肝臓に対してのみ、バウンディングボックス71A~71C、72A~72Cが設定されているものとして説明する。
位置合わせ部25は、CT画像G1において、バウンディングボックス71A~71Cのそれぞれの重心位置g1A~g1Cを導出する。また、位置合わせ部25は、MRI画像G2において、バウンディングボックス72A~72Cのそれぞれの重心位置g2A~g2Cを導出する。そして、互いに対応する重心位置g1A~g1Cおよび重心位置g2A~g2Cの、x方向、y方向およびz方向の位置が一致するように、CT画像G1およびMRI画像G2の位置合わせを行う。具体的には、位置合わせ部25は、重心位置g1Aと重心位置g2Aとの相違、重心位置g1Bと重心位置g2Bとの相違、および重心位置g1Cと重心位置g2Cとの相違の和が最小となるように、例えば最小自乗法を用いてCT画像G1に対するMRI画像G2の平行移動量、拡大率および回転量の少なくとも1つを含む位置合わせ量を導出する。そして位置合わせ部25は、導出した位置合わせ量に基づいて、CT画像G1およびMRI画像G2の一方を他方に対して平行移動、拡大縮小および/または回転させることにより、CT画像G1とMRI画像G2との位置合わせを行う。
なお、CT画像G1について導出した重心位置g1A~g1Cを統合した第1の統合重心位置と、MRI画像G2について導出した重心位置g2A~g2Cを統合した第2の統合重心位置とをそれぞれ導出し、導出した第1の統合重心位置と第2の統合重心位置とが一致するように位置合わせを行うようにしてもよい。また、注目する構造物を囲むバウンディングボックスの重心のみを用いて位置合わせを行うようにしてもよい。また、重心位置g1A~g1Cのそれぞれと、重心位置g2A~g2Cのそれぞれとが一致するように、CT画像G1に対してMRI画像G2を非線形に変形することにより、CT画像G1とMRI画像G2との位置合わせを行うようにしてもよい。
表示制御部26は、3次元画像G1,G2をディスプレイ14に表示する。図19は3次元画像の表示画面を示す図である。図19に示すように3次元画像の表示画面80は、画像表示領域81および文章表示領域82を含む。画像表示領域81は、CT画像G1を表示するための第1表示領域83、およびMRI画像G2を表示するための第2表示領域84を含む。第1表示領域83および第2表示領域84には、CT画像G1およびMRI画像G2に含まれる断層画像が表示される。表示される断層画像は、入力デバイス15を用いてCT画像G1およびMRI画像G2のいずれかを選択し、入力デバイス15のマウスが備えるスクロールホイール等を用いて切り替え表示することができる。なお、第1表示領域83に表示されるCT画像G1と第2表示領域84に表示されるMRI画像G2とのxy方向の位置は、位置合わせ部25により位置合わせがなされている。このため、第1表示領域83および第2表示領域84に表示される、CT画像G1およびMRI画像G2に含まれる被写体の断層面の画像上の位置は一致しているものとなる。
なお、読影医によって、CT画像G1とMRI画像G2とで別々の断層面を読影したい場合もあれば、表示される断層面を同期させたい場合もある。このため、本実施形態においては、表示される断層画像のz方向の位置、すなわち断層面の位置に関しては、後述する同期ボタンにより、表示する断層面の同期および非同期を切り替えるようにしている。
文章表示領域82には、読影医によるCT画像G1およびMRI画像G2の読影結果を表す所見文が、入力デバイス15を用いて入力される。
画像表示領域81の下方には、同期ボタン86が表示されている。同期ボタン86は、画像表示領域81に表示されているCT画像G1およびMRI画像G2の断層面の位置の同期および非同期を切り替えるためのものである。読影医は、CT画像G1またはMRI画像G2における所望とする断層面の断層画像を表示し、同期ボタン86を選択することにより、表示されるCT画像G1およびMRI画像G2の断層面の位置を一致させることができる。断層面の位置の一致は、位置合わせ部25による位置合わせ量のうちのz方向の平行移動量についての位置合わせ量を用いる。これにより、CT画像G1およびMRI画像G2における表示される断層画像が同一の断層面を表すものとなる。したがって、CT画像G1またはMRI画像G2のいずれか一方の断層面を切り替えることによって、他方の断層面も同期して切り替えることができる。また、断層面を同期させた後に同期ボタン86が再度選択されると、同期が解除される。これにより、CT画像G1とMRI画像G2とで別々の断層面の断層画像を表示することが可能となる。
文章表示領域82の下方には確定ボタン87が表示されている。読影医は、所見文の入力後、入力デバイス15を用いて確定ボタン87を選択することにより、所見文の入力内容を確定することができる。
保存制御部27は、読影医による確定ボタン87の選択により、文章表示領域82に記述された所見文を読影レポートに転記し、読影レポートおよび読影レポートを生成する際に参照したCT画像G1およびMRI画像G2の断層画像を併せて、ストレージ13に保存する。
通信部28は、文章表示領域82に記述された所見文が転記された読影レポート、および読影レポートを生成する際に参照したCT画像G1およびMRI画像G2の断層画像を併せて、ネットワークI/F17を介してレポートサーバ7に転送する。レポートサーバ7は、読影レポートおよびスライス画像を併せて保存する。
次いで、本実施形態において行われる処理について説明する。図20は本実施形態において行われる学習処理を示すフローチャートである。なお、複数の教師データが画像サーバ5から取得されて、ストレージ13に保存されているものとする。まず、学習部24が、ネットワーク30に対して教師データに含まれる教師用断層画像を入力し(ステップST1)、教師データに含まれるラベルおよび教師用3次元座標情報と、ネットワーク30から出力された構造物についてのスコアおよび3次元座標情報とに基づいて、損失を導出する(ステップST2)。
そして、学習部24は、損失が予め定められたしきい値以下となるように、ネットワーク30を学習する(ステップST3)。その後、ステップST1にリターンし、次の教師データをストレージ13から取得して、ステップST1~ステップST3の処理を繰り返す。なお、ステップST1~ステップST3の処理は、損失が予め定められたしきい値以下となるまで繰り返してもよく、予め定められた回数繰り返してもよい。これにより、学習済みの導出モデル23Aが構築される。
次いで、本実施形態において行われる画像処理について説明する。図21は本実施形態において行われる画像処理を示すフローチャートである。なお、読影の対象となるCT画像G1およびMRI画像G2は、画像取得部21により画像サーバ5から取得されて、ストレージ13に保存されているものとする。読影レポートの作成の指示が読影医により行われることにより処理が開始され、選択部22が、CT画像G1およびMRI画像G2から、断層画像DGkを選択する(ステップST11)。次いで、導出部23が、選択部22が選択した断層画像DGkから、断層画像DGkに含まれる構造物の断層面内の位置を規定し、かつ断層画像DGkと交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出する(ステップST12)。
次いで、位置合わせ部25が、3次元座標情報に基づくバウンディングボックスをCT画像G1およびMRI画像G2に設定し(ステップST13)、設定したバウンディングボックスを用いて、CT画像G1およびMRI画像G2の位置合わせを行う(ステップST14)。次いで、表示制御部26が、CT画像G1およびMRI画像G2を表示画面80に表示する(ステップST15)。続いて、同期ボタン86が選択されたか否かの監視が開始される(ステップST16)。ステップST16が肯定されると、CT画像G1およびMRI画像G2のz方向の位置を同期させて、CT画像G1およびMRI画像G2を表示し(同期表示切り替え;ステップST17)、ステップST16に戻る。この状態において、読影医は、表示されたCT画像G1およびMRI画像G2を読影して、文章表示領域82に所見文を入力することができる。なお、同期表示中に同期ボタン86が再度選択されると、同期表示から非同期表示に切り替えられることとなる。
ステップST16が否定されると、表示制御部26が、確定ボタン87が選択されたか否かを判定し(ステップST18)、ステップST18が否定されると、ステップST16に戻る。ステップST18が肯定されると、保存制御部27が、所見文をCT画像G1およびMRI画像G2についての読影レポートに転記し、読影レポート、CT画像G1およびMRI画像G2を併せて、ストレージ13に保存する(読影レポート等保存;ステップST19)。そして、通信部28が、読影レポート、CT画像G1およびMRI画像G2を併せて、ネットワークI/F17を介してレポートサーバ7に転送し(読影レポート等転送;ステップST20)、処理を終了する。
このように、本実施形態においては、CT画像G1またはMRI画像G2のような3次元画像から選択された2次元の断層画像DGkから、断層画像DGkに含まれる構造物の断層面内の位置を規定し、かつ断層画像DGkと交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出するようにした。このため、3次元画像そのものを用いて3次元画像に含まれる構造物の3次元座標情報を導出する場合と比較して、処理が必要な情報量が少なくなる。これにより、少ない演算量により3次元座標情報を導出することができる。したがって、本実施形態によれば、3次元画像において構造物の範囲を示す3次元座標を効率よく設定することができる。
また、本実施形態においては、導出された3次元座標情報を用いることにより、3次元画像に含まれる構造物に対して、効率よくバウンディングボックスを設定することができる。また、設定されたバウンディングボックスを用いることにより、CT画像G1およびMRI画像G2の位置合わせを効率よく行うことができる。
なお、上記実施形態においては、導出部23において、1つの断層画像の入力により、その断層画像に含まれる構造物の3次元座標情報を導出するようにしているが、これに限定されるものではない。複数の断層画像を1つの組として導出モデル23Aに入力することにより、複数の断層画像のそれぞれに含まれる共通の構造物について1つの3次元座標情報を導出するようにしてもよい。例えば、図22に示すように、断層画像DG3および断層画像DG3に隣接する複数の断層画像(図22においては合計5つ)を1組として導出モデル23Aに入力することにより、左肺についての1つの3次元座標情報を導出するようにしてもよい。すなわち、5つの断層画像の入力により、左肺を囲む1つのバウンディングボックスを規定する2点の3次元座標を導出するようにしてもよい。
この場合、導出モデル23Aは、共通する構造物を含む複数の教師用断層画像、複数の教師用断層画像に共通する構造物についてのラベル、およびその構造物についての教師用3次元座標情報からなる教師データを用いた機械学習により構築される。これにより、複数の断層画像の組が入力されると、複数の断層画像に含まれる共通の構造物の端部を規定する3次元座標情報を出力する導出モデル23Aを構築することができる。
なお、この場合、導出モデル23Aに入力される断層画像の数はいくつであってもよいが、3次元画像を構成するすべての断層画像の数よりも少ないものとする。これにより、3次元画像そのものを用いる場合よりも、少ない演算量により3次元座標情報を導出することができる。
また、上記実施形態において、CT画像G1からの3次元座標情報の導出と、MRI画像G2からの3次元座標情報の導出とをそれぞれ異なる導出モデルにより行うようにしてもよい。例えば、CT画像G1から3次元座標情報を導出する導出モデルとして、1つの断層画像の入力により3次元座標情報を導出するモデルを使用し、MRI画像G2から3次元座標情報を導出する導出モデルとして、複数の断層画像の入力により複数の断層画像に共通する構造物についての1つの3次元座標情報を導出するモデルを使用してもよい。
また、上記実施形態においては、CT画像G1およびMRI画像G2からそれぞれ同数の断層画像を選択しているが、これに限定されるものではない。CT画像G1およびMRI画像G2のそれぞれから異なる数の断層画像を選択してもよい。例えば、CT画像G1およびMRI画像G2のいずれか一方からは、1枚の断層画像のみを選択するようにしてもよい。ここで、CT画像G1から1枚の断層画像のみを選択したとすると、選択した1枚の断層画像を用いて、選択した1枚の断層画像に含まれる構造物を囲むバウンディングボックスをCT画像G1に設定できる。一方、MRI画像G2については、上記実施形態と同様に、複数の断層画像のそれぞれに含まれる構造物を囲むバウンディングボックスをMRI画像G2に設定できる。したがって、MRI画像G2については、CT画像G1において3次元座標情報を導出した構造物を含むすべての構造物について3次元座標情報を導出してバウンディングボックスを設定できる。このため、CT画像G1とMRI画像G2とで異なる数の断層画像を選択したとしても、CT画像G1とMRI画像G2との位置合わせを行うことができる。したがって、より少ない演算量により、CT画像G1とMRI画像G2との位置合わせを行うことができる。
また、上記実施形態においては、選択部22が、CT画像G1およびMRI画像G2から断層画像を選択しているが、これに限定されるものではない。表示制御部26が、CT画像G1およびMRI画像G2をディスプレイ14に表示し、表示されたCT画像G1およびMRI画像G2から操作者による所望とする断層面の選択を受け付けることにより、選択部22が断層画像を選択するようにしてもよい。
また、上記実施形態においては、導出部23が、バウンディングボックスにおける8つの頂点のうち、最も離れた位置にある2つの頂点を3次元座標情報として導出しているが、これに限定されるものではない。導出部23は、最も離れた位置にある2つの頂点以外の、バウンディングボックスを規定することが可能な複数の頂点を3次元座標情報として導出するものとしてもよい。例えば、バウンディングボックスを規定する8つの頂点のすべての3次元座標を3次元座標情報として導出するものとしてもよい。この場合、導出モデル23Aは、断層画像が入力されると、構造物を囲むバウンディングボックスおける予め定められた複数の頂点についての3次元座標情報を出力するものとなるように構築すればよい。このような導出モデル23Aの学習は、バウンディングボックスにおける予め定められた複数の頂点についての教師用3次元座標情報を含む教師データを用いて行えばよい。
また、上記実施形態においては、導出部23が、構造物の向きの情報を導出するものとしてもよい。この場合、導出モデル23Aは構造物の向きの情報を含む教師データを用いて機械学習を行うことにより、断層画像が入力されると、構造物の端部を規定する3次元座標情報に加えて、構造物の向きの情報を出力するものとなるように構築すればよい。
このように導出モデル23Aを構築した場合、以下のような処理を行うことが可能となる。すなわち、例えば、MRI画像を撮影する1回の検査において、アキシャル方向のMRI画像とサジタル方向のMRI画像とが混在している場合がある。このような場合、双方の画像を用いて、構造物の3次元座標情報を決定する。すなわち、アキシャル方向のMRI画像とサジタル方向のMRI画像のそれぞれの断層画像から、構造物の向きの情報も出力するように構築された導出モデル23Aを用いて、構造物の仮の3次元座標情報と向きとを導出する。ここで、両方向のMRI画像には、画像に付帯する付帯情報(例えばDICOM情報)にアキシャル画像とサジタル画像との断面間の相対的な位置と向きとの関係を表す情報が含まれる。このため、導出モデル23Aが導出した仮の3次元座標情報および向きと、アキシャル画像およびサジタル画像の断面間の相対的な位置および向きの関係を表す情報とに基づいて、仮の3次元座標情報を統合することにより、より精度よく構造物の端部を規定する3次元座標情報を求めることができる。
また、上記実施形態においては、異なる撮影装置により取得されたCT画像G1およびMRI画像G2の位置合わせのために、CT画像G1およびMRI画像G2に含まれる構造物についての3次元座標情報を導出しているが、処理対象の画像はこれらに限定されるものではない。例えば、同一患者についての最新の3次元画像(対象3次元画像とする)と、過去に撮影することにより取得された過去3次元画像との位置合わせを行う場合にも、本開示の技術を適用することができる。
この場合、選択部22は、対象3次元画像および過去3次元画像のそれぞれから少なくとも1つの断層画像を選択し、導出部23は、対象3次元画像および過去3次元画像のそれぞれにおいて、選択した断層画像と交わる方向における構造物の端部を規定する3次元座標情報を導出するものとすればよい。なお、対象3次元画像および過去3次元画像は、同一の撮影装置により取得されたものであってもよく、異なる撮影装置により取得されたものであってもよい。例えば、対象3次元画像がCT画像であり、過去3次元画像がMRI画像であってもよい。これにより、同一患者についての経過観察を行う場合にも、対象3次元画像と過去3次元画像との断層面の位置合わせを効率よく行うことができる。
また、本実施形態においては、例えば造影剤を用いて撮影を行う場合における、造影前のCT画像および造影後のCT画像を位置合わせの対象とすることもできる。この場合、選択部22は、造影前のCT画像および造影後のCT画像のそれぞれから少なくとも1つの断層画像を選択し、導出部23は、造影前のCT画像および造影後のCT画像のそれぞれにおいて、選択した断層画像と交わる方向における構造物の端部を規定する3次元座標情報を導出するものとすればよい。これにより、造影前後の患者の状態の観察を行う場合にも、造影前のCT画像と造影後のCT画像との表示される断層面の位置合わせを効率よく行うことができる。
また、上記実施形態においては、x方向、y方向およびz方向の位置合わせを行っているが、これに限定されるものではない。x方向およびy方向については、CT画像G1とMRI画像G2とで撮影時に概ね位置合わせがなされている。このため、z方向のみの位置合わせを行うようにしてもよい。
また、上記実施形態においては、複数の3次元画像の位置合わせを行うために、複数の断層画像のそれぞれから選択された断層画像を用いて、選択した断層画像と交わる方向における構造物の端部を規定する3次元座標情報を導出しているが、これに限定されるものではない。1つの3次元画像から対象とする構造物を抽出する処理を行う場合にも、本実施形態により導出した3次元座標情報を用いることができる。
例えば、3次元画像から肝臓を抽出する処理を行う場合、抽出処理の前に本実施形態によって肝臓の端部を規定する3次元座標情報を導出する。そして、導出した3次元座標情報に基づいて、肝臓を囲むバウンディングボックスを設定する。次いで、バウンディングボックス付近において肝臓の抽出処理を行う。ここで、3次元画像の全体に対して抽出処理を行うよりも、バウンディングボックス付近の画像のみを用いて抽出処理を行った方が、演算量が少なくて済む。このため、3次元画像から構造物を抽出する処理を行う際に、本実施形態により導出される3次元座標情報を用いてバウンディングボックスを設定することにより、3次元画像からの所望とする構造物の抽出を、少ない演算量で効率よく行うことができる。
また、上記実施形態においては、3次元画像から選択する断層画像として、アキシャル断面の断層画像を選択しているが、これに限定されるものではない。コロナル断面またはサジタル断面の断層画像を選択するようにしてもよい。この場合、導出部23における導出モデル23Aは、コロナル断面またはサジタル断面の断層画像の入力により、3次元画像において、コロナル断面またはサジタル断面に交わる方向における構造物の端部を規定する3次元座標情報を導出するものとなるように構築すればよい。この場合、導出モデル23Aの学習には、コロナル断面またはサジタル断面の教師用断層画像を含む教師データが用いられることとなる。
また、上記実施形態において、1つの断層画像に構造物の断層面の全体が含まれず、その断層画像内において構造物が見切れている場合がある。このような場合、断層画像と交わる方向に加えて、断層画像により表される断層面内における構造物の端部を規定する3次元座標情報を導出するようにすればよい。
また、上記実施形態において、例えば、画像取得部21、選択部22、導出部23、学習部24、位置合わせ部25、表示制御部26、保存制御部27および通信部28といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 医療情報システム
2 撮影装置
3 読影WS
4 診療
5 画像サーバ
6 画像DB
7 レポートサーバ
8 レポートDB
10 ネットワーク
11 CPU
12A 画像処理プログラム
12B 学習プログラム
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
20 画像処理装置
21 画像取得部
22 選択部
23 導出部
23A 導出モデル
24 学習部
25 位置合わせ部
26 表示制御部
27 保存制御部
28 通信部
30 ネットワーク
31 畳み込み層
32 RPN
33 分類ネットワーク
40R、40L、46R、46L、60~68、71A~71C、72A~72C バウンディングボックス
41R、41L 断層像
42R、42L 破線
43R、44R 頂点
50 教師データ
51 教師用断層画像
52 ラベル
53 教師用3次元座標情報
80 表示画面
81 画像表示領域
82 文章表示領域
83 第1表示領域
84 第2表示領域
86 同期ボタン
87 確定ボタン
D01~D03、D1~D8、D11~D13 断層面
DG1~DG8、DG11~DG13 断層画像
G1 CT画像
G2 MRI画像
g1A~g1C、g2A~g2C 重心位置
P11~P14 頂点

Claims (27)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    共通の構造物を含む複数の断層画像のそれぞれから、前記構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する仮の3次元座標情報を導出し、前記仮の3次元座標情報を統合して前記構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を導出する画像処理装置。
  2. 前記プロセッサは、前記複数の断層画像のそれぞれについての前記仮の3次元座標情報を共通の座標系に変換し、変換された前記仮の3次元座標情報を統合することにより前記3次元座標情報を導出する請求項に記載の画像処理装置。
  3. 前記プロセッサは、同一の前記構造物の上端または下端を含む断層画像について導出した仮の3次元座標情報に対しては、前記上端または前記下端に近い方の仮の3次元座標情報を高い優先度で統合して、前記3次元座標情報を導出する請求項またはに記載の画像処理装置。
  4. 前記プロセッサは、それぞれ複数の断層画像を含み、共通の前記構造物を含む第1の3次元画像および第2の3次元画像を取得し、
    前記第1の3次元画像に含まれる前記構造物についての第1の3次元座標情報および前記第2の3次元画像に含まれる前記構造物についての第2の3次元座標情報を導出し、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像にそれぞれ含まれる前記共通の構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う請求項1からのいずれか1項に記載の画像処理装置。
  5. 前記第1の3次元画像および前記第2の3次元画像は、同一被検体についての撮影装置が異なる3次元画像である請求項に記載の画像処理装置。
  6. 前記第1の3次元画像および前記第2の3次元画像は、同一被検体についての撮影時期が異なる3次元画像である請求項またはに記載の画像処理装置。
  7. 前記プロセッサは、前記第1および前記第2の3次元画像のそれぞれについて、異なる手法により前記第1および前記第2の3次元座標情報を導出する請求項からのいずれか1項に記載の画像処理装置。
  8. 前記断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いて学習がなされた導出モデルを有する請求項1からのいずれか1項に記載の画像処理装置。
  9. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    それぞれ複数の断層画像を含み、かつ共通の構造物を含む第1の3次元画像および第2の3次元画像を取得し、
    前記第1の3次元画像に含まれる前記構造物についての断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する第1の3次元座標情報を導出し、
    前記第2の3次元画像に含まれる前記構造物についての断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する第2の3次元座標情報を導出し、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像のそれぞれに含まれる前記共通の構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う画像処理装置。
  10. 前記第1の3次元画像および前記第2の3次元画像は、同一被検体についての撮影装置が異なる3次元画像である請求項に記載の画像処理装置。
  11. 前記第1の3次元画像および前記第2の3次元画像は、同一被検体についての撮影時期が異なる3次元画像である請求項または10に記載の画像処理装置。
  12. 前記プロセッサは、前記第1および前記第2の3次元画像のそれぞれについて、異なる手法により前記第1および前記第2の3次元座標情報を導出する請求項から11のいずれか1項に記載の画像処理装置。
  13. 前記断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いて学習がなされた導出モデルを有する請求項から12のいずれか1項に記載の画像処理装置。
  14. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    構造物を含む断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いて学習がなされた導出モデルを用いて、処理対象となる断層画像から、前記処理対象となる断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記処理対象となる断層画像と交わる方向における構造物の端部の前記断層面外の位置を規定する3次元座標情報を導出する画像処理装置。
  15. 前記プロセッサは、複数の断層画像を含む3次元画像から前記構造物を含む少なくとも1つの断層画像を選択する請求項1から14のいずれか1項に記載の画像処理装置。
  16. 前記3次元座標情報は、前記構造物を囲む直方体を規定する複数の頂点の3次元座標を含む請求項1から15のいずれか1項に記載の画像処理装置。
  17. 前記複数の頂点は、前記直方体を規定する頂点のうちの、最も離れた位置にある2つの頂点を含む請求項16に記載の画像処理装置。
  18. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力する導出モデルを、教師データを用いての機械学習を行うことにより構築する学習装置。
  19. 前記教師データは、教師用断層画像、および前記教師用断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記教師用断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する教師用3次元座標情報を含む請求項18に記載の学習装置。
  20. コンピュータが、共通の構造物を含む複数の断層画像のそれぞれから、前記構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する仮の3次元座標情報を導出し、前記仮の3次元座標情報を統合して前記構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を導出する画像処理方法。
  21. コンピュータが、それぞれ複数の断層画像を含み、かつ共通の構造物を含む第1の3次元画像および第2の3次元画像を取得し、
    前記第1の3次元画像に含まれる前記構造物についての断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する第1の3次元座標情報を導出し、
    前記第2の3次元画像に含まれる前記構造物についての断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する第2の3次元座標情報を導出し、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像のそれぞれに含まれる前記共通の構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う画像処理方法。
  22. コンピュータが、構造物を含む断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いて学習がなされた導出モデルを用いて、処理対象となる断層画像から、前記処理対象となる断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記処理対象となる断層画像と交わる方向における構造物の端部の前記断層面外の位置を規定する3次元座標情報を導出する画像処理方法。
  23. コンピュータが、断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力する導出モデルを、教師データを用いての機械学習を行うことにより構築する学習方法。
  24. 共通の構造物を含む複数の断層画像のそれぞれから、前記構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する仮の3次元座標情報を導出し、前記仮の3次元座標情報を統合して前記構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を導出する手順をコンピュータに実行させる画像処理プログラム。
  25. それぞれ複数の断層画像を含み、かつ共通の構造物を含む第1の3次元画像および第2の3次元画像を取得する手順と、
    前記第1の3次元画像に含まれる前記構造物についての断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する第1の3次元座標情報を導出する手順と、
    前記第2の3次元画像に含まれる前記構造物についての断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する第2の3次元座標情報を導出する手順と、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像のそれぞれに含まれる前記共通の構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う手順とをコンピュータに実行させる画像処理プログラム。
  26. 構造物を含む断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いて学習がなされた導出モデルを用いて、処理対象となる断層画像から、前記処理対象となる断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記処理対象となる断層画像と交わる方向における構造物の端部の前記断層面外の位置を規定する3次元座標情報を導出する手順をコンピュータに実行させる画像処理プログラム。
  27. 断層画像が入力されると、前記入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ前記断層画像と交わる方向における前記構造物の端部の前記断層面外の位置を規定する3次元座標情報を出力する導出モデルを、教師データを用いての機械学習を行うことにより構築する手順をコンピュータに実行させる学習プログラム。
JP2022514447A 2020-04-09 2021-04-01 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル Active JP7389233B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2020070312 2020-04-09
JP2020070312 2020-04-09
JP2020186787 2020-11-09
JP2020186787 2020-11-09
PCT/JP2021/014212 WO2021205990A1 (ja) 2020-04-09 2021-04-01 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル

Publications (3)

Publication Number Publication Date
JPWO2021205990A1 JPWO2021205990A1 (ja) 2021-10-14
JPWO2021205990A5 JPWO2021205990A5 (ja) 2022-12-20
JP7389233B2 true JP7389233B2 (ja) 2023-11-29

Family

ID=78024139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022514447A Active JP7389233B2 (ja) 2020-04-09 2021-04-01 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル

Country Status (3)

Country Link
US (1) US20230022549A1 (ja)
JP (1) JP7389233B2 (ja)
WO (1) WO2021205990A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283483A (ja) 2003-03-25 2004-10-14 Hitachi Medical Corp 磁気共鳴イメージング装置
JP2013102889A (ja) 2011-11-11 2013-05-30 Toshiba Corp 磁気共鳴イメージング装置
US20180315188A1 (en) 2017-04-21 2018-11-01 General Electric Company Automated organ risk segmentation machine learning methods and systems
US20190050981A1 (en) 2017-08-09 2019-02-14 Shenzhen Keya Medical Technology Corporation System and method for automatically detecting a target object from a 3d image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283483A (ja) 2003-03-25 2004-10-14 Hitachi Medical Corp 磁気共鳴イメージング装置
JP2013102889A (ja) 2011-11-11 2013-05-30 Toshiba Corp 磁気共鳴イメージング装置
US20180315188A1 (en) 2017-04-21 2018-11-01 General Electric Company Automated organ risk segmentation machine learning methods and systems
US20190050981A1 (en) 2017-08-09 2019-02-14 Shenzhen Keya Medical Technology Corporation System and method for automatically detecting a target object from a 3d image

Also Published As

Publication number Publication date
JPWO2021205990A1 (ja) 2021-10-14
WO2021205990A1 (ja) 2021-10-14
US20230022549A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
Torosdagli et al. Deep geodesic learning for segmentation and anatomical landmarking
JP7225295B2 (ja) 医用画像表示装置、方法およびプログラム
US8953856B2 (en) Method and system for registering a medical image
Meinzer et al. Computerized planning of liver surgery—an overview
EP3164075B1 (en) Unified coordinate system for multiple ct scans of patient lungs
EP3355273B1 (en) Coarse orientation detection in image data
US10268802B2 (en) Medical image processing apparatus and medical image processing system
WO2022037696A1 (zh) 基于深度学习的骨骼分割方法和系统
US20200058098A1 (en) Image processing apparatus, image processing method, and image processing program
US11468659B2 (en) Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
JP5415245B2 (ja) 医用画像表示装置および方法並びにプログラム
Hachaj et al. Visualization of perfusion abnormalities with GPU-based volume rendering
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
US20220108540A1 (en) Devices, systems and methods for generating and providing image information
JP2018175366A (ja) 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
JP7007469B2 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
JP7389233B2 (ja) 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
JP7389234B2 (ja) 画像位置合わせ装置、方法およびプログラム
Karner et al. Single-shot deep volumetric regression for mobile medical augmented reality
WO2021193548A1 (ja) 文書作成支援装置、方法およびプログラム
Zhang et al. A spine segmentation method under an arbitrary field of view based on 3d swin transformer
JPWO2020090445A1 (ja) 領域修正装置、方法およびプログラム
Amara et al. Augmented Reality for medical practice: a comparative study of Deep learning models for Ct-scan segmentation
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
US11501442B2 (en) Comparison of a region of interest along a time series of images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7389233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150