JP7389234B2 - 画像位置合わせ装置、方法およびプログラム - Google Patents

画像位置合わせ装置、方法およびプログラム Download PDF

Info

Publication number
JP7389234B2
JP7389234B2 JP2022514448A JP2022514448A JP7389234B2 JP 7389234 B2 JP7389234 B2 JP 7389234B2 JP 2022514448 A JP2022514448 A JP 2022514448A JP 2022514448 A JP2022514448 A JP 2022514448A JP 7389234 B2 JP7389234 B2 JP 7389234B2
Authority
JP
Japan
Prior art keywords
image
dimensional
coordinate information
tomographic
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022514448A
Other languages
English (en)
Other versions
JPWO2021205991A1 (ja
JPWO2021205991A5 (ja
Inventor
卓也 淵上
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021205991A1 publication Critical patent/JPWO2021205991A1/ja
Publication of JPWO2021205991A5 publication Critical patent/JPWO2021205991A5/ja
Application granted granted Critical
Publication of JP7389234B2 publication Critical patent/JP7389234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、3次元画像の位置合わせを行う画像位置合わせ装置、方法およびプログラムに関する。
近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、CT画像およびMRI画像等の3次元画像を用いた画像診断により、病変の領域を精度よく特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。
また、同一の患者について、撮影時期が異なる複数の3次元画像を同時に表示して経過観察を行う場合がある。このような場合において、現在の対象となる3次元画像のある断層面の断層画像において病変を見つけた場合、同一患者の過去画像において同一の断層面を表示する必要がある。このため、画像を観察する読影医は、過去画像について所望とする断層面の断層画像が表示されるまで、過去画像の断層面をスクロールする必要がある。また、CT画像およびMRI画像と同時に取得し、CT画像およびMRI画像を同時に表示して読影を行う場合も、CT画像の断層面とMRI画像の断層面とを一致させるために、読影医は表示された断層画像のスクロールを繰り返す必要がある。このように、複数の断層画像をスクロールして表示して、所望とする断層面の断層画像を表示させる作業は時間を要し、さらに読影医の負担が大きい。
このため、対象画像と過去画像とを位置合わせすることが考えられる。位置合わせの手法としては、剛体位置合わせまたは非剛体位置合わせ等の手法が用いられる。また、画像の位置合わせを行う手法として、例えば特開2009-160045号公報に記載された手法も提案されている。特開2009-160045号公報に記載された手法は、2つの3次元画像それぞれにおいて複数個抽出された特徴点の中から、画像間で対応づけられる特徴点の組を複数選択し、選択された複数の特徴点の組毎の位置情報を用いて、2つの3次元画像における対応する断面を特定する手法である。
しかしながら、剛体位置合わせおよび非剛体位置合わせ、さらには上記特開2009-160045号公報に記載された手法では、3次元画像を対象とする場合は演算量が多くなるため、処理に長時間を要する。また、これらの手法では、CT装置およびMRI装置のように、異なる撮影装置により取得された3次元画像間においては、位置合わせの精度が低下する可能性がある。このため、これらの手法では、3次元画像間での位置合わせを精度よく行うことができない可能性がある。
本開示は上記事情に鑑みなされたものであり、複数の3次元画像の位置合わせを迅速かつ精度よく行うことができるようにすることを目的とする。
本開示による画像位置合わせ装置は、少なくとも1つのプロセッサを備え、
プロセッサは、それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、断層画像と交わる方向における構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出し、
第1の3次元座標情報および第2の3次元座標情報を用いて、第1の3次元画像および第2の3次元画像にそれぞれ含まれる共通の構造物の、少なくとも断層画像と交わる方向における位置合わせを行うことにより、第1の3次元画像と第2の3次元画像との、少なくとも断層画像と交わる方向における位置合わせを行う。
なお、本開示による画像位置合わせ装置においては、プロセッサは、第1の3次元座標情報により規定される構造物を囲む第1のバウンディングボックス、および第2の3次元座標情報により規定される構造物を囲む第2のバウンディングボックスを第1の3次元画像および第2の3次元画像にそれぞれ設定し、
第1のバウンディングボックスの第1の重心位置および第2のバウンディングボックスの第2の重心位置の位置合わせを行うことにより、第1の3次元画像と第2の3次元画像との、少なくとも断層画像と交わる方向における位置合わせを行うものであってもよい。
また、本開示による画像位置合せ装置においては、1の3次元画像および第2の3次元画像に共通の構造物が複数含まれる場合、プロセッサは、すべての共通の構造物のそれぞれまたは一部の複数の共通の構造物のそれぞれを囲む第1のバウンディングボックスおよび第2のバウンディングボックスをそれぞれ第1の3次元画像および第2の3次元画像に設定し、
第1の3次元画像に設定された複数の第1のバウンディングボックスのそれぞれについての第1の重心位置を導出し、第1の重心位置を統合した第1の統合重心位置を導出し、
第2の3次元画像に設定された複数の第2のバウンディングボックスのそれぞれについての第2の重心位置を導出し、第2の重心位置を統合した第2の統合重心位置を導出し、
第1の統合重心位置と第2の統合重心位置との位置合わせを行うことにより、第1の3次元画像と第2の3次元画像との、少なくとも断層画像と交わる方向における位置合わせを行うものであってもよい。
また、本開示による画像位置合せ装置においては、1の3次元画像および第2の3次元画像に共通の構造物が複数含まれる場合、プロセッサは、すべての共通の構造物のそれぞれまたは一部の複数の共通の構造物のそれぞれを囲む第1のバウンディングボックスおよび第2のバウンディングボックスをそれぞれ第1の3次元画像および第2の3次元画像に設定し、
第1の3次元画像に設定された複数の第1のバウンディングボックスのそれぞれについての第1の重心位置を導出し、
第2の3次元画像に設定された複数の第2のバウンディングボックスのそれぞれについての第2の重心位置を導出し、
第1の3次元画像および第2の3次元画像間において互いに対応する第1の重心位置と第2の重心位置との相違の和が最小となるように、第1の3次元画像と第2の3次元画像との、少なくとも断層画像と交わる方向における位置合わせを行うものであってもよい。
また、本開示による画像位置合わせ装置においては、第1の3次元画像および第2の3次元画像は、同一被検体についての撮影装置が異なる3次元画像であってもよい。
また、本開示による画像位置合わせ装置においては、第1の3次元画像および第2の3次元画像は、同一被検体についての撮影時期が異なる3次元画像であってもよい。
また、本開示による画像位置合わせ装置においては、プロセッサは、第1および第2の3次元画像のそれぞれについて、異なる手法により第1および第2の3次元座標情報を導出するものであってもよい。
本開示による画像位置合わせ方法は、それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、断層画像と交わる方向における構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出し、
第1の3次元座標情報および第2の3次元座標情報を用いて、第1の3次元画像および第2の3次元画像にそれぞれ含まれる共通の構造物の、少なくとも断層画像と交わる方向における位置合わせを行うことにより、第1の3次元画像と第2の3次元画像との、少なくとも断層画像と交わる方向における位置合わせを行う。
なお、本開示による画像位置合わせ方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、複数の3次元画像の位置合わせを迅速かつ精度よく行うことができる。
本開示の実施形態による画像位置合わせ装置を適用した医療情報システムの概略構成を示す図 本実施形態による画像位置合わせ装置の概略構成を示す図 本実施形態による画像位置合わせ装置の機能構成図 人体の胴体部分のコロナル断面を模式的に示す図 断層画像の選択を説明するための図 3次元座標情報の導出を説明するための図 バウンディングボックスを3次元的に示す図 本実施形態における導出モデルに用いられるネットワークの構成を示すブロック図 教師データの例を示す図 バウンディングボックスと3次元座標情報との関係を説明するための図 肺が見切れている3次元画像を示す図 肝臓の断層面の位置に応じた教師データの導出を説明するための図 3次元座標情報の導出の精度を説明するための図 ある臓器から見た断層画像の相対位置と、損失に対する重みとの関係を示す図 3次元座標情報の導出を説明するための図 3次元座標情報の導出を説明するための図 仮の3次元座標情報の統合を説明するための図 位置合わせを説明するための図 位置合わせを説明するための図 表示画面を示す図 本実施形態において行われる学習処理を示すフローチャート 本実施形態において行われる画像位置合わせを示すフローチャート 断層画像の選択を説明するための図
以下、図面を参照して本開示の実施形態について説明する。まず、本実施形態による画像位置合わせ装置を適用した医療情報システム1の構成について説明する。図1は、医療情報システム1の概略構成を示す図である。図1に示す医療情報システム1は、公知のオーダリングシステムを用いた診療科の医師からの検査オーダに基づいて、被写体の検査対象部位の撮影、撮影により取得された医用画像の保管、読影医による医用画像の読影と読影レポートの作成、および依頼元の診療科の医師による読影レポートの閲覧と読影対象の医用画像の詳細観察とを行うためのシステムである。
図1に示すように、医療情報システム1は、複数の撮影装置2、読影端末である複数の読影WS(WorkStation)3、診療WS4、画像サーバ5、画像データベース(以下、画像DB(DataBase)とする)6、レポートサーバ7およびレポートデータベース(以下レポートDBとする)8が、有線または無線のネットワーク10を介して互いに通信可能な状態で接続されて構成されている。
各機器は、医療情報システム1の構成要素として機能させるためのアプリケーションプログラムがインストールされたコンピュータである。アプリケーションプログラムは、ネットワーク10に接続されたサーバコンピュータの記憶装置、若しくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)およびCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
撮影装置2は、被写体の診断対象となる部位を撮影することにより、診断対象部位を表す医用画像を生成する装置(モダリティ)である。具体的には、単純X線撮影装置、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。本実施形態においては、撮影装置2において、複数のスライス画像からなる3次元画像を医用画像として取得するものとする。撮影装置2により生成された医用画像は画像サーバ5に送信され、画像DB6に保存される。
読影WS3は、例えば放射線科の読影医が、医用画像の読影および読影レポートの作成等に利用するコンピュータであり、本実施形態による画像位置合わせ装置を内包する。読影WS3では、画像サーバ5に対する医用画像の閲覧要求、画像サーバ5から受信した医用画像に対する各種画像処理、医用画像の表示、および医用画像に関する所見文の入力受け付け等が行われる。また、読影WS3では、医用画像の読影、読影結果に基づく読影レポートの作成、レポートサーバ7に対する読影レポートの登録要求と閲覧要求、およびレポートサーバ7から受信した読影レポートの表示が行われる。これらの処理は、読影WS3が各処理のためのソフトウェアプログラムを実行することにより行われる。
診療WS4は、診療科の医師が、画像の詳細観察、読影レポートの閲覧、および電子カルテの作成等に利用するコンピュータであり、処理装置、ディスプレイ等の表示装置、並びにキーボードおよびマウス等の入力装置により構成される。診療WS4では、画像サーバ5に対する画像の閲覧要求、画像サーバ5から受信した画像の表示、レポートサーバ7に対する読影レポートの閲覧要求、およびレポートサーバ7から受信した読影レポートの表示が行われる。これらの処理は、診療WS4が各処理のためのソフトウェアプログラムを実行することにより行われる。
画像サーバ5は、汎用のコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。また、画像サーバ5は画像DB6が構成されるストレージを備えている。ストレージは、画像サーバ5とデータバスとによって接続されたハードディスク装置であってもよいし、ネットワーク10に接続されているNAS(Network Attached Storage)およびSAN(Storage Area Network)に接続されたディスク装置であってもよい。また、画像サーバ5は、撮影装置2からの医用画像の登録要求を受け付けると、その医用画像をデータベース用のフォーマットに整えて画像DB6に登録する。
画像DB6には、撮影装置2において取得された医用画像の画像データと付帯情報とが登録される。付帯情報には、例えば、個々の医用画像を識別するための画像ID(identification)、被写体を識別するための患者ID、検査を識別するための検査ID、医用画像毎に割り振られるユニークなID(UID:unique identification)、医用画像が生成された検査日、検査時刻、医用画像を取得するための検査で使用された撮影装置の種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の医用画像を取得した場合のシリーズ番号あるいは採取番号等の情報が含まれる。また、本実施形態においては、画像DB6には、同一患者についての撮影日時が異なる複数の医用画像、または同一患者についての撮影装置が異なる複数の医用画像を保管して管理しているものとする。例えば、画像DB6は、同一患者について、CT装置およびMRI装置により同時期に取得されたCT画像およびMRI画像を保管して管理している。
また、画像サーバ5は、読影WS3および診療WS4からの閲覧要求をネットワーク10経由で受信すると、画像DB6に登録されている医用画像を検索し、検索された医用画像を要求元の読影WS3および診療WS4に送信する。なお、本実施形態においては、画像サーバ5には、後述する導出モデル23Aを学習するための多数の教師データが保存されている。画像サーバ5は、教師データの取得要求をネットワーク10経由で受信すると、教師データを要求元の読影WS3に送信する。
レポートサーバ7には、汎用のコンピュータにデータベース管理システムの機能を提供するソフトウェアプログラムが組み込まれる。レポートサーバ7は、読影WS3からの読影レポートの登録要求を受け付けると、その読影レポートをデータベース用のフォーマットに整えてレポートDB8に登録する。
レポートDB8には、読影医が読影WS3を用いて作成した所見文を少なくとも含む読影レポートが登録される。読影レポートは、例えば、読影対象の医用画像、医用画像を識別する画像ID、読影を行った読影医を識別するための読影医ID、病変名、病変の位置情報、特定領域を含む医用画像にアクセスするための情報、および性状情報等の情報を含んでいてもよい。
また、レポートサーバ7は、読影WS3および診療WS4からの読影レポートの閲覧要求をネットワーク10経由で受信すると、レポートDB8に登録されている読影レポートを検索し、検索された読影レポートを要求元の読影WS3および診療WS4に送信する。
なお、本実施形態においては、CT画像およびMRI画像等の3次元画像を読影の対象とする。しかしながら、読影の対象は、CT画像およびMRI画像に限定されるものではなく、単純X線撮影装置により取得された単純2次元画像等の任意の医用画像を用いることができる。
ネットワーク10は、病院内の各種機器を接続する有線または無線のローカルエリアネットワークである。読影WS3が他の病院あるいは診療所に設置されている場合には、ネットワーク10は、各病院のローカルエリアネットワーク同士をインターネットまたは専用回線で接続した構成としてもよい。
次いで、本開示の実施形態による画像位置合わせ装置について説明する。図2は、本実施形態による画像位置合わせ装置のハードウェア構成を説明する。図2に示すように、画像位置合わせ装置(以下、画像位置合わせ装置で代表させる)20は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、画像位置合わせ装置20は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク10に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像位置合わせプログラム12Aおよび学習プログラム12Bが記憶される。CPU11は、ストレージ13から画像位置合わせプログラム12Aおよび学習プログラム12Bを読み出してからメモリ16に展開し、展開した画像位置合わせプログラム12Aおよび学習プログラム12Bを実行する。
次いで、本実施形態による画像位置合わせ装置の機能的な構成を説明する。図3は、本実施形態による画像位置合わせ装置の機能的な構成を示す図である。図3に示すように画像位置合わせ装置20は、CPU11が、画像位置合わせプログラム12Aおよび学習プログラム12Bを実行することにより、画像取得部21、選択部22、導出部23、学習部24、位置合わせ部25、表示制御部26、保存制御部27および通信部28として機能する。
画像取得部21は、操作者である読影医による入力デバイス15からの指示により、画像サーバ5から読影レポートを作成するためのCT画像G1およびMRI画像G2を取得する。CT画像G1およびMRI画像G2は同一患者を同時期に撮影することにより取得されたものである。なお、CT画像G1およびMRI画像G2は、複数の断層画像を含む3次元画像である。このため、本実施形態においては、CT画像G1およびMRI画像G2を区別しない場合には、単に3次元画像と称する場合があるものとする。CT画像G1およびMRI画像G2が、本開示の第1の3次元画像および第2の3次元画像にそれぞれ対応する。
選択部22は、CT画像G1およびMRI画像G2から断層画像を選択する。ここで、CT画像G1およびMRI画像G2は3次元画像であり、患者の体軸に交わるアキシャル断面を表す複数の断層画像からなる。図4は、人体の胴体部分のコロナル断面を模式的に示す図である。コロナル断面は患者を正面から見た断面である。人体内には、図4に示す肺、心臓、肝臓、胃、小腸、大腸および腎臓(破線で示す)に加えて、脳、骨および血管等の構造物が存在し、アキシャル断面の位置に応じて、断層画像に含まれる構造物が異なる。例えば、断層面D01の断層画像は肺および心臓等を含み、断層面D02の断層画像は肝臓および胃等を含み、断層面D03の断層画像は腎臓、大腸および小腸等を含む。
本実施形態においては、選択部22は、上述したように画像取得部21が取得したCT画像G1およびMRI画像G2のそれぞれから、予め定められた間隔により複数の断層画像を選択する。図5は断層画像の選択を説明するための図である。図5に示すように、選択部22は、CT画像G1およびMRI画像G2を構成する断層画像を等間隔で間引くことにより、複数の断層面Dkのそれぞれを表す断層画像DGk(ここではk=1~8)を選択する。なお、以降の説明においては、図5に示すように人体を正面から見た場合の左右方向をx方向、奥行き方向をy方向、上下方向すなわち体軸方向をz方向とする。断層画像により表される断層面は、3次元画像におけるxy方向の断層面となる。
導出部23は、3次元画像G1,G2において、選択部22が選択した断層画像DGkと交わる方向における、断層画像DGkに含まれる構造物の端部を規定する3次元座標情報を導出する。具体的には、3次元画像G1,G2において、選択部22が選択した断層画像DGkから、断層画像DGkに含まれる構造物の断層面内の位置を規定し、かつ断層画像DGkと交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出する。例えば、図5に示す断層面D3を表す断層画像DG3に関して、導出部23は、3次元画像G1,G2において、選択した断層画像DG3に含まれる左右の肺のそれぞれの断層面内の位置を規定し、かつ断層画像DG3と交わる方向における左右の肺の断層面外にある上下端部を規定する3次元座標情報を導出する。本実施形態において、断層画像DG3と交わる方向は体軸方向であるz方向である。3次元座標情報は、図6に示すように、3次元画像G1,G2において、断層画像DG3に含まれる左右の肺を囲むバウンディングボックス40R,40Lを規定する複数の頂点の座標値である。なお、図6および以降の説明においては、3次元画像G1,G2を2次元で、バウンディングボックスを矩形の領域で表す場合があるものとする。
図7はバウンディングボックスを3次元的に示す図である。図7に示すように、断層画像DG3には、左右の肺の断層像41R,41Lが含まれている。3次元画像G1,G2においては、左右の肺は図7における破線42R,42Lに示すように存在する。導出部23は、断層画像DG3から、3次元画像において、肺に外接することにより肺を囲むバウンディングボックス40R,40Lを規定する複数の頂点の3次元座標を、3次元座標情報として導出する。
ここで、バウンディングボックス40R,40Lは、x方向、y方向およびz方向に平行な辺を有する直方体である。バウンディングボックス40R,40Lを規定する8つの頂点のうち、最も離れた位置にある2つの頂点が規定されれば、直方体の形状を規定できる。例えば、図7に示す頂点43R,44Rが規定されれば、バウンディングボックス40Rの直方体の形状を規定できる。本実施形態においては、導出部23は、3次元画像内において構造物である肺を囲むバウンディングボックス40R,40Lを規定する8つの頂点のうちの、最も離れた位置にある2つの頂点の3次元座標を、3次元座標情報として導出するものとする。
本実施形態においては、3次元座標情報を導出するために、導出部23は、断層画像が入力されると、入力された断層画像に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を出力するように、教師データを用いての機械学習を行うことに構築された導出モデル23Aを有する。
以下、導出モデル23Aを構築するための機械学習について説明する。導出モデル23Aを構築するための機械学習は、学習部24が行う。本実施形態においては、学習部24は、教師用3次元画像に含まれる教師用断層画像、および教師用3次元画像に含まれる構造物の断層面内の位置を規定し、かつ教師用断層画像と交わる方向における構造物の端部の断層面外の位置を規定する教師用3次元座標情報を含む教師データを用いて、ニューラルネットワークを機械学習することにより、導出モデル23Aを構築する。
ここで、ニューラルネットワークとして、深層学習(ディープラーニング)がなされた多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(以下CNN(Convolutional Neural Network)とする)を用いたFaster-RCNN(Regions with CNN features)が知られている(例えば、米国特許第9858496号明細書および「Ren, Shaoqing, et al. "Faster R-CNN: Towards real-time object detection with region proposal networks." Advances in neural information processing systems. 2015.」参照)。本実施形態においては、導出モデル23Aは、Faster-RCNNをベースにしたネットワークを機械学習することにより構築されるものとする。
なお、導出モデル23Aを構築するネットワークは、Faster-RCNNをベースとしたものに限定されない。例えば、「Wei Liu et al., "SSD: Single Shot MultiBox Detector", ECCV, 2016」、「Joseph Redmon et al., "You Only Look Once: Unified, Real-Time Object Detection", arXiv, 2016」、「Mingxing Tan et al., "EfficientDet: Scalable and Efficient Object Detection", arXiv, 2020」、または「Nicolas Carion et al., "End-to-End Object Detection with Transformers", arXiv, 2020」等の他の物体検出モデルをベースにして導出モデル23Aを構築してもよい。
ここで、Faster-RCNNは、入力画像から特徴量を抽出して特徴マップを生成する畳み込み層と、入力画像における物体の候補領域を特定するRPN(Region Proposal Networks)と、特徴マップおよび物体候補領域を入力として、物体のカテゴリの分類および回帰の結果を出力する分類ネットワークとから構成される。図8は、本実施形態における導出モデル23Aに用いられるFaster-RCNNをベースにしたネットワークの構成を示すブロック図である。図8に示すように、ネットワーク30は、入力画像である断層画像DG0から特徴マップM0を生成する畳み込み層31、特徴マップM0に含まれる構造物の候補領域を特定するRPN32、および特徴マップM0と構造物の候補領域とに基づいて候補領域を分類し、分類した構造物の3次元座標情報を出力する分類ネットワーク33を含む。
畳み込み層31は、入力された断層画像DG0に対して各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴データからなる特徴マップを出力する。カーネルは、n×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。具体的には入力された画像のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層31は、カーネルの注目画素をずらしながら、入力された画像または前段の処理層から出力された特徴マップの全体にカーネルを適用する。さらに、畳み込み層31は、畳み込みされた値に対して、シグモイド関数等の活性化関数を適用し、特徴マップM0を出力する。
RPN32においては、複数種類のアスペクト比およびサイズを有するアンカーと呼ばれる矩形領域が予め定義される。RPN32においては、複数種類のアンカーを断層画像DG0から生成された特徴マップM0の各画素位置に適用し、断層画像DG0に含まれる物体候補との重なり率が最も大きいアンカーが選択される。そして、RPN32においては、選択されたアンカーを用いて、物体候補を囲む矩形(正解ボックス)と一致するようにアンカーを回帰させる(すなわち変形および移動させる)処理を、特徴マップM0の全画素において行い、正解ボックスと一致するように回帰されたアンカーの位置およびサイズが、入力された断層画像DG0における物体候補領域A0としてRPN32から出力される。
分類ネットワーク33は、全結合層からなり、物体候補領域A0および特徴マップM0に基づいて、断層画像DG0における物体候補領域の分類および分類した構造物の3次元座標情報の導出が行われる。具体的には、断層画像DG0の画素毎に、物体候補領域A0がある特定の領域であることのスコアを導出し、スコアが最大となる構造物にその画素を分類する。なお、スコアは0~1の値をとる。また、分類された画素からなる領域を囲むバウンディングボックスを規定する3次元座標情報を出力する。
次いで、導出モデル23Aにおけるネットワーク30を機械学習するための教師データについて説明する。図9は、教師データの例を示す図である。図9に示すように、教師データ50は、教師用3次元画像に含まれる教師用断層画像51、教師用断層画像51に含まれる構造物を表すラベル52、および教師用3次元画像において、教師用断層画像51に含まれる構造物の断層面内の位置を規定し、かつ断層画像と交わる方向における構造物の端部の断層面外の位置を規定する教師用3次元座標情報53を含む。なお、教師データ50に含まれる教師用断層画像51は1つに限定されるものではなく、複数であってもよい。
図9に示すように、教師用断層画像51は構造物として左右の肺を含む。ラベル52の内容は「肺」である。教師用3次元座標情報53は、教師用3次元画像に含まれる右肺を囲むバウンディングボックスを規定する3次元座標P1(x1,y1,z1)、P2(x2,y2,z2)、および左肺を囲む3次元座標P3(x3,y3,z3)、P4(x4,y4,z4)を含む。3次元座標P1,P2は、図10に示すように、教師用断層画像51に含まれる右肺を囲むバウンディングボックスの最も離れた2点の教師用3次元画像内における位置を規定する。3次元座標P3,P4は、教師用断層画像51に含まれる左肺を囲むバウンディングボックスの最も離れた2点の教師用3次元画像内における位置を規定する。ここで、バウンディングボックスを規定する3次元座標P1~P4のz座標は、教師用3次元画像を基準とした値を有するものであってもよいが、本実施形態においては、教師用断層画像51を基準とした値を有するものとする。例えば、本実施形態においては、教師用断層画像51の各画素のz座標の値を0としてバウンディングボックスの3次元座標P1~P4のz座標の値が定められる。
なお、本実施形態において、3次元画像はCT画像およびMRI画像である。ここで、人体に含まれる各種構造物は、同一の構造物であってもCT画像とMRI画像とで輝度値の分布範囲が異なる。このため、教師データに含まれる教師用断層画像51は、それがCT画像であってもMRI画像であっても、輝度値の分布範囲を一致させるための処理が施されている。輝度値の分布範囲を一致させるための処理としては、例えばMRI画像の輝度値をCT画像の輝度値に一致させるものであってもよく、CT画像の輝度値をMRI画像の輝度値に一致させるものであってもよい。なお、輝度値の分布範囲を一致させる処理は、例えば輝度値を変換するための変換テーブルあるいは変換式等を用いて行えばよい。また、CT画像およびMRI画像のそれぞれにおいて、画像内の輝度値分布が0から1までの範囲内に収まるように正規化処理を行うことにより、輝度値の分布範囲を一致させるようにしてもよい。正規化は、CT画像およびMRI画像のそれぞれについて、画像内の輝度値分布の標準偏差を求め、画像内の各ボクセルの輝度値をその標準偏差または標準偏差の定数倍の値で除算する等により行えばよい。
学習部24は、教師データ50に含まれる教師用断層画像51をネットワーク30に入力し、教師用断層画像51に含まれる構造物の分類結果を表すスコア、および構造物の端部を規定する3次元座標情報を出力させる。この場合、教師用断層画像51に含まれうる複数種類の構造物のそれぞれについてスコアが0~1の値の範囲で導出される。学習部24は、ラベル52に規定された構造物のスコアが1となるように、導出されたスコアと1との誤差を損失として導出する。そして、導出した損失により、確率的勾配降下法または誤差逆伝播法を用いて、ネットワーク30を構成する畳み込み層31、RPN32および分類ネットワーク33を学習する。
また、学習部24は、導出された3次元座標情報と、教師データ50に含まれる教師用3次元座標情報53との誤差を損失として導出する。そして損失が最小となるように、確率的勾配降下法または誤差逆伝播法を用いて、ネットワーク30を構成する畳み込み層31、RPN32および分類ネットワーク33を学習する。具体的には、ネットワーク30に含まれる畳み込み層31における層の数、プーリング層の数、カーネルの係数およびカーネルの大きさ等を導出し、RPN32におけるアンカーの位置および大きさ等を導出し、かつ分類ネットワーク33を構成する全結合層における結合の重み等を導出することにより、ネットワーク30を学習する。
これにより、ネットワーク30は、断層画像が入力されると、断層画像に含まれる構造物の分類結果、および分類された構造物を3次元画像内において囲むバウンディングボックスの3次元座標情報を出力するものとなる。
なお、3次元画像に含まれる構造物が、その3次元画像内で見切れている場合がある。例えば、図11に示すように肝臓を中心に撮影を行うことにより取得された3次元画像の場合、肺の上側が見切れている。このような3次元画像を教師用3次元画像として用いて、肺についての教師データを導出する場合、肺の下側(足側)については、肺を囲むバウンディングボックスの教師用3次元座標情報を得ることができる。しかしながら、肺の上側(頭側)についてはバウンディングボックスの教師用3次元座標情報を得ることができない。
このような肺が見切れている教師用3次元画像から教師データを生成する場合、教師用3次元画像に含まれる範囲内において、肺を囲むバウンディングボックスについての3次元座標情報を、教師用3次元座標情報として用いる。具体的には、図11に示すように、右肺については、バウンディングボックス46Rについての最も離れた2つの頂点P11,P12の3次元座標情報を教師用3次元座標情報として用いる。また、左肺については、バウンディングボックス46Lについての最も離れた2つの頂点P13,P14の3次元座標情報を教師用3次元座標情報として用いる。さらに、教師データには、肺の上側が見切れていることを表すフラグを付与する。
そして、このような教師データを用いてネットワーク30の学習を行う際には、学習部24は、ネットワーク30から出力された3次元座標情報に関して、肺の上側の3次元座標については、教師データとの誤差すなわち損失に対する重みを小さくして、ネットワーク30の学習を行う。これにより、教師データを生成した教師用3次元画像において、構造物がz方向において見切れている場合であっても、見切れている構造物の影響を小さくしてネットワーク30の学習を行うことができる。
また、断層画像に含まれる構造物について、構造物のz方向における断層面の位置に応じて、ネットワーク30を用いての3次元座標情報の導出の精度が異なる。例えば、図12に示すように、肝臓の上部の断層面D11、中部の断層面D12および下部の断層面D13のそれぞれについて教師データを導出する場合を考える。図13は3次元座標情報の導出の精度を説明するための図である。なお、図13には肝臓を囲むバウンディングボックス60を実線で示し、ネットワーク30が出力した3次元座標情報に基づくバウンディングボックス(以下出力バウンディングボックスとする)61を破線で示している。図13に示すように、肝臓の上部の断層面D11を表す断層画像DG11をネットワーク30に入力した場合、出力された肝臓の上部側の3次元座標情報の精度は高いが、下部側の3次元座標情報の精度は低くなる。このため、肝臓の上部において、出力バウンディングボックス61はバウンディングボックス60と略一致するが、肝臓の下部において、出力バウンディングボックス61はバウンディングボックス60との相違が大きくなる。逆に、肝臓の下部の断層面D13を表す断層画像DG13をネットワーク30に入力した場合、出力された肝臓の下部側の3次元座標情報の精度は高いが、上部側の3次元座標情報の精度は低くなる。
このため、ネットワーク30の学習を行う際に、ネットワーク30により出力された3次元座標情報のz座標に関して、学習部24は、教師データに含まれる教師用断層画像に含まれる構造物の、z方向における断層面の位置に応じて、教師データとの損失の重みを変更して、ネットワーク30の学習を行う。図14は、ある臓器から見た断層画像の相対位置と、損失に対する重みとの関係を示す図である。図14において、実線R1は、断層画像から予測される「構造物の下端の3次元座標」と正解となる教師用3次元座標との誤差(すなわち損失)に対する重み係数を表す。破線R2は、断層画像から予測される「構造物の上端の3次元座標」と正解となる教師用3次元座標との誤差に対する重み係数を表す。ここで、重み係数は、その値が大きいほど、学習時における損失、すなわち正解との誤差に対するペナルティが大きいものとなる。
実線R1に示すように、断層画像が臓器の上端付近であれば、下端の3次元座標の予測は難しいため重みは小さくなる。逆に断層画像が臓器の下端付近であれば、下端の3次元座標の予測は容易であるため、重みは大きくなる。一方、破線R2に示すように、断層画像が臓器の上端付近であれば、上端の3次元座標の予測は容易であるため重みは大きくなる。逆に断層画像が臓器の下端付近であれば、上端の3次元座標の予測は難しいため重みは小さくなる。
図14に示すような重みを用いることにより、上述した図12に示す肝臓の上部の断層面D11を表す断層画像DG11を教師用断層画像として用いる場合、導出モデル23Aにおけるネットワーク30から出力された3次元座標情報について、上端側の3次元座標情報に対しては損失に対する重みが大きくなり、下端側の3次元座標情報に対しては損失に対する重みが小さくなる。また、上述した図12に示す肝臓の下部の断層面D13を表す断層画像DG13を教師用断層画像として用いる場合、ネットワーク30から出力された3次元座標情報について、下端側の3次元座標情報に対しては損失に対する重みが大きくなり、上端側の3次元座標情報に対しては損失に対する重みが小さくなる。
これにより、3次元座標情報を導出する精度がそれほどよくない教師用断層画像を含む教師データを用いる場合であっても、そのような教師データのネットワーク30の学習に対する影響を小さくすることができる。このため、構造物の上端および下端を規定する3次元座標情報をより精度よく導出できるように、ネットワーク30の学習を行うことができる。
導出モデル23Aは、上記のように機械学習により構築される。このため、導出モデル23Aは、断層画像が入力されると、入力された断層画像に含まれる構造物を囲むバウンディングボックスを規定する3次元座標情報を出力する。例えば、選択部22によって図5に示す断層面D5を表す断層画像DG5が選択されたとすると、導出部23は、断層画像DG5に含まれる左肺、右肺および肝臓についての3次元画像G1,G2内の3次元座標情報を導出する。なお、CT画像G1について導出した3次元座標情報が、本開示の第1の3次元座標情報に対応し、MRI画像G2について導出した3次元座標情報が、本開示の第2の3次元座標情報に対応する。
ここで、導出モデル23Aが出力したバウンディングボックスを規定する3次元座標情報に含まれるz座標は、導出モデル23Aに入力される断層画像を基準としたものとなる。すなわち、導出モデル23Aが出力したバウンディングボックスを規定する3次元座標情報に含まれるz座標は、断層画像のz座標の値を0としたときの値を有するものとなる。このため、バウンディングボックスを規定する3次元座標情報に含まれるz座標を3次元画像G1,G2の座標系と一致させるために、導出部23は、導出モデル23Aが出力した3次元座標情報に含まれるz座標を、導出モデル23Aに入力された断層画像の3次元画像G1,G2内におけるz座標に基づいて修正する。修正は、導出モデル23Aが出力したバウンディングボックスを規定する3次元座標情報に含まれるz座標に、断層画像の3次元画像G1,G2におけるz座標の値を加算することにより行えばよい。
このようにして導出された3次元座標情報を用いることにより、図15に示すように、3次元画像G1,G2に右肺を囲むバウンディングボックス62、左肺を囲むバウンディングボックス63および肝臓を囲むバウンディングボックス64を設定することができる。
ここで、導出部23は、3次元座標情報を導出する際に、CT画像G1とMRI画像G2との輝度値の分布範囲を一致させるための前処理を行う。前処理は、上述した教師データの教師用断層画像を生成する場合と同様に行えばよい。
なお、導出部23は、図5に示すように選択された複数の断層画像DG1~DG8のそれぞれについて、断層画像DG1~DG8に含まれる構造物の上端および下端を規定する3次元座標情報を導出する。この場合、導出部23は、例えば、肺を含む複数の断層画像DG2~DG6のそれぞれについて、3次元画像内の肺を囲むバウンディングボックスを規定する3次元座標情報を導出する。しかしながら、導出モデル23Aが出力する3次元座標情報は、構造物が同一であってもすべての断層画像において必ずしも一致するものではない。例えば、右肺について、断層画像DG2から導出した3次元座標情報により規定されるバウンディングボックス(以下、断層画像DG2に基づくバウンディングボックスとする)、および断層画像DG5から導出した3次元座標情報により定められるバウンディングボックス(以下、断層画像DG5に基づくバウンディングボックスとする)を考える。図16に示すように、断層画像DG2に基づくバウンディングボックス65と、断層画像DG5に基づくバウンディングボックス66とでは、その位置は完全には一致しない。
このため、導出部23は、導出モデル23Aにより、共通の構造物を含む複数の断層画像のそれぞれについての複数の仮の3次元座標情報を出力する。そして、導出部23は、導出モデル23Aが出力した複数の仮の3次元座標情報を統合して、共通の構造物についての3次元座標情報を導出する。具体的には、導出部23は、複数の断層画像のそれぞれについて導出モデル23Aが出力した仮の3次元座標情報の平均値を導出し、導出した平均値を複数の断層画像に含まれる共通の構造物についての3次元座標情報とする。この場合、平均値としては加算平均値でもよい。
なお、仮の3次元座標情報に含まれる座標は、仮の3次元座標情報を導出した断層画像のそれぞれが基準となっている。このため、統合に際しては、複数の仮の3次元座標情報の座標系を共通の座標系、例えば3次元画像G1,G2の座標系に変換した上で、複数の仮の3次元座標情報の平均値等を算出する必要がある。以下、統合について詳細に説明する。図17は仮の3次元座標情報の統合を説明するための図である。なお、以下では、図5に示す2つの断層画像DG6,DG7を用いることにより、肝臓を囲むバウンディングボックスの3次元座標情報が求められたものとして説明を行う。また、図17においては説明のために、アキシャル断面の断層画像を用いた統合の処理を示している。
図17に示すように、断層画像DG6に基づいてバウンディングボックス67が導出され、断層画像DG7に基づいてバウンディングボックス68が導出されたとする。バウンディングボックス67の座標系を、断層画像DG6を基準としたx6-z6座標系とする。バウンディングボックス68の座標系を、断層画像DG7を基準としたx7-z7座標系とする。バウンディングボックス67の仮の3次元座標情報に基づく上側および下側のz座標をそれぞれzs1,ze1とし、左側および右側のx座標をそれぞれxs1,xe1とする。x6-z6座標系においては断層画像DG6の位置のz座標の値が0となる。また、バウンディングボックス68の仮の3次元座標情報に基づく上側および下側のz座標をそれぞれzs2,ze2とし、左側および右側のx座標をそれぞれxs2,xe2とする。x7-z7座標系においては断層画像DG7の位置のz座標の値が0となる。
導出部23は、統合に際してバウンディングボックス67,68の座標系を3次元画像G1,G2の座標系に変換する。ここで、3次元画像G1,G2の座標系において、断層画像DG6のz座標をz_D6、断層画像DG7のz座標をz_D7とすると、導出部23は、バウンディングボックス67の上側および下側のz座標にz_D6を加算し、バウンディングボックス68の上側および下側のz座標にz_D7を加算することにより、座標系を変換する。これにより、バウンディングボックス67の上側および下側のz座標はそれぞれzs1+z_D6,ze1+z_D6となる。また、バウンディングボックス68の上側および下側のz座標はそれぞれzs2+z_D7,ze2+z_D7となる。なお、バウンディングボックス67,68のx座標およびy座標については変換されない。
そして、導出部23は、バウンディングボックス67,68のそれぞれについての座標変換後の仮の3次元座標情報の平均値を算出することにより、仮の3次元座標情報を統合する。具体的には、座標変換後のバウンディングボックス67,68のz座標およびx座標の加算平均を算出することにより、仮の3次元座標情報を統合する。これにより、統合されたバウンディングボックス69の上側のz座標は{(zs1+z_D6)+(zs2+z_D7)}/2となり、下側のz座標は{(ze1+z_D6)+(ze2+z_D7)}/2となる。なお、バウンディングボックス69の左側のx座標は(xs1+xs2)/2となり、右側のx座標は(xe1+xe2)/2となる。なお、バウンディングボックス69のy軸方向の座標値については、x軸方向と同様に算出すればよい。
一方、上述したように導出モデル23Aを構成するネットワーク30を学習する場合と同様に、断層画像に含まれる構造物のz方向における断層面の位置に応じて、導出モデル23Aが出力する3次元座標情報の精度が異なる。例えば、図5に示す断層面D2を表す断層画像DG2を用いた場合、肺の上端側の3次元座標情報の精度は高いが、肺の下端側の3次元座標情報の精度は上端ほど高くない。一方、断層面D5を表す断層画像DG5を用いた場合、肺の下端側の3次元座標情報の精度は高いが、肺の上端側の3次元座標情報の精度は下端ほど高くない。このため、各断層画像について導出した構造物の仮の3次元座標情報を統合するに際して、各断層画像に含まれる構造物のz方向における断層面の位置に応じた重み付け平均値を、最終的な3次元座標情報として導出することが好ましい。
例えば、説明のために、4つの断層面D2~D5のそれぞれを表す4つの断層画像DG2~DG5について、導出モデル23Aが出力し、かつ共通の座標系に変換した右肺の上端側の3次元座標情報をPu22~Pu25とした場合、下記の式(1)により、最終的な右肺の上端側の3次元座標情報Pu0を導出する。また、導出モデル23Aが出力し、かつ共通の座標系に変換した右肺の下端側の3次元座標情報をPl22~Pl25とした場合、下記の式(2)により、最終的な右肺の下端の3次元座標情報Pl0を導出する。
Pu0=w12*Pu22+w13*Pu23+w14*Pu24+w15*Pu25 (1)
Pl0=w22*Pl22+w23*Pl23+w24*Pl24+w25*Pl25 (2)
式(1)においてw12~w15は重み係数であり、w12+w13+w14+w15=1かつw12>w13>w14>w15である。式(2)において、w22~w25は重み係数であり、w22+w23+w24+w25=1かつw22<w23<w24<w25である。これにより、複数の断層画像に同一の構造物が含まれる場合であっても、構造物のz方向における断層面の位置に拘わらず、精度よく3次元座標情報を導出することができる。
位置合わせ部25は、CT画像G1とMRI画像G2との位置合わせを行う。このために、位置合わせ部25は、導出部23が導出した、CT画像G1に含まれる構造物の3次元座標情報と、MRI画像G2に含まれる構造物の3次元座標情報とを用いて、CT画像G1およびMRI画像G2にバウンディングボックスを設定する。そして、位置合わせ部25は、バウンディングボックスを用いてCT画像G1とMRI画像G2との位置合わせを行う。
図18は、CT画像とMRI画像との位置合わせを説明するための図である。なお、ここでは、CT画像G1およびMRI画像G2のそれぞれにおいて、右肺、左肺および肝臓に対してのみ、バウンディングボックス71A~71C、72A~72Cが設定されているものとして説明する。
位置合わせ部25は、CT画像G1において、バウンディングボックス71A~71Cのそれぞれの重心位置g1A~g1Cを導出する。また、位置合わせ部25は、MRI画像G2において、バウンディングボックス72A~72Cのそれぞれの重心位置g2A~g2Cを導出する。重心位置g1A~g1Cが第1の重心位置の一例であり、重心位置g2A~g2Cが第2の重心位置の一例である。そして、互いに対応する重心位置g1A~g1Cおよび重心位置g2A~g2Cの、x方向、y方向およびz方向の位置が一致するように、CT画像G1およびMRI画像G2の位置合わせを行う。具体的には、位置合わせ部25は、重心位置g1Aと重心位置g2Aとの相違、重心位置g1Bと重心位置g2Bとの相違、および重心位置g1Cと重心位置g2Cとの相違の和が最小となるように、例えば最小自乗法を用いてCT画像G1に対するMRI画像G2の平行移動量、拡大率および回転量の少なくとも1つを含む位置合わせ量を導出する。そして位置合わせ部25は、導出した位置合わせ量に基づいて、CT画像G1およびMRI画像G2の一方を他方に対して平行移動、拡大縮小および/または回転させることにより、CT画像G1とMRI画像G2との位置合わせを行う。
なお、図19に示すように、CT画像G1について導出した第1の重心位置g1A~g1Cを統合した第1の統合重心位置gu1と、MRI画像G2について導出した第2の重心位置g2A~g2Cを統合した第2の統合重心位置gu2とをそれぞれ導出し、導出した第1の統合重心位置gu1と第2の統合重心位置gu2とが一致するように位置合わせを行うようにしてもよい。なお、第1の統合重心位置gu1は重心位置g1A~g1Cの重心位置であり、第2の統合重心位置gu2は第2の重心位置g2A~g2Cの重心位置である。また、注目する構造物を囲むバウンディングボックスの重心のみを用いて位置合わせを行うようにしてもよい。また、重心位置g1A~g1Cのそれぞれと、重心位置g2A~g2Cのそれぞれとが一致するように、CT画像G1に対してMRI画像G2を非線形に変形することにより、CT画像G1とMRI画像G2との位置合わせを行うようにしてもよい。
表示制御部26は、3次元画像G1,G2をディスプレイ14に表示する。図20は3次元画像の表示画面を示す図である。図20に示すように3次元画像の表示画面80は、画像表示領域81および文章表示領域82を含む。画像表示領域81は、CT画像G1を表示するための第1表示領域83、およびMRI画像G2を表示するための第2表示領域84を含む。第1表示領域83および第2表示領域84には、CT画像G1およびMRI画像G2に含まれる断層画像が表示される。表示される断層画像は、入力デバイス15を用いてCT画像G1およびMRI画像G2のいずれかを選択し、入力デバイス15のマウスが備えるスクロールホイール等を用いて切り替え表示することができる。なお、第1表示領域83に表示されるCT画像G1と第2表示領域84に表示されるMRI画像G2とのxy方向の位置は、位置合わせ部25により位置合わせがなされている。このため、第1表示領域83および第2表示領域84に表示される、CT画像G1およびMRI画像G2に含まれる被写体の断層面の画像上の位置は一致しているものとなる。
なお、読影医によって、CT画像G1とMRI画像G2とで別々の断層面を読影したい場合もあれば、表示される断層面を同期させたい場合もある。このため、本実施形態においては、表示される断層画像のz方向の位置、すなわち断層面の位置に関しては、後述する同期ボタンにより、表示する断層面の同期および非同期を切り替えるようにしている。
文章表示領域82には、読影医によるCT画像G1およびMRI画像G2の読影結果を表す所見文が、入力デバイス15を用いて入力される。
画像表示領域81の下方には、同期ボタン86が表示されている。同期ボタン86は、画像表示領域81に表示されているCT画像G1およびMRI画像G2の断層面の位置の同期および非同期を切り替えるためのものである。読影医は、CT画像G1またはMRI画像G2における所望とする断層面の断層画像を表示し、同期ボタン86を選択することにより、表示されるCT画像G1およびMRI画像G2の断層面の位置を一致させることができる。断層面の位置の一致は、位置合わせ部25による位置合わせ量のうちのz方向の平行移動量についての位置合わせ量を用いる。これにより、CT画像G1およびMRI画像G2における表示される断層画像が同一の断層面を表すものとなる。したがって、CT画像G1またはMRI画像G2のいずれか一方の断層面を切り替えることによって、他方の断層面も同期して切り替えることができる。また、断層面を同期させた後に同期ボタン86が再度選択されると、同期が解除される。これにより、CT画像G1とMRI画像G2とで別々の断層面の断層画像を表示することが可能となる。
文章表示領域82の下方には確定ボタン87が表示されている。読影医は、所見文の入力後、入力デバイス15を用いて確定ボタン87を選択することにより、所見文の入力内容を確定することができる。
保存制御部27は、読影医による確定ボタン87の選択により、文章表示領域82に記述された所見文を読影レポートに転記し、読影レポートおよび読影レポートを生成する際に参照したCT画像G1およびMRI画像G2の断層画像を併せて、ストレージ13に保存する。
通信部28は、文章表示領域82に記述された所見文が転記された読影レポート、および読影レポートを生成する際に参照したCT画像G1およびMRI画像G2の断層画像を併せて、ネットワークI/F17を介してレポートサーバ7に転送する。レポートサーバ7は、読影レポートおよびスライス画像を併せて保存する。
次いで、本実施形態において行われる処理について説明する。図21は本実施形態において行われる学習処理を示すフローチャートである。なお、複数の教師データが画像サーバ5から取得されて、ストレージ13に保存されているものとする。まず、学習部24が、ネットワーク30に対して教師データに含まれる教師用断層画像を入力し(ステップST1)、教師データに含まれるラベルおよび教師用3次元座標情報と、ネットワーク30から出力された構造物についてのスコアおよび3次元座標情報とに基づいて、損失を導出する(ステップST2)。
そして、学習部24は、損失が予め定められたしきい値以下となるように、ネットワーク30を学習する(ステップST3)。その後、ステップST1にリターンし、次の教師データをストレージ13から取得して、ステップST1~ステップST3の処理を繰り返す。なお、ステップST1~ステップST3の処理は、損失が予め定められたしきい値以下となるまで繰り返してもよく、予め定められた回数繰り返してもよい。これにより、学習済みの導出モデル23Aが構築される。
次いで、本実施形態において行われる画像位置合わせについて説明する。図22は本実施形態において行われる画像位置合わせを示すフローチャートである。なお、読影の対象となるCT画像G1およびMRI画像G2は、画像取得部21により画像サーバ5から取得されて、ストレージ13に保存されているものとする。読影レポートの作成の指示が読影医により行われることにより処理が開始され、選択部22が、CT画像G1およびMRI画像G2から、少なくとも1つの構造物を含む少なくとも1つの断層画像を選択する(ステップST11)。次いで、導出部23が、選択部22が選択した断層画像DGkから、断層画像DGkに含まれる構造物の断層面内の位置を規定し、かつ断層画像DGkと交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出する(ステップST12)。
次いで、位置合わせ部25が、3次元座標情報に基づくバウンディングボックスをCT画像G1およびMRI画像G2に設定し(ステップST13)、設定したバウンディングボックスを用いて、CT画像G1およびMRI画像G2の位置合わせを行う(ステップST14)。次いで、表示制御部26が、CT画像G1およびMRI画像G2を表示画面80に表示する(ステップST15)。続いて、同期ボタン86が選択されたか否かの監視が開始される(ステップST16)。ステップST16が肯定されると、CT画像G1およびMRI画像G2のz方向の位置を同期させて、CT画像G1およびMRI画像G2を表示し(同期表示切り替え;ステップST17)、ステップST16に戻る。この状態において、読影医は、表示されたCT画像G1およびMRI画像G2を読影して、文章表示領域82に所見文を入力することができる。なお、同期表示中に同期ボタン86が再度選択されると、同期表示から非同期表示に切り替えられることとなる。
ステップST16が否定されると、表示制御部26が、確定ボタン87が選択されたか否かを判定し(ステップST18)、ステップST18が否定されると、ステップST16に戻る。ステップST18が肯定されると、保存制御部27が、所見文をCT画像G1およびMRI画像G2についての読影レポートに転記し、読影レポート、CT画像G1およびMRI画像G2を併せて、ストレージ13に保存する(読影レポート等保存;ステップST19)。そして、通信部28が、読影レポート、CT画像G1およびMRI画像G2を併せて、ネットワークI/F17を介してレポートサーバ7に転送し(読影レポート等転送;ステップST20)、処理を終了する。
このように、本実施形態においては、CT画像G1およびMRI画像G2における断層画像に含まれる構造物の、CT画像G1およびMRI画像G2のそれぞれにおける端部を規定する第1および第2の3次元座標情報を導出する。そして、第1のおよび第2の3次元座標情報を用いて、CT画像G1およびMRI画像G2にそれぞれ含まれる同一の構造物の、少なくとも断層画像と交わる方向における位置合わせを行うことにより、CT画像G1とMRI画像G2との、少なくとも断層画像と交わる方向における位置合わせを行うようにした。このため、3次元画像の対応する画素同士を位置合わせしたり、特開2009-160045号公報に記載された手法のように複数の特徴点を用いたりする場合よりも、位置合わせのための演算量を少なくすることができる。また、本実施形態においては、構造物の位置に基づいて位置合わせを行うようにしたため、CT画像G1およびMRI画像G2のように、異なる撮影装置により取得された画像であっても、精度よく位置合わせを行うことができる。したがって、本実施形態によれば、複数の3次元画像の位置合わせを迅速かつ精度よく行うことができる。
とくに、第1および第2の3次元座標情報に基づいて、CT画像G1およびMRI画像G2にバウンディングボックスを設定し、バウンディングボックスの重心位置を用いることにより、CT画像G1とMRI画像G2との位置合わせを、より少ない演算量にて迅速に行うことができる。
また、本実施形態においては、CT画像G1またはMRI画像G2のような3次元画像から選択された2次元の断層画像から、断層画像に含まれる構造物の3次元画像における端部を規定する3次元座標情報を導出するようにした。とくに、断層画像DGkに含まれる構造物の断層面内の位置を規定し、かつ断層画像DGkと交わる方向における構造物の端部の断層面外の位置を規定する3次元座標情報を導出するようにした。このため、3次元画像そのものを用いて3次元画像に含まれる構造物の3次元座標情報を導出する場合と比較して、処理が必要な情報量が少なくなる。これにより、少ない演算量により3次元座標情報を導出することができる。したがって、本実施形態によれば、3次元画像において構造物の範囲を示す3次元座標を効率よく設定することができる。
また、本実施形態においては、導出された3次元座標情報を用いることにより、3次元画像に含まれる構造物に対して、効率よくバウンディングボックスを設定することができる。また、設定されたバウンディングボックスを用いることにより、CT画像G1およびMRI画像G2の位置合わせを効率よく行うことができる。
なお、上記実施形態においては、導出部23において、1つの断層画像の入力により、その断層画像に含まれる構造物の3次元座標情報を導出するようにしているが、これに限定されるものではない。複数の断層画像を1つの組として導出モデル23Aに入力することにより、複数の断層画像のそれぞれに含まれる共通の構造物について1つの3次元座標情報を導出するようにしてもよい。例えば、図23に示すように、断層画像DG3および断層画像DG3に隣接する複数の断層画像(図23においては合計5つ)を1組として導出モデル23Aに入力することにより、左肺についての1つの3次元座標情報を導出するようにしてもよい。すなわち、5つの断層画像の入力により、左肺を囲む1つのバウンディングボックスを規定する2点の3次元座標を導出するようにしてもよい。
この場合、導出モデル23Aは、共通する構造物を含む複数の教師用断層画像、複数の教師用断層画像に共通する構造物についてのラベル、およびその構造物についての教師用3次元座標情報からなる教師データを用いた機械学習により構築される。これにより、複数の断層画像の組が入力されると、複数の断層画像に含まれる共通の構造物の端部を規定する3次元座標情報を出力する導出モデル23Aを構築することができる。
なお、この場合、導出モデル23Aに入力される断層画像の数はいくつであってもよいが、3次元画像を構成するすべての断層画像の数よりも少ないものとする。これにより、3次元画像そのものを用いる場合よりも、少ない演算量により3次元座標情報を導出することができる。
また、上記実施形態において、CT画像G1からの3次元座標情報の導出と、MRI画像G2からの3次元座標情報の導出とをそれぞれ異なる導出モデルにより行うようにしてもよい。例えば、CT画像G1から3次元座標情報を導出する導出モデルとして、1つの断層画像の入力により3次元座標情報を導出するモデルを使用し、MRI画像G2から3次元座標情報を導出する導出モデルとして、複数の断層画像の入力により複数の断層画像に共通する構造物についての1つの3次元座標情報を導出するモデルを使用してもよい。
また、上記実施形態においては、CT画像G1およびMRI画像G2からそれぞれ同数の断層画像を選択しているが、これに限定されるものではない。CT画像G1およびMRI画像G2のそれぞれから異なる数の断層画像を選択してもよい。例えば、CT画像G1およびMRI画像G2のいずれか一方からは、1枚の断層画像のみを選択するようにしてもよい。ここで、CT画像G1から1枚の断層画像のみを選択したとすると、選択した1枚の断層画像を用いて、選択した1枚の断層画像に含まれる構造物を囲むバウンディングボックスをCT画像G1に設定できる。一方、MRI画像G2については、上記実施形態と同様に、複数の断層画像のそれぞれに含まれる構造物を囲むバウンディングボックスをMRI画像G2に設定できる。したがって、MRI画像G2については、CT画像G1において3次元座標情報を導出した構造物を含むすべての構造物について3次元座標情報を導出してバウンディングボックスを設定できる。このため、CT画像G1とMRI画像G2とで異なる数の断層画像を選択したとしても、CT画像G1とMRI画像G2との位置合わせを行うことができる。したがって、より少ない演算量により、CT画像G1とMRI画像G2との位置合わせを行うことができる。
また、上記実施形態においては、選択部22が、CT画像G1およびMRI画像G2から断層画像を選択しているが、これに限定されるものではない。表示制御部26が、CT画像G1およびMRI画像G2をディスプレイ14に表示し、表示されたCT画像G1およびMRI画像G2から操作者による所望とする断層面の選択を受け付けることにより、選択部22が断層画像を選択するようにしてもよい。
また、上記実施形態においては、導出部23が、バウンディングボックスにおける8つの頂点のうち、最も離れた位置にある2つの頂点を3次元座標情報として導出しているが、これに限定されるものではない。導出部23は、最も離れた位置にある2つの頂点以外の、バウンディングボックスを規定することが可能な複数の頂点を3次元座標情報として導出するものとしてもよい。例えば、バウンディングボックスを規定する8つの頂点のすべての3次元座標を3次元座標情報として導出するものとしてもよい。この場合、導出モデル23Aは、断層画像が入力されると、構造物を囲むバウンディングボックスおける予め定められた複数の頂点についての3次元座標情報を出力するものとなるように構築すればよい。このような導出モデル23Aの学習は、バウンディングボックスにおける予め定められた複数の頂点についての教師用3次元座標情報を含む教師データを用いて行えばよい。
また、上記実施形態においては、導出部23が、構造物の向きの情報を導出するものとしてもよい。この場合、導出モデル23Aは構造物の向きの情報を含む教師データを用いて機械学習を行うことにより、断層画像が入力されると、構造物の端部を規定する3次元座標情報に加えて、構造物の向きの情報を出力するものとなるように構築すればよい。
このように導出モデル23Aを構築した場合、以下のような処理を行うことが可能となる。すなわち、例えば、MRI画像を撮影する1回の検査において、アキシャル方向のMRI画像とサジタル方向のMRI画像とが混在している場合がある。このような場合、双方の画像を用いて、構造物の3次元座標情報を決定する。すなわち、アキシャル方向のMRI画像とサジタル方向のMRI画像のそれぞれの断層画像から、構造物の向きの情報も出力するように構築された導出モデル23Aを用いて、構造物の仮の3次元座標情報と向きとを導出する。ここで、両方向のMRI画像には、画像に付帯する付帯情報(例えばDICOM情報)にアキシャル画像とサジタル画像との断面間の相対的な位置と向きとの関係を表す情報が含まれる。このため、導出モデル23Aが導出した仮の3次元座標情報および向きと、アキシャル画像およびサジタル画像の断面間の相対的な位置および向きの関係を表す情報とに基づいて、仮の3次元座標情報を統合することにより、より精度よく構造物の端部を規定する3次元座標情報を求めることができる。
また、上記実施形態においては、異なる撮影装置により取得されたCT画像G1およびMRI画像G2の位置合わせのために、CT画像G1およびMRI画像G2に含まれる構造物についての3次元座標情報を導出しているが、処理対象の画像はこれらに限定されるものではない。例えば、同一患者についての最新の3次元画像(対象3次元画像とする)と、過去に撮影することにより取得された過去3次元画像との位置合わせを行う場合にも、本開示の技術を適用することができる。
この場合、選択部22は、対象3次元画像および過去3次元画像のそれぞれから少なくとも1つの断層画像を選択し、導出部23は、対象3次元画像および過去3次元画像のそれぞれにおいて、選択した断層画像と交わる方向における構造物の端部を規定する3次元座標情報を導出するものとすればよい。なお、対象3次元画像および過去3次元画像は、同一の撮影装置により取得されたものであってもよく、異なる撮影装置により取得されたものであってもよい。例えば、対象3次元画像がCT画像であり、過去3次元画像がMRI画像であってもよい。これにより、同一患者についての経過観察を行う場合にも、対象3次元画像と過去3次元画像との断層面の位置合わせを効率よく行うことができる。
また、本実施形態においては、例えば造影剤を用いて撮影を行う場合における、造影前のCT画像および造影のCT画像を位置合わせの対象とすることもできる。この場合、選択部22は、造影前のCT画像および造影後のCT画像のそれぞれから少なくとも1つの断層画像を選択し、導出部23は、造影前のCT画像および造影後のCT画像のそれぞれにおいて、選択した断層画像と交わる方向における構造物の端部を規定する3次元座標情報を導出するものとすればよい。これにより、造影前後の患者の状態の観察を行う場合にも、造影前のCT画像と造影後のCT画像との表示される断層面の位置合わせを効率よく行うことができる。
また、上記実施形態においては、x方向、y方向およびz方向の位置合わせを行っているが、これに限定されるものではない。x方向およびy方向については、CT画像G1とMRI画像G2とで撮影時に概ね位置合わせがなされている。このため、z方向のみの位置合わせを行うようにしてもよい。
また、上記実施形態においては、3次元画像から選択する断層画像として、アキシャル断面の断層画像を選択しているが、これに限定されるものではない。コロナル断面またはサジタル断面の断層画像を選択するようにしてもよい。この場合、導出部23における導出モデル23Aは、コロナル断面またはサジタル断面の断層画像の入力により、3次元画像において、コロナル断面またはサジタル断面に交わる方向における構造物の端部を規定する3次元座標情報を導出するものとなるように構築すればよい。この場合、導出モデル23Aの学習には、コロナル断面またはサジタル断面の教師用断層画像を含む教師データが用いられることとなる。
また、上記実施形態において、1つの断層画像に構造物の断層面の全体が含まれず、その断層画像内において構造物が見切れている場合がある。このような場合、断層画像と交わる方向に加えて、断層画像により表される断層面内における構造物の端部を規定する3次元座標情報を導出するようにすればよい。
また、上記実施形態において、例えば、画像取得部21、選択部22、導出部23、学習部24、位置合わせ部25、表示制御部26、保存制御部27および通信部28といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 医療情報システム
2 撮影装置
3 読影WS
4 診療
5 画像サーバ
6 画像DB
7 レポートサーバ
8 レポートDB
10 ネットワーク
11 CPU
12A 画像位置合わせプログラム
12B 学習プログラム
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
20 画像位置合わせ装置
21 画像取得部
22 選択部
23 導出部
23A 導出モデル
24 学習部
25 位置合わせ部
26 表示制御部
27 保存制御部
28 通信部
30 ネットワーク
31 畳み込み層
32 RPN
33 分類ネットワーク
40R、40L、46R、46L、60~68、71A~71C、72A~72C バウンディングボックス
41R、41L 断層像
42R、42L 破線
43R、44R 頂点
50 教師データ
51 教師用断層画像
52 ラベル
53 教師用3次元座標情報
80 表示画面
81 画像表示領域
82 文章表示領域
83 第1表示領域
84 第2表示領域
86 同期ボタン
87 確定ボタン
D01~D03、D1~D8、D11~D13 断層面
DG1~DG8、DG11~DG13 断層画像
G1 CT画像
G2 MRI画像
g1A~g1C、g2A~g2C 重心位置
gu1,gu2 統合重心位置
P11~P14 頂点

Claims (12)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、前記複数の断層画像のそれぞれから前記断層画像と交わる方向における前記構造物の端部を規定する仮の第1の3次元座標情報および仮の第2の3次元座標情報を導出し、
    前記仮の第1の3次元画像のそれぞれを統合し、かつ前記仮の第2の3次元画像のそれぞれを統合して、前記断層画像と交わる方向における前記構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出し、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像にそれぞれ含まれる共通の前記構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う画像位置合わせ装置。
  2. 前記プロセッサは、前記第1の3次元座標情報により規定される前記構造物を囲む第1のバウンディングボックス、および前記第2の3次元座標情報により規定される前記構造物を囲む第2のバウンディングボックスを前記第1の3次元画像および前記第2の3次元画像にそれぞれ設定し、
    前記第1のバウンディングボックスの第1の重心位置および前記第2のバウンディングボックスの第2の重心位置の位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う請求項1に記載の画像位置合わせ装置。
  3. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、前記断層画像と交わる方向における前記構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出し、
    前記第1の3次元座標情報により規定される前記構造物を囲む第1のバウンディングボックス、および前記第2の3次元座標情報により規定される前記構造物を囲む第2のバウンディングボックスを前記第1の3次元画像および前記第2の3次元画像にそれぞれ設定し、
    前記第1のバウンディングボックスの第1の重心位置および前記第2のバウンディングボックスの第2の重心位置の少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う画像位置合わせ装置。
  4. 前記第1の3次元画像および前記第2の3次元画像に共通の構造物が複数含まれる場合、前記プロセッサは、すべての前記共通の構造物のそれぞれまたは一部の複数の前記共通の構造物のそれぞれを囲む前記第1のバウンディングボックスおよび前記第2のバウンディングボックスをそれぞれ前記第1の3次元画像および前記第2の3次元画像に設定し、
    前記第1の3次元画像に設定された複数の前記第1のバウンディングボックスのそれぞれについての第1の重心位置を導出し、該第1の重心位置を統合した第1の統合重心位置を導出し、
    前記第2の3次元画像に設定された複数の前記第2のバウンディングボックスのそれぞれについての第2の重心位置を導出し、該第2の重心位置を統合した第2の統合重心位置を導出し、
    前記第1の統合重心位置と前記第2の統合重心位置との位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う請求項2または3に記載の画像位置合わせ装置。
  5. 前記第1の3次元画像および前記第2の3次元画像に共通の構造物が複数含まれる場合、前記プロセッサは、すべての前記共通の構造物のそれぞれまたは一部の複数の前記共通の構造物のそれぞれを囲む前記第1のバウンディングボックスおよび前記第2のバウンディングボックスをそれぞれ前記第1の3次元画像および前記第2の3次元画像に設定し、
    前記第1の3次元画像に設定された複数の前記第1のバウンディングボックスのそれぞれについての第1の重心位置を導出し、
    前記第2の3次元画像に設定された複数の前記第2のバウンディングボックスのそれぞれについての第2の重心位置を導出し、
    前記第1の3次元画像および前記第2の3次元画像間において互いに対応する前記第1の重心位置と前記第2の重心位置との相違の和が最小となるように、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う請求項2または3に記載の画像位置合わせ装置。
  6. 前記第1の3次元画像および前記第2の3次元画像は、同一被検体についての撮影装置が異なる3次元画像である請求項1からのいずれか1項に記載の画像位置合わせ装置。
  7. 前記第1の3次元画像および前記第2の3次元画像は、同一被検体についての撮影時期が異なる3次元画像である請求項1からのいずれか1項に記載の画像位置合わせ装置。
  8. 前記プロセッサは、前記第1および前記第2の3次元画像のそれぞれについて、異なる手法により前記第1および前記第2の3次元座標情報を導出する請求項1からのいずれか1項に記載の画像位置合わせ装置。
  9. それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、前記複数の断層画像のそれぞれから前記断層画像と交わる方向における前記構造物の端部を規定する仮の第1の3次元座標情報および仮の第2の3次元座標情報を導出し、
    前記仮の第1の3次元画像のそれぞれを統合し、かつ前記仮の第2の3次元画像のそれぞれを統合して、前記断層画像と交わる方向における前記構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出し、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像にそれぞれ含まれる共通の前記構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う画像位置合わせ方法。
  10. それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、前記断層画像と交わる方向における前記構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出し、
    前記第1の3次元座標情報により規定される前記構造物を囲む第1のバウンディングボックス、および前記第2の3次元座標情報により規定される前記構造物を囲む第2のバウンディングボックスを前記第1の3次元画像および前記第2の3次元画像にそれぞれ設定し、
    前記第1のバウンディングボックスの第1の重心位置および前記第2のバウンディングボックスの第2の重心位置の少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う画像位置合わせ方法。
  11. それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、前記複数の断層画像のそれぞれから前記断層画像と交わる方向における前記構造物の端部を規定する仮の第1の3次元座標情報および仮の第2の3次元座標情報を導出する手順と、
    前記仮の第1の3次元画像のそれぞれを統合し、かつ前記仮の第2の3次元画像のそれぞれを統合して、前記断層画像と交わる方向における前記構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出する手順と、
    前記第1の3次元座標情報および前記第2の3次元座標情報を用いて、前記第1の3次元画像および前記第2の3次元画像にそれぞれ含まれる共通の前記構造物の、少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う手順とをコンピュータに実行させる画像位置合わせプログラム。
  12. それぞれ複数の断層画像を含み、共通の構造物を含む第1の3次元画像および第2の3次元画像のそれぞれについて、前記断層画像と交わる方向における前記構造物の端部を規定する第1の3次元座標情報および第2の3次元座標情報を導出する手順と、
    前記第1の3次元座標情報により規定される前記構造物を囲む第1のバウンディングボックス、および前記第2の3次元座標情報により規定される前記構造物を囲む第2のバウンディングボックスを前記第1の3次元画像および前記第2の3次元画像にそれぞれ設定する手順と、
    前記第1のバウンディングボックスの第1の重心位置および前記第2のバウンディングボックスの第2の重心位置の少なくとも前記断層画像と交わる方向における位置合わせを行うことにより、前記第1の3次元画像と前記第2の3次元画像との、少なくとも前記断層画像と交わる方向における位置合わせを行う手順とをコンピュータに実行させる画像位置合わせプログラム。
JP2022514448A 2020-04-09 2021-04-01 画像位置合わせ装置、方法およびプログラム Active JP7389234B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2020070313 2020-04-09
JP2020070313 2020-04-09
JP2020186788 2020-11-09
JP2020186788 2020-11-09
PCT/JP2021/014213 WO2021205991A1 (ja) 2020-04-09 2021-04-01 画像位置合わせ装置、方法およびプログラム

Publications (3)

Publication Number Publication Date
JPWO2021205991A1 JPWO2021205991A1 (ja) 2021-10-14
JPWO2021205991A5 JPWO2021205991A5 (ja) 2022-12-20
JP7389234B2 true JP7389234B2 (ja) 2023-11-29

Family

ID=78024141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022514448A Active JP7389234B2 (ja) 2020-04-09 2021-04-01 画像位置合わせ装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US20230027544A1 (ja)
JP (1) JP7389234B2 (ja)
WO (1) WO2021205991A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005517249A (ja) 2002-02-07 2005-06-09 シーメンス コーポレイト リサーチ インコーポレイテツド 全体積を使用しないオブジェクトの対応関係識別
JP2008142137A (ja) 2006-12-06 2008-06-26 Internatl Business Mach Corp <Ibm> データ処理装置、データ処理方法、およびプログラム
JP2011041656A (ja) 2009-08-20 2011-03-03 Yamatake Corp ボリュームデータ間の対応付け方法
US20110116701A1 (en) 2008-08-04 2011-05-19 Koninklijke Philips Electronics N.V. Automatic pre-alignment for registration of medical images
JP2016087048A (ja) 2014-11-04 2016-05-23 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005517249A (ja) 2002-02-07 2005-06-09 シーメンス コーポレイト リサーチ インコーポレイテツド 全体積を使用しないオブジェクトの対応関係識別
JP2008142137A (ja) 2006-12-06 2008-06-26 Internatl Business Mach Corp <Ibm> データ処理装置、データ処理方法、およびプログラム
US20110116701A1 (en) 2008-08-04 2011-05-19 Koninklijke Philips Electronics N.V. Automatic pre-alignment for registration of medical images
JP2011041656A (ja) 2009-08-20 2011-03-03 Yamatake Corp ボリュームデータ間の対応付け方法
JP2016087048A (ja) 2014-11-04 2016-05-23 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
JPWO2021205991A1 (ja) 2021-10-14
WO2021205991A1 (ja) 2021-10-14
US20230027544A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
Torosdagli et al. Deep geodesic learning for segmentation and anatomical landmarking
WO2022037696A1 (zh) 基于深度学习的骨骼分割方法和系统
EP3164075B1 (en) Unified coordinate system for multiple ct scans of patient lungs
US8953856B2 (en) Method and system for registering a medical image
US8369585B2 (en) Automatic classification of information in images
US20200058098A1 (en) Image processing apparatus, image processing method, and image processing program
JP6885896B2 (ja) 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
US11468659B2 (en) Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
JP6845071B2 (ja) 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
JP5415245B2 (ja) 医用画像表示装置および方法並びにプログラム
Hachaj et al. Visualization of perfusion abnormalities with GPU-based volume rendering
JP6493885B2 (ja) 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
JP2019126654A (ja) 画像処理装置、画像処理方法、及びプログラム
US20220020160A1 (en) User interface elements for orientation of remote camera during surgery
JP7389234B2 (ja) 画像位置合わせ装置、方法およびプログラム
JP7389233B2 (ja) 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
US10580136B2 (en) Mapping image generation device, method, and program
Karner et al. Single-shot deep volumetric regression for mobile medical augmented reality
EP3794550B1 (en) Comparison of a region of interest along a time series of images
Zeng et al. A review: artificial intelligence in image-guided spinal surgery
WO2020090445A1 (ja) 領域修正装置、方法およびプログラム
JP7543195B2 (ja) 画像位置合わせ装置、方法およびプログラム、並びに位置特定装置、方法およびプログラム
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
WO2020240995A1 (ja) マッチング装置、方法およびプログラム
WO2021256096A1 (ja) 領域修正装置、方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7389234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150