JP2023178525A - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP2023178525A
JP2023178525A JP2020153151A JP2020153151A JP2023178525A JP 2023178525 A JP2023178525 A JP 2023178525A JP 2020153151 A JP2020153151 A JP 2020153151A JP 2020153151 A JP2020153151 A JP 2020153151A JP 2023178525 A JP2023178525 A JP 2023178525A
Authority
JP
Japan
Prior art keywords
image
lesion
standard
organ
schema
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020153151A
Other languages
English (en)
Inventor
拓矢 湯澤
Takuya Yuzawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020153151A priority Critical patent/JP2023178525A/ja
Priority to PCT/JP2021/030594 priority patent/WO2022054541A1/ja
Publication of JP2023178525A publication Critical patent/JP2023178525A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像処理装置、方法およびプログラムにおいて、医用画像に含まれる病変の位置をシェーマにおいて正確に反映させる。【解決手段】プロセッサは、医用画像から病変を含む対象臓器を抽出することにより対象臓器画像を導出し、複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と、導出された対象臓器画像とを位置合わせすることによって、標準臓器画像における病変の位置を特定し、標準臓器画像において特定された病変の位置に基づいて、対象臓器を模式的に表したシェーマにおける病変の位置を特定する。【選択図】図3

Description

本開示は、画像処理装置、方法およびプログラムに関する。
近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、CT画像およびMRI画像等を用いた画像診断により、病変の領域を精度よく特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。また、機械学習がなされた学習済みモデルを用いたCAD(Computer-Aided Diagnosis)により医用画像を解析して、医用画像に含まれる病変を検出することも行われている。
また、医用画像の解析結果を客観的に示すために、解析結果を予め用意してあるシェーマに表示することがある。シェーマとは、人体の構造を模式的に示した模式図である。例えば、医用画像を解析した結果、肺の右上葉に病変が検出された場合、肺を模式的に示したシェーマにおいて、右上葉の領域に異常があることをハイライトして表示することが行われる。しかしながら、このような表示方法は、シェーマにより右上葉に異常所見があることは分かるが、右上葉のどこに病変があるかまでは読み取ることはできない。
このため、CT装置等により取得された3次元画像において病変を特定し、予め作成された仮想患者画像と3次元画像とを位置合わせし、仮想患者画像において病変の位置を特定し、病変位置が特定された仮想患者画像を表示する手法が提案されている(特許文献1参照)。特許文献1における仮想患者画像は、年齢、成人、子供、性別、体重、身長等の患者の体格に応じて、実際にX線で撮影した画像として予め生成される。
特開2017-204041号公報
しかしながら、特許文献1に記載された手法においては、仮想患者画像は標準的な体格を有する人体について、実際にX線で撮影した画像として生成されている。このため、仮想患者画像は、実際の患者をX線で撮影することにより生成されたものではなく、シェーマと同様に、人体の構造が模式的に表されている。このようなシェーマのような模式的な画像と撮影により取得した医用画像との位置合わせを精度よく行うことは難しい。このため、特許文献1に記載された手法を用いた場合、医用画像に含まれる病変の位置をシェーマにおいて正確に反映させることは困難である。
本開示は上記事情に鑑みなされたものであり、医用画像に含まれる病変の位置をシェーマにおいて正確に反映させることができるようにすることを目的とする。
本開示による画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
医用画像から病変を含む対象臓器を抽出することにより病変を含む対象臓器画像を導出し、
複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と、導出された対象臓器画像とを位置合わせすることによって、標準臓器画像における病変の位置を特定し、
標準臓器画像において特定された病変の位置に基づいて、対象臓器を模式的に表したシェーマにおける病変の位置を特定する。
なお、本開示による画像処理装置においては、標準臓器画像は、複数の対象臓器画像のサイズ、形状および濃度を正規化することにより導出されてなるものであってもよい。
また、本開示による画像処理装置においては、医用画像および標準臓器画像は3次元画像であり、
シェーマは2次元画像であってもよい。
また、本開示による画像処理装置においては、プロセッサは、標準臓器画像を2次元に投影することにより病変の位置が特定された2次元標準臓器画像を導出し、
2次元標準臓器画像における病変の位置に基づいて、シェーマにおける病変の位置を特定するものであってもよい。
また、本開示による画像処理装置においては、プロセッサは、2次元標準臓器画像の重心と2次元標準臓器画像における病変の位置との位置関係を導出し、
シェーマの重心に対して位置関係を反映させることにより、シェーマにおける病変の位置を特定するものであってもよい。
また、本開示による画像処理装置においては、標準臓器画像が複数の解剖学的領域に分割され、シェーマが標準臓器画像に対応する複数の解剖学的領域に分割されてなる場合、
プロセッサは、2次元標準臓器画像において、病変の位置が含まれる解剖学的領域の重心と解剖学的領域における病変の位置との位置関係を導出し、
病変の位置が含まれる解剖学的領域に対応するシェーマの解剖学的領域の重心に対して位置関係を反映させることにより、シェーマにおける病変の位置を特定するものであってもよい。
また、本開示による画像処理装置においては、プロセッサは、病変の位置が特定されたシェーマを表示するものであってもよい。
また、本開示による画像処理装置においては、プロセッサは、医用画像を解析することにより病変を検出するものであってもよい。
本開示による画像処理方法は、医用画像から病変を含む対象臓器を抽出することにより病変を含む対象臓器画像を導出し、
複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と、導出された対象臓器画像とを位置合わせすることによって、標準臓器画像における病変の位置を特定し、
標準臓器画像において特定された病変の位置に基づいて、対象臓器を模式的に表したシェーマにおける病変の位置を特定する。
なお、本開示による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、医用画像に含まれる病変の位置をシェーマにおいて正確に反映させることができる。
本開示の実施形態による画像処理装置を適用した医療情報システムの概略構成を示す図 本実施形態による画像処理装置の概略構成を示す図 本実施形態による画像処理装置の機能構成図 肺画像を示す図 病変の検出結果を示す図 標準肺画像を示す図 病変の位置が特定された標準肺画像を示す図 シェーマを示す図 2次元標準肺画像を示す図 2次元標準肺画像の左肺上葉における重心と病変の位置との関係を説明するための図 シェーマの左肺上葉の重心に基づく病変の位置の特定を説明するための図 シェーマの表示画面を示す図 本実施形態において行われる処理を示すフローチャート 2次元標準肺画像の重心と病変の位置との関係を説明するための図 シェーマの重心に基づく病変の位置の特定を説明するための図
以下、図面を参照して本開示の実施形態について説明する。まず、本実施形態による画像処理装置を適用した医療情報システムの構成について説明する。図1は、医療情報システムの概略構成を示す図である。図1に示す医療情報システムは、本実施形態による画像処理装置を内包するコンピュータ1、撮影装置2および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
コンピュータ1は、本実施形態による画像処理装置を内包するものであり、本実施形態による画像処理プログラムがインストールされている。コンピュータ1は、医用画像の読影または医用画像を用いての診断を行う医師が直接操作するワークステーションあるいはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータ1にダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータ1にインストールされる。
撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。この撮影装置2により生成された、複数のスライス画像からなる3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、CT装置により被検体の胸部を撮影することにより取得した、胸部の3次元画像を医用画像として用いるものとする。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には撮影装置2で生成された3次元画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。また、画像保管サーバ3には、臓器の標準的な画像である標準臓器画像も保存されている。
次いで、本実施形態による画像処理装置について説明する。図2は、本実施形態による画像処理装置のハードウェア構成を説明する。図2に示すように、画像処理装置20は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、画像処理装置20は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク4に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11がプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像処理プログラム12が記憶される。CPU11は、ストレージ13から画像処理プログラム12を読み出してからメモリ16に展開し、展開した画像処理プログラム12を実行する。
次いで、本実施形態による画像処理装置の機能的な構成を説明する。図3は、本実施形態による画像処理装置の機能的な構成を示す図である。図3に示すように画像処理装置20は、情報取得部21、臓器抽出部22、解析部23、位置合わせ部24、位置特定部25および表示制御部26を備える。そして、CPU11が、画像処理プログラム12を実行することにより、CPU11は、情報取得部21、臓器抽出部22、解析部23、位置合わせ部24、位置特定部25および表示制御部26として機能する。
情報取得部21は、操作者による入力デバイス15からの指示により、画像保管サーバ3からネットワークI/F17を介して3次元画像G0を取得する。3次元画像G0は、複数の断層画像Dj(j=1~n、nは断層画像の数)から構成される。3次元画像G0は、例えば診断の対象となるような、ユーザである医師が注目する臓器を含む。なお、3次元画像G0が既にストレージ13に記憶されている場合には、情報取得部21は、ストレージ13から3次元画像G0を取得するようにしてもよい。本実施形態においては、ユーザが読影する対象臓器は肺であるものとする。また、情報取得部21は、画像保管サーバ3からネットワークI/F17を介して標準臓器画像を取得する。標準臓器画像については後述する。
臓器抽出部22は、3次元画像G0から対象臓器を抽出することにより対象臓器画像を導出する。本実施形態においては、対象臓器は肺であるため、臓器抽出部22は、3次元画像G0から肺を抽出することにより肺画像GL0を導出する。肺画像GL0が対象臓器画像の一例である。肺を抽出する手法としては、3次元画像G0における画素毎の信号値(CT値)をヒストグラム化し、ヒストグラムをしきい値処理することにより肺の信号値を有する領域を抽出する方法を用いることができる。また、肺を表すシード点に基づく領域拡張法(Region Growing)等、任意の手法を用いることができる。なお、3次元画像G0から肺を抽出するように機械学習がなされた判別器を用いるようにしてもよい。なお、肺画像GL0は3次元画像G0から導出されるため、3次元の画像となる。図4は肺画像の例を示す図である。
解析部23は、3次元画像G0を解析することにより、肺に含まれる病変を検出する。解析部23は、公知のコンピュータ支援画像診断(すなわちCAD)のアルゴリズムを用いて、3次元画像G0から複数種類の疾患の陰影を病変として検出する。なお、本実施形態においては、臓器抽出部22により3次元画像G0から肺画像GL0が導出されているため、解析部23は、肺画像GL0を解析することにより病変を検出するものであってもよい。なお、疾患の種類としては、肺の疾患である胸水、中皮腫、結節および石灰化等が挙げられる。
病変の検出のために、解析部23は、3次元画像G0または肺画像GL0から複数種類の疾患の陰影を病変として検出するように機械学習がなされた学習モデル23Aを有する。学習モデル23Aは、疾患の種類に応じて複数用意される。学習モデル23Aは、3次元画像G0または肺画像GL0における各画素(ボクセル)が、病変を表すものであるか否かを判別するように、教師データを用いてディープラーニング(深層学習)がなされた畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))からなる。
学習モデル23Aは、例えば病変を含む教師画像および教師画像における病変の領域を表す正解データからなる教師データ、並びに病変を含まない教師画像からなる教師データを多数用いてCNNを学習することにより構築される。学習モデル23Aは、医用画像における各画素が病変であることを表す確信度(尤度)を導出し、その確信度が予め定められた第1のしきい値以上となる画素からなる領域を病変の領域として検出する。ここで、確信度は0以上1以下の値となる。
なお、学習モデル23Aは、3次元画像G0または肺画像GL0から病変を検出するものであってもよいが、3次元画像G0または肺画像GL0を構成する複数の断層画像のそれぞれから病変を検出するものであってもよい。また、学習モデル23Aとしては、畳み込みニューラルネットワークの他、例えばサポートベクタマシン(SVM(Support Vector Machine))等の任意の学習モデルを用いることができる。
図5は病変の検出結果を示す図である。図5に示すように、肺画像GL0の右肺の上部に矩形31により囲まれた病変32が検出されている。
位置合わせ部24は、標準臓器画像と肺画像GL0との位置合わせを行う。ここで、標準臓器画像について説明する。なお、本実施形態においては、対象臓器が肺であるため、標準臓器画像は標準肺画像となる。以下、標準肺画像については参照符号としてSL0を用いるものとする。標準肺画像SL0は、標準肺画像SL0を導出するために用意された複数の肺画像を正規化することにより導出される。具体的には肺画像のサイズ、形状および濃度を正規化することにより、標準肺画像SL0が導出される。
サイズの正規化とは、複数の肺画像の平均的なサイズを求めることである。サイズは、人体における肺画像の上下方向のサイズおよび左右方向のサイズを用いることができる。形状の正規化とは、大きさが正規化された肺画像の平均的な形状を求めることである。例えば肺画像における肺領域の重心からの肺表面までの距離の平均値を求めるなどにより、形状を正規化すればよい。また、この際、肺における解剖学的領域の境界も正規化される。ここで、右肺は上葉、中葉および下葉の解剖学的領域に分割され、左肺は上葉および下葉の解剖学的領域に分割される。解剖学的領域の境界は、肺画像における解剖学的領域の重心を求め、重心から解剖学的領域の境界までの距離の平均値を求める等すればよい。濃度の正規化は、複数の肺画像の信号値(ボクセル値)の代表値を求める等により行えばよい。代表値としては、例えば平均値、中央値、最大値および最小値等を用いることができる。
図6は標準肺画像を示す図である。図6に示すように、標準肺画像SL0においては、右肺上葉41、右肺中葉42、右肺下葉43、左肺上葉44および左肺下葉45の解剖学的領域に分割されている。なお、肺のサイズは、年齢、性別、身長および体重等の被検体の体格によって変わる。このため、標準肺画像SL0は、年齢、性別、身長および体重等の体格に応じたサイズのものが画像保管サーバ3に保存されている。本実施形態においては、情報取得部21は、入力デバイス15から入力された被検体の年齢、性別、身長および体重等に基づく体格に応じたサイズの標準肺画像SL0を画像保管サーバ3から取得するものとする。
位置合わせ部24は、肺画像GL0を標準肺画像SL0に一致させるように、肺画像GL0と標準肺画像SL0とを位置合わせする。位置合わせの手法としては、非剛体位置合わせを用いることが好ましいが、剛体位置合わせを用いてもよい。非剛体位置合わせとしては、例えばBスプラインおよびシンプレートスプライン(Thin Plate Spline)等の関数を用いて、肺画像GL0における各画素位置を、標準肺画像SL0における対応する画素位置に非線形に変換することによる手法を用いることができるが、これに限定されるものではない。なお、位置合わせの精度を向上させるために、肺画像GL0の濃度の分布が標準肺画像SL0の濃度の分布と一致するように、肺画像GL0の濃度を変換することが好ましい。
位置合わせ後の肺画像GL0は、標準肺画像SL0と同一のサイズおよび形状を有する。また、位置合わせにより、肺画像GL0に含まれる病変の位置を標準肺画像SL0において特定することができる。図7は病変の位置が特定された標準肺画像を示す図である。図7に示すように、標準肺画像SL0の右肺上葉41に、肺画像GL0に含まれる病変32が特定されている。
位置特定部25は、標準肺画像SL0において特定された病変の位置に基づいて、対象臓器を模式的に表したシェーマにおける病変の位置を特定する。図8は肺のシェーマを示す図である。図8に示すように、シェーマ50は肺をイラスト化することにより模式的に示す図であり、右肺は右肺上葉51、右肺中葉52および右肺下葉53の解剖学的領域に分割され、左肺は左肺上葉54および左肺下葉55の解剖学的領域に分割されている。
シェーマ50における病変の位置の特定のために、位置特定部25は、病変の位置が特定された標準肺画像SL0を2次元に投影して2次元標準肺画像SL1を導出する。この場合の投影方向は、シェーマ50の視線方向と同一方向、すなわち人体を正面から見た場合の奥行き方向である。図9は2次元標準肺画像を示す図である。図9に示すように、2次元標準肺画像SL1は2次元画像であり、右肺は右肺上葉61、右肺中葉62および右肺下葉63の解剖学的領域に分割され、左肺は左肺上葉64および左肺下葉65の解剖学的領域に分割されている。図9に示すように、2次元標準肺画像SL1の右肺上葉61に病変32が含まれている。右肺上葉61の病変の位置は、3次元の標準肺画像SL0における右肺上葉51の病変32の位置を2次元に投影した位置である。
位置特定部25は、まずシェーマ50と2次元標準肺画像SL1とのサイズを一致させる。例えば、シェーマ50と2次元標準肺画像SL1とのy方向のみサイズを一致させる、あるいはx方向のみサイズを一致させる。この際、位置特定部25は、シェーマ50と2次元標準肺画像SL1とのサイズを一致させるための拡大率αを一時的にメモリ16に記憶する。
そして、位置特定部25は、2次元標準肺画像SL1において、病変32が含まれる右肺上葉61の重心g1を導出する。なお、位置特定部25は、2次元に投影する前の標準肺画像SL0の右肺上葉51の重心を導出し、導出した重心を2次元に投影した位置を2次元標準肺画像SL1の右肺上葉61における重心の位置としてもよい。
次いで、位置特定部25は、図10に示すように、2次元標準肺画像SL1の右肺上葉61における重心g1に対する病変32の位置p1の相対位置を導出する。なお、病変32の位置p1として病変32の重心を用いることができる。重心g1に対する病変32の位置p1の相対位置の座標を(x1,y1)とする。
そして、位置特定部25は、図11に示すように、シェーマ50における右肺上葉51の重心g2を導出し、位置p1の座標(x1,y1)に拡大率αを乗算し、重心g2を基準とした座標(αx1,αy1)の位置p2をシェーマ50における病変の位置に特定する。
表示制御部26は、病変の位置が特定されたシェーマをディスプレイ14に表示する。図12はシェーマの表示画面を示す図である。図12に示すように表示画面70は、画像表示領域71および文字表示領域72を含む。画像表示領域71には、3次元画像G0およびシェーマ50が表示される。なお、表示される3次元画像G0は、3次元画像G0に含まれる断層画像である。ユーザは、入力デバイス15を用いることにより、表示される断層画像を切り替えることができる。また、シェーマ50においては右肺上葉51に病変を表す矩形のマーク73が付与されることにより、病変の位置が強調されている。なお、矩形のマークに代えて矢印等の他の形状のマークを付与するようにしてもよい。また、シェーマ50における病変を含む解剖学的領域(図12においては右肺上葉)の色を他の解剖学的領域の色と異なるものとすることにより、病変を強調するようにしてもよい。また、右肺上葉に病変である結節が含まれることを表すアノテーション74も画像表示領域71に表示される。このため、ユーザは、例えば左肺上葉を含む断層画像を画像表示領域71に表示して、詳細に読影を行うことができる。
文字表示領域72には、ユーザによる3次元画像G0の読影結果が所見として入力される。例えば、図12においては、右肺上葉を読影した結果得られた「右肺上葉に結節が見られます。」の所見が入力されている。ユーザは、確定ボタン75を選択することにより、入力した所見を含む読影レポートが作成される。作成された読影レポートはネットワークI/F17から不図示のレポートサーバに送信されて保存される。
次いで、本実施形態において行われる処理について説明する。図13は本実施形態において行われる処理を示すフローチャートである。なお、標準肺画像SL0は画像保管サーバ3から取得されて、ストレージ13に保存されているものとする。まず、情報取得部21が、3次元画像G0を取得する(ステップST1)。次いで、臓器抽出部22が3次元画像G0から肺を抽出することにより肺画像GL0を導出する(ステップST2)。そして、解析部23が、3次元画像G0に含まれる肺における病変を検出する(ステップST3)。
続いて、位置合わせ部24が、標準肺画像SL0と肺画像GL0とを位置合わせすることにより、標準肺画像SL0における病変の位置を特定する(ステップST4)。そして、位置特定部25が、標準肺画像SL0において特定された病変の位置に基づいて、シェーマ50における病変の位置を特定する(ステップST5)。次いで、表示制御部26が、病変の位置が特定されたシェーマ50を表示し(ステップST6)、処理を終了する。
このように、本実施形態においては、複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と対象臓器画像とを位置合わせすることにより、標準臓器画像における病変に対応する位置を特定し、標準臓器画像において特定された病変に対応する位置に基づいて、対象臓器を模式的に表したシェーマにおける病変に対応する位置を特定するようにした。これにより、対象臓器画像とシェーマとの間に、標準臓器画像を介在させて、段階的に対象臓器画像とシェーマとを位置合わせすることができる。したがって、対象臓器画像とシェーマとを直接位置合わせする場合と比較して、対象臓器画像とシェーマとを正確に位置合わせすることができ、その結果、医用画像に含まれる病変の位置をシェーマにおいて正確に反映させることができる。
とくに、標準臓器画像を複数の対象臓器画像を正規化することにより導出されてなるものとすることにより、標準臓器画像は対象臓器の平均的なサイズ、形状および濃度を有するものとなる。このため、対象臓器画像との位置合わせ、およびシェーマ50との位置合わせの双方を、精度よく行うことができ、その結果、対象臓器画像とシェーマ50との位置合わせを精度よく行うことができる。したがって、本実施形態によれば、医用画像に含まれる病変の位置をシェーマにおいて正確に反映させることができる。
また、2次元標準肺画像SL1の解剖学的領域の重心と病変の位置との対応関係を導出し、導出した対応関係をシェーマ50における対応する解剖学的領域の重心に反映することによってシェーマ50における病変の位置を特定することにより、簡易な演算によりシェーマ50における病変の位置を特定することができる。
なお、上記実施形態においては、シェーマ50における病変の位置を特定する際に、2次元標準肺画像SL1とシェーマ50との対応する解剖学的領域(すなわち右肺上葉)における重心位置の位置関係を用いているが、これに限定されるものではない。右肺上葉に病変が特定された場合、図14に示すように、2次元標準肺画像SL1の右肺の重心g11と2次元標準肺画像SL1において特定された病変の位置p1(x2,y2)との位置関係を導出し、図15に示すように、導出した位置関係をシェーマ50における右肺の重心g12に対して反映させることにより、シェーマ50の右肺における病変の位置p2(αx2,αy2)を特定するようにしてもよい。
また、上記実施形態においては、画像処理装置20が解析部23を備え、3次元画像G0から病変を検出しているが、これに限定されるものではない。画像処理装置20とネットワーク4を介して接続された別個の装置において、3次元画像G0から病変を検出するようにしてもよい。また、すでに病変が検出されている3次元画像G0を画像保管サーバ3から取得し、画像処理装置20において、病変が検出された3次元画像G0を用いてシェーマ50における病変の位置を特定するようにしてもよい。また、3次元画像G0をディスプレイ14に表示し、ユーザが3次元画像G0を読影することにより病変の位置を特定するようにしてもよい。これらの場合、画像処理装置20においては解析部23は不用となる。
また、上記実施形態においては、対象臓器を肺としているがこれに限定されるものではない。肺の他に、脳、心臓、肝臓、血管および四肢等の人体の任意の部位を診断対象とすることができる。
また、上記実施形態において、例えば、情報取得部21、臓器抽出部22、解析部23、位置合わせ部24、位置特定部25および表示制御部26といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 コンピュータ
2 撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 画像処理プログラム
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
20 画像処理装置
21 情報取得部
22 臓器抽出部
23 解析部
23A 学習済みモデル
24 位置合わせ部
25 位置特定部
26 表示制御部
31 矩形
32 病変
41、51、61 右肺上葉
42、52、62 右肺中葉
43、53、63 右肺下葉
44、54、64 左肺上葉
45、55、65 左肺下葉
50 シェーマ
70 表示画面
71 画像表示領域
72 文字表示領域
73 マーク
74 アノテーション
g1,g2,g11,g12 重心
p1,p2 病変の位置
GL0 肺画像
SL0 標準肺画像
SL1 2次元標準肺画像

Claims (10)

  1. 少なくとも1つのプロセッサを備え、
    プロセッサは、
    医用画像から病変を含む対象臓器を抽出することにより前記病変を含む対象臓器画像を導出し、
    複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と、前記導出された対象臓器画像とを位置合わせすることによって、前記標準臓器画像における前記病変の位置を特定し、
    前記標準臓器画像において特定された前記病変の位置に基づいて、前記対象臓器を模式的に表したシェーマにおける前記病変の位置を特定する画像処理装置。
  2. 前記標準臓器画像は、前記複数の対象臓器画像のサイズ、形状および濃度を正規化することにより導出されてなる請求項1に記載の画像処理装置。
  3. 前記医用画像および前記標準臓器画像は3次元画像であり、
    前記シェーマは2次元画像である請求項1または2に記載の画像処理装置。
  4. 前記プロセッサは、前記標準臓器画像を2次元に投影することにより前記病変の位置が特定された2次元標準臓器画像を導出し、
    前記2次元標準臓器画像における前記病変の位置に基づいて、前記シェーマにおける前記病変の位置を特定する請求項3項に記載の画像処理装置。
  5. 前記プロセッサは、前記2次元標準臓器画像の重心と前記2次元標準臓器画像における前記病変の位置との位置関係を導出し、
    前記シェーマの重心に対して前記位置関係を反映させることにより、前記シェーマにおける前記病変の位置を特定する請求項4に記載の画像処理装置。
  6. 前記標準臓器画像が複数の解剖学的領域に分割され、前記シェーマが前記標準臓器画像に対応する複数の解剖学的領域に分割されてなる場合、
    前記プロセッサは、前記2次元標準臓器画像において、前記病変の位置が含まれる解剖学的領域の重心と前記解剖学的領域における前記病変の位置との位置関係を導出し、
    前記病変の位置が含まれる解剖学的領域に対応する前記シェーマの解剖学的領域の重心に対して前記位置関係を反映させることにより、前記シェーマにおける前記病変の位置を特定する請求項4に記載の画像処理装置。
  7. 前記プロセッサは、前記病変の位置が特定された前記シェーマを表示する請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記プロセッサは、前記医用画像を解析することにより前記病変を検出する請求項1から7のいずれか1項に記載の画像処理装置。
  9. 医用画像から病変を含む対象臓器を抽出することにより前記病変を含む対象臓器画像を導出し、
    複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と、前記導出された対象臓器画像とを位置合わせすることによって、前記標準臓器画像における前記病変の位置を特定し、
    前記標準臓器画像において特定された前記病変の位置に基づいて、前記対象臓器を模式的に表したシェーマにおける前記病変の位置を特定する画像処理方法。
  10. 医用画像から病変を含む対象臓器を抽出することにより前記病変を含む対象臓器画像を導出する手順と、
    複数の対象臓器画像を正規化することにより予め導出された標準臓器画像と、前記導出された対象臓器画像とを位置合わせすることによって、前記標準臓器画像における前記病変の位置を特定する手順と、
    前記標準臓器画像において特定された前記病変の位置に基づいて、前記対象臓器を模式的に表したシェーマにおける前記病変の位置を特定する手順とをコンピュータに実行させる画像処理プログラム。
JP2020153151A 2020-09-11 2020-09-11 画像処理装置、方法およびプログラム Pending JP2023178525A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020153151A JP2023178525A (ja) 2020-09-11 2020-09-11 画像処理装置、方法およびプログラム
PCT/JP2021/030594 WO2022054541A1 (ja) 2020-09-11 2021-08-20 画像処理装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020153151A JP2023178525A (ja) 2020-09-11 2020-09-11 画像処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023178525A true JP2023178525A (ja) 2023-12-18

Family

ID=80631533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020153151A Pending JP2023178525A (ja) 2020-09-11 2020-09-11 画像処理装置、方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2023178525A (ja)
WO (1) WO2022054541A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181146A (ja) * 2004-12-28 2006-07-13 Fuji Photo Film Co Ltd 診断支援装置、診断支援方法およびそのプログラム
JP5233374B2 (ja) * 2008-04-04 2013-07-10 大日本印刷株式会社 医用画像処理システム

Also Published As

Publication number Publication date
WO2022054541A1 (ja) 2022-03-17

Similar Documents

Publication Publication Date Title
JP7225295B2 (ja) 医用画像表示装置、方法およびプログラム
JP6220310B2 (ja) 医用画像情報システム、医用画像情報処理方法及びプログラム
US8953856B2 (en) Method and system for registering a medical image
US11941812B2 (en) Diagnosis support apparatus and X-ray CT apparatus
CN108697402B (zh) 在三维图像中确定深度脑刺激电极的旋转方位
US10628963B2 (en) Automatic detection of an artifact in patient image
US11468659B2 (en) Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
US20190236783A1 (en) Image processing apparatus, image processing method, and program
US20230005601A1 (en) Document creation support apparatus, method, and program
Alam et al. Medical image registration: Classification, applications and issues
US11205269B2 (en) Learning data creation support apparatus, learning data creation support method, and learning data creation support program
CN112750519A (zh) 医学图像数据的匿名化
CN112790778B (zh) 采集错误对齐
WO2022054541A1 (ja) 画像処理装置、方法およびプログラム
JP2021175454A (ja) 医用画像処理装置、方法およびプログラム
JP7436698B2 (ja) 医用画像処理装置、方法およびプログラム
US20240331335A1 (en) Image processing apparatus, image processing method, and image processing program
US20240037739A1 (en) Image processing apparatus, image processing method, and image processing program
EP4343781A1 (en) Information processing apparatus, information processing method, and information processing program
JPWO2019150717A1 (ja) 葉間膜表示装置、方法およびプログラム
US20240037738A1 (en) Image processing apparatus, image processing method, and image processing program
US12033366B2 (en) Matching apparatus, matching method, and matching program
US20230225681A1 (en) Image display apparatus, method, and program
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
JP2024044921A (ja) 情報処理装置、情報処理方法及び情報処理プログラム