JP2020025730A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2020025730A
JP2020025730A JP2018151967A JP2018151967A JP2020025730A JP 2020025730 A JP2020025730 A JP 2020025730A JP 2018151967 A JP2018151967 A JP 2018151967A JP 2018151967 A JP2018151967 A JP 2018151967A JP 2020025730 A JP2020025730 A JP 2020025730A
Authority
JP
Japan
Prior art keywords
image processing
value
unit
dose
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018151967A
Other languages
English (en)
Other versions
JP2020025730A5 (ja
Inventor
高橋 直人
Naoto Takahashi
直人 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018151967A priority Critical patent/JP2020025730A/ja
Priority to CN201980054144.6A priority patent/CN112601493A/zh
Priority to PCT/JP2019/024229 priority patent/WO2020031515A1/ja
Priority to EP19848078.2A priority patent/EP3799789A4/en
Publication of JP2020025730A publication Critical patent/JP2020025730A/ja
Priority to US17/146,709 priority patent/US20210133979A1/en
Publication of JP2020025730A5 publication Critical patent/JP2020025730A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】操作者が意図した基準でより適切な線量管理を行えるようにする。【解決手段】画像処理装置は、被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割し、該複数の解剖学的領域のうちの少なくとも一つの領域を抽出し、該抽出された領域における画素値に基づいて、該抽出された領域に対する該放射線撮影の線量指標値を算出する。【選択図】図1

Description

本発明は、放射線撮影により得られた画像から線量指標値を出力する画像処理技術に関する。
近年、医療分野ではデジタル画像の利用が進んでいる。デジタル画像を生成するために、放射線(X線)を間接的または直接的に電気信号に変換するセンサを用いたデジタルラジオグラフィ装置(放射線撮影装置)を用いることが主流となっている。
この放射線撮影装置は、放射線の線量に対して極めて広いダイナミックレンジを有しており、また画像処理による自動濃度補正によって、従来のアナログ放射線撮影に比べ線量不足や線量過多の状態でも安定した濃度の出力が得られるというメリットがある。その一方で、撮影技師が不適切な線量で撮影した場合も、撮影技師はそのことに気づきにくく、特に、線量過多の場合では、患者への被曝量が増加してしまうという課題がある。
そこで、この課題を解決するためにデジタル放射線画像の撮影線量の目安となる値(以下、線量指標値と呼ぶ)を撮影画像とともに表示することが一般的に行われている。また、線量指標値の算出方法についても様々な方法が提案されている。近年では、IEC(国際電気標準会議)により国際規格IEC62494−1が発行され、標準化された線量指標値としてEI(Exposure Index)が定義された。また、この国際規格では、目標とすべき線量の値(以下、線量目標値と呼ぶ)として、EI(Target Exposure Index)を定め、線量指標値EIと線量目標値EIとのずれ量を表すDI(Deviation Index)を用いた線量管理の運用方法も与えられている。各メーカーは、この国際規格に準拠した線量管理機能を提供している。例えば特許文献1や特許文献2の方法など、メーカーから様々な算出方法が提案されている。
特開2014−158580号公報 特開2015−213546号公報
線量指標値EIの算出方法についてはブラックボックスの場合が多い。そのため、操作者にとっては線量指標値EIの数値的意味合いが明確ではなく、線量管理の基準値として使い勝手の悪いものとなっていた。
そこで本発明は、操作者が意図した基準でより適切な線量管理を行うことを目的とする。
上記目的を達成するための一手段として、本発明による画像処理装置は以下の構成を有する。すなわち、画像処理装置であって、被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割する分割手段と、前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出する抽出手段と、前記抽出手段により抽出された領域における画素値に基づいて、前記抽出された領域に対する前記放射線撮影の線量指標値を算出する算出手段と、を有する。
本発明によれば、操作者が意図した基準でより適切な線量管理を行うことが可能となる。
実施形態1による放射線撮影装置の構成例。 実施形態1による放射線撮影装置100の処理手順を示すフローチャート。 実施形態1による線量指標値を算出するための領域を変更する処理手順を示すフローチャート。 実施形態1による放射線撮影装置の構成例。 実施形態2による線量指標値を算出するための領域の分割構成を変更する処理手順を示すフローチャート。 実施形態3による放射線撮影装置の構成例。 実施形態3による線量目標値EIを自動で更新する処理手順を示すフローチャート。 (a)実施形態1によるセグメンテーションマップの一例を示す図、(b)実施形態2による変更した正解のセグメンテーションマップの一例を示す図。 複数の撮影部位とラベル番号との対応表の一例を示す図。
以下、添付の図面を参照して、本発明をその実施形態の一例に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[実施形態1]
(放射線撮影装置の構成)
実施形態1による放射線撮影装置100の構成例を図1に示す。放射線撮影装置100は、放射線撮影により得られた画像から線量指標値を出力する画像処理機能を有する放射線撮影装置である。すなわち、放射線撮影装置100は、画像処理装置としても機能する。放射線撮影装置100は、放射線発生部101、放射線検出器104、データ収集部105、前処理部106、CPU(Central Processing Unit)108、記憶部109、操作部110、表示部111、画像処理部112を備えており、これらはCPUバス107を介して互いにデータ授受が可能に接続されている。また、画像処理部112は、分割部113、抽出部114、算出部115、設定部116を備えている。記憶部109は、CPU108での処理に必要な各種のデータや制御プログラムを記憶すると共に、CPU108のワーキング・メモリとして機能する。CPU108は、記憶部109を用いて、操作部110からの操作に従った装置全体の動作制御等を行う。これにより放射線撮影装置100は、以下のように動作する。
まず、操作部110を介して操作者から撮影指示が入力されると、この撮影指示はCPU108によりデータ収集部105を介して放射線発生部101および放射線検出器104に伝えられる。続いて、CPU108は、放射線発生部101及び放射線検出器104を制御して放射線撮影を実行させる。放射線撮影では、まず放射線発生部101が、被検体103に対して放射線ビーム102を照射する。放射線発生部101から照射された放射線ビーム102は、被検体103を透過して、放射線検出器104に到達する。そして、放射線検出器104は、到達した放射線ビーム102の強度(放射線強度)に応じた信号を出力する。なお、本実施形態では被検体103を人体とする。よって、放射線検出器104から出力される信号は、人体を撮影したデータとなる。
データ収集部105は、放射線検出器104から出力された信号を所定のデジタル信号に変換して画像データとして前処理部106に供給する。前処理部106は、データ収集部105から供給された画像データに対して、オフセット補正やゲイン補正等の前処理を行う。前処理部106で前処理が行われた画像データは、CPU108の制御により、CPUバス107を介して、記憶部109、画像処理部112に順次転送される。
画像処理部112は、前処理部106から得られた画像データ(以下、放射線画像)から線量指標値を算出するための処理を行う。線量指標値とは、上述したように撮影線量の目安となる値である。分割部113は、入力された放射線画像(被検体103に対する放射線撮影により得られた放射線画像)を複数の解剖学的領域に分割する。本実施形態では、分割部113は、後述するセグメンテーションマップ(多値画像)を作成する。抽出部114は、操作者による操作部110への操作に基づいて、分割部113により分割された複数の解剖学的領域のうちの少なくとも一つの領域を、線量指標値を算出するための領域として、抽出する。算出部115は、抽出部114により抽出された領域における画素値に基づいて、抽出された領域に対する放射線撮影の線量指標値を算出する。設定部116は、後述する教師データや撮影部位とラベル番号との対応情報の設定や管理を行う。
画像処理部112により算出された線量指標値は、CPU108の制御により、前処理部106から得られた放射線画像とともに表示部111にて表示される。操作者が表示部111に表示された線量指標値および放射線画像を確認後、一連の撮影動作が終了する。表示部111に表示された線量指標値および放射線画像は、図示しないプリンタ等に出力されても良い。
(放射線撮影装置の動作)
続いて、本実施形態による放射線撮影装置100の動作に関して、図2のフローチャートを用いて具体的に説明する。図2は、本実施形態による放射線撮影装置100の処理手順を示すフローチャートである。図2に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。
上述したように、前処理部106によって得られた放射線画像は、CPUバス107を介して画像処理部112に転送される。転送された放射線画像は、分割部113に入力される。分割部113は、入力された放射線画像からセグメンテーションマップ(多値画像)を作成する(S201)。具体的には、分割部113は、放射線画像の各画素に対し、その画素が属する解剖学的領域を示すラベルを付与する。このような、画像を任意の解剖学的領域に分割することは、セマンティックセグメンテーション(意味的領域分割)と呼ばれる。なお、本実施形態では、当該ラベルは、画素値によって識別可能なラベル番号とする。すなわち、分割部113は、複数の解剖学的領域に異なるラベル番号を付与することにより、放射線画像を複数の解剖学的領域に分割する。
図8(a)に、S201で作成されるセグメンテーションマップの例を示す。図8(a)は、入力された放射線画像が胸部を写す画像の場合のセグメンテーションマップの一例を示す図である。図8(a)のように、分割部113は、肺野801に属する領域における画素に同じ値(例えば画素値0)を与え、脊椎802に属する領域における画素に、肺野とは異なる同一値(例えば画素値1)を与える。また、肺野801、脊椎802の何れにも属さない被写体構造803に属する画素には、分割部113は、さらに別の同一値(例えば画素値2)を与える。
なお、図8(a)で示した分割は一例であり、放射線画像をどのような解剖学的領域の粒度で分割するかは特に限定されない。例えば、分割部113は、操作者により操作部110を介して指示された、線量指標値を算出するための所望の領域に応じて、分割の粒度を適宜決定しても良い。また、分割部113は、被写体構造以外の領域についても同様にラベル番号(画素値)を付与することによりセグメンテーションマップを作成してもよい。例えば、図8(a)において、放射線が直接に放射線検出器104に到達する領域804や放射線がコリメータ(不図示)により遮蔽された領域805に関しても其々別のラベル番号を付与したセグメンテーションマップを作成することも可能である。
本実施形態では、分割部113は、S201におけるセグメンテーションマップの作成を、公知の方法を用いて行うこととする。公知の方法の一例として、ここではCNN(Convolutional Neural Network)を用いる。CNNとは、畳込み層、プーリング層、全結合層などから構成されるニューラルネットワークであり、解決する問題に応じて各層を適当に組み合わせることで実現される。また、CNNは、機械学習アルゴリズムの一種であり、事前学習を必要とする。具体的には、畳み込み層で用いられるフィルタ係数や、各層の重みやバイアス値などのパラメータ(変数)を、多数の学習データを用いた、いわゆる教師あり学習によって調整(最適化)する必要がある。
ここで、教師あり学習は、CNNに入力される画像(入力画像)と当該入力画像が与えられたときに期待される出力結果(正解)の組み合わせのサンプルを多数用意し、期待する結果が出力されるようにパラメータを繰り返し調整することを含む。この調整には、一般には、誤差逆伝搬法(バックプロバケーション)が用いられる。すなわち、正解と実際の出力結果の差(損失関数で定義された誤差)が小さくなる方向に、CNNのパラメータが繰り返し調整される。
なお、本実施形態では、CNNへの入力画像は、前処理部106によって得られた放射線画像とし、期待される出力結果は、正解のセグメンテーションマップ(例えば図8(a))となる。このような正解のセグメンテーションマップは、予め操作者により、所望の解剖学的領域の粒度に応じて作成され得る。CNNのパラメータ(学習されたパラメータ202)は、入力画像と期待される出力結果との組み合わせの複数のサンプルを用いて、機械学習により予め生成される。学習されたパラメータ202は予め記憶部109に記憶され、分割部113がS201でセグメンテーションマップを作成する際に、学習されたパラメータ202を呼び出し、CNNによるセマンティックセグメンテーションを行う。すなわち、分割部113は、予め機械学習によって生成されたパラメータを用いて、放射線画像を複数の解剖学的領域に分割する。また、操作者は、所定の画像データと当該所定の画像データに対応する正解のセグメンテ―ションマップ(分割割り当てデータ)を、教師データとして決定することができる。当該教師データは、設定部116により管理される。
なお、全部位を合わせたデータを用いて唯一の学習されたパラメータ202が生成されてもよいが、部位毎(例えば、頭部、胸部、腹部、四肢など)に、学習されたパラメータ202が生成されても良い。すなわち、部位毎の、入力画像と期待される出力結果の組み合わせの複数のサンプルを用いて、別々に学習を行って、各部位に対する、複数のセットの学習されたパラメータ202が生成されても良い。複数のセットの学習されたパラメータ202が生成された場合は、それぞれのセットの学習されたパラメータを部位情報と関連付けて記憶部109に予め記憶し、分割部113は、入力画像の部位に応じて記憶部109から撮影部位に対応する学習されたパラメータ202を呼び出し、CNNによるセマンティックセグメンテーションを行えば良い。
なお、CNNのネットワーク構造については特に限定するものではなく、一般的に知られたものを用いれば良い。具体的には、機械学習として、FCN(Fully Convolutional Networks)、SegNet、U−net等を用いることができる。また、本実施形態では、CNNへの入力画像を前処理部106によって得られた放射線画像としたが、当該放射線画像を縮小した放射線画像をCNNへの入力画像として用いても良い。CNNによるセマンティックセグメンテーションは、計算量が多く計算時間が掛かるため、縮小した画像データを用いることにより、計算時間の削減につながり得る。
次に、抽出部114は、線量指標値を算出するための領域を抽出する(S203)。具体的には、抽出部114は、操作者により操作部110を介して指定された領域を、線量指標値を算出するための領域として抽出する。本実施形態では、当該抽出処理のために、領域情報として、撮影部位とラベル番号の対応情報204を用いる。すなわち、抽出部114は、予め設定された、複数の部位と当該複数の部位のそれぞれに対応するラベル番号との対応情報204を用いて、操作者の指示に従って、複数の解剖学的領域のうちの少なくとも一つの領域を抽出する。図9は、対応情報204の一例としての、複数の撮影部位と当該複数の部位の夫々に対応するラベル番号との対応表の一例を示す。図9に示す対応表900は、操作者等により予め作成され、記憶部109に格納されているものとする。抽出部114は、対応表900を参照し、操作者により操作部110を介して指定(指示)された領域の部位に対応するラベル番号を取得する。なお、抽出部114は、操作者により操作部110を介して指定されたラベル番号を直接取得しても良い。続いて、抽出部114は、取得したラベル番号に該当する画素の値を1としたマスク画像(Mask)を、(数1)にて生成する。
(数1)
ただし、Mapはセグメンテーションマップを表し、(x、y)は画像の座標を表す。また、Lは取得されたラベル番号を表す。
なお、操作者が指定する領域は1つに限るのもではなく、複数であっても良い。操作者が複数の領域を指定した場合は、抽出部114は、複数の領域に対応する複数のラベル番号の何れかに該当する画素の値を1、それ以外を0としてマスク画像を生成すれば良い。なお、操作者が領域を設定する方法の詳細に関しては、図3のフローチャートを用いて後述する。
次に、算出部115は、S203で抽出された領域(すなわち、マスク画像のうち、画素値が1の領域)における代表値として、抽出された領域の中心傾向を示す値Vを算出する(S205)。本実施形態では、値Vを、(数2)のように算出する。
(数2)
ただし、Orgは入力画像(本実施形態では前処理部106によって得られた放射線画像)、Maskはマスク画像を表し、(x、y)は画像の座標を表し、Org(x、y)は、入力画像における座標(x、y)における画素値を表す。
次に、算出部115は、求めた値Vを、線量指標値EIに変換する(S206)。具体的には、算出部115は、国際規格IEC62494−1の定義に従って、(数3)のように値Vを線量指標値EIに変換する。
(数3)
ただし、関数gは値Vを空気カーマに変換するための関数であり、規定された条件下における値Vと空気カーマの関係に従って予め定められる。なお、関数gは、放射線検出器104の特性により異なる。そのため、操作者は、使用し得る放射線検出器104に応じて複数の関数gを予め記憶部109に記憶しておき、算出部115は、実際に使用する放射線検出器104に対応する関数gを用いて変換を行い得る。
また、算出部115にて、線量目標値EIと線量指標値EIとのずれ量(偏差)DIを(数4)にて算出する(S207)。
(数4)
ただし、線量目標値EIは、操作者が定める線量管理基準に従って部位毎に予め設定されるものとする。偏差DIは、線量目標値EIと線量指標値EIとの偏差を表す数値であるから、線量目標値EIと線量指標値EIが同じであれば0となる。また、線量指標値EIが大きくなるほど、すなわち、撮影された画像の線量が線量目標値EIよりも多くなるほど、偏差DIは大きくなる。例えば、撮影された画像の線量が線量目標値EIの2倍であれば偏差DIは約3となる。また、撮影された画像の線量が線量目標値EIよりも少ないほど偏差DIは小さくなり、例えば、撮影された画像の線量が線量目標値の半分であれば偏差DIは約−3となる。これにより、操作者は、撮影された画像の線量が、基準である線量目標値EIに対して不足しているのか、逆に線量過多の状態なのかを、瞬時に把握することができる。
次に、CPU108は、求めた線量指標値EIおよび偏差DIを、表示部111に表示する(S208)。ここで、表示の方法は特に限定するものではなく、例えば、CPU108は、表示部111において、前処理部106により得られた放射線画像と合わせて表示することができる、また、CPU108は、表示部111による表示エリアの一部に、求めた線量指標値EIおよび偏差DIをオーバーレイ表示するように制御しても良い。
なお、本実施形態では、操作者が指定した領域から、唯一の線量指標値EIおよび偏差DIを算出したが、例えば、複数の線量指標値EIおよび偏差DIを求める構成としても良い。具体的には、操作者が領域を複数指定することにより、複数の領域が抽出された場合は、放射線撮影装置100は、複数の領域それぞれに対して値Dを算出し、当該値Dからそれぞれの線量指標値EIおよび偏差DIを算出し、表示部111に表示しても良い。
以上、撮影により得られた放射線画像から線量指標値を算出する動作について説明した。次に、操作者が線量指標値を算出するための領域を変更する場合の画像処理部112の動作に関して、図3のフローチャートを用いて説明する。図3は、線量指標値を算出するための領域を変更する処理手順を示すフローチャートである。図3に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。なお、図3のフローチャートにおいて、図2に示したステップと同じステップには同じ符号を付し、説明を省略する。
まず、操作者は、操作部110を介して、変更しようとする領域の部位(当該領域が属する部位)を選択する(S301)。次に、設定部116は、選択された部位に対応する教師データがあるか否かを判定する(S302)。ここで、教師データとは、上述した通り、操作者により決定された、正解のセグメンテーションマップ(分割割り当てデータ)を指す。選択された部位に対応する教師データがある場合(S302でYes)、設定部116は、教師データを記憶部109から取得する(S303)。選択された部位に対応する教師データがない場合(S302でNo)、設定部116は、記憶部109から過去の撮影により得られた選択された部位の画像データ(放射線画像)を取得し(S304)、分割部113が取得した画像データからセグメンテーションマップを作成する(S201)。セグメンテーションマップの作成方法は、図2のS201において説明した通りである。
次に、CPU108は、図8(a)のようなセグメンテーションマップを表示部111に表示する(S305)。操作者は、変更する領域である、線量指標値を計算するための任意の領域を、図示しないマウス等を使って指定する(S306)。次に、設定部116は、指定された領域に対応するラベル番号を取得し、対応情報204(例えば図9に示した撮影部位とラベル番号の対応表900)を更新し、記憶部109に保存(設定)する(S307)。
以上、実施形態1では、放射線画像において分割された領域の中から、線量指標値を算出するための領域を自由に変更することが可能となり、操作者が意図した基準で適切な線量管理を行うことが可能となる。
[実施形態2]
(放射線撮影装置の構成)
実施形態2による放射線撮影装置400の構成例を図4に示す。放射線撮影装置400は、図1に示した放射線撮影装置100に対し、機械学習部401を備える構成である。機械学習部401は、線量指標値を算出するための領域の分割構成を変更するための学習を行う機能を有する。具体的には、機械学習部401は、教師データ(所定の画像データと当該所定の画像データに対応する正解のセグメンテ―ションマップ(分割割り当てデータ))に基づいて機械学習(CNNの再学習)を行う。
(放射線撮影装置の動作)
以下、実施形態1と異なる動作である、線量指標値を算出するための領域の分割構成を変更処理について、図5を用いて説明する。図5は、線量指標値を算出するための領域の分割構成を変更する処理手順を示すフローチャートである。図5に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。
まず、機械学習部401は、教師データ502に基づいてCNNの再学習を行う(S501)。この再学習は、予め準備した教師データ502を用いた学習である。なお、学習の具体的な方法については、実施形態1で説明したと同様に、誤差逆伝搬法(バックプロバケーション)を用い、正解と実際の出力結果の差(損失関数で定義された誤差)が小さくなる方向にCNNのパラメータを繰り返し調整することで行われる。
ここで、設定部116は、機械学習部401による再学習のための教師データを以下のように設定することができる。すなわち、設定部116は、教師データである、正解のセグメンテーションマップを変更し、機械学習部401に設定することができる。図8(b)に変更した正解のセグメンテーションマップの一例を示す。例えば、実施形態1では、分割部113は、図8(a)に示すように、肺野801を一つの領域ととみなして同一のラベルを付与した。一方、本実施形態では、設定部116は、肺野を右肺野と左肺野で異なる領域として分割する場合を考慮して、図8(b)のように右肺野801aと左肺野801bに対し異なるラベルを付与した正解のセグメンテーションマップを、教師データ502として準備する。また、実施形態1では、分割部113は、図8(a)に示すように、脊椎802を1つの領域とみなして同一のラベルを付与した。一方、本実施形態では、設定部116は、脊椎を胸椎と腰椎で分割する場合を考慮して、図8(b)のように胸椎802a、腰椎802bに対し異なるラベルを付与した正解のセグメンテーションマップを準備する。
次に、機械学習部401は、再学習により得られたパラメータをCNNの新たなパラメータとして、記憶部109において更新(保存)する(S503)。続いて、画像処理部112は、線量指標値を計算する領域を再設定する(S504)。ここで、再設定の方法は図3のフローチャートの動作と同様であるため説明を省略する。なお、図3では、上記処理で新たな教師データを用いることにより、新たなセグメンテーションマップが作成され、S307の処理では、対応情報204(例えば図9に示した撮影部位とラベル番号の対応表900)が更新される。すなわち、設定部116は、更新されたパラメータを用いて分割された複数の解剖学的領域に応じて、対応情報204を更新して設定する。これにより、例えば次回以降の撮影(図2)では、学習されたパラメータ202(図2)をS503で更新されたパラメータに替えることで、分割部113は、更新されたパラメータを用いて、放射線画像を複数の解剖学的領域に分割することができる。さらに、S203で用いる対応情報204を、本実施形態により更新されたものに替えて用いることで、新たに定義された領域での線量指標値の算出が可能となる。
以上、実施形態2では、線量指標値を算出するための領域の分割構成を変更することが可能となり、操作者が線量指標値を算出する領域を自由に変更できるという効果がある。
[実施形態3]
(放射線撮影装置の構成)
実施形態3による放射線撮影装置600の構成例を図6に示す。放射線撮影装置600は、図4に示した放射線撮影装置400に対し、目標値更新部601を備える構成である。目標値更新部601は、線量目標値EIを自動で設定する機能を有する。
線量目標値EIは,線量指標値EIの基準となる値であり、線量指標値EIを算出するための領域が変われば線量目標値EIも変更する必要がある。この変更は線量管理基準に合わせて操作者が手動で設定するものであるが、線量指標値EIを算出するための領域が変更されるたびに一から設定するのは非常に煩雑である。そこで、目標値更新部601は、線量指標値EIを算出するための領域の変更前後の差に基づいて、変更前の線量目標値EIと略等価の値を用いて自動で更新する機能を有する。
(放射線撮影装置の動作)
以下、線量目標値EIを自動で更新する方法について、図7を用いて説明する。図7は、線量目標値EIを自動で更新する処理手順を示すフローチャートである。図7に示すフローチャートは、CPU108が記憶部109に記憶されている制御プログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。なお、このフローチャートは、線量目標値を算出するための領域が変更されたタイミングで動作するものである。具体的には、線量指標値を算出するための領域を変更した場合(図3のフローチャートに従った動作)や、線量指標値を算出するための領域の分割構成を変更した場合(図5のフローチャートに従った動作)の後に実行される。
まず、目標値更新部601は、線量目標値を算出するための領域に現在設定されているEIを取得する(S701)。次に、算出部115は、記憶部109から、過去の撮影よる複数の放射線画像をロードし各々の放射線画像に対する線量指標値EIを算出する(S702)。ここで、線量指標値EIの算出方法は図2のフローチャートで説明した通りである。なお、線量指標値EIを算出する際に用いる学習されたパラメータ202および、対応情報204は、設定変更(線量指標値を算出するための領域の変更(図3)や、線量指標値を算出するための領域の分割構成の変更(図5))の前のものが利用されるものとする。次に、算出部115は、設定変更の後の線量指標値EIの算出をS702と同様に実行する(S703)。S702との違いは、設定変更の後の学習されたパラメータ202および対応情報204を利用する点である。
次に、設定変更前後でのEIの誤差Errを(数5)にて算出する(S704)。
(数5)
ただし、kは画像番号を表し、NはEIを算出した画像の総数を表す。また、EI(k)、EI(k)は画像番号kの画像から算出したEIであり、EIが設定変更前、EIが設定変更後のEIを表している。
次に求めた誤差Errにて線量目標値EIを更新する(S705)。
(数6)
ただし、EI1が更新前の線量目標値であり、EI2が更新後の線量目標値を表す。
このように、目標値更新部601は、学習されたパラメータ202が更新された場合、または、対応情報204が更新された場合に、当該更新の前後に算出部115により算出されたそれぞれの線量指標値を用いて、線量指標値の目標値としての線量目標値を更新する。以上、実施形態3では設定変更時にEIの値を自動で更新することで、操作者の手間を低減できる効果がある。
以上、いくつかの実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 放射線撮影装置、101 放射線発生部、102 放射線ビーム、103 被検体、104 放射線検出器、105 データ収集部、106 前処理部、107 CPUバス、108 CPU、109 記憶部、110 操作部、111 表示部、112 画像処理部、113 分割部、114 抽出部、115 線量指標値算出部、116 設定部、401 機械学習部、601 線量目標値更新部

Claims (14)

  1. 画像処理装置であって、
    被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割する分割手段と、
    前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出する抽出手段と、
    前記抽出手段により抽出された領域における画素値に基づいて、前記抽出された領域に対する前記放射線撮影の線量指標値を算出する算出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記分割手段は、前記複数の解剖学的領域に異なるラベル番号を付与することにより、放射線画像を複数の解剖学的領域に分割することを特徴とする請求項1に記載の画像処理装置。
  3. 前記分割手段は、予め機械学習によって生成されたパラメータを用いて、前記放射線画像を複数の解剖学的領域に分割することを特徴とする請求項1または2に記載の画像処理装置。
  4. 機械学習により生成されたパラメータを記憶する記憶手段を更に有することを特徴とする請求項3に記載の画像処理装置。
  5. 前記記憶手段は、機械学習されたパラメータを部位と関連付けて記憶することを特徴とする請求項4に記載の画像処理装置。
  6. 前記抽出手段は、予め設定された、複数の部位と当該複数の部位のそれぞれに対応するラベル番号との対応情報を用いて、操作者の指示に従って、前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出することを特徴とする請求項3から5のいずれか1項に記載の画像処理装置。
  7. 予め設定された、所定の画像データと当該所定の画像データに対応する正解の分割割り当てデータに基づいて機械学習を行うことにより前記パラメータを更新する機械学習手段と更に有し、
    前記分割手段は、前記更新されたパラメータを用いて、前記放射線画像を複数の解剖学的領域に分割することを特徴とする請求項6に記載の画像処理装置。
  8. 前記分割手段により前記更新されたパラメータを用いて分割された複数の解剖学的領域に応じて、前記対応情報を更新して設定する設定手段を更に有することを特徴とする請求項7に記載の画像処理装置。
  9. 前記パラメータが更新された場合、または、前記対応情報が更新された場合に、当該更新の前後に前記算出手段により算出されたそれぞれの前記線量指標値を用いて、前記線量指標値の目標値としての線量目標値を更新する更新手段を更に有することを特徴とする請求項8に記載の画像処理装置。
  10. 前記機械学習は、CNN(Convolutional Neural Network)、FCN(Fully Convolutional Networks)、SegNet、U−netのいずれかを用いた機械学習であることを特徴とする請求項3から9のいずれか1項に記載の画像処理装置。
  11. 前記算出手段は、前記放射線画像における、前記抽出手段により抽出された領域の中心傾向を示す値を代表値として算出し、前記代表値を用いて前記線量指標値を算出することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記抽出手段により、前記複数の解剖学的領域のうち複数の領域が抽出された場合、
    前記算出手段は、前記抽出手段により抽出された複数の領域のそれぞれに対して前記代表値を算出し、複数の前記代表値から、前記抽出された複数の領域に対する複数の前記放射線撮影の線量指標値を算出することを特徴とする請求項11に記載の画像処理装置。
  13. 画像処理方法であって、
    被検体に対する放射線撮影により得られた放射線画像を複数の解剖学的領域に分割する分割工程と、
    前記複数の解剖学的領域のうちの少なくとも一つの領域を抽出する抽出工程と、
    前記抽出工程において抽出された領域における画素値に基づいて、前記抽出された領域に対する前記放射線撮影の線量指標値を算出する算出工程と、
    を備えることを特徴とする画像処理方法。
  14. コンピュータを、請求項1から12のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2018151967A 2018-08-10 2018-08-10 画像処理装置、画像処理方法、およびプログラム Pending JP2020025730A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018151967A JP2020025730A (ja) 2018-08-10 2018-08-10 画像処理装置、画像処理方法、およびプログラム
CN201980054144.6A CN112601493A (zh) 2018-08-10 2019-06-19 图像处理装置、图像处理方法及程序
PCT/JP2019/024229 WO2020031515A1 (ja) 2018-08-10 2019-06-19 画像処理装置、画像処理方法、およびプログラム
EP19848078.2A EP3799789A4 (en) 2018-08-10 2019-06-19 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
US17/146,709 US20210133979A1 (en) 2018-08-10 2021-01-12 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151967A JP2020025730A (ja) 2018-08-10 2018-08-10 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020025730A true JP2020025730A (ja) 2020-02-20
JP2020025730A5 JP2020025730A5 (ja) 2021-09-09

Family

ID=69414619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151967A Pending JP2020025730A (ja) 2018-08-10 2018-08-10 画像処理装置、画像処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US20210133979A1 (ja)
EP (1) EP3799789A4 (ja)
JP (1) JP2020025730A (ja)
CN (1) CN112601493A (ja)
WO (1) WO2020031515A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021230114A1 (ja) 2020-05-15 2021-11-18 キヤノン株式会社 放射線撮像システム、撮像制御装置、放射線撮像装置、放射線撮像方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116421207B (zh) * 2023-06-12 2023-08-25 上海西门子医疗器械有限公司 医用x射线成像方法及医用x射线成像装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325754A (ja) * 2001-04-27 2002-11-12 Canon Inc 画像処理方法および装置
US20160328855A1 (en) * 2015-05-04 2016-11-10 Siemens Aktiengesellschaft Method and System for Whole Body Bone Removal and Vascular Visualization in Medical Image Data
US20170245825A1 (en) * 2016-02-29 2017-08-31 Varian Medical Systems, Inc. Automatic organ-dose-estimation for patient-specific computed tomography scans
US20180061058A1 (en) * 2016-08-26 2018-03-01 Elekta, Inc. Image segmentation using neural network method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5647639B2 (ja) * 2012-03-19 2015-01-07 富士フイルム株式会社 放射線撮影情報管理システムおよび方法、並びにプログラム
US8835858B2 (en) * 2012-03-23 2014-09-16 General Electric Company Systems and methods for attenuation compensation in nuclear medicine imaging based on emission data
DE102012214593A1 (de) * 2012-08-16 2013-08-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Detektion eines körperfremden Objektes in einem Röntgenbild
JP2014158580A (ja) 2013-02-20 2014-09-04 Fujifilm Corp 放射線画像解析装置および方法、並びに放射線撮影装置
CN104460181A (zh) * 2013-09-25 2015-03-25 深圳市蓝韵实业有限公司 数字放射成像曝光剂量的评价方法
JP2015213546A (ja) 2014-05-08 2015-12-03 コニカミノルタ株式会社 放射線画像撮影装置および放射線画像撮影システム
JP6626344B2 (ja) * 2015-09-29 2019-12-25 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
JP2018151967A (ja) 2017-03-14 2018-09-27 日本電気株式会社 情報配信システム、情報配信装置、端末装置、情報配信方法、及びプログラム
US11557390B2 (en) * 2018-04-30 2023-01-17 Elekta, Inc. Radiotherapy treatment plan modeling using generative adversarial networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325754A (ja) * 2001-04-27 2002-11-12 Canon Inc 画像処理方法および装置
US20160328855A1 (en) * 2015-05-04 2016-11-10 Siemens Aktiengesellschaft Method and System for Whole Body Bone Removal and Vascular Visualization in Medical Image Data
US20170245825A1 (en) * 2016-02-29 2017-08-31 Varian Medical Systems, Inc. Automatic organ-dose-estimation for patient-specific computed tomography scans
US20180061058A1 (en) * 2016-08-26 2018-03-01 Elekta, Inc. Image segmentation using neural network method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021230114A1 (ja) 2020-05-15 2021-11-18 キヤノン株式会社 放射線撮像システム、撮像制御装置、放射線撮像装置、放射線撮像方法及びプログラム

Also Published As

Publication number Publication date
EP3799789A4 (en) 2022-03-16
EP3799789A1 (en) 2021-04-07
US20210133979A1 (en) 2021-05-06
CN112601493A (zh) 2021-04-02
WO2020031515A1 (ja) 2020-02-13

Similar Documents

Publication Publication Date Title
CN110047128B (zh) 从几个x射线放射照片3d重建x射线ct体积和分割掩模的方法和系统
WO2020070834A1 (ja) 学習済みモデルの製造方法、輝度調整方法および画像処理装置
CN103918004B (zh) 金属伪影校正算法的自适应应用
KR102472464B1 (ko) 영상처리방법 및 이를 이용한 영상처리장치
WO2020031515A1 (ja) 画像処理装置、画像処理方法、およびプログラム
US7680352B2 (en) Processing method, image processing system and computer program
CN111932467A (zh) 一种图像处理方法及装置
EP3665643B1 (en) X-ray image processing method and system and computer storage medium
WO2019220825A1 (ja) 胸部x線画像の階調変換方法、画像階調変換プログラム、画像階調変換装置、サーバ装置、及び変換方法
CN115943420A (zh) 图像处理装置、图像处理方法、训练装置、训练方法、以及程序
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
JP4323770B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
CN112233126B (zh) 医学图像的加窗方法及装置
US20210330274A1 (en) Computer-implemented method, computer program, systems and x-ray facility for correction of x-ray image data with regard to noise effects
EP4057292A1 (en) On-site training of a machine-learning algorithm for generating synthetic imaging data
Hariharan et al. An analytical approach for the simulation of realistic low-dose fluoroscopic images
JP2021040750A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017000675A (ja) 医用画像処理装置及びx線撮像装置
JP2006340992A (ja) 画像処理プログラム、装置及び方法
US12014499B2 (en) Bioimage acquiring device, converter generating device, bioimage generating method, converter generating method, and recording medium
CN117770850B (zh) 一种射线源辐射剂量自适应方法、ct系统
CN111915499B (zh) 一种x射线图像处理方法和装置以及计算机可读存储介质
CN110678123A (zh) 改进的x射线图像中的几何测量
Slabaugh et al. Probabilistic spatial regression using a deep fully convolutional neural network
EP4287201A1 (en) Compensating for differences in medical images

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221104