JP2021191402A - 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2021191402A
JP2021191402A JP2020098941A JP2020098941A JP2021191402A JP 2021191402 A JP2021191402 A JP 2021191402A JP 2020098941 A JP2020098941 A JP 2020098941A JP 2020098941 A JP2020098941 A JP 2020098941A JP 2021191402 A JP2021191402 A JP 2021191402A
Authority
JP
Japan
Prior art keywords
image
radiation
distance
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020098941A
Other languages
English (en)
Other versions
JP7316976B2 (ja
Inventor
浩一 北野
Koichi Kitano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020098941A priority Critical patent/JP7316976B2/ja
Priority to US17/337,431 priority patent/US20210383541A1/en
Publication of JP2021191402A publication Critical patent/JP2021191402A/ja
Application granted granted Critical
Publication of JP7316976B2 publication Critical patent/JP7316976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/589Setting distance between source unit and patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0492Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/90
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Abstract

【課題】放射線画像の画質を向上させることができる画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラムを提供する。【解決手段】コンソール11は、少なくとも1つのプロセッサとしてCPU60Aを備える。CPU60Aは、患者Pが存在する撮影領域SAを放射線透視撮影装置10により撮影した放射線画像45を取得する。また、CPU60Aは、放射線画像45に含まれる、患者Pよりも放射線Rの透過率が低い特定の形状の構造物を表す構造物画像47Bを、特定の形状に基づいて特定する。また、CPU60Aは、放射線画像45に対して、構造物画像47Bに応じた画像処理を行う。【選択図】図9

Description

本開示は、画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラムに関する。
一般に、被写体の放射線画像を放射線画像撮影装置により撮影する場合に、被写体が存在する撮影領域に被写体以外の構造物が存在することにより、放射線画像に被写体以外の構造物が写り込む場合がある。例えば、特許文献1には、車椅子に載っている被写体を撮影するための放射線画像撮影装置が記載されている。特許文献1に記載の技術では、被写体以外の構造物として車椅子が放射線画像撮影装置の撮影領域に存在するため、被写体と共に車椅子が放射線画像に写り込む場合がある。
特開2006−198157号公報
一般に、放射線画像撮影装置により撮影された放射線画像に対して画像処理が行われ、画像処理後の放射線画像が、医師や技師等に提供される。放射線画像に被写体以外の構造物が写り込んでいる場合、構造物の画像が画像処理に影響を与える場合がある。特に、構造物が、被写体よりも放射線の透過率が低い場合、構造物を表す構造物画像の影響により、放射線画像の画質が低下する場合がある。
例えば、特許文献1に記載の技術では、車椅子は、一般に被写体よりも放射線の透過率が低い。そのため、特許文献1に記載の技術では、放射線画像において車椅子を表す画像の影響により、放射線画像の画質が低下する場合があった。
本開示は、上記事情を考慮して成されたものであり、放射線画像の画質を向上させることができる画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために本開示の第1の態様の画像処理装置は、少なくとも1つのプロセッサを備え、プロセッサは、被写体が存在する撮影領域を放射線画像撮影装置により撮影した放射線画像を取得し、放射線画像に含まれる、被写体よりも放射線の透過率が低い特定の形状の構造物を表す構造物画像を、特定の形状に基づいて特定し、放射線画像に対して、構造物画像に応じた画像処理を行う。
本開示の第2の態様の画像処理装置は、第1の態様の画像処理装置において、プロセッサは、撮影領域に存在する撮影対象までの距離を取得し、距離及び特定の形状に基づいて、構造物画像を特定する。
本開示の第3の態様の画像処理装置は、第2の態様の画像処理装置において、プロセッサは、撮影対象との間の距離を表す距離画像を撮影する距離画像撮影装置により撮影された距離画像を取得し、距離画像に基づいて、距離を取得する。
本開示の第4の態様の画像処理装置は、第3の態様の画像処理装置において、距離画像撮影装置は、TOF(Time Of Flight)方式を用いて距離画像を撮影する。
本開示の第5の態様の画像処理装置は、第3の態様または第4の態様の画像処理装置において、プロセッサは、距離に基づいて、距離画像から特定の形状に応じた構造物距離画像を検出し、構造物画像として、構造物距離画像に対応する画像を放射線画像から特定する。
本開示の第6の態様の画像処理装置は、第5の態様の画像処理装置において、プロセッサは、撮影領域に存在する構造物を撮影対象とした距離画像を複数用いて予め学習された学習済みモデルに基づいて、構造物距離画像を検出する。
本開示の第7の態様の画像処理装置は、第3の態様または第4の態様の画像処理装置において、プロセッサは、放射線画像と、撮影領域に存在する構造物を撮影対象とした距離画像との組み合わせを複数用いて予め学習された学習済みモデルに基づいて、構造物画像を特定する。
本開示の第8の態様の画像処理装置は、第2の態様から第4の態様のいずれか1態様の画像処理装置において、プロセッサは、撮影領域を可視光画像撮影装置により撮影した可視光画像を取得し、可視光画像から検出した形状と、距離とに基づいて、放射線画像に含まれる構造物画像を特定する。
本開示の第9の態様の画像処理装置は、第1の態様の画像処理装置において、プロセッサは、撮影領域を可視光画像撮影装置により撮影した可視光画像を取得し、可視光画像から特定の形状に応じた構造物可視光画像を検出し、構造物画像として、構造物可視光画像に対応する画像を放射線画像から特定する。
本開示の第10の態様の画像処理装置は、第1の態様から第9の態様のいずれか1態様の画像処理装置において、構造物は、金属からなる。
本開示の第11の態様の画像処理装置は、第1の態様から第10の態様のいずれか1態様の画像処理装置において、構造物は、車椅子である。
本開示の第12の態様の画像処理装置は、第1の態様から第10の態様のいずれか1態様の画像処理装置において、構造物は、ストレッチャーである。
本開示の第13の態様の画像処理装置は、第1の態様から第12の態様のいずれか1態様の画像処理装置において、プロセッサは、画像処理を、放射線画像における構造物画像以外の領域に対して行う。
本開示の第14の態様の画像処理装置は、第1の態様から第13の態様のいずれか1態様の画像処理装置において、画像処理は、コントラスト強調処理である。
また、上記目的を達成するために本開示の本開示の第15の態様の放射線画像撮影システムは、被写体の放射線画像を撮影する放射線画像撮影装置と、本開示の画像処理装置と、を備える。
また、上記目的を達成するために本開示の第16の態様の画像処理方法は、被写体が存在する撮影領域を放射線画像撮影装置により撮影した放射線画像を取得し、放射線画像に含まれる、被写体よりも放射線の透過率が低い特定の形状の構造物を表す構造物画像を、特定の形状に基づいて特定し、放射線画像に対して、構造物画像に応じた画像処理を行う処理をコンピュータが実行するための方法である。
また、上記目的を達成するために本開示の第17の態様の画像処理プログラムは、被写体が存在する撮影領域を放射線画像撮影装置により撮影した放射線画像を取得し、放射線画像に含まれる、被写体よりも放射線の透過率が低い特定の形状の構造物を表す構造物画像を、特定の形状に基づいて特定し、放射線画像に対して、構造物画像に応じた画像処理を行う処理をコンピュータに実行させるためのものである。
本開示によれば、放射線画像の画質を向上させることができる。
放射線透視撮影システムの一例を示す図である。 放射線発生部および放射線検出器が、撮影台の長辺方向に沿って往復移動する様子を示す図である。 撮影台および支柱を立位状態として、車椅子に乗った患者を放射線透視撮影する様子の一例を示す図である。 撮影台および支柱を立位状態として、ストレッチャーに乗せられた患者を放射線透視撮影する様子の一例を示す図である。 撮影台および支柱を立位状態として、ストレッチャーに乗せられた患者を放射線透視撮影する様子の他の例を示す図である。 第1実施形態のコンソールのハードウエア構成の一例を示すブロック図である。 第1実施形態のコンソールの機能的な構成の一例を示す機能ブロック図である。 患者画像と構造物画像とが含まれる放射線画像の一例を示す図である。 照射条件を設定する手順の一例を示すフローチャートである。 第1実施形態のコンソールにおける画像処理の流れの一例を表したフローチャートである。 変形例のコンソールのハードウエア構成の一例を示すブロック図である。 変形例1の学習済みモデルを説明するための図である。 変形例1の学習済みモデルの入出力を説明するための図である。 変形例2の学習済みモデルを説明するための図である。 変形例2の学習済みモデルの入出力を説明するための図である。 第2実施形態の放射線透視撮影装置により、撮影台および支柱を立位状態として、車椅子に乗った患者を放射線透視撮影する様子の一例を示す図である。 第2実施形態のコンソールの機能的な構成の一例を示す機能ブロック図である。 第2実施形態のコンソールにおける画像処理の流れの一例を表したフローチャートである。
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、各実施形態は本発明を限定するものではない。
[第1実施形態]
まず、本実施形態の放射線透視撮影システムにおける、全体の構成の一例について説明する。図1に示すように本実施形態の放射線透視撮影システム2は、放射線透視撮影装置10とコンソール11とを備えている。放射線透視撮影装置10は、例えば医療施設内の施術室に設置される。施術室は、診療放射線技師、医師等の術者OPが、胃バリウム検査、膀胱造影、及び整形整復術等の施術を患者Pに施す部屋である。放射線透視撮影装置10は、施術中の患者Pを放射線透視撮影する。なお、本実施形態の放射線透視撮影装置10は、本開示の「放射線画像撮影装置」の一例であり、本実施形態の患者Pは、本開示の「被写体」の一例である。
コンソール11は、本開示の「画像処理装置」の一例であり、例えば施術室の隣室の操作室に設置される。コンソール11は、放射線透視撮影装置10の各部の動作を制御する。コンソール11は、例えばデスクトップ型のパーソナルコンピュータであり、ディスプレイ12と、キーボード、及びマウス等の入力デバイス13と、を有する。ディスプレイ12は、放射線科情報システム(RIS;Radiology Information System)からの撮影オーダー等を表示する。入力デバイス13は、撮影オーダーに応じた撮影メニューを指定する場合等に、術者OPによって操作される。
放射線透視撮影装置10は、撮影台20、術者用モニタ21、及びフットスイッチ22等を有する。撮影台20は、スタンド23によって施術室の床面上に支持されている。撮影台20には、支柱24を介して放射線発生部25が取り付けられている。放射線発生部25は、放射線源30、コリメータ31、および距離測定カメラ32を含む。また、撮影台20には、放射線検出器33が内蔵されている。
放射線源30は放射線管40を有している。放射線管40は、X線、及びγ線等の放射線Rを発し、放射線Rを例えば撮影台20に仰臥した患者Pに照射する。放射線管40には、フィラメント、ターゲット、及びグリッド電極等(いずれも図示省略)が設けられている。陰極であるフィラメントと陽極であるターゲットの間には、電圧発生器41から電圧が印加される。このフィラメントとターゲットの間に印加される電圧は、管電圧と呼ばれる。フィラメントは、印加された管電圧に応じた熱電子をターゲットに向けて放出する。ターゲットは、フィラメントからの熱電子の衝突によって放射線Rを放射する。グリッド電極は、フィラメントとターゲットの間に配置されている。グリッド電極は、電圧発生器41から印加される電圧に応じて、フィラメントからターゲットに向かう熱電子の流量を変更する。このフィラメントからターゲットに向かう熱電子の流量は、管電流と呼ばれる。
コリメータ31および距離測定カメラ32は、放射線源30の下部に取り付けられている。コリメータ31は、放射線管40から発生された放射線Rの照射野IFを調整する。換言すると、コリメータ31は、放射線透視撮影装置10による放射線画像45の撮影領域SAを調整する。一例として本実施形態では、照射野IFの形状を矩形状としている。そのため、放射線源30の焦点Fから照射された放射線Rは、焦点Fを頂点、照射野IFを底面とした四角錐状の領域に照射される。放射線管40から放射線検出器33までの放射線Rが照射される四角錐状の領域が、放射線透視撮影装置10による放射線画像45の撮影領域SAである。放射線透視撮影装置10は、撮影領域SA内に存在する撮影対象の放射線画像45を撮影する。なお、本実施形態において放射線透視撮影装置10の撮影対象とは、患者Pの他、撮影領域SA内に存在する物体のことをいい、放射線透視撮影装置10により撮影された放射線画像45に写り込む物体のことをいう。
コリメータ31は、例えば、放射線Rを遮蔽する鉛等の4枚の遮蔽板(図示省略)が四角形の各辺上に配置され、放射線Rを透過させる四角形の出射開口が中央部に形成された構成である。コリメータ31は、各遮蔽板の位置を変更することで出射開口の開度を変化させ、これにより撮影領域SA及び照射野IFを調整する。
距離測定カメラ32は、タイムオブフライト(TOF;Time Of Flight)方式を利用して撮影対象との間の距離を表す距離画像を撮影するカメラである。距離測定カメラ32は、本開示の「距離画像撮影装置」の一例である。具体的には、距離測定カメラ32は、撮影対象に赤外線等の光を照射し、その反射光を受光するまでの時間、または出射光と受光光との位相変化に基づいて、距離測定カメラ32と撮影対象との間の距離、具体的には、距離測定カメラ32と撮影対象の表面との間の距離を測定する。本実施形態の距離測定カメラ32の撮影範囲は、放射線透視撮影装置10の撮影領域SAの全体を含む。従って、本実施形態の距離測定カメラ32は、距離測定カメラ32と放射線透視撮影装置10の撮影対象との間の距離を測定する。なお、撮影領域SAに存在する撮影対象のうち、距離測定カメラ32からみて、他の撮影対象の後ろ(陰)に存在する撮影対象については、距離測定カメラ32による距離の測定は行えない。
距離測定カメラ32によって撮影される距離画像は、画素毎に、距離測定カメラ32と撮影対象との間の距離を表す距離情報を有する。本実施形態の距離測定カメラ32により撮影された距離画像は、距離測定カメラ32と撮影対象との間の距離を表す情報を、各画素の画素値として持つ。なお、距離画像とは、その画像から、撮影対象までの距離を導出することが可能な画像のことをいう。
本実施形態では、距離測定カメラ32により撮影される距離画像と、放射線透視撮影装置10により撮影される放射線画像45とは、予め位置合わせされている。具体的には、放射線画像45の、ある画素が表す画像が、距離画像では、どの画素が表す画像に対応するかを示す対応関係情報が予め得られている。
距離測定カメラ32と放射線源30との位置が同じ場合、より正確には距離測定カメラ32の撮像素子(図示省略)と放射線管40の焦点Fとの位置が同じであるとみなせる場合、距離測定カメラ32は、放射線源30と距離測定カメラ32の撮影対象との間の距離を測定する。なお、距離測定カメラ32と放射線源30との位置が異なる場合、距離測定カメラ32で測定した距離に、予め測定した焦点Fと距離測定カメラ32の撮像素子との距離を加算した結果を、放射線源30と撮影対象との間の距離としてもよい。
放射線検出器33は、放射線R、またはシンチレータによって放射線Rから変換された可視光に感応して信号電荷を発生する画素が複数配列されている。こうした放射線検出器33は、FPD(Flat Panel Detector)と呼ばれる。放射線検出器33は、放射線管40から照射されて患者Pを透過した放射線Rを検出して放射線画像45を出力する。放射線検出器33は、放射線画像45をコンソール11に出力する。より具体的には、放射線検出器33は、放射線画像45を表す画像データをコンソール11に出力する。なお、動画像として撮影された放射線画像45は透視画像とも呼ばれる。
術者用モニタ21は、スタンド46によって施術室の床面上に支持されている。術者用モニタ21には、放射線検出器33から出力されてコンソール11で詳細を後述する各種画像処理が施された放射線画像45が、リアルタイムで動画表示される。
フットスイッチ22は、術者OPが施術室にいながらにして放射線透視撮影の開始および終了を指示するためのスイッチである。術者OPがフットスイッチ22を足で踏み込んだ場合、放射線透視撮影が開始される。そして、術者OPがフットスイッチ22を足で踏んでいる間、放射線透視撮影が継続される。フットスイッチ22が術者OPの足で踏み込まれた場合、電圧発生器41から管電圧が印加され、放射線管40から放射線Rが発生される。術者OPがフットスイッチ22から足を離し、フットスイッチ22の踏み込みが解除された場合、放射線透視撮影が終了される。
図2に示すように、支柱24、ひいては放射線発生部25は、モータ等の移動機構(図示省略)によって、撮影台20の長辺方向に沿って往復移動が可能である。放射線検出器33も、放射線発生部25の移動と連動して、撮影台20の長辺方向に沿って往復移動が可能である。放射線検出器33は、その中心が放射線管40の焦点Fと一致する対向位置に移動される。撮影台20には、放射線発生部25および放射線検出器33を移動させる指示を入力するための操作パネル(図示省略)が設けられている。術者OPは、操作パネルを介して指示を入力し、放射線発生部25および放射線検出器33を所望の位置に移動させる。なお、放射線発生部25および放射線検出器33は、操作室から操作卓(図示省略)によって遠隔操作することも可能である。
撮影台20および支柱24は、モータ等の回転機構(図示省略)によって、図1および図2で示した臥位状態と、図3、図4A、及び図4Bに示す立位状態との間で回転可能である。臥位状態は、撮影台20の表面が床面と平行で、かつ支柱24が床面に対して垂直な状態である。反対に立位状態は、撮影台20の表面が床面に対して垂直で、かつ支柱24が床面と平行な状態である。立位状態においては、立位姿勢の患者Pの放射線透視撮影はもちろん、図3に示すように、車椅子50に乗った患者Pを放射線透視撮影することが可能である。また、立位状態においては、図4A及び図4Bに示すように、ストレッチャー51に乗せられた患者Pを放射線透視撮影することも可能である。図4Aに示した場合では、図3に示した状態と同様に、放射線透視撮影装置10による放射線画像45の撮影が行われる。一方、図4Bに示した場合では、図3Bに示した状態と異なり、撮影台20から放射線検出器33が取り外されて、患者Pとストレッチャー51との間にセットされる。
図5に示すよう本実施形態のコンソール11は、上述したディスプレイ12及び入力デバイス13と、制御部60、記憶部62、及びI/F(Interface)部64と、を備えている。ディスプレイ12、入力デバイス13、制御部60、記憶部62、及びI/F部64はシステムバスやコントロールバス等のバス69を介して相互に各種情報の授受が可能に接続されている。
本実施形態の制御部60は、コンソール11の全体の動作を制御する。制御部60は、CPU(Central Processing Unit)60A、ROM(Read Only Memory)60B、及びRAM(Random Access Memory)60Cを備える。ROM60Bには、CPU60Aで実行される、画像処理プログラム61を含む各種のプログラム等が予め記憶されている。RAM60Cは、各種データを一時的に記憶する。本実施形態のCPU60Aが、本開示のプロセッサの一例である。また、本実施形態の画像処理プログラム61が、本開示の「画像処理プログラム」の一例である。
記憶部62には、放射線透視撮影装置10で撮影された放射線画像45の画像データや、その他の各種情報(詳細後述)等が記憶される。記憶部62の具体例としては、HDD(Hard Disk Drive)やSSD(Solid State Drive)等が挙げられる。
I/F部64は、無線通信または有線通信により、放射線透視撮影装置10及びRIS(Radiology Information System、図示省略)との間で各種情報の通信を行う。本実施形態の放射線透視撮影システム2では、放射線透視撮影装置10で撮影された放射線画像45の画像データは、コンソール11が、I/F部64を介して無線通信または有線通信により放射線透視撮影装置10の放射線検出器33から受信する。
さらに、図6には、本実施形態のコンソール11の機能的な構成の一例の機能ブロック図を示す。図6に示すようにコンソール11は、第1取得部70、第2取得部72、特定部74、及び画像処理部76を備える。一例として本実施形態のコンソール11は、制御部60のCPU60AがROM60Bに記憶されている画像処理プログラム61を実行することにより、CPU60Aが、第1取得部70、第2取得部72、特定部74、及び画像処理部76として機能する。
第1取得部70は、放射線透視撮影装置10により撮影された放射線画像45を取得する機能を有する。一例として本実施形態の第1取得部70は、放射線透視撮影装置10により撮影された放射線画像45を表す画像データを、I/F部64を介して、放射線検出器33から取得する。第1取得部70が取得した放射線画像45を表す画像データは、特定部74に出力される。
第2取得部72は、距離測定カメラ32により撮影された距離画像を取得する機能を有する。一例として本実施形態の第2取得部72は、距離測定カメラ32により撮影された距離画像を表す画像データを、I/F部64を介して、距離測定カメラ32から取得する。第2取得部72が取得した距離画像を表す画像データは、特定部74に出力される。
特定部74は、放射線画像45に含まれる、患者Pよりも放射線Rの透過率が低い特定の形状の構造物を表す構造物画像を、構造物の特定の形状に基づいて特定する。患者Pよりも放射線Rの透過率が低い物質としては、金属等が挙げられる。
図7には、患者Pと共に車椅子50が特定の形状の構造物として写り込んだ場合の放射線画像45の一例を示す。図7に示した放射線画像45には、患者画像47Aと、構造物画像47Bとが含まれる。
本実施形態の車椅子50は、患者Pよりも放射線Rの透過率が比較的低い物質、例えば金属等により形成される。そのため、図7に示すように、構造物画像47Bは、患者画像47Aよりも濃度が低い画像(以下、「低濃度画像」という)となる。このように低濃度画像が存在する状態で、放射線画像45全体に画像処理を行うと、低濃度画像の影響を受けて、患者画像47Aの画像が適切な状態(画質)とならない場合がある。例えば、画像処理としてコントラストを強調するための処理であるダイナミックレンジ圧縮処理を行った場合、低濃度画像の影響により、患者画像47Aのコントラストが低く見える状態になる。低濃度画像の面積が大きくなるほど、また、低濃度画像の濃度が低くなるほど、患者画像47Aのコントラストは低くなる。
このように放射線画像45の画質、より具体的には患者画像47Aの画質に影響を与える低濃度画像となる物質としては、上述のように、例えば金属等が挙げられる。また、金属等により形成され、患者Pと共に放射線画像45に写り込む物体としては、車椅子50(図3参照)やストレッチャー51(図4A参照)等が挙げられる。また、車椅子50やストレッチャー51等は、放射線画像45の撮影において所定の状態に配置されることが多い。そのため、車椅子50やストレッチャー51等が患者Pと共に放射線画像45に写り込む場合、車椅子50やストレッチャー51等による構造物画像47Bの形状は、特定の形状となる場合が多い。
そこで、本実施形態の特定部74は、放射線画像45に含まれる構造物画像47Bを特定し、特定結果として、放射線画像45における構造物画像47Bの位置を表す情報を画像処理部76に出力する。
画像処理部76は、放射線画像45に対して、構造物画像47Bに応じた画像処理を行う機能を有する。本実施形態の画像処理部76が行う画像処理としては、少なくともコントラストを強調するための処理としてダイナミックレンジ圧縮処理を含む。ダイナミックレンジ圧縮処理の具体的な方法は、特に限定されない。ダイナミックレンジ圧縮処理としては、例えば、特開平10−75364号公報に記載された手法を用いてもよい。特開平10−75364号公報に記載された手法では、放射線画像45から複数の帯域制限画像を作成し、この帯域制限画像に基づいて放射線画像45の低周波成分に関する画像を得る。そして、得られた低周波成分に関する画像を圧縮テーブルにより変換して得られた出力値を、放射線画像45に加算してダイナミックレンジ圧縮処理を行う。ダイナミックレンジ圧縮処理を行うことにより、コントラストが強調された、例えば、予め設定されてコントラストを有する放射線画像45を得ることができる。
また、画像処理部76が行う、その他の画像処理としては、オフセット補正処理、感度補正処理、及び欠陥画素補正処理等が挙げられるが、これらに限定されるものではない。
本実施形態の画像処理部76は、構造物画像47Bに応じた画像処理として、上記の画像処理を、放射線画像45における構造物画像47B以外の領域に対して行う。なお、本実施形態と異なり、構造物画像47Bに応じた画像処理として、例えば、放射線画像45全体や患者画像47Aに対する構造物画像47Bの割合等である構造物画像47Bの大きさ、及び構造物画像47Bの濃度等に応じた度合いで、上述のダイナミックレンジ圧縮処理等を行ってもよい。また、構造物画像47Bに対しては、画像処理として、ダイナミックレンジ圧縮処理以外の画像処理を行う形態としてもよい。
次に、本実施形態のコンソール11の作用について図面を参照して説明する。
図8に示すように、放射線透視撮影に先立ち、コンソール11は、RISからの撮影オーダーを受信し、撮影オーダーをディスプレイ12に表示する(ステップS10)。撮影オーダーには、患者Pを識別するための患者ID(Identification Data)、及び撮影オーダーを発行した診療科の医師等による施術の指示等が登録されている。術者OPは、ディスプレイ12を通じて撮影オーダーの内容を確認する。
コンソール11は、予め用意された複数種の撮影メニューを、択一的に選択可能な形態でディスプレイ12に表示する。術者OPは、入力デバイス13を介して、撮影オーダーの内容と一致する1つの撮影メニューを選択する。本実施形態では、胸部及び腹部等の部位毎に、撮影メニューが予め定められており、術者OPは、撮影部位を選択することにより、撮影メニューの選択を行う。これにより、コンソール11は撮影メニューの指示を受け付ける(ステップS12)。
コンソール11は、指示を受け付けた撮影メニューに応じた照射条件を設定する(ステップS14)。本実施形態では、撮影メニュー毎に、照射条件が対応付けられている。照射条件としては、管電圧、管電流、照射時間、及び照射野IFの範囲が含まれる。一例として、本実施形態では、撮影メニューと照射条件とが対応付けられた情報が、記憶部62に予め記憶されている。そのため、コンソール11は、管電圧、管電流、照射時間、及び照射野IFの範囲を表す情報を、照射条件として放射線透視撮影装置10に出力する。放射線透視撮影装置10では、放射線源30に管電圧及び管電流を設定する。また、放射線透視撮影装置10のコリメータ31は、上述した遮蔽板(図示省略)により、照射野IFを調整する。なお、照射条件は、一般放射線撮影の場合と比較して極めて低い線量の放射線Rが照射される内容である。
撮影メニューの選択後、術者OPは、放射線源30、放射線検出器33、および患者Pの位置合わせ(ポジショニング)等を行い、フットスイッチ22を足で踏み込んで放射線透視撮影を開始する。
また、本実施形態のコンソール11では、撮影オーダーを受信(図8、S10)すると、図9に示した画像処理を実行する。なお、図9に示した画像処理を実行するタイミングは、本実施形態に限定されず、例えば、照射条件を設定するタイミング(図8、S14)や、照射条件の設定直後のタイミングであってもよい。また、放射線画像45の撮影中の任意のタイミングであってもよい。本実施形態のコンソール11は、制御部60のCPU60Aが、ROM60Bに記憶されている画像処理プログラム61を実行することにより、図9に一例を示した画像処理を実行する。図9には、本実施形態のコンソール11において実行される画像処理の流れの一例を表したフローチャートが示されている。
図9のステップS100で第2取得部72は、距離測定カメラ32から距離画像を取得する。具体的には、第2取得部72は、距離測定カメラ32に距離画像の撮影を指示し、指示に基づいて距離測定カメラ32によって撮影された距離画像をI/F部64を介して取得する。第2取得部72が取得した距離画像は、特定部74に出力される。
次のステップS102で特定部74は、距離画像に基づき、撮影対象までの距離を取得する。次のステップS104で特定部74は、取得した距離に基づいて、距離画像から、上述した特定の形状の構造物に対応する構造物距離画像を検出したか否かを判定する。一例として、本実施形態の特定部74は、距離画像における同一の距離を表す画素、具体的には、画素値が同一の画素、または隣接する画素値の差が予め定められた値以下の画素が、予め定められた数以上連続する領域を、ある撮影対象に対応する撮影対象距離画像として検出する。また、特定部74は、検出した撮影対象距離画像のうち、特定の形状の構造物として予め定められた形状を有する画像を、構造物距離画像として検出する。
なお、距離画像における構造物距離画像を検出する方法は、本実施形態に限定されない。例えば、距離測定カメラ32から特定の形状の構造物や被写体までの距離を構造物距離として予め得ておき、特定構造物距離を表し、かつ特定の形状を有する画素の領域を、構造物距離画像として検出してもよい。
なお、上記図1に示した形態や、図4Bに示した形態における撮影では、放射線透視撮影装置10及び距離測定カメラ32のいずれにおいても特定の形状の構造物が撮影されない場合がある。換言すると、車椅子50やストレッチャー51等の特定の形状の構造物が撮影対象とならない場合がある。このような場合、距離画像から構造物距離画像は検出されない。
距離画像から構造物距離画像が検出されなかった場合、ステップS104の判定が否定判定となり、ステップS106へ移行する。距離画像から構造物距離画像が検出されなかった場合、放射線透視撮影装置10により撮影された放射線画像45には特定の形状の構造物を表す構造物画像47Bが含まれない。そこでステップS106で特定部74は、構造物画像が無いことを表す情報を導出した後、ステップS110へ移行する。
一方、距離画像から構造物距離画像が検出された場合、ステップS104の判定が肯定判定となり、ステップS108へ移行する。ステップS108で特定部74は、放射線画像45における構造物画像47Bの位置を表す位置情報を導出した後、ステップS110へ移行する。この場合、放射線透視撮影装置10により撮影された放射線画像45には特定の形状の構造物を表す構造物画像47Bが含まれる。上述したように距離画像と放射線画像45とは予め位置合わせされているため、特定部74は、距離画像における構造物距離画像の位置から、放射線画像45における構造物画像47Bの位置を表す位置情報導出する。
なお、上記ステップS100〜S108の各処理は、放射線透視撮影装置10による放射線画像45の撮影の前、少なくとも放射線検出器33から出力された放射線画像45をコンソール11が取得する前の任意のタイミングに行われることが好ましい。放射線透視撮影装置10による透視撮影における任意のタイミングとしては、例えば、撮影オーダーに応じた透視撮影の撮影中ではあるが、術者OPがフットスイッチ22の踏み込みを解除し、放射線源30からの放射線Rの照射が停止されている間が挙げられる。また、放射線Rの照射が停止されている場合、放射線検出器33が放射線画像45のオフセット補正用の放射線画像を撮影するタイミングと同期したタイミングとしてもよい。
次のステップS110で特定部74は、放射線透視撮影装置10から、より具体的には放射線検出器33から放射線画像45を取得した否かを判定する。放射線画像45を取得するまで、ステップS110の判定が否定判定となる。一方、放射線画像45を取得した場合、ステップS110の判定が肯定判定となり、ステップS112へ移行する。
ステップS112で特定部74は、放射線画像45に含まれる構造物画像47Bを特定する。具体的には、特定部74は、上記ステップS108により構造物画像47Bの位置情報を導出した場合、位置情報に基づいて、放射線画像45に含まれる構造物画像47Bを特定する。なお、特定部74は、上記ステップS106により構造物画像47Bが無いことを表す情報を導出した場合、放射線画像45に構造物画像47Bが含まれないことを特定する。
次のステップS114で、画像処理部76は、放射線画像45に対して、上述したダイナミックレンジ圧縮処理を含む画像処理を行う。上述したように、画像処理部76は、放射線画像45に構造物画像47Bが含まれる場合、放射線画像45における構造物画像47B以外の領域に対して、画像処理を行う。一方、画像処理部76は、放射線画像45に構造物画像47Bが含まれない場合、放射線画像45全体に対して、上述したダイナミックレンジ圧縮処理を含む画像処理を行う。
次のステップS116で画像処理部76は、上記ステップS114で画像処理を行った放射線画像45を、放射線透視撮影システム2の術者用モニタ21に出力する。次のステップS118で画像処理部76は、本画像処理を終了するか否かを判定する。所定の終了条件を満たすまで、ステップS118の判定が否定判定となり、ステップS110に戻り、ステップS110〜S116の処理を繰り返す。一方、所定の終了条件を満たす場合、ステップS118の判定が肯定判定となる。所定の終了条件は、例えば、術者OPが、フットスイッチ22の踏み込みを解除した場合や、術者OPにより入力された撮影の終了指示をコンソール11が受け付けた場合等が挙げられるが、これらに限定されるものではない。このようにしてステップS118の処理が終了すると、本画像処理が終了する。
このように本実施形態のコンソール11の特定部74では、距離測定カメラ32により撮影された距離画像に基づいて、放射線画像45に含まれる構造物画像47Bを特定する。また、画像処理部76は、放射線画像45に構造物画像47Bが含まれる場合、構造物画像47B以外の領域に対して、ダイナミックレンジ圧縮処理を含む画像処理を行う。従って、本実施形態のコンソール11によれば、構造物画像47Bの影響を受けずに、患者画像47Aに対する画像処理を行うことができ、放射線画像45の画質を向上させることができる。このようにしてコントラストが強調され、画質が向上された放射線画像45が術者用モニタ21に表示されるため、術者OPの視認性等を向上させることができる。また、本実施形態のコンソール11によれば、放射線画像45に写る構造物画像47Bを術者OPに意識させないようにすることができる。
なお、放射線画像45から構造物画像47Bを特定する方法は上述した方法に限定されない。例えば、下記の変形例に示すように、学習済みモデル63を用いて、放射線画像45から構造物画像47Bを特定してもよい。
(変形例1)
図10には、本変形例のコンソール11のハードウエア構成の一例を表すブロック図を示す。図10に示すように、本変形例のコンソール11は、記憶部62に学習済みモデル63が記憶されている。
学習済みモデル63は、図11に示すように、学習用情報56Aを用いて予め学習されたモデルである。本実施形態では、一例として図11に示すように、学習用情報56Aを用いた機械学習によって学習済みモデル63が生成される。一例として本実施形態の学習用情報56Aは、構造物距離画像が含まれず、構造物距離画像が含まれないことを表す構造物距離画像無情報が対応付けられた複数の距離画像55Aと、構造物距離画像が含まれ、構造物距離画像の位置を表す構造物距離画像情報が対応付けられた複数の距離画像55Bと、を含む。距離画像55A及び距離画像55Bから、学習済みモデル63が生成される。学習済みモデル63の例としては、ニューラルネットワークモデルが挙げられる。学習のアルゴリズムとしては、例えば、誤差逆伝播法を適用することができる。以上の学習によって、一例として図12に示すように、距離画像55を入力とし、構造物距離画像の検出結果を表す構造物距離画像情報を出力とする学習済みモデル63が生成される。構造物距離画像情報は、例えば、構造物距離画像の有無と、構造物距離画像が存在する場合は、距離画像55における構造物距離画像の位置を表す情報とが挙げられる。
本変形例では、上記画像処理(図9参照)のステップS102の処理は行わず、ステップS104において特定部74は、学習済みモデル63を用いた検出結果による判定を行う。
(変形例2)
図13には、学習済みモデル63の変形例を示す。本変形例の学習済みモデル63は、図13に示すように、学習用情報56Bを用いて予め学習されたモデルである。本実施形態では、一例として図13に示すように、学習用情報56Bを用いた機械学習によって学習済みモデル63が生成される。一例として本実施形態の学習用情報56Bは、構造物距離画像が含まれない複数の距離画像55Aと、各距離画像55Aに対応し、構造物画像が含まれないことを表す構造物画像無情報が対応付けられた複数の放射線画像45Aとの組み合わせを含む。また、学習用情報56Bは、構造物距離画像が含まれる複数の距離画像55Bと、各距離画像55Bに対応し、構造物画像47Bの位置を表す構造物画像情報が対応付けられた複数の放射線画像45Bとの組み合わせを含む。
距離画像55Aと放射線画像45Aとの組み合わせ、及び距離画像55Bと放射線画像45Bとの組み合わせから、学習済みモデル63が生成される。学習済みモデル63の例としては、変形例1と同様に、ニューラルネットワークモデルが挙げられる。学習のアルゴリズムとしては、例えば、誤差逆伝播法を適用することができる。以上の学習によって、一例として図14に示すように、放射線画像45及び距離画像55を入力とし、放射線画像45における構造物画像47Bの位置を表す構造物画像位置情報を出力とする学習済みモデル63が生成される。構造物画像位置情報は、例えば、構造物画像47Bの有無と、構造物画像47Bが存在する場合は、放射線画像45における構造物画像47Bの位置を表す情報とが挙げられる。
本変形例では、上記画像処理(図9参照)のステップS102〜S106の処理は行わず、ステップS112において、特定部74は、学習済みモデル63を用いて構造物画像47Bの特定を行う。
このように変形例1及び変形例2によれば、放射線画像45から構造物画像47Bを特定する処理において学習済みモデル63を用いる。そのため、より精度よく、容易に構造物画像47Bを特定することができる。
[第2実施形態]
第1実施形態では、距離測定カメラ32より撮影された距離画像55を用いて、放射線画像45から構造物画像47Bを特定する形態について説明した。これに対して、本実施形態では、可視光カメラにより撮影した可視光画像をさらに用いて、放射線画像45から構造物画像47Bを特定する形態について説明する。なお、本実施形態の放射線透視撮影システム2、放射線透視撮影装置10、及びコンソール11について、第1実施形態と同様の構成及び作用については詳細な説明を省略する。
図15に示すように、本実施形態の放射線透視撮影システム2は、放射線透視撮影装置10の距離測定カメラ32の近傍に、可視光カメラ39を備える。可視光カメラ39は、いわゆる一般的なカメラであり、可視光画像を撮影するカメラである。具体的には、可視光カメラ39は、撮影対象によって反射した可視光を撮像素子(図示省略)が受光し、受光した可視光に基づいて可視光画像を撮影する。本実施形態の可視光カメラ39は、本開示の「可視光画像撮影装置」の一例である。本実施形態の可視光カメラ39の撮影範囲は、放射線透視撮影装置10の撮影領域SAの全体を含む。従って、本実施形態の可視光カメラ39は、放射線透視撮影装置10の撮影対象の可視光画像を撮影する。なお、撮影領域SAに存在する撮影対象のうち、距離測定カメラ32からみて、他の撮影対象の後ろ(陰)に存在する撮影対象については、可視光画像の撮影は行えない。
なお、本実施形態では、距離測定カメラ32により撮影される距離画像55と、可視光カメラ39により撮影される可視光画像と、放射線透視撮影装置10より撮影される放射線画像45とは、予め位置合わせされている。具体的には、放射線画像45の、ある画素が表す画像が、距離画像55では、どの画素が表す画像に対応するか、また可視光画像では、どの画素が表す画像に対応するかを示す対応関係情報が予め得られている。
また、図16には、本実施形態のコンソール11の機能的な構成の一例の機能ブロック図を示す。図16に示すように本実施形態のコンソール11は、第1実施形態のコンソール11(図6参照)に比べて、さらに第3取得部78を有している点が異なっている。
第3取得部78は、可視光カメラ39により撮影された距離画像を取得する機能を有する。一例として本実施形態の第3取得部78は可視光カメラ39により撮影された可視光画像を表す画像データを、I/F部64を介して、可視光カメラ39から取得する。第3取得部78が取得した可視光画像を表す画像データは、特定部74に出力される。
本実施形態の特定部74は、距離画像55から取得した撮影対象との間の距離と、可視光画像から検出した測定対象物の形状とに基づいて、放射線画像45に含まれる構造物画像47Bを特定する。なお、可視光カメラ39により撮影された可視光画像から撮影対象の形状を検出する方法は特に限定されない。例えば、構造物画像47Bの特定の形状をテンプレートとし、本テンプレートを用いて可視光画像に対して画像解析を行うことにより、特定の形状を有する構造物である撮影対象の形状を検出してもよい。
なお、一例として本実施形態のコンソール11は、制御部60のCPU60AがROM60Bに記憶されている画像処理プログラム61を実行することにより、CPU60Aが、第1取得部70、第2取得部72、特定部74、画像処理部76、及び第3取得部78として機能する。
また、本実施形態のコンソール11の作用、具体的には、コンソール11で実行される画像処理について説明する。
図17には、本実施形態のコンソール11において実行される画像処理の流れの一例を表したフローチャートが示されている。図17に示すように、本実施形態の画像処理は、第1実施形態の画像処理(図9参照)のステップS102及びS104に代わり、ステップS103A、S103B、及びS105の処理を含む。
図17のステップS103Aで第3取得部78は、上述したように、可視光カメラ39から可視光画像を取得する。具体的には、第3取得部78は、可視光カメラ39に可視光画像の撮影を指示し、指示に基づいて可視光カメラ39によって撮影された可視光画像をI/F部64を介して取得する。第3取得部78が取得した可視光画像は、特定部74に出力される。
次のステップS103Bで特定部74は、可視光画像に基づき、上述したように撮影対象の形状を検出する。次のステップS105で特定部74は、取得した距離及び検出した形状に基づいて、放射線画像45に構造物画像47Bが含まれるか否かを判定する。
このように、本実施形態では、可視光カメラ39により撮影された可視光画像により、特定の形状を有する構造物を検出するため、より精度よく、特定の形状について検出することができる。
以上説明したように、上記各実施形態のコンソール11は、少なくとも1つのプロセッサとしてCPU60Aを備える。CPU60Aは、患者Pが存在する撮影領域SAを放射線透視撮影装置10により撮影した放射線画像45を取得する。また、CPU60Aは、放射線画像45に含まれる、患者Pよりも放射線Rの透過率が低い特定の形状の構造物を表す構造物画像47Bを、特定の形状に基づいて特定する。また、CPU60Aは、放射線画像45に対して、構造物画像47Bに応じた画像処理を行う。
このように、上記各実施形態のコンソール11によれば、放射線Rの透過率が低い、放射線画像45に患者画像47Aよりも比較的濃度が低く写り込む構造物画像47Bに応じた画像処理を行うことができる。
特に、放射線透視撮影装置10による放射線透視撮影では、自動輝度制御(ABC;Auto Brightness Control)が行われる場合がある。ABCは、周知のように、放射線画像45の輝度を一定範囲に保つために、放射線透視撮影中に、放射線検出器33から順次出力される放射線画像45の輝度値(例えば放射線画像45の中央領域の輝度値の平均値)に基づいて、放射線管40に与える管電圧および管電流を都度微調整するフィードバック制御である。このABCによって、患者Pの体動等によって放射線画像45の明るさが極端に変わり、放射線画像45が観察しにくくなることが防がれる。しかしながら、呪術したように、放射線画像45に、低濃度画像が含まれていると、患者画像47Aのコントラストが低下する場合がある。これに対して本実施形態では、構造物画像47Bが含まれる場合であっても患者画像47Aのコントラストが低下するのを抑制することができる。
従って、上記各実施形態のコンソール11によれば、放射線透視撮影装置10により撮影され、術者用モニタ21に表示される放射線画像45の画質を向上させることができる。
また、本実施形態のコンソール11によれば、放射線画像45の撮影前に、特に、放射線画像45がコンソール11に入力される前に、これらから入力される放射線画像45に含まれる構造物画像47Bについて特定することができる。従って、放射線画像45に対する画像処理をより素早く行うことができる。特に放射線透視撮影装置10における放射線透視撮影では、連続して複数の放射線画像45が撮影される。この場合の放射線画像45の撮影間隔は比較的短く、例えば、30fps(frame per second)のフレームレートで撮影が行われる。このような場合であっても、1枚目の放射線画像45から、リアルタイム性が高い適切な画像処理を行うことができる。
なお、上記各実施形態では、距離画像撮影装置の一例として、距離測定カメラ32を用い、TOF方式により距離画像を撮影する形態について説明したが、距離画像を撮影する距離画像撮影装置はTOFカメラに限定されない。例えば、パターンがついた赤外光を撮影対象に照射し、撮影対象からの反射光に応じた距離画像を撮影する距離画像撮影装置を用い、Structured Light方式を適用して距離画像を撮影する形態としてもよい。また、例えば、距離画像に写り込んでいるエッジ領域のボケ具合を基に距離を復元するDFD(Depth from Defocus)方式を適用した形態としてもよい。この形態の場合、例えば、カラー開口フィルタを用いて単眼のカメラで撮影した距離画像を用いる形態が知られている。
また、上記実施形態では、距離測定カメラ32により撮影された距離画像のみ、または距離画像及び可視光カメラ39により撮影された可視光画像を用いて構造物の特定の形状に関する検出を行う形態について説明したが、これらの形態に限定されない。例えば、可視光カメラ39により撮影された可視光画像のみを用いて構造物の特定の形状に関する検出を行ってもよい。この場合、例えば、第2実施形態において第2取得部72を備えず、可視光画像からのみ特定の形状に関する検出を行えばよい。
また、上記各実施形態では、放射線画像撮影装置として放射線透視撮影装置10を例示したが、これに限らない。放射線画像撮影装置は、被写体の放射線画像を撮影が可能な装置であればよく、例えば、一般撮影を行う放射線画像撮影装置やマンモグラフィ装置等であってもよい。
また、上記各実施形態では、被写体として患者Pを例示したが、これに限らない。被写体は、その他の動物でもよく、例えば、犬、猫等のペット、馬、牛等の家畜等であってもよい。
また、上記各実施形態では、コンソール11が本開示の画像処理装置の一例である形態について説明したが、コンソール11以外の装置が本開示の画像処理装置の機能を備えていてもよい。換言すると、第1取得部70、第2取得部72、特定部74、及び画像処理部76の機能の一部または全部をコンソール11以外の、例えば放射線透視撮影装置10や、外部の装置が備えていてもよい。
また、上記各実施形態において、例えば、第1取得部70、第2取得部72、特定部74、及び画像処理部76といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記各実施形態では、画像処理プログラム61が記憶部62に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム61は、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、画像処理プログラム61は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
2 放射線透視撮影システム
10 放射線透視撮影装置
11 コンソール
12 ディスプレイ
13 入力デバイス
20 撮影台
21 術者用モニタ
22 フットスイッチ
23、46 スタンド
24 支柱
25 放射線発生部
30 放射線源
31 コリメータ
32 距離測定カメラ
33 放射線検出器
39 可視光カメラ
40 放射線管
41 電圧発生器
45 放射線画像
47A 患者画像、47B 構造物画像
50 車椅子
51 ストレッチャー
55、55A、55B 距離画像
58 学習用情報
60 制御部、60A CPU、60B ROM、60C RAM
61 画像処理プログラム
62 記憶部
63 学習済みモデル
64 I/F部
69 バス
70 第1取得部
72 第2取得部
74 特定部
76 画像処理部
78 第3取得部
F 焦点
IF 照射野
OP 術者
P 患者
R 放射線
SA 撮影領域

Claims (17)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    被写体が存在する撮影領域を放射線画像撮影装置により撮影した放射線画像を取得し、
    前記放射線画像に含まれる、前記被写体よりも放射線の透過率が低い特定の形状の構造物を表す構造物画像を、前記特定の形状に基づいて特定し、
    前記放射線画像に対して、前記構造物画像に応じた画像処理を行う
    画像処理装置。
  2. 前記プロセッサは、
    前記撮影領域に存在する撮影対象までの距離を取得し、
    前記距離及び前記特定の形状に基づいて、前記構造物画像を特定する
    請求項1に記載の画像処理装置。
  3. 前記プロセッサは、
    前記撮影対象との間の距離を表す距離画像を撮影する距離画像撮影装置により撮影された前記距離画像を取得し、
    前記距離画像に基づいて、前記距離を取得する
    請求項2に記載の画像処理装置。
  4. 前記距離画像撮影装置は、TOF(Time Of Flight)方式を用いて前記距離画像を撮影する
    請求項3に記載の画像処理装置。
  5. 前記プロセッサは、
    前記距離に基づいて、前記距離画像から前記特定の形状に応じた構造物距離画像を検出し、
    前記構造物画像として、前記構造物距離画像に対応する画像を前記放射線画像から特定する
    請求項3または請求項4に記載の画像処理装置。
  6. 前記プロセッサは、
    前記撮影領域に存在する前記構造物を前記撮影対象とした前記距離画像を複数用いて予め学習された学習済みモデルに基づいて、前記構造物距離画像を検出する
    請求項5に記載の画像処理装置。
  7. 前記プロセッサは、
    前記放射線画像と、前記撮影領域に存在する前記構造物を前記撮影対象とした前記距離画像との組み合わせを複数用いて予め学習された学習済みモデルに基づいて、前記構造物画像を特定する
    請求項3または請求項4に記載の画像処理装置。
  8. 前記プロセッサは、
    前記撮影領域を可視光画像撮影装置により撮影した可視光画像を取得し、
    前記可視光画像から検出した形状と、前記距離とに基づいて、前記放射線画像に含まれる前記構造物画像を特定する、
    請求項2から請求項4のいずれか1項に記載の画像処理装置。
  9. 前記プロセッサは、
    前記撮影領域を可視光画像撮影装置により撮影した可視光画像を取得し、
    前記可視光画像から前記特定の形状に応じた構造物可視光画像を検出し、
    前記構造物画像として、前記構造物可視光画像に対応する画像を前記放射線画像から特定する
    請求項1に記載の画像処理装置。
  10. 前記構造物は、金属からなる
    請求項1から請求項9のいずれか1項に記載の画像処理装置。
  11. 前記構造物は、車椅子である
    請求項1から請求項10のいずれか1項に記載の画像処理装置。
  12. 前記構造物は、ストレッチャーである
    請求項1から請求項10のいずれか1項に記載の画像処理装置。
  13. 前記プロセッサは、
    前記画像処理を、前記放射線画像における前記構造物画像以外の領域に対して行う
    請求項1から請求項12のいずれか1項に記載の画像処理装置。
  14. 前記画像処理は、コントラスト強調処理である
    請求項1から請求項13のいずれか1項に記載の画像処理装置。
  15. 被写体の放射線画像を撮影する放射線画像撮影装置と、
    請求項1から請求項14のいずれか1項に記載の画像処理装置と、
    を備えた放射線画像撮影システム。
  16. 被写体が存在する撮影領域を放射線画像撮影装置により撮影した放射線画像を取得し、
    前記放射線画像に含まれる、前記被写体よりも放射線の透過率が低い特定の形状の構造物を表す構造物画像を、前記特定の形状に基づいて特定し、
    前記放射線画像に対して、前記構造物画像に応じた画像処理を行う
    処理をコンピュータが実行する画像処理方法。
  17. 被写体が存在する撮影領域を放射線画像撮影装置により撮影した放射線画像を取得し、
    前記放射線画像に含まれる、前記被写体よりも放射線の透過率が低い特定の形状の構造物を表す構造物画像を、前記特定の形状に基づいて特定し、
    前記放射線画像に対して、前記構造物画像に応じた画像処理を行う
    処理をコンピュータに実行させるための画像処理プログラム。
JP2020098941A 2020-06-05 2020-06-05 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム Active JP7316976B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020098941A JP7316976B2 (ja) 2020-06-05 2020-06-05 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
US17/337,431 US20210383541A1 (en) 2020-06-05 2021-06-03 Image processing apparatus, radiography system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020098941A JP7316976B2 (ja) 2020-06-05 2020-06-05 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2021191402A true JP2021191402A (ja) 2021-12-16
JP7316976B2 JP7316976B2 (ja) 2023-07-28

Family

ID=78816745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020098941A Active JP7316976B2 (ja) 2020-06-05 2020-06-05 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム

Country Status (2)

Country Link
US (1) US20210383541A1 (ja)
JP (1) JP7316976B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000060842A (ja) * 1998-08-25 2000-02-29 Canon Inc 照射しぼり有無判定装置、方法及びコンピュータ読み取り可能な記憶媒体
US20150190107A1 (en) * 2014-01-08 2015-07-09 Samsung Electronics Co., Ltd. Apparatus for generating image and control method thereof
JP2015526231A (ja) * 2012-08-27 2015-09-10 コーニンクレッカ フィリップス エヌ ヴェ 光学3dシーン検出及び解釈に基づく患者個別型及び自動x線システム調節
JP2018121925A (ja) * 2017-02-01 2018-08-09 キヤノンメディカルシステムズ株式会社 X線コンピュータ断層撮影装置及びx線コンピュータ断層撮影用の被検体搬送具
JP2018153299A (ja) * 2017-03-16 2018-10-04 東芝エネルギーシステムズ株式会社 被検体の位置決め装置、被検体の位置決め方法、被検体の位置決めプログラムおよび放射線治療システム
JP2019033826A (ja) * 2017-08-10 2019-03-07 富士フイルム株式会社 放射線撮影システムとその作動方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8095203B2 (en) * 2004-07-23 2012-01-10 Varian Medical Systems, Inc. Data processing for real-time tracking of a target in radiation therapy
EP2584969B1 (en) * 2010-06-25 2016-11-23 Varian Medical Systems, Inc. Conversion of existing portable or mobile analog radiographic apparatus for enabling digital radiographic applications
US9121809B2 (en) * 2011-11-18 2015-09-01 Visuum, Llc Multi-linear X-ray scanning systems and methods for X-ray scanning
JP6139361B2 (ja) * 2013-09-30 2017-05-31 株式会社東芝 医用画像処理装置、治療システム及び医用画像処理方法
JP6677100B2 (ja) * 2016-06-24 2020-04-08 コニカミノルタ株式会社 放射線画像撮影システム
JP7461102B2 (ja) * 2018-08-08 2024-04-03 キヤノンメディカルシステムズ株式会社 医用画像処理装置およびx線ct装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000060842A (ja) * 1998-08-25 2000-02-29 Canon Inc 照射しぼり有無判定装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2015526231A (ja) * 2012-08-27 2015-09-10 コーニンクレッカ フィリップス エヌ ヴェ 光学3dシーン検出及び解釈に基づく患者個別型及び自動x線システム調節
US20150190107A1 (en) * 2014-01-08 2015-07-09 Samsung Electronics Co., Ltd. Apparatus for generating image and control method thereof
JP2018121925A (ja) * 2017-02-01 2018-08-09 キヤノンメディカルシステムズ株式会社 X線コンピュータ断層撮影装置及びx線コンピュータ断層撮影用の被検体搬送具
JP2018153299A (ja) * 2017-03-16 2018-10-04 東芝エネルギーシステムズ株式会社 被検体の位置決め装置、被検体の位置決め方法、被検体の位置決めプログラムおよび放射線治療システム
JP2019033826A (ja) * 2017-08-10 2019-03-07 富士フイルム株式会社 放射線撮影システムとその作動方法

Also Published As

Publication number Publication date
US20210383541A1 (en) 2021-12-09
JP7316976B2 (ja) 2023-07-28

Similar Documents

Publication Publication Date Title
JP2019033829A (ja) 画像処理装置とその作動方法および作動プログラム
US20210383514A1 (en) Image processing apparatus, radioscopy system, image processing program, and image processing method
US7502439B2 (en) Radiographic apparatus and method of using the same
JP7341950B2 (ja) 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
JP7307033B2 (ja) 処理装置、処理装置の作動方法、処理装置の作動プログラム
JP7316976B2 (ja) 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
JP7370933B2 (ja) 制御装置、放射線画像撮影システム、制御処理方法、及び制御処理プログラム
US11617547B2 (en) Medical image diagnostic system and medical image diagnostic apparatus
JP7221825B2 (ja) トモシンセシス撮影制御装置、トモシンセシス撮影制御装置の作動方法、トモシンセシス撮影制御装置の作動プログラム
JP7443591B2 (ja) 医用画像診断装置、および医用画像診断方法
JP7348361B2 (ja) 画像処理装置
JP7399780B2 (ja) 医用画像診断装置
JP7483361B2 (ja) 医用画像処理装置、医用画像診断装置および医用画像処理プログラム
JP7332538B2 (ja) 処理装置、処理装置の作動方法、処理装置の作動プログラム
JP7433809B2 (ja) 学習済みモデルの生成方法、および医用処理装置
JP7362259B2 (ja) 医用画像診断装置、医用画像診断方法、および寝台装置
JP7437887B2 (ja) 医用情報処理装置及びx線ct装置
JP2022046946A (ja) X線ct装置
JP2022178052A (ja) X線ct装置、およびx線ct装置の制御方法
JP2021037148A (ja) 医用画像診断装置、医用画像診断プログラムおよび撮影計画装置
JP6162324B2 (ja) 放射線画像撮影システム、放射線画像撮影方法、及び放射線画像撮影プログラム
JP2023055322A (ja) 機械学習モデル評価装置、機械学習モデル評価方法、及びプログラム
JP2022081092A (ja) X線ct装置、動画像生成方法、および撮影制御方法
JP2022039436A (ja) X線ct装置、x線ct装置の制御方法、およびプログラム
JP2021090495A (ja) 医用画像処理装置、医用画像診断装置および医用画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230718

R150 Certificate of patent or registration of utility model

Ref document number: 7316976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150