JP2007089763A - 放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム - Google Patents

放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム Download PDF

Info

Publication number
JP2007089763A
JP2007089763A JP2005281980A JP2005281980A JP2007089763A JP 2007089763 A JP2007089763 A JP 2007089763A JP 2005281980 A JP2005281980 A JP 2005281980A JP 2005281980 A JP2005281980 A JP 2005281980A JP 2007089763 A JP2007089763 A JP 2007089763A
Authority
JP
Japan
Prior art keywords
image
pixel
moving
value
small object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005281980A
Other languages
English (en)
Inventor
Ryosuke Nonaka
亮助 野中
Takeshi Ito
伊藤  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005281980A priority Critical patent/JP2007089763A/ja
Priority to US11/378,232 priority patent/US20070071296A1/en
Publication of JP2007089763A publication Critical patent/JP2007089763A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】大きな物体が存在する領域と小さな物体が存在する領域とに対して独立して視認性の改善処理を行う放射線透視画像処理装置を提供すること。
【解決手段】放射線透視動画像に含まれる任意のフレームにおける透視画像内の各座標の予め定められた範囲内に存在する画素の画素値の最大値を算出し、その値を画素値とした中間画像を出力する周辺最大値算出部121aと、出力画像の各座標周辺の予め定められた範囲内に存在する画素の画素値の最小値を算出し、その値を画素値とした大オブジェクト画像を出力する周辺最小値算出部121bと、透視画像内の各座標の画素値から、大オブジェクト画像内の対応する座標の画素値を減算した値を座標の画素値とした小オブジェクト画像を出力する小オブジェクト算出部と122と、を備えた。
【選択図】 図2

Description

この発明は、放射線を用いて撮影された透視画像を処理する放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラムに関するものである。
従来から、放射線診断装置において表示される動画像の視認性を改善するために、同一画像内の隣接する画素間で平滑化を行う空間方向の平滑化や、連続する複数の画像の対応する画素間で平滑化を行う時間方向の平滑化によるノイズ低減処理が行われている。
一般に、空間方向の平滑化を行う方法では、画像に含まれる物体の輪郭がぼけるという欠点がある。また、時間方向の平滑化を行う方法では、動作中の物体の残像が表示されるという欠点がある。このため、動作中の物体が含まれる領域については平滑化を省略することにより、残像が表示される欠点を解消することなどが行われている。
特許文献1では、動作中の物体が含まれる領域を検出する動き検出手段を用いて、動作中の物体が含まれる領域とそれ以外の領域とを分割し、動作中の物体が含まれる領域に対して、空間方向の平滑化を行うことにより、動作中の物体が含まれる領域についても平滑化を省略せず、視認性を向上させる技術が提案されている。
特開平06−154200号公報
しかしながら、特許文献1の技術では、動作中の物体が含まれる領域に対して空間方向の平滑化を行っているため、小さな物体に対する視認性が悪化する問題があった。例えば、放射線診断装置を使用する医師が特に明確に確認する必要があるガイドワイアのような、動作する小さな医療器具の輪郭がぼやけて見にくくなるという問題があった。これは、特許文献1では、大きな物体と小さな物体とを区別することなく、同じ視認性の改善処理を実行していることが原因である。
本発明は、上記に鑑みてなされたものであって、大きな物体が存在する領域と小さな物体が存在する領域とを分離することにより、両領域に対して独立して視認性の改善処理を行うことができる放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、放射線透視画像処理装置において、放射線により透視撮影された動画像に含まれる任意のフレームの透視画像の各画素について、前記透視画像の前記各画素を含む第1の大きさの範囲内での画素値の最大値を求め、該最大値を前記透視画像の前記各画素に対応する画素の画素値として有する中間画像を生成する周辺最大値算出部と、前記中間画像の各画素について、前記中間画像の前記各画素を含む第2の大きさの範囲内での画素値の最小値を求め、該最小値を前記中間画像の前記各画素に対応する画素の画素値として有する大オブジェクト画像を生成する周辺最小値算出部と、前記透視画像の前記各画素の画素値と前記透視画像の前記各画素に対応する前記大オブジェクト画像の画素の画素値との差分を求め、該差分を各画素の画素値として有する小オブジェクト画像を生成する小オブジェクト算出部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる放射線透視画像処理方法および放射線透視画像処理プログラムである。
本発明によれば、透視画像から大きな物体の存在する領域と小さな物体の存在する領域とを分離することができる。このため、それぞれの領域に適した視認性の改善処理を施すことができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかる放射線透視画像処理装置は、予め定められた大きさより大きいオブジェクトである大オブジェクトおよび大オブジェクト以外のオブジェクトである小オブジェクトの分離処理と、動作している物体である動オブジェクトおよび静止している物体である静止オブジェクトの分離処理とを平行して実施し、小オブジェクトと動オブジェクトとを合成することにより、動作している小さなオブジェクトである動小オブジェクトを算出し、算出した動小オブジェクトに対して視認性改善処理を行うものである。
図1は、第1の実施の形態にかかる放射線透視画像処理装置100の構成を示すブロック図である。同図に示すように、放射線透視画像処理装置100は、撮像装置20に接続され、当該撮像装置20から入力される透視画像(入力画像)に対して画像処理を行うものである。
撮像装置20は、透視画像の撮影対象となる物体を挟んで、X線などの放射線を放射する放射線源10と対向して設置されている。撮像装置20は、撮像した画像に対数変換を施した画像を出力する。なお、対数変換を施さない場合、第1の実施の形態にかかる放射線透視画像処理装置100は、加算・減算の処理を乗算・除算に置き換えて処理を行う。
放射線透視画像処理装置100は、動・静止オブジェクト分離部110と、大・小オブジェクト分離部120と、オブジェクト領域検出部130a、130bと、マスク合成部140と、オブジェクト領域処理部150と、合成部160とを備えている。
動・静止オブジェクト分離部110は、入力画像から、動作している物体である動オブジェクトおよび静止している物体である静止オブジェクトを分離するものであり、静止オブジェクト算出部111と、フレームメモリ112と、動オブジェクト算出部113とを備えている。
静止オブジェクト算出部111は、フレームメモリ112に記憶された前のフレームの静止オブジェクトのみを含む画像である静止オブジェクト画像の画素値と、現在のフレームの入力画像の画素値とを比較し、現在のフレームにおける静止オブジェクトを算出するものである。
具体的には、静止オブジェクト算出部111は、フレームメモリ112に記憶された静止オブジェクト画像の画素値と、入力画像の画素値との差分を算出し、算出した値を予め定められた閾値と比較することにより、新たにフレームメモリ112に格納する静止オブジェクト画像の画素値として、入力画像の画素値を用いるか、元のフレームメモリ112の画素値を用いるか、両者を加重平均した値を用いるかを判断する。
静止オブジェクト算出部111で算出した静止オブジェクト画像はいったんフレームメモリ112に格納され、後に別のフレームに対する処理を行う際に静止オブジェクト算出部111へ入力する画像として用いられる。したがって、フレームメモリ112から静止オブジェクト算出部111へ入力される画像は、静止オブジェクト算出部111における過去の演算結果である。
フレームメモリ112は、静止オブジェクト算出部111が算出した静止オブジェクト画像を記憶する記憶部である。
動オブジェクト算出部113は、入力画像内の各座標について、当該座標の各画素値から、静止オブジェクト算出部111が出力した静止オブジェクト画像内の対応する座標の画素値を減算し、減算した値を当該座標の画素値とするものである。これにより、静止オブジェクト以外のオブジェクトである動オブジェクトのみを含む画像を出力することができる。以下、動オブジェクトのみを含む画像を動オブジェクト画像と呼ぶ。
大・小オブジェクト分離部120は、入力画像から、予め定められた大きさより大きい物体である大オブジェクトおよび大オブジェクト以外のオブジェクトである小オブジェクトを分離するものであり、大オブジェクト算出部121と、小オブジェクト算出部122とを備えている。
図2は、大・小オブジェクト分離部120の詳細な構成を示すブロック図である。同図に示すように、大オブジェクト算出部121は、周辺最大値算出部121aと、周辺最小値算出部121bとを備えている。
周辺最大値算出部121aは、入力画像上の各座標の画素に対して、その画素の周辺の画素の画素値の最大値を算出し、出力する中間画像における当該座標の画素値とするものである。周辺最大値算出部121aで算出された中間画像は、周辺最小値算出部121bに出力される。
透視画像の場合、オブジェクトの存在する領域の画素値は、周辺のそのオブジェクトが存在しない領域の画素値に比べて小さくなる。したがって、各画素に対して予め定められた範囲内に存在する周辺画素の画素値の最大値をその画素の画素値とすることにより、オブジェクトのエッジの部分は削られる。以下では、エッジが削られたオブジェクトを、縮小オブジェクトと呼ぶ。
ここで、ある画素に対して予め定められた範囲内に存在する周辺の画素とは、例えば、ある画素から予め定められた一定の距離R1以内の距離に存在する画素の集合をいう。この場合、周辺最大値算出部121aにおける処理によって、オブジェクトのエッジ部分が距離R1分だけ削られた縮小オブジェクトが出力される。
したがって、予め定められた範囲内に両縁部が含まれるオブジェクト、例えば、距離R1に比べて大きさの小さいオブジェクトはそのオブジェクトの全領域が削られ、周辺最大値算出部121aが出力する中間画像中には残らない。
周辺最小値算出部121bは、周辺最大値算出部121aとは逆に、入力された画像上の各座標の画素に対して、その画素に対して予め定められた範囲内に存在する周辺画素の画素値の最小値を算出し、出力画像における当該座標の画素値とするものである。この処理により、周辺最小値算出部121bの入力画像中のオブジェクトのエッジは周辺に拡大する。
周辺最小値算出部121bにおいて、ある画素に対して予め定められた範囲内に存在する周辺の画素とは、例えば、ある画素から予め定められた一定の距離R2以内の距離に存在する画素の集合をいう。
距離R1と距離R2とが等しい場合、これらを共にRとすると、オブジェクトのエッジは周辺最大値算出部121aにおいて距離Rだけ削られ、周辺最小値算出部121bにおいて距離Rだけ膨張するので、距離Rに対して大きさの大きいオブジェクト、すなわち、予め定められた範囲内に両縁部が含まれないオブジェクトは、大オブジェクト算出部121における処理によってその形状は変化しない。
距離R1に比べて大きさの小さいオブジェクト、すなわち、予め定められた範囲内に両縁部が含まれるオブジェクトは、周辺最大値算出部121aにおける処理によって消失するので、周辺最小値算出部121bにおいて膨張することもない。したがって、距離R1に比べて大きさの小さいオブジェクトは大オブジェクト算出部121における処理によって消失する。
このようにして、大オブジェクト算出部121では距離R1に対して大きさの小さいオブジェクトは消失し、大きいオブジェクトのみが残った画像が出力される。なお、距離R1と距離R2は必ずしも等しい値である必要はないが、これらを等しい値とすることにより、小オブジェクト算出部122において大きいオブジェクトのエッジが算出されるというアーチファクトを最小限にとどめることができる。
周辺最小値算出部121bの処理により、入力画像から大オブジェクトのみを抽出した画像が出力されるため、周辺最小値算出部121bの出力画像を、以下では大オブジェクト画像と呼ぶ。
小オブジェクト算出部122は、入力画像の画素値から、大オブジェクト画像の画素値を減算する。これにより、小オブジェクト算出部122の出力画像は入力画像から大きいオブジェクトの影響が除外された画像、すなわち小オブジェクトのみを含む画像(以下、小オブジェクト画像と呼ぶ。)となる。
なお、例えば、小さな突起を有するような物体の場合、当該突起の両縁部が予め定められた範囲内に含まれれば、その突起の全領域が削られ、かつ、物体のエッジ部分が削られた縮小オブジェクトが出力される。そして、周辺最小値算出部121bの処理により、突起が削除された物体が大オブジェクトとして出力される。また、小オブジェクト算出部122の処理により、突起が小オブジェクトとして算出される。このように、本実施の形態では、実際の物体における一体性に関係なく、各構成部で出力されるオブジェクトを単位として物体を分離して扱う。
以下に、図2を用いて、大・小オブジェクト分離部120で扱われる画像の一例について説明する。例えば、図2に示すような入力画像201が入力された場合、周辺最大値算出部121aの処理により、入力画像201内の大オブジェクト201aのエッジが削られた大オブジェクト202aを含む中間画像202が出力される。中間画像202では、入力画像201内の小オブジェクト201bは消失している。
中間画像202に対して、周辺最小値算出部121bによる処理が行われると、大オブジェクト202aのエッジが拡大した大オブジェクト203aを含む大オブジェクト画像203が出力される。次に、小オブジェクト算出部122により入力画像201から大オブジェクト画像203が減算され、小オブジェクト204bのみを含む小オブジェクト画像204が出力される。
なお、上述の例では、周辺最大値算出部121a、周辺最小値算出部121bにおいて参照する距離R1、R2は、予め定められた固定値としているが、外部から任意に指定可能とするように構成してもよい。
図3は、このように構成された大オブジェクト算出部321の構成を示すブロック図である。同図に示すように、周辺最大値算出部121aおよび周辺最小値算出部121bのそれぞれについて、スケール設定部301aおよび301bを設けることにより、ユーザまたは外部の演算部(図示せず)が距離R1、R2を任意に指定できるように構成することができる。
また、大オブジェクト算出部121において、画像の補正を行うように構成してもよい。図4は、このように構成された大オブジェクト算出部421の構成を示すブロック図である。
大オブジェクト算出部421においては、周辺画素値の最大値や最小値の演算を行うので、大オブジェクト算出部421へ入力される画像がノイズを多く含んだ画像である場合、大オブジェクト算出部421が出力する中間画像の画素値が、目的とする大オブジェクトの陰影を示す値からずれることがある。
大オブジェクト算出部421が出力する中間画像に対する誤差が無視できないほど、大オブジェクト算出部421へ入力される画像に含まれるノイズが大きい場合には、図のように大オブジェクト算出部421に補正部421cを設けるように構成することができる。
補正部421cは補正値算出部421dを備えている。補正値算出部421dは、大オブジェクト算出部421へ入力された画像の画素値と最大値や最小値の演算による画素値の誤差に関して予め算出された関係にしたがって補正値を算出する。
補正値算出部421dは、入力された画像の画素値と、補正値との対応を格納したルックアップテーブルなどの、入力された画像の各画素値に対する補正値の算出に使用するパラメタを格納したルックアップテーブルを用いることにより補正値を算出する。また、補正値算出部421dは、入力された画像の画素値に対して補正値を算出する関数演算機により構成してもよい。関数演算機における演算は、F(x)=Ax+B(x:入力された画像の画素値、F(x):補正値、A,B:定数)の式で表されるような、単純な乗算加算の組み合わせによる線形演算とすることもできる。
オブジェクト領域検出部130a、130bは、入力された画像から、オブジェクトが存在する領域を検出するものである。第1の実施の形態においては、オブジェクト領域検出部130aが、動オブジェクト算出部113から出力された動オブジェクト画像を入力し、動オブジェクトの存在する領域を検出して出力する。また、オブジェクト領域検出部130bが、小オブジェクト算出部122から出力された小オブジェクト画像を入力し、小オブジェクトの存在する領域を検出して出力する。
具体的には、オブジェクト領域検出部130a、130bは、各座標の画素値を予め定められた閾値と比較し、閾値より値が小さい場合に画素値をtrue、それ以外の場合に画素値をfalseとしたマスク画像を出力する。以下では、動オブジェクト画像に対して出力されたマスク画像を動オブジェクトマスク、小オブジェクト画像に対して出力されたマスク画像を小オブジェクトマスクという。
なお、オブジェクト領域検出部130a、130bは、入力される画像および予め定められる閾値が異なるが、処理内容は同じである。閾値は、入力される画像が動オブジェクト画像であるか、小オブジェクト画像であるかに応じて適切な値を設定する。
一般に、オブジェクト領域検出部130a、130bにおけるこのような処理は、領域検出または二値化などと呼ばれる。オブジェクト領域検出部130a、130bにおける領域検出処理は、例えば、Til Aach, Andre Kaup and Rudolf Mester, "Statistical model-based change detection in moving video," Signal Processing 31(2): 165-180,1993、に記載の領域検出処理などの、一般的に用いられているあらゆる領域検出または二値化などの処理を用いて行うことができる。
オブジェクト領域検出部130a、130bは、領域検出処理の前処理として、入力された画像に対するノイズ低減処理を施してもよい。ノイズ低減処理は、例えば、MEDIANフィルター、ガウシアンフィルター、SUSAN Structure Preserving Noise Reduction(S.M. Smith and J.M. Brady, "SUSAN - a new approach to low level image processing," International Journal of Computer Vision, 23(1), pp. 45-78, May 1997)などの一般的に用いられているあらゆる方法を適用することができる。
マスク合成部140は、各座標において、オブジェクト領域検出部130aから出力された動オブジェクトマスクの画素値と、オブジェクト領域検出部130bから出力された小オブジェクトマスクの画素値の論理積を算出し、その値を当該座標の画素値とする動小オブジェクトマスクを出力するものである。ここで、動小オブジェクトマスクとは、動小オブジェクトを含む領域のマスク画像をいう。
動オブジェクトマスクは入力画像中の動作しているオブジェクトの存在する領域を示しており、小オブジェクトマスクは入力画像中の小さいオブジェクトの存在する領域を示している。したがって、これらのマスクの論理積をとることにより算出された動小オブジェクトマスクの示す領域は、入力画像中の動作している小さいオブジェクトの存在する領域を表している。すなわち、この領域にはガイドワイアやカテーテル等の陰影が含まれる。
オブジェクト領域処理部150は、小オブジェクト算出部122が出力した小オブジェクト画像と、マスク合成部140が出力した動小オブジェクトマスクとを入力し、動小オブジェクトマスクにおいて画素値がtrueの座標に対応する小オブジェクト画像の座標の画素値に対して強調処理を行うものである。
具体的には、動小オブジェクトマスクにおいて画素値がtrueの座標に対応する小オブジェクト画像の座標の画素値と、予め定められた強調ゲインeとを乗算した値を、当該座標の画素値として出力する。
ゲインeは定数としてもよいし、ゲイン入力部を設けて外部から入力できるようにしてもよい。また、ゲインeは一フレーム内で一定とは限らず、オブジェクト領域処理部150へ入力された画像の画素値を入力値とするシグモイド関数やその他の関数もしくはルックアップテーブルの出力値をゲインeとするように構成してもよい。
また、オブジェクト領域処理部150では、このような処理の前処理として、オブジェクト領域処理部150へ入力された画像に対してノイズ低減処理を施してもよい。ノイズ低減処理においては、MEDIANフィルター、ガウシアンフィルター、SUSAN Structure Preserving Noise Reduction等の一般的に用いられているあらゆる方法を適用することができる。
なお、オブジェクト領域処理部150における画像強調処理を行わず、ノイズ低減処理のみを実行するように構成してもよい。このような構成においても、大オブジェクト画像と小オブジェクト画像に対してそれぞれ別のノイズ低減処理を実行することができるため、それぞれの領域に適した視認性の改善処理を施すことが可能となる。
合成部160は、オブジェクト領域処理部150が出力する画像と大オブジェクト算出部121が出力した大オブジェクト画像との画素値を各座標において加算した画像を出力するものである。これにより、大オブジェクトと小オブジェクトとを分離し、それぞれについて適切なノイズ低減処理または画像強調処理などの視認性向上処理を行った画像が出力される。
次に、このように構成された第1の実施の形態にかかる放射線透視画像処理装置100による放射線透視画像処理について説明する。図5は、第1の実施の形態における放射線透視画像処理の全体の流れを示すフローチャートである。
最初に、大・小オブジェクト分離部120を構成する周辺最大値算出部121a、周辺最小値算出部121b、小オブジェクト算出部122によって、入力された透視画像(入力画像)から大オブジェクトと小オブジェクトとを分離する処理が行われる(ステップS501〜ステップS503)。
まず、周辺最大値算出部121aが、入力画像の各座標の周辺の予め定められた範囲内に存在する画素の画素値の最大値を画素値とした画像を出力する(ステップS501)。これにより、予め定められた範囲内に両縁部が含まれない大オブジェクトのエッジが削られた縮小オブジェクトが出力される。また、この処理において、予め定められた範囲内に両縁部が含まれる小オブジェクトが削除される。
次に、周辺最小値算出部121bが、周辺最大値算出部121aにより出力された画像の各座標の周辺の予め定められた範囲内に存在する画素の画素値の最小値を画素値とした大オブジェクト画像を出力する(ステップS502)。これにより、縮小オブジェクトのエッジを拡大した大オブジェクトが出力される。なお、小オブジェクトはステップS501において完全に削除されているため、この処理においてエッジが拡大されることはない。
続いて、小オブジェクト算出部122が、入力画像から大オブジェクト画像を減算した小オブジェクト画像を算出して出力する(ステップS503)。これにより、入力画像から、大オブジェクトを除いた小オブジェクトのみを含む画像が出力される。
次に、動・静止オブジェクト分離部110を構成する静止オブジェクト算出部111、動オブジェクト算出部113によって、入力画像から静止オブジェクトと動オブジェクトとを分離する処理が行われる(ステップS504〜ステップS505)。なお、大・小オブジェクト分離部120による処理と動・静止オブジェクト分離部110による処理は互いに独立しているため、動・静止オブジェクト分離部110による処理を先に実行してもよいし、両処理を並行して実行するように構成してもよい。
まず、静止オブジェクト算出部111が、入力画像から静止オブジェクトのみを含む画像である静止オブジェクト画像を算出して出力する静止オブジェクト算出処理を実行する(ステップS504)。静止オブジェクト算出処理の詳細については後述する。
次に、動オブジェクト算出部113が、入力画像から静止オブジェクト画像を減算した動オブジェクト画像を算出し出力する(ステップS505)。
次に、オブジェクト領域検出部130bが、小オブジェクト算出部122により出力された小オブジェクト画像からオブジェクト領域を検出し、小オブジェクトマスクを出力する(ステップS506)。
同様に、オブジェクト領域検出部130aは、動オブジェクト算出部113により出力された動オブジェクト画像からオブジェクト領域を検出し、動オブジェクトマスクを出力する(ステップS507)。
次に、マスク合成部140が、小オブジェクトマスクと動オブジェクトマスクとを合成した動小オブジェクトマスクを合成して出力する(ステップS508)。
続いて、オブジェクト領域処理部150が、動小オブジェクトマスク部分の画素に対して画像強調処理を実行する(ステップS509)。具体的には、オブジェクト領域処理部150は、小オブジェクト算出部122が出力した小オブジェクト画像と、マスク合成部140が出力した動小オブジェクトマスクとを入力し、小オブジェクト画像の各座標について、動小オブジェクトマスクの画素値がtrueの場合は、当該座標の画素値に対して強調ゲインeを乗算する。
次に、合成部160が、大オブジェクト算出部121が出力した大オブジェクト画像と、オブジェクト領域処理部150による画像強調処理後の画像を合成して出力し(ステップS510)、放射線透視画像処理を終了する。
このように、第1の実施の形態においては、入力画像から大オブジェクトおよび小オブジェクトを分離し、同時に静止オブジェクトおよび動オブジェクトを分離して、小オブジェクトと動オブジェクトとから動小オブジェクトを抽出し、動小オブジェクトに対して画像強調処理を行うことにより、動作している小さな物体の視認性を向上させることができる。また、分離して算出した大オブジェクトに対してノイズ低減処理を実施することも可能であり、これにより、大オブジェクトの視認性が向上するとともに、ノイズが低減された大オブジェクトを前提として行われる小オブジェクトの算出処理等の精度を向上させることができる。
次に、ステップS504における静止オブジェクト算出処理の詳細について説明する。図6は、静止オブジェクト算出処理の全体の流れを示すフローチャートである。
同図において、I_nは動・静止オブジェクト分離部110へ入力された画像上の任意の座標の画素値、S_{n−1}はフレームメモリ112から入力された画像上の対応する座標の画素値、S_{n}は静止オブジェクト算出部111が出力する静止オブジェクト画像上の対応する座標の画素値を表す。一つのフレームに対する静止オブジェクト算出部111の動作として、そのフレーム内の全ての画素に対して図の動作が行われる。
まず、静止オブジェクト算出部111は、I_nからS_{n−1}を減算した値が予め定められた閾値1より小さいか否かを判断する(ステップS601)。I_nからS_{n−1}を減算した値が閾値1より小さい場合には(ステップS601:YES)、出力する静止オブジェクト画像の画素値S_{n}にS_{n−1}を設定し(ステップS602)、その画素に対する処理を終了する。
ここで、本実施の形態では閾値1に負の値を設定する。したがって、I_nからS_{n−1}を減算した値が予め定められた負の値である閾値1より小さいということは、I_nの値がS_{n−1}の値より小さいことを意味する。一方、上述のように、透視画像の場合にはオブジェクトの存在する領域の画素値は、オブジェクトが存在しない領域の画素値に比べて小さくなるため、I_nの値が小さいことは、I_nがオブジェクト上の画素値であるとみなすことができることを意味する。
さらに、前のフレームの静止オブジェクト画像の画素値S_{n−1}よりI_nの値が小さくなるということは、I_nが存在するオブジェクトは動オブジェクトであるとみなすことができることを意味する。すなわち、I_nは動オブジェクト上の画素値であるとみなすことができる。
したがって、ステップS602においては、出力する静止オブジェクト画像の画素値として、I_nを設定せず、前のフレームと同一の値であるS_{n−1}を設定する。
ステップS601において、I_nからS_{n−1}を減算した値が閾値1より小さくない場合には(ステップS601:NO)、静止オブジェクト算出部111は、I_nからS_{n−1}を減算した値が予め定められた閾値2より大きいか否かを判断する(ステップS603)。
I_nからS_{n−1}を減算した値が予め定められた閾値2より大きい場合には(ステップS603:YES)、出力する静止オブジェクト画像の画素値S_{n}にI_nを設定し(ステップS604)、その画素に対する処理を終了する。
ここで、本実施の形態では閾値2に正の値を設定する。I_nからS_{n−1}を減算した値が予め定められた正の値である閾値2より大きいということは、S_{n−1}は前のフレームにおける動オブジェクト上の画素値であり、現在のフレームにおいてその動オブジェクトが移動して存在しなくなった状態であるとみなすことができる。
したがって、ステップS604においては、出力する静止オブジェクト画像の画素値として、現在のフレームの入力画像の画素値であるI_nを設定する。
ステップS603において、I_nからS_{n−1}を減算した値が閾値2より大きくない場合には(ステップS603:NO)、静止オブジェクト算出部111は、I_nとS_{n−1}とを重み付け係数Kにより加重平均した値を、静止オブジェクト画像の画素値S_nとして設定し(ステップS605)、その画素に対する処理を終了する。
この場合には、I_n、S_{n−1}はどちらも動オブジェクト上の画素値でないとみなせるからである。I_nとS_{n−1}との加重平均の際に用いられる値Kは現在値に対する重みである。
このようにして、動・静止オブジェクト分離部110では、静止オブジェクト算出部111で過去の演算結果である静止オブジェクト画像と現在の入力画像とを比較することにより、動・静止オブジェクト分離部110への入力画像中の静止しているオブジェクトの画像を再起的に算出することができる。
次に、ステップS506およびステップS507に示したオブジェクト領域検出処理の詳細について説明する。図7は、オブジェクト領域検出処理の全体の流れを示すフローチャートである。
同図において、I_nはオブジェクト領域検出部130aまたは130bへの入力画像上の任意の座標の画素値、M_nはオブジェクト領域検出部130aまたは130bが出力する出力マスク画像上の対応する座標の画素値を表す。出力マスクは各座標においてtrueまたはfalseのいずれかの画素値をとるものとする。一つのフレームに対するオブジェクト領域検出部130aまたは130bの動作として、そのフレーム内の全ての画素に対して図の動作が行われる。
まず、オブジェクト領域検出部130aまたは130bは、I_nが予め定められた閾値より小さいか否かを判断する(ステップS701)。I_nが閾値より小さい場合には(ステップS701:YES)、I_nはオブジェクトの領域内に存在するとみなせるので、出力マスク画像の画素値M_nにtrueを設定し(ステップS702)、その画素に対する処理を終了する。
I_nが閾値より小さくない場合には(ステップS701:NO)、I_nはオブジェクトの領域外の画素値であるとみなせるので、出力マスク画像の画素値M_nにfalseを設定し(ステップS703)、その画素に対する処理を終了する。
次に、ステップS509に示した画像強調処理の詳細について説明する。図8は、画像強調処理の全体の流れを示すフローチャートである。
同図において、I_nはオブジェクト領域処理部150への入力画像上の任意の座標の画素値、M_nは入力マスクの対応する座標のマスク値、O_nはオブジェクト領域処理部150が出力する画像の対応する座標の画素値である。一つのフレームに対するオブジェクト領域処理部150の動作として、そのフレーム内の全ての画素に対して図の動作が行われる。
まず、オブジェクト領域処理部150は、M_nがtrueであるか否かを判断する(ステップS801)。M_nがtrueである場合には(ステップS801:YES)、I_nに強調ゲインeを乗算した値をO_nに設定し(ステップS802)、その画素に対する処理を終了する。M_nがfalseである場合には(ステップS801:NO)、I_nをO_nに設定し(ステップS803)、その画素に対する処理を終了する。
このようなオブジェクト領域処理部150の処理により、動小オブジェクトが存在する領域に対してのみ、画像の強調を実行することが可能となる。
このように、第1の実施の形態にかかる放射線透視画像処理装置100では、透視画像から大きな物体の存在する領域と小さな物体の存在する領域とを分離することができるため、それぞれの領域に適した視認性の改善処理を施すことができる。特に、動作している小さな物体を分離し視認性改善処理を施すことができるため、放射線診断装置において表示される透視画像中の小さな医療器具などの動作する小さな物体を明確に確認することが可能となる。
(第2の実施の形態)
第1の実施の形態では、動オブジェクトと静止オブジェクトの分離処理と、大オブジェクトと小オブジェクトの分離処理とを平行して実施し、動オブジェクトと小オブジェクトとを合成して算出した動小オブジェクトに対して視認性改善処理を行っている。しかし、この方法によると、動作している大オブジェクトと、静止している小オブジェクトが重なっている領域が存在する場合に、当該領域を誤って動小オブジェクトとして抽出する場合が生じうる。動オブジェクトと小オブジェクトとを単純に合成して動小オブジェクトを算出しているためである。
そこで、第2の実施の形態にかかる放射線透視画像処理装置は、先に大オブジェクトと小オブジェクトとを分離し、分離した小オブジェクトに対して、動オブジェクトと静止オブジェクトとの分離処理を実行する。そして、このようにして分離された動小オブジェクト(小オブジェクトから分離した動オブジェクト)に対して視認性改善処理を行うものである。
図9は、第2の実施の形態にかかる放射線透視画像処理装置900の構成を示すブロック図である。同図に示すように、放射線透視画像処理装置900は、動・静止オブジェクト分離部910と、大・小オブジェクト分離部120と、オブジェクト領域検出部930と、オブジェクト領域処理部950と、合成部960とを備えている。
第2の実施の形態においては、静止オブジェクト算出部911、動オブジェクト算出部913、オブジェクト領域検出部930、オブジェクト領域処理部950および合成部960に対する入力する画像が第1の実施の形態と異なっている。また、マスク合成部140が削除された点が、第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる放射線透視画像処理装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
第1の実施の形態にかかる静止オブジェクト算出部111が、現在のフレームにおいて入力された透視画像を入力するのに対し、第2の実施の形態にかかる静止オブジェクト算出部911は、小オブジェクト算出部122が出力した小オブジェクト画像を入力する点が異なっている。それ以外の静止オブジェクト算出処理自体は、第1の実施の形態と同様である。
静止オブジェクト算出部911は、小オブジェクト画像中の静止しているオブジェクトのみを含む画像を出力するため、以下では、静止オブジェクト算出部911が出力した画像を静止小オブジェクト画像と呼ぶ。
動オブジェクト算出部913も、静止オブジェクト算出部911と同様に、入力する画像を小オブジェクト算出部122が出力した小オブジェクト画像とする点が、第1の実施の形態にかかる動オブジェクト算出部113と異なっている。それ以外の動オブジェクト算出処理自体は、第1の実施の形態と同様であるのでその説明を省略する。
このように処理の対象となる画像を変更することにより、第2の実施の形態においては、大・小オブジェクト分離部120により分離され出力された小オブジェクトに対してのみ、動・静止オブジェクトの分離処理を実施することができる。
動オブジェクト算出部913は、小オブジェクト画像中の動作しているオブジェクトのみを含む画像を出力するため、以下では、動オブジェクト算出部913が出力した画像を動小オブジェクト画像と呼ぶ。
オブジェクト領域検出部930は、動オブジェクト算出部913が出力した動小オブジェクト画像を入力する点が、第1の実施の形態にかかるオブジェクト領域検出部130aおよび130bと異なっている。それ以外のオブジェクト領域検出処理自体は、第1の実施の形態と同様であるのでその説明を省略する。
オブジェクト領域処理部950は、動オブジェクト算出部913が出力した動小オブジェクト画像と、オブジェクト領域検出部930が出力した動小オブジェクトマスクとを入力し、動小オブジェクトマスクにおいて画素値がtrueの座標に対応する動小オブジェクト画像の座標の画素値に対して強調処理を行うものである。
合成部960は、オブジェクト領域処理部950が出力する画像と、大オブジェクト算出部121が出力した大オブジェクト画像と、静止オブジェクト算出部911が出力した静止オブジェクト画像の画素値を各座標において加算した画像を出力するものである。
次に、このように構成された第2の実施の形態にかかる放射線透視画像処理装置900による放射線透視画像処理について説明する。図10は、第2の実施の形態における放射線透視画像処理の全体の流れを示すフローチャートである。
ステップS1001からステップS1003までの、大小オブジェクト分離処理は、第1の実施の形態にかかる放射線透視画像処理装置100におけるステップS501からステップS503までと同様の処理なので、その説明を省略する。
ステップS1004の静止オブジェクト算出処理においては、上述したように、入力する画像が、本装置に対して入力された透視画像ではなく、小オブジェクト算出部122から出力された小オブジェクト画像となる点が、第1の実施の形態にかかるステップS504の静止オブジェクト算出処理と異なっている。それ以外の処理内容は同様であるため、その説明を省略する。
静止オブジェクト算出処理の後、動オブジェクト算出部913が、小オブジェクト画像から静止オブジェクト画像を減算した動小オブジェクト画像を算出し出力する(ステップS1005)。
次に、オブジェクト領域検出部930が、動オブジェクト算出部913により出力された動小オブジェクト画像からオブジェクト領域を検出し、動小オブジェクトマスクを出力する(ステップS1006)。
続いて、オブジェクト領域処理部950が、動小オブジェクトマスク部分の画素に対して画像強調処理を実行する(ステップS1007)。
最後に、合成部960が、大オブジェクト算出部121が出力した大オブジェクト画像と、静止オブジェクト算出部911が出力した静止小オブジェクト画像と、オブジェクト領域処理部950による画像強調処理後の画像を合成して出力し(ステップS1008)、放射線透視画像処理を終了する。
このように、第2の実施の形態にかかる放射線透視画像処理装置900では、先に大オブジェクトと小オブジェクトとを分離し、分離した小オブジェクトから動作しているオブジェクトを分離することができるため、動作している大オブジェクトと静止している小オブジェクトとが重なっている領域を誤って動小オブジェクトの存在する領域として検出する不都合を回避することが可能となる。
なお、第1または第2の実施の形態にかかる放射線透視画像処理装置で実行される放射線透視画像処理プログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。
第1または第2の実施の形態にかかる放射線透視画像処理装置で実行される放射線透視画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、第1または第2の実施の形態にかかる放射線透視画像処理装置で実行される放射線透視画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施の形態にかかる放射線透視画像処理装置で実行される放射線透視画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施の形態にかかる放射線透視画像処理装置で実行される放射線透視画像処理プログラムは、上述した各部(動オブジェクト算出部、静止オブジェクト算出部、大オブジェクト算出部、小オブジェクト算出部、オブジェクト領域検出部、マスク合成部、オブジェクト領域処理部、合成部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMから放射線透視画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかる放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラムは、撮影する物体の大きさによって異なる視認性改善処理またはノイズ低減処理を行う放射線透視画像処理装置に適している。
第1の実施の形態にかかる放射線透視画像処理装置の構成を示すブロック図である。 大・小オブジェクト分離部の詳細な構成を示すブロック図である。 大オブジェクト算出部の構成を示すブロック図である。 大オブジェクト算出部の構成を示すブロック図である。 第1の実施の形態における放射線透視画像処理の全体の流れを示すフローチャートである。 静止オブジェクト算出処理の全体の流れを示すフローチャートである。 オブジェクト領域検出処理の全体の流れを示すフローチャートである。 画像強調処理の全体の流れを示すフローチャートである。 第2の実施の形態にかかる放射線透視画像処理装置の構成を示すブロック図である。 第2の実施の形態における放射線透視画像処理の全体の流れを示すフローチャートである。
符号の説明
10 放射線源
20 撮像装置
100 放射線透視画像処理装置
110 動・静止オブジェクト分離部
111 静止オブジェクト算出部
112 フレームメモリ
113 動オブジェクト算出部
120 大・小オブジェクト分離部
121 大オブジェクト算出部
121a 周辺最大値算出部
121b 周辺最小値算出部
122 小オブジェクト算出部
130a、130b オブジェクト領域検出部
140 マスク合成部
150 オブジェクト領域処理部
160 合成部
201 入力画像
201a 大オブジェクト
201b 小オブジェクト
202 中間画像
202a 大オブジェクト
203 大オブジェクト画像
203a 大オブジェクト
204 小オブジェクト画像
204b 小オブジェクト
301a、301b スケール設定部
321 大オブジェクト算出部
421 大オブジェクト算出部
421c 補正部
421d 補正値算出部
900 放射線透視画像処理装置
910 動・静止オブジェクト分離部
911 静止オブジェクト算出部
913 動オブジェクト算出部
930 オブジェクト領域検出部
950 オブジェクト領域処理部
960 合成部

Claims (19)

  1. 放射線により透視撮影された動画像に含まれる任意のフレームの透視画像の各画素について、前記透視画像の前記各画素を含む第1の大きさの範囲内での画素値の最大値を求め、該最大値を前記透視画像の前記各画素に対応する画素の画素値として有する中間画像を生成する周辺最大値算出部と、
    前記中間画像の各画素について、前記中間画像の前記各画素を含む第2の大きさの範囲内での画素値の最小値を求め、該最小値を前記中間画像の前記各画素に対応する画素の画素値として有する大オブジェクト画像を生成する周辺最小値算出部と、
    前記透視画像の前記各画素の画素値と前記透視画像の前記各画素に対応する前記大オブジェクト画像の画素の画素値との差分を求め、該差分を各画素の画素値として有する小オブジェクト画像を生成する小オブジェクト算出部と、
    を備える放射線透視画像処理装置。
  2. 前記動画像に含まれる任意のフレームの前のフレームにおける静止オブジェクト画像を記憶する画像記憶部と、
    前記任意のフレームにおける透視画像と前記前のフレームにおける静止オブジェクト画像とを用いて、前記任意のフレームにおける前記透視画像から静止オブジェクトを抽出し、前記任意のフレームにおける静止オブジェクト画像を出力し、前記画像記憶部に記憶する静止オブジェクト算出部と、
    前記任意のフレームにおける透視画像内の各座標について、前記座標の各画素値と、前記静止オブジェクト算出部が出力した静止オブジェクト画像内の対応する座標の画素値との差分を算出し、該差分を前記座標の画素値とすることにより、静止オブジェクト以外の動オブジェクトを含む画像である動オブジェクト画像を出力する動オブジェクト算出部と、
    前記小オブジェクト画像と、前記動オブジェクト画像とを合成して、前記動オブジェクトかつ小オブジェクトである動小オブジェクトを含む画像である動小オブジェクト画像を算出するマスク合成部と、
    前記マスク合成部が算出した前記動小オブジェクト画像に含まれる前記動小オブジェクトに対して画像強調処理を行うオブジェクト領域処理部と、
    をさらに備えたことを特徴とする請求項1に記載の放射線透視画像処理装置。
  3. 前記動画像に含まれる任意のフレームの前のフレームにおいて前記小オブジェクト算出部が出力した前記小オブジェクト画像から、小オブジェクトのうち静止しているオブジェクトである静止小オブジェクトを抽出した画像である静止小オブジェクト画像を記憶する画像記憶部と、
    前記任意のフレームにおいて前記小オブジェクト算出部が出力した前記小オブジェクト画像と、前記画像記憶部に記憶された前記静止小オブジェクト画像とに基づき、前記任意のフレームにおける前記静止小オブジェクト画像を出力し、前記画像記憶部に記憶する静止オブジェクト算出部と、
    前記任意のフレームにおいて前記小オブジェクト算出部が出力した前記小オブジェクト画像内の各座標について、前記座標の各画素値と、前記静止オブジェクト算出部が出力した前記静止小オブジェクト画像内の対応する座標の画素値との差分を算出し、該差分を前記座標の画素値とすることにより、前記静止小オブジェクト以外のオブジェクトである動小オブジェクトを含む画像である動小オブジェクト画像を出力する動オブジェクト算出部と、
    前記動オブジェクト算出部が出力した前記動小オブジェクト画像に含まれる前記動小オブジェクトに対して画像強調処理を行うオブジェクト領域処理部と、
    をさらに備えたことを特徴とする請求項1に記載の放射線透視画像処理装置。
  4. 数値の入力を受付け、受付けた値を前記周辺最大値算出部または/および前記周辺最小値算出部で参照する前記第1の大きさの範囲または/および前記第2の大きさの範囲として設定するスケール設定部をさらに備えたことを特徴とする請求項1に記載の放射線透視画像処理装置。
  5. 前記周辺最小値算出部が出力する前記大オブジェクト画像に含まれる誤差を補正する補正部をさらに備えたことを特徴とする請求項1に記載の放射線透視画像処理装置。
  6. 前記補正部は、入力された画像の各画素値に対する補正値の算出に使用するパラメタを格納したルックアップテーブルを参照して、入力された画像の画素値に対する補正値を算出し、該補正値で前記大オブジェクト画像に含まれる誤差を補正することを特徴とする請求項5に記載の放射線透視画像処理装置。
  7. 前記補正部は、予め定められた関数に基づき入力された画像の各画素値の補正値を算出し、該補正値で前記大オブジェクト画像に含まれる誤差を補正することを特徴とする請求項5に記載の放射線透視画像処理装置。
  8. 放射線により透視撮影された動画像に含まれる任意のフレームの透視画像の各画素について、前記透視画像の前記各画素を含む第1の大きさの範囲内での画素値の最大値を求め、該最大値を前記透視画像の前記各画素に対応する画素の画素値として有する中間画像を生成する周辺最大値算出ステップと、
    前記中間画像の各画素について、前記中間画像の前記各画素を含む第2の大きさの範囲内での画素値の最小値を求め、該最小値を前記中間画像の前記各画素に対応する画素の画素値として有する大オブジェクト画像を生成する周辺最小値算出ステップと、
    前記透視画像の前記各画素の画素値と前記透視画像の前記各画素に対応する前記大オブジェクト画像の画素の画素値との差分を求め、該差分を各画素の画素値として有する小オブジェクト画像を生成する小オブジェクト算出ステップと、
    を備えたことを特徴とする放射線透視画像処理方法。
  9. 前記動画像に含まれる任意のフレームにおける透視画像と前記任意のフレームの前のフレームにおける静止オブジェクト画像とを用いて、前記任意のフレームにおける前記透視画像から静止オブジェクトを抽出し、前記任意のフレームにおける静止オブジェクト画像を出力し、画像記憶部に記憶する静止オブジェクト算出ステップと、
    前記任意のフレームにおける透視画像内の各座標について、前記座標の各画素値と、前記静止オブジェクト算出ステップが出力した静止オブジェクト画像内の対応する座標の画素値との差分を算出し、該差分を前記座標の画素値とすることにより、静止オブジェクト以外の動オブジェクトを含む画像である動オブジェクト画像を出力する動オブジェクト算出ステップと、
    前記小オブジェクト画像と、前記動オブジェクト画像とを合成して、前記動オブジェクトかつ小オブジェクトである動小オブジェクトを含む画像である動小オブジェクト画像を算出するマスク合成ステップと、
    前記マスク合成ステップが算出した前記動小オブジェクト画像に含まれる前記動小オブジェクトに対して画像強調処理を行うオブジェクト領域処理ステップと、
    をさらに備えたことを特徴とする請求項8に記載の放射線透視画像処理方法。
  10. 前記動画像に含まれる任意のフレームにおいて前記小オブジェクト算出ステップが出力した前記小オブジェクト画像と、前記任意のフレームの前のフレームにおいて前記小オブジェクト算出ステップが出力した前記小オブジェクト画像から、小オブジェクトのうち静止しているオブジェクトである静止小オブジェクトを抽出した画像である静止小オブジェクト画像を記憶する画像記憶部に記憶された前記静止小オブジェクト画像とに基づき、前記任意のフレームにおける前記静止小オブジェクト画像を出力し、前記画像記憶部に記憶する静止オブジェクト算出ステップと、
    前記任意のフレームにおいて前記小オブジェクト算出ステップが出力した前記小オブジェクト画像内の各座標について、前記座標の各画素値と、前記静止オブジェクト算出ステップが出力した前記静止小オブジェクト画像内の対応する座標の画素値との差分を算出し、該差分を前記座標の画素値とすることにより、前記静止小オブジェクト以外のオブジェクトである動小オブジェクトを含む画像である動小オブジェクト画像を出力する動オブジェクト算出ステップと、
    前記動オブジェクト算出ステップが出力した前記動小オブジェクト画像に含まれる前記動小オブジェクトに対して画像強調処理を行うオブジェクト領域処理ステップと、
    をさらに備えたことを特徴とする請求項8に記載の放射線透視画像処理方法。
  11. 数値の入力を受付け、受付けた値を前記周辺最大値算出ステップまたは/および前記周辺最小値算出ステップで参照する前記第1の大きさの範囲または/および前記第2の大きさの範囲として設定するスケール設定ステップをさらに備えたことを特徴とする請求項8に記載の放射線透視画像処理方法。
  12. 前記周辺最小値算出ステップが出力する前記大オブジェクト画像に含まれる誤差を補正する補正ステップをさらに備えたことを特徴とする請求項8に記載の放射線透視画像処理方法。
  13. 前記補正ステップは、入力された画像の各画素値に対する補正値の算出に使用するパラメタを格納したルックアップテーブルを参照して、入力された画像の画素値に対する補正値を算出し、該補正値で前記大オブジェクト画像に含まれる誤差を補正することを特徴とする請求項12に記載の放射線透視画像処理方法。
  14. 前記補正ステップは、予め定められた関数に基づき入力された画像の各画素値の補正値を算出し、該補正値で前記大オブジェクト画像に含まれる誤差を補正することを特徴とする請求項12に記載の放射線透視画像処理方法。
  15. 放射線により透視撮影された動画像に含まれる任意のフレームの透視画像の各画素について、前記透視画像の前記各画素を含む第1の大きさの範囲内での画素値の最大値を求め、該最大値を前記透視画像の前記各画素に対応する画素の画素値として有する中間画像を生成する周辺最大値算出手順と、
    前記中間画像の各画素について、前記中間画像の前記各画素を含む第2の大きさの範囲内での画素値の最小値を求め、該最小値を前記中間画像の前記各画素に対応する画素の画素値として有する大オブジェクト画像を生成する周辺最小値算出手順と、
    前記透視画像の前記各画素の画素値と前記透視画像の前記各画素に対応する前記大オブジェクト画像の画素の画素値との差分を求め、該差分を各画素の画素値として有する小オブジェクト画像を生成する小オブジェクト算出手順と、
    をコンピュータに実行させる放射線透視画像処理プログラム。
  16. 前記動画像に含まれる任意のフレームにおける透視画像と前記任意のフレームの前のフレームにおける静止オブジェクト画像とを用いて、前記任意のフレームにおける前記透視画像から静止オブジェクトを抽出し、前記任意のフレームにおける静止オブジェクト画像を出力し、画像記憶部に記憶する静止オブジェクト算出手順と、
    前記任意のフレームにおける透視画像内の各座標について、前記座標の各画素値と、前記静止オブジェクト算出手順が出力した静止オブジェクト画像内の対応する座標の画素値との差分を算出し、該差分を前記座標の画素値とすることにより、静止オブジェクト以外の動オブジェクトを含む画像である動オブジェクト画像を出力する動オブジェクト算出手順と、
    前記小オブジェクト画像と、前記動オブジェクト画像とを合成して、前記動オブジェクトかつ小オブジェクトである動小オブジェクトを含む画像である動小オブジェクト画像を算出するマスク合成手順と、
    前記マスク合成手順が算出した前記動小オブジェクト画像に含まれる前記動小オブジェクトに対して画像強調処理を行うオブジェクト領域処理手順と、
    をさらに備えたことを特徴とする請求項15に記載の放射線透視画像処理プログラム。
  17. 前記動画像に含まれる任意のフレームにおいて前記小オブジェクト算出手順が出力した前記小オブジェクト画像と、前記任意のフレームの前のフレームにおいて前記小オブジェクト算出手順が出力した前記小オブジェクト画像から、小オブジェクトのうち静止しているオブジェクトである静止小オブジェクトを抽出した画像である静止小オブジェクト画像を記憶する画像記憶部に記憶された前記静止小オブジェクト画像とに基づき、前記任意のフレームにおける前記静止小オブジェクト画像を出力し、前記画像記憶部に記憶する静止オブジェクト算出手順と、
    前記任意のフレームにおいて前記小オブジェクト算出手順が出力した前記小オブジェクト画像内の各座標について、前記座標の各画素値と、前記静止オブジェクト算出手順が出力した前記静止小オブジェクト画像内の対応する座標の画素値との差分を算出し、該差分を前記座標の画素値とすることにより、前記静止小オブジェクト以外のオブジェクトである動小オブジェクトを含む画像である動小オブジェクト画像を出力する動オブジェクト算出手順と、
    前記動オブジェクト算出手順が出力した前記動小オブジェクト画像に含まれる前記動小オブジェクトに対して画像強調処理を行うオブジェクト領域処理手順と、
    をさらに備えたことを特徴とする請求項15に記載の放射線透視画像処理プログラム。
  18. 数値の入力を受付け、受付けた値を前記周辺最大値算出手順または/および前記周辺最小値算出手順で参照する前記第1の大きさの範囲または/および前記第2の大きさの範囲として設定するスケール設定手順をさらに備えたことを特徴とする請求項15に記載の放射線透視画像処理プログラム。
  19. 前記周辺最小値算出手順が出力する前記大オブジェクト画像に含まれる誤差を補正する補正手順をさらに備えたことを特徴とする請求項15に記載の放射線透視画像処理プログラム。
JP2005281980A 2005-09-28 2005-09-28 放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム Pending JP2007089763A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005281980A JP2007089763A (ja) 2005-09-28 2005-09-28 放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム
US11/378,232 US20070071296A1 (en) 2005-09-28 2006-03-20 Radiographic image processing apparatus for processing radiographic image taken with radiation, method of radiographic image processing, and computer program product therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005281980A JP2007089763A (ja) 2005-09-28 2005-09-28 放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2007089763A true JP2007089763A (ja) 2007-04-12

Family

ID=37894012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005281980A Pending JP2007089763A (ja) 2005-09-28 2005-09-28 放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム

Country Status (2)

Country Link
US (1) US20070071296A1 (ja)
JP (1) JP2007089763A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009119133A (ja) * 2007-11-16 2009-06-04 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2012505006A (ja) * 2008-10-13 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ デバイスと組織の複合ブースティング

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009022288A2 (en) * 2007-08-16 2009-02-19 Koninklijke Philips Electronics N. V. Detecting and darkening method of objects in grey-scale raster images
EP2051208A3 (en) * 2007-10-17 2017-05-24 Sony Interactive Entertainment Inc. Generating an asset for interactive entertainment using digital image capture
US9294755B2 (en) 2010-10-20 2016-03-22 Raytheon Company Correcting frame-to-frame image changes due to motion for three dimensional (3-D) persistent observations
US8923401B2 (en) 2011-05-31 2014-12-30 Raytheon Company Hybrid motion image compression
JP5954762B2 (ja) * 2011-11-29 2016-07-20 東芝メディカルシステムズ株式会社 X線画像診断装置
US9230333B2 (en) * 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
CN104732558B (zh) * 2013-12-20 2017-10-27 环达电脑(上海)有限公司 运动目标检测装置
US10341565B2 (en) 2016-05-10 2019-07-02 Raytheon Company Self correcting adaptive low light optical payload

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071595A1 (en) * 2004-01-15 2005-08-04 Philips Intellectual Property & Standards Gmbh Automatic contrast medium control in images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69322444T2 (de) * 1992-07-10 1999-06-24 Koninklijke Philips Electronics N.V., Eindhoven Röntgendurchleuchtungsgerät mit Mitteln zur Rauschreduktion
US5483351A (en) * 1992-09-25 1996-01-09 Xerox Corporation Dilation of images without resolution conversion to compensate for printer characteristics
JP3123587B2 (ja) * 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
US6919973B1 (en) * 1999-07-27 2005-07-19 Xerox Corporation Auxiliary pixel patterns for improving print quality
US6993187B2 (en) * 2003-02-14 2006-01-31 Ikonisys, Inc. Method and system for object recognition using fractal maps

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071595A1 (en) * 2004-01-15 2005-08-04 Philips Intellectual Property & Standards Gmbh Automatic contrast medium control in images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009119133A (ja) * 2007-11-16 2009-06-04 Canon Inc 画像処理装置、画像処理方法及びプログラム
US8428329B2 (en) 2007-11-16 2013-04-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer-readable medium
JP2012505006A (ja) * 2008-10-13 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ デバイスと組織の複合ブースティング

Also Published As

Publication number Publication date
US20070071296A1 (en) 2007-03-29

Similar Documents

Publication Publication Date Title
JP2007089763A (ja) 放射線透視画像処理装置、放射線透視画像処理方法および放射線透視画像処理プログラム
US10672108B2 (en) Image processing apparatus, image processing method, and image processing program
US9311695B2 (en) Image processing method and radiographic apparatus using the same
KR101493375B1 (ko) 화상처리장치, 화상처리방법, 및 컴퓨터 판독가능한 기억매체
US6760401B2 (en) Apparatus and method for processing of digital images
US9922409B2 (en) Edge emphasis in processing images based on radiation images
JP3865821B2 (ja) ディジタル画像のシーケンスの画像内のノイズの時間的フィルタリングの方法及び装置
JP2013123589A (ja) 画像処理装置、画像処理方法及びプログラム
EP2942751A1 (en) Methods for estimation of objects from an image
WO2022051775A1 (en) Method for x-ray dental image enhancement
US4802093A (en) X-ray image-processing apparatus utilizing grayscale transformation
JP4007775B2 (ja) X線診断装置
JP5223266B2 (ja) X線画像システム
US11771390B2 (en) Method and device for determining the contour of anatomical structures in a digital X-ray-based fluoroscopic image
JP2002541696A (ja) 線状移動物体を表す画像系列のノイズ圧縮用画像処理方法、システム及び装置
US9978132B2 (en) Radiation image processing device, method, and program
JP6371515B2 (ja) X線画像処理装置、x線画像処理方法、及びプログラム
JPWO2019053935A1 (ja) 放射線撮影装置
JP4549082B2 (ja) 画像処理装置及び方法
JPH10232927A (ja) 画像階調変換装置、画像階調変更方法およびその方法を実行させるプログラムを記録した媒体ならびに赤外線カメラ
US10068319B2 (en) Method for noise reduction in an image sequence
JP2006230512A (ja) X線画像診断装置及び画像処理方法並びにプログラム
JP2001148787A (ja) 画像処理装置
US20100061656A1 (en) Noise reduction of an image signal
EP3796216A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100601