JPWO2016157457A1 - 画像処理装置、画像処理方法、及び、画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び、画像処理プログラム Download PDF

Info

Publication number
JPWO2016157457A1
JPWO2016157457A1 JP2017508963A JP2017508963A JPWO2016157457A1 JP WO2016157457 A1 JPWO2016157457 A1 JP WO2016157457A1 JP 2017508963 A JP2017508963 A JP 2017508963A JP 2017508963 A JP2017508963 A JP 2017508963A JP WO2016157457 A1 JPWO2016157457 A1 JP WO2016157457A1
Authority
JP
Japan
Prior art keywords
luminance
distribution
pixel
component
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017508963A
Other languages
English (en)
Other versions
JP6524497B2 (ja
Inventor
経康 本間
経康 本間
正夫 酒井
正夫 酒井
慶 市地
慶 市地
直樹 澁澤
直樹 澁澤
暁勇 張
暁勇 張
阿部 誠
阿部  誠
典大 杉田
典大 杉田
吉澤 誠
誠 吉澤
良尋 ▲高▼井
良尋 ▲高▼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Hirosaki University NUC
Original Assignee
Tohoku University NUC
Hirosaki University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Hirosaki University NUC filed Critical Tohoku University NUC
Publication of JPWO2016157457A1 publication Critical patent/JPWO2016157457A1/ja
Application granted granted Critical
Publication of JP6524497B2 publication Critical patent/JP6524497B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

画像処理装置(20)は、複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、上記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得する取得部(202)と、上記取得された確率分布を表す混合分布を推定する分布推定部(203)と、上記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ上記画素の輝度の少なくとも一部を構成する成分を推定する成分推定部(204)と、上記透視画像に含まれる上記画素の輝度から、上記推定された成分を除去する除去部(205)と、を備える。

Description

本発明は、画像処理装置、画像処理方法、及び、画像処理プログラムに関する。
複数の異なる時点にてそれぞれ撮影された複数の非透視画像を処理する画像処理装置が知られている(例えば、非特許文献1及び非特許文献2を参照)。非透視画像に含まれる画素は、前景又は背景を表す。例えば、前景は、車両等の移動する物体であり、背景は、建築物及び道路等の静止した物体である。
この画像処理装置は、混合正規分布に基づいて、画素が、前景及び背景のいずれを表すかを判定する。
具体的には、画像処理装置は、複数の非透視画像における、画素の輝度が複数の値のうちの各値を有する非透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得する。換言すると、画素の輝度の確率分布は、複数の非透視画像のうちの、当該画素の輝度が複数の値のうちの各値を有する非透視画像の数の、非透視画像の総数に対する割合を表すとともに、当該画素の輝度を確率変数として用いる。
更に、画像処理装置は、取得した確率分布を表す混合正規分布を推定し、推定した混合正規分布に基づいて、画素が、前景及び背景のいずれを表すかを判定する。
例えば、図1の(A)に表されるように、画像に含まれる画素の輝度は、画像が撮影された時点の変化に伴って変化する。この場合、画素の輝度の確率分布は、図1の(B)のように表される。
ところで、非透視画像を撮影する方向に沿って延びる直線上に複数の物体が存在する場合、非透視画像に含まれる画素は、最も手前側に位置する物体を表す。従って、前景が移動する物体である場合、画素が背景を表す時間は、当該画素が前景を表す時間よりも長くなりやすい。
そこで、画像処理装置は、画素の輝度が、推定した混合正規分布を構成する複数の正規分布G1,G2のうちの、確率が最大である正規分布G1に対応する場合、当該画素が背景を表すと判定する。
J.Choi、外2名、「Adaptive Shadow Estimator for Removing Shadow of Moving Object」、Computer Vision and Image Understanding、Elsevier Inc.、2010年、第114号、p.1017−1029 S.Calderara、外2名、「Vision Based Smoke Detection System Using Image Energy and Color Information」、Machine Vision and Applications、Springer、2010年、第22号、p.705−719
この画像処理装置を用いて透視画像を処理することにより、透視画像において対象物体(例えば、腫瘍、軟部組織、患部、又は、病変組織等)を識別することが考えられる。しかしながら、透視画像を撮影する方向に沿って延びる直線上に複数の物体が存在する場合、透視画像に含まれる画素の輝度は、当該複数の物体のそれぞれに起因する輝度の成分の重畳である。例えば、複数の物体のそれぞれに起因する輝度の成分の重畳は、複数の物体のそれぞれに起因する輝度の成分の和である。
このため、上述した画像処理装置を用いて透視画像を処理しても、透視画像において対象物体を高い精度にて識別することが困難であった。
本発明の目的の一つは、透視画像において対象物体を高い精度にて識別することが可能な画像処理装置を提供することにある。
一つの側面では、画像処理装置は、
複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、上記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得する取得部と、
上記取得された確率分布を表す混合分布を推定する分布推定部と、
上記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ上記画素の輝度の少なくとも一部を構成する成分を推定する成分推定部と、
上記透視画像に含まれる上記画素の輝度から、上記推定された成分を除去する除去部と、を備える。
他の一つの側面では、画像処理方法は、
複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、前記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得し、
前記取得された確率分布を表す混合分布を推定し、
前記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ前記画素の輝度の少なくとも一部を構成する成分を推定し、
前記透視画像に含まれる前記画素の輝度から、前記推定された成分を除去する。
他の一つの側面では、画像処理プログラムは、
複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、前記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得し、
前記取得された確率分布を表す混合分布を推定し、
前記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ前記画素の輝度の少なくとも一部を構成する成分を推定し、
前記透視画像に含まれる前記画素の輝度から、前記推定された成分を除去する、
処理をコンピュータに実行させる。
透視画像において対象物体を高い精度にて識別できる。
輝度の時間に対する変化の一例と、輝度に対する確率分布の一例と、を表すグラフである。 第1実施形態の放射線照射システムの構成の一例を表すブロック図である。 図2の制御装置の構成の一例を表すブロック図である。 図2の制御装置の機能の一例を表すブロック図である。 図2の制御装置に入力される透視画像の一例を表す図である。 輝度の時間に対する変化の一例を表すグラフである。 輝度に対する確率分布の一例を表すグラフである。 推定される除去対象成分の時間に対する変化の一例を表すグラフである。 入力透視画像からの除去対象成分の除去の一例を表す説明図である。 図2の制御装置が実行する処理の一例を表すフローチャートである。 模擬透視画像の一例を表す説明図である。 模擬透視画像からの除去対象成分の除去結果の一例を表す図である。 模擬透視画像の各画素の輝度に対する二乗平均平方根誤差の時間に対する変化の一例を表すグラフである。 臨床透視画像に対する対象物体の位置の推定結果の一例を表す図である。 臨床透視画像の対象物体の位置に対する二乗平均平方根誤差の時間に対する変化の一例を表すグラフである。
本願の発明者は、透視画像に含まれる画素の輝度の確率分布を表す混合分布を構成する複数の分布のうちの期待値が最小である期待値最小分布が、対象物体と異なる物体に対応する確率が高い、という知見を得た。
そこで、後述する各実施形態において、画像処理装置は、期待値最小分布に対応し且つ画素の輝度の少なくとも一部を構成する成分を推定し、透視画像に含まれる画素の輝度から、推定した成分を除去する。
これによれば、透視画像に含まれる画素の輝度の中から、対象物体に起因する成分を高い精度にて抽出できる。この結果、透視画像において対象物体を高い精度にて識別できる。
以下、本発明の、画像処理装置、画像処理方法、及び、画像処理プログラム、に関する各実施形態について図2乃至図15を参照しながら説明する。
<第1実施形態>
(構成)
図2に表されるように、第1実施形態の放射線照射システム1は、撮影装置10と、制御装置20と、放射線照射装置30と、を備える。
撮影装置10は、所定の撮影周期が経過する毎に生体LBの透視画像を撮影する。本例では、撮影装置10は、X線を用いて透視画像を撮影する。本例では、透視画像において、物体に起因する輝度は、当該物体に対するX線の透過率が低くなるほど高くなる。
撮影装置10は、透視画像を撮影する毎に、撮影された透視画像を制御装置20へ出力する。本例では、制御装置20へ出力される透視画像は、X軸方向においてNxmax個の画素が並ぶとともに、X軸方向に直交するY軸方向においてNymax個の画素が並ぶように、格子状に配列された、Nxmaxymax個の画素のそれぞれの輝度を含む。Nxmax及びNymaxは、自然数を表す。
制御装置20には、撮影装置10から、上記撮影周期の時間間隔を有する複数の異なる時点にてそれぞれ撮影された複数の透視画像が入力される。制御装置20に入力された透視画像は、入力透視画像とも表される。制御装置20は、複数の入力透視画像を処理し、処理後の透視画像に基づいて生体LBにおける対象物体の位置を推定する。例えば、対象物体は、腫瘍、軟部組織、患部、又は、病変組織等である。対象物体は、特定の物体と表されてもよい。
なお、複数の入力透視画像の処理については後述する。
制御装置20は、推定した対象物体の位置に基づいて、放射線照射装置30による生体LBへの放射線の照射を制御する。
本例では、制御装置20は、推定した対象物体の位置に基づいて、放射線を生体LBに照射する期間を制御する。なお、制御装置20は、推定した対象物体の位置に基づいて、生体LBに照射する放射線の強度を制御してもよい。また、制御装置20は、推定した対象物体の位置に基づいて、放射線を照射する位置を制御してもよい。
放射線照射装置30は、制御装置20による制御に従って、放射線を生体LBに照射する。
ここで、制御装置20について説明を加える。
制御装置20は、図3に表されるように、処理装置21と、記憶装置22と、を備える。
処理装置21は、記憶装置22に記憶されたプログラムを実行することにより、後述する機能を実現する。本例では、処理装置21は、CPU(Central Processing Unit)である。なお、処理装置21は、DSP(Digital Signal Processor)、又は、プログラム可能な論理回路装置(PLD;Programmable Logic Device)により構成されていてもよい。
記憶装置22は、情報を読み書き可能に記憶する。例えば、記憶装置22は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Disk)、半導体メモリ、及び、有機メモリの少なくとも1つを備える。なお、記憶装置22は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の記録媒体と、記録媒体から情報を読み取り可能な読取装置と、を備えていてもよい。
なお、制御装置20は、集積回路(例えば、LSI(Large Scale Integration)等)により実現されてよい。
制御装置20は、画像処理装置の一例である。
図4に表されるように、制御装置20の機能は、補正部201と、取得部202と、分布推定部203と、成分推定部204と、除去部205と、位置推定部206と、照射制御部207と、を備える。
本例では、制御装置20は、透視画像に含まれるNxmaxymax個の画素のうちの、所定の対象領域に含まれる複数の画素のそれぞれの輝度から除去対象成分を除去する除去処理を、所定の反復回数Mだけ繰り返し実行する。Mは、自然数を表す。例えば、除去対象成分は、輝度のうちの、対象物体と異なる物体(例えば、骨又は筋肉等)に起因する成分である。
なお、対象物体は、骨又は筋肉であってもよい。この場合、対象物体と異なる物体は、軟部組織であってよい。
対象領域は、X軸方向における範囲が、x+1番目の画素から、x+N番目の画素までであり、且つ、Y軸方向における範囲が、y+1番目の画素から、y+N番目の画素までである。x及びyは、1以上の整数を表す。N及びNは、2以上の整数を表す。従って、対象領域に含まれる画素の数は、N個である。本例では、対象領域は、放射線照射システム1のユーザによって設定される。なお、対象領域は、除去処理が実行された回数に応じて変更されてよい。例えば、対象領域は、除去処理が実行される毎に狭くなるように変更されてよい。
1回目の除去処理において、制御装置20は、数式1に表されるように、除去処理の対象となる透視画像として、撮影装置10からの入力透視画像を用いる。
(x,y,t)は、m回目の除去処理の対象となるT個の透視画像のうちのt番目の透視画像に含まれる複数の画素のうちの、X軸方向においてx番目であり且つY軸方向においてy番目である画素の輝度を表す。mは、1からMまでの各整数を表す。
数式1において、xは、1からNxmaxまでの各整数を表す。yは、1からNymaxまでの各整数を表す。Tは、2以上の整数を表す。tは、1からTまでの各整数を表す。本例では、t+1番目の透視画像は、t番目の透視画像が撮影された時点から、撮影周期だけ後の時点にて撮影された透視画像である。
(x,y,t)は、T個の入力透視画像のうちのt番目の入力透視画像に含まれる複数の画素のうちの、X軸方向においてx番目であり且つY軸方向においてy番目である画素の輝度を表す。
本例では、2回目以降の除去処理において、制御装置20は、除去処理の対象となる透視画像として、直前の除去処理において除去対象成分が除去された後の透視画像を用いる。なお、制御装置20は、2回目以降の少なくとも1つの除去処理において、除去処理の対象となる透視画像として、直前の除去処理における除去対象成分からなる透視画像を用いてもよい。
補正部201は、m回目の除去処理の対象となるT個の透視画像の中から基準透視画像を選択する。本例では、補正部201は、1番目の透視画像を基準透視画像として選択する。そして、補正部201は、選択した基準透視画像に対する、T個の透視画像のそれぞれにおける被写体の移動距離及び移動方向を推定する。本例では、被写体は、1番目の透視画像の、対象領域に含まれる複数の画素により表される。被写体は、テンプレート画像と表されてもよい。
本例では、補正部201は、テンプレートマッチング法を用いることにより、被写体の移動距離及び移動方向を推定する。補正部201は、テンプレートマッチング法において、相関係数を評価関数として用いてよい。本例では、被写体の移動距離及び移動方向は、X軸方向における移動量u(t)と、Y軸方向における移動量v(t)と、により表される。u(t)及びv(t)は、整数を表す。
補正部201は、T個の透視画像のそれぞれに対して、推定した移動方向と逆方向へ、推定した移動距離だけ被写体を移動させるように当該透視画像を被写体の位置に関して補正する。本例では、補正部201は、数式2に表されるように、T個の透視画像のそれぞれに含まれる複数の画素のそれぞれの輝度を補正する。I’(x,y,t)は、補正後の輝度を表す。なお、画素の輝度の補正は、当該画素を含む画像の補正の一例である。
例えば、被写体の移動距離及び移動方向は、対象領域に含まれる複数の画素のそれぞれに対する移動量ベクトルに基づく主要移動量ベクトルにより表されてよい。例えば、画素に対する移動量ベクトルは、画素の移動距離及び移動方向を表す。例えば、主要移動量ベクトルは、平均移動量ベクトル、又は、最頻移動量ベクトルである。平均移動量ベクトルは、対象領域に含まれる複数の画素に対して、各画素の移動量ベクトルを平均することにより得られる。最頻移動量ベクトルは、対象領域に含まれる複数の画素において、最も出現頻度が高い移動量ベクトルである。
取得部202は、補正部201による補正後の輝度I’(x,y,t)に基づいて、対象領域に含まれる複数の画素のそれぞれに対して、T個の透視画像のうちの、当該画素の輝度が複数の値のうちの各値を有する透視画像の数を計数することにより、輝度に対する度数分布を取得する。
取得部202は、対象領域に含まれる複数の画素のそれぞれに対して、取得した度数分布に基づいて、当該画素の輝度を確率変数として用いる確率分布を取得する。本例では、確率分布は、T個の透視画像のうちの、画素の輝度が複数の値のうちの各値を有する透視画像の数の、透視画像の総数Tに対する割合を表す。
図5は、透視画像の一例を表す。透視画像の中央部に位置し、円形状を有し、且つ、輝度が他の部分よりも高い部分CCの位置が、透視画像間で変化する場合を想定する。更に、ある画素の輝度が、図6に表されるように、時間の経過に伴って変化する場合を想定する。この場合、取得部202は、図7に表されるように、確率分布PDを取得する。
分布推定部203は、対象領域に含まれる複数の画素のそれぞれに対して、取得部202により取得された確率分布を表す混合分布p(i(x,y))を推定する。混合分布は、混合確率分布と表されてもよい。本例では、分布推定部203は、EM(Expectation Maximization)アルゴリズムに従って数式3に表されるような混合正規分布を推定する。混合正規分布は、混合分布の一例である。
(x,y)は、X軸方向においてx番目であり且つY軸方向においてy番目である画素の輝度を表す確率変数である。数式3において、xは、x+1からx+Nまでの各整数を表す。yは、y+1からy+Nまでの各整数を表す。
N(i|μ,σ)は、期待値がμであり、分散がσであり、且つ、確率変数がiである正規分布を表す。期待値は、平均値と表されてもよい。正規分布は、部分分布の一例である。なお、部分分布として正規分布と異なる分布が用いられてもよい。J(x,y)は、X軸方向においてx番目であり且つY軸方向においてy番目である画素の輝度に対する混合分布を構成する部分分布の数を表す。jは、1からJ(x,y)までの各整数を表す。π(x,y)は、上記混合分布を構成するJ(x,y)個の部分分布のうちのj番目の部分分布に対する混合係数を表す。μ(x,y)は、上記混合分布を構成するJ(x,y)個の部分分布のうちのj番目の部分分布の期待値を表す。σ (x,y)は、上記混合分布を構成するJ(x,y)個の部分分布のうちのj番目の部分分布の分散を表す。
図7に表されるように、取得部202が確率分布PDを取得した場合、分布推定部203は、2個の部分分布G1,G2により構成される混合分布MGを推定する。
成分推定部204は、数式4に表されるように、対象領域に含まれる複数の画素のそれぞれに対して、分布推定部203により推定された混合分布を構成するJ(x,y)個の部分分布のうちの期待値が最小である期待値最小分布を決定する。
θ(x,y)は、X軸方向においてx番目であり且つY軸方向においてy番目である画素の輝度に対する混合分布を構成するJ(x,y)個の部分分布のうちのθ(x,y)番目の部分分布が期待値最小分布であることを表す。θ(x,y)は、期待値最小分布のインデックスと表されてもよい。数式4において、xは、x+1からx+Nまでの各整数を表す。yは、y+1からy+Nまでの各整数を表す。
更に、成分推定部204は、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、決定した期待値最小分布に対応し、且つ、当該画素の輝度の少なくとも一部を構成する成分を推定する。画素の輝度に対する期待値最小分布に対応し、且つ、当該画素の輝度の少なくとも一部を構成する成分は、除去対象成分と表されてもよい。
本例では、成分推定部204は、除去対象成分を下記のように推定する。
先ず、成分推定部204は、補正部201による補正後の輝度I’(x,y,t)に基づいて、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度に対する混合分布を構成するJ(x,y)個の部分分布のそれぞれに、当該画素の輝度が起因する確率を算出する。
本例では、成分推定部204は、上記確率として、数式5に表される負担率γ(x,y,t)を用いる。数式5において、xは、x+1からx+Nまでの各整数を表す。yは、y+1からy+Nまでの各整数を表す。
負担率γ(x,y,t)は、t番目の透視画像の、X軸方向においてx番目であり且つY軸方向においてy番目である画素の輝度がI’(x,y,t)であるという条件の下で、当該輝度がk番目の部分分布に起因する確率である。kは、1からJ(x,y)までの各整数を表す。
は、0又は1を有する2値確率変数である。zが1を有することは、輝度がk番目の部分分布に起因することを表す。{z,・・・,zJ(x,y)}は、1−of−J(x,y)表現に従ったJ(x,y)次元のベクトルである。換言すると、z,・・・,zJ(x,y)は、いずれか1つが1を有するとともに、他のすべてが0を有する。
成分推定部204は、数式6に表されるように、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度に対する混合分布を構成するJ(x,y)個の部分分布のうちの、期待値最小分布と異なる部分分布に対する負担率γ(x,y,t)のそれぞれが、当該期待値最小分布に対する負担率γθ(x,y)(x,y,t)よりも小さい場合、除去対象成分ρ(x,y,t)として、当該画素の輝度I’(x,y,t)を推定する。ここで、jは、1からJ(x,y)までの整数のうちのθ(x,y)と異なる各整数を表す。
一方、成分推定部204は、数式7に表されるように、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度に対する混合分布を構成するJ(x,y)個の部分分布のうちの、期待値最小分布と異なる部分分布に対する負担率γ(x,y,t)の少なくとも1つが、当該期待値最小分布に対する負担率γθ(x,y)(x,y,t)以上である場合、除去対象成分ρ(x,y,t)として、当該期待値最小分布の期待値μθ(x,y)(x,y)を推定する。ここで、jは、1からJ(x,y)までの整数のうちのθ(x,y)と異なる各整数を表す。
期待値最小分布の期待値μθ(x,y)(x,y)は、期待値最小分布に基づく値の一例である。
なお、この場合、成分推定部204は、期待値最小分布の期待値μθ(x,y)(x,y)に代えて、期待値最小分布の期待値μθ(x,y)(x,y)及び分散σθ(x,y) (x,y)に基づいて決定された値を除去対象成分ρ(x,y,t)として推定してもよい。
このようにして、成分推定部204は、除去対象成分を推定する。
図7に表されるように、分布推定部203が、2つの部分分布G1,G2により構成される混合分布MGを推定した場合、成分推定部204は、部分分布G1を期待値最小分布として決定する。更に、この場合、成分推定部204は、図8に表されるように、期間T1,T3において、除去対象成分ρ(x,y,t)として、期待値最小分布の期待値μθ(x,y)(x,y)を推定する。また、この場合、成分推定部204は、期間T2,T4において、除去対象成分ρ(x,y,t)として輝度I’(x,y,t)を推定する。
除去部205は、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度I’(x,y,t)から、成分推定部204により推定された除去対象成分ρ(x,y,t)を除去する。
本例では、除去部205は、数式8に表されるように、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度I’(x,y,t)から、成分推定部204により推定された除去対象成分ρ(x,y,t)を減算する。I’’(x,y,t)は、減算後の輝度を表す。
更に、本例では、除去部205は、減算後の輝度I’’(x,y,t)を、m+1回目の除去処理の対象となる透視画像の輝度Im+1(x,y,t)として設定する。なお、除去部205は、mが2以上である場合において、成分推定部204により推定された除去対象成分ρ(x,y,t)を、m+1回目の除去処理の対象となる透視画像の輝度Im+1(x,y,t)として設定してもよい。
本例では、除去部205は、M回の除去処理によって除去対象成分が除去された後のT個の透視画像を位置推定部206へ出力する。なお、除去部205は、Mが2以上である場合、M回目の除去処理における除去対象成分ρ(x,y,t)からなる透視画像を位置推定部206へ出力してもよい。
このように、除去処理は、補正部201、取得部202、分布推定部203、成分推定部204、及び、除去部205により実行される。
図9の(A)は、除去処理の対象となる透視画像の一例を表す。図9の(B)は、対象物体と異なる物体に起因する輝度の成分としての除去対象成分の一例を表す。図9の(C)は、除去処理によって除去対象成分が除去された後の透視画像の一例を表す。この場合、図9の(C)に表されるように、除去対象成分が除去された後の透視画像によれば、対象物体を高い精度にて識別できる。また、除去対象成分が対象物体に起因する輝度の成分である場合、除去対象成分が除去された後の透視画像に代えて、除去対象成分からなる透視画像を用いることにより、対象物体を高い精度にて識別できる。
位置推定部206には、M回の除去処理によって除去対象成分が除去された後のT個の透視画像が除去部205から入力される。なお、位置推定部206には、Mが2以上である場合、M回目の除去処理における除去対象成分ρ(x,y,t)からなる透視画像が除去部205から入力されてもよい。
位置推定部206は、除去部205から入力されたT個の透視画像に基づいて、生体LBにおける対象物体の位置を推定する。例えば、位置推定部206は、テンプレートマッチング法を用いることにより、対象物体の位置を推定する。
照射制御部207は、位置推定部206により推定された対象物体の位置に基づいて、放射線照射装置30による生体LBへの放射線の照射を制御する。
(動作)
次に、放射線照射システム1の動作について説明する。
撮影装置10は、撮影周期が経過する毎に生体LBの透視画像を撮影し、透視画像を撮影する毎に、撮影された透視画像を制御装置20へ出力する。
制御装置20は、撮影装置10から入力された複数の入力透視画像を処理する。本例では、制御装置20は、図10にフローチャートにより表される処理を、所定の実行周期が経過する毎に実行する。
具体的には、制御装置20は、処理回数mを初期値1に設定する(図10のステップS101)。次いで、制御装置20は、m回目の除去処理の対象となる透視画像に含まれる画素の輝度I(x,y,t)を、入力透視画像に含まれる画素の輝度I(x,y,t)に設定する(図10のステップS102)。
次いで、制御装置20は、T個の透視画像の中から選択された基準透視画像に対する、T個の透視画像のそれぞれにおける被写体の移動距離及び移動方向を推定する(図10のステップS103)。そして、制御装置20は、T個の透視画像のそれぞれに対して、推定した移動方向と逆方向へ、推定した移動距離だけ被写体を移動させるように当該透視画像を補正する(図10のステップS104)。
次いで、制御装置20は、ステップS104にて補正された輝度I’(x,y,t)に基づいて、対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度を確率変数として用いる確率分布を取得する(図10のステップS105)。
そして、制御装置20は、対象領域に含まれる複数の画素のそれぞれに対して、ステップS105にて取得された確率分布を表す混合分布p(i(x,y))を推定する(図10のステップS106)。
次いで、制御装置20は、対象領域に含まれる複数の画素のそれぞれに対して、ステップS106にて推定された混合分布を構成するJ(x,y)個の部分分布のうちの期待値が最小である期待値最小分布を決定する(図10のステップS107)。
そして、制御装置20は、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度に対する混合分布を構成するJ(x,y)個の部分分布のそれぞれに、当該画素の輝度I’(x,y,t)が起因する確率を表す負担率γ(x,y,t)を算出する(図10のステップS108)。
次いで、制御装置20は、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、除去対象成分ρ(x,y,t)を推定する(図10のステップS109)。
本例では、制御装置20は、期待値最小分布に対する負担率γθ(x,y)(x,y,t)が、期待値最小分布と異なる部分分布に対する負担率γ(x,y,t)よりも高い場合、当該画素の輝度I’(x,y,t)を除去対象成分ρ(x,y,t)として推定する。
更に、本例では、制御装置20は、期待値最小分布に対する負担率γθ(x,y)(x,y,t)が、期待値最小分布と異なる部分分布に対する負担率γ(x,y,t)以下である場合、当該期待値最小分布の期待値μθ(x,y)(x,y)を除去対象成分ρ(x,y,t)として推定する。
次いで、制御装置20は、T個の透視画像のそれぞれの対象領域に含まれる複数の画素のそれぞれに対して、当該画素の輝度I’(x,y,t)から、ステップS109にて推定された除去対象成分ρ(x,y,t)を除去することにより、m+1回目の除去処理の対象となる透視画像に含まれる画素の輝度Im+1(x,y,t)を設定する(図10のステップS110)。透視画像に含まれる画素の輝度の設定は、透視画像の生成と表されてもよい。
そして、制御装置20は、処理回数mに1を加算する(図10のステップS111)。次いで、制御装置20は、処理回数mが反復回数Mよりも大きいか否かを判定する(図10のステップS112)。
処理回数mが反復回数M以下である場合、制御装置20は、「No」と判定し、ステップS103へ戻り、処理回数mが反復回数Mよりも大きくなるまで、ステップS103からステップS112までの処理を繰り返し実行する。
処理回数mが反復回数Mよりも大きい場合、制御装置20は、ステップS112にて「Yes」と判定し、ステップS113へ進む。そして、制御装置20は、直前の除去処理において推定された除去対象成分ρ(x,y,t)が除去された後の透視画像に基づいて、対象物体の位置を推定する(図10のステップS113)。なお、制御装置20は、直前の除去処理において推定された除去対象成分ρ(x,y,t)からなる透視画像に基づいて、対象物体の位置を推定してもよい。
次いで、制御装置20は、ステップS113にて推定された対象物体の位置に基づいて、放射線照射装置30による放射線の照射を制御する(図10のステップS114)。
その後、制御装置20は、図10の処理を終了する。
以上、説明したように、第1実施形態の制御装置20は、画素毎の輝度の確率分布を表す混合分布を推定する。更に、制御装置20は、推定した混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ当該画素の輝度の少なくとも一部を構成する成分を推定する。加えて、制御装置20は、透視画像に含まれる画素の輝度から、推定した成分を除去する。
これによれば、透視画像に含まれる画素の輝度の中から、対象物体に起因する成分を高い精度にて抽出できる。この結果、透視画像において対象物体を高い精度にて識別できる。
更に、第1実施形態の制御装置20は、画素の輝度が期待値最小分布に起因する確率が、推定された混合分布を構成する複数の部分分布のうちの、期待値最小分布と異なる部分分布に当該画素の輝度が起因する確率よりも高い場合、当該画素の輝度を上記成分として推定する。
画素の輝度が期待値最小分布に起因する確率が、混合分布を構成する複数の部分分布のうちの、期待値最小分布と異なる部分分布に画素の輝度が起因する確率よりも高い場合、当該画素の輝度が、期待値最小分布に対応する物体に起因する成分のみを有する確率が高い。
制御装置20は、この場合、画素の輝度を、期待値最小分布に対応する成分として推定する。これにより、透視画像に含まれる画素の輝度から、期待値最小分布に対応する物体に起因する成分を高い精度にて除去できる。この結果、透視画像において対象物体を高い精度にて識別できる。
更に、第1実施形態の制御装置20は、画素の輝度が期待値最小分布に起因する確率が、推定された混合分布を構成する複数の部分分布のうちの、期待値最小分布と異なる部分分布に当該画素の輝度が起因する確率よりも低い場合、期待値最小分布に基づく値を上記成分として推定する。
画素の輝度が期待値最小分布に起因する確率が、混合分布を構成する複数の部分分布のうちの、期待値最小分布と異なる部分分布に画素の輝度が起因する確率よりも低い場合、当該画素の輝度が、期待値最小分布に対応する物体に起因する成分に加えて、他の物体に起因する成分も含む確率が高い。
制御装置20は、この場合、期待値最小分布に基づく値(例えば、期待値最小分布の期待値)を、期待値最小分布に対応する成分として推定する。これにより、透視画像に含まれる画素の輝度から、期待値最小分布に対応する物体に起因する成分を適切に除去できる。この結果、透視画像において対象物体を高い精度にて識別できる。
更に、第1実施形態の制御装置20は、複数の透視画像のそれぞれに対して、上記成分の除去を実行する。加えて、制御装置20は、上記成分が除去された複数の透視画像に対して、確率分布の取得、混合分布の推定、成分の推定、及び、成分の除去を、繰り返し実行する。
これによれば、画素の輝度が、対象物体と異なる、複数の物体のそれぞれに起因する成分を含む場合に、透視画像に含まれる画素の輝度の中から、対象物体に起因する成分を高い精度にて抽出できる。この結果、透視画像において対象物体を高い精度にて識別できる。
更に、第1実施形態の制御装置20は、複数の透視画像の中から選択された基準透視画像に対する、複数の透視画像のそれぞれにおける被写体の移動距離及び移動方向を推定する。加えて、制御装置20は、複数の透視画像のそれぞれに対して、推定した移動方向と逆方向へ、推定した移動距離だけ被写体を移動させるように当該透視画像を補正する。
これによれば、透視画像に含まれる画素の輝度に対して被写体の移動が及ぼす影響を抑制できる。この結果、透視画像に含まれる画素の輝度の中から、対象物体に起因する成分を高い精度にて抽出できる。この結果、透視画像において対象物体を高い精度にて識別できる。
次に、臨床透視画像を模擬した模擬透視画像に対して、第1実施形態の制御装置20が処理した結果について説明する。
模擬透視画像は、図11に表されるように、第1乃至第3の基本画像を重ね合わせた画像である。図11の(A)は、模擬透視画像を表す。図11の(B)乃至(D)は、第1乃至第3の基本画像をそれぞれ表す。本例では、複数の基本画像を重ね合わせた画像の各画素の輝度は、数式9に表されるように、当該複数の基本画像の当該画素の輝度の和である。
(x,y,t)は、模擬透視画像に含まれる画素の輝度を表す。L(x,y,t)は、第jの基本画像に含まれる画素の輝度を表す。Jは、3を表す。jは、1からJまでの各整数を表す。
第1の基本画像は、臨床透視画像に、期待値が0であり且つ分散が4であるガウスノイズを付加した画像である。
第2の基本画像は、長方形に、期待値が15であり且つ分散が4であるガウスノイズを付加した画像である。
第3の基本画像は、腫瘍を模擬した円形に、期待値が10であり且つ分散が1であるガウスノイズを付加した画像である。
第2の基本画像における長方形は、時間の経過に伴って、長方形のX軸方向における位置が正弦波に従って変化するように、X軸方向にて移動する。
第3の基本画像における円形は、時間の経過に伴って、円形のY軸方向における位置が正弦波に従って変化するように、Y軸方向にて移動する。
図12の(A)は、各基本画像の真値を表す。図12の(B)は、第1実施形態の制御装置20による処理の結果を表す。図12の(C)は、比較例の画像処理装置による処理の結果を表す。比較例の画像処理装置は、非特許文献(Y.Weiss、「Deriving Intrinsic Images from Image Sequences」、International Conference on Computer Vision、2001年、第2巻、p.68−75)に記載の固有画像抽出法(DII;Deriving Intrinsic Image)を用いる。
図12の(B)の図面における最上段は、1回目の除去処理において推定された除去対象成分を表す。図12の(B)の図面における中段は、2回目の除去処理において推定された除去対象成分を表す。図12の(B)の図面における最下段は、2回目の除去処理において除去対象成分が除去された後の透視画像を表す。
第1実施形態の制御装置20による2回目の除去処理において除去対象成分が除去された後の透視画像に含まれる画素の輝度の、第3の基本画像に含まれる画素の輝度に対する二乗平均平方根誤差Lrmseは、数式10により表される。図13は、二乗平均平方根誤差Lrmseの時間に対する変化を表す。第1実施形態の制御装置20に対する二乗平均平方根誤差Lrmseは、比較例の画像処理装置よりも小さい。
このように、第1実施形態の制御装置20によれば、透視画像に含まれる画素の輝度の中から、対象物体に起因する成分を高い精度にて抽出できる。この結果、透視画像において対象物体を高い精度にて識別できる。
次に、臨床透視画像に対して、第1実施形態の制御装置20が処理した結果について説明する。
図14の(A)は、入力透視画像を表す。図14の(B)は、比較例の画像処理装置による処理の結果を表す。図14の(C)は、第1実施形態の制御装置20による処理の結果を表す。図14において、点線の長方形は、対象物体の真の位置を表す。図14の(B)において、実線の長方形は、比較例の画像処理装置により推定された対象物体の位置を表す。図14の(C)において、実線の長方形は、第1実施形態の制御装置20により推定された対象物体の位置を表す。
第1実施形態の制御装置20により推定された対象物体の位置の、対象物体の真の位置に対する二乗平均平方根誤差Prmseは、数式11により表される。ω(t)及びλ(t)は、対象物体のX軸方向及びY軸方向における、推定された位置をそれぞれ表す。ω(t)及びλ(t)は、対象物体のX軸方向及びY軸方向における真の位置をそれぞれ表す。図15は、二乗平均平方根誤差Prmseの時間に対する変化を表す。第1実施形態の制御装置20に対する二乗平均平方根誤差Prmseは、比較例の画像処理装置よりも小さい。
このように、第1実施形態の制御装置20によれば、透視画像において対象物体の位置を高い精度にて推定できる。
第1実施形態において、制御装置20は、放射線照射装置30を制御する。ところで、制御装置20は、放射線照射装置30を制御しない画像処理装置であってもよい。この場合、制御装置20は、除去対象成分が除去された後の透視画像を出力又は送信してもよい。
なお、本発明は、上述した実施形態に限定されない。例えば、上述した実施形態に、本発明の趣旨を逸脱しない範囲内において当業者が理解し得る様々な変更が加えられてよい。例えば、本発明の趣旨を逸脱しない範囲内において、上述した実施形態の他の変形例として、上述した実施形態及び変形例の任意の組み合わせが採用されてもよい。
1 放射線照射システム
10 撮影装置
20 制御装置
21 処理装置
22 記憶装置
201 補正部
202 取得部
203 分布推定部
204 成分推定部
205 除去部
206 位置推定部
207 照射制御部
30 放射線照射装置
LB 生体

Claims (7)

  1. 複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、前記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得する取得部と、
    前記取得された確率分布を表す混合分布を推定する分布推定部と、
    前記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ前記画素の輝度の少なくとも一部を構成する成分を推定する成分推定部と、
    前記透視画像に含まれる前記画素の輝度から、前記推定された成分を除去する除去部と、
    を備える、画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記成分推定部は、
    前記画素の輝度が前記期待値最小分布に起因する確率が、前記推定された混合分布を構成する複数の部分分布のうちの、前記期待値最小分布と異なる部分分布に前記画素の輝度が起因する確率よりも高い場合、当該画素の輝度を前記成分として推定する、画像処理装置。
  3. 請求項1又は請求項2に記載の画像処理装置であって、
    前記成分推定部は、
    前記画素の輝度が前記期待値最小分布に起因する確率が、前記推定された混合分布を構成する複数の部分分布のうちの、前記期待値最小分布と異なる部分分布に前記画素の輝度が起因する確率よりも低い場合、当該期待値最小分布に基づく値を前記成分として推定する、画像処理装置。
  4. 請求項1乃至請求項3のいずれか一項に記載の画像処理装置であって、
    前記除去部は、前記複数の透視画像のそれぞれに対して、前記成分の除去を実行し、
    前記画像処理装置は、
    前記成分が除去された前記複数の透視画像に対して、前記確率分布の取得、前記混合分布の推定、前記成分の推定、及び、前記成分の除去を、繰り返し実行する、画像処理装置。
  5. 請求項1乃至請求項4のいずれか一項に記載の画像処理装置であって、
    前記複数の透視画像の中から選択された基準透視画像に対する、前記複数の透視画像のそれぞれにおける被写体の移動距離及び移動方向を推定し、前記複数の透視画像のそれぞれに対して、前記推定した移動方向と逆方向へ、前記推定した移動距離だけ前記被写体を移動させるように当該透視画像を補正する補正部を備える、画像処理装置。
  6. 複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、前記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得し、
    前記取得された確率分布を表す混合分布を推定し、
    前記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ前記画素の輝度の少なくとも一部を構成する成分を推定し、
    前記透視画像に含まれる前記画素の輝度から、前記推定された成分を除去する、画像処理方法。
  7. 複数の物体のそれぞれに起因する輝度の成分の重畳である画素の輝度を含む、複数の透視画像における、前記画素の輝度が複数の値のうちの各値を有する透視画像の出現頻度に基づいて、当該画素の輝度の確率分布を取得し、
    前記取得された確率分布を表す混合分布を推定し、
    前記推定された混合分布を構成する複数の部分分布のうちの期待値が最小である期待値最小分布に対応し且つ前記画素の輝度の少なくとも一部を構成する成分を推定し、
    前記透視画像に含まれる前記画素の輝度から、前記推定された成分を除去する、
    処理をコンピュータに実行させる画像処理プログラム。
JP2017508963A 2015-03-31 2015-03-31 画像処理装置、画像処理方法、及び、画像処理プログラム Expired - Fee Related JP6524497B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/060275 WO2016157457A1 (ja) 2015-03-31 2015-03-31 画像処理装置、画像処理方法、及び、画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2016157457A1 true JPWO2016157457A1 (ja) 2018-01-25
JP6524497B2 JP6524497B2 (ja) 2019-06-05

Family

ID=57004018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017508963A Expired - Fee Related JP6524497B2 (ja) 2015-03-31 2015-03-31 画像処理装置、画像処理方法、及び、画像処理プログラム

Country Status (3)

Country Link
US (1) US10504225B2 (ja)
JP (1) JP6524497B2 (ja)
WO (1) WO2016157457A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6524497B2 (ja) * 2015-03-31 2019-06-05 国立大学法人東北大学 画像処理装置、画像処理方法、及び、画像処理プログラム
JP7024954B2 (ja) 2017-04-12 2022-02-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置及びx線ct装置
CN113361769B (zh) * 2021-06-04 2023-01-03 南方电网科学研究有限责任公司 基于prmse和crmse评价指标的稳定裕度值预测方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58130030A (ja) * 1981-10-05 1983-08-03 工業技術院長 X線ディジタル画像処理装置
JP2003000579A (ja) * 2001-05-10 2003-01-07 Agfa Gevaert Nv 放射線写真の不均一性の遡及的修正方法
JP2005065856A (ja) * 2003-08-21 2005-03-17 Fuji Photo Film Co Ltd 異常陰影検出方法および装置並びにプログラム
JP2009192519A (ja) * 2008-01-17 2009-08-27 Anritsu Sanki System Co Ltd X線異物検出装置
JP2011078069A (ja) * 2009-10-02 2011-04-14 Sri Sports Ltd シルエット抽出方法
JP2011512999A (ja) * 2008-03-04 2011-04-28 トモセラピー・インコーポレーテッド 改良された画像セグメンテーションの方法およびシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110588B2 (en) 2001-05-10 2006-09-19 Agfa-Gevaert N.V. Retrospective correction of inhomogeneities in radiographs
US20030058237A1 (en) * 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Multi-layered background models for improved background-foreground segmentation
US6999620B1 (en) * 2001-12-10 2006-02-14 Hewlett-Packard Development Company, L.P. Segmenting video input using high-level feedback
US7190809B2 (en) * 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
US7359552B2 (en) * 2004-12-15 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Foreground detection using intrinsic images
US7885463B2 (en) * 2006-03-30 2011-02-08 Microsoft Corp. Image segmentation using spatial-color Gaussian mixture models
EP1862941B1 (en) * 2006-05-22 2016-10-26 Axis AB Method and apparatus for identifying properties of an object detected by a video surveillance camera
US9189886B2 (en) * 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
JP5506273B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
US8320666B2 (en) * 2009-08-14 2012-11-27 Genesis Group Inc. Real-time image and video matting
WO2011033784A1 (ja) * 2009-09-18 2011-03-24 国立大学法人東北大学 信号抽出装置
WO2012008500A1 (ja) * 2010-07-14 2012-01-19 国立大学法人東北大学 信号処理装置、信号処理プログラム及び信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US8744125B2 (en) * 2011-12-28 2014-06-03 Pelco, Inc. Clustering-based object classification
US10388020B2 (en) * 2012-04-11 2019-08-20 The Trustees Of Columbia University In The City Of New York Methods and systems for segmentation of organs and tumors and objects
CN105654458A (zh) * 2014-11-14 2016-06-08 华为技术有限公司 图像处理的方法及装置
US9536136B2 (en) * 2015-03-24 2017-01-03 Intel Corporation Multi-layer skin detection and fused hand pose matching
JP6524497B2 (ja) * 2015-03-31 2019-06-05 国立大学法人東北大学 画像処理装置、画像処理方法、及び、画像処理プログラム
US10475186B2 (en) * 2016-06-23 2019-11-12 Intel Corportation Segmentation of objects in videos using color and depth information
US20180025749A1 (en) * 2016-07-22 2018-01-25 Microsoft Technology Licensing, Llc Automatic generation of semantic-based cinemagraphs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58130030A (ja) * 1981-10-05 1983-08-03 工業技術院長 X線ディジタル画像処理装置
JP2003000579A (ja) * 2001-05-10 2003-01-07 Agfa Gevaert Nv 放射線写真の不均一性の遡及的修正方法
JP2005065856A (ja) * 2003-08-21 2005-03-17 Fuji Photo Film Co Ltd 異常陰影検出方法および装置並びにプログラム
JP2009192519A (ja) * 2008-01-17 2009-08-27 Anritsu Sanki System Co Ltd X線異物検出装置
JP2011512999A (ja) * 2008-03-04 2011-04-28 トモセラピー・インコーポレーテッド 改良された画像セグメンテーションの方法およびシステム
JP2011078069A (ja) * 2009-10-02 2011-04-14 Sri Sports Ltd シルエット抽出方法

Also Published As

Publication number Publication date
WO2016157457A1 (ja) 2016-10-06
US20180025493A1 (en) 2018-01-25
JP6524497B2 (ja) 2019-06-05
US10504225B2 (en) 2019-12-10

Similar Documents

Publication Publication Date Title
Jiang et al. Blind deblurring of spiral CT images
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
CN107958471B (zh) 基于欠采样数据的ct成像方法、装置、ct设备及存储介质
RU2015138724A (ru) Координатная привязка медицинских изображений
JP5215612B2 (ja) 強度プロファイルの領域を分類するシステム
JP2015043959A5 (ja)
JP7143330B2 (ja) 画像再構築のための方法および装置
JP6156847B2 (ja) 放射線画像処理装置および方法並びにプログラム
JP2018518735A (ja) カラーキャリブレーション装置及び方法
WO2016157457A1 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JP2011203160A (ja) X線ct画像再構成方法及びx線ct画像再構成プログラム
JP2019096222A5 (ja)
JP2015222473A5 (ja)
CN108885786B (zh) 医学图像处理
Oh et al. Robust estimation of motion blur kernel using a piecewise-linear model
Yilmaz et al. Noise removal of CBCT images using an adaptive anisotropic diffusion filter
CN107810518B (zh) 图像处理系统和方法
JP5431501B2 (ja) 画像処理装置、及びその方法
US10311568B2 (en) Image processing apparatus, control method thereof, and computer-readable storage medium
CN105488824B (zh) 一种重建pet图像的方法和装置
Zhang et al. Investigating the feasibility of using partial least squares as a method of extracting salient information for the evaluation of digital breast tomosynthesis
CN116188330B (zh) 拼接图像灰度处理方法、图像拼接方法、装置和介质
JP7469858B2 (ja) 医用画像処理装置、医用画像処理方法、および画像処理装置
Abboud et al. Impact of train-and test-time Hounsfield unit window variation on CT segmentation of liver lesions
Lee Accelerated deterministic annealing algorithms for transmission CT reconstruction using ordered subsets

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170828

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A801

Effective date: 20170927

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6524497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees