JP2015029838A - 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム - Google Patents

医用画像処理装置、医用画像処理方法、及び、医用画像処理システム Download PDF

Info

Publication number
JP2015029838A
JP2015029838A JP2013163425A JP2013163425A JP2015029838A JP 2015029838 A JP2015029838 A JP 2015029838A JP 2013163425 A JP2013163425 A JP 2013163425A JP 2013163425 A JP2013163425 A JP 2013163425A JP 2015029838 A JP2015029838 A JP 2015029838A
Authority
JP
Japan
Prior art keywords
image
point
fluoroscopic
image processing
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013163425A
Other languages
English (en)
Other versions
JP6226621B2 (ja
Inventor
隆介 平井
Ryusuke Hirai
隆介 平井
幸辰 坂田
Koshin Sakata
幸辰 坂田
安則 田口
Yasunori Taguchi
安則 田口
京佳 杉浦
Kyoka Sugiura
京佳 杉浦
敦司 谷口
Atsushi Yaguchi
敦司 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013163425A priority Critical patent/JP6226621B2/ja
Priority to US14/337,649 priority patent/US9675818B2/en
Priority to CN201410382724.7A priority patent/CN104337529A/zh
Publication of JP2015029838A publication Critical patent/JP2015029838A/ja
Application granted granted Critical
Publication of JP6226621B2 publication Critical patent/JP6226621B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0487Motor-assisted positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • A61N2005/1062Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source using virtual X-ray images, e.g. digitally reconstructed radiographs [DRR]

Abstract

【課題】被検体を撮影した複数の透視画像に対して、ユーザが行う位置合わせのための対応点の入力を簡単にするためのアシストを行う医用画像処理装置を提供する。【解決手段】医用画像処理装置1は、被検体2を撮影した複数の透視画像のうち一の透視画像上に指示された指示点の位置情報を取得する第1取得部11と、前記複数の透視画像のうち、前記一の透視画像とは異なる他の透視画像上に、前記指示点に対応した候補点を求める第2取得部12と、前記他の透視画像上の前記候補点近傍の画像を拡大した拡大画像を生成する生成部13とを備える。【選択図】 図6

Description

本発明の実施形態は、医用画像処理装置、医用画像処理方法、及び、医用画像処理システムに関する。
放射線治療とは、放射線を患者(被検体)の体内の病巣へ照射して破壊する治療方法である。このときに放射線を病巣の位置に正確に照射しないと正常組織までも破壊してしまう。
そのため、治療計画時において、まず、患者の位置を決定した上で、CT(Computed Tomography)装置で患者の体内の透視画像を予め撮影し、この透視画像から患者の体内の病巣の位置を3次元的に把握し、次に、この病巣の位置に基づいて正常組織への照射が少なくなるような放射線の照射方向や照射強度を決める。治療時には、患者の透視画像を再び撮影して、この透視画像と治療計画時の透視画像にそれぞれ対応点を医師(ユーザ)が入力し、この対応点を参考にして、治療計画に従った位置合わせを患者に行い、放射線を病巣に照射する。
しかし、治療は複数回にわたって行われるので、これら治療毎に患者の位置合わせを行う必要がある。また、患者は、この位置決めから放射線照射が終了するまでの間、同じ姿勢を保つ必要があって負担が高い。したがって、この位置合わせは、正確に、かつ、短時間で行うことが望まれている。
特開2011―212130号公報
そこで、本発明の実施形態は、被検体を撮影した複数の透視画像に対して、ユーザが行う位置合わせのための対応点の入力を簡単にするためのアシストを行う医用画像処理装置、医用画像処理方法、及び、医用画像処理システムを提供することを目的とする。
上記目的を達成するために、本発明の実施形態に係る医用画像処理装置は、被検体を撮影した複数の透視画像のうち一の透視画像上に指示された指示点の位置情報を取得する第1取得部と、前記複数の透視画像のうち、前記一の透視画像とは異なる他の透視画像上に、前記指示点の前記位置情報に対応した候補点の位置情報を求める第2取得部と、前記他の透視画像上の前記候補点近傍の画像を拡大した拡大画像及び前記一の透視画像上の前記指示点近傍の画像の少なくとも一方を生成する生成部と、を備える。
治療計画時の被検体の位置を示した斜視図。 治療時の被検体の位置を示した斜視図。 3次元空間において異なる2方向から撮影した透視画像を示した図。 図2において、エピポーラ面とエピポーラ線を追加した図。 表示部の表示画面の図であって、(a)は治療計画時の正面像、(b)は治療計画時の側面像、(c)は治療計画時の正面像、(d)は治療計画時の側面像、(e)は治療計画時の正面像の拡大画像、(b)は治療計画時の側面像の拡大画像、(c)は治療時の正面像の拡大画像、(d)は治療時の側面像の拡大画像の図。 実施形態1の医用画像処理装置のブロック図。 実施形態1の医用画像処理装置のフローチャート。 X線撮影装置における3次元空間上の第1線源、第2線源、第1投影面、第2投影面の図。 図8にエピポーラ面を追加した図。 エピポーラ線と探索範囲を表した図。 (a)は第1投影面の図、(b)は第2投影面の図、(c)は正面像と側面像とエピポーラ線との関係図。 (a)(b)はHL特徴パターンの例の図。 第2透視画像におけるエピポーラ線を含む探索範囲の図。 HL特徴算出窓の図である。 実施形態2の医用画像処理装置のブロック図。 実施形態2の医用画像処理装置のフローチャート。 実施形態2における表示部の表示画面の図。 変更例1における表示部の表示画面の図。 変更例2における表示部の表示画面の図。 変更例3における表示部の表示画面の図。 変更例3における表示部の表示画面の他の例の図。 変更例4における表示部の表示画面の図。 変更例4における表示部の表示画面の他の例の図。
以下、本発明の実施形態の医用画像処理装置1について図面に基づいて説明する。
本実施形態に係る医用画像処理装置1は、放射線、陽子線、粒子線治療において使用されるものであって、被検体(患者)2を撮影した透視画像を用いた位置決め装置として用いられる。なお、「透視画像」とは、X線撮影装置、CT装置、MRI(Magnetic Resonance Imaging)装置などの撮影装置を用いて、被検体2の体内を撮影した画像である。
以下、本実施形態の医用画像処理装置1について図1〜図5に基づいて説明する。
まず、図1に示すように、治療計画時において、ユーザ(医師)は、ベッドの上に被検体を寝かす。この寝かした状態で、被検体2の体内の病巣の位置を3次元空間上で表すとV1(X1,Y1,Z1)になる。そして、ユーザは、互いに異なる2方向から被検体2を撮影して、透視画像(例えば、X線画像)を取得する。
次に、図2に示すように、治療時において、ベッドの上に被検体2を再び寝かす。この寝かした状態で、被検体2の体内の病巣の位置を3次元空間上で表すとV2(X2,Y2,Z2)になる。そして、ユーザは、互いに異なる2方向から被検体2を再び撮影して、透視画像(例えば、X線画像)を取得する。
そして、ユーザは、治療計画時に撮影した透視画像と、治療時に撮影した透視画像とから、解剖学的に同一である画像内の対応点を、人手で複数個所指示して、治療計画時と治療直前との患者の位置のずれを求め、このずれに基づいてベッドを移動させて被検体2の位置合わせを行っている。
このとき使用する画像は、上記したように透視画像であるため光学カメラで撮影されたような遮蔽輪郭などがなく、体内の前後関係を把握することが難しい。そのため、ユーザが、例えば、被検体2の正面と側面の2方向から撮影された透視画像を用いて解剖学的に同一である病巣の位置を判断することが難しい。例えば、図3に示すように、X線撮影装置は、第1線源S1と第2線源S2と対をなす第1投影面F1と第2投影面F2からなり、被検体2の正面透視画像(以下、単に「正面像」という)と側面透視画像(以下、単に「側面像」という)を生成する。しかし、この正面像と側面像において、病巣の位置V1を表す点v1と点v2を求めることは困難である。
このため、従来方法では図4に示すように、正面像上の点v1に対応した側面像の対応点v2は、側面像上においてエピポーラ拘束から求まるエピポーラ線L上に存在する。そのため、この幾何的関係を利用して、側面像上にエピポーラ線Lを表示し、ユーザが行う解剖学的な同一位置の対応点v2の入力をアシストしている。しかし、この従来方法では、対応点の候補となる範囲を、側面像全体から直線L上にまで絞り込むことができるが、直線L上で対応点を探す手間が残るという問題点があった。
そこで、本実施形態の医用画像処理装置1では、図5に示すように、治療計画時の正面像C1の指示点P11に対応した側面像C2上の対応点の候補である候補点EP21、EP22、EP23を求める場合に、側面像C2の候補点EP21、EP22、EP23をエピポーラ線Lに基づいて求め、かつ、この候補点EP21、EP22、EP23近傍の画像の拡大画像E21、E22、E23を生成して、ユーザが対応点をより入力し易くする。なお、このようにP11を指示点とした場合、P21はEP21となって、拡大画像中でも、EP31は、EP21と画像座標で同じ位置を示している。そして、P21とEP21は同じ画像座標の同一の点であり、両点共に候補点である。また、同様に、治療計画時の正面像C1の指示点Pに対応した治療時の正面像C3上の対応点を求める場合に、治療時の正面像C3の対応点の候補点EPを求め、かつ、この候補点EP近傍の画像の拡大画像E31を生成して、ユーザが対応点をより入力し易くする。なお、この説明は、一例であり、指示点は、C1〜C4のいずれに入力してもよい。
実施形態1
以下、実施形態1の医用画像処理装置1について図5〜図14に基づいて説明する。
医用画像処理装置1の構成について図6のブロック図に基づいて説明する。医用画像処理装置1は、第1取得部11、第2取得部12、生成部13、表示部14を備える。
第1取得部11は、被検体2を撮影した一の透視画像に入力された指示点Pを取得し、この一の透視画像と指示点Pを第2取得部12、生成部13に出力する。
第2取得部12は、第1取得部11から一の透視画像と指示点Pを取得し、一の透視画像とは異なる他の透視画像上に、指示点Pに対応した候補点EPを求め、生成部13に出力する。
生成部13は、他の透視画像内の候補点EP近傍の画像を拡大した拡大画像を生成する。
表示部14は、ディスプレイなどであって、一の透視画像、他の透視画像、拡大画像を並べて表示する。表示部14が表示する画像の例を図5に示す。
図5において「W1」は、表示部14の画像のウィンドウを示している。
「C1」は、時刻1(例えば、治療計画時)において、第1線源S1の方向Aから撮影した第1透視画像(被検体2の頭部の正面像)をウィンドウW1の左上側に表示したものである。
「C2」は、時刻1において、第2線源S2の方向Bから撮影した第2透視画像(被検体2の頭部の側面像)をウィンドウW1の左下側に表示したものである。なお、表示部14は、後から説明するエピポーラ線Lを第2透視画像C2には表示しない。
「C3」は、時刻2(例えば、治療時)において、第1線源S1の方向Aから撮影した第3透視画像(被検体2の頭部の正面像)をウィンドウW1の中央部上側に表示したものである。
「C4」は、時刻2において、第2線源S2の方向Bから撮影した第4透視画像(被検体2の頭部の側面像)をウィンドウW1の中央部下側に表示したものである。
「E11」は、生成部12で生成した第1透視画像C1上の指示点Pを中心とした拡大画像をウィンドウW1の右上側に表示したものである。
「E21」〜「E23」は、生成部12で生成した第2透視画像C2上の3個の候補点EPを中心とした拡大画像をウィンドウW1の右下側に表示したものである。
「E31」は、生成部12で生成した第3透視画像C3上の候補点EPを中心とした拡大画像をウィンドウW1の右上側に表示したものである。
「E41」〜「E43」は、生成部12で生成した第4透視画像C4上の3個の候補点EPを中心とした拡大画像をウィンドウW1の右下側にそれぞれ表示したものである。
医用画像処理装置1は、図5に示すように、治療計画時における被検体2の第1透視画像(正面像)C1の指示点Pに対応した第2透視画像(側面像)C2の候補点EPを求める方法と、治療計画時の第1透視画像(正面像)C1の指示点Pに対応した治療時の第3透視画像(正面像)C3の候補点EPを求める方法及び治療計画時の第2透視画像(側面像)C2の指示点Pに対応した治療時の第4透視画像(側面像)C4の候補点EPを求める方法を行うので、以下では分けて説明する。
まず、治療計画時における被検体2の第1透視画像C1の指示点Pに対応した第2透視画像C2の候補点EPを求める方法について説明する。
第1取得部11は、複数の透視画像をX線撮影装置などから取得するか、過去に撮影した透視画像を予め記憶手段から取得する。また、過去の治療において、入力された点を記憶手段が記憶しておき、取得してもよい。
複数の透視画像は、同じ時刻1(治療計画時)において、X線撮影装置のX線の線源から被検体2に、互いに異なる2方向から照射して撮影された被検体2の透視画像であって、この場合には正面像C1と側面像C2である。互いに異なる2方向から透視画像を撮影するX線撮影装置7の例を図8に示す。
図8に示すように、X線撮影装置7は、XYZ軸上の3次元空間において第1線源S1と第2線源S2と対をなす第1投影面F1、第2投影面F2からなる。これら投影面F1、F2は、FPD(Flat Panel Detector)である。第1線源S1から出力されるX線は、被検体2内部を通過して第1投影面F1に到達して、透過してきたX線のエネルギーに基づいて第1透視画像(正面像)C1を生成する。同様に第2線源S2から出力されるX線は、第2投影面F2に到達して第2透視画像(側面像)C2を生成する。X線撮影装置7は、撮影位置の校正が行われており、装置系で定義した3次元空間のXYZ軸の座標系と、それぞれの投影面F1、F2の2次元座標系との座標変換を行うための透視投影行列が予め求められている。
ユーザは、表示部14に表示されている第1透視画像C1に、ユーザ(例えば、医師)が指示点Pを指示し、第1取得部11は、その指示点Pに関する第1投影面F1上の2次元座標位置(位置情報)であるv1(x1,y1)を取得する。指示点Pの指示方法として、例えばユーザがマウスのカーソル位置を指示したい第1透視画像C1の位置に合わせて、ボタンを押すなどして指示する。また、表示部14がタッチパネルを持つディスプレイのときは、マウスではなく指等で触れた位置を指示点Pの座標位置としてもよい。
第2取得部12は、第1取得部11から、指示点Pが指示された第1透視画像C1と第2透視画像C2を取得する。第2取得部12は、第1透視画像C1(第1投影面F1)上の指示点Pの2次元位置v1(x1,y1)に対応した候補点EPの2次元位置v2(x2,y2)を第2透視画像C2(第2投影面F2)上に求め、生成部13に出力する。候補点EPの2次元位置v2(x2,y2)を求める方法について説明する。
図9に示すように、第1透視画像C1(第1投影面F1)上の指示点Pを第2透視画像C2(第2投影面F2)上に投影すると直線Lになる。この直線Lは、エピポーラ拘束から得られる。なお、図9は、図8のX線撮影装置7にエピポーラ拘束のエピポーラ面Mを追加したものであって、エピポーラ面Mは、3次元空間XYZ中の第1線源S1、第2線源S2及び第1投影画像C1上の指示点Pの3点を含む面である。そして、第2投影面F2とエピポーラ面Mが交差する直線Lが、第2透視画像C2上に指示点Pを投影した直線(エピポーラ線L)である。第2取得部12は、第1投影面F1における指示点Pの2次元座標v1(x1,y1)を前記した透視投影行列で座標変換してエピポーラ線Lを求める。
図10に示すように、第2取得部12は、エピポーラ線Lを含む一定の幅を有する帯状の範囲を探索範囲3として第2透視画像C2に設定し、この探索範囲3内において候補点EPの2次元位置v2(x2,y2)を求める。図11〜図14に、探索範囲3内の候補点EPの2次元位置v2(x2,y2)を求める方法を示す。
投影面に対する透視画像は、本来は透視投影であるが、平行投影に近似して考えると、被検体2がエピポーラ面Mと接している位置(頂点)は、第1投影面F1上と第2投影面F2上において、エピポーラ線L上に特徴点として投影される。例えば、図11(a)が第1投影面F1と指示点Pを表し、図11(b)が第2投影面F2と候補点EPを表し、図11(c)が被検体2の頭部の正面像C1と側面図C2の顎の下端にエピポーラ線Lが接している状態であって、顎のエッジ(特徴点)は、正面像C1と側面図C2のエピポーラ線L上にそれぞれ表われる。
そのため、第2取得部12は、エピポーラ線Lを含む探索範囲3内においてこの特徴点をエッジ強度から求めて、候補点EPとする。第2取得部12は、この特徴点(エッジ)を求めるためのエッジ強度として、ハールライク(Haar-like、以下、「HL」という)特徴量を用いる。なお、「HL特徴量」とは、矩形窓5内の平均明度の差分値として求められるスカラ量であり、その値は明度勾配の強度を表す。
まず、図12に示すように、第2取得部12は、一定の大きさの矩形窓5と、矩形窓5内に1つのHL特徴パターン4を配置したHL特徴算出窓6を設定する。HL特徴パターン4は、ユーザが図12(a)(b)に示すように複数設定しておく。
次に、図13に示すように、第2取得部12は、探索範囲3内のある点(この点は任意の位置である)を中心としたHL特徴算出窓6をエピポーラ線Lの傾きに応じて適宜回転させて、その点の位置におけるHL特徴量を算出する。また、エピポーラ線Lの傾きに応じて、HL特徴パターンを選択してもよい。第2取得部12は、探索範囲3内の点(位置)のそれぞれに対して、求めたHL特徴量の中で最も大きいHL特徴量(エッジ強度)の位置を候補点EPの2次元位置v2(x2,y2)とする。また、第2取得部12は、求めたHL特徴量の中で、絶対値が最も大きいHL特徴量(エッジ強度)の位置を候補点EPの2次元位置v2(x2,y2)としてもよい。なお、このHL特徴量(エッジ強度)の算出方法に従うと、特徴点は、エピポーラ線Lの法線方向にエッジとして投影されているのが好ましい。
次に、第2取得部12が、探索範囲3から候補点EPの2次元位置v2(x2,y2)を求める変更例1を説明する。図14に示すように、第2取得部12は、HL算出窓6内に複数のHL特徴パターン4を配置して、候補点EPを求めてもよい。
変更例2について説明する。第2取得部12は、探索範囲3をエピポーラ線Lの所定の長さ毎の複数の領域に分割して、それぞれの分割領域内で上記と同様に候補点EPを求めてもよい。これにより、エッジ強度が大きい複数のエッジが集中した状態であっても、その集中した部分にのみ候補点EPが集中することなく、分割領域毎に候補点EPを求めることができる。
変更例3について説明する。第2取得部12は、第1透視画像C1の指示点Pを中心とし、第1透視画像C1のエピポーラ線Lに応じて回転させたHL特徴算出窓6を用いてHL特徴量を求めておく。次に、第2取得部12は、第2透視画像C2内の探索範囲3内の点に対してHL特徴量を算出し、指示点Pから得たHL特徴量と最も類似した点を候補点EPとしてもよい。
変更例4について説明する。第2取得部12は、最もHL特徴量(エッジ強度)が高い点からN番目(但し、N>1)までのHL特徴量(エッジ強度)を有する点までを、それぞれ候補点EPとしてもよい。なお、第1透視画像C1と第2透視画像C2とのダイナミックレンジが異なる場合には、画像を正規化しておく。
変更例5について説明する。上記ではHL特徴量を用いて説明したが、これに代えて。双方のヒストグラムの類似度を、ヒストグラムを確率分布として、バタチャリヤ距離(Bhattacharyya distance)によって、距離が小さいほど類似度が高いとしてもよい。
変更例6について説明する。第1透視画像C1上での指示点Pを中心とした一定の大きさの矩形窓内の画素値を用いて、第2透視画像C2上のエピポーラ線L上で、最も類似度が高くなる矩形窓を探索してもよい。類似度は、正規化相互相関を用いる。なお、類似度は、その他の画像特徴量を用いてもよく、例えばベクトル型の特徴量であれば、ベクトル間の距離が小さいほど類似度を高くする。
変更例7について説明する。第2取得部12は、求めた候補点EPを、候補点EPから最も距離が小さいエピポーラ線L上の点に修正してもよい。
次に、例えば、治療計画時などの第1透視画像C1の指示点Pに対応した治療時などの第3透視画像C3の候補点EPを求める方法について説明する。
第1取得部11は、ある時刻1(治療計画時)において、図8のX線撮影装置7を用いて、第1透視画像(正面像)C1を取得する。指示点Pは、表示部14に表示されている第1透視画像C1にユーザが指示する。
第2取得部12は、図8のX線撮影装置を用いて、異なる時刻2(治療時)であって、第1透視画像C1とほぼ同じ方向から撮影された第3透視画像(正面像)C3を取得する。なお、互いに異なる2方向の透視画像(正面像と側面像)とは異なり、同じ方向の透視画像であるためエピポーラ拘束がない。そのため、第1透視画像C1上の指示点Pに対応した第3透視画像C3上の候補点EPの求め方について改めて説明する。
第1透視画像C1上での指示点Pを中心とした一定の範囲の大きさの矩形窓内の画素値(例えば、輝度)を用いて、第3透視画像C3上で、最も類似度が高くなる矩形窓を探索する。類似度は、正規化相互相関を用いる。なお、類似度は、その他の画像特徴量を用いてもよく、例えばベクトル型の特徴量であれば、ベクトル間の距離が小さいほど類似度を高くする。
治療計画時の第2透視画像(側面像)C2の指示点Pに対応した治療時の第4透視画像(側面像)C4の候補点EPを求める方法も上記と同様である。なお、このときの第2透視画像(側面像)C2の指示点Pは、第1透視画像(正面像)C1の指示点Pに対応した候補点EPを用いる。なお、指示点は、C3でもC4に指示しても構わない。
生成部13は、図5に示すように、第2透視画像C2内の候補点EPを中心とした所定の大きさの四角形の画像を拡大して、拡大画像E21、E22、E23を生成し、また、第4透視画像C4内の複数の候補点EPをそれぞれ中心とした所定の大きさの四角形の画像を拡大して、拡大画像E41、E42、E43を生成し、表示部14にそれぞれの候補点EPを重畳させて表示する。なお、表示部14は、エピポーラ線Lを第2透視画像C2に表示しない。
また、生成部13は、第1透視画像C1内の指示点Pを中心とした所定の大きさの四角形の画像を拡大した拡大画像E11、第3透視画像C3内の候補点EPを中心とした所定の大きさの四角形の画像を拡大した拡大画像E31を生成し、表示部14に指示点Pや候補点EPを重畳させて表示する。
なお、生成部13は、第1透視画像C1〜第4透視画像C4における所定の大きさの四角形の画像をリサイズ処理して拡大画像を生成する。このリサイズ処理は、一般的な画像リサイズ法であるニアレストネイバー法、バイリニア法、キュービックコンボリューション法などを用いる。
医用画像処理装置1の処理について図7のフローチャートに基づいて説明する。
ステップS1において、第1取得部11は、第1透視画像C1に入力された指示点Pを取得する。
ステップS2において、第2取得部12は、第2透視画像C2と、指示点Pが指示された第1透視画像C1を取得する。次に、第2取得部12は、指示点Pに対応した候補点EPを第2透視画像C2上に求める。また、第2取得部12は、第3透視画像C3と、指示点Pが指示された第1透視画像C1を取得する。次に、第2取得部12は、指示点Pに対応した候補点EPを第3透視画像C3上に求める。
ステップS3において、生成部13は、第2透視画像C2内の候補点EP近傍の画像を拡大した拡大画像E21、E22、E23を生成する。次に、表示部14が拡大画像E21、E22、E23を候補点EPと共に表示する。また、生成部13は、第3透視画像C3内の候補点EP近傍の画像を拡大した拡大画像E31を生成する。次に、表示部14が拡大画像E31を候補点EPと共に表示する。また、生成部13は拡大画像E41、E42、E43も同様にして生成して、表示部14に候補点EPと共に表示する。なお、表示部14は、エピポーラ線Lを第2透視画像C2に表示しない。
本実施形態によれば、第1透視画像C1における指示点Pに対応した第2透視画像C2又は第3透視画像C3上の候補点EPをそれぞれ求め、これら候補点EPの周辺の画像を拡大して拡大画像E21、E22、E23、E31を生成し、ユーザに提示することにより、ユーザが指示点Pに対応した対応点の入力するときの利便性が向上する。第4透視画像においても拡大画像E41、E42、E43の候補点EPから対応点を簡単に入力できる。
実施形態1の変更例1について説明する。複数の透視画像は、X線透視画像に代えて、CT撮影時に求められている被検体2内部をボクセル毎に数値化しているボクセルデータから再構成した画像(以下、DRR:Digitally Reconstructed Radiograph)でもよい。ボクセルデータを用いるので、任意の位置に視点(図8に示す第1線源S1と第2線源S2)を置いてDRRを生成できる。
また、MRI装置、PET(positron emission tomography)装置、SPECT(single photon emission computed tomography)装置から得られる3次元ボクセルデータからDRRを生成してもよい。複数の透視画像が、互いにネガポジ反転している場合は、適宜修正する。
また、複数の透視画像は、X線撮影、CT撮影等によって得られたボクセルデータから再構成した透視画像の組み合わせでもよい。
実施形態1の変更例2について説明する。第2取得部12では、第1透視画像C1と第3透視画像C3を用いるが、撮影された画像の解像度が異なっている場合がある。透視画像が、1画素当たりの縦横の3次元空間上での長さが既知である場合には、2つの透視画像間で1画素当たりの縦横の長さが同じになるように、画像のリサイズ処理を行ってから、候補点EPを求める。画像のリサイズ処理は、上記したように、一般的な画像リサイズ法であるニアレストネイバー法、バイリニア法、キュービックコンボリューション法等を用いる。
実施形態1の変更例3について説明する。生成部13は、各拡大画像のコントラストを伸長してもよい。透視画像を構成する各画素の画素データは、表示部14であるディスプレイの表示ダイナミックレンジ(0〜255)よりも広いダイナミックレンジの画素データ(輝度)を持つ。そのため。生成部13は、拡大画像内の画素値の最小値から最大値までを線形に表示ダイナミックレンジの256階調に階調を割り当てるようにして、コントラストの伸長を行う。これにより、ユーザは、拡大画像から対応点をより見つけやすくなる。また、生成部13は、拡大画像内の画素データをヒストグラム化し、ヒストグラム平坦化を行って、非線形な階調を割り当ててもよい。
実施形態1の変更例4について説明する。生成部13は、拡大画像E21を表示するときに、第1透視画像C1の拡大画像E11と第2透視画像C2の拡大画像E21の拡大差分画像も表示してもよい。この拡大差分画像は、拡大画像E11の各画素の輝度と拡大画像E21の各画素の輝度の差分から生成される。これによって、ユーザが指示点Pに対応した対応点の入力するときの利便性が向上する。また、拡大画像E11と拡大画像E22の画素データのダイナミックレンジが異なる場合は、双方の画像を正規化(正規化データの範囲は0〜1)して差分を求め(正規化差分データは−1〜1)、表示ダイナミックレンジの256階調を割りあてる。
実施形態1の変更例5について説明する。ユーザが候補点EPを、マウスなどで第2透視画像C2に直接指示し、その指示した位置を第2取得部12が、透視画像C2と候補点EPの位置を記憶してもよい。
実施形態1の変更例6について説明する。読み込んだ透視画像が前回の治療時に既に点が打たれている場合には、それを記憶しておき指示点として再利用してもよい。
実施形態1の変更例7について説明する。上記説明では、生成部13が拡大画像を生成する場合に、候補点、又は、指示点を中心にして拡大画像を生成したが、これに限らず、拡大画像の中に候補点、又は、指示点が含まれていれば、これら点が中心以外の他の位置に配置した状態で生成部13が拡大画像を生成してもよい。
実施形態2
実施形態2の医用画像処理装置1について図15〜図23に基づいて説明する。
本実施形態の医用画像処理装置1の構成を、図15のブロック図に基づいて説明する。医用画像処理装置1は、第1取得部11、第2取得部12、修正部21、生成部22、表示部14を備える。本実施形態と実施形態1の異なる点は、修正部21が加わり、また、生成部22の処理が異なる。そのため、この異なる構成と作用についてのみ説明し、実施形態1と同様の構成と作用については、その説明を省略する。
表示部14は、実施形態1の表示部14と同様に図17に示すように、第1透視画像C1、第2透視画像C2、第3透視画像C3、第4透視画像C4、拡大画像E11、拡大画像E21、拡大画像E31、拡大画像E41、指示点P、候補点EPを表示する。表示部14は、拡大画像E11、E21、E31、E41が生成されていなければ表示しない。
なお、以下の説明では、指示点P、候補点EPの区別をせずに「点」と記載する。
生成部22は、実施形態1の生成部13と同様に、第1取得部11及び第2取得部12から候補点EPを取得し、拡大画像を生成して表示部14に表示する。また、本実施形態の生成部22は、後から説明する修正部21において修正された指示点Pや候補点EPの座標を取得し、拡大画像を生成して表示部14に表示する。
ユーザは、マウスなどのインターフェースによって、表示部14に表示されている指示点Pや候補点EPの位置を修正し、修正部21は、その修正された点の座標を取得し、生成部22へ修正した点の座標を出力する。また、表示部14に表示されている拡大画像E11、E21、E31、E41上にマウスポインタがあり、修正部21は、点を選択していない場合、マウスホイールを動かすことで、拡大率を変更する。
修正部21における点の修正は、ユーザがマウスで点の付近においてクリックして選択して点を指示し、ドラッグしながら点の位置を移動させて行う。例えば、ユーザが第1透視画像C1上で点P11を選択している場合には、修正部21は、第1透視画像C1上で点P11の位置座標を逐次変更して点を描画させながら、その座標を生成部22に出力する。生成部22は拡大画像E11をその時点での点P11の座標を中心とした拡大画像E11に変更する。このとき、点EP11の描画位置は、拡大画像E11の中心であるため、描画位置に変化はない。また、修正部21は、拡大画像E11の表示範囲の大きさを変更しない。
また、ユーザが拡大画像E11上の点EP11を選択、修正している場合には、修正部21は、逐次変更している点EP11の座標を生成部22には出力せずに、拡大画像E11上の点EP11及び第1透視画像C1上の点P11の描画位置だけを逐次変更する。
また、修正部21は、点EP21、点EP31、点EP41が選択された場合にも、同様にして拡大画像を変更する。
医用画像処理装置1の処理を図16のフローチャートに基づいて説明する。このフローチャートは、実施形態1において、拡大画像が生成された時点から開始している。
ステップS11において、生成部22は、拡大画像及び候補点EPを、図17に示すように表示部14に表示する。
ステップS12において、修正部21は、ユーザによって選択と修正された指示点P又は候補点EPの座標を修正する。
ステップS13において、生成部22は、修正した点の座標に従って拡大画像を生成し、表示部14に再表示する。
本実施形態によれば、ユーザが画像上の点を簡単に修正できるため、対応点をより入力し易くなる。
実施形態2の変更例1について説明する。図18に示すように、拡大画像E11、E21、E31、E41の拡大率に合わせて、各拡大画像E11、E21、E31、E41の下側に拡大画像の表示範囲の水平方向の3次元空間上の長さを、右側に拡大画像の表示範囲の垂直方向の3次元空間上の長さを表示させてもよい。
実施形態2の変更例2について説明する。図19に示すように、拡大画像E11に拡大表示している範囲が、第1透視画像C1上のどの部分であるかを第1透視画像C1上に矩形の枠B11で表示してもよい。第2透視画像C2、第3透視画像C3及び第4透視画像C4でも同様にしてもよい。
実施形態2の変更例3について説明する。本変更例は、候補点EPが複数ある場合の表示部14の表示を説明する。図20に示すように、表示部14は、第1透視画像C1の指示点PP11に対して、第3透視画像C3上に複数の候補点EP31、EP32があった場合を表示している。このときユーザは、拡大画像E31、E32のいずれかをクリックして、複数の候補点EPのうちの一つを選択する。選択されれば、図17の画面に遷移する。なお、図20では、色分け表示ができないため、ハッチング線に差をつけて記載している。
なお、それぞれの拡大画像E11、E21、E13の下側及び右側に、図18で示したようなスケール表示を行ってもよい(不図示)。
また、複数の候補点EPがあった場合には、図21に示すように各点P31、P32を色分けして表示してもよい。また、それぞれの候補点EPに対応する拡大画像E31、E32に点表示に使用した色を同じ色の枠を設けてもよい。なお、図21では、色分け表示ができないため、ハッチング線に差をつけて記載している。
実施形態2の変更例4について説明する。上記実施形態では、拡大画像E11、E21、E13、E14はウィンドウW1の右側に配置しているが、ウィンドウW1の左側に配置してもよい(不図示)。また、図22や図23に示すように拡大画像をフローティングウィンドウW2、W02で表示してもよい。
実施形態2の変更例5について説明する。修正部21における点の選択、移動は、マウスに限らず、キーボード、タッチペン、ディスプレイがタッチパネルを備えていれば、ユーザがフリック入力によって行ってもよい。
変更例
上記各実施形態では、第1透視画像C1と第2透視画像C2を治療計画時に撮影し、第3透視画像C3と第4透視画像C4を治療時に撮影した透視画像で説明したが、これに限らず、第1透視画像C1と第2透視画像C2を第1回の治療時に撮影し、第3透視画像C3と第4透視画像C4を第2回の治療時に撮影したものでもよい。すなわち、第1透視画像C1と第2透視画像C2とをほぼ同じ時刻に撮影し、第3透視画像C3と第4透視画像C4をほぼ同じ時刻に撮影し、第1透視画像C1と第2透視画像C2が、第3透視画像C3と第4透視画像C4より異なる時間やほぼ同じ時間に撮影されたものであればよい。
また、上記実施形態では、互いに異なる2方向の透視画像としては、被検体2の正面像と側面像を用いたが、これは例示であって、被検体2の他の異なる2方向の透視画像であってもよい。
また、上記実施形態では、被検体2として患者の頭部で説明したが、これに限らず胸部、腹部などの他の部位でもよい。
上記の医用画像処理装置1は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現可能である。すなわち、第1取得部11、第2取得部12、生成部13、修正部21、及び生成部22は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現できる。このとき、医用画像処理装置1は、上記のプログラムをコンピュータ装置に予めインストールすることで実現してもよいし、CD−ROM、USBメモリなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、医用画像処理装置1における透視画像などの記憶手段としては、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現できる。
これまで、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として表示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1・・・医用画像処理装置、2・・・被検体、7・・・X線撮影装置、11・・・第1取得部11、12・・・第2取得部、13・・・生成部、14・・・表示部14、21・・・修正部21、22・・・生成部

Claims (14)

  1. 被検体を撮影した複数の透視画像のうち一の透視画像上に指示された指示点の位置情報を取得する第1取得部と、
    前記複数の透視画像のうち、前記一の透視画像とは異なる他の透視画像上に、前記指示点の前記位置情報に対応した候補点の位置情報を求める第2取得部と、
    前記他の透視画像上の前記候補点近傍の画像及び前記一の透視画像上の前記指示点近傍の画像の少なくとも一方を拡大した拡大画像を生成する生成部と、
    を備える医用画像処理装置。
  2. 前記生成部は、前記拡大画像内の画素値をそれぞれコントラスト伸長させる、
    請求項1に記載の医用画像処理装置。
  3. 前記一の透視画像と前記他の透視画像とは、前記被検体を互いに異なる2方向から撮影したものであり、
    第2取得部は、前記一の透視画像上の前記指示点の前記位置情報に対応した前記他の透視画像上のエピポーラ線を含む探索範囲から、前記候補点の位置情報を求める、
    請求項1又は2に記載の医用画像処理装置。
  4. 前記生成部は、前記他の透視画像上に前記候補点が複数存在する場合には、前記候補点毎に前記拡大画像を生成する、
    請求項3に記載の医用画像処理装置。
  5. 前記第2取得部は、前記候補点を前記探索範囲中のエッジ強度に応じて求める、
    請求項3に記載の医用画像処理装置。
  6. 前記第2取得部は、前記エッジ強度が最も大きい点を前記候補点とする、
    請求項5に記載の医用画像処理装置。
  7. 前記第2取得部は、前記エッジ強度が最も大きい点からN番目(但し、N>1)に大きい点までを、それぞれ候補点とする、
    請求項5に記載の医用画像処理装置。
  8. 前記生成部は、前記他の透視画像上の前記探索範囲を複数の分割領域に分割し、前記分割領域毎に前記エッジ強度が最大の点を前記候補点とする、
    請求項3に記載の医用画像処理装置。
  9. 前記生成部は、前記候補点近傍の前記画像に、前記候補点を重畳させて前記拡大画像を生成する、
    請求項1乃至8のいずれか一項に記載の医用画像処理装置。
  10. 前記拡大画像上の前記候補点の位置を移動させる修正部をさらに備える、
    請求項9に記載の医用画像処理装置。
  11. 前記修正部は、前記候補点を前記エピポーラ線上に移動させる、
    請求項10に記載の医用画像処理装置。
  12. 前記修正部は、前記拡大画像の表示範囲の大きさを変更しない、
    請求項10又は11に記載の医用画像処理装置。
  13. 被検体を撮影した複数の透視画像のうち一の透視画像上に指示された指示点の位置情報を取得し、
    前記複数の透視画像のうち、前記一の透視画像とは異なる他の透視画像上に、前記指示点の前記位置情報に対応した候補点の位置情報を求め、
    前記他の透視画像上の前記候補点近傍の画像を拡大した拡大画像を生成する、
    医用画像処理方法。
  14. 被検体を撮影した複数の透視画像のうち一の透視画像上に指示された指示点の位置情報を取得する第1取得機能と、
    前記複数の透視画像のうち、前記一の透視画像とは異なる他の透視画像上に、前記指示点の前記位置情報に対応した候補点の位置情報を求める第2取得機能と、
    前記他の透視画像上の前記候補点近傍の画像及び前記一の透視画像上の前記指示点近傍の画像の少なくとも一方を拡大した拡大画像を生成する生成機能と、
    を備える医用画像処理システム。
JP2013163425A 2013-08-06 2013-08-06 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム Active JP6226621B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013163425A JP6226621B2 (ja) 2013-08-06 2013-08-06 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム
US14/337,649 US9675818B2 (en) 2013-08-06 2014-07-22 Apparatus, method and system for medical image-based radiotherapy planning
CN201410382724.7A CN104337529A (zh) 2013-08-06 2014-08-06 医学图像处理装置、医学图像处理方法以及放疗系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013163425A JP6226621B2 (ja) 2013-08-06 2013-08-06 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム

Publications (2)

Publication Number Publication Date
JP2015029838A true JP2015029838A (ja) 2015-02-16
JP6226621B2 JP6226621B2 (ja) 2017-11-08

Family

ID=52449189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013163425A Active JP6226621B2 (ja) 2013-08-06 2013-08-06 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム

Country Status (3)

Country Link
US (1) US9675818B2 (ja)
JP (1) JP6226621B2 (ja)
CN (1) CN104337529A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230322B2 (en) 2014-04-04 2016-01-05 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method
US9533172B2 (en) 2013-10-31 2017-01-03 Kabushiki Kaisha Toshiba Image processing based on positional difference among plural perspective images
US9582884B2 (en) 2013-11-29 2017-02-28 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method for determining a position of a point
US9734574B2 (en) 2014-03-26 2017-08-15 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6382050B2 (ja) * 2014-09-29 2018-08-29 キヤノンメディカルシステムズ株式会社 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
JP6467654B2 (ja) 2014-11-19 2019-02-13 東芝エネルギーシステムズ株式会社 医用画像処理装置、方法、プログラム及び放射線治療装置
US10549118B2 (en) * 2015-07-22 2020-02-04 P-Cure, Ltd. Irradiation treatment plan system and method
JP6668902B2 (ja) * 2016-04-12 2020-03-18 株式会社島津製作所 位置決め装置および位置決め装置の作動方法
CN107463320B (zh) * 2017-08-25 2021-06-15 上海联影医疗科技股份有限公司 一种系统校正的方法及装置
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
US10786306B2 (en) * 2018-01-24 2020-09-29 Medtronic Ardian Luxembourg S.A.R.L. Denervation therapy
CN111583209B (zh) * 2020-04-29 2021-11-02 上海杏脉信息科技有限公司 一种脑灌注图像特征点选取方法、介质及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105746A (ja) * 2003-10-14 2004-04-08 Toshiba Medical System Co Ltd マンモグラフィ装置
JP2006239254A (ja) * 2005-03-04 2006-09-14 Toshiba Corp 立体画像再構成装置
JP2006247268A (ja) * 2005-03-14 2006-09-21 Hitachi Ltd 患者位置決めシステム及び患者位置決め方法
JP2007526066A (ja) * 2004-03-05 2007-09-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 患者体内において医療器具をガイドするシステム
JP2008142543A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 3次元画像処理装置及びx線診断装置
JP2011212130A (ja) * 2010-03-31 2011-10-27 Natl Inst Of Radiological Sciences 放射線ビーム照射対象位置決め装置およびその位置決め方法
US20120296202A1 (en) * 2011-05-20 2012-11-22 Siemens Aktiengesellschaft Method and System for Registration of Ultrasound and Physiological Models to X-ray Fluoroscopic Images

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2751109B1 (fr) 1996-07-09 1998-10-09 Ge Medical Syst Sa Procede de localisation d'un element d'interet contenu dans un objet tridimensionnel, en particulier lors d'un examen de stereotaxie en mammographie
DE19953177A1 (de) * 1999-11-04 2001-06-21 Brainlab Ag Exakte Patientenpositionierung durch Vergleich von rekonstruierten und Linac-Röntgenbildern
US7224357B2 (en) * 2000-05-03 2007-05-29 University Of Southern California Three-dimensional modeling based on photographic images
US7597663B2 (en) * 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US6965386B2 (en) * 2001-12-20 2005-11-15 Siemens Corporate Research, Inc. Method for three dimensional image reconstruction
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置
DE102004004603A1 (de) * 2004-01-29 2005-08-18 Siemens Ag Verfahren und Bildgebungseinrichtung zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung auf Basis eines 3D-Bilddatensatzes
US8335357B2 (en) 2005-03-04 2012-12-18 Kabushiki Kaisha Toshiba Image processing apparatus
US7623736B2 (en) * 2005-05-06 2009-11-24 Stereotaxis, Inc. Registration of three dimensional image data with patient in a projection imaging system
US8077936B2 (en) * 2005-06-02 2011-12-13 Accuray Incorporated Treatment planning software and corresponding user interface
EP1907065B1 (en) * 2005-07-22 2012-11-07 TomoTherapy, Inc. Method and system for adapting a radiation therapy treatment plan based on a biological model
DE102005034913A1 (de) * 2005-07-26 2007-02-15 Siemens Ag Vorrichtung und Verfahren zur Gewinnung eines Bilddatensatzes zur Planung einer Strahlentherapie eines Patienten, Verwenden einer derartigen Vorrichtung sowie Verfahren zur Patientenpositionierung
DE102006003609B4 (de) * 2006-01-25 2014-09-04 Siemens Aktiengesellschaft Tomographie-System und Verfahren zur Visualisierung einer tomographischen Darstellung
US8825136B2 (en) * 2008-03-14 2014-09-02 Baylor Research Institute System and method for pre-planning a radiation treatment
US9310985B2 (en) * 2008-05-15 2016-04-12 Boston Scientific Neuromodulation Corporation System and method for determining target stimulation volumes
US8396248B2 (en) * 2008-09-16 2013-03-12 Varian Medical Systems, Inc. Sequential stereo imaging for estimating trajectory and monitoring target position
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
EP2664360B1 (en) * 2010-02-24 2015-09-09 Accuray Incorporated Gantry image guided radiotherapy system and related tracking methods
US8315356B2 (en) * 2010-09-17 2012-11-20 Accuray Incorporated Image alignment
JP2012070880A (ja) * 2010-09-28 2012-04-12 Mitsubishi Heavy Ind Ltd 放射線治療装置制御装置および放射線治療装置制御方法
US8823732B2 (en) * 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
JP2015106262A (ja) * 2013-11-29 2015-06-08 株式会社東芝 画像処理装置、治療システム及び画像処理方法
JP6271230B2 (ja) * 2013-11-29 2018-01-31 株式会社東芝 画像処理装置、治療システム及び画像処理方法
JP6425906B2 (ja) * 2014-03-19 2018-11-21 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP6189240B2 (ja) * 2014-03-26 2017-08-30 株式会社東芝 画像処理装置、治療システム及び画像処理方法
US9230322B2 (en) * 2014-04-04 2016-01-05 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105746A (ja) * 2003-10-14 2004-04-08 Toshiba Medical System Co Ltd マンモグラフィ装置
JP2007526066A (ja) * 2004-03-05 2007-09-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 患者体内において医療器具をガイドするシステム
JP2006239254A (ja) * 2005-03-04 2006-09-14 Toshiba Corp 立体画像再構成装置
JP2006247268A (ja) * 2005-03-14 2006-09-21 Hitachi Ltd 患者位置決めシステム及び患者位置決め方法
JP2008142543A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 3次元画像処理装置及びx線診断装置
JP2011212130A (ja) * 2010-03-31 2011-10-27 Natl Inst Of Radiological Sciences 放射線ビーム照射対象位置決め装置およびその位置決め方法
US20120296202A1 (en) * 2011-05-20 2012-11-22 Siemens Aktiengesellschaft Method and System for Registration of Ultrasound and Physiological Models to X-ray Fluoroscopic Images

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9533172B2 (en) 2013-10-31 2017-01-03 Kabushiki Kaisha Toshiba Image processing based on positional difference among plural perspective images
US9582884B2 (en) 2013-11-29 2017-02-28 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method for determining a position of a point
US9734574B2 (en) 2014-03-26 2017-08-15 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method
US9230322B2 (en) 2014-04-04 2016-01-05 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method

Also Published As

Publication number Publication date
CN104337529A (zh) 2015-02-11
US20150045605A1 (en) 2015-02-12
JP6226621B2 (ja) 2017-11-08
US9675818B2 (en) 2017-06-13

Similar Documents

Publication Publication Date Title
JP6226621B2 (ja) 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム
US11335041B2 (en) Image reconstruction system and method
EP3161785B1 (en) System and method for image composition
US9582884B2 (en) Image processor, treatment system, and image processing method for determining a position of a point
JP6165591B2 (ja) 画像処理装置、治療システム、及び画像処理方法
US9734574B2 (en) Image processor, treatment system, and image processing method
US9875558B2 (en) Image reconstruction system and method
JP2011125568A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
US10032295B2 (en) Tomography apparatus and method of processing tomography image
US20230290053A1 (en) Systems and methods for subject positioning
US10631818B2 (en) Mobile radiography calibration for tomosynthesis using epipolar geometry
US20230157660A1 (en) Imaging systems and methods
JP6271230B2 (ja) 画像処理装置、治療システム及び画像処理方法
US9965875B2 (en) Virtual projection image method
JP2017225835A (ja) 画像処理装置
US8594461B2 (en) Image data compression and decompression
JP6167841B2 (ja) 医用画像処理装置及びプログラム
EP4258207A1 (en) Automatic rib fracture detection from unfolded scan images
CN116503265A (zh) 结果数据集的提供
WO2023194267A1 (en) Automatic rib fracture detection from unfolded scan images
WO2023186729A1 (en) Combined rib and spine image processing for fast assessment of scans
WO2022184562A1 (en) Image-based planning of tomographic scan
JP2016025940A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R151 Written notification of patent or utility model registration

Ref document number: 6226621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151