JP2015104469A - 画像処理装置、治療システム及び画像処理方法 - Google Patents

画像処理装置、治療システム及び画像処理方法 Download PDF

Info

Publication number
JP2015104469A
JP2015104469A JP2013247287A JP2013247287A JP2015104469A JP 2015104469 A JP2015104469 A JP 2015104469A JP 2013247287 A JP2013247287 A JP 2013247287A JP 2013247287 A JP2013247287 A JP 2013247287A JP 2015104469 A JP2015104469 A JP 2015104469A
Authority
JP
Japan
Prior art keywords
image
point
perspective
unit
perspective image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013247287A
Other languages
English (en)
Other versions
JP6271230B2 (ja
Inventor
幸辰 坂田
Koshin Sakata
幸辰 坂田
安則 田口
Yasunori Taguchi
安則 田口
隆介 平井
Ryusuke Hirai
隆介 平井
京佳 杉浦
Kyoka Sugiura
京佳 杉浦
智行 武口
Satoyuki Takeguchi
智行 武口
三田 雄志
Takeshi Mita
雄志 三田
伸哉 福島
Shinya Fukushima
伸哉 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013247287A priority Critical patent/JP6271230B2/ja
Priority to US14/476,118 priority patent/US20150154757A1/en
Priority to CN201410453107.1A priority patent/CN104665854A/zh
Publication of JP2015104469A publication Critical patent/JP2015104469A/ja
Application granted granted Critical
Publication of JP6271230B2 publication Critical patent/JP6271230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0492Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • A61B6/584Calibration using calibration phantoms determining position of components of the apparatus or device using images of the phantom
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1064Monitoring, verifying, controlling systems and methods for adjusting radiation treatment in response to monitoring
    • A61N5/1069Target adjustment, e.g. moving the patient support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiation-Therapy Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

【課題】複数の画像間の特徴点の対応関係を容易に把握することができる画像を生成する画像処理装置、治療システム及び画像処理方法を提供することである。【解決手段】画像処理装置は、第1取得部と、第2取得部と、点取得部と、画像生成部とを備える。第1取得部は、所定方向から対象を透視する第1透視画像を取得する。第2取得部は、第1透視画像とは異なる時刻に同じ所定方向から対象を透視する第2透視画像を取得する。点取得部は、第1透視画像上に指示された第1点の位置を示す情報と、第2透視画像上に指示された第2点の位置を示す情報と、を取得する。画像生成部は、第1点の位置及び第2点の位置に基づいて座標が変更された第1透視画像と、座標が変更されていない第2透視画像と、に基づく画像を生成する。【選択図】図1

Description

本発明の実施形態は、画像処理装置、治療システム及び画像処理方法に関する。
放射線治療において、事前に患者を透視して撮像した透視画像に基づいて、体内の病巣の位置に正確に放射線が照射されるよう計画する必要がある。計画の際に、放射線を照射する方向及び放射線の強度等があらかじめ決められる。
照射計画を立てる際の照射対象のX線参照画像の位置と実際に照射対象に放射線を照射する際の照射対象の位置とを合致させるための位置決め装置およびその位置決め方法に関する技術がある。従来、位置決めの際にエピポーラ幾何を用いてガイドラインの表示を行う技術があった。しかしながら、例えば投影面が交差しない画像間では、エピポーラ線によるガイドラインの表示ができなかった。
特開2011−212130号公報
本発明が解決しようとする課題は、複数の画像間の特徴点の対応関係を容易に把握することができる画像を生成することにある。
実施形態の画像処理装置は、第1取得部と、第2取得部と、点取得部と、画像生成部とを備える。第1取得部は、所定方向から対象を透視する第1透視画像を取得する。第2取得部は、第1透視画像とは異なる時刻に同じ所定方向から対象を透視する第2透視画像を取得する。点取得部は、第1透視画像上に指示された第1点の位置を示す情報と、第2透視画像上に指示された第2点の位置を示す情報と、を取得する。画像生成部は、第1点の位置及び第2点の位置に基づいて座標が変更された第1透視画像と、座標が変更されていない第2透視画像と、に基づく画像を生成する。
一実施形態における、治療システムを示す図である。 撮像装置の位置関係を例示する図である。 類似度が低い類似度画像としての差分画像を、第1画像及び第2画像に並べて表示した画像の例を示す図である。 類似度が高い類似度画像としての差分画像を、第1画像及び第2画像に並べて表示した画像の例を示す図である。 類似度画像としての差分画像に点の位置を示す画像を重畳させた様子を示す図である。 類似度画像としての重畳画像を第2画像に重畳して表示させた画像を示す図である。 回転、拡大又は縮小された画像に基づく類似度画像を、第1画像及び第2画像に並べて表示した画像を示す図である。 類似度画像としてのSSDマップを、第1画像及び第2画像に並べて表示した画像を示す図である。 類似度画像としてのパッチ画像を、第1画像及び第2画像に並べて表示した画像を示す図である。 一実施形態における、画像処理装置の動作を示すフローチャートである。
本実施形態について図面を参照して詳細に説明する。
図1は、治療システムの構成を示す図である。治療システム10aは、撮像装置400と、画像処理装置100aと、表示装置200とを備える。治療システム10aは、計画装置300と、治療装置500と、寝台装置600とを更に備えてもよい。
計画装置300は、放射線治療、陽子線治療又は粒子線治療が施される対象B(例えば、患者)の内部形態を撮像した画像と、ユーザ(操作者である医師、技師等)による操作とに基づいて、治療計画を定めるための装置である。画像は、X線装置、コンピュータ・トモグラフィー(CT:Computed Tomography)装置、磁気共鳴画像(MRI:Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、又は、SPECT(Single Photon Emission Computed Tomography)装置など、対象Bの内部を透視して撮像することが可能な撮像装置により撮像された画像である。
計画装置300は、データベース部310と、表示部320と、操作部330と、制御部340とを備える。
データベース部310は、上述した計画の際に撮像された画像データを記憶する。画像は、2次元画像であっても、3次元画像であっても良い。画像データは、治療が施されることになる対象Bの内部の状態を、画素毎に数値化したデータである。画像データは、X線装置、CT装置、MRI装置、PET装置、又は、SPECT装置から得られた信号に基づくデータでもよい。
データベース部310に記憶されるデータは、対象Bを撮像したボクセルデータそのものであっても、投影データに対して、対数変換、オフセット補正、感度補正、ビームハードニング補正、散乱線補正等の補正処理を行った生データ(「rawデータ」とも称される)のボクセルデータであっても、ボクセルデータから再構成された2次元画像であってもよい。本実施形態では、データベース部310がボクセルデータを保持する例について述べる。
本実施形態では、計画の際にX線CT装置によって収集された画像を用いる例について説明する。
表示部320は、計画の際に、制御部340による制御に基づいて、第1透視画像及び第3透視画像を表示する。第1透視画像は、計画の際に、所定方向から対象Bを透視して得られる画像である。第3透視画像は、計画の際に、第1透視画像とは異なる所定方向から対象Bを透視して得られる画像である。第1透視画像及び第3透視画像は、例えば、データベース部310に記憶されたボクセルデータから再構成された画像(DRR:Digitally Reconstructed Radiograph)である。複数の透視画像に陰画(ネガ)と陽画(ポジ)の両方が含まれる場合、制御部340による制御に基づいて、ネガ若しくはポジのどちらか一方となるように透視画像を反転させた画像を表示することが好ましい。
操作部330は、ユーザによる操作を受け付ける。操作部330は、受け付けた操作に応じた信号を、制御部340に送る。
制御部340は、操作部330から受け取った信号に基づいて、計画装置300の各部を制御する。制御部340は、例えば、中央処理装置(CPU:Central Processing Unit)である。
撮像装置400は、治療の際に、対象Bの内部を透視して撮像する。撮像装置400は、例えば、X線装置、CT装置又はMRI装置である。以下、撮像装置400は、一例として、X線装置であるものとして説明を続ける。撮像装置400は、制御部410と、第1線源部420と、第2線源部430と、第1撮像部440と、第2撮像部450とを備える。
図2は、撮像装置400の位置関係を例示する図である。第1撮像部440は、フラット・パネル・ディテクタ(FPD:Flat Panel Detector)を有する。第1撮像部440のFPDは、第1撮像部440に投影されたX線を受けて、受けたX線をデジタル信号に変換する。第1撮像部440は、第2透視画像を、第1撮像部440のFPDにより変換されたデジタル信号に基づいて生成する。第2透視画像は、治療の際に、すなわち、第1透視画像とは異なる時刻に、第1透視画像と略同じ所定方向から対象Bを透視する画像である。第2透視画像は、例えば、撮像装置400(X線装置)により撮像された画像(XR:X−ray Radiograph)である。なお、第2透視画像は、X線源の位置と投影面の位置とを仮想的に定めたシミュレーションにより、ボクセルデータから再構成された2次元透視画像でもよい。
第2撮像部450は、FPDを有する。第2撮像部450のFPDは、第2撮像部450に投影されたX線を受けて、受けたX線をデジタル信号に変換する。第2撮像部450は、第4透視画像を、第2撮像部450により変換されたデジタル信号に基づいて生成する。第4透視画像は、治療の際に、すなわち、第3透視画像とは異なる時刻に、第3透視画像と略同じ所定方向から対象Bを透視する画像である。
第1撮像部440は、第1線源部420と対をなすよう配置される。この配置により、第1撮像部440のFPDは、第1線源部420からのX線を受けることが可能となる。第2撮像部450は、第2線源部430と対をなすよう配置される。この配置により、第2撮像部450のFPDは、第2線源部430からのX線を受けることが可能となる。
撮像装置400の構成及び機能を、装置系で定義される3次元空間座標系(例えば、図1及び図2に示すXYZ座標系)を用いて説明する。撮像装置400は、第1撮像部440及び第2撮像部450と、XYZ座標系との座標変換を行うための透視投影行列を求めることが可能であるように、撮像位置の校正が行われている。具体的には、第1撮像部440は、XYZ座標系のY軸負方向に配置される。第2撮像部450は、XYZ座標系のX軸正方向に配置される。第1線源部420は、XYZ座標系のY軸正方向に配置される。第1線源部420は、第1撮像部440に向けてX線を照射する。第2線源部430は、XYZ座標系のX軸負方向に配置される。第2線源部430は、第2撮像部450に向けてX線を照射する。
本実施形態では、第1撮像部440及び第2撮像部450の配置が互いに直交する例について述べたが、これに限られるものではない。ただし、3次元的な位置決めを行うために、第1撮像部440及び第2撮像部450の配置は、非平行であることが好ましい。
第1線源部420から出力されたX線は、対象Bの内部を透過して、第1撮像部440に到達する。第2透視画像は、第1撮像部440に到達したX線のエネルギに基づいて生成される。一方、第2線源部430から出力されたX線は、対象Bの内部を透過して、第2撮像部450に到達する。第4透視画像は、第2撮像部450に到達したX線のエネルギに基づいて生成される。
制御部410は、撮像装置400の各部を制御する。制御部410は、例えば、中央処理装置(CPU)である。制御部410は、第2透視画像を、第1撮像部440から取得する。制御部410は、第2透視画像を、画像処理装置100aに出力する。
画像処理装置100aは、第1画像を第1透視画像から生成する。画像処理装置100aは、第2画像を第2透視画像から生成する。画像処理装置100aの詳細については後述する。
表示装置200は、治療の際に、画像処理装置100aにより生成された画像を表示する装置である。表示装置200は、表示部210と、操作部220とを有する。表示部210は、画像データを画像処理装置100aから受け取る。画像データは、例えば、第1透視画像から生成された第1画像を示すデータである。また、画像データは、例えば、第2透視画像から生成された第2画像を示すデータである。また、画像データは、例えば、第1透視画像及び第2透視画像の少なくとも一部から生成された類似度画像(図3〜図9を用いて後述する)を示すデータである。
表示部210は、第1画像及び第2画像と、類似度画像とを、所定の表示分解能(解像度)で表示する。表示部210は、液晶ディスプレイパネル、有機ELパネルや、プラズマディスプレイパネル、CRT(Cathode Ray Tube)のいずれであっても構わない。この所定の表示分解能は、画像処理装置100aにより生成された画像が有する分解能でもよいし、操作部220を介して予め指定された分解能でもよい。
操作部220は、ユーザによる操作を受け付け、受け付けた操作に応じた信号を、画像処理装置100aに入力する入力装置である。操作部220は、表示部210に表示された画像上の位置を示す情報を画像処理装置100aに入力するための操作を、受け付けてもよい。画像上の位置を示す情報は、座標で表現されてもよい。操作部220は、位置を示す情報をユーザが入力できるデバイスであればいずれであってもよい。例えば、操作部220は、タッチパネル、キーボード、マウスである。ユーザは、操作部220を介して操作することにより、画像上の位置を表示分解能の精度で指示して、その位置を示す情報を画像処理装置100aに入力することができる。例えば、ユーザは、操作部220がマウスの場合、マウスを用いて、画像上の位置にカーソルを合わせてクリック操作することにより、画像上の位置を指示することができる。
操作部220は、表示部210と一体に備えられてもよい。この場合、ユーザは、表示部210と一体に備えられた操作部220を押下操作することにより、画像上の位置を表示分解能の精度で指示して、その位置を示す情報を画像処理装置100aに入力することができる。
治療装置500は、治療の際に、対象Bに放射線治療、陽子線治療又は粒子線治療を施す装置である。治療装置500は、制御部510と、線源部520とを備える。制御部510は、治療装置500の各部を制御する。制御部510は、例えば、中央処理装置である。制御部510は、位置決め信号を画像処理装置100aから受信する。制御部510は、位置決め信号に基づいて、線源部520を制御する。線源部520は、寝台装置600により位置決めされた対象Bに、制御部510による制御に基づいて、放射線、陽子線又は粒子線を照射する。
寝台装置600は、位置決め信号を画像処理装置100aから受信する。寝台装置600は、位置決め信号に基づいて、寝ている姿勢の対象Bを所定範囲で移動させる。これにより、放射線、陽子線又は粒子線は、対象Bの内部に高精度に定められた位置に、正確に線源部520から照射されることになる。
次に、画像処理装置100aの詳細を説明する。
画像処理装置100aは、第1取得部110と、第2取得部120と、画像生成部130aと、点取得部140と、修正部150とを備える。
第1取得部110は、所定方向から対象Bを透視する第1透視画像を、計画装置300から取得する。なお、第1取得部110は、対象Bを透視する第1透視画像を示すボクセルデータを、計画装置300のデータベース部310から取得してもよい。第1取得部110は、第1透視画像を示す画像データを、画像生成部130aに出力する。
第2取得部120は、略同じ所定方向から対象Bを透視して第1透視画像とは異なる時刻に撮像した第2透視画像を、撮像装置400の制御部410から取得する。第2取得部120は、第2透視画像を画像生成部130a及び修正部150に出力する。
画像生成部130aは、所定の表示分解能を有する画像を生成する。この所定の表示分解能は、表示装置200の表示部210が表示可能な分解能から選択されてもよいし、ユーザから予め指定された分解能でもよい。
画像生成部130aは、第1透視画像を第1取得部110から受け取る。画像生成部130aは、第1透視画像を、修正部150に出力する。なお、画像生成部130aは、ボクセルデータを第1取得部110から受け取ってもよい。この場合、画像生成部130aは、ボクセルデータから第1透視画像を再構成する。
画像生成部130aは、第1画像を第1透視画像から生成する。第1画像は、第1透視画像をリサイズした画像である。リサイズとは、画像の画素数を変更することである。ここで、画像生成部130aは、第1画像を生成する方法として、ニアレストネイバー法、バイリニア法、又は、キュービックコンボリューション法などを利用してもよい。画像生成部130aは、生成した第1画像を、表示装置200の表示部210に出力する。
画像生成部130aは、第2透視画像を第2取得部120から受け取る。画像生成部130aは、第2画像を第2透視画像から生成する。第2画像は、第2透視画像をリサイズした画像である。ここで、画像生成部130aは、第2画像を生成する方法として、ニアレストネイバー法、バイリニア法、又は、キュービックコンボリューション法などを利用してもよい。画像生成部130aは、生成した第2画像を、表示装置200の表示部210に出力する。
画像生成部130aは、第1透視画像及び第2透視画像に基づく画像として、第1透視画像及び第2透視画像の類似度に基づく画像(以下、「類似度画像」という。)を生成する。類似度画像は、第1透視画像から生成された第1画像と、第2透視画像から生成された第2画像との類似度に基づく画像でもよい。
画像生成部130aは、例えば、第1透視画像及び第2透視画像に基づく差分画像を、類似度画像として生成する。画像生成部130aは、第1透視画像及び第2透視画像と並べて、表示部210に差分画像を表示させる。画像生成部130aは、第1透視画像又は第2透視画像に重畳された差分画像(以下、「重畳画像」という。)を、表示部210に表示させてもよい。
画像生成部130aは、例えば、第1透視画像及び第2透視画像に基づくパッチ画像又は切替画像を、類似度画像として生成してもよい。パッチ画像は、第1透視画像及び第2透視画像の一部領域が格子状に配置された画像である。パッチ画像については、図9を用いて後述する。切替画像は、第1透視画像及び第2透視画像が所定の時間周期で切り替えられる画像である。切替画像については、式(3)を用いて後述する。
また、画像生成部130aは、第1透視画像及び第2透視画像の画素値の差分の二乗和に応じた画像(SSD(Sum of Squared Difference)マップ)を、類似度画像として生成してもよい。また、画像生成部130aは、第1透視画像及び第2透視画像の画素値の差分の絶対和に応じた画像(SAD(Sum of Absolute Difference)マップ)を、類似度画像として生成してもよい。 また、画像生成部130aは、第1透視画像及び第2透視画像の画素値の正規化相互相関に応じた画像(正規化相互相関マップ)を、類似度画像として生成してもよい。また、画像生成部130aは、回転、拡大若しくは縮小された第1透視画像又は第2透視画像に基づく画像を、類似度画像として生成してもよい。画像生成部130aは、回転、拡大若しくは縮小された第1透視画像又は第2透視画像の代わりに、回転、拡大若しくは縮小された第1画像又は第2画像に基づく画像を、類似度画像として生成してもよい。
画像生成部130aは、第1点の位置を示す情報を、点取得部140から受け取る。画像生成部130aは、第1画像上での第1点の位置を示す画像を、第1画像に重畳した画像を生成してもよい。位置を示す画像は、例えば、丸印である。画像生成部130aは、第2点の位置を示す情報を、点取得部140から受け取る。画像生成部130aは、第2画像上での第2点の位置を示す画像を、第2画像に重畳した画像を生成してもよい。
画像生成部130aは、第1透視画像及び第2透視画像に基づく画像の輪郭を示す枠画像を生成してもよい。第1透視画像及び第2透視画像に基づく画像は、例えば、類似度画像である。ここで、画像生成部130aは、第1透視画像及び第2透視画像の類似度、すなわち、第1画像及び第2画像の類似度に応じて、この枠画像の色を変更してもよい。
点取得部140は、第1画像上に指示された第1点を、操作部220から取得する。点取得部140は、更新された第1点の位置を示す情報を取得してもよい。点取得部140は、第1点の位置を示す情報を、修正部150及び画像生成部130aに出力する。
点取得部140は、第2画像上で第1点(指示点)に対応する第2点(対応点)を、操作部220から取得する。点取得部140は、更新された第2点の位置を示す情報を取得してもよい。点取得部140は、第2点の位置を示す情報を、修正部150及び画像生成部130aに出力する。
修正部150は、第1点の位置を示す情報と、第2点の位置を示す情報とを、点取得部140から受け取る。修正部150は、第1点の位置を示す情報と、第2点の位置を示す情報とに基づいて、位置決め信号を生成し、生成した位置決め信号を治療装置500及び寝台装置600に送る。
修正部150は、第1透視画像を画像生成部130aから受け取る。修正部150は、第2透視画像を第2取得部120から受け取る。修正部150は、第1透視画像に含まれる画像の一部と、第2透視画像に含まれる画像の一部との間の類似度を判定する。類似度は、パターンマッチングなどの画像処理を用いて求める。それによって、第1透視画像と第2透視画像との間の点の位置関係が、高精度に求められる。
次に、画像生成部130aの詳細を説明する。
以下、第1画像の座標(x,y)の画素値を「I(x,y)」と、第2画像の座標(x,y)の画素値を「I(x,y)」と表記する。また、第1画像上の第1点の位置を示す座標を「(x,y)」と、第2画像上の第2点の位置を示す座標を「(x,y)」と表記する。また、類似度画像の座標(x,y)の画素値を「A(x,y)」と、類似度画像の縦サイズを「h」と、類似度画像の横サイズを「w」と表記する。
<差分画像>
図3は、類似度が低い類似度画像としての差分画像を、第1画像及び第2画像に並べて表示した画像の例を示す図である。第1領域720は、第1画像700において第1点711を中心とする、縦サイズh及び横サイズwである領域である。図3は、対象Bを透視する第1領域720内の画像と、対象Bを透視する第2領域820内の画像との類似度が相対的に低い場合における、類似度画像1300を示す図である。類似度が相対的に低い場合、第1点711(指示点)が示す対象Bの内部の位置と、第2点811(対応点)が示す対象Bの内部の位置とのずれは大きい。
図4は、類似度が高い類似度画像としての差分画像を、第1画像及び第2画像に並べて表示した画像の例を示す図である。第2領域820は、第2画像800において第2点811を中心とする、縦サイズh及び横サイズwである領域である。図4では、第2画像800における第2点811の位置は、図3に示す場合と異なるものとする。図4は、対象Bを透視する第1領域720内の画像と、対象Bを透視する第2領域820内の画像との類似度が相対的に高い場合における、類似度画像1300を示す図である。指示点と対応点とは、対象Bの内部における解剖学的に同じ部位を示す。そのため、類似度が相対的に高い場合、第1点711(指示点)が示す対象Bの内部の位置と、第2点811(対応点)が示す対象Bの内部の位置とのずれが小さいと推定される。
画像生成部130aは、生成した第1画像700及び第2画像800と、類似度画像1300とを並べて、所定の表示分解能でそれぞれ表示部210に表示させる。第1画像700は、第1透視画像から生成された画像である。第2画像800は、第2透視画像から生成された画像である。第1画像700及び第2画像800には、略同じ所定方向から透視された対象Bが、それぞれ撮像されている。この略同じ所定方向は、例えば、図1及び図2に示すY軸の正値から負値への方向である。
第1画像700上には、第1点711(指示点)の位置(x,y)が、ユーザによる操作部220を介した操作に基づいて定められる。操作部220は、第1点711の位置を示す情報を、画像処理装置100aに入力する。また、第2画像800上には、第2点811の位置(x,y)が、第1点711が示す位置に対して解剖学的に同一の位置を示す対応点として、ユーザによる操作部220を介した操作に基づいて定められる。操作部220は、第2点811の位置を示す情報を、画像処理装置100aに入力する。
第1点711の位置は、第1画像700上で、更新されてもよい。同様に、第2点811の位置は、第2画像800上で、更新されてもよい。例えば、ユーザは、操作部220がマウスである場合、第1点711又は第2点811の画像に、マウスを用いて画像上でカーソルを合わせてクリック操作して選択し、そのままドラッグ操作することにより、選択された第1点711又は第2点811の位置を更新する。また、例えば、ユーザは、操作部220がキーボードである場合、キーボードの矢印キーを押下操作することにより、第1点711又は第2点811を選択し、選択された第1点711又は第2点811の位置を更新してもよい。
なお、第1点711の位置を示す情報、及び、第2点811の位置を示す情報は、表示分解能よりも高い精度で、他のデータベース装置から点取得部140に入力されてもよい。例えば、第1点711の位置を示す情報、及び、第2点811の位置を示す情報は、それぞれユーザによる操作に基づく代わりに、他のデータベース装置から点取得部140に入力されてもよい。例えば、点取得部140は、データベース装置(データサーバ装置)、メディア(例えば、CD(Compact Disc)、DVD(Digital Versatile Disc))又はネットワークストレージ装置から、第1点711の位置を示す情報、及び、第2点811の位置を示す情報を取得してもよい。また、点取得部140は、パターンマッチング等の画像処理により検出された第1点711の位置を示す情報、及び、第2点811の位置を示す情報点の位置を示す情報を取得してもよい。
類似度画像1300は、第1透視画像及び第2透視画像の類似度に基づく差分画像である。また、類似度画像1300は、第1透視画像及び第2透視画像の類似度に基づく代わりに、第1透視画像から生成された第1画像700と、第2透視画像から生成された第2画像800との類似度に基づく差分画像でもよい。類似度画像1300は、式(1)により表される。
第1点711が示す対象Bの内部の位置と、第2点811が示す対象Bの内部の位置とのずれが小さいほど、第1点711及び第2点811の近傍の画像、すなわち、第1領域720内の画像と第2領域820内の画像とが互いに類似する。図4では、第1領域720内の画像と、第2領域820内の画像とが類似しているので、類似度画像1300は平坦な画像となっている。
したがって、ユーザは、類似度画像1300が平坦になるように、操作部220を操作して、第1画像700上での第1点711の位置、又は、第2画像800上での第2点811の位置を更新すればよい。例えば、ユーザは、操作部220がマウスである場合、第1点711又は第2点811の画像に、マウスを用いて画像上でカーソルを合わせてクリック操作して選択し、そのままドラッグ操作することにより、選択された第1点711又は第2点811の位置を更新してもよい。これにより、画像に表示されている対象Bの内部の位置を示す第1点711又は第2点811の位置をユーザが入力する精度は高まる。
技師(ユーザ)は、患者の位置を決めるために、X線撮影画像とX線参照画像とに対称の特徴点を、視覚判断による手動で指示する。つまり、技師(ユーザ)がマニュアルで点選択を行うため、X線撮影画像上の指示点とX線参照画像上の指示点とは、解剖学的に同じ位置を示すとは限らず、X線撮影画像の指示点とX線参照画像の指示点との間には誤差が含まれる。
また、上述したように、画像生成部130aは、類似度画像1300の輪郭を示す枠画像を、表示部210に表示させてもよい。この場合、類似度画像1300の平坦度、すなわち、第1領域720内の画像と第2領域820内の画像との類似度に応じて、枠画像の色を変更してもよい。これにより、画像に表示されている対象Bの内部の位置を示す第1点711又は第2点811の位置をユーザが入力する精度は高まる。
図5は、類似度画像としての差分画像に点の位置を示す画像を重畳させた様子を示す図である画像生成部130aは、第2点811に対応する位置を示す画像(例えば、丸印)を、第2画像800及び類似度画像1300に重畳してもよい。また、表示部210は、第1点711に対応する位置を示す画像を、第1画像700及び類似度画像1300に重畳して表示してもよい。
類似度画像1300の縦サイズh及び横サイズw(倍率)は、可変でもよい。類似度画像1300が縮小表示されている場合、ユーザは、操作部220を操作して、第1点711の位置又は第2点811の位置を、画像上で大きく移動させ易くなる。一方、類似度画像1300が拡大表示されている場合、ユーザは、操作部220を操作して、第1点711の位置又は第2点811の位置を、画像上で高い分解能で移動させ易くなる。表示部210は、第1点711の位置を示す情報(x,y)、及び、第2点811の位置を示す情報(x,y)を表示してもよい。
<重畳画像>
図6は、類似度画像としての重畳画像を第2画像に重畳して表示させた画像を示す図である。画像生成部130aは、生成した第1画像700及び第2画像800を並べて、所定の表示分解能でそれぞれ表示部210に表示させる。また、画像生成部130aは、類似度画像1310を、第1画像700又は第2画像800に重畳させて表示部210に表示させると好適である。このようにすれば、第1領域720との比較対象である第2領域820を、類似度画像1310で直接置き換えることになるので、ユーザは指示した位置のずれを直感的に把握することができる。図6では、画像生成部130aは、第1画像700と、第2画像800と、第2領域820に重畳した類似度画像1310とを、表示部210に表示させる。類似度画像1310は、式(2)により表される。
ここで、αは、画像を重畳する際の比率であり、「0≦α≦1」の範囲をとる。
<回転、拡大又は縮小された画像に基づく類似度画像>
図7は、回転、拡大又は縮小された画像に基づく類似度画像を、第1画像及び第2画像に並べて表示した画像を示す図である。画像生成部130aは、第1画像700における対象Bの位置と、第2画像800における対象Bの位置とのずれ量が所定閾値よりも大きい場合、回転、拡大若しくは縮小された第1画像700又は第2画像800に基づいて、類似度画像1310を生成してもよい。
ここで、画像生成部130aは、ユーザにより定められた変換量に基づいて、第1画像700又は第2画像800を、回転、拡大若しくは縮小させてもよい。また、画像生成部130aは、候補として予め定められた変換量のうち、位置のずれ量が最も小さくなる変換量を選択してもよい。この場合、位置のずれ量は、例えば、第1領域720内の画像と、第2領域820内の画像とのSSDに基づいて、評価されてもよい。その場合、SSDが小さいほど、ずれ量が少ないと評価される。
<切替画像>
第1画像700、第2画像800又は類似度画像1310は、式(3)により表されてもよい。
ここで、Fは、二値のフラグ(値0又は値1)を表す。画像生成部130aは、フラグFの値を所定の時間周期で切り替えてもよい。これにより、画像生成部130aは、第1画像700、第2画像800又は類似度画像1310を表示させるか否かを、時間経過に応じて切り替えさせることができる。また、画像生成部130aは、ユーザによる操作に基づくタイミングで、フラグFの値を切り替えてもよい。
<SSDマップ>
図8は、類似度画像としてのSSDマップを、第1画像及び第2画像に並べて表示した画像を示す図である。画像生成部130aは、生成した第1画像700及び第2画像800と、類似度画像1370とを並べて、所定の表示分解能でそれぞれ表示部210に表示させる。第1画像700には、SSDが算出される領域として、第1点711を中心とする、横サイズr及び縦サイズrである第3領域730が定められている。一方、第2画像800には、SSDが算出される領域として、横サイズr及び縦サイズrである第4領域830が定められている。
画像生成部130aは、第2領域820について第4領域830をラスタスキャンさせて、第3領域730と第4領域830とのSSDを算出し、算出したSSDに基づく類似度画像1370を生成する。類似度画像1370は、式(4)により表される。
類似度画像1370では、SSDが小さい位置の画素ほど明度が高い色(例えば、白色)で表される。また、類似度画像1370では、SSDが大きい位置の画素ほど明度が低い色(例えば、黒色)で表される。SSD最小位置1330は、類似度画像1370においてSSDが最も小さい画素の位置である。図8では、SSD最小位置1330の画素は、類似度画像1370において最も明度が高い色(白色)で表されている。なお、SSDと明度との関係はこれに限られるものではなく、極性が反対であってもよい。また、SSDと明度との関係は、カラー画像において色を異ならせる構成であっても良い。
類似度画像1370によるSSDの情報に基づいて、ユーザは、第2点811の位置がSSD最小位置1330に一致するように、操作部220を操作することができる。例えば、ユーザは、操作部220がマウスである場合、第2点811の画像にマウスを用いて画像上でカーソルを合わせてクリック操作して選択し、そのままドラッグ操作することにより、選択された第2点811の位置を更新してもよい。これにより、画像に表示されている対象Bの内部の位置を示す第2点811の位置をユーザが入力する精度は高まる。第1点711についても同様である。
類似度画像1370の縦サイズh及び横サイズw(倍率)は、可変でもよい。また、画像生成部130aは、第2領域820に重畳した類似度画像1370を、表示部210に表示させてもよい。ここで、画像生成部130aは、「0≦α≦1」の範囲をとる比率αに応じて画素値を調整した類似度画像1370を、表示部210に表示させてもよい。以下に示す、SADマップ及び正規化相互相関マップについても同様である。これにより、ユーザは、第2画像800(元画像)と、重畳された類似度画像1370との両方を、表示部210に同時に見ることができる。
<SADマップ>
類似度画像1370は、式(5)により表されてもよい。
画像生成部130aは、生成した第1画像700及び第2画像800と、類似度画像1370とを並べて、所定の表示分解能でそれぞれ表示部210に表示させる。第1画像700には、SADが算出される領域として、第1点711を中心とする、横サイズr及び縦サイズrである第3領域730が定められている。一方、第2画像800には、SADが算出される領域として、横サイズr及び縦サイズrである第4領域830が定められている。
<正規化相互相関マップ>
類似度画像1370は、式(6)により表されてもよい。
画像生成部130aは、生成した第1画像700及び第2画像800と、類似度画像1370とを並べて、所定の表示分解能でそれぞれ表示部210に表示させる。第1画像700には、画素値の正規化相互相関が算出される領域として、第1点711を中心とする、横サイズr及び縦サイズrである第3領域730が定められている。一方、第2画像800には、画素値の正規化相互相関が算出される領域として、横サイズr及び縦サイズrである第4領域830が定められている。
<パッチ画像>
図9は、類似度画像としてのパッチ画像を、第1画像及び第2画像に並べて表示した画像を示す図である。類似度画像1350は、第2画像800から抽出された画像領域と、ネガポジ反転された第1画像700から抽出された画像領域とが、一例として、格子状に配置された画像である。図9では、類似度画像1350は、第2画像800から抽出された画像領域1351、画像領域1353、画像領域1356、画像領域1358、画像領域1359及び画像領域1361と、ネガポジ反転された第1画像700から抽出された画像領域1352、画像領域1354、画像領域1355、画像領域1357、画像領域1359、画像領域1360及び画像領域1362とから構成されている。仮に、第1画像700及び第2画像800がいずれも白一色の平坦な画像である場合、類似度画像1350は、白色及び黒色からなる市松模様となるよう、複数の画像領域が配置されてもよい。類似度画像1350は、式(7)により表される。
ここで、M(x,y)は、マスクラベル(値0又は値1)である。ユーザは、操作部220がマウスである場合、マウスを用いて類似度画像1350上でドラッグ操作することにより、類似度画像1350を構成する各画像領域の境界を、類似度画像1350上で移動させてもよい。また、類似度画像1350は、第1画像700及び第2画像800に並べて表示される代わりに、単体で表示されてもよい。
ユーザは、類似度画像1350を構成する各画像領域の境界に注目することにより、第1画像700における対象Bの位置と、第2画像800における対象Bの位置とのずれ量を、容易に把握することができる。これにより、画像に表示されている対象Bの内部の位置を示す点の位置をユーザが入力する精度は高まる。
なお、差分画像、重畳画像、回転等された画像に基づく類似度画像、切替画像、SSDマップ、SADマップ、正規化相互相関マップ、及び、パッチ画像について上述した内容は、互いに組み合わされてもよい。例えば、回転等された画像に基づく類似度画像は、SSDマップであってもよい。
次に、画像処理装置100aの動作手順を説明する。
図10は、画像処理装置の動作手順例を示すフローチャートである。
(ステップS1)第1取得部110は、所定方向から対象Bを透視する第1透視画像を、計画装置300から取得する。第1透視画像は、ボクセルデータでもよい。第2取得部120は、同じ所定方向から対象Bを透視して第1透視画像とは異なる時刻に撮像した第2透視画像を、撮像装置400から取得する。画像生成部130aは、第1画像700を第1透視画像から生成する。画像生成部130aは、第2画像800を第2透視画像から生成する。
(ステップS2)画像生成部130aは、第1画像700及び第2画像800を、表示部210に表示させる。
(ステップS3)点取得部140は、第1画像700上に指示された第1点711の位置を示す情報を取得する。点取得部140は、第2画像800上で第1点711に対応する第2点811の位置を示す情報を取得する。
(ステップS4)画像生成部130aは、類似度画像(例えば、類似度画像1300、類似度画像1310、類似度画像1350、類似度画像1370、又は、切替画像)を生成する。
(ステップS5)画像生成部130aは、生成した第1画像700及び第2画像800と、類似度画像とを、所定の表示分解能でそれぞれ表示部210に表示させる。
(ステップS6)点取得部140は、第1点の位置を示す情報、又は、第2点の位置を示す情報が更新されたか否かを判定する。第1点の位置を示す情報、又は、第2点の位置を示す情報が更新された場合(ステップS6:YES)、画像処理装置100aの各部は、ステップS3に処理を戻す。一方、第1点の位置を示す情報、及び、第2点の位置を示す情報のいずれも更新されていない場合(ステップS6:NO)、画像処理装置100aの各部は、処理を終了する。
以上のように、画像処理装置100aは、第1取得部110と、第2取得部120と、点取得部140と、画像生成部130aとを備える。第1取得部110は、所定方向から対象B(例えば、患者)を透視する第1透視画像を取得する。第2取得部120は、第1透視画像とは異なる時刻に同じ所定方向(例えば、図1及び図2に示すY軸の正値から負値への方向)から対象Bを透視する第2透視画像を取得する。点取得部140は、第1透視画像上に指示された第1点の位置を示す情報と、第2透視画像上に指示された第2点の位置を示す情報と、を取得する。画像生成部130aは、第1点の位置及び第2点の位置に基づいて座標が変更された第1透視画像と、座標が変更されていない第2透視画像とに基づく画像(例えば、第1画像700、第2画像800、類似度画像1300、類似度画像1310、類似度画像1350、類似度画像1370、又は、切替画像)を生成する。
画像処理方法は、画像処理装置100aにおける画像処理方法であって、第1取得部110が実行するステップと、第2取得部120が実行するステップと、点取得部140が実行するステップと、画像生成部130aが実行するステップと、を有する。第1取得部110は、所定方向から対象Bを透視する第1透視画像を取得する。第2取得部120は、第1透視画像とは異なる時刻に同じ所定方向から対象Bを透視する第2透視画像を取得する。点取得部140は、第1透視画像上に指示された第1点の位置を示す情報と、第2透視画像上に指示された第2点の位置を示す情報とを取得する。画像生成部130aは、第1点の位置及び第2点の位置に基づいて座標が変更された第1透視画像と、座標が変更されていない第2透視画像と、に基づく画像を生成する。
治療システム10aは、画像処理装置100aと、撮像装置400と、表示装置200と、操作部220と、治療装置500とを備える。画像処理装置100aは、第1取得部110と、第2取得部120と、点取得部140と、画像生成部130aとを備える。第1取得部110は、所定方向から対象Bを透視する第1透視画像を取得する。第2取得部120は、第1透視画像とは異なる時刻に同じ所定方向から対象Bを透視する第2透視画像を取得する。画像生成部130aは、第1点の位置及び第2点の位置に基づいて座標が変更された第1透視画像と、座標が変更されていない第2透視画像と、に基づく画像を生成する。撮像装置400は、第1透視画像又は第2透視画像に対象Bを撮像する。表示装置200は、第1透視画像及び第2透視画像、すなわち、第1透視画像から生成された第1画像700、及び、第2透視画像から生成された第2画像800を表示する。操作部220は、第1点の位置を示す情報、及び、第2点の位置を示す情報を、点取得部140に入力する。治療装置500は、画像生成部130aにより生成された画像に基づいて、対象Bに治療を施す。
この構成により、画像生成部130aは、第1透視画像及び第2透視画像に基づく画像を生成する。これにより、画像処理装置100a、治療システム10a及び画像処理方法は、複数の画像間の特徴点の対応関係を容易に把握することができる画像を生成することができる。また、画像に表示されている対象Bの内部の位置を示す点の位置をユーザが入力する精度は高まる。
点取得部140は、更新された第1点711の位置を示す情報、及び、更新された第2点811の位置を示す情報のうち、少なくとも一方を取得してもよい。
画像生成部130aは、第1透視画像から生成された第1画像700上で第1点711を含む第1領域720内の画像と、第2透視画像から生成された第2画像800上で第2点811を含む第2領域820内の画像と、に基づく画像を生成してもよい。
画像生成部130aは、第1領域720内の画像と、第2領域820内の画像と、に基づく画像に、第1点711の位置を示す画像(例えば、丸印)、又は、第2点811の位置を示す画像(例えば、丸印)を重畳してもよい。
画像生成部130aは、第1透視画像及び第2透視画像の差分画像(式(1)を参照)若しくは重畳画像(式(2)を参照)、又は、第1透視画像及び第2透視画像の一部領域(第1画像700及び第2画像800の一部領域)が複数の領域に配置された類似度画像1350(図9及び式(7)を参照)を生成してもよい。
画像生成部130aは、切替画像(式(3)を参照)を生成してもよい。
画像生成部130aは、第1透視画像及び第2透視画像の画素値の差分の二乗和に応じた画像(SSDマップ、式(4)を参照)、画素値の差分の絶対和に応じた画像(SADマップ、式(5)を参照)、又は、画素値の正規化相互相関に応じた画像(正規化相互相関マップ、式(6)を参照)を生成してもよい。
画像生成部130aは、回転、拡大若しくは縮小された第1透視画像又は第2透視画像に基づく画像を生成してもよい(図7を参照)。
画像生成部130aは、第1透視画像及び第2透視画像に基づく画像(例えば、類似度画像1300、類似度画像1310、類似度画像1350、類似度画像1370、又は、切替画像)の輪郭を示す枠画像を生成してもよい。
画像生成部130aは、第1透視画像及び第2透視画像の類似度に応じて、輪郭を示す枠画像の色を変更してもよい。
以上述べた少なくともひとつの実施形態の画像処理装置によれば、複数の画像間の特徴点の対応関係を容易に把握することができる画像を生成することが可能となる。
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
例えば、第1点711(対応点)の位置は、第1画像700上に定められる代わりに、第2画像800上に定められてもよい。この場合、第2点811(指示点)の位置は、第2画像800上に定められる代わりに、第1画像700上に定められる。
10a…治療システム、100a…画像処理装置、110…第1取得部、120…第2取得部、130a…画像生成部、131…画像生成部、140…点取得部、150…修正部、160…第3取得部、170…第4取得部、180…第2点取得部、190…第2修正部、200…表示装置、210…表示部、220…操作部、300…計画装置、310…データベース部、320…表示部、330…操作部、340…制御部、400…撮像装置、410…制御部、420…第1線源部、430…第2線源部、440…第1撮像部、450…第2撮像部、500…治療装置、510…制御部、520…線源部、600…寝台装置、700…第1画像、711…第1点、720…第1領域、730…第3領域、800…第2画像、811…第2点、820…第2領域、830…第4領域、1300…類似度画像、1310…類似度画像、1320…第3点、1330…SSD最小位置、1350…類似度画像、1351〜1362…画像領域、1370…類似度画像、B…対象

Claims (11)

  1. 所定方向から対象を透視する第1透視画像を取得する第1取得部と、
    前記第1透視画像とは異なる時刻に同じ所定方向から前記対象を透視する第2透視画像を取得する第2取得部と、
    前記第1透視画像上に指示された第1点の位置を示す情報と、前記第2透視画像上に指示された第2点の位置を示す情報と、を取得する点取得部と、
    前記第1点の位置及び前記第2点の位置に基づいて座標が変更された前記第1透視画像と、座標が変更されていない前記第2透視画像と、に基づく画像を生成する画像生成部と、
    を備える画像処理装置。
  2. 前記点取得部は、更新された前記第1点の位置を示す情報、及び、更新された前記第2点の位置を示す情報のうち、少なくとも一方を取得し、
    前記画像生成部は、更新された前記第1点の位置を示す情報、又は、更新された前記第2点の位置を示す情報に基づいて、前記画像を更新することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像生成部は、前記第1透視画像上で前記第1点を含む第1領域内の画像と、前記第2透視画像上で前記第2点を含む第2領域内の画像と、に基づく画像を生成することを特徴とする請求項1又は請求項2に記載の画像処理装置。
  4. 前記画像生成部は、前記第1領域内の画像と、前記第2領域内の画像と、に基づく画像に、前記第1点の位置を示す画像、又は、前記第2点の位置を示す画像を重畳することを特徴とする請求項3に記載の画像処理装置。
  5. 前記画像生成部は、前記第1透視画像及び前記第2透視画像の差分画像若しくは重畳画像、又は、前記第1透視画像及び前記第2透視画像の一部領域が複数の領域に配置された画像を生成することを特徴とする請求項1から請求項4のいずれか一項に記載の画像処理装置。
  6. 前記画像生成部は、前記第1透視画像及び前記第2透視画像の画素値の差分の二乗和に応じた画像、画素値の差分の絶対和に応じた画像、又は、画素値の正規化相互相関に応じた画像を生成することを特徴とする請求項1から請求項5のいずれか一項に記載の画像処理装置。
  7. 前記画像生成部は、回転、拡大若しくは縮小された前記第1透視画像又は前記第2透視画像に基づく画像を生成することを特徴とする請求項1から請求項6のいずれか一項に記載の画像処理装置。
  8. 前記画像生成部は、前記第1透視画像及び前記第2透視画像に基づく画像の輪郭を示す枠画像を生成することを特徴とする請求項1から請求項7のいずれか一項に記載の画像処理装置。
  9. 前記画像生成部は、前記第1透視画像及び前記第2透視画像の類似度に応じて、前記輪郭を示す枠画像の色を変更することを特徴とする請求項1から請求項8のいずれか一項に記載の画像処理装置。
  10. 所定方向から対象を透視する第1透視画像を取得する第1取得部と、
    前記第1透視画像とは異なる時刻に同じ所定方向から前記対象を透視する第2透視画像を取得する第2取得部と、
    前記第1透視画像上に指示された第1点の位置を示す情報と、前記第2透視画像上に指示された第2点の位置を示す情報と、を取得する点取得部と、
    前記第1点の位置及び前記第2点の位置に基づいて座標が変更された前記第1透視画像と、座標が変更されていない前記第2透視画像と、に基づく画像を生成する画像生成部と、
    を有する画像処理装置と、
    前記第1透視画像又は前記第2透視画像に前記対象を撮像する撮像装置と、
    前記第1透視画像及び前記第2透視画像を表示する表示装置と、
    前記第1点の位置を示す情報、及び、前記第2点の位置を示す情報を、前記点取得部に入力する入力装置と、
    前記画像生成部により生成された画像に基づいて、前記対象に治療を施す治療装置と、
    を備えることを特徴とする治療システム。
  11. 画像処理装置における画像処理方法であって、
    第1取得部が、所定方向から対象を透視する第1透視画像を取得するステップと、
    第2取得部が、前記第1透視画像とは異なる時刻に同じ所定方向から前記対象を透視する第2透視画像を取得するステップと、
    点取得部が、前記第1透視画像上に指示された第1点の位置を示す情報と、前記第2透視画像上に指示された第2点の位置を示す情報と、を取得するステップと、
    画像生成部が、前記第1点の位置及び前記第2点の位置に基づいて座標が変更された前記第1透視画像と、座標が変更されていない前記第2透視画像と、に基づく画像を生成するステップと、
    を有することを特徴とする画像処理方法。
JP2013247287A 2013-11-29 2013-11-29 画像処理装置、治療システム及び画像処理方法 Active JP6271230B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013247287A JP6271230B2 (ja) 2013-11-29 2013-11-29 画像処理装置、治療システム及び画像処理方法
US14/476,118 US20150154757A1 (en) 2013-11-29 2014-09-03 Image processor, treatment system, and image processing method
CN201410453107.1A CN104665854A (zh) 2013-11-29 2014-09-05 图像处理器、治疗系统和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013247287A JP6271230B2 (ja) 2013-11-29 2013-11-29 画像処理装置、治療システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2015104469A true JP2015104469A (ja) 2015-06-08
JP6271230B2 JP6271230B2 (ja) 2018-01-31

Family

ID=53265748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013247287A Active JP6271230B2 (ja) 2013-11-29 2013-11-29 画像処理装置、治療システム及び画像処理方法

Country Status (3)

Country Link
US (1) US20150154757A1 (ja)
JP (1) JP6271230B2 (ja)
CN (1) CN104665854A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582884B2 (en) 2013-11-29 2017-02-28 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method for determining a position of a point
US9734574B2 (en) 2014-03-26 2017-08-15 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6226621B2 (ja) * 2013-08-06 2017-11-08 株式会社東芝 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム
JP6467654B2 (ja) 2014-11-19 2019-02-13 東芝エネルギーシステムズ株式会社 医用画像処理装置、方法、プログラム及び放射線治療装置
WO2022021030A1 (zh) * 2020-07-27 2022-02-03 西安大医集团股份有限公司 追踪方法及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291895A1 (en) * 2006-04-10 2007-12-20 Duke University Systems and methods for localizing a target for radiotherapy based on digital tomosynthesis
JP2008206969A (ja) * 2007-01-30 2008-09-11 Toshiba Corp 診療支援システム、診療支援装置及び診療支援プログラム
JP2010246883A (ja) * 2009-03-27 2010-11-04 Mitsubishi Electric Corp 患者位置決めシステム
JP2011212130A (ja) * 2010-03-31 2011-10-27 Natl Inst Of Radiological Sciences 放射線ビーム照射対象位置決め装置およびその位置決め方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2751109B1 (fr) * 1996-07-09 1998-10-09 Ge Medical Syst Sa Procede de localisation d'un element d'interet contenu dans un objet tridimensionnel, en particulier lors d'un examen de stereotaxie en mammographie
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US8788020B2 (en) * 1998-10-23 2014-07-22 Varian Medical Systems, Inc. Method and system for radiation application
DE19953177A1 (de) * 1999-11-04 2001-06-21 Brainlab Ag Exakte Patientenpositionierung durch Vergleich von rekonstruierten und Linac-Röntgenbildern
US7224357B2 (en) * 2000-05-03 2007-05-29 University Of Southern California Three-dimensional modeling based on photographic images
US7597663B2 (en) * 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US6965386B2 (en) * 2001-12-20 2005-11-15 Siemens Corporate Research, Inc. Method for three dimensional image reconstruction
DE10210050A1 (de) * 2002-03-07 2003-12-04 Siemens Ag Verfahren und Vorrichtung zur wiederholt gleichen Relativpositionierung eines Patienten
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置
DE102004004603A1 (de) * 2004-01-29 2005-08-18 Siemens Ag Verfahren und Bildgebungseinrichtung zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung auf Basis eines 3D-Bilddatensatzes
US7623736B2 (en) * 2005-05-06 2009-11-24 Stereotaxis, Inc. Registration of three dimensional image data with patient in a projection imaging system
US8077936B2 (en) * 2005-06-02 2011-12-13 Accuray Incorporated Treatment planning software and corresponding user interface
WO2007014105A2 (en) * 2005-07-22 2007-02-01 Tomotherapy Incorporated Method and system for adapting a radiation therapy treatment plan based on a biological model
DE102005034913A1 (de) * 2005-07-26 2007-02-15 Siemens Ag Vorrichtung und Verfahren zur Gewinnung eines Bilddatensatzes zur Planung einer Strahlentherapie eines Patienten, Verwenden einer derartigen Vorrichtung sowie Verfahren zur Patientenpositionierung
DE102006003609B4 (de) * 2006-01-25 2014-09-04 Siemens Aktiengesellschaft Tomographie-System und Verfahren zur Visualisierung einer tomographischen Darstellung
US8825136B2 (en) * 2008-03-14 2014-09-02 Baylor Research Institute System and method for pre-planning a radiation treatment
US8396248B2 (en) * 2008-09-16 2013-03-12 Varian Medical Systems, Inc. Sequential stereo imaging for estimating trajectory and monitoring target position
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
WO2011059125A1 (ko) * 2009-11-12 2011-05-19 사회복지법인 삼성생명공익재단 치료기 제어 시스템 및 방법
EP2664360B1 (en) * 2010-02-24 2015-09-09 Accuray Incorporated Gantry image guided radiotherapy system and related tracking methods
US8620093B2 (en) * 2010-03-15 2013-12-31 The United States Of America As Represented By The Secretary Of The Army Method and system for image registration and change detection
US8315356B2 (en) * 2010-09-17 2012-11-20 Accuray Incorporated Image alignment
JP2012070880A (ja) * 2010-09-28 2012-04-12 Mitsubishi Heavy Ind Ltd 放射線治療装置制御装置および放射線治療装置制御方法
US8823732B2 (en) * 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
CA2828298A1 (en) * 2011-03-29 2012-10-04 Boston Scientific Neuromodulation Corporation System and method for leadwire location
JP6165591B2 (ja) * 2013-10-31 2017-07-19 株式会社東芝 画像処理装置、治療システム、及び画像処理方法
JP2015106262A (ja) * 2013-11-29 2015-06-08 株式会社東芝 画像処理装置、治療システム及び画像処理方法
JP6425906B2 (ja) * 2014-03-19 2018-11-21 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP6189240B2 (ja) * 2014-03-26 2017-08-30 株式会社東芝 画像処理装置、治療システム及び画像処理方法
US9230322B2 (en) * 2014-04-04 2016-01-05 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291895A1 (en) * 2006-04-10 2007-12-20 Duke University Systems and methods for localizing a target for radiotherapy based on digital tomosynthesis
JP2008206969A (ja) * 2007-01-30 2008-09-11 Toshiba Corp 診療支援システム、診療支援装置及び診療支援プログラム
JP2010246883A (ja) * 2009-03-27 2010-11-04 Mitsubishi Electric Corp 患者位置決めシステム
JP2011212130A (ja) * 2010-03-31 2011-10-27 Natl Inst Of Radiological Sciences 放射線ビーム照射対象位置決め装置およびその位置決め方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582884B2 (en) 2013-11-29 2017-02-28 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method for determining a position of a point
US9734574B2 (en) 2014-03-26 2017-08-15 Kabushiki Kaisha Toshiba Image processor, treatment system, and image processing method

Also Published As

Publication number Publication date
US20150154757A1 (en) 2015-06-04
CN104665854A (zh) 2015-06-03
JP6271230B2 (ja) 2018-01-31

Similar Documents

Publication Publication Date Title
US9582884B2 (en) Image processor, treatment system, and image processing method for determining a position of a point
JP6226621B2 (ja) 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム
US20180014809A1 (en) Calibration phantom
JP6271230B2 (ja) 画像処理装置、治療システム及び画像処理方法
CN104545969A (zh) 借助解剖学标志来确定拍摄参数的值
JP6165591B2 (ja) 画像処理装置、治療システム、及び画像処理方法
US11615270B2 (en) Medical image processing apparatus, learning method, X-ray diagnostic apparatus, and medical image processing method
JP6189240B2 (ja) 画像処理装置、治療システム及び画像処理方法
US9678644B2 (en) Displaying a plurality of registered images
JP2016022095A (ja) 断層画像生成システム
JP6305250B2 (ja) 画像処理装置、治療システム及び画像処理方法
CN105744891A (zh) 基于三维(3d)预扫描图像数据的一幅或多幅二维(2d)规划投影图像
CN107752979B (zh) 人工投影的自动生成方法、介质和投影图像确定装置
US20180064409A1 (en) Simultaneously displaying medical images
JP2022022249A (ja) 放射線画像表示装置および画像表示方法
JP7078955B2 (ja) 治療システム、キャリブレーション方法、およびプログラム
CN113587810A (zh) 一种生成光源位置的方法和装置
WO2019198394A1 (ja) 医用画像処理装置、医用画像処理方法、およびプログラム
US8295564B2 (en) Marking a location in a medical image
CN107809954B (zh) 计算机断层切片图像相对于要被成像的对象的深度位置的显示
JP7341667B2 (ja) 医用画像処理装置、x線診断装置及び医用情報処理システム
US20240108302A1 (en) Method for identifying interventional object, imaging system, and non-transitory computer-readable medium
US20240148351A1 (en) Image-based planning of tomographic scan
Huang et al. Learning Perspective Deformation in X-Ray Transmission Imaging
JP2021171483A (ja) 治療支援装置及び治療支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171227

R151 Written notification of patent or utility model registration

Ref document number: 6271230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151