JP6533687B2 - 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム - Google Patents

医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム Download PDF

Info

Publication number
JP6533687B2
JP6533687B2 JP2015084369A JP2015084369A JP6533687B2 JP 6533687 B2 JP6533687 B2 JP 6533687B2 JP 2015084369 A JP2015084369 A JP 2015084369A JP 2015084369 A JP2015084369 A JP 2015084369A JP 6533687 B2 JP6533687 B2 JP 6533687B2
Authority
JP
Japan
Prior art keywords
image
color
image processing
volume rendering
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015084369A
Other languages
English (en)
Other versions
JP2016202319A (ja
Inventor
鈴木崇啓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2015084369A priority Critical patent/JP6533687B2/ja
Priority to US15/095,358 priority patent/US10249074B2/en
Publication of JP2016202319A publication Critical patent/JP2016202319A/ja
Application granted granted Critical
Publication of JP6533687B2 publication Critical patent/JP6533687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Description

本発明は、医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムに関する。
従来、物体内部の3次元画像を得る方法として、ボリュームレンダリング(VR:Volume Rendering)法が知られている。ボリュームレンダリング法では、ボリュームデータを構成する3次元のボクセル(微小体積要素;Voxel)に対して仮想始点から仮想光線(レイ)が投射されることにより、投影面に画像が投影され、ボリュームデータが可視化される。以下、ボリュームレンダリング法により得られる画像を、ボリュームレンダリング画像とも称する。
ボリュームレンダリング法には、MIP(Maximum Intensity Projection)法及びレイキャスティング(Raycasting)法が含まれる。
MIP法では、仮想光線上のボクセルの輝度(Intensity)の最大値が取得され、この値が投影面にマッピングされ、ボリュームデータが可視化される。以下、MIP法により得られる画像を、MIP画像とも称する。
レイキャスティング法では、仮想光線の経路に沿って一定間隔でサンプリングされ、各サンプリング点のボクセルからボクセル値(ボクセルの画素値)が取得され、各サンプリング点における仮想光線を減衰させつつ反射光が蓄積されることによって、ボリュームデータが可視化される。以下、レイキャスティング法により得られる画像を、レイキャスト画像とも称する。
従来、MIP画像を生成する医用画像処理装置として、体内の臓器を区分し、複数の臓器に対して異なる色を割り当ててMIP画像を生成する装置が知られている(例えば、特許文献1参照)。
従来、レイキャスト画像を生成する医用画像処理装置として、体内の臓器を区分し、複数の臓器に対して異なる色を割り当ててレイキャスト画像を生成する装置が知られている(例えば、特許文献2参照)。
米国特許出願公開第2012/0177258号明細書 特開2009−160306号公報
特許文献1,2に記載された画像生成装置では、単一の仮想光線上に臓器等を含む領域が複数存在する場合、仮想光線上の複数の領域を同時に表示することが困難である。そのため、ユーザは、仮想光線上の複数の領域を視認することが困難である。すなわち、画像の奥行き方向に重なる物体を同時に的確に表示することが出来ない。また、いわゆる半透明処理によって奥行き方向に重なる物体を同時に表示することは従来行われてはいるものの、満足できる画質ではない。
本発明は、上記事情に鑑みてなされたものであり、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムを提供する。
本発明の医用画像処理装置は、生体のボリュームデータを取得するポートと、前記ボリュームデータにおいて2個又は3個の領域の指定を受け付けるユーザインタフェースと、前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成するプロセッサと、前記カラーボリュームレンダリング画像を表示するディスプレイと、を備え、前記カラーボリュームレンダリング画像は、少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様であり、前記プロセッサは、前記領域毎に、前記カラーボリュームレンダリング画像を表示するための異なる輝度条件を設定し、前記輝度条件は、ウィンドウ幅及びウィンドウレベルを含む
本発明の医用画像処理方法は、医用画像処理装置における医用画像処理方法であって、
生体のボリュームデータを取得し、前記ボリュームデータにおいて2個又は3個の領域の指定を受け付け、前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成し、前記領域毎に、前記カラーボリュームレンダリング画像を表示するための異なる輝度条件を設定し、前記カラーボリュームレンダリング画像を表示し、前記カラーボリュームレンダリング画像は、少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様であり、前記輝度条件は、ウィンドウ幅及びウィンドウレベルを含む
本発明の医用画像処理プログラムは、上記医用画像処理方法をコンピュータに実行させるためのプログラムである。
本発明によれば、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる。
第1の実施形態における医用画像処理装置の構成例を示すブロック図 第1の実施形態における医用画像処理装置の第1動作例を示すフローチャート 第1の実施形態における医用画像処理装置の第2動作例を示すフローチャート 第1の実施形態における医用画像処理装置の第3動作例を示すフローチャート (A)〜(D)第1の実施形態におけるボリュームレンダリング画像の第1例を示す模式図 第1の実施形態におけるボリュームレンダリング画像の第2例を示す模式図 第1の実施形態におけるボリュームレンダリング画像の第3例を示す模式図 第2の実施形態における医用画像処理装置の動作例を示すフローチャート (A)〜(D)第2の実施形態におけるボリュームレンダリング画像の一例を示す模式図
以下、本発明の実施形態について、図面を用いて説明する。
(本発明の一形態を得るに至った経緯)
特許文献1の技術におけるMIP画像での1つの画素では、1つの領域の情報のみが得られる。例えば、赤色領域、緑色領域、青色領域が仮想光線上で重複している場合に、赤、緑、又は青色の領域が選択される。この場合、ユーザは、選択されなかった領域を把握できず、得られた画像から仮想光線上の複数の領域を認識することが困難である。
特許文献2の技術では、レイキャスト法で半透明処理された部位は、半透明状態で表示され、画像が不鮮明となる。そのため、仮想光線上で半透明部分と非半透明部分とが重複する場合、この仮想光線上の画像が不鮮明となり、画像の信頼性が低下する。
以下、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラムについて説明する。
(第1の実施形態)
図1は、第1の実施形態における医用画像処理装置100の構成例を示すブロック図である。医用画像処理装置100は、ポート110、UI(User Interface)120、ディスプレイ130、プロセッサ140、及びメモリ150を備える。医用画像処理装置100には、CT装置200が接続される。医用画像処理装置100は、CT装置200からボリュームデータを取得し、取得されたボリュームデータに対して処理を行う。
CT装置200は、生体へX線を照射し、体内の組織によるX線の吸収の違いを利用して、画像(CT画像)を撮像する。CT画像は、時系列に複数撮像されてもよい。CT画像は、生体内部の任意の箇所の情報を含むボリュームデータを形成する。CT画像が撮像されることにより、CT画像における各画素(ボクセル)の画素値(CT値)が得られる。CT装置200は、CT画像としてのボリュームデータを医用画像処理装置100へ、有線回線又は無線回線を介して送信する。
ポート110は、CT画像としてのボリュームデータを取得する。取得されたボリュームデータは、直ぐにプロセッサ140へ送られて各種処理されてもよいし、メモリ150において保管された後、必要時にプロセッサ140へ送られて各種処理されてもよい。
UI120は、例えば、タッチパネル、ポインティングデバイス、キーボード、音声入力を含む。UI120は、医用画像処理装置100のユーザ(例えば医師、放射線技師、読影医)から、任意の入力操作を受け付ける。UI120は、例えば、領域指定の操作、輝度条件の設定の操作、を受け付ける。
ディスプレイ130は、例えばLCD(Liquid Crystal Display)を含み、各種情報を表示する。各種情報は、各種カラーボリュームレンダリング画像を含む。カラーボリュームレンダリング画像は、色付けされたボリュームレンダリング画像である。カラーボリュームレンダリング画像は、例えば、色付けされたMIP画像、レイキャスト画像、その他の色付けされたボリュームレンダリング画像を含む。
ディスプレイ130は、プロセッサ140により設定された輝度条件に基づいて、各種情報を表示してもよい。
メモリ150は、各種ROM(Read Only Memory)やRAM(Random Access Memory)を含む。メモリ150、各種情報やプログラムを記憶する。各種情報は、例えば、ポート110により取得されたボリュームデータ、プロセッサ140により生成された画像、プロセッサ140により設定された設定情報、を含む。
プロセッサ140は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)を含む。プロセッサ140は、メモリ150に記憶された医用画像処理プログラムを実行することにより、各種処理や制御を行う。また、プロセッサ140は、医用画像処理装置100の各部を統括する。
プロセッサ140は、1つのボリュームデータにおいて、複数の領域を抽出する。この場合、UI120がユーザからの領域指定を受け付け、領域指定の情報がプロセッサ140に送られる。プロセッサ140は、領域指定の情報に基づいて、公知の方法により、ボリュームデータから、指定された領域を抽出する。または、プロセッサ140は、UI120からの入力よりユーザの手動操作により領域を設定する。
抽出される領域は、ユーザにより注目される関心領域(ROI:Region of Interest)を含む。抽出される領域は、ユーザが注目すべき病変や組織(例えば、骨、血管、臓器)の領域を含み、体内に存在する物品(例えばステント)の領域を含んでもよい。
プロセッサ140は、ポート110により取得されたボリュームデータから、指定された領域に基づいて、カラーボリュームレンダリング画像を生成する。カラーボリュームレンダリング画像は、少なくとも1点において、指定された複数の領域の少なくとも2個が奥行き方向に重複する。また、プロセッサ140は、カラーボリュームレンダリング画像に対して後述の可逆変換することで、指定された領域の各々に対応するボリュームレンダリング画像を分離可能である。尚、可逆変換は恒等変換を含む。
プロセッサ140は、カラーボリュームレンダリング画像を生成する際、色付きではないモノクロのボリュームレンダリング画像を生成してもよいし、モノクロのボリュームレンダリング画像を生成しなくてもよい。
プロセッサ140は、ディスプレイ130によりカラーボリュームレンダリング画像を表示する際の輝度条件を導出し、設定する。輝度条件は、指定された領域毎に、同じでも異なってもよい。
輝度条件は、例えば、ウィンドウ幅(ww:window width)と、ウィンドウレベル(wl:window level)と、を含む。ウィンドウ幅は、ディスプレイ130により表示される画像の画素値の幅(範囲)を示す。ウィンドウレベルは、ディスプレイ130により表示される画像の画素値の幅の中心値を示す。
プロセッサ140は、例えばAutoWindowにより、輝度条件を導出する。AutoWindowは、ヒストグラムを利用して、画像データに含まれる画素値の統計的情報に基づいて、ウィンドウ幅とウィンドウレベルを設定する処理である。AutoWindowのウィンドウ幅は、定数×画素値の分散値により算出される。AutoWindowのウィンドウレベルは、画素値の平均値により算出される。
次に、医用画像処理装置100の動作例について説明する。
図2は、医用画像処理装置100の第1動作例を示すフローチャートである。第1動作例では、プロセッサ140は、領域毎にモノクロMIP画像を生成する。
まず、ポート110が、CT装置200からボリュームデータを取得し(S101)、メモリ150に保持させる。
UI120は、ユーザからのボリュームデータの領域指定を受け付ける。UI120は、受け付けた領域指定の情報をプロセッサ140へ送る。プロセッサ140は、領域指定の情報に基づいて、取得されたボリュームデータにおいて、3個の領域を抽出する(S102)。ここでは、3個の領域は、R領域、G領域、及びB領域とする。
プロセッサ140は、抽出された3個の領域の各々で、ボリュームデータから従来の手段でMIP画像を生成する(S103)。R領域に対応して生成されるMIP画像をR−MIP画像とも称する。G領域に対応して生成されるMIP画像をG−MIP画像とも称する。B領域に対応して生成されるMIP画像をB−MIP画像とも称する。
S103では、プロセッサ140は、投影面の1つの画素において、ボリュームデータに対して仮想光線を投射し、領域毎にボクセル値を得る。プロセッサ140は、同一の仮想光線上のボクセル値の最大値を投影値として算出する。プロセッサ140は、投影面の他画素において同様に仮想光線を投射し、領域毎に各画素の投影値を算出する。これにより、プロセッサ140は、ボリュームデータから、領域毎にモノクロMIP画像を生成する。
プロセッサ140は、各領域のMIP画像(R−MIP画像、G−MIP画像、B−MIP画像)の画素値に基づいて、カラーMIP画像における色情報を得る。プロセッサ140は、得られた各画素の色情報を投影面にマッピングすることで、各領域のMIP画像を合成してカラーMIP画像を生成する(S104)。すなわち、プロセッサ140は、カラーMIP画像の画素値がRGBで表現されるときに、RGBのRチャネルをR−MIP画像の画素値より、RGBのGチャネルをG−MIP画像の画素値より、RGBのBチャネルをB−MIP画像の画素値よりマッピングする。尚、この演算は、投影面の画素毎、つまりカラーMIP画像における画素毎に行われる。
ディスプレイ130は、プロセッサ140により生成されたカラーMIP画像を表示する(S105)。また、プロセッサ140は、カラーMIP画像に対してアフィン変換してから表示しても良い。
図2の処理では、プロセッサ140は、投影情報に基づいて、領域毎にMIP画像を生成する。プロセッサ140は、各MIP画像の色情報をマッピングして、カラーMIP画像を生成する。つまり、プロセッサ140は、領域毎にボリュームレンダリング画像を生成した後にカラーボリュームレンダリング画像を生成する。
図2の処理によれば、従来の手段で得られるモノクロMIP画像を用いるので、医用画像処理装置100の実装を簡単に行える。
プロセッサ140は、例えば(式1)を用いて演算することもできる。図2の処理では、プロセッサ140は、3つのMIP画像(R−MIP画像、G−MIP画像、B−MIP画像)から直接カラーMIP画像の画素値のRGBの各チャネルを取得した。プロセッサ140は、3つのMIP画像(R−MIP画像、G−MIP画像、B−MIP画像)を、3つのMIP画像(ch1−MIP画像、ch2−MIP画像、ch3−MIP画像)と一般化した上で、変換を加えてからカラーMIP画像の画素値のRGBの各チャネルとしても良い。(式1)では、3つのMIP画像(ch1−MIP画像、ch2−MIP画像、ch3−MIP画像)の生成時に得られる画素値((式1)でのch1〜ch3)に対して、変換行列T((式1)での3×3型の行列)を乗じて、変換後の画素値((式1)でのR,G,Bの値)を得る。色情報は、「R」「G」「B」の値を含む。
「ch1」は、第1の領域におけるボリュームレンダリングにより得られる画素値であり、ここではch1−MIP画像の画素値である。「ch2」は、第2の領域におけるボリュームレンダリングにより得られる画素値であり、ここではch2−MIP画像の画素値である。「ch3」は、第3の領域におけるボリュームレンダリングにより得られる画素値であり、ここではch3−MIP画像の画素値である。「R」は、カラーボリュームレンダリング画像での赤色成分の値を示す。「G」は、カラーボリュームレンダリング画像での緑色成分の値を示す。「B」は、カラーボリュームレンダリング画像での青色成分の値を示す。
(式1)は可逆変換の式である。そのため、プロセッサ140は、ch1,ch2,ch3の各値から変換行列Tを用いてR,G,Bの各値を算出可能である。また、プロセッサ140は、R,G,Bの各値から変換行列Tを用いてch1,ch2,ch3の各値を算出可能である。
(式1)が可逆変換の式であることで、ch1,ch2,ch3の各値とR,G,Bの各値とは相互変換可能である。従って、ch1−MIP画像、ch2−MIP画像、及びch3−MIP画像と、カラーMIP画像とは、相互変換可能である。また、カラーMIP画像からch1−MIP画像、ch2−MIP画像、及びch3−MIP画像を一意に分離可能である。特に、ユーザは、カラーMIP画像から直接にch1−MIP画像、ch2−MIP画像、及びch3−MIP画像に相当する画像を想起することが出来るので、複雑に重複する領域形状の関係を把握しやすい。
このように、プロセッサ140は、ボリュームデータに対して仮想光線を投射し、領域毎に投影情報を取得する。プロセッサ140は、投影情報に基づいて色情報を取得し、色情報に基づいてカラーボリュームレンダリング画像を生成する。プロセッサ140は、投影情報に対して可逆変換して、カラーMIP画像の色情報を取得する。投影情報は、投影値を含む。色情報は、RGBの値を含む。
図3は、医用画像処理装置100の第2動作例を示すフローチャートである。第2動作例では、プロセッサ140は、1つの画素につき複数の仮想光線(例えば3本)を投射する。また、プロセッサ140は、オーバーサンプリングしてもよい。
尚、図3において、図2と同様の処理については、同一の符号を付し、説明を省略又は簡略化する。
まず、医用画像処理装置100は、S101,S102の処理を行う。
S102の処理後、プロセッサ140は、抽出された3個の領域の各々で、ボリュームデータに対して仮想光線を投射して、仮想光線上のボクセル値を取得する。つまり、プロセッサ140は、赤色用の仮想光線(R仮想光線)、緑色用の仮想光線(G仮想光線)、及び青色用の仮想光線(B仮想光線)を投射する。プロセッサ140は、各仮想光線において最大のボクセル値を投影値として得る(S201)。これにより、投影面の1画素における各領域の投影値が得られる。投影面の1画素は、カラーMIP画像の1画素に相当する。
プロセッサ140は、R仮想光線、G仮想光線、及びB仮想光線により得られた各領域のボクセルの最大値を用いて、例えば(式1)を演算し、(式1)の「R」「G」「B」の値(RGBの画素値)を算出する(S202)。「R」「G」「B」の値により、投影面における1画素の配色が決定される。
プロセッサ140は、S201,S202の処理を投影面の他の画素に対して反復し、カラーMIP画像を生成する(S203)。
そして、医用画像処理装置100は、S105の処理を行う。
このように、図3の処理では、プロセッサ140は、各画素において、領域毎に仮想光線を投射して、領域毎に投影情報を取得する。プロセッサ140は、各画素の色情報を投影面にマッピングして、カラーMIP画像を生成する。つまり、プロセッサ140は、領域毎に仮想光線を投影しながら、MIP画像を生成する。また、プロセッサ140は、各仮想光線をch1仮想光線、ch2仮想光線、及びch3仮想光線とし、ch1〜ch3仮想光線のそれぞれから得られる最大値に(式1)を適用して、R,G,Bの各値を算出してもよい。
図3の処理によれば、領域毎にMIP画像を生成しなくて済むので、カラーボリュームレンダリング画像の生成を高速化できる。
図4は、医用画像処理装置100の第3動作例を示すフローチャートである。第3動作例では、プロセッサ140は、1つの画素につき1つの仮想光線を投射する。
尚、図4において、図2又は図3と同様の処理については、同一の符号を付し、説明を省略又は簡略化する。
まず、医用画像処理装置100は、S101,S102の処理を行う。
S102の処理後、プロセッサ140は、抽出された3個の領域で、ボリュームデータに対して1つの仮想光線を投射する(S301)。
プロセッサ140は、仮想光線がR領域を進行する際には、R領域における各ボクセル値を、R領域における最大値候補(R最大値候補)として、メモリ150に記憶する(S302)。プロセッサ140は、仮想光線がG領域を進行する際には、G領域における各ボクセル値をG領域における最大値候補(G最大値候補)として、メモリ150に記憶する(S302)。プロセッサ140は、仮想光線がB領域を進行する際には、B領域における各ボクセル値をB領域における最大値候補(B最大値候補)として、メモリ150に記憶する(S302)。
仮想光線が最後のボクセルまで投射され、最後のボクセルのボクセル値が得られると、プロセッサ140は、R領域における最大値候補からR領域の最大値(R最大値)を取得する(S303)。同様に、プロセッサ140は、G領域における最大値候補からG領域の最大値(G最大値)を取得する(S303)。同様に、プロセッサ140は、B領域における最大値候補からB領域の最大値(B最大値)を取得する(S303)。これにより、投影面の1画素における各領域の投影値が得られる。
プロセッサ140は、仮想光線により得られた各領域のボクセルの最大値を用いて、例えば(式1)を演算し、(式1)の「R」「G」「B」の値を得る(S303)。「R」「G」「B」の値により、投影面における1画素の配色が決定される。
プロセッサ140は、S301〜S303の処理を投影面の他の画素に対して反復し、カラーMIP画像を生成する(S304)。
そして、医用画像処理装置100は、S105の処理を行う。
このように、図4の処理では、プロセッサ140は、画素毎に仮想光線を投射し、仮想光線が各領域を進行するときに、領域毎に各ボクセルの画素値をメモリ150に記録する。プロセッサ140は、メモリ150に記録された領域毎の各ボクセルの画素値に基づいて、領域毎に投影情報を取得する。プロセッサ140は、各画素の色情報を投影面にマッピングして、カラーMIP画像を生成する。つまり、プロセッサ140は、各領域に跨って仮想光線を投影しながら、カラーMIP画像を生成する。また、プロセッサ140は、仮想光線が算出する最大値をch1最大値、ch2最大値、及びch3最大値とし、ch1最大値〜ch3最大値に(式1)を適用して、R,G,Bの各値を算出してもよい。
図4の処理によれば、領域毎にMIP画像を生成しなくて済むので、カラーボリュームレンダリング画像の生成を高速化できる。
尚、第3動作例では、プロセッサ140は、各ボクセルのボクセル値を導出し、このボクセル値から投影値を導出することを例示した。この代わりに、プロセッサ140は、仮想光線上の各領域のボクセル値として、補間ボクセル値を用いてもよい。すなわち、仮想光線上のサンプリング点におけるボクセル値は、周辺のボクセルからの補間によって求められてもよい。また、サンプリング点は厳密に仮想光線上にある必要も無い。アーチファクト対策のために、サンプリング点をランダムに微少距離散乱させる等の場合があるからである。
次に、カラーボリュームレンダリング画像について説明する。尚、ここでは、モノクロMIP画像を生成し合成して、カラーMIP画像を生成することを例示する。尚、前述のように、モノクロMIP画像が生成されなくてもよい。
図5(A)〜(D)は、ボリュームレンダリング画像の第1例を示す模式図である。図5(A)〜(D)では、心臓近辺を含むボリュームデータを基に生成されたカラーボリュームレンダリング画像I1を例示する。図5(A)は心臓の領域D1を示すモノクロMIP画像の模式図である。図5(B)は大動脈の領域D12を示すモノクロMIP画像の模式図である。図5(C)は心臓、大動脈以外の領域D13を示すモノクロMIP画像の模式図である。図5(D)はカラーMIP画像としてのカラーボリュームレンダリング画像I1を示す模式図である。
図5(A)〜(D)では、ボリュームデータは、心臓の領域D11と、大動脈の領域D12と、その他の領域D13と、を含む。プロセッサ140は、心臓の領域D11には緑色(G)を割り当て、G−MIP画像を生成する。プロセッサ140は、大動脈の領域D12には青色(B)を割り当て、B−MIP画像を生成する。プロセッサ140は、その他の領域D13には赤色(R)を割り当て、R−MIP画像を生成する。プロセッサ140は、各MIP画像を合成してカラーボリュームレンダリング画像I1を生成する。ディスプレイ130は、生成されたカラーボリュームレンダリング画像I1を表示する。尚、各MIP画像に割り当てられる色はこれに限らない。
カラーボリュームレンダリング画像I1により、モノクロボリュームレンダリング画像と比較すると、ユーザは、色を確認することで、どの領域に含まれる組織であるかを判別しやすい。2次元データであるボリュームレンダリング画像は、ユーザに提示される表示の段階では、3次元データであるボリュームデータよりも情報量が少ない。しかし、ユーザは、カラーボリュームレンダリング画像I1の注目部位における色を確認することで、各組織の位置を認識し易くなる。特に、従来のMIP画像では、観察したい組織が奥行き方向に重なっているときには、いずれか一方の組織しか描画されなかった。これに対し、本実施形態によれば、色に注目することで重複部分の各組織を容易に識別できる。
図6は、ボリュームレンダリング画像の第2例を示す模式図である。図6では、頭、顔、首近辺を含むボリュームデータを基に生成されたカラーボリュームレンダリング画像I2を例示する。
図6では、ボリュームデータは、頸動脈の領域D21と、頭骨の領域D22と、頸動脈及び頭骨が重複する領域D23と、を含む。プロセッサ140は、頸動脈のD21には赤色(R)を割り当て、R−MIP画像を生成する。プロセッサ140は、頭骨の領域D22には緑色(G)を割り当て、G−MIP画像を生成する。プロセッサ140は、各MIP画像を合成してカラーボリュームレンダリング画像I2を生成する。尚、重複する領域D23は、赤色と緑色の各色が加法混色された黄色として表示されることになる。図6では、領域D21を横のハッチングパターン、頭骨の領域D22を縦のハッチングパターン、重複する領域D23は縦横のハッチングパターンで表現している。また、領域D23が、領域D21と領域D22の特徴を包含していることを表現している。ディスプレイ130は、生成されたカラーボリュームレンダリング画像I2を表示する。
カラーボリュームレンダリング画像I2により、各領域D21〜D23の色により、ユーザは、頸動脈と頭骨との境界を容易に認識できる。また、頸動脈と頭骨との重複部では、頸動脈と頭骨とのいずれか一方の情報が反映される代わりに、双方の情報が反映されるので、仮想光線における異なる位置(領域)の情報が欠落することを低減できる。従って、ユーザは、頸動脈と頭骨とを容易に区別して認識でき、重複も認識できる。また、頸動脈の領域D21と頭骨の領域D22とに付される赤色、緑色の濃淡も高精度に描画される。これは、カラーボリュームレンダリング画像において、元となったR−MIP画像及びG−MIP画像のそれぞれの濃淡情報が保存されているからである。また、R−MIP画像及びG−MIP画像がそれぞれ中間の輝度を持つ場合にも、それに応じたR値及びG値に即した黄土色として描画される。また、このようにカラーボリュームレンダリング画像を作成するために必要なモノクロMIP画像は、2つで足りる。
図7は、ボリュームレンダリング画像の第3例を示す模式図である。図7では、心臓近辺を含むボリュームデータを基に生成されたカラーボリュームレンダリング画像I3を例示する。
図7では、ボリュームデータは、冠動脈の領域D31と、ステントの領域D32と、ステント内を流れる血流の領域D33と、を含む。プロセッサ140は、冠動脈の領域D31には第1の色(例えば赤色)を割り当て、第1の色のMIP画像を生成する。プロセッサ140は、ステントの領域D32には第2の色(例えば青色)を割り当て、第2の色のMIP画像を生成する。プロセッサ140は、ステント内を流れる領域D33には第3の色(例えば緑色)を割り当て、第3の色のMIP画像を生成する。プロセッサ140は、各MIP画像を合成してカラーボリュームレンダリング画像I3を生成する。ディスプレイ130は、生成されたカラーボリュームレンダリング画像I3を表示する。
カラーボリュームレンダリング画像I3により、各領域D31〜D33の色により、ユーザは、冠動脈とステントとステント内の血流との境界を容易に認識できる。また、冠動脈内にステントが挿入されているので、冠動脈とステントとは立体的に包含関係にある。同様に、ステントとステント内の血流とは立体的に包含関係にある。このように包含関係にある場合でも、各々の領域を区分し、それぞれに着色することで、仮想光線における異なる位置(領域)の情報が欠落することを低減できる。従って、ユーザは、冠動脈とステントとステント内の血流とを容易に区別して認識できる。
尚、図5〜図7において、各MIP画像に割り当てられる色は、これに限らない。特に(式1)を利用して様々な形態が考えられる。
このように、医用画像処理装置100は、複数の領域に対して、独立してMIP画像の生成に係る演算を行い、各領域での投影値を算出する。実際には、図3及び図4で示したように中間生成物であるモノクロのMIP画像は、生成されてもよいし生成されてなくてもよい。そして、医用画像処理装置100は、3つの領域を各々、カラーチャネルに割り当ててカラーボリュームレンダリング画像を表示する。
これにより、ユーザは、ボリュームデータが示す組織間の位置関係がカラーボリュームレンダリング画像において把握し易くなる。また、領域の指定に誤りがある場合には、誤りのある領域がユーザの意図と異なった色で表示されるので、ユーザは、関心領域の設定の誤りを把握し易くなる。
また、本実施形態の医用画像処理装置100によれば、ボリュームデータからボリュームレンダリング画像を生成する際に欠落する情報量を低減して、カラーボリュームレンダリング画像を生成できる。
また、ボリュームデータに投射される仮想光線上で、指定された領域同志が重複する場合でも、領域毎に別の色情報が付加される。そのため、医用画像処理装置100は、仮想光線上の複数の領域を良好に区別できるカラーボリュームレンダリング画像を生成できる。
ボリュームデータに投射される仮想光線上で、指定された領域同志が包含関係にある場合でも、領域毎に別の色情報が付加される。そのため、医用画像処理装置100は、仮想光線上の複数の領域を良好に区別できるカラーボリュームレンダリング画像を生成できる。
また、カラーボリュームレンダリング画像に対して可逆変換であることで、ユーザは、カラーMIP画像から直接に各領域のモノクロMIP画像に相当する画像を想起でき、複雑に重複する領域形状の関係を把握し易い。
また、ボリュームデータから多数の領域を切り出した場合、複数の領域間の仮想光線上の前後関係やボリュームデータ全体に対する領域の位置を認識し難くなる。これに対し、医用画像処理装置100は、領域毎に色分けすることで、複数の領域間の仮想光線上の前後関係やボリュームデータ全体に対する領域の位置を理解し易くできる。
また、レイキャスト画像では、通常、視線方向における反射位置よりも背後にあるボクセル値が反映さず、生体の内部を観察しにくい。一方、MIP画像は、仮想光線を透過させて値を得るので、生体の内部を観察し易い。また、レイキャスト画像は、形状把握に優れた画像であり、例えば、血管の絡み合い、骨の反り、管状組織の走行状態を把握し易い。一方、MIP画像は、形状把握には向いていない。そのため、生体内部の病変や組織の位置をMIP画像で把握し、詳細情報をレイキャスト画像で把握するという使用方法が考えられる。これに対し、本実施形態のカラーボリュームレンダリング画像によれば、生体内部の観察と形状把握とを1つの画像で容易に実施できる。
また、観察対象の部位の近傍にボクセル値の高い病変や組織(例えば背骨)が存在する場合、MIP画像ではその周囲の画像を観察しづらくなる。これに対し、ボクセル値の高い病変や組織が属する領域とは異なる領域を設定することで、周囲の画像を観察し易くできる。
(第2の実施形態)
第1の実施形態では、ボリュームレンダリング画像として主にMIP画像を例示した。第2の実施形態では、ボリュームレンダリング画像として主にレイキャスト画像を例示する。
本実施形態の医用画像処理装置100の構成は、第1の実施形態における医用画像処理装置100の構成と同一である。対応する構成については、同一の符号を付し、説明を省略又は簡略化する。
医用画像処理装置100の動作例について説明する。
図8は、医用画像処理装置100の動作例を示すフローチャートである。本実施形態の動作例では、プロセッサ140が領域毎にMIP画像を生成しており、第1の実施形態の第1動作例に相当する。この代わりに、本実施形態の動作に、第1の実施形態の第2動作例又は第3動作例を適用してもよい。
まず、医用画像処理装置100は、S101,S102の処理を行う。
プロセッサ140は、抽出された3個の領域の各々で、ボリュームデータからモノクロレイキャスト画像を生成する(S401)。R領域に対応して生成されるモノクロレイキャスト画像をRレイキャスト画像とも称する。G領域に対応して生成されるモノクロレイキャスト画像をGレイキャスト画像とも称する。B領域に対応して生成されるモノクロレイキャスト画像をBレイキャスト画像とも称する。
プロセッサ140は、各領域のモノクロレイキャスト画像(Rレイキャスト画像、Gレイキャスト画像、Bレイキャスト画像)の画素値に基づいて、カラーレイキャスト画像における色情報を得る。プロセッサ140は、得られた各画素の色情報を投影面にマッピングすることで、各領域のレイキャスト画像を合成してカラーレイキャスト画像を生成する(S402)。尚、この演算は、投影面の画素毎、つまりカラーレイキャスト画像における画素毎に行われる。
また、プロセッサ140は、各モノクロレイキャスト画像をch1レイキャスト画像、ch2レイキャスト画像、及びch3レイキャスト画像としてもよい。そして、プロセッサ140は、ch1〜ch3レイキャスト画像のそれぞれの画素に(式1)を適用して、カラーレイキャスト画像における画素のR,G,Bの各値を算出してもよい。
ディスプレイ130は、プロセッサ140により生成されたカラーレイキャスト画像を表示する(S403)。
次に、カラーボリュームレンダリング画像について説明する。
図9(A)〜(D)は、ボリュームレンダリング画像の一例を示す模式図である。図9(A)〜(D)では、心臓近辺を含むボリュームデータを基に生成されたカラーボリュームレンダリング画像I4を例示する。図9(A)は右冠動脈の領域D41を示す模式図である。図9(B)は左冠動脈の領域D42を示す模式図である。図9(C)は心臓及び心臓の周辺血管の領域D43を示す模式図である。図9(D)はカラーレイキャスト画像としてのカラーボリュームレンダリング画像I4を示す模式図である。
図9(A)〜(D)では、ボリュームデータは、右冠動脈の領域D41と、左冠動脈の領域D42と、心臓及び心臓の周辺血管の領域D43と、を含む。プロセッサ140は、右冠動脈の領域D41には赤色(R)を割り当て、Gレイキャスト画像を生成する。プロセッサ140は、左冠動脈の領域D42には緑色(G)を割り当て、Gレイキャスト画像を生成する。プロセッサ140は、心臓及び周辺血管の領域D43には青色(B)を割り当て、Bレイキャスト画像を生成する。プロセッサ140は、各レイキャスト画像を合成してカラーボリュームレンダリング画像I4を生成する。ディスプレイ130は、生成されたカラーボリュームレンダリング画像I4を表示する。
尚、各レイキャスト画像に割り当てられる色は、これに限らない。
また、右冠動脈の領域D41と左冠動脈の領域D42とが区別して表示されるので、例えばカテーテルを挿入する血管を誤認識することを抑制できる。
本実施形態の医用画像処理装置100によれば、第1の実施形態と同様の効果が得られる。更に、医用画像処理装置100は、従来のレイキャスト法の半透明処理を用いる場合と比較すると、半透明処理によって失われるエッジ情報の欠落を抑制し、仮想光線上に存在する複数の組織の形状を認識し易くできる。また、医用画像処理装置100は、半透明処理に起因する画質の低下を抑制できる。また、医用画像処理装置100は、従来のレイキャスト法のいわゆる領域加算による複数領域の描画と比較して、背後となる領域が隠蔽されることもなく描画でき、複雑に絡み合う複数領域を適切に描画できる。
(他の実施形態)
なお、本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
上記実施形態では、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へ送信されることを例示した。この代わりに、ボリュームデータが一旦蓄積されるため、ネットワーク上のサーバ等へ送信され、保管されてもよい。この場合、必要時に医用画像処理装置100のポート110が、ボリュームデータを、有線回線又は無線回線を介して取得してもよいし、任意の記憶媒体(不図示)を介して取得してもよい。
上記実施形態では、撮像されたCT画像としてのボリュームデータは、CT装置200から医用画像処理装置100へポート110を経由して送信されることを例示した。これには、実質的にCT装置200と医用画像処理装置100とを併せて一製品として成立している場合も含まれるものとする。医用画像処理装置100がCT装置200のコンソールとして扱われている場合も含む。
上記実施形態では、CT装置200により画像を撮像し、生体内部の情報を含むボリュームデータを生成することを例示したが、他の装置により画像を撮像し、ボリュームデータを生成してもよい。他の装置は、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、血管造影装置(Angiography装置)、又はその他のモダリティ装置を含む。また、PET装置は、他のモダリティ装置と組み合わせて用いられてもよい。
上記実施形態では、プロセッサ140が、ボリュームデータから3個の領域を抽出することを例示した。この代わりに、プロセッサ140は、2個の領域を抽出し、2個の領域に対応してカラーボリュームレンダリング画像を生成してもよい。また、プロセッサ140は、4個以上の領域を抽出し、4個以上の領域に対応してカラーボリュームレンダリング画像を生成してもよい。
n個以上(n≧4)の領域が抽出される場合、プロセッサ140は、(式1)の変換行列Tとして、3×n型の行列が用いられる。この場合、色情報を導出するための(式1)の演算は不可逆演算となる。プロセッサ140は、n個の領域を抽出すると、領域が3個の場合と同様に、ボリュームデータとn個の領域とに基づいて、カラーボリュームレンダリング画像を生成する。このカラーボリュームレンダリング画像は、少なくとも1点において少なくとも2個の領域が仮想光線上で重複する。プロセッサ140は、カラーボリュームレンダリング画像に対して逆変換すると、2個の領域に対応するボリュームレンダリング画像を分離可能な態様であることが望ましい。
4個の領域が抽出される場合、プロセッサ140は、例えば、観察対象とする冠動脈に対して白色を割り当て、心臓内及び大動脈の血液に対して赤色を割り当て、心筋に対して緑色を割り当て、その他の部位に対して青色を割り当ててもよい。これにより、医用画像処理装置100は、最も注目したい部位を白色とし、次に注目したい部位を赤色に着色することで、ユーザの意図に沿って各領域を色付けできる。
上記実施形態では、プロセッサ140は、(式1)を用いてカラーボリュームレンダリング画像を生成することを例示した。尚、(式1)における変換行列Tの各行列要素の値は一例であり、他の値を用いてもよい。また、プロセッサ140は、(式1)以外の式を用いて、カラーボリュームレンダリング画像を生成してもよい。
プロセッサ140は、(式1)の代わりに(式2)を用いて演算してもよい。
R=ch1
G=ch2 ・・・(式2)
B=MAX(ch1,ch2)
尚、(式2)は、領域が2個指定された場合に用いられる。(式2)は、(式1)と同様に、可逆変換の式である。
上記実施形態では、プロセッサ140は、色情報としてRGB成分を含むカラーボリュームレンダリング画像を生成した。この代わりに、プロセッサ140は、色情報としてHSV成分を含むカラーボリュームレンダリング画像を生成してもよい。HSV成分は、色相(Hue)成分、彩度(Saturation)成分、及び明度(Brightness)成分を含む。尚、色情報は、色相に限られず、輝度や再度等の色に関する情報を広く含む。また、プロセッサ140は、色情報としてCMY成分を用いても良い。
上記実施形態では、プロセッサ140が、カラーボリュームレンダリング画像として、各領域のMIP画像に対して色付けされたカラーMIP画像、各領域のレイキャスト画像に対して色付けされたカラーレイキャスト画像を例示した。この代わりに、プロセッサ140は、各領域のMinIP(Minimum Intensity Projection)画像に対して色付けされたカラーMinIP画像、各領域のRaySUM画像に対して色付けされたカラーRaySUM画像、を生成してもよい。また、プロセッサ140は、これらの方法を組み合わせ、チャネル毎に異なるレンダリング方法を用いて、カラーボリュームレンダリング画像を生成しても良い。例えば、肺動脈をMIP画像、気管支をMinIP画像として描画し、これらを合成してカラーボリュームレンダリング画像を得ることが考えられる。
MinIP画像は、MinIP法により得られる画像である。MinIP法では、仮想光線上のボクセルの輝度の最小値が取得され、この値が投影面にマッピングされ、ボリュームデータが可視化される。MinIP画像では、仮想光線の進行方向(画像の奥行方向)において複数の領域で投影値が導出され、各領域に異なる色情報が付加される。そのため、カラーMinIP画像により、同一の仮想光線上で投影値が1つに限定されて情報が欠落し、前後(奥行方向)の位置関係が不明瞭となることを抑制できる。
RaySUM画像は、仮想光線上のボクセルの輝度の平均値や合計値が取得され、この値が投影面にマッピングされ、ボリュームデータが可視化される。RySUM画像では、仮想光線の進行方向(画像の奥行方向)において複数の領域で投影値が導出され、各領域に異なる色情報が付加される。そのため、カラーRaySUM画像により、同一の仮想光線上で投影値が1つに限定されて情報が欠落し、前後(奥行方向)の位置関係が不明瞭となることを抑制できる。特に、カラーRaySUM画像では、平均値や合計値が算出されることで各ボクセルの特徴が平均化され、ボクセル値が小さい部位(輝度が小さい部位)が投影値に反映され難い。これに対し、カラーRaySUM画像により、平均化された特徴でも領域毎に色分けされることで、ユーザは、各ボクセルの特徴を認識し易くなる。
上記実施形態では、各領域に対応するボリュームレンダリング画像がモノクロ画像であることを主に例示したが、カラー画像であってもよい。つまり、各領域に対応するカラー画像が合成されて、カラーボリュームレンダリング画像が生成されてもよい。また、各領域に対応するモノクロ画像とカラー画像とが合成されて、カラーボリュームレンダリング画像が生成されてもよい。すなわち、カラーボリュームレンダリング画像から各領域に対応するカラー画像が分離できる態様であればよい。これには例えば、LUT(Look Up Table)により緑と青に着色されたレイキャスト画像と、モノクロMIP画像に赤を割り当てたものと、を合成する例が考えられる。
上記実施形態では、3次元空間において、ボリュームデータから複数の重複しない領域を抽出することを例示したが、複数の領域の一部が重複してもよい。
上記実施形態では、プロセッサ140が、領域の指定をカラーボリュームデータの生成前に行うことを例示したが、カラーボリュームデータの生成後に領域を追加指定してもよい。これにより、ユーザは、UI120を介して、カラーボリュームデータを確認しながら、ユーザ所望の領域分けとなるように、領域指定できる。
上記実施形態では、プロセッサ140は、ボリュームレンダリング画像を縮小してもよい。この場合、プロセッサ140は、カラーボリュームレンダリング画像の生成前に、各領域に対応するボリュームレンダリング画像を縮小してもよい。プロセッサ140は、カラーボリュームレンダリング画像の生成後に、カラーボリュームレンダリング画像を縮小してもよい。プロセッサ140は、各ボリュームレンダリング画像の生成前に縮小すると、色情報を導出するための演算量を低減できる。
(本発明の一態様の概要)
本発明の一態様の医用画像処理装置は、生体のボリュームデータを取得するポートと、ボリュームデータにおいて2個又は3個の領域の指定を受け付けるユーザインタフェースと、ボリュームデータ及び2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成するプロセッサと、カラーボリュームレンダリング画像を表示するディスプレイと、を備え、カラーボリュームレンダリング画像は、少なくとも1点において2個又は3個の領域が仮想光線上で重複し、当該カラーボリュームレンダリング画像に対する可逆変換により、2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様である。
この構成によれば、医用画像処理装置は、ボリュームデータからボリュームレンダリング画像を生成する際に欠落する情報量を低減して、カラーボリュームレンダリング画像を生成できる。また、仮想光線上の複数の領域で異なる色情報が付加されることで、各領域が見分け易くなる。従って、医用画像処理装置は、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる。
本発明の一態様の医用画像処理装置は、ユーザインタフェースが、ボリュームデータにおいて4個以上の領域の指定を受け付け、プロセッサが、ボリュームデータ及び4個以上の領域に基づいて、カラーボリュームレンダリング画像を生成し、カラーボリュームレンダリング画像は、少なくとも1点において2個以上の領域が仮想光線上で重複し、当該カラーボリュームレンダリング画像に対する逆変換により、少なくとも2個の領域に対応するボリュームレンダリング画像が分離可能な態様でもよい。
この構成によれば、仮想光線上で領域を細分化した場合でも、領域が3個の場合と同様の効果が得られる。つまり、医用画像処理装置は、ボリュームデータからボリュームレンダリング画像を生成する際に欠落する情報量を低減して、カラーボリュームレンダリング画像を生成できる。また、カラーレンダリング画像を逆変換することで少なくとも2つの領域の画像を得られるので、領域分けがない場合と比較すると、仮想光線上の領域を識別し易くなる。
本発明の一態様の医用画像処理装置は、領域の少なくとも2個が、相互に三次元空間上で重複してもよい。
この構成によれば、例えば、1つの血管が血管領域と心臓領域とに同時に含まれてもよい。この場合でも、各領域に対して色情報が付加された際に血管に対して混色された色情報が付されることで、ユーザは各領域や組織を容易に識別できる。
本発明の一態様の医用画像処理装置は、ボリュームレンダリング画像が、最大値投影画像を含んでもよい。
この構成によれば、仮想光線における投影値が比較的小さいボクセルであっても、領域毎に投影値が算出されることで、ボリュームレンダリング画像に反映され、ユーザによって認識し易くなる。
本発明の一態様の医用画像処理装置は、プロセッサが、領域毎に、カラーボリュームレンダリング画像を表示するための異なる輝度条件を設定してもよい。
この構成によれば、医用画像処理装置は、観察対象の組織や病変に応じて輝度を調整できる。例えば、医用画像処理装置は、投影値が比較的小さい組織の領域の輝度を高めに設定でき、又は、投影値が比較的大きい組織の輝度を低めに設定でき、各領域を見易くできる。
本発明の一態様の医用画像処理装置は、プロセッサが、領域毎に、カラーボリュームレンダリング画像を表示するための同一の輝度条件を設定してもよい。
この構成によれば、医用画像処理装置は、観察対象の組織や病変に依存せずに輝度調整できる。また、医用画像処理装置は、各領域の輝度条件をまとめて設定できるので、ユーザの手間を省ける。
本発明の一態様の医用画像処理装置は、同一の輝度条件を設定するためのユーザインタフェースを有してもよい。これは、複数の領域が概ね同一の組成を有している場合に効果的である。静脈と動脈を区別して可視化する場合や、肝臓とその他の臓器を区別して可視化する場合に効果的である。
この構成によれば、ユーザの意図に応じて輝度条件を設定できる。
本発明の一態様の医用画像処理方法は、医用画像処理装置における医用画像処理方法であって、生体のボリュームデータを取得し、前記ボリュームデータにおいて2個又は3個の領域の指定を受け付け、前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成し、前記カラーボリュームレンダリング画像を表示し、前記カラーボリュームレンダリング画像は、少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様である。
この方法によれば、医用画像処理装置は、ボリュームデータからボリュームレンダリング画像を生成する際に欠落する情報量を低減して、カラーボリュームレンダリング画像を生成できる。また、仮想光線上の複数の領域で異なる色情報が付加されることで、各領域が見分け易くなる。従って、医用画像処理装置は、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる。
本発明の一態様の医用画像処理プログラムは、上記医用画像処理方法をコンピュータに実行させるためのプログラムである。
このプログラムによれば、プログラムを実行する医用画像処理装置は、ボリュームデータからボリュームレンダリング画像を生成する際に欠落する情報量を低減して、カラーボリュームレンダリング画像を生成できる。また、仮想光線上の複数の領域で異なる色情報が付加されることで、各領域が見分け易くなる。従って、医用画像処理装置は、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる。
本発明は、ボリュームデータにおける仮想光線上の複数の領域の視認性を向上できる医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム等に有用である。
100 医用画像処理装置
110 ポート
120 UI
130 ディスプレイ
140 プロセッサ
150 メモリ
200 CT装置
D11〜D13、D21〜D23、D31〜D33、D41〜D43 領域
I1〜I4 カラーボリュームレンダリング画像

Claims (10)

  1. 生体のボリュームデータを取得するポートと、
    前記ボリュームデータにおいて2個又は3個の領域の指定を受け付けるユーザインタフェースと、
    前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成するプロセッサと、
    前記カラーボリュームレンダリング画像を表示するディスプレイと、
    を備え、
    前記カラーボリュームレンダリング画像は、
    少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、
    当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様であり、
    前記プロセッサは、前記領域毎に、前記カラーボリュームレンダリング画像を表示するための異なる輝度条件を設定し、
    前記輝度条件は、ウィンドウ幅及びウィンドウレベルを含む、医用画像処理装置。
  2. 生体のボリュームデータを取得するポートと、
    前記ボリュームデータにおいて2個又は3個の領域の指定を受け付けるユーザインタフェースと、
    前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成するプロセッサと、
    前記カラーボリュームレンダリング画像を表示するディスプレイと、
    を備え、
    前記カラーボリュームレンダリング画像は、
    少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、
    当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様であり、
    前記プロセッサは、前記領域毎に、前記カラーボリュームレンダリング画像を表示するための同一の輝度条件を設定する、医用画像処理装置。
  3. 請求項に記載の医用画像処理装置であって、更に、
    前記同一の輝度条件を設定するためのユーザインタフェースを有する、医用画像処理装置。
  4. 請求項1ないし3のいずれか1項に記載の医用画像処理装置であって、
    ユーザインタフェースは、前記ボリュームデータにおいて4個以上の領域の指定を受け付け、
    前記プロセッサは、前記ボリュームデータ及び前記4個以上の領域に基づいて、カラーボリュームレンダリング画像を生成し、
    前記カラーボリュームレンダリング画像は、
    少なくとも1点において2個以上の前記領域が仮想光線上で重複し、
    当該カラーボリュームレンダリング画像に対する逆変換により、少なくとも2個の領域に対応するボリュームレンダリング画像が分離可能な態様である、医用画像処理装置。
  5. 請求項1ないし4のいずれか1項に記載の医用画像処理装置であって、
    前記領域の少なくとも2個は、相互に三次元空間上で重複する、医用画像処理装置。
  6. 請求項1ないしのいずれか1項に記載の医用画像処理装置であって、
    前記ボリュームレンダリング画像は、最大値投影画像を含む、医用画像処理装置。
  7. 医用画像処理装置における医用画像処理方法であって、
    生体のボリュームデータを取得し、
    前記ボリュームデータにおいて2個又は3個の領域の指定を受け付け、
    前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成し、
    前記領域毎に、前記カラーボリュームレンダリング画像を表示するための異なる輝度条件を設定し、
    前記カラーボリュームレンダリング画像を表示し、
    前記カラーボリュームレンダリング画像は、
    少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、
    当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様であり、
    前記輝度条件は、ウィンドウ幅及びウィンドウレベルを含む、医用画像処理方法。
  8. 医用画像処理装置における医用画像処理方法であって、
    生体のボリュームデータを取得し、
    前記ボリュームデータにおいて2個又は3個の領域の指定を受け付け、
    前記ボリュームデータ及び前記2個又は3個の領域に基づいて、カラーボリュームレンダリング画像を生成し、
    前記領域毎に、前記カラーボリュームレンダリング画像を表示するための同一の輝度条件を設定し、
    前記カラーボリュームレンダリング画像を表示し、
    前記カラーボリュームレンダリング画像は、
    少なくとも1点において前記2個又は3個の領域が仮想光線上で重複し、
    当該カラーボリュームレンダリング画像に対する可逆変換により、前記2個又は3個の領域に対応するボリュームレンダリング画像が分離可能な態様である、医用画像処理方法。
  9. 請求項に記載の医用画像処理方法をコンピュータに実行させるための医用画像処理プログラム。
  10. 請求項8に記載の医用画像処理方法をコンピュータに実行させるための医用画像処理プログラム。
JP2015084369A 2015-04-16 2015-04-16 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム Active JP6533687B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015084369A JP6533687B2 (ja) 2015-04-16 2015-04-16 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US15/095,358 US10249074B2 (en) 2015-04-16 2016-04-11 Medical image processing device, medical image processing method and computer readable medium for displaying color volume rendered images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015084369A JP6533687B2 (ja) 2015-04-16 2015-04-16 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2016202319A JP2016202319A (ja) 2016-12-08
JP6533687B2 true JP6533687B2 (ja) 2019-06-19

Family

ID=57129980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015084369A Active JP6533687B2 (ja) 2015-04-16 2015-04-16 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Country Status (2)

Country Link
US (1) US10249074B2 (ja)
JP (1) JP6533687B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7084120B2 (ja) * 2017-10-17 2022-06-14 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US20230386139A1 (en) * 2020-09-28 2023-11-30 Kompath, Inc. Medical Image Processing Device, Medical Image Processing Method, Medical Image Processing Program, and Surgical Support System
JP2022128218A (ja) 2021-02-22 2022-09-01 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189952A (ja) * 1992-12-24 1994-07-12 Yokogawa Medical Syst Ltd Ip画像処理装置
JP3570576B2 (ja) * 1995-06-19 2004-09-29 株式会社日立製作所 マルチモダリティに対応した3次元画像合成表示装置
US6611615B1 (en) * 1999-06-25 2003-08-26 University Of Iowa Research Foundation Method and apparatus for generating consistent image registration
JP2009160306A (ja) 2008-01-09 2009-07-23 Ziosoft Inc 画像表示装置、画像表示装置の制御方法、および画像表示装置の制御プログラム
GB201020073D0 (en) * 2010-11-26 2011-01-12 Siemens Medical Solutions Anatomically-aware MIP shading
US10722318B2 (en) * 2011-08-24 2020-07-28 Mako Surgical Corp. Surgical tools for selectively illuminating a surgical volume

Also Published As

Publication number Publication date
US20160307358A1 (en) 2016-10-20
JP2016202319A (ja) 2016-12-08
US10249074B2 (en) 2019-04-02

Similar Documents

Publication Publication Date Title
JP4421016B2 (ja) 医用画像処理装置
US7912264B2 (en) Multi-volume rendering of single mode data in medical diagnostic imaging
US8698806B2 (en) System and method for performing volume rendering using shadow calculation
US7529396B2 (en) Method, computer program product, and apparatus for designating region of interest
US9449387B2 (en) Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program
JP4388104B2 (ja) 画像処理方法、画像処理プログラム及び画像処理装置
WO2009107770A1 (ja) 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法
JP4350226B2 (ja) 三次元画像処理装置
JP4122463B2 (ja) 医療用可視画像の生成方法
JP6533687B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2004174241A (ja) 画像形成方法
US20170301129A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing system
JP5380231B2 (ja) 医用画像表示装置および方法ならびにプログラム
JP6564075B2 (ja) 医用画像を表示するための伝達関数の選択
JP2019208903A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2010131315A (ja) 医用画像処理装置及び医用画像処理プログラム
JP6842307B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP4397131B2 (ja) 三次元画像表示装置
US10062184B2 (en) Medical image display control device, method of operation for same, and medical image display control program
JP2008206965A (ja) 医用画像生成装置、方法およびプログラム
JP4716903B2 (ja) 画像表示装置及び画像処理プログラム
US11941808B2 (en) Medical image processing device, medical image processing method, and storage medium
JP6035057B2 (ja) 三次元画像表示装置及び三次元画像表示方法
US11379976B2 (en) Medical image processing apparatus, medical image processing method, and system for tissue visualization
WO2011062108A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6533687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250