JP2008173167A - 領域修正方法 - Google Patents

領域修正方法 Download PDF

Info

Publication number
JP2008173167A
JP2008173167A JP2007007110A JP2007007110A JP2008173167A JP 2008173167 A JP2008173167 A JP 2008173167A JP 2007007110 A JP2007007110 A JP 2007007110A JP 2007007110 A JP2007007110 A JP 2007007110A JP 2008173167 A JP2008173167 A JP 2008173167A
Authority
JP
Japan
Prior art keywords
area
region
correction method
guide
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007007110A
Other languages
English (en)
Other versions
JP4394127B2 (ja
Inventor
Kazuhiko Matsumoto
和彦 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2007007110A priority Critical patent/JP4394127B2/ja
Priority to US11/972,909 priority patent/US20080170768A1/en
Publication of JP2008173167A publication Critical patent/JP2008173167A/ja
Application granted granted Critical
Publication of JP4394127B2 publication Critical patent/JP4394127B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】モニターに表示される画像から臓器の領域を抽出する場合に、修正が容易になるとともに、修正の結果をユーザが容易に予測することができる領域修正方法を提供する。
【解決手段】参照するガイド領域(第1の領域)11を準備する。次に、ガイド領域11を利用して作業領域(第2の領域)12を修正する。作業領域12は、ユーザが目的とする領域となるべき変化を加えられる領域である。修正作業は、(c)に示すように、ユーザが、ガイド領域11内で修正箇所とする領域(第3の領域)13を指定することにより行われる。修正作業が行われると、ガイド領域11と修正箇所として指定した領域(第3の領域)13の論理積が作業領域12に加算され、その結果として、(a)に示す作業領域12は、(d)に示す修正された作業領域14に変更される。
【選択図】図2

Description

本発明は、ボリュームデータ上の領域を修正する領域修正方法に関する。
従来からCT(Computed Tomography、コンピュータ断層撮影)装置又はMRI(Magnetic Resonance Imaging、磁気共鳴像)装置などによって撮影された生体の断層画像によって人体の内部構造を直接観察する画像診断が行われている。さらに、近年、CT装置又はMRI装置などによって上下、前後、又は左右と少しずつ移動させながら撮影した断層画像を積み重ねて生成したデジタルデータを基に3次元空間を格子状に小さく区切ったボクセル(voxel:volume element)で表し、ボクセルデータの密度を合計して物体の濃度や密度の分布を半透明の3次元イメージ画像を描画するボリュームレンダリングが行われるようになり、断層画像だけでは分かり難い人体の内部を可視化できるようになった。
図13〜図15は、人体の3次元情報(図13に示す心臓を中心とした情報)があるところ、臓器の3次元領域(図14に示す心室)を抽出する場合の説明図である。心室の領域を抽出することによって心室の3次元形状や体積を詳しく調べることができ、ひいては病変などを発見することが出来る。図13の画像では心臓の外観が表示されており、心室は心壁の背後にあるために3次元画像では心室は表示されていない。そこで、心室を描画診断するために図14ではモニターに表示される複数の2次元画像(例えば断層画像)を利用して心室の3次元領域を抽出する。ユーザは、マウス等で心室の輪郭(点線の領域51)をボリュームデータに含まれる複数の2次元画像に対して次々と設定し、その複数の2次元画像上の複数の輪郭を重ね合わせて作成される3次元領域を作成し、その3次元領域を表示させる。また、非特許文献1のような領域抽出アルゴリズムを用いて3次元領域を作成することも出来る。また、図15(a)に示すように、領域抽出アルゴリズムを用いて設定した領域51が不適切であれば、図15(b)に示すように、ユーザの指示により2次元画像を通じて欠けた領域53を追加して新たに領域54を設定することも出来る。
Gradient Vector Flow Deformable Models, Chenyang Xu
このように、モニターに表示される2次元画像から表示されている臓器の3次元領域(図13では心室)を抽出する場合に、臓器の3次元領域をマウス等により手動でマークして作成する。しかし、3次元データに対して手動で領域を設定するには多数の2次元画像に対する操作が必要であり、あまりに労力が必要である。また、領域の輪郭を手動で設定するために結果が主観的になる。更に、コンピュータ援用設計(CAD)等で用いられる3次元モデリング技術を利用した自由形状作成は、複雑な生体の形状を正確にモデリングするには向いていない。
一方、モニターに表示される3次元画像を参照して操作する場合であったとしても、2次元平面であるモニターを介して操作する以上、2次元的な指定が出来るに過ぎず奥行き方向の座標を指定するのは難しい。更には、3次元的な座標指定は可能であっても3次元的な領域指定は難しい。すなわち、表示されている画像の如何に関わらず、コンピュータ上で3次元の操作を行うのは難しい。また、自動抽出アルゴリズムを用いる場合でも、必ずしも期待の結果が得られない。
また、領域の手動抽出と自動抽出アルゴリズムを組み合わせて、自動抽出アルゴリズムの結果の領域をユーザが修正するというアプローチもあるが、多少は労力が軽減されるものの手動による修正が困難であることには変わりなく、結果が主観的になる。
さらに、自動抽出アルゴリズムの結果の領域が不十分の場合に、自動抽出アルゴリズムのパラメータを調整することによって最良の結果を取得するというアプローチもあるが、パラメータの設定が困難であり、どのようにパラメータを設定しても期待の結果が得られない事がある。
本発明は、上記従来の事情に鑑みてなされたものであって、モニターに表示される画像から臓器等の領域を抽出する場合に、客観性を担保しながら、手動による修正を容易に行なうことができる領域修正方法を提供することを目的としている。
本発明の領域修正方法は、ボリュームデータ上の3次元領域を修正する領域修正方法であって、ガイドとなる第一の領域と、作業領域である第二の領域をそれぞれ取得するステップと、前記第一の領域および前記第二の領域をそれぞれ区別して描画するステップと、ユーザが指示する第三の領域を取得するステップと、前記第三の領域と前記第一の領域の論理積の領域を、前記第二の領域に加算する、もしくは前記第二の領域から減算するステップとを有する領域修正方法である。
上記構成によれば、作業領域となる第二の領域の修正範囲がガイドとなる第一の領域の範囲に限定されることにより、客観性を担保しながら、修正を容易に行なうことができる。また、第一の領域と第二の領域を両方表示できるため、ユーザは、修正の結果を予測しやすくなる。
また、本発明の領域修正方法は、ユーザの操作により設定された領域を前記第三の領域として取得するステップを有する。
上記構成によれば、ユーザが第三の領域を設定する場合の操作を支援するGUIを提供することができ、領域作成が容易になる。
また、本発明の領域修正方法は、前記第三の領域を複数の領域の中から選択して取得するステップを有する。
上記構成によれば、ユーザが複数の候補となる領域から一つの領域を選択して第三の領域として取得するので、修正が容易になる。
また、本発明の領域修正方法は、前記第三の領域を段階的に拡張するステップを有する。
上記構成によれば、第三の領域を段階的に拡張するので、修正後の領域をユーザが容易に予測することができる。
また、本発明の領域修正方法は、前記第一の領域を変更するステップを有する。
上記構成によれば、ガイドとなる第一の領域を切り替えながら、局面(臓器の種類、形状等)毎に有効な領域抽出アルゴリズムを組み合わせたり、アルゴリズムのパラメータ変更を行なうことができるため、必要な領域のみを精度良くかつ効率的に取得できる。
また、本発明の領域修正方法は、前記ボリュームデータの一部である第四の領域に含まれる範囲のみを描画するステップを有する。
上記構成によれば、第四の領域(描画領域)を3次元領域の一部に限定することによって、ユーザは修正すべき箇所を直感的に把握できるため、指定が一層容易になる。
また、本発明の領域修正方法は、前記第三の領域が、前記第四の領域に含まれない領域を含むものである。
上記構成によれば、モニターに描画されない領域をユーザの操作により設定された第三の領域に含めることができるので、前後に臓器が複雑に入り組んでいるとき等に特に効果的である。
以上説明したように、本発明の領域修正方法によれば、ユーザが目的とする3次元領域を取得するまでの作業領域となる第二の領域の修正範囲となる領域がガイドとなる第一の領域の範囲に限定されるので、手動による修正が容易になり、また、ガイドとなる第一の領域が修正範囲となる領域の客観性を担保することができる。また、第一の領域と第二の領域を両方同時に表示するので、修正の結果がユーザに予測しやすくなる。
また、本発明の領域修正方法によれば、ユーザが目的とする3次元領域を取得する過程で指示する第三の領域を設定する場合の手動操作を支援するGUIを提供することができ、領域修正が容易になる。さらに、第三の領域を段階的に拡張するので、修正箇所も段階的に拡張し修正対象をユーザが容易に予測することができる。
図1および図2は、本発明の実施形態にかかる領域修正方法の概略を説明するための図である。本実施形態の領域修正方法では、まず、(1)あらかじめ、参照するガイド領域(第1の領域)11を準備する。すなわち、図1(a)に示す全体画像に対して、図1(c)に示すように、対象となる領域の境界の候補となるガイド領域(第1の領域)11を設定する。
この場合、ガイド領域11を公知の自動抽出法により設定可能であり、ガイド領域11を準備するためにユーザの操作は必要ないが、ユーザが、しきい値、テンプレートまたは領域抽出法の指定などを行ってもよい。例えば、しきい値などを複数の医師の間で共通の値にしておけば、個別の医師がしきい値を操作する必要はなくなり、複数の医師の間で客観的な基準となる。
次に、(2)ガイド領域11を利用して作業領域(第2の領域)12を修正する。作業領域12(図1(b)に示す)は、ユーザが目的とする領域となるべき変化を加えることが可能な領域である。修正作業は、図2(c)に示すように、ユーザが、ガイド領域11内で修正箇所とする領域(第3の領域)13を指定することにより行われる。尚、作業領域は何らかの方法によってあらかじめ与えられているものとする。作業領域の初期領域の設定方法としてはユーザが手動で設定した領域であっても良いし、しきい値、テンプレートまたは領域抽出法等によって作成された領域であっても良い。また、作業開始時には大きさのない領域であって、作業を繰り返すうちに大きさのある領域となった領域であっても良い。
修正作業が行われると、ガイド領域11と修正箇所として指定した領域(第3の領域)13の論理積の領域が作業領域12に加算される。その結果として、図2(a)に示す作業領域12は、図2(d)に示す修正された作業領域14に変更される。この論理積の領域が作業領域12に加えられる変化である。
本実施形態の領域修正方法は、2種類の領域指定方法によって作成された領域(作業領域12とガイド領域11)の差分である領域をユーザが取捨選択して作業領域14を目的とする領域として完成させるものであり、領域の取捨選択はユーザが操作するが、修正する前の作業領域12をユーザが作成する必要はない。また、作業領域12の修正は、厳密には、修正箇所として指定する領域(第3の領域)13の作成と、ユーザによる取捨選択の2ステップに分解される。ユーザが必ず行わなければならないのは取捨選択のステップである。
後述する実施例1では、修正箇所として指定する領域(第3の領域)13の作成ステップはユーザが行うので2ステップは渾然一体となっている。一方、実施例2では、第3の領域13の作成ステップはプログラムが行っている。作業領域12の作成及び修正は、プログラムが行っても、ユーザが行ってもどちらでもよい。
このように本実施形態の領域修正方法は、差分である領域を用いることにより作業領域12の修正範囲がガイド領域11の範囲内に限定されることにより、従来のように無制限にユーザが領域を修正する場合と比べて、客観性を担保しながら手動による修正を行うことが出来る一方、領域の指定も差分である領域の選択をするのみで指定できるので作業を容易に行なうことができる。また、ガイド領域11と作業領域12,14を両方重畳的に表示することにより、ユーザは、自動領域抽出アルゴリズムのパラメータ調整と異なり修正の結果を予測しやすくなる。
なお、ガイド領域11は、(1)しきい値処理による領域抽出によって得られる領域、(2)領域拡張法による領域抽出によって得られる領域、(3)GVF法やLevelSet法等の領域抽出によって得られる領域、(4)ユーザ指定の領域、(5)テンプレート形状によって指定される領域等がある。ここで、ガイド領域11は(3)ような複雑なアルゴリズムを適用して定義しても良いが、ガイド領域11は(1)や(2)のようなCT値が一定の範囲に含まれる領域として定義する方法を用いると客観性を担保するのに有利である。例えば、造影された血液はCT値150以上であると基準を定義すると、複数の診断に渡って同じ基準を適用することによって客観的な診断に資することができる。また、(3)のような複雑なアルゴリズムを適用して得られた領域と(1)や(2)のようなCT値が一定の範囲に含まれる領域の論理積の領域であっても良い。
図3は、本実施形態の領域修正方法において、領域を手動で操作する場合の説明図である。本実施形態の領域修正方法では、ユーザが指定した点を中心にして領域を拡張する。例えば、図3(a)に示すように、第1の領域(ガイド領域)11と第2の領域(作業領域)12が設定されている場合に、図3(b)に示す第3の領域(球状領域)13をユーザが指定すると、指定された球状領域を有する第3の領域13と第1の領域(ガイド領域)11の論理積領域が第2の領域(作業領域)12に追加され、図3(c)に示すように修正された第2の領域(作業領域)14となる。
本実施形態の領域修正方法において、第3の領域13は第1の領域(ガイド領域)11および第2の領域(作業領域)12と無関係に指定可能であり、3次元的に領域が拡張されることが特徴である。なお、第1〜3の領域はそれぞれ3次元領域であり、モニターではそれぞれの3次元領域の断面を表示することも、3次元領域を3次元画像としても表示することも出来る。
図4は、本実施形態の領域修正方法のフローチャートを示す。本実施形態の領域修正方法は、まず、ボリュームデータを取得し(ステップS11)、ガイド領域(第1の領域)11を設定し(ステップS12)、作業領域(第2の領域)12の初期値を設定する(ステップS13)。
次に、ガイド領域11、作業領域12、その他の領域をそれぞれ区別して描画し(ステップS14)、ユーザに第3の領域13を画像上で指定させる(ステップS15)。そして、作業領域12に、ガイド領域11とユーザ指定の第3の領域13の論理積(重複)領域を加える(ステップS16)。
次に、目的の領域が得られたかどうか判断し(ステップS17)、目的の領域が得られた場合(yes)は終了し、目的の領域が得られない場合(no)は、ステップS14〜S16の処理を繰り返す。
本実施形態の領域修正方法によれば、作業領域12の修正範囲がガイド領域11の範囲に限定されることにより、客観性を担保しながら手動による修正を容易に行なうことができる。また、ガイド領域11と作業領域12,14を両方重畳的に表示することにより、ユーザは、修正の結果を予測しやすくなる。また、従来はユーザが3次元形状を直接指定するのは困難であるが、本実施例ではユーザの指定する第3の領域を例えば球状領域などの簡単に指定できる領域とすることができるので結果的にユーザは容易に目的の領域を取得することが出来る。特に3次元領域を対象とするので物体裏側など表示がされない領域も含めて容易に操作できる。上記簡単に指定できる領域とは例えば、柱や錐等のプリミティブ形状の領域や、それらの領域をスイープした領域が考えられる。
図5は、本実施形態の領域修正方法において、領域を選択する場合の説明図である。本実施形態の領域修正方法では、ユーザが1点を指定することによって指定した点を含む領域を、抽出対象の領域に追加する。この場合、ガイド領域11と作業領域12の差分を取得し、それらの差分の中から適切な領域を選択する。
すなわち、図5(a)に示すように、第1の領域(ガイド領域)11と第2の領域(作業領域)12が設定されている場合に、図5(b)に示すように、ユーザが第1の領域(ガイド領域)11内の1点を修正箇所として指定すると、その点が含まれる領域が第3の領域15として選択される。そして、第2の領域(作業領域)12に第3の領域15が追加され、図5(c)に示すような修正された第2の領域(作業領域)16となる。
本実施形態の領域修正方法によれば、ユーザが第1の領域(ガイド領域)11内の1点を修正箇所として指定すると、その点が含まれる領域が一括して第3の領域15として選択されるので、手動による修正が容易になる。
図6および図7は、本実施形態の領域修正方法において、領域を段階的に拡張する場合の説明図である。本実施形態の領域修正方法では、追加する領域を複数の段階に分け、個々の段階はマウスドラッグ等によって逐次表示する。
図6(a)に示すように、段階1として第1の領域(ガイド領域)11と第2の領域(作業領域)12が設定されている場合に、図6(b)〜(e)に示す段階2〜5のように、ユーザの指示する第3の領域を段階的に拡張することによって第2の領域(作業領域)を徐々に拡張するとともに段階的に拡張する各段階を描画する。そして、希望する作業領域12が段階4の領域の場合に、例えばマウスをクリックすることにより適切な領域として選択する。
本実施形態の領域修正方法によれば、例えば、図7(a)のような形状21(例えば心臓と血管)があるときに、図7(b)の網掛けで示す領域22(心臓だけ)を取得したいときに特に効果的である。
図8は、本実施形態の領域修正方法において、ガイド領域を途中で変更する場合の説明図である。図8(a)に示すような血管25を取得したいときに、図8(b)に示すようなアルゴリズムAで取得できるガイド領域A26と、アルゴリズムBで取得できるガイド領域B27がある場合、ガイド領域A26,B27を切り替えながら作業領域を作成する。
図8(c)は、ガイド領域B27を使用して血管25の下部領域28(白い長方形)を作成した様子を示しており、図8(d)は、図8(c)の領域作成後、ガイド領域B27からガイド領域A26に切り替え、ガイド領域A26を使用して血管25の領域(白い長方形)を作成した様子を示す。
このように各種領域抽出アルゴリズムは有効な局面がそれぞれ異なるが、この方法を用いることによって効率よく組み合わせることが出来る。また、ガイド領域を切り替えながら領域を作成すると、局面(臓器の種類、形状等)毎に有効な領域抽出アルゴリズムを組み合わせることができるため、必要な領域のみを精度良くかつ効率的に取得できる。また、同じアルゴリズムであってもパラメータを局面毎に有効な値に変更することも効果的である。
図9は、本実施形態の領域修正方法のフローチャートを示す。本実施形態の領域修正方法は、まず、ボリュームデータを取得し(ステップS21)、ガイド領域(第1の領域)を設定し(ステップS22)、作業領域(第2の領域)を設定する(ステップS23)。
次に、ガイド領域、作業領域、その他の領域をそれぞれ区別して描画し(ステップS24)、ユーザに第3の領域を画像上で指定させる(ステップS25)。そして、作業領域にガイド領域とユーザ指定の第3の領域の論理積(重複)領域を加える(ステップS26)。
次に、目的の領域が得られたかどうかを判断し(ステップS27)、目的の領域が得られていない場合(no)は、ガイド領域を変更し(ステップS28)、ステップS14〜S27を繰り返す。一方、目的の領域が得られた場合(yes)は、終了する。
本実施形態の領域修正方法によれば、ガイド領域を切り替えながら、局面(臓器の種類、形状等)毎に有効な領域抽出アルゴリズムを組み合わせることができるため、必要な領域のみを精度良くかつ効率的に取得できる。
図10は、本実施形態の領域修正方法において、第4の領域(描画範囲)に含まれる範囲のみ描画する場合の説明図を示す。本実施形態の領域修正方法では、図10(a),(b)に示すように、全体を確認するためや、修正が必要な箇所を探すために描画範囲(第4の領域)31をAからBへ移動する。描画範囲(第4の領域)31は、第1〜3の領域(ガイド領域、作業領域、ユーザが指定した領域)と独立して自由に変化させることができる。ここでは描画範囲(第4の領域)31は図10(d)のような2つの並行面に挟まれた領域である。2つの並行面に挟まれた領域の指定及び描画は医療用3次元画像装置において幅広く行われているからである。
次に、図10(b)に示すように、ユーザが、描画範囲31(B)内をマウスなどで直接座標を指定することにより修正箇所32を指定する。修正箇所(第3の領域)32は、ユーザがマウスなどで直接座標を指定した描画範囲31(B)内の箇所である。これにより、図10(c)に示すように、作業領域33が描画範囲31(B)外を含めて修正される。
このように、ユーザがマウスなどで直接座標を指定できるのは描画範囲31(B)内に限られるが、ユーザの座標指定の結果得られる修正箇所(第3の領域)32は描画範囲31(B)内の範囲に限定されない。
その結果、作業領域33の内の修正される領域は描画領域(第4の領域)31に限定されなくなる。これは、修正箇所として指定した箇所を利用してプログラムが領域抽出などをして描画領域(第4の領域)31を超えた第3の領域が取得される場合には、その第3の領域とガイド領域(第一の領域)の論理積である修正される領域が描画領域(第4の領域)の外の領域を含むことがあるからである。
なお、描画領域31は、実質的にモニターに表示される領域であるが、画像が画面からはみ出ている場合は、レンダリングの対象となる領域となる。また、描画領域(第4の領域)は2つの並行面に挟まれた領域に限定されず任意の形状の領域でもよい。例えば、臓器のテンプレート形状でも良いし、なんらかのアルゴリズムで作成された領域でも問題ない。また、第1〜3の領域(ガイド領域、作業領域、ユーザが指定した領域)を一定量拡張した領域でも良い。このようにすれば、例えば、作業領域の変化に合わせて描画領域(第4の領域)を拡張することが出来る。また、第1〜3の領域(ガイド領域、作業領域、ユーザが指定した領域)は3次元領域であるが、描画領域(第4の領域)は2次元スライスの場合があるので2〜3次元領域になる。
本実施形態の領域修正方法は、3次元画像(ボリュームレンダリングした画像)を対象としているので、描画領域を3次元領域の一部に限定することによってユーザの指定が容易になる。
また、描画領域を3次元領域の一部に限定することによって、ユーザにとって不要な領域が表示されない為、ユーザの指定が容易になる。なお、描画領域を3次元領域の一部に限定することは、ユーザが第3の領域を指定する上で障害となる領域が表示されないようにする為であるが、表示されなくても作業領域(第2の領域)はユーザにとって必要な領域に当たる。
本実施形態の領域修正方法は、前後に臓器が複雑に入り組んでいるときに特に効果的である。これは、ボリュームレンダリングで表示を行った場合に、前後に臓器が複雑に入り組んでいるときには、修正したい領域が手前の臓器(障害となる領域)の影となりモニターに描画されないからである。特に、血管領域を目的の領域とするときに効果的である。血管は骨や臓器の前後及び内外を複雑に走行するので、周囲の臓器が描画されるのを制限しないことには確認することが難しいからである。
なお、本実施形態の領域修正方法は、モニターにボリュームデータのボリュームレンダリング画像(3次元画像)を表示させている状態を想定しているが、修正箇所をボリュームデータの2次元断面上でユーザに指定させることも出来る。
図11は、本実施形態の領域修正方法において、作業領域を減算する場合を説明するための図である。中空の組織があった場合に、図11(a)に示す作業領域42から図11(b)に示すガイド領域41の一部に相当する領域43(図11(c))(ガイド領域41から突起部45を除いた領域)を削除することによって第3の領域の指定が行われ、図11(d)に示すような目的の組織44が抽出できる。
ユーザが、作業領域42からガイド領域41の一部に相当する領域43を削除する操作を行うと、コンピュータ内部の処理として領域の減算が行われる。すなわち、ユーザが第3の領域を指定すると、コンピュータは、ユーザが指定した第3の領域と第1の領域(ガイド領域)の論理積の領域を第2の領域(作業領域)から減算する。このようにすることによって、領域43の輪郭はガイド領域41を利用して容易に減算出来る一方、目的の領域に残しておきたい突起部45上の領域を減算する領域に含めないことができる。
図12は、本実施形態の領域修正方法において、複数の領域を区別して描画するレイキャスト法のアルゴリズムを説明するためのフローチャートである。フローチャートにおいて、ガイド領域のカラー値C、不透明度αを表現するLUT(Look Up Table)関数G_LUT_C(V)、G_LUT_α(V)、作業領域のカラー値C、不透明度αを表現するLUT関数W_LUT_C(V)、W_LUT_α(V)、その他領域のカラー値C、不透明度αを表現するLUT関数LUT_C(V)、LUT_α(V)をあらかじめ決定する。
また、座標(x,y,z)におけるボクセル値をV(x,y,z)、ガイド領域に含まれるか否かをG(x,y,z)、作業領域に含まれるか否かをW(x,y,z)としてあらかじめ取得しておく。なお、フローチャートは、画像上の各ピクセルの計算の仕方であり、以下の計算を画像上の全ピクセル分行う。
まず、スタートとして、投影位置より、投影開始点O(x,y,z)、およびサンプリング間隔ΔS(x,y,z)を設定し(ステップS31)、反射光E=0、残存光I=1、現在計算位置X(x,
y,z)=投影開始点Oに初期化する(ステップS32)。
次に、座標X(x,y,z)位置周辺のボクセルデータV(x,y,z)よりX位置の補完ボクセル値Vを求め(ステップS33)、座標X(x,y,z)が作業領域に含まれるか否かをW(x,y,z)より取得して(ステップS34)、座標X(x,y,z)が作業領域に含まれる場合(yes)はステップS36に移行し、座標X(x,y,z)が作業領域に含まれない場合(no)は、座標X(x,y,z)がガイド領域に含まれるか否かをG(x,y,z)より取得して(ステップS35)、座標X(x,y,z)がガイド領域に含まれる場合(yes)はステップS37に移行し、座標(x,y,z)がガイド領域に含まれない場合(no)はステップS38に移行する。
次に、座標(x,y,z)が作業領域に含まれる場合は、不透明度α← W_LUT_α(V)、カラー値C←W_LUT_C(V)とする(ステップS37)。また、座標(x,y,z)がガイド領域に含まれる場合は、不透明度α← G_LUT_α(V)、カラー値C←G_LUT_C(V)とする(ステップS37)。その他の場合、すなわち、座標(x,y,z)が作業領域およびガイド領域に含まれない場合は、不透明度α← LUT_α(V)、カラー値C←LUT_C(V)とする(ステップS38)。
次に、X(x,y,z)位置周辺のボクセルデータV(x,y,z)よりX位置のグラジエントGを求め、光線方向X-OとGよりシェーディング係数βを求める(ステップS39)。また、減衰光D及び部分反射光Fを計算し、D ← I * α、F ← β*D* Cとする(ステップS40)。
次に、反射光E 残存光Iを更新し、I ← I −D、E ← E + Fとし、現在計算位置を進行させ、X ← X + ΔSとする(ステップS41)。また、Xは終了位置まで来たかor残存光Iが0になったかを判断し(ステップS42)、Xが終了位置でなく、残存光Iが0でない場合(no)は、ステップS33に戻る。一方、Xは終了位置まで来たかor残存光Iが0になった場合(yes)は、反射光Eを計算ピクセルのピクセル値として終了する(ステップS43)。
このように本実施形態の領域修正方法によれば、作業領域の修正範囲がガイド領域の範囲に限定されるので、ガイド領域の客観性を担保しながら、手動による修正を容易に行なうことができる。また、ガイド領域と作業領域を両方重畳的に表示するので、ユーザは、修正の結果を予測しやすくなる。
本発明は、臓器等の領域抽出において抽出対象領域を修正するなど、ボリュームデータ上の領域を修正する領域修正方法に有用である。
本発明の実施形態にかかる領域修正方法の概略を説明するための図(1) 本発明の実施形態にかかる領域修正方法の概略を説明するための図(2) 本発明の第1の実施形態にかかる領域修正方法において領域を手動で操作する場合の説明図 本発明の第1の実施形態にかかる領域修正方法において領域を手動で操作する場合のフローチャート 本発明の第2の実施形態にかかる領域修正方法において領域を選択する場合の説明図 本発明の第3の実施形態にかかる領域修正方法において領域を段階的に拡張する場合の説明図(1) 本発明の第3の実施形態にかかる領域修正方法において領域を段階的に拡張する場合の説明図(2) 本発明の第4の実施形態にかかる領域修正方法においてガイド領域を途中で変更する場合の説明図 本発明の第4の実施形態にかかる領域修正方法においてガイド領域を途中で変更する場合のフローチャート 本発明の第5の実施形態にかかる領域修正方法において第4の領域(描画範囲)に含まれる範囲のみ描画する場合の説明図 本発明の第5の実施形態にかかる領域修正方法において第4の領域(描画範囲)に含まれる範囲のみ描画する場合の説明図 本発明の第6の実施形態にかかる領域修正方法において作業領域を減算する場合を説明するための図 本発明の実施形態にかかり領域修正方法において複数の領域を区別して描画するレイキャスト法のアルゴリズムを説明するためのフローチャート モニターに表示される2次元画像から表示されている臓器の3次元領域を抽出する場合の説明図(1) モニターに表示される2次元画像から表示されている臓器の3次元領域を抽出する場合の説明図(2) モニターに表示される2次元画像から表示されている臓器の3次元領域を抽出する場合の説明図(3)
符号の説明
11,41 ガイド領域(第1の領域)
12,42 作業領域(第2の領域)
13,15,32 修正箇所として指定する領域(第3の領域)
14,16,33 修正された作業領域(第2の領域)
25 血管
26 A領域
27 B領域
31 描画範囲(第4の領域)

Claims (8)

  1. ボリュームデータ上の3次元領域を修正する領域修正方法であって、
    ガイドとなる第一の領域と、作業領域である第二の領域をそれぞれ取得するステップと、
    前記第一の領域および前記第二の領域をそれぞれ区別して描画するステップと、
    ユーザが指示する第三の領域を取得するステップと、
    前記第三の領域と前記第一の領域の論理積の領域を、前記第二の領域に加算する、もしくは前記第二の領域から減算するステップとを有する領域修正方法。
  2. 請求項1記載の領域修正方法であって、
    ユーザの操作により設定された領域を前記第三の領域として取得するステップを有する領域修正方法。
  3. 請求項1記載の領域修正方法であって、
    前記第三の領域を複数の領域の中から選択して取得するステップを有する領域修正方法。
  4. 請求項1記載の領域修正方法であって、
    前記第三の領域を段階的に拡張するステップを有する領域修正方法。
  5. 請求項1記載の領域修正方法であって、
    前記第一の領域を変更するステップを有する領域修正方法。
  6. 請求項1記載の領域修正方法であって、
    前記ボリュームデータの一部である第四の領域に含まれる範囲のみを描画するステップを有する領域修正方法。
  7. 請求項6記載の領域修正方法であって、
    前記第三の領域は、前記第四の領域に含まれない領域を含む領域修正方法。
  8. コンピュータに、請求項1ないし7のいずれか一項記載の各ステップを実行させるための領域修正プログラム。
JP2007007110A 2007-01-16 2007-01-16 領域修正方法 Active JP4394127B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007007110A JP4394127B2 (ja) 2007-01-16 2007-01-16 領域修正方法
US11/972,909 US20080170768A1 (en) 2007-01-16 2008-01-11 Region correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007007110A JP4394127B2 (ja) 2007-01-16 2007-01-16 領域修正方法

Publications (2)

Publication Number Publication Date
JP2008173167A true JP2008173167A (ja) 2008-07-31
JP4394127B2 JP4394127B2 (ja) 2010-01-06

Family

ID=39617827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007007110A Active JP4394127B2 (ja) 2007-01-16 2007-01-16 領域修正方法

Country Status (2)

Country Link
US (1) US20080170768A1 (ja)
JP (1) JP4394127B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101046510B1 (ko) * 2008-11-07 2011-07-04 금오공과대학교 산학협력단 에지 분류 및 영역 확장 기법을 통한 심실 자동 분할 방법
US8351670B2 (en) 2010-06-30 2013-01-08 Riken Region data editing apparatus, region data editing method, and recording medium
WO2013051045A1 (ja) * 2011-10-03 2013-04-11 株式会社日立製作所 画像処理装置および画像処理方法
JP2014090958A (ja) * 2012-11-06 2014-05-19 Toshiba Corp 医用画像処理装置
JP6246287B1 (ja) * 2016-08-31 2017-12-13 Psp株式会社 医用画像処理装置及びプログラム
JP2020031810A (ja) * 2018-08-29 2020-03-05 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
JPWO2021256096A1 (ja) * 2020-06-18 2021-12-23
JP2022552663A (ja) * 2020-02-20 2022-12-19 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 三次元エッジ検出方法、装置、コンピュータプログラム及びコンピュータ機器

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130007224A1 (en) * 2011-06-30 2013-01-03 Yuanjie Yang Lightweight Method for Out-Of-Band Management of a Remote Computer with a Mirror of Remote Software Resources

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG114481A1 (en) * 2000-12-06 2005-09-28 Netrobust Pte Ltd Real-time financial charting system
US6993174B2 (en) * 2001-09-07 2006-01-31 Siemens Corporate Research, Inc Real time interactive segmentation of pulmonary nodules with control parameters
US7961921B2 (en) * 2005-09-27 2011-06-14 General Electric Company System and method for medical diagnosis and tracking using three-dimensional subtraction in a picture archiving communication system
US20070127793A1 (en) * 2005-11-23 2007-06-07 Beckett Bob L Real-time interactive data analysis management tool

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101046510B1 (ko) * 2008-11-07 2011-07-04 금오공과대학교 산학협력단 에지 분류 및 영역 확장 기법을 통한 심실 자동 분할 방법
US8351670B2 (en) 2010-06-30 2013-01-08 Riken Region data editing apparatus, region data editing method, and recording medium
WO2013051045A1 (ja) * 2011-10-03 2013-04-11 株式会社日立製作所 画像処理装置および画像処理方法
US9275453B2 (en) 2011-10-03 2016-03-01 Hitachi, Ltd. Image processing device and image processing method
JP2014090958A (ja) * 2012-11-06 2014-05-19 Toshiba Corp 医用画像処理装置
JP2018036852A (ja) * 2016-08-31 2018-03-08 Psp株式会社 医用画像処理装置及びプログラム
JP6246287B1 (ja) * 2016-08-31 2017-12-13 Psp株式会社 医用画像処理装置及びプログラム
JP2020031810A (ja) * 2018-08-29 2020-03-05 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
JP7086790B2 (ja) 2018-08-29 2022-06-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
JP2022552663A (ja) * 2020-02-20 2022-12-19 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 三次元エッジ検出方法、装置、コンピュータプログラム及びコンピュータ機器
JP7337268B2 (ja) 2020-02-20 2023-09-01 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 三次元エッジ検出方法、装置、コンピュータプログラム及びコンピュータ機器
JPWO2021256096A1 (ja) * 2020-06-18 2021-12-23
WO2021256096A1 (ja) * 2020-06-18 2021-12-23 富士フイルム株式会社 領域修正装置、方法およびプログラム
JP7342267B2 (ja) 2020-06-18 2023-09-11 富士フイルム株式会社 領域修正装置、方法およびプログラム

Also Published As

Publication number Publication date
US20080170768A1 (en) 2008-07-17
JP4394127B2 (ja) 2010-01-06

Similar Documents

Publication Publication Date Title
JP4394127B2 (ja) 領域修正方法
JP5660432B2 (ja) 領域データ編集装置、領域データ編集方法、プログラム、及び、記録媒体
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
JP6273266B2 (ja) セグメント化の強調表示
JP5224451B2 (ja) 投影画像作成装置、方法およびプログラム
JP5371949B2 (ja) 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法
JP7080054B2 (ja) 医療画像編集
JP2007144177A (ja) 低コントラストの管形状対象のための半自動セグメント分割手法の方法及び装置
RU2563158C2 (ru) Усовершенствования для планарного преобразования криволинейной структуры
Zhang Virtual reality technology
EP3389006B1 (en) Rib unfolding from magnetic resonance images
JP3989896B2 (ja) 医用画像処理装置、関心領域抽出方法、ならびに、プログラム
JP5487264B2 (ja) 生体データモデル作成方法及びその装置
JP2010075549A (ja) 画像処理装置
JP2012085833A (ja) 3次元医用画像データの画像処理システム、その画像処理方法及びプログラム
JP2021045340A (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
US20150320507A1 (en) Path creation using medical imaging for planning device insertion
JP6081001B2 (ja) 生体データモデル作成方法及びその装置
JP2016202319A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP6081000B2 (ja) 生体データモデル作成方法及びその装置
JP6080999B2 (ja) 生体データモデル作成方法及びその装置
JP6131361B2 (ja) 三次元データモデルの負荷分散方法及びその装置
JP5010961B2 (ja) 画像処理装置及び画像処理方法
JP7315361B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP5156549B2 (ja) 画像処理装置,処理方法及び処理プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091014

R150 Certificate of patent or registration of utility model

Ref document number: 4394127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131023

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250