JP4200979B2 - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法 Download PDF

Info

Publication number
JP4200979B2
JP4200979B2 JP2005104375A JP2005104375A JP4200979B2 JP 4200979 B2 JP4200979 B2 JP 4200979B2 JP 2005104375 A JP2005104375 A JP 2005104375A JP 2005104375 A JP2005104375 A JP 2005104375A JP 4200979 B2 JP4200979 B2 JP 4200979B2
Authority
JP
Japan
Prior art keywords
dimensional
path
volume data
curved surface
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005104375A
Other languages
English (en)
Other versions
JP2006285616A (ja
Inventor
フランクニールセン
茂 大和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005104375A priority Critical patent/JP4200979B2/ja
Priority to US11/386,285 priority patent/US7755618B2/en
Priority to CNA2006100840438A priority patent/CN1848177A/zh
Publication of JP2006285616A publication Critical patent/JP2006285616A/ja
Application granted granted Critical
Publication of JP4200979B2 publication Critical patent/JP4200979B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/248Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ボリュームデータのうちユーザが関心のある領域(region of interest;ROI)を指定する際に用いて好適な画像処理装置及びその方法に関する。
ボリュームセグメンテーションは、例えばコンピュータ断層撮影法(Computerized Tomography;CT)や磁気共鳴画像化法(Magnetic Resonance Imaging;MRI)などによって得られたボリュームデータを視覚的或いは構造的に意味のある領域に分割する画像処理である。このボリュームセグメンテーションは、未加工のボリュームデータから形状や体積などの有用な情報を得るために不可欠な処理であるため、30年近くに亘って研究されているが、全自動の手法は今もって存在しない。これは、ユーザが期待するセグメンテーション結果を得るには、エッジ検出やテクスチャ分析などの低次の情報から、物体の全体形状やトポロジーなどの高次の情報まで、幅広く高度な情報処理が必要なためである。とりわけ高次の情報は、ユーザの指示なしに自動的に生成することは不可能であると考えられている。
Tzeng, F.-Y., Lum, E. B., and Ma, K.-L., 2003,"A novel interface for higher-dimensional classification of volume data.", In Proceedings of IEEE Visualization 2003, IEEE, 505-512 Sherbondy, A., Houston, M., and Napel, S., 2003,"Fast volume segmentation with simultaneous visualization using programmable graphics hardware.", In Proceedings of IEEE Visualization 2003, IEEE, 171-176
ここで一番の問題は、このような情報をどのようにして与えるかである。対象が2次元の画像データであれば、所望の領域をマウスで直接指定することが可能であるが、対象が3次元のボリュームデータの場合、2次元情報しか与えられないマウスでは、所望の3次元領域を指定することは容易ではない。
そこで、従来は、ボリュームデータを一旦切断し、その断面に対してユーザが所望の領域を指定していた(例えば、非特許文献1,2を参照)。しかしながら、このような従来の手法では、ボリュームデータを切断する毎にユーザが所望の領域を指定しなければならず、処理が煩雑であるという問題があった。
本発明は、このような従来の実情に鑑みて提案されたものであり、ボリュームデータを切断することなく所望の3次元領域を指定することが可能な画像処理装置及びその方法を提供することを目的とする。
上述した目的を達成するために、本発明に係る画像処理装置は、ボリュームデータのうち所望の3次元領域を指定する画像処理装置であって、上記ボリュームデータが表示される表示手段と、上記表示手段に表示された上記ボリュームデータに対してユーザが2次元のパスを入力するための入力手段と、上記2次元のパスを上記ユーザの視点から見た奥行き方向に掃引して3次元曲面を作成すると共に該3次元曲面内に有限個のサンプリング点を定め、各サンプリング点で上記ボリュームデータの正規化されたグラディエントをサンプリングし、該3次元曲面における正規化された法線ベクトルと、上記正規化されたグラディエントとの内積であるスカラー値を各サンプリング点に設定し、該スカラー値が設定された3次元曲面内で動的計画法を用いて該スカラー値の総和が最大になる3次元のパスに変換するパス3次元化手段と、上記3次元のパスに基づいて、上記所望の3次元領域を指定する3次元領域指定手段とを備える。
また、上述した目的を達成するために、本発明に係る画像処理方法は、ボリュームデータのうち所望の3次元領域を指定する画像処理方法であって、表示手段に表示されたボリュームデータに対してユーザが描いた2次元のパスを入力する入力工程と、上記2次元のパスを上記ユーザの視点から見た奥行き方向に掃引して3次元曲面を作成すると共に該3次元曲面内に有限個のサンプリング点を定め、各サンプリング点で上記ボリュームデータの正規化されたグラディエントをサンプリングし、該3次元曲面における正規化された法線ベクトルと、上記正規化されたグラディエントとの内積であるスカラー値を各サンプリング点に設定し、該スカラー値が設定された3次元曲面内で動的計画法を用いて該スカラー値の総和が最大になる3次元のパスに変換するパス3次元化工程と、上記3次元のパスに基づいて、上記所望の3次元領域を指定する3次元領域指定工程とを有する。
本発明に係る画像処理装置及びその方法によれば、ボリュームデータが表示された平面に2次元のパスを直接描くことにより、ボリュームデータを切断することなく、所望の3次元領域を指定することが可能とされる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、ボリュームデータから所望のセグメンテーション領域を取り出す画像処理装置に適用したものである。この画像処理装置によれば、例えば図1(A)に示すような105×73×78ボクセルの頭部MRIデータに対してユーザが脳の輪郭の一部を2次元的になぞると、後述のように奥行き方向を自動的に計算し、図1(B)に示すように脳全体領域を取り出すことができる。
先ず、本実施の形態における画像処理装置の概略構成を図2に示す。図2に示すように、本実施の形態における画像処理装置1は、マウス10からの入力を解釈する入力解釈部11と、入力解釈部11から供給された表示パラメータに基づいて、入力されたボリュームデータをレンダリング(可視化)するレンダリング画像表示部12と、入力解釈部11から供給された2次元のパス(ストローク)に奥行きを付加して3次元のパスに変換するパス3次元化部13と、3次元のパスに基づいて、セグメンテーションを行う際の制約条件を発生させる制約条件発生部14と、制約条件に基づいてボリュームデータのセグメンテーションを行うセグメンテーション実行部15とから構成されている。
この画像処理装置1において、ユーザがマウス10を操作すると、入力解釈部11は、マウス10からの入力が回転等の表示パラメータ設定用のものか、セグメンテーション領域情報を与えるものかを判断する。
前者である場合、すなわちユーザがレンダリング画像表示部12に表示されたボリュームデータの表示パラメータを設定した場合、入力解釈部11は、その表示パラメータをレンダリング画像表示部12に供給する。レンダリング画像表示部12は、表示パラメータに基づき、ボリュームデータを回転等して表示する。
一方、後者である場合、すなわちユーザがボリュームデータの表示されたレンダリング画像表示部12の平面に2次元のパスを描いた場合、入力解釈部11は、その2次元のパスをパス3次元化部13に供給する。パス3次元化部13は、この2次元のパスに奥行きを付加して3次元のパスに変換し、制約条件発生部14は、3次元化されたパスに基づいて、セグメンテーションを行う際の制約条件を発生させる。そして、セグメンテーション実行部15は、この制約条件に基づいてボリュームデータのセグメンテーションを行い、セグメンテーション結果を出力する。
以下、パス3次元化部13、制約条件発生部14及びセグメンテーション実行部15における処理について詳細に説明する。
パス3次元化部13は、ユーザがボリュームデータに描いた2次元のパスに奥行きを付加し、3次元のパスに変換する。ここで、セグメンテーション領域の輪郭は視覚的に際立っており、ユーザはその輪郭の近くに2次元のパスを描いたと仮定する。この仮定が成り立つ場合、3次元のパスはセグメンテーション領域のシルエットの近くを通っている。言い換えれば、ボリュームデータのグラディエント(輝度値が最も変化する方向)が視線方向に対して略垂直になっている。パス3次元化部13は、このような3次元のパスを以下のようにして求める。
先ず、パス3次元化部13は、2次元のパスを奥行き方向にスイープ(掃引)し、図3(A)に示すような3次元の曲面(以下、「スイープ曲面」という。)を作成する。
次に、パス3次元化部13は、図3(B)に示すように、スイープ曲面の奥行き方向をx、レンダリング画像表示部12の表示面に平行な方向をyとして座標系を設定する。すなわち、スイープ曲面の視点に近い方の端をx=0とし、視点から遠い方の端をx=Xmaxとする。また、2次元パスの始点に対応する奥行き方向の直線をy=0とし、終点に対応する奥行き方向の直線をy=Ymaxとする。
続いて、パス3次元化部13は、スイープ曲面にサンプリング点の集合を設定する。サンプリング点は、パラメータ空間における格子点であり、以下、各格子点をLijと表記する。なお、i,jはそれぞれx,y方向のインデクスを示し、1≦i≦Xmax,1≦j≦Ymaxである。
続いて、パス3次元化部13は、各格子点Lijにおいて、シルエット係数Sij=|Nij・Gij|を計算する。ここで、図3(C)に示すように、Nijはスイープ曲面の正規化された法線ベクトルであり、Gijはボリュームデータの正規化されたグラディエントである。このシルエット係数Sijは、その点が現在の始点からどの程度シルエットに見えるかという度合いを表したものである。
ここで、ボリュームデータのグラディエントGijは、例えば以下のようにして求めることができる。先ず、元のボリュームデータが色情報(R,G,B)を持っている場合には、Gray=α×(0.299×Red+0.587×Green+0.114×Blue)という式に従ってグレイスケールに変換する。また、伝達関数などで元のボリューム値がフィルタリングされている場合には、フィルタ適用後の値を用いる。
実際のグラディエントの計算には、微分フィルタを用いる。これは、隣接ボクセルとの前進差分を計算することによって行う。例えば、ボリュームデータがV(x,y,z)で表され、隣接ボクセルとの距離がΔtである場合、グラディエントは、3次元ベクトル
(1/Δt)×(V(x+Δt,y,z)−V(x,y,z),V(x,y+Δt,z)−V(x,y,z),V(x,y,zΔt)−V(x,y,z))
となる。しかしながら、ボリュームデータが細かい構造(高周波成分)を含む場合には、そのデータを直接用いてグラディエントを計算すると、データの細かなバラつきがグラディエント計算の結果を不安定にする可能性がある。そこで、ボリュームデータをスムージングして予め高周波成分を除去してからグラディエントを計算することが好ましい。スムージングは3次元のガウス関数で畳み込みを行うことで実現することができる。なお、ガウス関数で畳み込みを行った結果を微分することと、微分したガウス関数で畳み込みを行うこととは等価であるため、ガウス関数をx,y,zの各軸方向に微分したフィルタを予め計算しておき、このフィルタを用いて畳み込みを行うようにしても構わない。スムージングカーネルの半径Rは、レンダリング画像表示部12上でのボリュームデータの大きさに応じて動的に変化させる。この際、ユーザが描いた2次元のパスの不正確さを吸収するため、ボリュームデータの拡大率が高いほどスムージングカーネルの半径Rを小さくすることが好ましい。
続いて、パス3次元化部13は、ユーザがボリュームデータに描いた2次元のパスの奥行きを計算するが、この奥行きを計算する問題は、図3(D)に示すように、上述した格子上において、辺y=0上の点から始まりy=Ymaxに至るパスのうち、パス上のシルエット係数の総和が最大になるものを探索する問題に帰着できる。このパスは、各yに対してxの値が1つしかないため、関数x=f(y)のように表現できる。また、パスに連続性を持たせるため、|f(y)−f(yi+1)|≦cという条件を課す(例えばc=1)。閉じたパスについては、さらに|f(y)−f(ymax)|≦cという条件を課す。この問題を解くには、動的計画法を用いればよい。なお、開いたパスに対しては動的計画法の計算を1度だけ行えばよいが、閉じたパスに対しては、|f(y)−f(ymax)|≦cを満たすため、辺x方向のサンプル点の数だけ動的計画法の計算を行わなければならない。
最後に、パス3次元化部13は、図3(E)に示すように、パラメータ空間で探索された最適パスに、対応する3次元位置を与えて3次元のパスを生成する。上述した図1のボリュームデータから脳全体領域を取り出す際のシルエット係数の格子と探索された最適パスとを図4に示す。
以上のようにして2次元のパスが3次元のパスに変換されると、制約条件発生部14は、セグメンテーションを行う際の制約条件として束縛点集合を発生させる。この束縛点集合は前景と背景とを示す点集合であり、3次元のパスをオフセットさせた位置に生成される。ここで、オフセット方向ベクトルDは、図5(A)に示すように視線ベクトルと3次元パスの接線ベクトルとの外積の方向である。また、オフセットさせる距離eは、スムージングカーネルの半径Rに比例させる。したがって、3次元のパスの右側の+e×D/|D|だけオフセットさせた位置には前景の束縛点集合(図中○で示す)が生成され、3次元のパスの左側の−e×D/|D|だけオフセットさせた位置には背景の束縛点集合(図中×で示す)が生成される。上述した図1のボリュームデータに対して発生された束縛点集合を図6に示す。
前景及び背景の束縛点集合が発生されると、セグメンテーション実行部15は、この束縛点集合に基づいてボリュームデータのセグメンテーションを行い、セグメンテーション結果を出力する。セグメンテーション方法としては、例えば文献「Nock, R. and Nielsen, F., 2004,“Grouping with bias revisited.”, In IEEE International Conference on Computer Vision and Pattern Recognition, IEEE CS Press, A.B.L,-S. Davis, R. Chellapa, Ed., 460-465」に記載されている方法など、種々の方法を用いることができる。最も簡単には、前景と定められた点位置での色ベクトル(R,G,B)の平均と背景と定められた点位置での色ベクトル(R,G,B)の平均とを計算し、各ボクセルでの色ベクトルがこの2つの色ベクトルの何れとの距離が近いかによって前景か背景かを判別すればよい。なお、この距離としては、例えばユークリッド距離を用いることができる。
以下、実際のボリュームデータに適用した実施例について説明する。
本実施例では、図7(A)に示すように、アーモンド入りのチョコレートクリスプをOCTコンパウンドと称される包埋剤で固定し、42μmの厚さずつにスライスすることによって作成された126×89×53ボクセルのボリュームデータを用いた。このボリュームデータに伝達関数を適用することで、図7(B)に示すようにアーモンドを見やすくし、このアーモンド領域に対して図7(C)に示すように2次元のパスを描いた。この結果、アーモンド領域が取り出され、図7(D)に示すように境界が表示された。また、図7(E)に示すようにアーモンド周辺領域の小さな粒の輪郭に2次元のパスを描いた場合にも、図7(F)に示すようにその領域を取り出すことができた。
また、この画像処理装置1の実行速度を計測するため、3人の被験者に作業を行ってもらった。行ったタスクは、図1(A)に示した頭部MRIデータとhigh-potential iron proteinと称される66×66×66ボクセルのボリュームデータとに対して、所望の3次元領域をそれぞれ20回ずつ選択してもらうというものである。この結果を図8に示す。図8の縦軸は、被験者が描いた2次元のパスを3次元のパスに変換し、束縛点集合が発生されるまでの時間を示し、横軸は、スイープ曲面上でのサンプル点の数(2次元のパスの長さに対応)を示す。また、実験には、Intel Xeon(商標) 3.2GHz CPUと2GBのRAMとを搭載したコンピュータを用いた。
図8から分かるように、実行時間はほぼサンプル点の数に比例し、パスが開いているか閉じているかには殆ど影響されていない。これは、閉じたパスの場合には動的計画法の計算を何度も行う必要があるが、時間の殆どはグラディエントを計算するための畳み込み演算に費やされるためと考えられる。最終的なセグメンテーションまでの時間は、セグメンテーション方法に依存して0.5〜20秒程度であった。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、ボリュームデータから所望のセグメンテーション領域を取り出す場合に適用した例について説明したが、本発明はこれに限定されるものではなく、ボリュームデータのうち所望の3次元領域に色を付けるために当該3次元領域を指定する場合などにも適用可能である。
本実施の形態におけるボリュームセグメンテーションの一例を示す図である。 本実施の形態における画像処理装置の概略構成を示す図である。 ボリュームデータに描かれた2次元のパスに奥行きを付加して3次元のパスに変換する様子を示す図である。 図1のボリュームデータから脳全体領域を取り出す際のシルエット係数の格子と探索された最適パスとを示す図である。 3次元のパスに基づいて、セグメンテーションを行う際の束縛点集合を発生させる様子を示す図である。 図1のボリュームデータに対して発生された束縛点集合を示す図である。 実際のボリュームデータに対してセグメンテーションを行った結果を示す図である。 本実施の形態における画像処理装置の実行速度を計測した結果を示す図である。
符号の説明
1 画像処理装置、10 マウス、11 入力解釈部、12 レンダリング画像表示部、13 パス3次元化部、14 制約条件発生部、15 セグメンテーション実行部

Claims (3)

  1. ボリュームデータのうち所望の3次元領域を指定する画像処理装置であって、
    上記ボリュームデータが表示される表示手段と、
    上記表示手段に表示された上記ボリュームデータに対してユーザが2次元のパスを入力するための入力手段と、
    上記2次元のパスを上記ユーザの視点から見た奥行き方向に掃引して3次元曲面を作成すると共に該3次元曲面内に有限個のサンプリング点を定め、各サンプリング点で上記ボリュームデータの正規化されたグラディエントをサンプリングし、該3次元曲面における正規化された法線ベクトルと、上記正規化されたグラディエントとの内積であるスカラー値を各サンプリング点に設定し、該スカラー値が設定された3次元曲面内で動的計画法を用いて該スカラー値の総和が最大になる3次元のパスに変換するパス3次元化手段と、
    上記3次元のパスに基づいて、上記所望の3次元領域を指定する3次元領域指定手段と
    を備える画像処理装置。
  2. 上記3次元のパスに基づいて、上記所望の3次元領域を指定する際の付加情報として、前景と背景を示す点集合上記ユーザの視線方向のベクトルと上記3次元のパスの接線ベクトルとの外積の方向に所定距離オフセットさせた位置に発生させる付加情報発生手段をさらに備える請求項1記載の画像処理装置。
  3. ボリュームデータのうち所望の3次元領域を指定する画像処理方法であって、
    表示手段に表示されたボリュームデータに対してユーザが描いた2次元のパスを入力する入力工程と、
    上記2次元のパスを上記ユーザの視点から見た奥行き方向に掃引して3次元曲面を作成すると共に該3次元曲面内に有限個のサンプリング点を定め、各サンプリング点で上記ボリュームデータの正規化されたグラディエントをサンプリングし、該3次元曲面における正規化された法線ベクトルと、上記正規化されたグラディエントとの内積であるスカラー値を各サンプリング点に設定し、該スカラー値が設定された3次元曲面内で動的計画法を用いて該スカラー値の総和が最大になる3次元のパスに変換するパス3次元化工程と、
    上記3次元のパスに基づいて、上記所望の3次元領域を指定する3次元領域指定工程と
    を有する画像処理方法。
JP2005104375A 2005-03-31 2005-03-31 画像処理装置及び方法 Expired - Fee Related JP4200979B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005104375A JP4200979B2 (ja) 2005-03-31 2005-03-31 画像処理装置及び方法
US11/386,285 US7755618B2 (en) 2005-03-31 2006-03-22 Image processing apparatus and image processing method
CNA2006100840438A CN1848177A (zh) 2005-03-31 2006-03-31 图像处理设备与图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005104375A JP4200979B2 (ja) 2005-03-31 2005-03-31 画像処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2006285616A JP2006285616A (ja) 2006-10-19
JP4200979B2 true JP4200979B2 (ja) 2008-12-24

Family

ID=37077729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005104375A Expired - Fee Related JP4200979B2 (ja) 2005-03-31 2005-03-31 画像処理装置及び方法

Country Status (3)

Country Link
US (1) US7755618B2 (ja)
JP (1) JP4200979B2 (ja)
CN (1) CN1848177A (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100975512B1 (ko) * 2007-03-09 2010-08-11 오므론 가부시키가이샤 인식 처리 방법 및 이 방법을 이용한 화상 처리 장치
US8098909B2 (en) 2007-08-31 2012-01-17 Computerized Medical Systems, Inc. Method and apparatus for efficient three-dimensional contouring of medical images
CN101399997B (zh) * 2007-09-29 2010-06-16 广达电脑股份有限公司 图像处理方法
US9641822B2 (en) 2008-02-25 2017-05-02 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) images
US8340400B2 (en) * 2009-05-06 2012-12-25 Honeywell International Inc. Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
CN102307306B (zh) * 2011-05-16 2014-03-12 深圳超多维光电子有限公司 3d显示方法及3d显示装置
US8867806B2 (en) 2011-08-01 2014-10-21 Impac Medical Systems, Inc. Method and apparatus for correction of errors in surfaces
US8521418B2 (en) 2011-09-26 2013-08-27 Honeywell International Inc. Generic surface feature extraction from a set of range data
US9153067B2 (en) 2013-01-21 2015-10-06 Honeywell International Inc. Systems and methods for 3D data based navigation using descriptor vectors
US9042663B2 (en) 2013-03-15 2015-05-26 Pictech Management Limited Two-level error correcting codes for color space encoded image
US9189721B2 (en) 2013-03-15 2015-11-17 Pictech Management Limited Data backup using color space encoded image
US9161062B2 (en) * 2013-03-15 2015-10-13 Pictech Management Limited Image encoding and decoding using color space
US9152613B2 (en) 2013-03-15 2015-10-06 Pictech Management Limited Self-publication using color space encoded image
US9159011B2 (en) 2013-03-15 2015-10-13 Pictech Management Limited Information broadcast using color space encoded image
US9396169B2 (en) 2013-03-15 2016-07-19 Pictech Management Limited Combination book with e-book using color space encoded image with color correction using a pseudo-euclidean metric in the color space
US9152830B2 (en) 2013-03-15 2015-10-06 Pictech Management Limited Color restoration for color space encoded image
US9147143B2 (en) 2013-03-15 2015-09-29 Pictech Management Limited Book using color space encoded image
US9161061B2 (en) * 2013-03-15 2015-10-13 Pictech Management Limited Data storage and exchange device for color space encoded images
US9386185B2 (en) 2013-03-15 2016-07-05 Pictech Management Limited Encoding large documents using color space encoded image with color correction using a pseudo-euclidean metric in the color space
US9129346B2 (en) 2013-03-15 2015-09-08 Pictech Management Limited Image fragmentation for distortion correction of color space encoded image
US20160119615A1 (en) * 2013-05-31 2016-04-28 Hewlett-Packard Development Company, L.P. Three dimensional data visualization
US10706229B2 (en) * 2017-09-28 2020-07-07 Nec Corporation Content aware heterogeneous log pattern comparative analysis engine
CN112036284B (zh) * 2020-08-25 2024-04-19 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07111721B2 (ja) * 1992-06-05 1995-11-29 日本アイ・ビー・エム株式会社 線要素データの3次元変換装置及び方法
JP3796799B2 (ja) 1996-03-01 2006-07-12 株式会社日立メディコ 三次元画像構成方法及び装置
JP3692050B2 (ja) 2001-04-12 2005-09-07 株式会社東芝 画像処理装置及びその方法
GB2395880B (en) * 2002-11-27 2005-02-02 Voxar Ltd Curved multi-planar reformatting of three-dimensional volume data sets
US20050110791A1 (en) * 2003-11-26 2005-05-26 Prabhu Krishnamoorthy Systems and methods for segmenting and displaying tubular vessels in volumetric imaging data

Also Published As

Publication number Publication date
JP2006285616A (ja) 2006-10-19
US7755618B2 (en) 2010-07-13
CN1848177A (zh) 2006-10-18
US20060256114A1 (en) 2006-11-16

Similar Documents

Publication Publication Date Title
JP4200979B2 (ja) 画像処理装置及び方法
US20190139223A1 (en) System and method for extracting a region of interest from volume data
US8929635B2 (en) Method and system for tooth segmentation in dental images
EP2374107B1 (en) Devices and methods for processing images using scale space
US8761493B2 (en) Method and system for tooth segmentation in dental images
US9741123B2 (en) Transformation of 3-D object for object segmentation in 3-D medical image
US20020009224A1 (en) Interactive sculpting for volumetric exploration and feature extraction
CN105279762A (zh) 一种口腔软硬组织ct序列与三维网格模型配准方法
EP3555852B1 (en) Method of segmenting a 3d object in a medical radiation image
Wang et al. Real-time coherent stylization for augmented reality
WO2019092167A1 (en) Method of segmenting a 3d object in a medical radiation image
Monnet et al. Three-dimensional morphometric ontogeny of mollusc shells by micro-computed tomography and geometric analysis
Rezk-Salama et al. Automatic Adjustment of Transfer Functions for 3D Volume Visualization.
US20140232716A1 (en) Method and system for emulating inverse kinematics
Lindholm et al. Boundary aware reconstruction of scalar fields
Udupa et al. Go digital, go fuzzy
Wang et al. Coherence-enhancing line drawing for color images
Li et al. Video vectorization via bipartite diffusion curves propagation and optimization
EP2734147A1 (en) Method and system for dental images
González Obando et al. Vector-Based Morphological Operations on Polygons Using Straight Skeletons for Digital Pathology
Stoppel et al. Visibility-driven depth determination of surface patches in direct volume rendering
Mori et al. Method of interactive specification of interested regions via a volume-rendered image with application to virtualized endoscope system
Chen et al. Volume illustration of muscle from diffusion tensor images
Liu et al. Visualization by example-a constructive visual component-based interface for direct volume rendering
Yang et al. Visualization for Non-linear Enhanced Volume Data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080929

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131017

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees