JP2009512479A - Rendering method and apparatus - Google Patents

Rendering method and apparatus Download PDF

Info

Publication number
JP2009512479A
JP2009512479A JP2008536160A JP2008536160A JP2009512479A JP 2009512479 A JP2009512479 A JP 2009512479A JP 2008536160 A JP2008536160 A JP 2008536160A JP 2008536160 A JP2008536160 A JP 2008536160A JP 2009512479 A JP2009512479 A JP 2009512479A
Authority
JP
Japan
Prior art keywords
rendered
identifying
region
computer
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008536160A
Other languages
Japanese (ja)
Other versions
JP2009512479A5 (en
JP5323486B2 (en
Inventor
ロエル トゥルイエン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009512479A publication Critical patent/JP2009512479A/en
Publication of JP2009512479A5 publication Critical patent/JP2009512479A5/ja
Application granted granted Critical
Publication of JP5323486B2 publication Critical patent/JP5323486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Abstract

レンダリング方法は、表面102をレンダリングするために、オブジェクトの内部を示すボリュームデータ202を使用する。第1のパラメタを持つ前記ボリュームデータ202における位置が特定される。前記特定された位置の近傍に置かれる前記レンダリングされた表面102上の領域は、例えば異なる映像を使用することにより強調表示される。  The rendering method uses volume data 202 that represents the interior of the object to render the surface 102. A position in the volume data 202 having the first parameter is specified. The area on the rendered surface 102 that is placed in the vicinity of the identified location is highlighted, for example by using different images.

Description

本発明は、医療撮像への特定の応用にあり、特に結腸のような解剖学的構造物のレンダリングへの応用であることが分かる。さらに、レンダリングされた画像にある関心領域を強調表示することが望ましい他の撮像応用に適用することも分かる。   It can be seen that the present invention has particular application to medical imaging, and in particular to rendering anatomical structures such as the colon. It can also be seen that it applies to other imaging applications where it is desirable to highlight regions of interest in the rendered image.

仮想内視鏡は、例えば人間の結腸又は気管のような管腔の内部を映像化する補助器具として使用されている。例えば結腸の撮像において、初期段階の癌を示しているかもしれないポリープのような疑わしい塊体を特定することが望ましい。前記結腸のCTスキャン又は他のスキャンから得られたデータを使用する場合、ユーザがこの結腸の管腔内を移動するような多数の視点から通例は、前記結腸の内部の1つ以上の三次元レンダリングされたビューが表される。臨床医は、これらレンダリングされた画像を使用して、ポリープ又は他の疑わしい塊体を特定する。   A virtual endoscope is used as an auxiliary device for visualizing the inside of a lumen such as the human colon or trachea. For example, in colon imaging, it is desirable to identify suspicious masses such as polyps that may indicate early stage cancer. When using data obtained from a CT scan of the colon or other scans, it is typically from one or more three-dimensional areas inside the colon that the user moves through the colon lumen. A rendered view is represented. The clinician uses these rendered images to identify polyps or other suspicious masses.

結腸内に残っている残留排泄物、液体又は他の物質はときどき、結腸の組織と区別することが難しい。例えばCT撮像において、これら残留物質は、周囲の組織の放射線減衰値とほぼ同じ値を持っている。結果として、これら残留物質はときどきポリープを模倣したり又は覆い隠したりする。   Residual waste, fluid or other material remaining in the colon is sometimes difficult to distinguish from colon tissue. For example, in CT imaging, these residual materials have approximately the same value as the radiation attenuation value of the surrounding tissue. As a result, these residual materials sometimes mimic or obscure polyps.

この問題に取り組むために、様々な腸管前処理技術が実施されてきた。CT撮像の事例において、これら技術は例えばバリウムのような放射線を通さない物質を含む径口造影剤の投与を通例は含んでいる。本発明は、結腸内に残っている物質が造影剤により強調表示されることである。   Various intestinal pretreatment techniques have been implemented to address this issue. In the case of CT imaging, these techniques typically involve the administration of a caliber containing a material that is opaque to radiation, such as barium. The present invention is that the material remaining in the colon is highlighted by the contrast agent.

腸管前処理の1つの形式はいわゆる湿式前処理であり、これは大量の残留液体がしばしば残っている。他の形式の腸管前処理はいわゆる乾式前処理であり、これは残留物質が結腸壁の近くにボール又は凝集塊状にしばしば集中した不透明な排泄物が多数を占めている。   One type of intestinal pretreatment is the so-called wet pretreatment, which often leaves a large amount of residual liquid. Another type of intestinal pretreatment is the so-called dry pretreatment, which is dominated by opaque excrement where residual material is often concentrated in the form of balls or clumps near the colon wall.

湿式前処理において、タグ付けされた液体及び排泄物がポリープ及び他の病変を覆い隠すことがある。乾式前処理において、タグ付けされた物質はポリープ及び他の病変を模倣することがある。特に、残っている排泄物はレンダリングされた画像においてポリープのような小塊体として現れる。スキャンは、ポリープ又は病変を模倣している残留物質と同じく、結腸壁の一部を覆い隠す残留物質も含んでいる。何れかの事例において、これらの存在が混乱を生じさせ、臨床医に対し余計な作業負荷となる。この臨床医は通例、これらを評価及び処分しなければならない。   In wet pretreatments, tagged liquids and excreta can obscure polyps and other lesions. In dry pretreatment, tagged materials can mimic polyps and other lesions. In particular, the remaining waste appears as a polyp-like mass in the rendered image. The scan contains residual material that obscures a portion of the colon wall, as well as residual material that mimics a polyp or lesion. In either case, these presences can cause confusion and add an extra workload to the clinician. The clinician typically must evaluate and dispose of them.

本発明の態様はこれら問題及びその他に取り組んでいる。   Aspects of the present invention address these issues and others.

本発明のある態様によれば、方法は、表面をレンダリングするためにオブジェクトの内部を示すボリュームデータを使用するステップ、第1のパラメタ値を持つ前記ボリュームデータにおける位置を特定するステップ、前記レンダリングされた表面と前記特定された位置との相対位置の関数として、前記レンダリングされた表面上の関心領域を特定するステップ、並びに前記レンダリングされた表面の人間が読み取り可能な画像を、前記表面上において強調表示された関心領域と共に生成するステップ、を有する。   According to an aspect of the invention, a method uses volume data indicative of the interior of an object to render a surface, identifying a position in the volume data having a first parameter value, the rendered Identifying a region of interest on the rendered surface as a function of the relative position of the rendered surface and the identified location, and enhancing a human readable image of the rendered surface on the surface Generating with the displayed region of interest.

本発明の他の態様によれば、装置は、表面をレンダリングするためのオブジェクトの内部を示すボリュームデータを使用する手段、第1のパラメタ値を持つ前記ボリュームデータにおける位置を特定する手段、前記レンダリングされた表面と、前記特定された位置との相対位置の関数として、前記レンダリングされた表面上の関心領域を特定する手段、並びに前記レンダリングされた表面の人間が読み取り可能な画像を、前記表面上において強調表示された関心領域と共に生成する手段、を有する。   According to another aspect of the invention, an apparatus comprises: means for using volume data indicating an interior of an object for rendering a surface; means for identifying a position in the volume data having a first parameter value; Means for identifying a region of interest on the rendered surface as a function of the relative position of the rendered surface and the identified location, and a human readable image of the rendered surface on the surface Generating with the region of interest highlighted in.

本発明の他の態様によれば、コンピュータ読み取り記憶媒体は、コンピュータにより実施される場合、結腸の内部を示す表面をレンダリングするために人間の内部の解剖学的部位を示すボリュームデータを使用するステップ、残留排泄物を含んでいると疑われる前記レンダリングされた表面の領域を特定するステップ、及び前記レンダリングされた表面の画像上に前記特定された領域を強調表示するステップ、を有する方法を前記コンピュータに実行させる命令を含んでいる。   According to another aspect of the invention, a computer-readable storage medium, when implemented by a computer, uses volume data indicative of an internal anatomical portion of a human to render a surface indicative of the interior of the colon. Identifying the region of the rendered surface suspected of containing residual waste and highlighting the identified region on an image of the rendered surface Contains instructions to be executed.

添付される図面及び記述を読み、理解する際、本発明のさらに他の態様を当業者が思いつくことがあるだろう。   Still other aspects of the present invention may occur to those skilled in the art upon reading and understanding the accompanying drawings and description.

本発明は、例として説明され、同様の符号は同様の要素を示している添付の図面の形状に制限されない。   The present invention has been described by way of example and like numerals are not intended to limit the form of the accompanying drawings to indicate like elements.

図1は、CTスキャンから得られたボリュームデータに基づき、従来のレンダリング技術に従ってレンダリングされた結腸102の内部のレンダリングを表している。特に、前記結腸102は、所望のボクセル値を持つアイソサーフェス(isosurface)としてレンダリングされる。領域104は疑わしいポリープ又は病変として現れる。しかしながら、データセットのさらに詳細な検査は、領域104がポリープを模倣する残留する不透明な排泄物を含むことがある。この不透明な排泄物は、周囲の結腸組織及び/又は粘膜よりも大きい放射線減衰を特徴とする。管腔の内部にあるビューポイントからレンダリングした場合、前記不透明な排泄物の表面近くの部分容積効果は、結腸壁の一部としてレンダリングされている領域104に生じる。結果として、この領域104はポリープと区別することが難しい。   FIG. 1 represents a rendering of the interior of the colon 102 rendered according to conventional rendering techniques based on volume data obtained from a CT scan. In particular, the colon 102 is rendered as an isosurface with a desired voxel value. Region 104 appears as a suspicious polyp or lesion. However, a more detailed examination of the data set may include residual opaque waste where region 104 mimics a polyp. This opaque excreta is characterized by greater radiation attenuation than the surrounding colon tissue and / or mucosa. When rendered from a viewpoint that is inside the lumen, the partial volume effect near the surface of the opaque excrement occurs in the region 104 being rendered as part of the colon wall. As a result, this region 104 is difficult to distinguish from a polyp.

図1bは、同じデータセットの第2のレンダリングを表し、ここで前記領域104は、残留物質を含んでいると疑われ、ユーザに提示するために電子タグ付け又は強調表示される。説明のように、前記領域104は輪郭のような線105により示される。他の実施例において、領域104は結腸102の残りの部分とは異なる色で表示されている。もちろん、例えば陰影付け、表面テクスチャ、矢印又はテキストを個々に又は様々な組み合わせのどちらか一方で使用するような、他の色付又は強調表示技術が使用されてもよい。レンダリングされた画像を閲覧及び評価する作業を簡単にするために、前記タグ付けは、レンダリングされた画像102において前記疑わしい領域104を実質的に覆い隠すことなく、ユーザを疑わしい領域104に注目させることが一般的に望ましい。   FIG. 1b represents a second rendering of the same data set, where the region 104 is suspected of containing residual material and is electronically tagged or highlighted for presentation to the user. As described, the region 104 is indicated by a line 105 such as a contour. In other embodiments, region 104 is displayed in a different color than the rest of colon 102. Of course, other coloring or highlighting techniques may be used, such as using shading, surface textures, arrows or text individually or in various combinations. To simplify the task of viewing and evaluating the rendered image, the tagging causes the user to focus on the suspicious area 104 without substantially obscuring the suspicious area 104 in the rendered image 102. Is generally desirable.

レンダリング処理は、図2に関連して説明されている。適切な腸管前処理後にCTスキャナにより生成したデータセットのようなボリュームデータセット202が得られる。ポリープを模倣する残留物質を特定するのに特に適した実施例において、乾燥させる腸管前処理が行われる。   The rendering process is described in connection with FIG. A volume data set 202 is obtained, such as a data set generated by a CT scanner after appropriate bowel preparation. In an embodiment particularly suitable for identifying residual material that mimics a polyp, an intestinal pretreatment to dry is performed.

前記データセット202は、オブジェクトの1つ以上の物理的特性、例えばそのオブジェクトの放射線減衰に関する情報を含むボクセルのx,y,zアレイとして映像化される。放射線減衰は、因襲的にハウンズフィールド単位(HU)で表され、この単位において、空気は−1000HUの値を持ち、水は0HUの値を持つ。さらに大きい値はさらに大きな放射線減衰値を示す。   The data set 202 is imaged as an x, y, z array of voxels containing information about one or more physical properties of the object, eg, radiation attenuation of the object. Radiation attenuation is expressed in Haunsfield units (HU), in which air has a value of -1000 HU and water has a value of 0 HU. A larger value indicates a larger radiation attenuation value.

204において、残留物質を含んでいると疑われるボクセルが特定される。これは、ボクセル値に従って前記データセット202をセグメント化して、セグメント化されたデータセット又はバイナリボリューム206を生成することにより達成される。結腸を撮像するのに適した実施例において、残留物質を含んでいると予想されるボクセルを特定するために、しきい値処理によってセグメント化が行われる。ある実施例において、前記しきい値は+200HUに設定される。   At 204, voxels suspected of containing residual material are identified. This is accomplished by segmenting the data set 202 according to voxel values to produce a segmented data set or binary volume 206. In an embodiment suitable for imaging the colon, segmentation is performed by thresholding to identify voxels that are expected to contain residual material. In one embodiment, the threshold is set to +200 HU.

ノイズ又は臨床上関心のない領域を強調表示するのを避けるために、所望するしきい値の大きさよりも小さなセグメント化された領域が処分される。これにより例えば、臨床上関連するポリープの下限よりも小さいセグメント化された領域(およそ直径5mm)が処分される。   To avoid highlighting noise or areas of clinical interest, segmented areas that are smaller than the desired threshold magnitude are discarded. This for example disposes of a segmented area (approximately 5 mm in diameter) that is smaller than the lower limit of the clinically relevant polyp.

207において、前記セグメント化されたデータセット206は拡張され、拡張したデータセット又はバイナリボリューム208を生成する。ある実施例において、三次拡張が行われる。特に前記セグメント化されたデータセットに接する背景又は非セグメント化ボクセルが前記拡張したデータセット208に加えられる。三次拡張において、この処理は3回繰り返される。以下に詳細に説明されるように、それより低次又は高次の拡張が行われてもよい。   At 207, the segmented data set 206 is expanded to generate an expanded data set or binary volume 208. In some embodiments, tertiary expansion is performed. In particular, background or non-segmented voxels that touch the segmented data set are added to the expanded data set 208. In the tertiary extension, this process is repeated three times. As will be described in detail below, lower or higher order expansion may be performed.

210において、データセット202は、一般的に結腸の管腔の内部に置いた視点から、適当なレンダリング技術に従って、前記結腸102の所望する領域をレンダリンスするのに使用される。このような位置は通例、空気に対する値又はそれに近いハウンズフィールド値を持つであろう。そのような技術において、明確なセグメンテーション操作がデータセット202に行われ、セグメント化されたデータセットを生成する。このセグメント化されたデータは、通例は多角形メッシュとして表される表面に近づけるのに使用される。このような技術の実施例は、米国特許番号US6,083,162、発明の名称"Method and System for Producing Interactive, Three-Dimensional Renderings of Selected Body Organs Having Hollow Lumens to Enable Simulated Movement Through the Lumen"に示される。他の技術において、前記レンダリング処理中、アイソサーフェス(isosurface)の位置が直接計算される。前記データセットを通過する所与の光線に対し、この光線が所望のアイソサーフェス値を通過するボクセルの位置が決められる。このアイソサーフェスの位置及び向きは、周囲のボクセルの値を補間することにより得られる。このような技術の実施例は、米国特許番号US6,522,324、発明の名称"Deriving an Iso-Surface in a Multi-Dimensional Data Field"に示される。ある実施例において、結腸102は、−800HUの放射線減衰値を持つ表面としてレンダリングされる。   At 210, the data set 202 is used to render the desired region of the colon 102 from a viewpoint typically located within the colon lumen, according to an appropriate rendering technique. Such a position will typically have a value for air or a Hounsfield value close to it. In such a technique, explicit segmentation operations are performed on the data set 202 to generate a segmented data set. This segmented data is typically used to approximate a surface represented as a polygonal mesh. An example of such a technique is shown in US Pat. No. 6,083,162, entitled “Method and System for Producing Interactive, Three-Dimensional Renderings of Selected Body Organs Having Hollow Lumens to Enable Simulated Movement Through the Lumen”. In another technique, the position of the isosurface is directly calculated during the rendering process. For a given ray passing through the data set, the position of the voxel through which this ray passes the desired isosurface value is determined. The position and orientation of this isosurface can be obtained by interpolating surrounding voxel values. An example of such a technique is shown in US Pat. No. 6,522,324, the title “Deriving an Iso-Surface in a Multi-Dimensional Data Field”. In one embodiment, the colon 102 is rendered as a surface with a radiation attenuation value of -800 HU.

上述したように、前記レンダリング処理は、残留する不透明な物質を前記レンダリングされた表面102の様相を模倣させることがある。その視点から見た場合、残留物を含んでいるデータセット202におけるボクセルは、レンダリングされた結腸102の背後にあることがわかり、その距離は残留物質の放射線減衰、選択したしきい値及びボクセルの大きさに強く依存している。例えば骨のような他の比較的減衰の大きい物質は、結腸102からさらに遠くに置かれる。   As described above, the rendering process may mimic the appearance of the rendered surface 102 with residual opaque material. From that point of view, it can be seen that the voxels in the dataset 202 containing the residue are behind the rendered colon 102, the distance of which is the radiation attenuation of the residual material, the selected threshold and the voxel's Strongly dependent on size. Other relatively attenuated materials, such as bone, are placed further away from the colon 102.

207で行われる拡張の次元又は回数は、残留物を示すボクセルがレンダリングされた結腸102を交差していると予想されるのに対し、骨及び他の物質は予想されないように選択される。別の言い方をすれば、その視点から見た場合、残留物質から生じる拡張されたデータセット208におけるボクセルは、前記レンダリングされた結腸102に又はその前に置かれていると予想されることができる。前記拡張されたデータセット208が前記レンダリングされた結腸102を交差する領域は、例えばこれら領域を別の色で表示することにより強調表示される。   The dimensions or number of dilations performed at 207 are selected such that voxels representing the residue are expected to intersect the rendered colon 102, while bone and other materials are not expected. In other words, when viewed from that perspective, voxels in the expanded data set 208 resulting from residual material can be expected to be placed in or in front of the rendered colon 102. . Regions where the expanded data set 208 intersects the rendered colon 102 are highlighted, for example by displaying these regions in a different color.

結腸102がレイキャスティング(ray casting)技術を用いてレンダリングされる実施において、映像又は表示属性の第1の組212(例えば第1の色又は色の範囲)は、拡張されたデータセット208のボクセルに割り当てられる。映像の第2の組214(例えば第2の色又は色の範囲)は、レンダリングされた結腸102に割り当てられる。各光線は横断しているので、結腸102は、前記映像212、214の一方を用いて置かれ及び表示される。しかしながら、疑わしいボクセルを示す前記映像212は、レンダリングされた結腸102を示す映像214より優先する。従って、拡張されたデータセット108が前記レンダリングされた結腸102を交差する領域は、前記映像の第1の組212を用いて表示される。   In implementations where the colon 102 is rendered using ray casting techniques, a first set 212 of video or display attributes (eg, a first color or range of colors) is a voxel of the expanded data set 208. Assigned to. A second set of images 214 (eg, a second color or range of colors) is assigned to the rendered colon 102. As each ray traverses, the colon 102 is placed and displayed using one of the images 212, 214. However, the video 212 showing suspicious voxels takes precedence over the video 214 showing the rendered colon 102. Accordingly, the region where the expanded data set 108 intersects the rendered colon 102 is displayed using the first set 212 of images.

他の実施において、レンダリングする前に所望の映像が既定される。もちろんさらに他の実施も可能である。   In other implementations, the desired video is predetermined before rendering. Of course, other implementations are possible.

レンダリングされた表面102は、前記強調表示された領域104と一緒に、人間が読み取り可能な装置、例えばモニター又はディスプレイ上に表示される。このレンダリングは、ユーザが結腸の管腔内を移動するような複数の視点及び位置の各々から一般的に行われる。   The rendered surface 102 is displayed along with the highlighted area 104 on a human readable device such as a monitor or display. This rendering is typically done from each of a plurality of viewpoints and locations as the user moves within the colon lumen.

上述したように、残留物を含んでいると疑われる領域104は、拡張技術を用いて特定されることができる。代替の技術において、前記レンダリングされた結腸102とセグメント化されたデータセット106との間にある距離は、レンダリング処理の前に又は同時のどちらか一方で直接計算されることができる。所望の映像は前記計算された距離に基づいて前記レンダリングされた結腸に加えられる。   As described above, the region 104 suspected of containing residue can be identified using an extended technique. In an alternative technique, the distance between the rendered colon 102 and the segmented data set 106 can be directly calculated either before or simultaneously with the rendering process. A desired image is added to the rendered colon based on the calculated distance.

上記説明がCTスキャナにより生成したデータセットに焦点を絞っているのに対し、本技術は、他のモダリティ、例えば磁気共鳴撮像、超音波、SPECT及びPET等により生成されるデータセットと一緒に使用されることも可能である。これら技術は結腸以外の身体部位の撮像にも応用可能である。これら技術は残留物質を強調表示することに制限されず、関心のある物質がレンダリングされた表面により覆い隠される又は模倣されたと疑われる状況にも使用されることが可能である。   While the above discussion focuses on datasets generated by CT scanners, the technology is used with datasets generated by other modalities such as magnetic resonance imaging, ultrasound, SPECT and PET. It is also possible. These techniques can also be applied to imaging of body parts other than the colon. These techniques are not limited to highlighting residual material, but can also be used in situations where the material of interest is suspected of being obscured or imitated by the rendered surface.

記載される技術は、専用ハードウェアを用いてコンピュータ読み取り可能命令に又は両方を組み合わせて具現化されることができる。これら命令は、リモートコンピュータにある1つ以上のコンピュータ読み取り可能記憶媒体、例えば、不変又は可変のROM、RAM、可変又は不変のCD、DVDに記憶され、例えばインターネット、電話線又は無線通信等の通信媒体によりホストシステムに運ばれる。コンピュータにより実施される場合、前記命令は前記プロセッサに説明した技術を実行させる。   The described techniques can be embodied in computer readable instructions using dedicated hardware or a combination of both. These instructions are stored in one or more computer readable storage media in a remote computer, such as persistent or variable ROM, RAM, variable or persistent CD, DVD, and communications such as the Internet, telephone lines or wireless communications It is carried by the medium to the host system. When implemented by a computer, the instructions cause the processor to perform the techniques described.

もちろん、上記記載を読み、理解する際、他の者に変更及び代替案が思い浮かぶであろう。本発明は、このような変更及び代替案が添付される請求項及びそれに同等なものの範囲内にある限り、これら全てを含んでいると考える。   Of course, changes and alternatives will occur to others upon reading and understanding the above description. The present invention is intended to include all such modifications and alternatives as long as they fall within the scope of the appended claims and their equivalents.

結腸の内部のレンダリングされた図。A rendered illustration of the interior of the colon. 結腸の内部のレンダリングされた図。A rendered illustration of the interior of the colon. 電子タグ付け技術のデータフロー図。Data flow diagram of electronic tagging technology.

Claims (20)

表面をレンダリングするために、オブジェクトの内部を示すボリュームデータを使用するステップ、
前記オブジェクトの物理的特性を表している第1のパラメタ値を持つ、前記ボリュームデータにおける位置を特定するステップ、
前記レンダリングされた表面と前記特定された位置との相対位置の関数として、前記レンダリングされた表面上の関心領域を特定するステップ、及び
前記レンダリングされた表面の人間が読み取り可能な画像を、前記表面上において強調表示された前記関心領域と共に生成するステップ
を有する方法。
Using volume data representing the interior of the object to render the surface;
Identifying a position in the volume data having a first parameter value representing a physical characteristic of the object;
Identifying a region of interest on the rendered surface as a function of the relative position of the rendered surface and the identified position; and a human readable image of the rendered surface Generating with the region of interest highlighted above.
請求項1に記載の方法において、
前記オブジェクトは人間であり、前記関心領域は前記結腸の内部を含み、
前記第1のパラメタ値は前記結腸に含まれる残留物質を示し、
前記表面は第1の視点からレンダリングされ、及び
前記方法は前記残留物質を示す第1のパラメタ値を持ち、前記レンダリングされた表面の背後に置かれる、前記ボリュームデータにおける位置を特定するステップを含む
方法。
The method of claim 1, wherein
The object is a human and the region of interest includes the interior of the colon;
The first parameter value indicates residual material contained in the colon;
The surface is rendered from a first viewpoint, and the method includes identifying a position in the volume data having a first parameter value indicative of the residual material and located behind the rendered surface. Method.
前記残留物質は、不透明な排泄物である請求項2に記載の方法。   The method of claim 2, wherein the residual material is opaque waste. 前記表面をレンダリングするために第1の映像を使用し、前記関心領域を強調表示するために第2の映像を使用するステップを含む請求項3に記載の方法。   4. The method of claim 3, comprising using a first video to render the surface and using a second video to highlight the region of interest. 前記第1の映像は第1の色を含み、前記第2の映像は第2の色を含んでいる請求項4に記載の方法。   The method of claim 4, wherein the first video includes a first color and the second video includes a second color. セグメント化されたデータを生成するために、前記ボリュームデータを前記第1のパラメタ値の関数としてセグメント化するステップを含んでいる請求項1に記載の方法。   The method of claim 1, comprising segmenting the volume data as a function of the first parameter value to generate segmented data. 前記セグメント化されたデータを拡張させるステップを含んでいる請求項6に記載の方法において、関心領域を特定する前記ステップは、前記レンダリングされた表面と前記拡張されたデータとが交差する位置を特定するステップを含んでいる方法。   The method of claim 6, comprising the step of expanding the segmented data, wherein the step of identifying a region of interest identifies a location where the rendered surface and the expanded data intersect. A method that includes a step to do. 位置を特定する前記ステップは、ボリュームデータを使用するステップより前に行われる請求項1に記載の方法。   The method of claim 1, wherein the step of identifying a location is performed prior to the step of using volume data. ボリュームデータを使用する前記ステップは、前記パラメタが第2の値を持つ視点から前記表面をレンダリングするステップを含み、前記表面は前記パラメタが第3の値を持つ位置を示し、前記第3の値は前記第1の値と前記第2の値との間にある請求項1に記載の方法。   The step of using volume data includes rendering the surface from a viewpoint where the parameter has a second value, the surface indicating a position where the parameter has a third value, and the third value. The method of claim 1, wherein is between the first value and the second value. 前記パラメタは放射線減衰であり、前記第1の値はしきい値よりも大きな値を含んでいる請求項9に記載の方法。   The method of claim 9, wherein the parameter is radiation attenuation and the first value comprises a value greater than a threshold value. 表面をレンダリングするために、オブジェクトの内部を示すボリュームデータを使用する手段、
前記オブジェクトの物理的特性を表している第1のパラメタ値を持つ、前記ボリュームデータにおける位置を特定する手段、
前記レンダリングされた表面と前記特定された位置との相対位置の関数として、前記レンダリングされた表面上の関心領域を特定する手段、及び
前記レンダリングされた表面の人間が読み取り可能な画像を、前記表面上において強調表示された前記関心領域と共に生成する手段
を有する装置。
A means of using volume data to indicate the interior of the object to render the surface;
Means for identifying a position in the volume data having a first parameter value representing a physical characteristic of the object;
Means for identifying a region of interest on the rendered surface as a function of the relative position of the rendered surface and the identified position, and a human readable image of the rendered surface, An apparatus comprising means for generating together with the region of interest highlighted above.
コンピュータにより実施される場合、
前記結腸の内部を示す表面をレンダリングするために、人間の内部の解剖学的部位を示すボリュームデータを使用するステップ、
残留排泄物を含んでいると疑われる前記レンダリングされた表面の領域を特定するステップ、及び
前記レンダリングされた表面の画像上に前記特定された領域を強調表示するステップ
を有する方法を前記コンピュータに実行させる命令を含んでいるコンピュータ読み取り可能記憶媒体。
When implemented by a computer:
Using volume data indicative of an internal anatomical part of a human to render a surface indicative of the interior of the colon;
Performing in the computer a method comprising: identifying a region of the rendered surface suspected of containing residual waste; and highlighting the identified region on an image of the rendered surface A computer-readable storage medium containing instructions to be executed.
前記表面は視点からレンダリングされ、前記特定するステップは、しきい値よりも大きな放射線減衰を持ち、前記レンダリングされた表面の背後に置かれる、前記ボリュームデータにおける位置を特定するステップを含む請求項12に記載のコンピュータ読み取り可能記憶媒体。   13. The surface is rendered from a viewpoint, and the identifying step includes identifying a position in the volume data that has a radiation attenuation greater than a threshold and is located behind the rendered surface. The computer-readable storage medium described in 1. 前記特定するステップは、セグメント化されたデータを生成するために、前記ボリュームデータを前記放射線減衰の関数としてセグメント化して、拡張したデータを生成するために、前記セグメント化されたデータを拡張するステップを含む請求項13に記載のコンピュータ読み取り可能記憶媒体。   The step of identifying includes segmenting the volume data as a function of the radiation attenuation to generate segmented data and extending the segmented data to generate expanded data. The computer-readable storage medium according to claim 13, comprising: 前記特定するステップは、前記レンダリングされた表面と前記拡張したデータとの交点を決めるステップを含む請求項14に記載のコンピュータ読み取り可能記憶媒体。   The computer readable storage medium of claim 14, wherein the identifying step includes determining an intersection point of the rendered surface and the expanded data. 前記特定するステップは、残留排泄物を含んでいると疑われる前記ボリュームデータにおける位置を特定し、前記特定された位置と前記レンダリングされた表面との間の距離を決めるステップを含む請求項12に記載のコンピュータ読み取り可能記憶媒体。   The method of claim 12, wherein the identifying step includes identifying a location in the volume data suspected of containing residual waste and determining a distance between the identified location and the rendered surface. The computer-readable storage medium described. 距離を決定することは、拡張を行うことを含む請求項16に記載のコンピュータ読み取り可能記憶媒体。   The computer-readable storage medium of claim 16, wherein determining the distance includes performing an expansion. 前記強調表示するステップは、前記レンダリングされた表面のための第1の映像、及び前記特定された領域のための第2の映像を使用するステップを含む請求項12に記載のコンピュータ読み取り可能記憶媒体。   The computer-readable storage medium of claim 12, wherein the highlighting includes using a first image for the rendered surface and a second image for the identified region. . 前記第1の映像及び前記第2の映像は、異なる色を含む請求項18に記載のコンピュータ読み取り可能記憶媒体。   The computer-readable storage medium of claim 18, wherein the first video and the second video include different colors. 強調表示することは、輪郭線を使用することを含む請求項19に記載のコンピュータ読み取り可能記憶媒体。   The computer-readable storage medium of claim 19, wherein highlighting includes using a contour line.
JP2008536160A 2005-10-21 2006-10-02 Rendering method and apparatus Active JP5323486B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US72945805P 2005-10-21 2005-10-21
US60/729,458 2005-10-21
PCT/IB2006/053587 WO2007046019A1 (en) 2005-10-21 2006-10-02 Rendering method and apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013082890A Division JP5750136B2 (en) 2005-10-21 2013-04-11 Rendering method and apparatus

Publications (3)

Publication Number Publication Date
JP2009512479A true JP2009512479A (en) 2009-03-26
JP2009512479A5 JP2009512479A5 (en) 2009-11-19
JP5323486B2 JP5323486B2 (en) 2013-10-23

Family

ID=37735006

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008536160A Active JP5323486B2 (en) 2005-10-21 2006-10-02 Rendering method and apparatus
JP2013082890A Active JP5750136B2 (en) 2005-10-21 2013-04-11 Rendering method and apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013082890A Active JP5750136B2 (en) 2005-10-21 2013-04-11 Rendering method and apparatus

Country Status (5)

Country Link
US (1) US8548566B2 (en)
EP (1) EP1941449B1 (en)
JP (2) JP5323486B2 (en)
CN (1) CN101292260B (en)
WO (1) WO2007046019A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014054398A (en) * 2012-09-13 2014-03-27 Fujifilm Corp Three-dimensional image display apparatus, and method and program for three-dimensional image display
JP2014054428A (en) * 2012-09-13 2014-03-27 Fujifilm Corp Three-dimensional image display device and method, and program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2265937A1 (en) 2008-03-27 2010-12-29 Analogic Corporation Method of and system for three-dimensional workstation for security and medical applications
DE102008045342B4 (en) * 2008-09-01 2016-03-10 Siemens Aktiengesellschaft A method for displaying image data of a large intestine of a patient on the basis of tomographic examination data and a computing unit for performing the method
CN101766491B (en) * 2010-02-04 2013-02-27 华祖光 Method and system for virtual colonoscopy without making preparation of cleaning intestinal tract
WO2014170798A1 (en) * 2013-04-17 2014-10-23 Koninklijke Philips N.V. Delineation and/or correction of a smooth stiff line in connection with an independent background image
GB2524955A (en) 2014-04-01 2015-10-14 Scopis Gmbh Method for cell envelope segmentation and visualisation
GB201501157D0 (en) 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
EP3392804A1 (en) * 2017-04-18 2018-10-24 Koninklijke Philips N.V. Device and method for modelling a composition of an object of interest
EP4002266A1 (en) 2020-11-19 2022-05-25 Koninklijke Philips N.V. Suppression of tagged elements in medical images

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002539568A (en) * 1999-03-18 2002-11-19 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク System and method for performing three-dimensional virtual subdivision and inspection
WO2004075117A1 (en) * 2003-02-18 2004-09-02 Koninklijke Philips Electronics N.V. Volume visualization using tissue mix
WO2004081874A2 (en) * 2003-03-11 2004-09-23 Siemens Medical Solutions Usa Inc. Systems and methods for providing automatic 3d lesion segmentation and measurements
WO2004089219A1 (en) * 2003-04-08 2004-10-21 Hitachi Medical Corporation Apparatus and method of supporting diagnostic imaging for medical use
JP2005013729A (en) * 2003-06-24 2005-01-20 Ge Medical Systems Global Technology Co Llc Method and device for enabling close investigation of ct colonography inspection
JP2005506140A (en) * 2001-10-16 2005-03-03 ザ・ユニバーシティー・オブ・シカゴ Computer-aided 3D lesion detection method
JP2005087602A (en) * 2003-09-19 2005-04-07 Ziosoft Inc Device, method and program for medical image generation
JP2005511234A (en) * 2001-12-14 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, system and computer program for visualizing the surface tissue of a visceral lumen organ wall of a subject based on volume scanning
JP2007522826A (en) * 2004-02-18 2007-08-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization method using tissue mixing

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US6694163B1 (en) * 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US6343936B1 (en) * 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
JP4240548B2 (en) * 1998-02-19 2009-03-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to obtain isosurfaces in a multidimensional data field
US6119574A (en) * 1998-07-02 2000-09-19 Battelle Memorial Institute Blast effects suppression system
EP2302595A3 (en) * 1998-11-25 2011-04-06 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
US6947784B2 (en) * 2000-04-07 2005-09-20 The General Hospital Corporation System for digital bowel subtraction and polyp detection and related techniques
WO2002029723A1 (en) * 2000-10-02 2002-04-11 The Research Foundation Of State University Of Newyork Enhanced virtual navigation and examination
WO2003086172A2 (en) 2002-04-06 2003-10-23 E-Z-Em, Inc. Method for tagging colonic residue
EP1455307A1 (en) 2003-03-06 2004-09-08 MeVis GmbH Partial volume visualization
JP2007528769A (en) * 2004-03-12 2007-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Adaptive sampling along edges for surface rendering
US8031921B2 (en) * 2005-02-14 2011-10-04 Mayo Foundation For Medical Education And Research Electronic stool subtraction in CT colonography

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002539568A (en) * 1999-03-18 2002-11-19 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク System and method for performing three-dimensional virtual subdivision and inspection
JP2005506140A (en) * 2001-10-16 2005-03-03 ザ・ユニバーシティー・オブ・シカゴ Computer-aided 3D lesion detection method
JP2005511234A (en) * 2001-12-14 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, system and computer program for visualizing the surface tissue of a visceral lumen organ wall of a subject based on volume scanning
WO2004075117A1 (en) * 2003-02-18 2004-09-02 Koninklijke Philips Electronics N.V. Volume visualization using tissue mix
WO2004081874A2 (en) * 2003-03-11 2004-09-23 Siemens Medical Solutions Usa Inc. Systems and methods for providing automatic 3d lesion segmentation and measurements
WO2004089219A1 (en) * 2003-04-08 2004-10-21 Hitachi Medical Corporation Apparatus and method of supporting diagnostic imaging for medical use
JP2005013729A (en) * 2003-06-24 2005-01-20 Ge Medical Systems Global Technology Co Llc Method and device for enabling close investigation of ct colonography inspection
JP2005087602A (en) * 2003-09-19 2005-04-07 Ziosoft Inc Device, method and program for medical image generation
JP2007522826A (en) * 2004-02-18 2007-08-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization method using tissue mixing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014054398A (en) * 2012-09-13 2014-03-27 Fujifilm Corp Three-dimensional image display apparatus, and method and program for three-dimensional image display
JP2014054428A (en) * 2012-09-13 2014-03-27 Fujifilm Corp Three-dimensional image display device and method, and program

Also Published As

Publication number Publication date
US8548566B2 (en) 2013-10-01
WO2007046019A1 (en) 2007-04-26
CN101292260A (en) 2008-10-22
US20080228067A1 (en) 2008-09-18
JP5323486B2 (en) 2013-10-23
JP2013208433A (en) 2013-10-10
CN101292260B (en) 2014-12-10
EP1941449A1 (en) 2008-07-09
EP1941449B1 (en) 2012-07-11
JP5750136B2 (en) 2015-07-15

Similar Documents

Publication Publication Date Title
JP5750136B2 (en) Rendering method and apparatus
US7839402B2 (en) Virtual endoscopy
US7840051B2 (en) Medical image segmentation
US7349563B2 (en) System and method for polyp visualization
US7304644B2 (en) System and method for performing a virtual endoscopy
CN101015462A (en) Method and apparatus for post-processing of a 3D image data record, in particular for virtual colonography
EP1884894A1 (en) Electronic subtraction of colonic fluid and rectal tube in computed colonography
CA2612223A1 (en) System and method for computer aided polyp detection
Mayer et al. Hybrid segmentation and virtual bronchoscopy based on CT images1
JP2008509773A (en) Flexible 3D rotational angiography-computed tomography fusion method
US20060187221A1 (en) System and method for identifying and removing virtual objects for visualization and computer aided detection
US20120296771A1 (en) Method and system for filtering image data and use thereof in virtual endoscopy
US20060047227A1 (en) System and method for colon wall extraction in the presence of tagged fecal matter or collapsed colon regions
KR20140054087A (en) Method and system for performing rendering
US8213696B2 (en) Tissue detection method for computer aided diagnosis and visualization in the presence of tagging
US20110285695A1 (en) Pictorial Representation in Virtual Endoscopy
US20070106402A1 (en) Calcium cleansing for vascular visualization
Turlington et al. Improved techniques for fast sliding thin-slab volume visualization
Ko et al. Interactive polyp biopsy based on automatic segmentation of virtual colonoscopy
CN116648719A (en) Suppression of marking elements in medical images
WO2005002432A2 (en) System and method for polyp visualization
WO2009009145A9 (en) Tissue detection method for computer aided diagnosis and visualization in the presence of tagging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120502

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130717

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5323486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250