JPS6324478A - Generation of 2-d data display for indicating 3-d data set - Google Patents

Generation of 2-d data display for indicating 3-d data set

Info

Publication number
JPS6324478A
JPS6324478A JP62089980A JP8998087A JPS6324478A JP S6324478 A JPS6324478 A JP S6324478A JP 62089980 A JP62089980 A JP 62089980A JP 8998087 A JP8998087 A JP 8998087A JP S6324478 A JPS6324478 A JP S6324478A
Authority
JP
Japan
Prior art keywords
volume
video
voxel
voxels
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62089980A
Other languages
Japanese (ja)
Other versions
JPH0727576B2 (en
Inventor
ロバート・ドレビン
ローレン・シイ・カーペンター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixar
Original Assignee
Pixar
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixar filed Critical Pixar
Publication of JPS6324478A publication Critical patent/JPS6324478A/en
Publication of JPH0727576B2 publication Critical patent/JPH0727576B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は三次元データセットを表す二次元データ表示を
発生する方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a method for generating two-dimensional data representations representing three-dimensional data sets.

〔従来の技術〕[Conventional technology]

広い範囲の最近の応用においては、対象とするボリュー
ムすなわち物体の三次元可干渉性を観察することが望ま
しい。実在の三次元(3D)固体の映像を発生する場合
には、3Dボリユームおよびそれの内容の個々の平面状
横断面を見ることが元来可能であるだけである。内面と
物体の表面、境  、界、境界面、ボリューム内の見間
関係を分離して、視覚的に識別できるように3Dボリユ
ームを見ることは典型的には可能でない。
In a wide range of modern applications, it is desirable to observe the three-dimensional coherence of a volume or object of interest. When generating images of real three-dimensional (3D) solid bodies, it is originally only possible to view individual planar cross-sections of the 3D volume and its contents. It is typically not possible to view a 3D volume in a visually discernible manner by separating the interior surfaces, surfaces of objects, boundaries, boundaries, interfaces, and spatial relationships within the volume.

たとえば、医療分野におぐる映像発生においては、コン
ピュータ・グラフィック表示装置上の三次元表現により
解剖学的構造を視覚化できることが極めて望ましい。コ
ンピユータ化した断層(CT)走査から正確で、量感の
ある解剖学的モデルを発生できる性能は、外科診療(外
科処置を計画するため、棟たは試験的な手術を行う必委
なしに解剖学的構造の詳細を表すために構造を表示する
ような)として極めて貴重なものである。したがって、
病理学的構造の3D的形、寸法および相対的な位置によ
υ外科治療の計画、診断および処置のために重要なデー
タが与えられる。
For example, in video generation in the medical field, it is highly desirable to be able to visualize anatomical structures through a three-dimensional representation on a computer graphics display. The ability to generate accurate, voluminous anatomical models from computerized tomographic (CT) scans makes it possible to develop accurate, voluminous anatomical models in surgical practice (to plan surgical procedures, without the need to conduct ridges or pilot surgeries). It is extremely valuable as a display (such as displaying a structure to show the details of a structural structure). therefore,
The 3D shape, dimensions and relative positions of pathological structures provide important data for surgical treatment planning, diagnosis and treatment.

実’Hの3Dボリユームのコンピュータによるシミュレ
ーションは、CT走青のような平面状断面データからの
3D構造を再構成する能力に依存する。それらの走査お
よびその他の走査により、ボIJニーム要素(ボクセル
(voxel) )  より成る3D密度映像ボリュー
ムを映像処理のための入力データとして利用できるよう
にするデータが得られる。不幸なことに、そのような入
力映像ボリュームは、抽出されたボリュームを正確に表
現するために望まれる細部レベルと比較して低分解能で
あるのが普通である。
Computer simulations of real 3D volumes rely on the ability to reconstruct 3D structures from planar cross-sectional data such as CT scans. These and other scans yield data that allows a 3D density image volume consisting of voxels to be used as input data for image processing. Unfortunately, such input video volumes typically have low resolution compared to the level of detail desired to accurately represent the extracted volume.

〔問題点〕〔problem〕

たとえば、Cで走査映像ボリュームにおいては、ボクセ
ルはX線減衰、または表面上を横切る境界を含めてボリ
ューム全体にわたる他の映像ボリュームデータを表す。
For example, in a scanned image volume at C, voxels represent x-ray attenuation or other image volume data throughout the volume, including boundaries across the surface.

ボクセルは1つの「一様な」値を割当てられるが、考察
の対象としている物体内の境界のいずれかの側に境界物
質および個別物質が存在する。したがって、ある縁部に
沿うボクセルはその縁部の両側にわたって延長する標本
である。更に、(骨のような)物体が1ボクセル幅より
細いとすると、その骨についての境界情報を与えるボク
セルの分解能は非常に低い。したがって、あるボクセル
内の境界の形は容易には決定されない。
Although a voxel is assigned one "uniform" value, there is boundary material and discrete material on either side of the boundary within the object under consideration. Thus, a voxel along an edge is a specimen that extends across both sides of that edge. Furthermore, if an object (such as a bone) is thinner than one voxel wide, the voxel resolution that provides boundary information about the bone is very low. Therefore, the shape of the boundaries within a voxel is not easily determined.

ボリューム内の表面境界を近似するために種々の技術が
用いられている。1つの良く知られている技術は「しき
い値を定める」方法である。しきい値を定める方法にお
いては、境界を横切るボクセルが、その境界のいずれか
の側における1つの物質の種類または別の物質のa類で
構成されているものとして分類される。したがって、投
写された可視境界は2進で分類されたボクセル境界にな
る。
Various techniques have been used to approximate surface boundaries within a volume. One well-known technique is the "thresholding" method. In the thresholding method, voxels across a boundary are classified as being composed of class a of one material type or another material type on either side of the boundary. Therefore, the projected visible boundary becomes a binary classified voxel boundary.

ボクセルが大きくなるほど、しきい値を定める技術によ
りひき起される誤差が大きくなる。更に、高密度で、狭
い間隔をおいて隔てられている表面境界をグする粗い映
像に対しては、しきい値を定める技術では得られる結果
が一層悪くなるから、その結果として発生される映像は
ますます不正確になる。しきい値を定める技術によシ得
た結果から一層正確な近似を得るために、後の近似技術
が時に用いられる。しかし、未知の表面を近似しようと
いう試みにより、非常に不正確な結果が生ずる。その理
由は、それらの近似がボクセルの最初の2進分類に依存
するからである。
The larger the voxel, the greater the error introduced by the thresholding technique. Furthermore, for coarse images that map dense, closely spaced surface boundaries, thresholding techniques yield even worse results; becomes increasingly inaccurate. Later approximation techniques are sometimes used to obtain a more accurate approximation of the results obtained by the thresholding technique. However, attempts to approximate unknown surfaces produce highly inaccurate results. The reason is that their approximations depend on the initial binary classification of the voxels.

選択された静止図または回転図からボリューム内の全て
のデータを同時に見ることができることも極めて望まし
い。すなわち、ボリュームの中心を見ること、およびボ
リューム内の物体と隠されている表面(したがって内部
境界および内面)を検出することが極めて望ましい。そ
のために、希望する時に、妨げている物体を部分的に通
して見ることができること(たとえば、筋肉によシ囲ま
れている骨の場合には、その骨を囲んでいる筋肉はもち
ろん、その骨も観察できること)が必要である。従来の
技術では、あるビクセルが与えられた材料で作られてい
るか否かについての2進判定を行わせるボリューム要素
を表示する。2進分類では連続映像関数が保持されない
から、2進分類では別の(すなわち、標本化)誤差が生
ずる。2進分類により生ずる誤差は、公然されたボリュ
ームから元の映像ボリュームを再構成する任意の試みに
対して生ずる。再構成された映像は存在する材料の数と
同数の輝反レベルを有することができるだけであるから
、材料の界面がぎざぎざにされ、輝反は元の映像関数を
表ぜ;ケい。
It is also highly desirable to be able to simultaneously view all data within a volume from a selected static or rotating view. That is, it is highly desirable to see the center of a volume and to detect objects and hidden surfaces (and thus internal boundaries and interior surfaces) within the volume. To this end, it is necessary to be able to see partially through the obstructing object when desired (for example, in the case of a bone surrounded by muscles, the surrounding muscles as well as the It is necessary to be able to observe the Conventional techniques display volume elements that allow a binary decision to be made as to whether a certain pixel is made of a given material. Because binary classification does not preserve continuous video functions, binary classification introduces additional (ie, sampling) errors. Errors caused by binary classification occur on any attempt to reconstruct the original video volume from the revealed volume. Since the reconstructed image can only have as many bright reflection levels as there are materials present, the material interfaces are jagged and the bright reflection represents the original image function;

〔発明の概要〕[Summary of the invention]

本発明の映像装置により、ボリュームの内部の表面境界
と物体が容易に示され、隠されている表面および表面境
界自体が正確に表示されるような、三次元(3D)ボリ
ュームの二次元(2D)表現を投写する装置と方法を提
供するものである。また、発生された二次元映像は、対
象とする入力映像ボリュームの標本化分解能と園じ分解
能を持つことができる。これは、ボクセルの「部分的ボ
リューム」を決定する実現方法によって行われる。部分
的なボリューム決定により、選択された色と不透明度(
opacities)を、映像データボリュームで表現
されている種々の材料(すなわち、データ成分〕に対し
て、映像ボリュームの各ボリューム内で表されている材
料のパーセント紐取を基にして割当てる。しきい値を定
める技術を用いるような従来の装置とは異な9、本発明
の映像発生技術は精度が高く、ボクセル当9の映像ボリ
ュームとは独立している高い鮮明度が得られる。
With the imaging device of the present invention, surface boundaries and objects inside the volume are easily shown, and hidden surfaces and surface boundaries themselves are accurately displayed. ) provides an apparatus and method for projecting representations. In addition, the generated two-dimensional image can have the sampling resolution and gardening resolution of the target input image volume. This is done by an implementation method that determines the "partial volume" of the voxel. Partial volume determination allows the selected color and opacity (
opacity) to the various materials (i.e., data components) represented in the video data volume based on the percentage of material represented within each volume of the video volume. Unlike conventional devices that use techniques to determine the image quality, the image generation technique of the present invention is highly accurate and provides high definition that is independent of the image volume per voxel.

ボリューム物体またはデータ構造を表す映像ボリューム
は画像記憶装置に書込まれる。色と不透明度がボリュー
ム内の各ボクセルに割当てられ、赤(R)、緑(G)、
青(B)および不透明度(A)成分、三次元データボリ
ュームとして格納される。各ボリュームに対するRGB
A割当ては、ボリューム内で衣されている材料のパーセ
ント成分組成を基にして、したがって、それらの材料に
関逐する色および透明さのパーセンl’(100%基準
材料の色の値と透明さの(i )を基にして決定される
。M、分チャネルボリュームに対して画像記憶装置に格
納アレイされているそのようなボクセルのことを、この
明細書ではRGBA ボクセルと呼ぶこともある。
A video volume representing a volume object or data structure is written to an image storage device. A color and opacity are assigned to each voxel in the volume, red (R), green (G),
Blue (B) and opacity (A) components, stored as a three-dimensional data volume. RGB for each volume
The A assignment is based on the percent component composition of the materials coated within the volume, and therefore the percent color and transparency l' associated with those materials (the color value and transparency of the 100% reference material). Such voxels that are stored and arrayed in the image storage device for the M, minute channel volume are also referred to herein as RGBA voxels.

次に、RGBAボリューム内のボクセルは数学的「ゲル
(gel) Jすなわちフィルタとして用いられて、引
き萩〈ボクセルフィルタが従来の背景ボクセルフィルタ
の上に重ねられるようにする。
The voxels within the RGBA volume are then used as a mathematical "gel" filter, such that the voxel filter is superimposed on top of the conventional background voxel filter.

直線補間によシ、新しい背景フィルタが決定され、発生
される。その補間は、図の平面に対して最も前方のボク
セルまで、全てのボクセル(またはボクセルの群、たと
えばボリューム走査線〕に対して連続して実行される。
In addition to linear interpolation, a new background filter is determined and generated. The interpolation is performed successively for all voxels (or groups of voxels, e.g. volume scan lines) up to the most anterior voxel with respect to the plane of the drawing.

この方法は、図の平面に対して全ての表示ボクセルが決
定されるまで繰返えされる。
This method is repeated until all visible voxels have been determined for the plane of the view.

本発明の再構成方法によυ、映像ボリュームデータが粗
かったり、標本化違反が低かったりしたために従来は表
現を見ることができなかった場合にも、個々のデータボ
リューム内の物体の表面の詳細を抽出し、表示すること
ができるような、ボリュームの二次元投写を行うもので
ある。本発明は、全ての表面境界が明確、かつ正確に定
められるように、ボリューム内の隠さ、えている表面を
視覚化するものである。
The reconstruction method of the present invention allows υ to reconstruct the surfaces of objects within individual data volumes, even in cases where representations could not previously be seen due to coarse video volume data or low sampling violations. It provides a two-dimensional projection of a volume so that details can be extracted and displayed. The present invention visualizes hidden and hidden surfaces within a volume so that all surface boundaries are clearly and precisely defined.

したがって、複雑なボリュームデータセットすなわち物
体が与えられ、各ボクセルに対して成分材料の組成のパ
ーセントを児出すとさにより、各ボリューム内の境界の
場所についての特定の情報が最初に与えられることなし
に、複雑な映像を表示することが可能である。それによ
り、本発明の方法と装置は、幾何的な固体モデルの諸特
徴を有することができる部分的な透明さと色を用いて、
3Dボリユームのffiな投写を作ることが可能である
。他の物体を部分的に隠す物体を見ることができ、物体
の間の空間関係を正確に表示できる。
Therefore, given a complex volumetric data set, i.e. an object, it is possible to calculate the percentage of the composition of the constituent materials for each voxel without first being given specific information about the location of the boundaries within each volume. It is possible to display complex images. Thereby, the method and apparatus of the invention utilizes partial transparency and color that can have the characteristics of a geometric solid model.
It is possible to create ffi projections of 3D volumes. Objects that partially obscure other objects can be seen and spatial relationships between objects can be accurately displayed.

〔′A施例〕['A Example]

以下、図面を参照して本発明の詳細な説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings.

以下に行う詳細な説明は、主として、あるコンピュータ
記憶装置か内のデータピッ°トについてのオペレーショ
ンのアルゴリズムおよび記号的な表現についてのもので
ある。アルゴリズム的な説明および表現は、データ処理
技術に通じている人が自己のQ Fitを同揮分野の他
の人たちに最も効果的に伝えるだめの手段である。
The detailed description that follows is primarily of algorithms and symbolic representations of operations on data pits within a computer storage device. Algorithmic description and representation are the means by which those skilled in the data processing arts most effectively convey their Q Fit to others in the field.

アルゴリズムというのは、ここでは、希望の結果をもた
らす一連の自己完結過程であると理解されたい。それら
の過程は物理ftの物理的取扱いを必要とするものであ
る。通常は、それらの物理量は、格納、送り、組合わせ
、比較およびその他の取扱いを行うことができる電気信
号または磁気信号の形をとるが、必ずしもそのような形
をとるとは限らない。主として一般的に便用するという
理由から、それらの信号をビット、頭、要素、記号、キ
ャラクタ、項、数等と呼ぶと便利なことがあることが判
明している。しかし、それら全ての用語およびそれらに
類似する用語は適切な物理量に関連すべきものであり、
それらの1に付される単なるレッテルであることを憶え
ておくべきである。
An algorithm is understood here as a series of self-contained processes that lead to a desired result. Those processes are those that require physical handling of physical ft. Usually, but not necessarily, these quantities take the form of electrical or magnetic signals capable of being stored, transmitted, combined, compared, and otherwise manipulated. It has proven convenient at times, principally for reasons of common convenience, to refer to these signals as bits, heads, elements, symbols, characters, terms, numbers, or the like. However, all these and similar terms should relate to appropriate physical quantities,
It should be remembered that it is just a label attached to one of them.

更に、実行される取扱いは、オペレータにより実行され
る精神的作業に一般的に関連する加え合わせまたは比較
のようなものを指すこともしげしげある。しかし、本発
明を構成するここで説明するいずれのオペレーションに
おいても、はとんどの場合にはオペレータがそのような
ことを実行できることは必要でなく、または望ましいこ
とでもない。それらのオペレーションは機械にょシ実行
されるオペレーションである。本発明のオペレーション
を実行するのに有用な磯誠には汎用デジタルコンピュー
タまたはそれに類似の装置である。
Furthermore, the operations performed may also refer to things like additions or comparisons that are commonly associated with mental tasks performed by an operator. However, in any of the operations described herein that constitute the present invention, it is not necessary or desirable in most cases for an operator to be able to do so. Those operations are machine-executed operations. An Isosei device useful in carrying out the operations of the present invention is a general purpose digital computer or similar device.

あらゆる場合に、コンピュータの動作方法およびコンピ
ュータを動作させる方法と、コンピュータ自体の計算方
法の違いに注目すべきである。本発明は、他の希望の物
理的信号を発生させるために、電気信号または他の物理
的(たとえば機械的または化学的〕信号の処理において
コンピュータを動作させる方法に関するものである。
In all cases, it should be noted the difference between the way computers operate and how they operate, and the way the computer itself calculates. The present invention relates to a method of operating a computer in the processing of electrical or other physical (e.g. mechanical or chemical) signals to generate other desired physical signals.

本発明は、それらの動作を実行する方法にも関するもの
である。この装置は要求されている目的のためにとくに
構成でき、またはコンピュータに内蔵されているプログ
ラムによシ選択的に起動または再構成できるものとして
汎用コンピュータを備えることができる。ここで述べる
アルゴリズムは特定のコンピュータその他の装置に固有
に関連するものではない。とくに、本発明には各種の汎
用機を便用でき、または要求された方法過程を実行する
だめに一膚特殊な装置を便用することが便利であること
も判明している。
The invention also relates to a method of performing those operations. The apparatus may be specifically configured for the required purpose, or it may include a general purpose computer that can be selectively activated or reconfigured by a program contained within the computer. The algorithms described herein are not inherently related to any particular computer or other apparatus. In particular, it has been found convenient to use a variety of general-purpose machines or even more specialized equipment to carry out the required method steps.

ボクセルというのは三次元ボリューム44する三次元要
素を指すのに便利であるから時に用いているが、ボクセ
ルは三次元空間内の点を定めるものであることを理解す
べきである。
Although the term voxel is sometimes used for convenience to refer to a three-dimensional element of a three-dimensional volume 44, it should be understood that a voxel defines a point in three-dimensional space.

本発明を児全に理解できるようにするために、以下の説
明においては、アルゴリズムの規約、ビットの特定の数
のような特定の事項の詳細について数多く述べである。
In the following description, numerous details are set forth regarding algorithmic conventions, specific numbers of bits, etc., in order to provide a thorough understanding of the invention.

しかし、そのような特定の詳+1fl事項なしに本発明
を実施できることが桶業者には明らかであろう。その他
の場合には、本発明を不必要に詳しく説明して本発明を
あいまいにしないようにするだめに、周知の回路および
構造は説明しない。
However, it will be apparent to one skilled in the art that the present invention may be practiced without such specific details. In other instances, well-known circuits and structures have not been described in order to avoid obscuring the present invention in unnecessary detail.

システムアーキテクチャ 本発明のシステムアーキテクチャが第1図に示されてい
る。本発明の好適な実施例においては、本発明の映像装
置は、ビットマツプ端末装置12と装置バス14に結合
されたホストコンピュータ10を肩する。装置バス14
はチャネルプロセッサ16と、記憶装置制御器18と、
ビデオ制御器20とに結合される。記憶装置制御器18
はチャネルプロセッサ16とビデオ制御器20および画
像記憶装[26へ結合される。ビデオ制御器20はビデ
オバス28を介して画像記憶装置26へ結合される。チ
ャネルプロセッサ16は画像バス24を介して画像記憶
装置26へ結合ぢれる。カラーモニタ22その他の出力
装置がビデオ卸J御器20へ結合される。
System Architecture The system architecture of the present invention is shown in FIG. In the preferred embodiment of the present invention, the video system of the present invention hosts a host computer 10 coupled to a bitmap terminal 12 and a device bus 14. device bus 14
is a channel processor 16, a storage device controller 18,
A video controller 20 is coupled to the video controller 20 . Storage device controller 18
is coupled to channel processor 16, video controller 20 and image storage [26]. Video controller 20 is coupled to image storage 26 via video bus 28. Channel processor 16 is coupled to image storage 26 via image bus 24. A color monitor 22 or other output device is coupled to the video controller 20.

チャネルプロセッサ16に並列処理コンピュータ装置を
構敢する。本発明の詳細な説明している実施例において
は、チャネルプロセッサ16に4個の16ビツト並列プ
ロセッサか用いられる。本発明では4個の並列プロセッ
サを用いることがM利であることか見出されているが、
本発明の要旨を逸脱することなしに任意の数のプロセッ
サを便用できることは明らかであろう。
The channel processor 16 is a parallel processing computer device. In the detailed described embodiment of the invention, channel processor 16 employs four 16-bit parallel processors. In the present invention, it has been found that it is advantageous to use four parallel processors, but
It will be apparent that any number of processors may be used without departing from the spirit of the invention.

ビットマツプ端末装置12は本発明の使用者が利用でき
る複数のメニューを表示する。ここで説明している実施
例においては、ホストコンピュータ10は画像記憶装置
26に格納されている画像データから発生されたヒスト
グラムを取扱うために用いられる。ホストコンピュータ
10に格納され、ヒストグラム中の各ピーク4度の場所
に対して割当てられた色の値と不透明度の値を含んでい
る探索表をホストコンピュータ10に格納できる。
Bitmap terminal 12 displays a number of menus available to a user of the invention. In the embodiment described herein, host computer 10 is used to manipulate histograms generated from image data stored in image storage device 26. A lookup table can be stored in the host computer 10 that includes color values and opacity values assigned to each peak 4 degree location in the histogram.

また、使用者が定めた色の値と不透明度の頭金決定でき
るように、ビットマツプ端末装置12にヒストグラムを
表示するためにホストコンピュータ10を用いることが
できる。本発明においては16ビツト並列プロセッサを
用いるが、8ビツト、32ピツトまたは他の任意のサイ
ズのプロセッサも利用できる。したがって、要求に応じ
て他のピットサイズの装置バスを使用できる。
The host computer 10 can also be used to display a histogram on the bitmap terminal 12 so that the user can make down payments on defined color values and opacity. Although a 16-bit parallel processor is used in the present invention, 8-bit, 32-bit, or any other size processor could be used. Therefore, device buses of other pit sizes can be used as required.

ビデオ制御器20はカラーモニタ22に対して垂直同期
および水平同期をとり、かつスクリーンデータを表示す
るためにパン7ア記憶装置も含む。
Video controller 20 provides vertical and horizontal synchronization to color monitor 22 and also includes pan storage for displaying screen data.

ビデオ制御器20はデジタル信号をモニタ22に表示す
るために適当なビデオ信号に変換するデジタル−アナロ
グ(d/a)変換器を含む。また、ビデオ制御器22は
各RGBチャネルのための探索表も含む。たとえば、赤
(R)チャネルの12ピツトデジタル語が探索表を介し
てマツプされ、独特・の赤色値が出力され、カラーモニ
タ22に表示される。前記したように、各チャネルR,
G、Bに探索表が設けられる。ビデオ制御器20は三値
入力−三値出力変換器として機能する。その三値入力−
三値出力変換器によりガンマ補正を行う。ここで説明し
ている実施例においては、ビデオバス28は12ピツト
単位に分割でき、1秒間当シ少くとも420メガバイト
まで動作するバスである。
Video controller 20 includes a digital-to-analog (D/A) converter that converts the digital signal to a video signal suitable for display on monitor 22. Video controller 22 also includes lookup tables for each RGB channel. For example, a 12-pit digital word in the red (R) channel is mapped through a lookup table and a unique red value is output and displayed on color monitor 22. As mentioned above, each channel R,
Search tables are provided in G and B. Video controller 20 functions as a ternary input-to-ternary output converter. The three-value input
Gamma correction is performed using a three-value output converter. In the embodiment described herein, video bus 28 is a bus that is divisible into 12 pit units and operates at least 420 megabytes per second.

この実施例においては、画像バス24は1秒間幽り24
0メガバイトで動作する。
In this embodiment, the image bus 24 is dimmed 24 for one second.
It runs on 0 megabytes.

本発明のカラーモニタ22としては480〜1125本
の走査線を有する任意の商用カラーモニタを使用できる
。本発明は高分解能および多数走査線のモニタを動作で
きる速度および性能を有する。
The color monitor 22 of the present invention can be any commercially available color monitor having 480 to 1125 scan lines. The present invention has the speed and performance to operate high resolution and multiple scan line monitors.

画像記憶装置26は、原映像データと、分類データ、色
、不透明度データおよび複合RGBAボリュームデータ
を格納するために利用されるランダムアクセスメモリ(
RAM)である。画像記憶装置26が第2図に詳しく示
されている。前記したように、各ボクセルは4個の12
ビツトデジタル梧により表される。画1象記憶装置26
の1つの部分である原ボリューム記憶装置26(a)が
データをそれの原形で格納する。ここで説明している実
施例においては、原データの格納のために約4000万
ビツトが専用される。原映像ボリュームデータが一連の
12ピツト語として格納される。その各12ピツト語は
原ボクセル・ボリュームの1つのボクセルの輝度レベル
を表す。RGBAボリュームが発生された後で、そ乳ら
のRGBAボリュームはRGBAボリューム記憶装置2
6(b)に格納される。各色値は12ピツト語により表
さ牡、不透明度Aも12ピツト語により表わされる。し
たがって、RGBAボリューム記憶装置内の各ボクセル
は4個の12ピツト語により表される。本発明の詳細な
説明している実施例においては、記憶装置の1億6千万
ビツトがRGBA  ボリューム記憶装置26(b)に
専用される。二次元投写記憶装置26 (d)に複合ボ
クセルが格納される。前記したように、RGBAボリュ
ームデータの連結から組合わせボクセルが発生される。
The image storage device 26 includes random access memory (RGB) used to store original video data, classification data, color, opacity data, and composite RGBA volume data.
RAM). Image storage device 26 is shown in greater detail in FIG. As mentioned above, each voxel consists of four 12
Represented by Bit Digital Go. Image storage device 26
The original volume storage 26(a), which is a part of the , stores data in its original form. In the embodiment described herein, approximately 40 million bits are dedicated to storing raw data. The original video volume data is stored as a series of 12 pit words. Each of the 12 pit words represents the brightness level of one voxel of the original voxel volume. After the RGBA volume is generated, the RGBA volume of Sochi et al. is stored in the RGBA volume storage device 2.
6(b). Each color value is represented by 12 pit words, and the opacity A is also represented by 12 pit words. Therefore, each voxel in the RGBA volume storage is represented by four 12-pit words. In the detailed described embodiment of the invention, 160 million bits of storage are dedicated to RGBA volume storage 26(b). Composite voxels are stored in a two-dimensional projection storage device 26 (d). As mentioned above, combined voxels are generated from the concatenation of RGBA volume data.

画像記憶装置26は一時的ワークスペース記憶装置12
6(C)も含む。画像記憶装置26の種々の部分中のビ
ットの数について述べたが、本発明を実施するために適
当な任意のビット数の記憶装置を利用できることが当業
者には明らかであろう。
Image storage 26 is temporary workspace storage 12
6(C) is also included. Although the number of bits in the various portions of image storage 26 have been described, it will be apparent to those skilled in the art that any suitable number of bits of storage may be utilized to implement the present invention.

再び第1図を参照して、画像記憶装置26に対する全て
のアクセスを仲裁するために記憶装置制御器18が用い
られる。記憶装置制御器18は画像バス24を介してデ
ータを画像記憶装置26に書込むことができるようにす
る。
Referring again to FIG. 1, storage controller 18 is used to arbitrate all accesses to image storage 26. Storage controller 18 enables data to be written to image storage 26 via image bus 24 .

ボクセルの分類を行うために用いるヒストグラムを発生
するためにチャネルプロセッサ16が用いられる。チャ
ネルプロセッサ16が@3図に詳しく示されている。こ
のチャネルプロセッサはスクラッチパドメモリ17と、
41固の掛算器/算術論理装置(ALU)15a〜15
d  とを有する。ここで説明している実施例において
は、スクラッチパドメモリ17は64にの16ビツト語
記憶場所を含む。チャネルプロセッサ16は、掛算器/
ALU対によυ取扱うデータを一時的に格納するために
スクラッチバドメモリ17を用いる。各掛算5/ALU
対15a〜15dは、チャネルプロセッサを構成する4
個のプロセッサの1つに専用される。この並列技術によ
シ同じ命令をη々のデータに対して実行できることがで
きる。そのシステムはこの分野において1命令、多デー
タ流(SIMD)システムと呼ばれる。そのような1命
令、多データ流システムが、本願出願人が研石する19
85年6月24日付の米国特許用S第748,409号
明細書に詳しく記載されている。ここで説明している実
施例においては、1つのチャネルがボクセルの赤(R)
値に利用され、1つのチャネルがボクセルの緑(G)値
に利用され、1つのチャネルがボクセルの’fl?(B
)値に利用され、1つのチャネルがボクセルの不透明度
赤(A)値に利用される。
A channel processor 16 is used to generate histograms used to perform voxel classification. The channel processor 16 is shown in detail in Figure @3. This channel processor includes a scratch pad memory 17,
41 multiplier/arithmetic logic unit (ALU) 15a-15
d. In the embodiment described herein, scratch pad memory 17 includes 64 16-bit word storage locations. The channel processor 16 includes a multiplier/
A scratchpad memory 17 is used to temporarily store data handled by the ALU pair. Each multiplication 5/ALU
Pairs 15a to 15d are the four pairs forming the channel processor.
dedicated to one of the processors. This parallel technique allows the same instruction to be executed on η different pieces of data. The system is referred to in the art as a single instruction, multiple data stream (SIMD) system. Such a one-instruction, multi-data flow system is developed by the applicant.
It is described in detail in U.S. Pat. No. 748,409, dated June 24, 1985. In the example described here, one channel is the red (R) of the voxel.
one channel is used for the voxel's green (G) value, and one channel is used for the voxel's 'fl?' value. (B
) values and one channel is used for the voxel opacity red (A) values.

原映像ボリュームデータがホストコンピュータ10に読
込まれた時に処理装置の初期設定が行われる。原映像ボ
リュームデータは圧縮された形で送ることができるから
、復号と伸長を必要とする。
When the original video volume data is read into the host computer 10, initial settings of the processing device are performed. Since the original video volume data can be sent in compressed form, it requires decoding and decompression.

また、データのソースに応じて、生のデータのビット/
ヒフセル分解能は、本発明の好適な12ビット/ピクセ
ル分解能に合致しないことがある。
Also, depending on the source of the data, the bits/bits of raw data
The high cell resolution may not match the preferred 12 bits/pixel resolution of the present invention.

したがって、要求があれば、ホストコンピュータまたは
チャネルプロセッサは原映像データを許容できる分解能
まで分解能を高くすることができる。
Therefore, if desired, the host computer or channel processor can increase the resolution of the original video data to an acceptable resolution.

それから、ホストコンピュータ10は原映像データを装
置バス14を介してチャネルプロセッサ16に出力する
。そうするとチャネルプロセッサ16は原映像データを
画像バス24を弁して画像記憶装置16の原映像ボリュ
ーム記憶装置26に書込む。
Host computer 10 then outputs the original video data to channel processor 16 via device bus 14. Channel processor 16 then writes the original video data to original video volume storage 26 of image storage 16 via image bus 24 .

希望によっては、または必要があれば、原映像ボリュー
ムがチャネルプロセッサ16により分類される。原ボリ
ューム記憶装@26からの走査線が画像バス24を介し
てチャネルプロセッサ16に入力される。チャネルプロ
セッサ16は2049種類の定めることができるNL民
レベルの各輝度レベルにあるボクセルの数をカウントし
てヒストグラムを発生する。それから、チャネルプロセ
ッサ16は、以前に定められた探索表またはプログラム
階層に従ってピークを分類できる。また、分類を使用者
により手動で実行できるように、ヒストグラムはホスト
コンピュータ10によりピットマツプ端末装置12に表
示できる。
If desired or necessary, the original video volume is classified by channel processor 16. Scan lines from the original volume store @26 are input to the channel processor 16 via the image bus 24. The channel processor 16 generates a histogram by counting the number of voxels at each brightness level of the 2049 possible NL levels. Channel processor 16 can then classify the peaks according to a previously defined lookup table or program hierarchy. The histogram can also be displayed on the pit map terminal 12 by the host computer 10 so that the classification can be performed manually by the user.

分類の後で、分類データが装置バス14を介してチャネ
ルプロセッサ16、とくにスクラツテバドメモリ17へ
送られる。チャネルプロセッサはホストコンピュータか
らの分類データを基にして複数の探索表(ルックアップ
テーブル)を計算する。スクラッチバドメモリ17は、
RGB@と不透明度値を分類されたボクセルに割当てる
ことができるように、複数の探索衣を含む。チャネルプ
ロセッサ16は記憶装置制御器から1度に1本の走査線
(ボクセルの一次元アレイ)を要求し、格納されている
探索表を通じてその走企欅を処理する。チャネルプロセ
ッサ探索衣への入力は白黒の走査線であシ、出力はRG
BA分類された走査線である。チャネルプロセッサ16
のスクラッチパドメモリ17は出力分類のために少くと
も3個のバソファ、すなわち、走査線バッファと、探索
表バッファと、出力分類のための出力バッファとを含む
。探索表に関連して説明したが、本発明においては色値
を割当て、または発生する適当な任意の方法を利用でき
る。
After classification, the classification data is sent via device bus 14 to channel processor 16, in particular to scrubber memory 17. The channel processor calculates a plurality of lookup tables based on classification data from the host computer. Scratchbud memory 17 is
It includes multiple search clothes so that RGB@ and opacity values can be assigned to the classified voxels. Channel processor 16 requests one scan line (one dimensional array of voxels) at a time from the storage controller and processes the scan lines through a stored lookup table. The input to the channel processor search cloth is a black and white scanning line, and the output is RG.
This is a scanning line classified as BA. Channel processor 16
The scratch pad memory 17 includes at least three buffers for output classification: a scan line buffer, a lookup table buffer, and an output buffer for output classification. Although described in connection with lookup tables, any suitable method of assigning or generating color values may be utilized in the present invention.

出力バッファからの出力が画像バス24を介して画像記
憶装e26のRGBAボリューム記憶装置26 (b)
へ結合される。原映像ボリュームの各スライスがプレイ
としてRGBAボリューム記憶装置26の)に格納され
る。本発明の「連結された濾波(concatenat
ecl filtering) J  がチャネルプロ
セッサ16により実行される。背景映像ボリュームが、
1度に1本の走査線ずつ、チャネルプロセッサのスクラ
ッチパドメモリ17に最初に読込まれる。引き続く各映
像ボリュームがチャネルプロセッサ16に読込まれると
、RGBA値が掛算器/ALUiSa〜15dにより連
結させられる。
The output from the output buffer is transferred via the image bus 24 to the RGBA volume storage device 26 of the image storage device e26 (b)
is combined with Each slice of the original video volume is stored as a play in RGBA volume storage 26). The “concatenated filter” of the present invention
ecl filtering) J is executed by the channel processor 16. The background image volume is
One scan line at a time is initially read into the channel processor's scratch pad memory 17. As each successive video volume is read into the channel processor 16, the RGBA values are concatenated by multipliers/ALUiSa~15d.

この複合映像ボリュームが画像記憶装置26の投写記憶
装置26(d)に格納される。
This composite video volume is stored in projection storage 26(d) of image storage 26.

複合映像を表示するために、投写記憶装置26(d)の
内容がビデオバス28を介してビデオ制御器20へ出力
される。投写記憶装置26(d)に格納されたデジタル
データはビデオ制御器20によりビデオアナログデータ
に変換されてから色モニタ22へ出力され、その色モニ
タにおいてはラスク走査のようにして表示される。
The contents of projection storage 26(d) are output via video bus 28 to video controller 20 for displaying the composite image. The digital data stored in the projection storage device 26(d) is converted into video analog data by the video controller 20 and then output to the color monitor 22, where it is displayed in a rask scan manner.

部分ボリューム 分類 映像ボリューム、すなわち、三次元映像を表す画像要素
のボリューム(ボクセル)がホストコンピュータ10に
読込まれ、要求されている任意の復号すなわち伸長を行
われた後で、画像記憶装置26の原映像記憶装置26(
b)に読込まれる。したがって、ここで考慮している物
体、すなわち、2つの二次元アレイのアレイ、を画像記
憶装置内の三次元に順序づけられたアレイと考えること
ができ、および数学的に表すことができる。映像ボリュ
ームは、知られている種々の方法にょシ得ることができ
る処理されない映像アレイとするととができる。
After a partial volume classification video volume, i.e. a volume of image elements (voxels) representing a three-dimensional video, has been read into the host computer 10 and any required decoding or decompression has been performed, the original data in the image storage 26 is Video storage device 26 (
b). Therefore, the object considered here, ie an array of two two-dimensional arrays, can be thought of as a three-dimensional ordered array in an image storage device, and can be represented mathematically. The video volume can be an unprocessed video array that can be obtained in a variety of known ways.

本発明の用途は広いが、例として、コンピユータ化した
断層(CT )映像の三次元表示に関連して本発明を説
明することにする。この場合には順序づげられたCT映
像ボリュームアレイとして表された入力映像ボリューム
データを、各種の断層映像発生方法、たとえばX線コン
ピユータ化断層撮影法、超音波セクター走査、核磁気共
鳴等から得ることができる。他の場合には、地震映像法
またはコンピュータモデルまたは(流体流シミュL/ 
−タのよウナ〕シミュレーションの結果のような他の映
像発生方法を用いて入力映像ボリュームデータを得るこ
とができる。この例における映像ボリュームは二次元映
[象の順序づけられたアレイとして格納され、各映像は
12ビツト数の二次元の順序づけられたプレイである。
Although the invention has wide applications, it will be described by way of example in connection with three-dimensional display of computerized tomography (CT) images. Input image volume data, in this case represented as an ordered CT image volume array, is obtained from various tomographic image generation methods, such as X-ray computerized tomography, ultrasound sector scanning, nuclear magnetic resonance, etc. be able to. In other cases, seismic imaging or computer models or (fluid flow simulation)
Other image generation methods can be used to obtain the input image volume data, such as the results of a simulation. The video volume in this example is stored as an ordered array of two-dimensional images, each image being a two-dimensional ordered play of a 12-bit number.

CT定走査たはその他の映像ボリュームは単色の灰色調
入力データを本発明の映像処理装置へ与える。こ°のC
T入力映像ボリュームデータは、12ビツトの2進数の
順序づけられたアレイとして画像記憶装置26のボリュ
ーム記憶装置26 (a) K格納される。各2進数は
与えられたCT定走査たは他の映像ボリュームデータ(
ボクセル)ヲ表ス。
A CT constant scan or other image volume provides monochrome grayscale input data to the image processing system of the present invention. This C
T input video volume data is stored in volume store 26(a)K of image store 26 as an ordered array of 12-bit binary numbers. Each binary number represents a given CT constant scan or other image volume data (
voxel) table.

ここで説明している実施例においては、CT走査入力に
より与えられる映像ボリュームは、考察している解剖学
的構造中の4つの個々の材料、すなわち、空気、脂肪、
軟組織および骨、についての情報を表すCT走査入力に
より与えられる。
In the example described here, the image volume provided by the CT scan input consists of four individual materials in the anatomy under consideration: air, fat,
It is provided by a CT scan input representing information about soft tissue and bone.

ここで説明している実施例においては、灰色調入力デー
タの強さは原映像発生方法から表された材料のX線の強
さに依存する。第4a図を診照して、各ボクセルに対す
る灰色調の強度データが、映像ボリューム対強度中のボ
クセルの数の分布を与えるヒストグラム30中にプロッ
トされている。
In the embodiment described herein, the intensity of the grayscale input data depends on the x-ray intensity of the material presented from the original image generation method. Referring to FIG. 4a, the gray-scale intensity data for each voxel is plotted in a histogram 30 giving the distribution of the number of voxels in the image volume versus intensity.

このヒストグラム30はチャネルプロセッサ16により
入力映像ボリュームデータから構成される装置バス14
を介してホストコンピュータ10へ送られる。
This histogram 30 is generated by the channel processor 16 on the device bus 14 which is composed of input video volume data.
The data is sent to the host computer 10 via the host computer 10.

灰色調ヒストグラム30は、各灰色調に対して、ある特
定の灰色レベルを有する映像ボリューム中のボクセルの
数を示す関数である。横軸32は灰色レベル強度であっ
て、この例ではO〜2048として示されている。縦軸
34は発生頻度(たとえば、各強度における映像ボリュ
ームのボクセルの数〕である。したがって、ヒストグラ
ムカーブ36の下(111の面積は映像ボリューム中の
ボクセルの総数を表す。
The gray tone histogram 30 is a function that indicates, for each gray tone, the number of voxels in the video volume that have a particular gray level. The horizontal axis 32 is gray level intensity, shown in this example as O~2048. The vertical axis 34 is the frequency of occurrence (eg, the number of voxels in the image volume at each intensity). Therefore, the area under the histogram curve 36 (111) represents the total number of voxels in the image volume.

ヒストグラム30は、ここで説明している実施例におい
ては、CT定走査12ビツトビクセル情報に対応する特
定の映像から得られる。結果として得られたヒストグラ
ムはホストコンピュータ10により、この分野において
広く仰られている低域濾波技術を用いて濾波さnてノイ
ズを除去しくすなわち、人力関数の形を保持しながら、
廊周諷変動を抑制する)、第4a図に示すような滑らか
にされたヒストグラムカーブとなる。
Histogram 30 is obtained from a particular image corresponding to CT constant scan 12-bit pixel information in the embodiment described herein. The resulting histogram is filtered by the host computer 10 using low-pass filtering techniques widely referred to in the art to remove noise, i.e., while preserving the shape of the human function.
This results in a smoothed histogram curve as shown in FIG. 4a.

従来の映像発生装置バスにおいては、全てのボクセルは
単一の材料を100%を表すものとして分類される。し
たがって、従来の技術ケ用いると、各ボクセルに対して
2M分類が行われる。その2進分類においては、特定の
強度領域内の全てのボクセルが、入力映像ボリュームデ
ータにより表されているそれらの材料の一方または他方
として分類される。このCT走査例に従来の技術を用い
ると、ボリュームは骨、脂肪または空気として分類され
る。従来の技術においては、ヒストグラムのピークのあ
る点におけるカットオフとしてしきい値灰色レベルが選
択される。与えられた強度範囲内の全てのボクセルがそ
れにより100%空気、軟組織、骨または脂肪として分
類される。この情報は2ビツト値または1ビツト値とし
て記憶装置に格納される。
In a conventional video generator bus, all voxels are classified as representing 100% of a single material. Therefore, using conventional techniques, a 2M classification is performed for each voxel. In the binary classification, all voxels within a particular intensity region are classified as one or the other of those materials represented by the input video volume data. Using conventional techniques for this example CT scan, the volumes would be classified as bone, fat, or air. In the prior art, a threshold gray level is selected as a cutoff at a point at the peak of the histogram. All voxels within a given intensity range are thereby classified as 100% air, soft tissue, bone or fat. This information is stored in storage as a 2-bit value or a 1-bit value.

CT表示のために、この2進分類はヒストグラムのビー
ク領域に対して適当である。そのピーク領域においては
、ボクセルの内容が1つの個々の材料分類または別の個
々の材料分類に入る。しかし、そのよりな「・・−ド」
分類には、映像ボリューム内の全てのボリュームの材料
分類に関して個々の2進決定を行うことを要する。
For CT display, this binary classification is appropriate for the peak region of the histogram. In that peak region, the contents of the voxel fall into one individual material class or another individual material class. However, more than that, “...-de”
Classification requires making individual binary decisions regarding the material classification of all volumes within the video volume.

たとえば、従来の技術においては、表面境界(−組織が
骨に付着しているような〕において、縁部領域を横切る
ボクセルが骨または組織として分類される。したがって
、ボクセルが表面の間を横切る、または縁部に沿って横
切る、あるいは局部的な材料が1ボクセル幅より小さい
場合には、縁部または表面境界が失われ、表示が不正確
に行われる結果となる。したがって、そのよりな2進値
割当てにより大きい別の誤差を生じて、不正確な表面表
示が行われる結果となる。
For example, in conventional techniques, at a surface boundary (such as tissue attached to bone), voxels that cross the edge region are classified as bone or tissue. Therefore, when a voxel crosses between surfaces, or across an edge, or if the local material is smaller than one voxel wide, the edge or surface boundary is lost, resulting in inaccurate display. The value assignment introduces large additional errors, resulting in inaccurate surface representations.

本発明においでは、ボクセルは、それらのボクセルの関
連する強度に従って、映像ボリューム中で表されている
各材料の種類の0〜100%で構成されるものとしで分
類される。 ・ 次にiJb図を参照する。大きいビークPと大きい谷T
かヒストグラム30内に示されている。
In the present invention, voxels are classified according to their associated intensities as consisting of 0-100% of each material type represented in the image volume.・Next, refer to the iJb diagram. Big beak P and big valley T
is shown in the histogram 30.

材料の100%として%徴づけられている強度範囲40
が、大きいヒストグラムピークPの左側または右側の選
択された強度範囲に入る全てのボクセルに対して決定さ
れる。ここで説明している実施例においては、CT定走
査場合には、その強度範囲は直線近似により決定される
。1p−tl/4 として定められている強度帯内に入
る全てのボクセルPとして100%材料範囲が近似され
る。ここに、pは大きいピークに関連する強度データ、
tは隣接する大きい谷Tに関連する強度である。与えら
れた大きいビークPのいずれかの側のこの範囲内の全て
のボクセルは、100%「純粋」な材料値として分類さ
れる。したがって、この実施例においては、それらの範
囲内の全てのボクセルはそれぞれ100%の脂肪、空気
、軟組織および骨として分類される。それらの強度範囲
の外側のボクセルは、ボクセルの左側または右側の「純
粋な」材料のある百分率を表すある映像情報を含むもの
として分類される。したがって、それらは、それらの材
料の部分的百分率組成をおのおの有する組合わせ材料ボ
クセルである。
Strength range 40 marked as 100% of the material
is determined for all voxels falling within the selected intensity range to the left or right of the large histogram peak P. In the embodiment described here, in the case of CT constant scanning, the intensity range is determined by linear approximation. 100% material coverage is approximated as all voxels P falling within the intensity band defined as 1p-tl/4. where p is the intensity data related to the large peak,
t is the intensity associated with the adjacent large valley T. All voxels within this range on either side of a given large beak P are classified as 100% "pure" material values. Therefore, in this example, all voxels within those ranges are classified as 100% fat, air, soft tissue, and bone, respectively. Voxels outside those intensity ranges are classified as containing some video information representing a certain percentage of "pure" material on the left or right side of the voxel. They are therefore combinatorial material voxels, each having a partial percentage composition of those materials.

規約のために、100%より少い任意の単一材料より構
成されたものとして分類されたボクセルは、本発明に関
連して部分的ボクセルと呼ばれる。
For convention purposes, voxels classified as being composed of less than 100% of any single material are referred to as partial voxels in the context of the present invention.

更に、1つの材料100%として分類されたボクセルが
そのようなものとして時に呼ばれる。しかし、本発明を
用いるより一般的な用語では、分類は部分的なボリュー
ム決定を基にしている。したがって、より一般的な規約
として、分類された全てのボクセルは「部分的なボリュ
ーム」であυ、1つの一様な材料として分類されたボク
セルは1つの材料を100%含み、他の成分材料が0%
組成であるような「部分的なボリューム」として分類さ
れる。
Additionally, voxels classified as 100% of one material are sometimes referred to as such. However, in more general terms using the present invention, classification is based on partial volume determinations. Therefore, as a more general convention, every voxel classified is a "partial volume" υ, and a voxel classified as one uniform material contains 100% of one material and no other component materials. is 0%
The composition is classified as a "partial volume".

部分ボリュームの分類の決定においては、100チ材料
g1度範囲の外側のボクセルに含まnている各材料の百
分率が見出される。ここで説明している実施例において
は、隣接する100%材料強度値の限度の間に入ってい
る強度を肩するボクセルに対して直1腺補間を行うこと
により百分率ボクセル材料内容が決定される。そうする
と、(1)100%値境界から対象としているボクセル
強#までの強度差(分子〕と、(2)FMんでいる10
0%材料値の限度の間の強度範囲値(分母〕との比が見
出される。
In determining the classification of the subvolumes, the percentage of each material contained in voxels outside the 100 material g1 degree range is found. In the example described here, the percentage voxel material content is determined by performing linear interpolation on voxels whose intensities fall between the limits of adjacent 100% material intensity values. . Then, (1) the intensity difference (numerator) from the 100% value boundary to the target voxel strong #, and (2) the 10
The ratio between the limits of the 0% material value and the strength range value (denominator) is found.

この比によ、9.100%値範囲の間の特定の強度値に
おける各隣接する材料に対する百分率ボクセル組成を与
える。
This ratio gives the percentage voxel composition for each adjacent material at a particular intensity value between the 9.100% value range.

次に第4b図を参照する。部分ボリューム百分率が、全
ての部分ボリュームボクセルに対して、隣接する100
%材料強度値限度の間の各強度についての直線補間によ
υ実行されたチャネルプロセッサ計算によって決定さn
る。あるいは、探索表に載せられている値に従って行う
ことができ、または451!食および使用者が決定した
1直に従って行われる。ここで説明している実施例にお
いては、部分ボリューム強[I(pv)に関連する与え
られたボクセルに対して、それの百分率紐取が次式で与
えられる。
Reference is now made to Figure 4b. The partial volume percentage is set to 100 adjacent 100 voxels for every partial volume voxel.
% determined by channel processor calculations performed by linear interpolation for each strength between the material strength value limits n
Ru. Alternatively, it can be done according to the values listed in the lookup table, or 451! This will be done according to the first shift determined by the meal and the user. In the example described here, for a given voxel associated with a partial volume [I(pv), its percentage gain is given by:

ボクセル内の材料の部分PV3b ここに、PVabは対象とする部分ボリュームボクセル
、■(P■)abは100%材料強反領域aとbの間の
対象とする部分ボリュームボクセルの強度、I(Pb)
&は100%材料種類に対するピーク境界値における強
度、工(Pb)bは100%材料種類に対する境界値に
おける強度である。
Part of the material in the voxel PV3b Here, PVab is the target partial volume voxel, ■(P■) ab is the intensity of the target partial volume voxel between the 100% material strong reversal regions a and b, I(Pb )
& is the intensity at the peak boundary value for 100% material type, and Pb is the intensity at the boundary value for 100% material type.

境界aに関連する材料の一部を計算する時にはI(Pb
)aが用いられ、境界すに関連する材料の一部を計算す
る時にはI(Pb几が用いられる。
When calculating the part of the material related to boundary a, I(Pb
)a is used and I(Pb) is used when calculating the part of the material associated with the boundary.

したがって、各ボクセルは、(1)2種類の映像ボリュ
ーム材料の百分率で構成された部分ボリュームと、(2
)1棟類の映像ボリューム材料で構成された「純粋な」
ボリュームとして分類される。
Therefore, each voxel consists of (1) a subvolume made up of percentages of two types of video volume material, and (2
) "Pure" composed of one type of video volume material
Classified as a volume.

ここで説明している実施例においては、灰色調データの
分類は筋肉−骨格CT走査モデルに対して行われる。こ
のモデルにおいては、このモデルにおいては、第4b図
に示すように、材料の灰色胴強度の関係は、脂肪40が
軟組織44に常に隣接し、軟組織44が脂肪40を常に
囲み、かつ骨46を常に囲む。しかし、たとえば、地震
映像ボリューム入力データのような、他の入力データに
対する百分率ボクセル材F)組成を決定するために他の
分類のやυ方を便用できることを理解すべきである。ま
た、そのような分類は、入力データが材料の隣接性を含
むような用途に使用できる。その材料隣接性においては
、多くの材料(!たはそれらに関連するヒストグラム強
度、あるいは両方〕を、互いに同時に隣接させることが
でき、したがって映像ボリューム入力データにより表さ
れる。
In the embodiment described herein, the classification of grayscale data is performed on a musculoskeletal CT scan model. In this model, as shown in Figure 4b, the relationship between the gray torso strength of the material is such that fat 40 is always adjacent to soft tissue 44, soft tissue 44 always surrounds fat 40, and bone 46. Always surround. However, it should be understood that other methods of classification may be useful for determining the percentage voxel material F) composition for other input data, such as, for example, seismic volumetric input data. Such classification can also be used in applications where the input data includes material adjacencies. In that material contiguity, many materials (! or their associated histogram intensities, or both) can be simultaneously adjacent to each other and thus represented by the video volume input data.

更に、この実施例では直線補間法を説明したが、この実
施例および他の実施例においてボクセル部分ボリューム
百分率を計算するために、たとえば直角法または立方体
法を使用できる。
Additionally, although this example describes a linear interpolation method, the orthogonal or cubic methods, for example, can be used to calculate voxel fractional volume percentages in this and other examples.

本発明においては、3Dボリユームの2Dカラー映像が
、再構成の章で以下に述べる「連結された濾波」を用い
る映像ボリュームのカラー表現を基にして構成される。
In the present invention, a 2D color image of a 3D volume is constructed based on a color representation of the image volume using "concatenated filtering" as described below in the reconstruction section.

そのようなフィルタを作るために、映像ボリュームの各
ボクセルに対して、色値(RGB) と不透明度値が竜
初に割当てられる。ボリューム内の全てのボクセルを分
類し、それらのボクセルの百分率材料組成を知ると、色
(RGB)と不透明度(A)を割当てることができる。
To create such a filter, a color value (RGB) and an opacity value are randomly assigned to each voxel of the video volume. Once all the voxels in the volume have been classified and the percentage material composition of those voxels is known, a color (RGB) and opacity (A) can be assigned.

CT映像ボリュームデータに対する色モデル形成技術の
この例においては、骨は不透明な白、軟組繊は半透明な
赤、脂肪は非常に透明な緑、空気は完全に透明である。
In this example of a color model generation technique for CT image volume data, bone is opaque white, soft tissue is translucent red, fat is very transparent green, and air is completely transparent.

赤(R)、青(B)および緑(G)の各成分を有する値
が割当てられる。その値はそれら4つの各物質の色値を
表す。更に、各100c6純粋な材料の選択された透明
度に対して不透明度(または透明度)が割当てられる。
A value having red (R), blue (B) and green (G) components is assigned. The values represent the color values of each of those four substances. Furthermore, an opacity (or transparency) is assigned to the selected transparency of each 100c6 pure material.

各種類の材料に対して割当てられたRGBA を知ると
、映像ボリューム中の各ボクセルごとに、それのパーセ
ント組成を基にしてRGBA を知ることができる。た
とえば、ボクセルが30%空気、70%脂肪として分類
されたとすると、チャネルプロセッサ16によシ決定さ
れた「組合わされた」RGBAを、ボクセル中の各材料
成分のRGBAに、それに関連するパーセント材料寄与
を乗じ、結果を加え合わせることにより、とのボクセル
に対して見出すことができる。その結果であるRGBA
は対象とするボクセルのRGBA  となり、それはR
GBAボリューム記憶装置26 (b)に読込まれる。
Knowing the RGBA assigned to each type of material, the RGBA can be determined for each voxel in the image volume based on its percent composition. For example, if a voxel is classified as 30% air, 70% fat, the "combined" RGBA determined by the channel processor 16 is added to the RGBA of each material component in the voxel with its associated percent material contribution. By multiplying by and adding the results, we can find for voxels with and . The resulting RGBA
is the RGBA of the target voxel, which is R
The data is read into the GBA volume storage device 26 (b).

したがって、 となる。ここに、 W=ボクセル中の材料iの寄与、 C=材料iの色と不透明度である。therefore, becomes. Here, W = contribution of material i in the voxel, C=color and opacity of material i.

そして、 ここに、nはボクセル中の成分材料の≠である。and, Here, n is ≠ of the component material in the voxel.

RGBAボクセル割当て動作は、対象とする映像ボリュ
ーム中の各ボクセルに対して実行され、それらの値はR
GBAボリューム画像記憶装置26 (bcに書込まれ
て、後で処理のために格納される。各RGBAはGBR
A画像記憶装置26(b)に特定の数の順序づけられた
アレイとして表される。
The RGBA voxel allocation operation is performed for each voxel in the video volume of interest, and their values are R
GBA volume image storage 26 (written to bc and stored for later processing. Each RGBA
A-image storage 26(b) is represented as a particular number of ordered arrays.

各般は映像ボリュームの関連するボクセルである。Each is an associated voxel of the video volume.

従来の映像発生装置においては、各ボクセルは1つの種
類の材料と、色値との少くとも一方にのみ割当てられる
のが典型的なものである。したがって、ボリューム中の
全てのボクセルハ、映像ボリュームの材料のある種類ま
たは別の種類で一様に構成されたと考えられた。これと
は対照的に、本発明においては、各ボクセルに対する関
連する巨分率材料寄与を表す色と不透明度の組合わせを
基にして、広い範囲の色と不透明度が決定および割当て
られる。本発明におけるRGBA 割当ては、チャネル
プロセッサ16のスクラッテパドメモリ17内のR,G
、B、Aの探索表を介して分類されたボクセルを処理す
ることにより行われる。
In conventional video generation devices, each voxel is typically assigned only one type of material and/or color value. All voxels in the volume were therefore considered to be uniformly composed of one type or another of the material of the video volume. In contrast, in the present invention, a wide range of colors and opacity is determined and assigned based on color and opacity combinations that represent the associated macrofractional material contribution to each voxel. The RGBA allocation in the present invention is based on R, G in the scrub pad memory 17 of the channel processor 16.
, B, and A by processing the classified voxels through the search tables.

映像再溝成 RG B Aボリュームを作成してRGBA画像記憶装
置に格納したら、3Dボリユームの任意の選択された図
に対して2D投写を構成できる。その2D投写において
は、3Dボリユームの数学的な固体または表面として表
されていない物体が、数学的な表面または固体のモデル
から作られた2D投写の可視特性を与える。これは本発
明の連結されたフィルタを用いて行われる。
Once the image regrooving RGBA volume has been created and stored in the RGBA image storage device, a 2D projection can be constructed for any selected view of the 3D volume. In the 2D projection, objects that are not represented as mathematical solids or surfaces of the 3D volume give the visible properties of the 2D projection made from the model of the mathematical surface or solid. This is done using the concatenated filters of the present invention.

次に第5図を参照する。この図には表示ピクセル60の
ローカルの順序づけられた3X3アレイが示されている
。第6図に示されている3X3表示および3X3X5ボ
リユーム62が、本発明を説明する例のために用いられ
る。実際には、表示は1024X 7684たはその他
の適轟なラスタ走査表示である。更に、RGBAボリュ
ームは、入力データと記憶装置のサイズのみにより制約
される( X + yr Z )映像ボリューム を表
す3スペースデータアレイである。各RGBAボクセル
は、ビデオ表示ピクセル(2,1)に関連する第5図に
示されているような、被合2D出力を作成するために色
フィルタとして動作する。
Refer now to FIG. A local ordered 3×3 array of display pixels 60 is shown in this figure. The 3X3 display and 3X3X5 volume 62 shown in FIG. 6 is used for the example illustrating the present invention. In practice, the display is a 1024X 7684 or other suitable raster scan display. Furthermore, the RGBA volume is a three-space data array representing the (X + yr Z ) video volume, constrained only by the input data and the size of the storage device. Each RGBA voxel acts as a color filter to create a combined 2D output as shown in FIG. 5 for video display pixel (2,1).

フィルタとしてのRGBAボクセルは、zm(fなわち
、視線に平行な軸)に沿って1゛つぶされたJボクセル
と見ることができる。それによ)数学的オーバーレイが
与えられる。各フィルタは色と不透明度を有する。ここ
に、色は3つの成分赤(R)、緑CG)、f(B)によ
シ表される。不透明度はフィルタ成分(A)によシ表さ
れる。フィルタの不透明度(A)は、フィルタのうしろ
のどれだけのボクセルが「貫通して示す」(すなわち、
新しい、組合わされた背景要素に対する寄与)かを決定
する。
The RGBA voxel as a filter can be viewed as a J voxel collapsed by 1° along zm (f, the axis parallel to the line of sight). ) gives a mathematical overlay. Each filter has a color and an opacity. Here, color is represented by three components: red (R), green (CG), and f (B). Opacity is represented by filter component (A). The opacity (A) of a filter is a measure of how many voxels behind the filter "show through" (i.e.
(contribution to new, combined background elements).

第5図および第6図に示すように、XY千面に蚕直な図
を与えるために、二次元ピクセル(x rY)k順次投
写するために、前景の各ボクセル囮(たとえば72)の
RGBAが各々背景ボクセルBG (たとえば70)の
RGBAO上に数学的に重ねられ、新しい背景RGBA
ボクセルBG’を生する。ボクセルBGに関連するRG
 BA値は画像記憶装置がら読出されて、BGフィルタ
バッファとして動作するスクラッチパッドメモリに一時
的に格納される。同様に、ボクセルBGに関連するRG
BA値が画像記憶装置から読出され、スクラッチパッド
メモリに格納される。そのメモリの一部がFGバッファ
として動作する。
As shown in FIGS. 5 and 6, in order to provide a direct image on the XY plane, the RGBA of each voxel decoy (for example, 72) in the foreground is are each mathematically superimposed on the RGBAO of background voxels BG (e.g. 70) to create a new background RGBA
Generate voxel BG'. RG related to voxel BG
The BA values are read from the image storage device and temporarily stored in a scratchpad memory which acts as a BG filter buffer. Similarly, RG related to voxel BG
The BA value is read from the image storage device and stored in scratchpad memory. A part of that memory operates as an FG buffer.

この実施例においては、2個またはそれ以上の連結され
たフィルタの列を通じて投写される色は次式により決定
される。
In this embodiment, the color projected through the array of two or more concatenated filters is determined by the following equation.

BG”” FG”(1(FG))X(Ayc))(BG
)ここに、 FG=前景フィルタの色および不透明度成分G1AFG
=前景フィルタの不透明度、 BG=前景フィルタのうしろ(すなわち、「現在の」背
景)の全てのフィルタの複合色お↓び不透明度Gである
BG""FG"(1(FG))X(Ayc))(BG
) where: FG = foreground filter color and opacity component G1AFG
= opacity of the foreground filter, BG = composite color and opacity G of all filters behind the foreground filter (ie, the "current" background).

ここに、FG囚は前景フィルタの不透明度、すなわち、
匁[しい背景フィルタBGに対する前景フィルタの不透
明度寄与を表す。その結果としての新しい背景値BG’
がスクラッチパッドメモリに格納されて、チャネルプロ
七ツブにより絖いて行われる計算に備える。
Here, FG is the opacity of the foreground filter, i.e.
It represents the opacity contribution of the foreground filter to the new background filter BG. The resulting new background value BG'
is stored in scratchpad memory in preparation for calculations performed by the channel processor.

このようにして新しい背景フィルタBGが決定される。In this way, a new background filter BG is determined.

それから、選択ぢれた投写平面64に全てのフィルタが
延長し、表示60のために最後のRGBA投写ビクセル
恒が決定されるまで、引き絖ぐ各前景フィルタおよびそ
れに関連する新しい背景BGK対して上記の計算が引き
続き行われる。
The above is then repeated for each foreground filter and its associated new background BGK until all filters are extended to the selected projection plane 64 and the final RGBA projected pixel constant is determined for the display 60. continues to be calculated.

この動作は、対象としている映1象ボリューム62の選
択された2D図十面64に関して全ての懺示ビクセルを
決定するだめに実行される。
This operation is performed to determine all display pixels for the selected 2D plane 64 of the image volume 62 of interest.

本発明の再構成法は、いま述べたビクセルごとの処理の
ような任意の特定の処理動作によシ制約されるものでは
ない。たとえば、この実施例においては、画像記憶装置
26(b)に格納されているRGBAボリューム(すな
わち、RGBAボリューム62の水平スライス66に沿
う2D図千面60に垂直なボクセル列)の引き続くボク
セル走査線に対して映像再構成処理が実行される。した
がって、各前景走査線BGのRGBAが順次数学的に、
各背景走査@BGの上に「オーバーレイされて」新しい
背景走査線BG′を発生する。走査線BGに関連するR
GBA値が画像記憶装置から読出され、スクラッチパッ
ドメモリに一時的に格納される。
The reconstruction method of the present invention is not constrained by any particular processing operation, such as the pixel-by-pixel processing just described. For example, in this embodiment, successive voxel scans of an RGBA volume (i.e., a row of voxels perpendicular to the 2D plane 60 along a horizontal slice 66 of the RGBA volume 62) stored in the image storage device 26(b) Video reconstruction processing is performed on the image. Therefore, the RGBA of each foreground scan line BG is sequentially mathematically
Each background scan @BG is "overlaid" to generate a new background scan line BG'. R associated with scan line BG
The GBA value is read from the image storage device and temporarily stored in scratchpad memory.

同様に、走査lBcに関連するRGBA値が画像記憶装
置から読出されて、スクラッチパッドメモIJ K−時
的に格納される。一連のフィルターオーバレイ計算は、
引き続く関連するBGおよびFGフィルタに対して、ス
クラッチパッドメモリから読出スチャネルプロセッサに
より実行されて、RGBA複合走査線68を形成する。
Similarly, the RGBA values associated with the scan IBc are read from the image storage and stored in the scratchpad memo IJK-temporarily. A series of filter overlay calculations are
Subsequent associated BG and FG filters are read from the scratchpad memory and executed by the schannel processor to form the RGBA composite scan line 68.

それからその走査線はビデオ表示出力64に書込まれる
。更に、対象とする3Dボリユームの選択された2D図
に対して、全ての複合ビクセル投写表示走査線を決定す
るだめにそれらの動作が実行される。
That scan line is then written to video display output 64. Additionally, those operations are performed on selected 2D views of the 3D volume of interest to determine all composite pixel projection display scanlines.

チャネルプロセッサの掛算器/ A L Uユニット1
5a〜15d により、引き続く映像ボリューム部分を
組合わせる(1度に1本の走査線〕ことによシ、濾波が
行われる。R値を濾波するために1つのチャネル(掛算
器/ALUユニット〕が用いられ、G値、B値およびA
値を濾波するためにそれぞれl・つのチャネルが用いら
れ、そのように各ボクセルのRGB値に対して1つのチ
ャネルが用いられる。濾波は後方から前方へ行うことが
でき、あるいは前方から後方へ行うことができる。この
前方および後方とい°うのは見る平面を基準とするもの
である。
Channel processor multiplier/ALU unit 1
5a-15d, filtering is performed by combining successive video volume parts (one scan line at a time). One channel (multiplier/ALU unit) is used to filter the R value. G value, B value and A
Each l channel is used to filter the values, so one channel is used for each voxel's RGB value. Filtering can be done from back to front or from front to back. The terms "front" and "back" are based on the viewing plane.

たとえば、末尾に示した表および式には、第5  ′図
と第6図に示されている投写された表示腹合ピクセル2
,1を与えるために、連続する連結されたフィルタとし
て動作しているRGBA ボクセル70〜78のための
白衣が示されている。この表かられかるように、各フィ
ルタの各値のRGBA成分が、新しいBG’ フィルタ
を計算して(そうすると、そのフィルタは引き続<FG
ボクセルのBG値になる)、最後のビクセル色を(2,
1,)に与える。したがって、連結された濾波式に従っ
て引き続く計算が実行され、引き就く新しい背景フィル
タfrliを計算する。それらの新しい背景フィルタ値
は上記の式に便って組合わされて、最後のビクセル色値
が決定されるまで、新しい各前景に関して引き絖〈値を
計算する。この値はそれから表示される(この場合には
それの関連する表示ビクセル(2,1)により)。
For example, the tables and equations shown at the end include the projected display inclination pixel 2 shown in Figures 5' and 6.
, 1, the white coat for RGBA voxels 70-78 is shown operating as a continuous concatenated filter. As can be seen from this table, the RGBA components of each value of each filter are calculated as a new BG' filter (then the filter continues to be <FG
) and the last vixel color (2,
1,). Therefore, subsequent calculations are performed according to the concatenated filter formula to calculate the new background filter frli to follow. These new background filter values are combined according to the above formula to calculate the draw value for each new foreground until the final pixel color value is determined. This value is then displayed (in this case by its associated display pixel (2,1)).

それから、複合2D投写が表示バッファ26 (d)に
格納され、ラスタ走査モニタ22に出力される。
The composite 2D projection is then stored in display buffer 26 (d) and output to raster scan monitor 22.

もちろん、その複合2D投写はプリンタその他の出力装
置へも出力できることに注意すべきである。
Of course, it should be noted that the composite 2D projection can also be output to a printer or other output device.

このようにして、三次元入力映像ボリュームの二次元カ
ラー投写が発生される。得られた投写または中間ボリュ
ームデータを基にして、回転、変換、陰影づけ、伸長等
の他の映(象処理も使用できる。
In this way, a two-dimensional color projection of the three-dimensional input image volume is generated. Other image processing such as rotation, translation, shading, stretching, etc. can also be used based on the resulting projection or intermediate volume data.

本発明は広い範Iの映像処理に使用できる。たとえば、
ボクセル標本化されたボリューム(とくにCT走食〕、
とくに、複雑であるためにモデル化が容易ではない、方
程式群またはその他のデータセットからの解セットまた
は計算結果のような、三次元でモデル化できる任意のデ
ータセットを表示するために使用できる。更に、ボリュ
ーム中の成分材料の色が既知であるような色データセッ
トに本発明を適用できる。したがって、百分率材料寄与
に対してデータを分類する別の手段を用いて、本発明に
従って部分的なボリューム決定を行うことができる。
The present invention can be used in a wide range of video processing. for example,
Voxel-sampled volumes (especially CT scans),
In particular, it can be used to display any data set that can be modeled in three dimensions, such as solution sets or calculation results from equations or other data sets that are not easy to model due to their complexity. Furthermore, the invention can be applied to color datasets where the colors of the component materials in the volume are known. Therefore, another means of sorting the data for percentage material contribution can be used to perform partial volume determination in accordance with the present invention.

したがって、本発明は灰色調データセット、cT定走査
実像等に制約されるものではない。むしろ、本発明は、
各標本(またはボクセル〕に対して、データカット中の
材料の種類(または材料の種類を表わし、または割当て
るだめに微分できる)が既知である、または見出すこと
ができるような決定できる個々のボリューム標本である
任意のものに対して本発明を適用できるから、データボ
リューム中の各ボクセルに対する百分率寄与を見出すこ
とができる。
Therefore, the present invention is not limited to grayscale datasets, cT constant scan real images, etc. Rather, the present invention
For each specimen (or voxel), a determinable individual volume specimen such that the type of material in the data cut (or differentiable enough to represent or assign the type of material) is known or can be found. Since the present invention can be applied to any voxel in the data volume, the percentage contribution can be found for each voxel in the data volume.

この実施例ではヒストグラム分布を用いてCT定走査た
めに部分ボリューム百分率分類を行ったが、その分類は
、ヒストグラムを用いずに(すなわち、統計的にではな
く空間的なように)、他の用途に各種のやり方で行うこ
とができる。
Although this example used a histogram distribution to perform subvolume percentage classification for CT constant scans, the classification can be performed for other applications without the use of histograms (i.e., spatially rather than statistically). This can be done in a variety of ways.

以上、三次元映像ボリュームの二次元表示を発生する技
術について説明した。
The technology for generating a two-dimensional display of a three-dimensional video volume has been described above.

(表および式) フィルタ成分 引き伏く連結されたフィルタ・オ Dの下にE : D+ 、75Fjl;=(,22,,
08,,07,,55)Cの下にDE : C十、xo
g =(−31:S、 、55..28..955)Bの下
にCDE : s + 、8CDE=(,40,,5B
、 、24..96)Aの下にBCDE :A+ 、7
Bcog=(,31,,65,,23,,97)
(Tables and formulas) Below the filter components connected to each other, E: D+, 75Fjl; = (,22,,
08,,07,,55) DE under C: C ten, xo
g = (-31:S, , 55..28..955) CDE under B: s + , 8CDE = (,40,, 5B
, ,24. .. 96) BCDE under A: A+, 7
Bcog=(,31,,65,,23,,97)

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明のアーキテクチャを示すブロック図、第
2図は本発明の画像記憶装置の分割を示すブロック図、
第3図は本発明のチャネルプロセッサのアーキテクチャ
を示すブロック図、第4a図は典型的な入力データヒス
トグラムのグラフ、第4b図はCT入カデータヒストグ
ラムの分at示すグラフ、第5図は二次元表示を発生す
るために用いられる複数のボクセルを示す図、第6図は
引き続くボクセル走査線およびワークスペースの映像再
構成を示す図である。 10φ・―・ホストコンピュータ、12@Φ書・ビット
マツプ端末装置、14・・・・装置ハス、16・・・・
チャネルプロセッサ、18・・・・記憶装置制御器、2
0・・・・ビデオ制御器、22−・・・カラーモニタ、
24・・・・画像バス、26・・°・画像記憶装置、2
8・・・・ビデオバス。
FIG. 1 is a block diagram showing the architecture of the present invention, FIG. 2 is a block diagram showing the division of the image storage device of the present invention,
FIG. 3 is a block diagram illustrating the architecture of the channel processor of the present invention; FIG. 4a is a graph of a typical input data histogram; FIG. 4b is a graph illustrating the components of a CT input data histogram; FIG. FIG. 6 is a diagram illustrating a plurality of voxels used to generate a display; FIG. 6 is a diagram illustrating subsequent voxel scan lines and image reconstruction of the workspace; 10φ---Host computer, 12@Φ book/bitmap terminal device, 14... Device lotus, 16...
Channel processor, 18...Storage device controller, 2
0...Video controller, 22-...Color monitor,
24... Image bus, 26...° Image storage device, 2
8...Video bus.

Claims (5)

【特許請求の範囲】[Claims] (1)三次元データセットを表す第1の映像ボリューム
を発生する過程と、 複数のボリューム要素(ボクセル)を有する複数の走査
線をおのおの備える複数の一様な格納アレイとして前記
第1の映像ボリュームを第1の映像記憶装置に格納する
過程と、 各ボリュームに色の値と不透明度の値を割当てることに
より第2の映像ボリユームを発生する過程と、 前記走査線の1本を次に連続する前記走査、線に組合わ
せることにより組合わせ映像ボリユームを発生する過程
と、 nを前記走査線の総数として、各発生された組合わせ映
像ボリユームを有する各連続する前記走査線に対して前
記過程をn番目の走査線まで繰返えす過程と を備え、前記組合わせ映像ボリユームは、色の値と不透
明度の値が、組合わされた走査線に含まれているボクセ
ルの色の値と不透明度の値のパーセント組成を基にして
いるようなボクセルを有することを特徴とする三次元デ
ータセットを表す二次元データ表示を発生する方法。
(1) generating a first video volume representing a three-dimensional data set; and generating the first video volume as a plurality of uniform storage arrays each comprising a plurality of scan lines having a plurality of volume elements (voxels); generating a second video volume by assigning a color value and an opacity value to each volume in a first video storage device; generating a combined image volume by combining said scans into lines; and performing said process for each successive said scan line with each generated combined image volume, where n is the total number of said scan lines. repeating up to the nth scan line, the combined image volume is configured such that the color value and opacity value of the voxel included in the combined scan line is A method for generating a two-dimensional data representation representing a three-dimensional data set characterized by having voxels based on a percentage composition of values.
(2)特許請求の範囲第1項記載の方法であつて、前記
第1の映像ボリュームは複数のデジタル信号に変換され
て、デジタル記憶装置に格納されることを特徴とする方
法。
(2) The method according to claim 1, wherein the first video volume is converted into a plurality of digital signals and stored in a digital storage device.
(3)特許請求の範囲第1項記載の方法であつて、前記
色の値は赤成分と、緑成分と、青成分とを含むことを特
徴とする方法。
(3) The method according to claim 1, wherein the color value includes a red component, a green component, and a blue component.
(4)特許請求の範囲第3項記載の方法であつて、前記
組合わせ映像ボリュームはチャネルプロセッサにより発
生され、前記赤成分と、前記青成分と前記緑成分および
前記不透明度の値は第1のチャネルと、第2のチャネル
と、第3のチャネルおよび第4のチャネルにおいてそれ
ぞれ組合わされることを特徴とする方法。
4. The method of claim 3, wherein the combined video volume is generated by a channel processor, and wherein the red component, the blue component, the green component, and the opacity value are , a second channel, a third channel and a fourth channel, respectively.
(5)特許請求の範囲第1項記載の方法であつて、FG
=1本の前記走査線のボクセルの色の値および不透明度
の値、A=1本の前記走査線の前記ボクセルの不透明度
、BG=以前に組合わされた走査線中の対応するボクセ
ルの複合色成分および不透明度成分として、組合わせ映
像ボリュームの各ボクセルの色の値および不透明度の値
は、 FG+(1−(FG)(A))(BG) により与えられることを特徴とする方法。
(5) The method according to claim 1, which
= color and opacity values of voxels in one said scanline, A = opacity of said voxels in one said scanline, BG = composite of corresponding voxels in previously combined scanlines A method characterized in that, as color and opacity components, the color and opacity values of each voxel of the combined video volume are given by FG+(1-(FG)(A))(BG).
JP62089980A 1986-04-14 1987-04-14 Method for generating a two-dimensional data representation representing a three-dimensional data set Expired - Fee Related JPH0727576B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US85177686A 1986-04-14 1986-04-14
US851776 1992-03-16

Publications (2)

Publication Number Publication Date
JPS6324478A true JPS6324478A (en) 1988-02-01
JPH0727576B2 JPH0727576B2 (en) 1995-03-29

Family

ID=25311652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62089980A Expired - Fee Related JPH0727576B2 (en) 1986-04-14 1987-04-14 Method for generating a two-dimensional data representation representing a three-dimensional data set

Country Status (6)

Country Link
US (1) US5381518A (en)
JP (1) JPH0727576B2 (en)
CA (1) CA1258923A (en)
DE (1) DE3712639A1 (en)
FR (1) FR2597227B1 (en)
GB (1) GB2190570B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053911A (en) * 2004-07-23 2006-02-23 Microsoft Corp Shell texture function
JP2006518074A (en) * 2003-02-18 2006-08-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization using tissue mixture
JP2014533613A (en) * 2011-11-17 2014-12-15 ストラタシス リミテッド System and method for creating body part model using multi-material additive manufacturing
JP2015513945A (en) * 2012-03-17 2015-05-18 ソニー株式会社 Tooth graph cut based interactive segmentation method in 3D CT solid data
WO2017179256A1 (en) * 2016-04-13 2017-10-19 日本メジフィジックス株式会社 Automatic removal of physiological accumulations from nuclear medicine image, and automatic segmentation of ct image

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985856A (en) * 1988-11-10 1991-01-15 The Research Foundation Of State University Of New York Method and apparatus for storing, accessing, and processing voxel-based data
FR2653919A1 (en) * 1989-10-30 1991-05-03 Gen Electric METHOD AND APPARATUS FOR THE RENDERING OF VOLUMETRIC PROJECTIONS USING THE REVERSE RADIATION PROJECTION.
US5640496A (en) * 1991-02-04 1997-06-17 Medical Instrumentation And Diagnostics Corp. (Midco) Method and apparatus for management of image data by linked lists of pixel values
US5734384A (en) * 1991-11-29 1998-03-31 Picker International, Inc. Cross-referenced sectioning and reprojection of diagnostic image volumes
US5644689A (en) * 1992-01-13 1997-07-01 Hitachi, Ltd. Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint
US5361385A (en) * 1992-08-26 1994-11-01 Reuven Bakalash Parallel computing system for volumetric modeling, data processing and visualization
JPH06223198A (en) * 1993-01-26 1994-08-12 Hitachi Ltd Device and method for image preparation by light beam tracking
US5583974A (en) * 1993-05-10 1996-12-10 Apple Computer, Inc. Computer graphics system having high performance multiple layer Z-buffer
US5664077A (en) * 1993-09-06 1997-09-02 Nec Corporation Three-dimensional graph displaying system
WO1996007989A1 (en) * 1994-09-06 1996-03-14 The Research Foundation Of State University Of New York Apparatus and method for real-time volume visualization
US5724493A (en) * 1994-12-13 1998-03-03 Nippon Telegraph & Telephone Corporation Method and apparatus for extracting 3D information of feature points
DE19603774A1 (en) * 1996-02-02 1997-08-07 Kontron Elektronik Method for determining three-dimensional object properties
US6144384A (en) * 1996-02-20 2000-11-07 Yugen Kashia Aloalo International Voxel data processing using attributes thereof
US5825364A (en) * 1996-04-18 1998-10-20 Electronic Data Systems Corporation System and method for constructing a three dimensional model from two dimensional images using poissan probability
AU3718497A (en) * 1996-06-28 1998-01-21 Resolution Technologies, Inc. Fly-through computer aided design method and apparatus
US5986662A (en) * 1996-10-16 1999-11-16 Vital Images, Inc. Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging
US6123733A (en) * 1996-11-27 2000-09-26 Voxel, Inc. Method and apparatus for rapidly evaluating digital data processing parameters
AU732652B2 (en) * 1997-04-15 2001-04-26 Research Foundation Of The State University Of New York, The Apparatus and method for parallel and perspective real-time volume visualization
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US6144383A (en) * 1997-05-30 2000-11-07 Hewlett-Packard Company Volumetric data organization method that allows for cache efficient rendering speedups and efficient graphics hardware design
JP3896188B2 (en) * 1997-06-13 2007-03-22 株式会社日立製作所 Image processing device for radiation therapy planning
US6008813A (en) 1997-08-01 1999-12-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Real-time PC based volume rendering system
US6246784B1 (en) 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US6262749B1 (en) * 1997-12-31 2001-07-17 Acuson Corporation Ultrasonic system and method for data transfer, storage and/or processing
JPH11353225A (en) * 1998-05-26 1999-12-24 Internatl Business Mach Corp <Ibm> Memory that processor addressing gray code system in sequential execution style accesses and method for storing code and data in memory
US6396939B1 (en) 1998-05-28 2002-05-28 Orthosoft Inc. Method and system for segmentation of medical images
FR2779853B1 (en) * 1998-06-11 2000-08-11 Ge Medical Syst Sa PROCESS FOR RECONSTRUCTING A THREE-DIMENSIONAL IMAGE OF AN OBJECT, IN PARTICULAR AN ANGIOGRAPHIC THREE-DIMENSIONAL IMAGE
US6310619B1 (en) 1998-11-10 2001-10-30 Robert W. Rice Virtual reality, tissue-specific body model having user-variable tissue-specific attributes and a system and method for implementing the same
US6411296B1 (en) 1998-11-12 2002-06-25 Trrarecon, Inc. Method and apparatus for applying modulated lighting to volume data in a rendering pipeline
US6532017B1 (en) 1998-11-12 2003-03-11 Terarecon, Inc. Volume rendering pipeline
US6369816B1 (en) 1998-11-12 2002-04-09 Terarecon, Inc. Method for modulating volume samples using gradient magnitudes and complex functions over a range of values
US6512517B1 (en) 1998-11-12 2003-01-28 Terarecon, Inc. Volume rendering integrated circuit
US6342885B1 (en) 1998-11-12 2002-01-29 Tera Recon Inc. Method and apparatus for illuminating volume data in a rendering pipeline
US6426749B1 (en) 1998-11-12 2002-07-30 Terarecon, Inc. Method and apparatus for mapping reflectance while illuminating volume data in a rendering pipeline
US6404429B1 (en) 1998-11-12 2002-06-11 Terarecon, Inc. Method for modulating volume samples with gradient magnitude vectors and step functions
US6356265B1 (en) 1998-11-12 2002-03-12 Terarecon, Inc. Method and apparatus for modulating lighting with gradient magnitudes of volume data in a rendering pipeline
US6281901B1 (en) * 1998-11-25 2001-08-28 The United States Of America As Represented By The Secretary Of The Navy Interactive overlay for displaying 3-D data
IL127314A0 (en) * 1998-11-27 1999-09-22 Algotec Systems Ltd A method for forming a perspective rendering from a voxel space
DE19911988C2 (en) * 1999-03-17 2003-07-31 Siemens Ag Medical magnetic resonance system
US6304266B1 (en) * 1999-06-14 2001-10-16 Schlumberger Technology Corporation Method and apparatus for volume rendering
US6408292B1 (en) 1999-08-04 2002-06-18 Hyperroll, Israel, Ltd. Method of and system for managing multi-dimensional databases using modular-arithmetic based address data mapping processes on integer-encoded business dimensions
US6385604B1 (en) * 1999-08-04 2002-05-07 Hyperroll, Israel Limited Relational database management system having integrated non-relational multi-dimensional data store of aggregated data elements
US6972774B2 (en) * 2000-02-21 2005-12-06 Fujitsu Limited Image processing system for inserting plurality of images into composite area, and medium
AU2001239926A1 (en) 2000-02-25 2001-09-03 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US20020029207A1 (en) * 2000-02-28 2002-03-07 Hyperroll, Inc. Data aggregation server for managing a multi-dimensional database and database management system having data aggregation server integrated therein
JP2001291090A (en) * 2000-04-06 2001-10-19 Terarikon Inc Three-dimensional image display device
US6573912B1 (en) 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
EP1209629A1 (en) * 2000-11-28 2002-05-29 TeraRecon, Inc., A Delaware Corporation Early ray termination in a parallel pipelined volume rendering system
EP1209618A1 (en) * 2000-11-28 2002-05-29 TeraRecon, Inc., A Delaware Corporation Volume rendering pipeline
US6940507B2 (en) * 2000-12-18 2005-09-06 Dmitriy G. Repin Method and apparatus for visualization of 3D voxel data using lit opacity volumes with shading
DE10105765A1 (en) * 2001-02-08 2002-09-05 Karlheinz Schmidt Method for visual representation of the spatial distribution of the values of a physical quantity within a fixed space which allows a viewer of the representation to intuitively recognize areas of high and low measurement value
DK2362346T3 (en) * 2001-04-18 2013-10-07 Landmark Graphics Corp Process and computer software product for volume rendering
US20050114831A1 (en) * 2001-04-18 2005-05-26 Andres Callegari Volume body renderer
US6826297B2 (en) * 2001-05-18 2004-11-30 Terarecon, Inc. Displaying three-dimensional medical images
DE10224011A1 (en) * 2002-05-29 2003-12-24 Siemens Ag Computer-aided reconstruction method for a three-dimensional object
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US20060071932A1 (en) * 2002-11-21 2006-04-06 Koninklijke Philips Electronics N.V. Method and apparatus for visualizing a sequece of volume images
US20050151734A1 (en) * 2004-01-14 2005-07-14 Gubkin Andrew A. Method and apparatus for rendering, storing and editing voxel objects
US20050171700A1 (en) * 2004-01-30 2005-08-04 Chroma Energy, Inc. Device and system for calculating 3D seismic classification features and process for geoprospecting material seams
JP5020823B2 (en) 2004-11-01 2012-09-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Visualize rendered multidimensional datasets
US7460119B2 (en) * 2005-01-27 2008-12-02 Siemens Medical Solutions Usa, Inc. Invisible space skipping with adaptive granularity for texture-based volume rendering
US7711162B2 (en) * 2005-01-27 2010-05-04 Siemens Medical Solutions Usa, Inc. Accelerated texture-based fusion renderer
US7532214B2 (en) * 2005-05-25 2009-05-12 Spectra Ab Automated medical image visualization using volume rendering with local histograms
JP4267598B2 (en) * 2005-07-11 2009-05-27 ザイオソフト株式会社 Image fusion processing method, image fusion processing program, and image fusion processing apparatus
US8041129B2 (en) * 2006-05-16 2011-10-18 Sectra Ab Image data set compression based on viewing parameters for storing medical image data from multidimensional data sets, related systems, methods and computer products
US8442282B2 (en) * 2006-05-29 2013-05-14 Kabushiki Kaisha Toshiba Computer-aided imaging diagnostic processing apparatus and computer-aided imaging diagnostic processing method
JP4575909B2 (en) 2006-11-22 2010-11-04 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X-ray tomography equipment
US7830381B2 (en) * 2006-12-21 2010-11-09 Sectra Ab Systems for visualizing images using explicit quality prioritization of a feature(s) in multidimensional image data sets, related methods and computer products
US20080232694A1 (en) * 2007-03-21 2008-09-25 Peter Sulatycke Fast imaging data classification method and apparatus
US8593457B2 (en) * 2010-05-27 2013-11-26 National Tsing Hua University Method of three-dimensional image data processing
US9152744B2 (en) * 2012-03-29 2015-10-06 Airbus Operations (S.A.S.) Methods, systems, and computer readable media for generating a non-destructive inspection model for a composite part from a design model of the composite part
CN104658034B (en) * 2013-11-18 2019-03-01 清华大学 The fusion method for drafting of CT image data
US10292670B2 (en) 2013-12-04 2019-05-21 Elekta Ltd. Method and system for dose calculation based on continuous material indexing
GB2537831A (en) * 2015-04-24 2016-11-02 Univ Oxford Innovation Ltd Method of generating a 3D representation of an environment and related apparatus
EP3311988A1 (en) * 2016-10-24 2018-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. A method for joint color and translucency 3d printing and a joint color and translucency 3d printing device
EP3388107B1 (en) * 2017-04-13 2021-10-13 RaySearch Laboratories AB Method, system and computer program product for ion radiotherapy
US10896503B2 (en) 2018-03-23 2021-01-19 International Business Machines Corporation Identification of areas of interest in imaging applications

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1547566A (en) * 1975-07-04 1979-06-20 Emi Ltd Information display arrangements
US4558438A (en) * 1981-12-28 1985-12-10 Gulf Research & Development Company Method and apparatus for dynamically displaying geo-physical information
US4586038A (en) * 1983-12-12 1986-04-29 General Electric Company True-perspective texture/shading processor
US4679040A (en) * 1984-04-30 1987-07-07 The Singer Company Computer-generated image system to display translucent features with anti-aliasing
US4737921A (en) * 1985-06-03 1988-04-12 Dynamic Digital Displays, Inc. Three dimensional medical image display system
US4729098A (en) * 1985-06-05 1988-03-01 General Electric Company System and method employing nonlinear interpolation for the display of surface structures contained within the interior region of a solid body
US4719585A (en) * 1985-08-28 1988-01-12 General Electric Company Dividing cubes system and method for the display of surface structures contained within the interior region of a solid body
US4835712A (en) * 1986-04-14 1989-05-30 Pixar Methods and apparatus for imaging volume data with shading

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006518074A (en) * 2003-02-18 2006-08-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Volume visualization using tissue mixture
US8570323B2 (en) 2003-02-18 2013-10-29 Koninklijke Philips N.V. Volume visualization using tissue mix
JP2006053911A (en) * 2004-07-23 2006-02-23 Microsoft Corp Shell texture function
JP4733454B2 (en) * 2004-07-23 2011-07-27 マイクロソフト コーポレーション Shell texture function
JP2014533613A (en) * 2011-11-17 2014-12-15 ストラタシス リミテッド System and method for creating body part model using multi-material additive manufacturing
US9999509B2 (en) 2011-11-17 2018-06-19 Stratasys Ltd. System and method for fabricating a body part model using multi-material additive manufacturing
JP2015513945A (en) * 2012-03-17 2015-05-18 ソニー株式会社 Tooth graph cut based interactive segmentation method in 3D CT solid data
WO2017179256A1 (en) * 2016-04-13 2017-10-19 日本メジフィジックス株式会社 Automatic removal of physiological accumulations from nuclear medicine image, and automatic segmentation of ct image

Also Published As

Publication number Publication date
JPH0727576B2 (en) 1995-03-29
FR2597227B1 (en) 1992-09-11
US5381518A (en) 1995-01-10
DE3712639A1 (en) 1987-10-22
FR2597227A1 (en) 1987-10-16
GB2190570B (en) 1991-01-23
CA1258923A (en) 1989-08-29
GB8708832D0 (en) 1987-05-20
GB2190570A (en) 1987-11-18

Similar Documents

Publication Publication Date Title
JPS6324478A (en) Generation of 2-d data display for indicating 3-d data set
US4835712A (en) Methods and apparatus for imaging volume data with shading
US4831528A (en) Apparatus and method for improvement of 3D images derived from tomographic data
US4821213A (en) System for the simultaneous display of two or more internal surfaces within a solid object
US4737921A (en) Three dimensional medical image display system
US7529396B2 (en) Method, computer program product, and apparatus for designating region of interest
US5170347A (en) System to reformat images for three-dimensional display using unique spatial encoding and non-planar bisectioning
EP0318176B1 (en) Imaging methods and apparatus
US6990231B2 (en) Method and apparatus for forming and displaying projection image from a plurality of sectional images
US4989142A (en) Three-dimensional images obtained from tomographic slices with gantry tilt
JPH0437465B2 (en)
JPH1128211A (en) Three-dimensional imaging system and method for ultrasonic scattering medium
CA1315902C (en) Minimization of directed points generated in three-dimensional dividing cubes method
JP2006055213A (en) Image processor and program
JP2016135252A (en) Medical image processing apparatus and medical image diagnostic apparatus
US9224236B2 (en) Interactive changing of the depiction of an object displayed using volume rendering
JP4188900B2 (en) Medical image processing program
JP2004174241A (en) Image forming method
Higgins et al. Automatic extraction of the arterial tree from 3-D angiograms
JPH021082A (en) Apparatus and method for generating definition of three-dimensional surface
JPH07271997A (en) Image processor
KR20060074908A (en) Four-dimensional labeling apparatus, n-dimensional labeling apparatus, four-dimensional spatial filter apparatus, and n-dimensional spatial filter apparatus
JP2020101988A (en) Three-dimensional reconstructed image display device, three-dimensional reconstructed image display method, program, and image generation method
JPH0728976A (en) Picture display device
JPH0697466B2 (en) Device and method for displaying a two-dimensional image of an internal surface within an object

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees