JP2007188462A - Method of displaying volumetric 3d image - Google Patents

Method of displaying volumetric 3d image Download PDF

Info

Publication number
JP2007188462A
JP2007188462A JP2006033034A JP2006033034A JP2007188462A JP 2007188462 A JP2007188462 A JP 2007188462A JP 2006033034 A JP2006033034 A JP 2006033034A JP 2006033034 A JP2006033034 A JP 2006033034A JP 2007188462 A JP2007188462 A JP 2007188462A
Authority
JP
Japan
Prior art keywords
display
sample points
volume
rendering
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006033034A
Other languages
Japanese (ja)
Other versions
JP5140851B2 (en
JP2007188462A5 (en
Inventor
Che-Chii Tsuao
チェーチー・ツアオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ACT RES CORP
ACT RESEARCH CORP
Original Assignee
ACT RES CORP
ACT RESEARCH CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ACT RES CORP, ACT RESEARCH CORP filed Critical ACT RES CORP
Priority to JP2006033034A priority Critical patent/JP5140851B2/en
Publication of JP2007188462A publication Critical patent/JP2007188462A/en
Publication of JP2007188462A5 publication Critical patent/JP2007188462A5/ja
Application granted granted Critical
Publication of JP5140851B2 publication Critical patent/JP5140851B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of displaying physiological and mental depth cues on a volumetric 3D display. <P>SOLUTION: A fundamental concept is that distorted coordinate systems are combined in order to display both a physiological depth cue and a great mental depth cue of the volumetric 3D display, and a volume of the display includes two parts of a physical 3D space and a virtual space in a 2D screen. That is, an object to be displayed is displayed as a volumetric 3D image in accordance with distorted 3D coordinates when being within the physical 3D space, and the object is displayed as a background by a perspective drawing of the 2D screen when being beyond the physical 3D space within the virtual space. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は本出願人に次の特許および出願に関連している:
米国特許5,754,147、
米国特許5,954,414、
米国特許6,302,542B1、
米国特許6,765,566B1、
米国特許6,961,045B1、
米国特許出願公開2005−0280605−A1、
日本特許出願361090/99(國内特許出願通知2000/201362)、
日本特許出願2001/318189(國内特許出願通知2002/268136)、
日本特許出願2002/175379(國内特許出願通知2003/107399)、
出願人は上記の文書を本件に引用文献として取り入れている。
The present invention relates to the following patents and applications to the applicant:
US Patent 5,754,147,
US Patent 5,954,414,
US Pat. No. 6,302,542 B1,
US Pat. No. 6,765,566B1,
US Pat. No. 6,961,045B1,
US Patent Application Publication 2005-0280605-A1,
Japanese Patent Application 361090/99 (Domestic Patent Application Notification 2000/201362),
Japanese Patent Application 2001/318189 (Domestic Patent Application Notification 2002/268136),
Japanese Patent Application 2002/175379 (Domestic Patent Application Notification 2003/107399),
Applicant has incorporated the above document as a cited reference in this case.

本発明は体積3Dディスプレイの分野に関連している。とりわけ、それは大きい心理的な視覚深さの色の体積3Dイメージの表示に関連している。      The present invention relates to the field of volumetric 3D displays. Among other things, it relates to the display of volumetric 3D images of large psychological visual depth colors.

体積3Dディスプレイは、3Dイメージ実3D空間をに表示する。体積イメージの中の各「ボクセル」は、想定されるあるべき空間的位置に実際にかつ物理的に位置し、そして光線は、その位置から全方向に向けて直接走行して、実イメージをビューアの眼に形成する。その結果、体積3Dイメージは、生理學的及び心理學的な双方深度のキュー(depthcues)において全ての主要な要素を所有し、多数のビューアによって特別な眼鏡の必要性なしで見ること歩のまわりの360度を可能にする。      The volumetric 3D display displays the real 3D space of the 3D image. Each “voxel” in the volume image is actually and physically located at the expected spatial location, and the rays travel directly from that location in all directions to view the actual image Form on the eyes. As a result, volumetric 3D images possess all the major elements in both physiologic and psychological depth cues, and are viewed around multiple viewers without the need for special glasses. Of 360 degrees.

体積3Dディスプレイの多くの異なったアプローチがずっとある。1つの部門は移動表示パネルを使用する。移動表示パネルは残像の効果によって体積3Dイメージを形作るために空間の2Dイメージのフレームを配る。例えば、Bcrlin米国特許4,160,973は円柱ディスプレイの体積を掃引する回転LEDのパネルが付いているシステムを記述する。別の例のため、Tsao日本特許出願通知2002/268136(図11)は「回転式往復運動式の」表示パネルが付いているシステムを記述する。平らなパネル・ディスプレイは軸線について固定方向に常に直面する表面と回る。その結果、表示パネルは表示空間をように往復動きで掃引する。      There are many different approaches to volumetric 3D displays. One department uses a mobile display panel. The moving display panel distributes a frame of 2D image in space to form a volumetric 3D image by the afterimage effect. For example, Bcrlin US Pat. No. 4,160,973 describes a system with a panel of rotating LEDs that sweeps the volume of a cylindrical display. As another example, Tsao Japanese Patent Application Notice 2002/268136 (FIG. 11) describes a system with a “rotary reciprocating” display panel. The flat panel display rotates with a surface that always faces in a fixed direction about the axis. As a result, the display panel sweeps in a reciprocating manner in the display space.

体積3Dディスプレイの別の部門は移動スクリーンを使用し、スクリーンに2Dイメージを投影する。例えば、Tsao日本特許出願通知2002/268136(図2a、4a−4d、5b)は「回転式往復運動の」スクリーンおよび光学プロジェクターが付いているシステムを記述する。これはまたTsao米国特許6,765,566(図20)およびTsao米国特許6,302,542(図2a、4a−4bおよび5b)で記述されている。別の例のために、Tsao米国特許6,765,566(図14−15)は(また日本特許出願通知2000/201362で)回転スクリーンに基づいてシステムを記述する。他の例は下記のものを含んでいる:Batchko米国特許5,148,310、Shimada米国特許5,537,251、そしてDorval他米国特許6,554,430。Blundell米国特許5,703,606は別のタイプの移動スクリーンシステムを記述する。それは蛍光体が塗られる移動スクリーンを使用し、スクリーンでイメージを発生させるのに静止した電子銃を使用する。      Another department of volumetric 3D displays uses moving screens and projects 2D images onto the screen. For example, Tsao Japanese Patent Application Notice 2002/268136 (FIGS. 2a, 4a-4d, 5b) describes a system with a “rotary reciprocating” screen and an optical projector. This is also described in Tsao US Pat. No. 6,765,566 (FIG. 20) and Tsao US Pat. No. 6,302,542 (FIGS. 2a, 4a-4b and 5b). For another example, Tsao US Pat. No. 6,765,566 (FIGS. 14-15) describes a system based on a rotating screen (also in Japanese Patent Application Notice 2000/201362). Other examples include: Batchko US Pat. No. 5,148,310, Shimada US Pat. No. 5,537,251, and Dorval et al. US Pat. No. 6,554,430. Blundell US Pat. No. 5,703,606 describes another type of moving screen system. It uses a moving screen that is coated with phosphor and uses a stationary electron gun to generate an image on the screen.

別の部門はディスプレイの体積として表示パネル(通常液晶表示装置)の積み重ねを使用する。例はLeungが及びIves米国特許5,745,197およびHattori他Optical Engineering、1992年、Vol.31の第2、p.350等含まれている。      Another department uses a stack of display panels (usually liquid crystal displays) as the display volume. Examples are described by Leung and Ives US Pat. No. 5,745,197 and Hattori et al. Optical Engineering, 1992, Vol. 31 second, p. 350 etc. are included.

また別の部門は電気で切替可能なスクリーン(通常液晶)および光学プロジェクターの積み重ねを使用する。例はSullivan米国特許6,100,862およびSadovnik及びRizkin米国特許5,764,317が含まれている。      Another category uses electrically switchable screens (usually liquid crystal) and optical projector stacks. Examples include Sullivan US Pat. No. 6,100,862 and Sadovnik and Rizkin US Pat. No. 5,764,317.

まだ別の部門は「蛍光性の段階的な刺激」(または一般に呼ばれた「2−stage刺激」)の特性を持っている材料の体積を使用する。例は等Korevaar米国特許4,881,068および Downing 他、Science、1996年8月30日、Vol.273、p.1185含まれている。      Yet another department uses a volume of material that has the properties of "fluorescent step-by-step stimulation" (or commonly referred to as "2-stage stimulation"). Examples are Korevaar US Pat. No. 4,881,068 and Downing et al., Science, Aug. 30, 1996, Vol. 273, p. 1185 is included.

出願人は上記の文書を本件に引用文献として取り入れている。      Applicant has incorporated the above document as a cited reference in this case.

体積3Dディスプレイのイメージの質に関する1つの問題は心理的な視覚深さの限界である。表示空間に有限なサイズがあり、従って生理学的な視覚深さは限られている。対照的に、2Dディスプレイは透視図の形で心理的な深度のキューによって基本的に眺めの無限深さを表示できる。      One problem with the image quality of volumetric 3D displays is the psychological visual depth limit. There is a finite size in the display space, so the physiological visual depth is limited. In contrast, 2D displays can basically display infinite depth of view with psychological depth cues in the form of perspective views.

体積3Dディスプレイの別の問題は灰色の(または色)レベルの限界である。プロジェクショソに基づいて多くの体積3Dディスプレイではプロジェクターの好まれたイメージの源はDMD(Digital Micromirror Device)またはFLCD(Ferroelectric液晶表示装置)である。これらは白黒ピクセルの装置である。色を作成するためには、私達は3つのDMDまたはFLCDのパネル、別の原色の光によって照らされる各パネルを使用してもいい。代わりに、Tsao米国特許6,961,045は(また國内特許出願通知2003/107399で)色を発生させるのに単一のパネルを使用する方法を記述する。単一のパネルは3つのサブパネルに分けられ、各サブパネルは別の原色のライトによって照らされる。3つのサブパネルのイメージはプロジェクショソの1つにそれから組み変えられる。但し、各ピクセルに2つのレベルだけ(白および黒)あるので、3つのパネルまたはサブパネルの組合せは色の限られた量だけを発生できる。      Another problem with volumetric 3D displays is the limit of gray (or color) levels. In many volumetric 3D displays based on projections, the preferred source of images for the projector is the DMD (Digital Micromirror Device) or FLCD (Ferroelectric Liquid Crystal Display). These are black and white pixel devices. In order to create colors, we can use three DMD or FLCD panels, each panel illuminated by light of another primary color. Instead, Tsao US Pat. No. 6,961,045 (also in national patent application notice 2003/107399) describes how to use a single panel to generate colors. A single panel is divided into three sub-panels, each sub-panel illuminated by a different primary color light. The three sub-panel images are then recombined into one of the projections. However, since each pixel has only two levels (white and black), a combination of three panels or sub-panels can generate only a limited amount of color.

この発明は体積3Dディスプレイで生理学的な、心理的な深度のキューを表示する方法を記述する。この付加的な心理的な視覚深さは無限深さの背景を表示できる。それは飛行シミュレーションまたは電子ゲームのような適用に有用である。この発明はまた色かグレイ・スケールの高レベルの体積3Dイメージを表示する方法を記述する。この発明はまた基本的な幾何学的な形のレンダリングの原則そしてアルゴリズムを記述する。これらの原則がおよびアルゴリズムは無限深さの色の体積3Dイメージそして背景を表示するのに使用されている。      The present invention describes a method for displaying physiological and psychological depth cues on a volumetric 3D display. This additional psychological visual depth can display an infinite depth background. It is useful for applications such as flight simulation or electronic games. The invention also describes a method for displaying a high level volumetric 3D image in color or gray scale. The present invention also describes the basic geometric shape rendering principles and algorithms. These principles and algorithms are used to display volumetric 3D images and backgrounds of infinite depth colors.

体積3Dディスプレイの生理学的な深度のキューそして大きい心理的な深度のキューを両方表示するため、基本概念は2D画面によって歪斜的座標系を結合することである。従って、ディスプレイの体積は2部分を含んでいる:物理的な3D空間および2D画面の内のバーチャ.スペース。表示されるべき物件が物理的な3D空間の内にあれば、物件は歪斜的な3D座標に従って体積3Dイメージとして表示される。物件がバーチャ.スペースの中に物理的な3D空間を越えておよびあればあれば、背景として2D画面の透視図によって、すなわち、表示される。      To display both the physiological depth cues and the large psychological depth cues of volumetric 3D displays, the basic concept is to combine the skewed coordinate system with a 2D screen. Thus, the volume of the display includes two parts: the physical 3D space and the virtual. space. If the property to be displayed is in a physical 3D space, the property is displayed as a volumetric 3D image according to skewed 3D coordinates. The property is a virtual. If there is any space beyond and beyond the physical 3D space, it will be displayed by the perspective view of the 2D screen as background.

2D画面に表示イメージへ3つの好適た方法がある。第1方法は平面の体積3Dイメージとして2D画面の表示イメージにある。即ち、これは3D体積の中の2D平面の透視図の表示イメージにある。基本的に、この第1方法はすべてのタイプの体積3Dディスプレイに適用することができる。2D画面はディスプレイの体積の任意位置そしてオリエンテーションに置くことができる。第2方法は複数の画像フレームを重ねることによって透視図の2Dイメージを表示する。第3方法は2D画面で透視図のイメージを発生させるのに別のプロジェクターを使用する。      There are three preferred ways to display images on a 2D screen. The first method is a 2D screen display image as a planar volumetric 3D image. That is, this is a display image of a perspective view of a 2D plane in a 3D volume. Basically, this first method can be applied to all types of volumetric 3D displays. The 2D screen can be placed at any position and orientation of the display volume. The second method displays a 2D image of a perspective view by overlaying a plurality of image frames. The third method uses another projector to generate a perspective image on a 2D screen.

ハイカラー(か灰色)レベルの表示イメージは、ハイカラーのレベルの基本的な幾何学的な形(便宜上「幾何基形」と呼ばれる)のレンダリング方法記述されている。基本概念は幾何基形内の表示要素の総数に関して描画された表示要素の数の比率を制御することである。表示要素は体積3D空間の表示イメージの基本的な要素である。描画された表示要素の数は望ましい輝度のレベルを表す。表示要素の総数は最高の輝度のレベルを表す。この制御を達成する2つのアプローチがある:「点基づかせていたレンダリング」および「交面基づかせていたレンダリング」。      The high color (or gray) level display image describes a rendering method of the basic geometric shape of the high color level (referred to for convenience as a “geometric base”). The basic concept is to control the ratio of the number of drawn display elements with respect to the total number of display elements in the geometric primitive. The display element is a basic element of the display image in the volume 3D space. The number of drawn display elements represents the desired level of brightness. The total number of display elements represents the highest luminance level. There are two approaches to achieve this control: “point-based rendering” and “intersection-based rendering”.

点基づかせていたレンダリングでは、サンプル点は第一に幾何基形を表すために計算され、それからサンプル点は描画された。即ち、幾何基形を表示することはサンプル点を表示することである。従って、幾何基形およびスライスフレームの交差を計算する必要性がない。各サンプル点は1つの表示要素の位置に一般に対応する。しかしサンプル点のイメージのサイズは隣接した表示要素に点の膨張によって調節することができる。すなわち、点の膨張は1つのサンプル点からの複数の表示要素へマッピングである。一般に、幾何基形の輝度のレベルは描画された表示要素の数に比例している。表示要素自体にグレイ・スケール機能があれば、輝度のレベルは表示要素の輝度のスケールにまた比例している。サンプル点の空間的な配分そしてサイズの制御によって望ましい視覚輝度を与えるために、描画された表示要素の総数は制御することができる。      In point-based rendering, the sample points were first calculated to represent the geometric basis, and then the sample points were drawn. That is, displaying the geometric basis is displaying sample points. Thus, there is no need to calculate the intersection of geometric primitives and slice frames. Each sample point generally corresponds to the position of one display element. However, the size of the image of the sample points can be adjusted by dilating the points to adjacent display elements. That is, the expansion of a point is a mapping from a single sample point to multiple display elements. In general, the luminance level of a geometric base is proportional to the number of displayed display elements. If the display element itself has a gray scale function, the brightness level is also proportional to the brightness scale of the display element. The total number of rendered display elements can be controlled to give the desired visual brightness by controlling the spatial distribution and size of the sample points.

交面基づかせていたレンダリングでは、幾何基形およびフレームの切れの交差は描画される。一般に、各交差はフレームのピクセルを含む小さいビットマップである。交差のすべての小さいビットマップを一緒にステッチすることは概念的な「合成ビットマップ」を形作る。望ましい輝度のレベルは合成ビットマップのピクセルの総数に関して描画されるピクセルの数の比率の制御によってそれから表現される。小さいビットマップは描画される合成ビットマップからの逆のマッピングによってそれから再描画される。再描画された小さいビットマップは望ましい輝度のレベルでそれから幾何基形を形作る。      In intersection-based rendering, geometric primitives and frame crossings are drawn. In general, each intersection is a small bitmap that contains the pixels of the frame. Stitching all small bitmaps of intersection together forms a conceptual “composite bitmap”. The desired brightness level is then expressed by controlling the ratio of the number of pixels rendered relative to the total number of pixels in the composite bitmap. The small bitmap is then redrawn by the inverse mapping from the composite bitmap being drawn. The redrawn small bitmap then forms a geometric base at the desired brightness level.

2D画面のイメージの表示の第1方法では、テクスチャのマッピング方法は応用である。透視図の背景はビットマップ(または他の同じようなフォーマット)としてコンピュータで第一に貯えられる。それから、2D画面はこのビットマップの使用によってようにテクスチャのマップ描画される。単色的テクスチャのマッピングの表面を描画する基本的な手順は次の通りある:
(1)多数個の異なった強度の範囲にテクスチャのマップの完全な強度のスケールを分けなさい。従って各強度の範囲はテクスチャのマップの別の地域に対応する。
(2)テクスチャのマップの各地域から表面の対応する地域にマッピングを確立しなさい。
(3)マッピングに従ってその地域の強度の範囲に基づいて表面の対応する各々の地域に輝度のレベルを割り当てなさい。
(4)別の輝度のレベルを表すために表示要素の別の密度の表面の対応する各々の地域を描画しなさい。点基づかせていたレンダリングは好まれる方法である。基本的に、表面の対応する各々の地域は全表面への望ましい輝度を与えるメッシュ・システムの下で描画されるが、サンプル点は対応する地域の内にだけ置かれる。
In the first method of displaying an image on a 2D screen, the texture mapping method is applied. The perspective background is stored first on the computer as a bitmap (or other similar format). The 2D screen is then rendered as a texture map by using this bitmap. The basic procedure for drawing a monochromatic texture mapping surface is as follows:
(1) Divide the full intensity scale of the texture map into a number of different intensity ranges. Thus, each intensity range corresponds to a different region of the texture map.
(2) Establish a mapping from each region of the texture map to the corresponding region on the surface.
(3) Assign a brightness level to each corresponding area on the surface based on the intensity range of that area according to the mapping.
(4) Draw corresponding areas of different density surfaces of the display element to represent different brightness levels. Point-based rendering is the preferred method. Basically, each corresponding area of the surface is drawn under a mesh system that gives the desired brightness to the entire surface, but the sample points are placed only within the corresponding area.

大きい心理的な視覚深さの表示Large psychological visual depth display

体積3Dディスプレイの生理学的な深度のキューそして大きい心理的な深度のキューを両方表示するため、基本概念は2D画面によって歪斜的座標系を結合することである。従って、ディスプレイの体積は2部分を含んでいる:物理的な3D空間および2D画面の内のバーチャ.スペース。表示されるべき物件が物理的な3D空間の内にあれば、物件は歪斜的な3D座標に従って体積3Dイメージとして表示される。物件の位置そしてサイズは両方歪斜的座標系に従って表示されるべきである。物件がバーチャ.スペースの中に物理的な3D空間を越えておよびあればあれば、背景として2D画面の透視図によって、すなわち、表示される。      To display both the physiological depth cues and the large psychological depth cues of volumetric 3D displays, the basic concept is to combine the skewed coordinate system with a 2D screen. Thus, the volume of the display includes two parts: the physical 3D space and the virtual. space. If the property to be displayed is in a physical 3D space, the property is displayed as a volumetric 3D image according to skewed 3D coordinates. Both the location and size of the property should be displayed according to a skewed coordinate system. The property is a virtual. If there is any space beyond and beyond the physical 3D space, it will be displayed by the perspective view of the 2D screen as background.

図1は歪斜的座標系の例を説明する。平面OPQRと平面ABCDの間で区切られる空間は歪斜的な次元の直角3D空間である。直線BCに直線PQと同じ長さがあるが、PQより短いすなわち心理的な深度のキューを提供するために距離を増幅するために、示される。従って、平面ABCDに平面OPQRと実際に同じ面積があるが、より小さい示される。従ってOPQRおよびABCDによって区切られる空間は「歪斜的な空間」である。平面ABCDは2D画面である。歪斜的な空間の外のそして平面ABCDを越える物件はバーチャ.スペースの「内部」である。このバーチャ.スペースにバーチャ3D座標系がある。バーチャ.スペースの物件はこのバーチャ3D座標系に従って表示される。従ってこの2D画面は無限深さの背景を表示できる。2つの座標系、バーチャ座標系および歪斜的座標系は平面ABCDで、接続する。その結果、飛行機のイメージのような物件は、2つの空間、1バーチャと1物理的の間で、滑らかに動くことができる。飛行機は0PQRの平面に近いとき、より大きいようである。それは平面ABCDの方にOPQRの平面から移るとき、ずっと動き、歪斜的座標系のためにサイズでより小さくなる。従ってそれは空間により遠い動かすようである。飛行機は2D画面の内部に動くとき、基本的に無限深さに続くことができる。自然に、視覚効果はABCDに平面OPQRから見ることのために最も適している。      FIG. 1 illustrates an example of a skewed coordinate system. The space defined between the plane OPQR and the plane ABCD is a right-angle 3D space with a skewed dimension. The straight line BC has the same length as the straight line PQ, but is shown to amplify the distance to provide a cue with a shorter or psychological depth than the PQ. Thus, the plane ABCD has actually the same area as the plane OPQR, but is shown smaller. Therefore, the space delimited by OPQR and ABCD is a “distorted space”. The plane ABCD is a 2D screen. Properties outside the skewed space and beyond the plane ABCD are virtual. The “inside” of the space. This virtual. There is a virtual 3D coordinate system in space. Virtua. Space properties are displayed according to this virtual 3D coordinate system. Therefore, this 2D screen can display an infinite depth background. The two coordinate systems, the virtual coordinate system and the skew coordinate system are connected by a plane ABCD. As a result, an object such as an airplane image can move smoothly between two spaces, one virtual and one physical. The plane appears to be larger when close to the 0PQR plane. It moves much more when moving from the plane of OPQR towards the plane ABCD and becomes smaller in size due to the skewed coordinate system. So it seems to move farther into space. When an airplane moves inside a 2D screen, it can basically follow an infinite depth. Naturally, the visual effect is most suitable for viewing from the plane OPQR to ABCD.

図2は座標系のマッピングの幾何学的な分析を提供する。長方形JKCLは体積3Dディスプレイの表示空間の側面図を表す。バーチャ.スペースを表示するための2D画面は表示空間の「底」、KCで選ばれる。参照の位置Oは2D画面の上の距離OBの目の位置として、置かれる。幾何学的な分析は中心線OBの1つの側面でグラフが対称的であるので、なされる。      FIG. 2 provides a geometric analysis of the coordinate system mapping. A rectangle JKCL represents a side view of the display space of the volumetric 3D display. Virtua. The 2D screen for displaying the space is selected by the “bottom” of the display space, KC. The reference position O is set as the eye position of the distance OB on the 2D screen. A geometric analysis is made because the graph is symmetric on one side of the centerline OB.

第一に、非歪斜的な座標系で、目からの距離ObのサイズWの基準面bb′を置きなさい。見られた場合それから位置Oから、2D画面BCのサイズと基準面bb′のサイズに同じをしなさい。WとOb間の関係は次のとおりである:
BC/W=OB/Ob (001)
First, place a reference plane bb ′ of size W at a distance Ob from the eye in a non-distorted coordinate system. Then, from the position O, do the same for the size of the 2D screen BC and the size of the reference plane bb ′. The relationship between W and Ob is as follows:
BC / W = OB / Ob (001)

仮定CQは直線である、そして座標系のマッピングは長方形の空間Pbb′Qと歪斜的な空間PBCQ間のマッピング、および平面bb′を越える空間と2D画面BCのバーチャ.スペース間のマッピングである。      The hypothesis CQ is a straight line, and the coordinate system mapping is the mapping between the rectangular space Pbb'Q and the skewed space PBCQ, and the space above the plane bb 'and the 2D screen BC virtual. Mapping between spaces.

ff′は目の位置からのOfの距離(Of<Ob)にサイズWの平面である。座標系のマッピングに従って、歪斜的座標系の対応する平面の位置のおよびサイズFF′は得ることができる。
三角形Off′から、
OF/Of=FF′/W. (002)
三角形LCQから、
BF/BP=(FF′−PL)/(PQ−PL)
(OB−OF)/BP=(FF′−PL)/(W−PL) (003)
OFおよびFF′はOfおよび他の知られていた量の函数として、式(002)および(003)から得ることができる。即ち、fのサイズFF′のイメージおよびfのイメージff′は同じサイズであることをようである。
ff ′ is a plane of size W at the distance of Of from the eye position (Of <Ob). According to the mapping of the coordinate system, the position and size FF ′ of the corresponding plane of the skew coordinate system can be obtained.
From the triangle Off '
OF / Of = FF ′ / W. (002)
From the triangle LCQ,
BF / BP = (FF'-PL) / (PQ-PL)
(OB-OF) / BP = (FF'-PL) / (W-PL) (003)
OF and FF 'can be obtained from equations (002) and (003) as a function of Of and other known quantities. That is, it appears that the f size FF ′ image and the f image ff ′ are the same size.

hh′は目の位置からのOhの距離(Oh>Ob)にサイズWの平面である。座標系のマッピングに従って、BCの対応する平面のサイズBH′は得ることができる。三角形Ohh′から、
BH′/W=OB/Oh (004)
hh ′ is a plane of size W at a distance Oh from the eye position (Oh> Ob). According to the mapping of the coordinate system, the corresponding plane size BH ′ of BC can be obtained. From the triangle Ohh '
BH '/ W = OB / Oh (004)

平面ff′のポイント、450、および平面FF′の対応するポイント、451、間のマッピングは次のとおりである:
Fn/fm=FF′/W (005)
同じ原則は平面hh′と平面BH′間のマッピングに適用する、それに応じて、PQの平面を越える非歪斜的な空間のポイントはマッピングポイントを歪斜的空間PBCQの中のまたは2D画面の中の見つけることができる。
The mapping between the points in plane ff ′, 450, and the corresponding points in plane FF ′, 451, is as follows:
Fn / fm = FF ′ / W (005)
The same principle applies to the mapping between plane hh ′ and plane BH ′, and accordingly, points in non-distorted space beyond the plane of PQ map mapping points in skewed space PBCQ or in 2D screens. Can be found.

2D画面のイメージの表示の3つの好適た方法がある。第1方法は平面の体積3Dイメージとして2D画面のイメージを表示する。即ち、これは3D体積の中の2D平面の透視図のイメージ表示にある。テクスチャのマッピング方法は応用である。透視図のイメージはビットマップ(または他の同じようなフォーマット)としてコンピュータで最初に貯えられる。それから2D画面はこのビットマップの使用によってようにテクスチャのマップ描画される。テクスチャのマッピングの方法は後で記述されていることである。      There are three preferred methods of displaying a 2D screen image. The first method displays a 2D screen image as a planar volumetric 3D image. That is, this is an image display of a perspective view of a 2D plane in a 3D volume. The texture mapping method is an application. The perspective image is first stored on the computer as a bitmap (or other similar format). The 2D screen is then rendered as a texture map by using this bitmap. The texture mapping method is described later.

第2方法は複数の画像フレームを重ねることによって透視図の2Dイメージを表示する。「回転式往復運動式の」スクリーン(か表示パネルに)基づいて体積3Dディスプレイではスクリーンが最下の(または上)位置の近くにあるとき、多数フレームは限られた空間に置くことができる。これは2D画面の色または灰色レベルを増加できる。図3は考えを説明する。移動スクリーン570の実際のトラックが円であり、2つの隣接したフレーム間の縦の間隔が一般に均一であるので、1つのフレームからの次への回転角度は常に変わっている。スクリーンが底の近くにある時、2つの隣接したフレーム、例えば580c及び580d間の回転角度は、中間の位置の近くでそれ、例えば580a及び580bよりかなり大きい。即ち、2つの隣接したフレーム間の時間はスクリーンが一定した速度で回るのでスクリーンが近い最下の位置(または上の)ときかなりより長い。従って、フレームはより小さい縦ピッチで表示することができる。例えば、付加的なフレーム550は元のフレームの位置590d−590f間で挿入することができる。2Dイメージを発生させるのにより多くのイメージフレームが使用されているのでより多くの色または灰色レベルは表示することができる。2D画面はまだテクスチャのマッピングによって表示することができる。代わりに、底の近くのフレームの期限は比率を持つために選ぶことができる。その結果、異なったフレームのピクセルに異なったフレームの期限のために別の輝度が、ある。この輝度の相違はりっぱな輝度のレベルを増加できる。例えば、3つのフレームが1:2:4の輝度の比率と使用されれば、それから重ねられた2Dイメージの各ピクセル3の代りに、8つ(0−7)の輝度レベルがある。これは参照によってここに組み込まれるHornbeck米国特許5,280,277のpulse−width調節の方法に類似している。      The second method displays a 2D image of a perspective view by overlaying a plurality of image frames. On a volumetric 3D display based on a “rotary reciprocating” screen (or display panel), multiple frames can be placed in a limited space when the screen is near the bottom (or top) position. This can increase the color or gray level of the 2D screen. FIG. 3 illustrates the idea. Since the actual track of the moving screen 570 is a circle and the vertical spacing between two adjacent frames is generally uniform, the angle of rotation from one frame to the next is always changing. When the screen is near the bottom, the angle of rotation between two adjacent frames, eg 580c and 580d, is much larger than that near the middle position, eg 580a and 580b. That is, the time between two adjacent frames is much longer when the screen is near the lowest position (or above) because the screen rotates at a constant speed. Thus, the frame can be displayed with a smaller vertical pitch. For example, the additional frame 550 can be inserted between the original frame positions 590d-590f. More color or gray levels can be displayed because more image frames are used to generate a 2D image. The 2D screen can still be displayed by texture mapping. Alternatively, the deadline of the frame near the bottom can be chosen to have a ratio. As a result, different frame pixels have different brightness due to different frame deadlines. This difference in brightness can increase the level of brightness. For example, if three frames are used with a luminance ratio of 1: 2: 4, then there will be eight (0-7) luminance levels instead of each pixel 3 in the superimposed 2D image. This is similar to the method of pulse-width adjustment in Hornbeck US Pat. No. 5,280,277, incorporated herein by reference.

第3方法は2D画面で透視図のイメージを発生させるのに別のプロジェクターを使用する。この方法は体積3Dディスプレイに移動スクリーンに基づいてシステムを使用する。図4は好適た具体化を説明する。別の2Dプロジェクター601およびオリジナルプロジェクター15からのプロジェクショソのビームは投射経路102に切替可能な反射器602の使用によって持って来られる。切替可能な反射器の1つの例は液晶に基づく電気で切替可能なミラーである。それは参照によってここに組み込まれるSID International Symposium 1985年、v.16、p.345で記述されている。スクリーンが2D画面の位置に動くとき、切替可能な反射器は第2プロジェクター601が2Dイメージを投影するように反射に作られる。スクリーンが歪斜的な空間に動くとき、切替可能な反射器はオリジナルプロジェクター15からのイメージだけ投射経路102に入るように透明に作られる。      The third method uses another projector to generate a perspective image on a 2D screen. This method uses a system based on a moving screen in a volumetric 3D display. FIG. 4 illustrates a preferred embodiment. Projector beams from another 2D projector 601 and the original projector 15 are brought by the use of a reflector 602 switchable to the projection path 102. One example of a switchable reflector is an electrically switchable mirror based on liquid crystals. It is described in SID International Symposium 1985, incorporated herein by reference. 16, p. 345. When the screen moves to a 2D screen position, a switchable reflector is made reflective so that the second projector 601 projects a 2D image. When the screen moves into a skewed space, the switchable reflector is made transparent so that only the image from the original projector 15 enters the projection path 102.

一般に、歪斜的で物理的な空間そしてバーチャ.スペースの2D平面を結合する方法は体積3Dディスプレイのすべての形態に適用することができる。目の参照の位置は表示空間の中間の上であるならない。それは中心線からマッピングがそれに応じて終った必要ならば相殺することができる。更に、2D画面は表示空間の底のあらゆる望ましい位置に、ちょうど置くことができる。例えば、図5は最下の平面KCを離れて置かれる2D画面YBを説明する。空間のマッピングの原則は同じである。基準面Zbは選ばれる。位置Oから見られたとき基準面および2D画面YBに同じサイズがあるようである。座標系のマッピングは空間XZbPと歪斜的な空間XYBP間のマッピング、および平面Zbを越える空間と2D画面YBのバーチャ.スペース間のマッピングである。さらに、中心線の右側は図2と丁度同じである。従って、私達は眺めの広角を覆うために歪斜的な空間および2D画面の2つ、または多く、セットが表示空間で定義され、統合することができることを見ることができる。      In general, skewed physical space and virtuals. The method of joining the 2D planes of space can be applied to all forms of volumetric 3D displays. The position of the eye reference must be above the middle of the display space. It can be offset from the centerline if necessary when mapping is done accordingly. Furthermore, the 2D screen can be placed in any desired position at the bottom of the display space. For example, FIG. 5 illustrates a 2D screen YB placed away from the bottom plane KC. The principle of spatial mapping is the same. The reference plane Zb is selected. When viewed from position O, the reference plane and the 2D screen YB appear to have the same size. The mapping of the coordinate system includes mapping between the space XZbP and the skewed space XYBP, and the space beyond the plane Zb and the 2D screen YB virtual. Mapping between spaces. Furthermore, the right side of the center line is exactly the same as FIG. Thus, we can see that two or more of the skewed space and 2D screen, a set can be defined and integrated in the display space to cover the wide angle of view.

今、私達は第1方法で2D画面を描画する好まれる方法、即ち、テクスチャのマッピング方法を記述する。第一に、テクスチャのマッピング方法がこれらの原則およびアルゴリズムを使用するので、私達は少数の幾何基形の描画の原則そしてアルゴリズムを記述しなければならない。幾何基形は点、直線および三角の表面を含んでいる。これらの原則およびアルゴリズムはまた物理的な空間の色の体積3Dイメージを表示するのに使用することができる。      Now we describe the preferred method of drawing 2D screens in the first way, ie the texture mapping method. First, since the texture mapping method uses these principles and algorithms, we must describe a few geometric primitive drawing principles and algorithms. Geometric primitives include points, lines and triangular surfaces. These principles and algorithms can also be used to display volumetric 3D images of physical space colors.

一般に、体積3Dディスプレイの表示空間は光の要素の3D配列で構成される。これらの光の要素は[背景技術]のセクションで記述されているように異った方法によって、形作られる。便宜上、これらの光の要素は「格子要素」と呼ばれる(または一般に「表示要素」)。また便宜上、私達は原則およびアルゴリズムを記述するのに例として「回転式往復運動式の」スクリーンが付いているシステムを使用する。このシステムはTsaoの日本特許出願通知2002/268136(図4b)で記述されている。これらの原則およびアルゴリズムがまた他のタイプの体積3Dディスプレイに適用することが後で、示される。それに応じて、3D空間の格子要素のコレクションは図6で示されているように3D格子システムのようである。格子要素は201として長さ、幅および高さを、持っている3D点である。長さ202および幅203は投影されたイメージフレームのピクセルのサイズに対応する。高さ204はスクリーンの動きの方に測定される、体積3Dイメージの1つの「フレーム」または「スライス」の「厚さ」である。各格子要素の長さ、幅および高さはそれぞれdM、dNおよびdTである。それらはデータのレンダリングに使用する座標系に関して計算される。便宜上、彼らは「格子要素のスケール」と呼ばれる。一般的な妥当性を緩めないで記述の容易さのために、実例は格子要素が直角方法で一直線に並ぶことを仮定する。      In general, the display space of a volumetric 3D display is composed of a 3D array of light elements. These light elements are shaped in different ways as described in the Background section. For convenience, these light elements are referred to as “lattice elements” (or generally “display elements”). Also for convenience, we use a system with a “rotary reciprocating” screen as an example to describe the principles and algorithms. This system is described in Tsao's Japanese Patent Application Notice 2002/268136 (FIG. 4b). It will be shown later that these principles and algorithms also apply to other types of volumetric 3D displays. Accordingly, the collection of grid elements in 3D space is like a 3D grid system as shown in FIG. A grid element is a 3D point having length, width and height as 201. The length 202 and width 203 correspond to the size of the projected image frame pixels. Height 204 is the “thickness” of one “frame” or “slice” of the volumetric 3D image, measured towards the screen motion. The length, width and height of each lattice element are dM, dN and dT, respectively. They are calculated with respect to the coordinate system used to render the data. For convenience, they are referred to as the “grid element scale”. For ease of description without loosening general relevance, the example assumes that the grid elements are aligned in a right angle manner.

システムのプロジェクターが白色光の源の単一DMDまたFLCDを使用すれば、各格子要素は二進(黒いまたは白)点である。代わりに、Tsao米国特許6,961,045は(また日本特許出願通知2003/1107399で)(図6b−e)「変倍照明」の方法を記述する。「変倍照明」は別の強度によって少数の隣接したピクセルの各自を照らす。少数の隣接したピクセルの各グループは「合成ピクセル」と呼ばれる。合成ピクセルはいくつかのグレイ・スケールを表示できる。そのような場合、各々の合成ピクセルは1つの格子要素と定義することができる。従って、各格子要素にグレースケールの機能がある。      If the system projector uses a single DMD or FLCD with a white light source, each grid element is a binary (black or white) point. Instead, Tsao US Pat. No. 6,961,045 (also in Japanese Patent Application Notice 2003/1107399) (FIG. 6b-e) describes a method of “variable illumination”. “Variable illumination” illuminates each of a few adjacent pixels with different intensities. Each group of a small number of adjacent pixels is called a “composite pixel”. Composite pixels can display several gray scales. In such a case, each composite pixel can be defined as one grid element. Therefore, each grid element has a gray scale function.

3つの表示パネルか3つのサブパネルに基づいて色の体積3Dディスプレイでは各格子要素の位置に3つの重ねられた格子要素がある。3つの重ねられた格子要素に3つの原色がある。同じ原色のすべての格子要素のコレクションは「場」(field)と呼ばれる。従って、色の体積3Dディスプレイの表示空間に3つの重ねられた場がある。各場は別の原色を持っていることを除く単色的(monochromatic)ディスプレイのようである。      In a color volumetric 3D display based on three display panels or three sub-panels, there are three superimposed grid elements at each grid element position. There are three primary colors in three stacked grid elements. A collection of all grid elements of the same primary color is called a “field”. Thus, there are three superimposed fields in the display space of the color volume 3D display. Each field is like a monochromatic display except that it has a different primary color.

3つの基本的な幾何基形がある:

Figure 2007188462
一般に、どの3D形でも3つの幾何基形の組合せによって表示することができる。各幾何基形は位置を定義する座標のデータを含んでいる。単色的なイメージでは、各幾何基形に「強度」データがある。「強度」データは幾何基形の輝度かグレイ・スケールを表す。色のイメージでは、各幾何基形に「色」データがある。一般に、「色」データは3つの原色の3つの強度の値を含んでいる。There are three basic geometric shapes:
Figure 2007188462
In general, any 3D shape can be displayed by a combination of three geometric primitives. Each geometric primitive contains coordinate data defining a position. In a monochromatic image, each geometric base has “intensity” data. “Intensity” data represents the luminance or gray scale of the geometric basis. In a color image, each geometric base has “color” data. In general, the “color” data includes three intensity values for the three primary colors.

点幾何基形のレンダリングRender point geometry

点のレンダリングは図6の3D格子の1つの格子要素の位置へ点座標(x、y、z)のマッピングである。図7[A]は格子要素構造を示し見られてようにx−zの平面に直面する。各々の正方形の格子は、301のような、フレームのピクセルを表す。マッピングは基本的に1の点(P0のような)から1の格子要素の位置(302のような)である。マッピングはまた1の点から以上1の格子要素にである場合もある。これは「ピクセルの膨張」と呼ばれる。ピクセルの膨張は別の輝度を表すために点のサイズを調節する。P1で示されている、ピクセルの膨張は点の異なったサイズを表示するのに隣接したピクセルを使用する。8つの隣接した格子要素を膨張のために使用していたら、そして点に3x3格子要素があり、10のサイズのレベルを持つことができる(0−9つの格子要素、0の表現の黒(またはブランク))。3つの隣接した格子要素を膨張のために使用していたら、それから1点のための5つのサイズのレベルが付いている2x2格子要素が(0−4つの格子要素)ある。      Point rendering is the mapping of point coordinates (x, y, z) to the position of one grid element of the 3D grid of FIG. FIG. 7 [A] faces the xz plane, as can be seen showing the lattice element structure. Each square grid represents a frame pixel, such as 301. The mapping is basically the position of one grid element (like 302) from one point (like P0). The mapping can also be from one point to more than one grid element. This is called “pixel dilation”. Pixel dilation adjusts the size of points to represent different brightness. Pixel dilation, indicated by P1, uses adjacent pixels to display different sizes of points. If 8 adjacent grid elements were used for expansion, and the point had a 3x3 grid element, it could have a level of 10 (0-9 grid elements, 0 representation black (or blank)). If 3 adjacent grid elements were used for expansion, then there are 2x2 grid elements (0-4 grid elements) with 5 size levels for 1 point.

一般に、点のマッピングは1つに「スライス」(または「フレーム」)なされる。しかしマッピングはまた1つのスライス以上に望まれたとき作ることができる。図8[B]で411で示されている、「スライスする厚さ」ds1=dT(実際のフレームの厚さ)をマッピングで使用されたら、直線の格子要素はコーナー411でだけ接続してもよい。その結果、直線のイメージは非一体のようであることができる。より大きいスライスの厚さ、例えばds2=1.5xdTの使用によって、点のマッピングは2つの隣接したフレームに作ることができる。付加的な格子要素412は直線に加えられ、直線を連続的なようである作る。同じは表面のレンダリングの例に適用する。因数1.5xは「Over−Sampling Factor」と呼ばれる(OSF)。      In general, the mapping of points is done in one “slice” (or “frame”). However, a mapping can also be created when desired for more than one slice. If the “thickness to slice” ds1 = dT (actual frame thickness) shown at 411 in FIG. 8B is used in the mapping, straight grid elements may be connected only at the corner 411. Good. As a result, the straight image can appear to be non-integral. By using a larger slice thickness, eg ds2 = 1.5 × dT, the point mapping can be made in two adjacent frames. Additional grid elements 412 are added to the straight line, making the straight line appear to be continuous. The same applies to the surface rendering example. The factor 1.5x is called “Over-Sampling Factor” (OSF).

直線幾何基形のレンダリングRendering a linear geometry

一般に、点基づかせていたレンダリングは直線および三角面のための好適たレンダリング方法である。点基づかせていたレンダリングは次の2つの主要なステップが含まれている:
(1)幾何基形を表す一組のサンプル点に幾何基形を変えること。各サンプル点は点幾何基形である。
(2)各サンプル点のレンダリング。
In general, point-based rendering is the preferred rendering method for lines and triangles. Point-based rendering includes two main steps:
(1) Changing the geometric base to a set of sample points representing the geometric base. Each sample point is a point geometry.
(2) Rendering of each sample point.

一般に、幾何基形の輝度のレベルは描画された表示要素の数に比例している。表示要素自体にグレイ・スケール機能があれば、輝度のレベルは表示要素の輝度のスケールにまた比例している。サンプル点の空間的な配分そしてサイズの制御によって望ましい視覚輝度を与えるために、描画された表示要素の総数は制御することができる。      In general, the luminance level of a geometric base is proportional to the number of displayed display elements. If the display element itself has a gray scale function, the brightness level is also proportional to the brightness scale of the display element. The total number of rendered display elements can be controlled to give the desired visual brightness by controlling the spatial distribution and size of the sample points.

直線は図8[A]で説明されるように等間隔の点、見本抽出される。
直線を仮定することはNsの区分に分けられる、そして次の通りサンプル点は得ることができる:

Figure 2007188462
n=0は点P0(x0、y0、z0)であり、n=NsはP1(x1、y1、z1)である、全く2つの端ポイントを含むNs+1点がある。As illustrated in FIG. 8A, straight lines are sampled at equal intervals.
Assuming a straight line is divided into Ns sections, and sample points can be obtained as follows:
Figure 2007188462
There are Ns + 1 points including exactly two end points, where n = 0 is the point P0 (x0, y0, z0) and n = Ns is P1 (x1, y1, z1).

点基づかせていたレンダリングによって、直線に沿う点配分の密度そして各点のサイズが直線の(または直線の各場の)グレイ・スケール(か輝度または強度)表現するのに使用することができる。これはサンプル点の最適数(Ns_op+1)についてされる。(Ns_op+1)は体積3Dディスプレイで表示されたとき直線に沿うすべての格子要素を満たすために必要のサンプル点の最少量ある。これは直線のイメージの完全な強度(輝度)を与える。Ns_opより大きいNsは直線により多くの格子要素を加えなかったりし、それ故に輝度を更に高めない。      With point-based rendering, the density of point distributions and the size of each point along a straight line can be used to represent a straight line (or each field in a straight line) gray scale (or luminance or intensity). This is done for the optimal number of sample points (Ns_op + 1). (Ns_op + 1) is the minimum amount of sample points needed to fill all grid elements along a straight line when displayed on a volumetric 3D display. This gives the full intensity (brightness) of the straight line image. Ns greater than Ns_op does not add more lattice elements to the line and therefore does not further increase the brightness.

直線幾何基形のためのNs_opは次の方式から計算される:

Figure 2007188462
Figure 2007188462
Ns_op for a linear geometry is calculated from the following scheme:
Figure 2007188462
Figure 2007188462

基本的に、式(102)それぞれx、yおよびzの方向で必要なサンプル点の最少量を計算し、最大数を選ぶ。サンプル点の最高額を与える方向は「支配的な見本抽出の軸線」か「支配的な見本抽出の方向」と呼ばれる。各方向の最低の間隔は格子要素のスケールと直接関連している。ピクセルの膨張が応用なら、xおよびyの方向の最低の間隔は高められる。      Basically, Equation (102) calculates the minimum amount of sample points required in the x, y and z directions, respectively, and chooses the maximum number. The direction giving the maximum amount of sample points is called the “dominant sampling axis” or “dominant sampling direction”. The minimum spacing in each direction is directly related to the grid element scale. If pixel expansion is applied, the minimum spacing in the x and y directions is increased.

図8[B]膨張するピクセルを仮定しない2つの簡単だった例を説明する。直線L1(縦直線):

Figure 2007188462
平行斜線の長方形は描画された格子要素を表す。直線のイメージはzの方向で連続的である。支配的な見本抽出の軸線はz軸である。直線L2(x−zの平面に平行直線):
Ns_op=int[Max[0,6,4]=6.
直線のイメージzおよびyの両方方向で連続的である。支配的な見本抽出の軸線はy軸である。FIG. 8B illustrates two simple examples that do not assume expanding pixels. Straight line L1 (vertical straight line):
Figure 2007188462
A parallel diagonal rectangle represents a drawn grid element. The straight image is continuous in the z direction. The dominant sampling axis is the z-axis. Straight line L2 (straight line parallel to xz plane):
Ns_op = int [Max [0,6,4] = 6.
It is continuous in both directions of the straight line image z and y. The dominant sampling axis is the y-axis.

NsがNs_opより小さいとき、格子要素の少量は描画される。従って、直線の輝度は減る。直線幾何基形の「輝度比率」は直線の完全な輝度について定義することができる:
BR_1(直線幾何基形の「輝度比率」)=Br_1/Br_1_op (103)
Br_1=直線幾何基形の望ましい輝度のレベル
Br_1_op=直線幾何基形の完全な輝度のレベル(即ち、サンプル点の最適数を使用して)
When Ns is less than Ns_op, a small amount of grid elements are drawn. Therefore, the brightness of the straight line is reduced. The “luminance ratio” of a linear geometric basis can be defined for the complete luminance of the line:
BR_1 ("Luminance ratio" of the linear geometric basis) = Br_1 / Br_1_op (103)
Br_1 = desired luminance level of the linear geometric base Br_1_op = full luminance level of the linear geometric base (ie, using the optimal number of sample points)

幾何基形の輝度のレベルは描画された表示要素の数に比例している。表示要素自体にグレイ・スケール機能があれば、輝度のレベルは表示要素の輝度のスケールにまた比例している。従って、
BR_1=Nge_1Bge/(Nge_1_opBge_f) (104)
Nge_1=直線で描画されるべき格子要素の数
Nge_1_op=完全描画されたら直線の格子要素の数、
Bge=各々の描画される格子要素の輝度のレベル
Bge_f=格子要素の完全な輝度のレベル
The luminance level of the geometric base is proportional to the number of drawn display elements. If the display element itself has a gray scale function, the brightness level is also proportional to the brightness scale of the display element. Therefore,
BR_1 = Nge_1 * Bge / (Nge_1_op * Bge_f) (104)
Nge_1 = number of grid elements to be drawn in a straight line Nge_1_op = number of grid elements in a straight line when completely drawn,
Bge = the brightness level of each rendered grid element Bge_f = the full brightness level of the grid element

直線が完全に描画されるとき、直線の格子要素の数はサンプル点の数によって次の通り表現することができる:
Nge_1_op=Ns_opFd (106)
Ns_opは式(102)から計算される。
Fdは式(102)のピクセル膨張の因数である。
同様に、格子要素の望ましい数は次のとおりである:
Nge_1=Nsn_pd (107)
n_pd=「膨張数」
=点の膨張させたピクセルの数(元の1つを含んで)
例えば2x2の膨張が(fd=2)応用なら、そしてn_pdは0から4の間で価値を取り、膨張の異なったレベルを示す。
When a line is completely drawn, the number of grid elements in the line can be expressed as follows according to the number of sample points:
Nge_1_op = Ns_op * Fd 2 (106)
Ns_op is calculated from the equation (102).
Fd is a factor of pixel expansion in equation (102).
Similarly, the desired number of grid elements is:
Nge_1 = Ns * n_pd (107)
n_pd = “expansion number”
= Number of dilated pixels of the point (including the original one)
For example, if a 2 × 2 dilation (fd = 2) application, then n_pd takes a value between 0 and 4, indicating different levels of dilation.

従って、式(106)および(107)から、式(104)なる:
BR_1=(Ns/Ns_op)(n_pd/Fd(Bge/Bge_f) (108)
Nsn_pd(Bge/Bge_f)=Ns_opFd2*BR_1 (109)
式(109)は輝度比率BR_1の直線のレンダリングを要約する。それはサンプル点の数、ピクセルの膨張および格子要素のグレースケールの機能の効果を含んでいる。一般に、一組の満足式(109)の値(Ns、n_pd、(Bge/Bge_f))は望ましい輝度比率BR_1で直線を描画する。
ピクセルが二進であり、膨張がないば、そしてn_pd = (Bge/Bge_f)= fd = 1。式(109)なる
Ns=Ns_opBR_1 (110)
ここに、点密度制御だけ直線輝度。
Nsがおよび(Bge/Bge_f)固定なら、ピクセルの膨張は唯一の制御要因である。例えば、3x3膨張は10の輝度のレベルを与える。4x4膨張は17のレベルを与える。
Therefore, from equations (106) and (107), equation (104) is obtained:
BR_1 = (Ns / Ns_op) * (n_pd / Fd 2) * (Bge / Bge_f) (108)
Ns * n_pd * (Bge / Bge_f) = Ns_op * Fd 2 * BR_1 (109)
Equation (109) summarizes the rendering of a straight line with luminance ratio BR_1. It includes the effects of the number of sample points, pixel dilation and the gray scale capability of the grid elements. In general, a value (Ns, n_pd, (Bge / Bge_f)) of a set of satisfaction formulas (109) draws a straight line with a desirable luminance ratio BR_1.
If the pixel is binary and there is no dilation, then n_pd = (Bge / Bge_f) = fd = 1. Ns = Ns_op * BR_1 (110) represented by the formula (109)
Here, only linear brightness for point density control.
If Ns is fixed and (Bge / Bge_f), pixel expansion is the only control factor. For example, a 3x3 dilation gives a level of 10 brightness. A 4x4 expansion gives 17 levels.

三角面幾何基形の簡単レンダリングEasy rendering of triangular geometry

簡単レンダリングはサンプル点の1つの層だけ使用によって三角面幾何基形を描画する。サンプル点を得る好まれたアプローチは三角面を「満たすこと直線によって」である。直線は直線幾何基形としてそれから描画することができる。それはサンプル点の密度の配分そしてサイズの制御によって幾何基形のグレースケールを制御する。      Simple rendering draws a triangular geometry by using only one layer of sample points. The preferred approach for obtaining sample points is “by straight line filling” the triangular surface. A straight line can then be drawn as a linear geometric basis. It controls the geometric base grayscale by controlling the density distribution and size of the sample spots.

第一に、私達は完全に三角形を描画する方法を記述する。直線のレンダリングの場合にはように、完全に三角形を描画する基本的なアプローチは生じられた格子要素が三角形をカバーするようにちょうど足りるだけのサンプル点を描画することである。好適たステップは次のとおりである:      First, we describe how to completely draw a triangle. As in the case of straight line rendering, the basic approach to fully drawing a triangle is to draw just enough sample points so that the resulting grid element covers the triangle. The preferred steps are as follows:

(1)三角形の3つの端の各自のためのサンプル点の最適数を、式(102)を使用して計算する。
(2)「方向の端」として最多のサンプル点がある端を選び、「基盤の端」として最少のサンプル点がある端を選び、そして両方の端のサンプル点の位置を見つける。これはちょうど必要なだけ完全に三角面を描画するためにサンプル点の最少量を与える。
(1) Calculate the optimal number of sample points for each of the three ends of the triangle using equation (102).
(2) Select the end with the most sample points as the “end of direction”, select the end with the least sample points as the “end of base”, and find the positions of the sample points at both ends. This gives the minimum amount of sample points to draw the triangle as completely as needed.

(3)三角形上のメッシュ・システムを概念上基盤の端の各サンプル点からの直線を描画し、直線を方向の端に平行にし、そして方向の端の各サンプル点からの直線を描画し、そして直線を基盤の端に平行にすることによって組み立てる。三角形の内で落ちるラインの交差は描画されるべきサンプル点の位置を示す。圖9を見なさい。      (3) Draw a straight line from each sample point at the edge of the base of the mesh system on the triangle, draw a straight line from each sample point at the direction end, and draw a straight line from each sample point at the end of the direction; And assemble by making the straight line parallel to the edge of the base. The intersection of lines falling within the triangle indicates the position of the sample point to be drawn. See 圖 9.

(4)すべてのメッシュ・直線のサンプル点を式(101)の使用によって得る。直線が2つの端の1つに平行であり、2つの端のメッシュ・サイズが知られているので、各直線のサンプル点の数は容易に計算することができる。      (4) Obtain all mesh and straight line sample points by using equation (101). Since the straight line is parallel to one of the two ends and the mesh size of the two ends is known, the number of sample points on each straight line can be easily calculated.

(5)すべてのサンプル点のレンダリング。方向の端に平行であるすべての直線は方向の端と同じ密度で描画される。基盤の端に平行であるすべての直線は基盤の端と同じ密度で描画される。方向の端および基盤の端が完全に描画される両方であるので、すべての直線は完全に描画される。それ故に、点密度はすべての方向で最適である。図9を見なさい。三角形の2つの端基づいてレンダリングのメッシュの構築におよび最適メッシュサイズ独自に2方向で設定によって、上記のアルゴリズムは異なったサイズの三角形のための大体均一点密度を与える。      (5) Rendering of all sample points. All straight lines parallel to the direction edge are drawn with the same density as the direction edge. All straight lines that are parallel to the edge of the base are drawn with the same density as the edges of the base. All the straight lines are drawn completely because both the direction edge and the base edge are completely drawn. Therefore, the point density is optimal in all directions. See FIG. By constructing the rendering mesh based on the two ends of the triangle and setting the optimal mesh size independently in two directions, the above algorithm gives roughly uniform point densities for triangles of different sizes.

より少しにより完全に輝度の三角形を表示するためには、サンプル点の総数は減らされた輝度に一致させるように減る。輝度比率は:
BR_st(三角面の輝度比率)=Br_st/Br_st_op (201)
Br_st=三角面の望ましい輝度のレベル
Br_st_op=三角面の完全な輝度のレベル(即ち、サンプル点の最適数を使用して)
In order to display a more completely luminance triangle, the total number of sample points is reduced to match the reduced luminance. The luminance ratio is:
BR_st (luminance ratio of triangular surface) = Br_st / Br_st_op (201)
Br_st = desired luminance level of the triangular plane Br_st_op = full luminance level of the triangular plane (ie, using the optimal number of sample points)

幾何基形の輝度のレベルは描画された表示要素の数に比例している。表示要素自体にグレイ・スケール機能があれば、輝度のレベルは表示要素の輝度のスケールにまた比例している。従って、
BR_st=Nge_stBge/(Nge_st_opBge_f) (202)
Nge_st=三角面で描画されるべき格子要素の数
Nge_st_op=完全描画されたら三角面の格子要素の数、
The luminance level of the geometric base is proportional to the number of drawn display elements. If the display element itself has a gray scale function, the brightness level is also proportional to the brightness scale of the display element. Therefore,
BR_st = Nge_st * Bge / (Nge_st_op * Bge_f) (202)
Nge_st = number of grid elements to be drawn on the triangular plane Nge_st_op = number of grid elements on the triangular plane when completely drawn,

三角面が完全に描画されるとき、三角面の格子要素の数はサンプル点の数によって次の通り表現することができる:
Nge_st_op=(完全描画される三角面のサンプル点の数)Fd (203)
Fdは式(102)のピクセル膨張の因数である。
(完全描画される三角面のサンプル点の数)=Ns_op_bNs_op_d/2 (204)
Ns_op_b=基盤の端のサンプル点の最適数
Ns_op_d=方向の端のサンプル点の最適数
従って、
Nge_st_op=Ns_op_bNs_op_dFd/2 (205)
Nge_st(格子要素の望ましい数)=Ns_bNs_dn_pd/2 (206)
Ns_b=基盤の端のサンプル点の数
Ns_d=方向の端のサンプル点の数
従って、

Figure 2007188462
式(210)は輝度比率BR_stの三角面のレンダリングを要約する。それはサンプル点の数、ピクセルの膨張および格子要素のグレースケールの機能の効果を含んでいる。一般に、一組の満足式(210)の値は望ましい輝度比率BR_stで三角面を描画する。When a triangle is completely drawn, the number of triangular grid elements can be expressed by the number of sample points as follows:
Nge_st_op = (the number of sample points on the triangular surface to be completely drawn) * Fd 2 (203)
Fd is a factor of pixel expansion in equation (102).
(Number of sample points on the triangular surface to be completely drawn) = Ns_op_b * Ns_op_d / 2 (204)
Ns_op_b = optimum number of sample points at the edge of the base Ns_op_d = optimum number of sample points at the edge of the direction
Nge_st_op = Ns_op_b * Ns_op_d * Fd 2 /2 (205)
Nge_st (desired number of lattice elements) = Ns_b * Ns_d * n_pd / 2 (206)
Ns_b = number of sample points at the edge of the base Ns_d = number of sample points at the edge of the direction
Figure 2007188462
Equation (210) summarizes the rendering of the triangular plane of the luminance ratio BR_st. It includes the effects of the number of sample points, pixel dilation and the gray scale capability of the grid elements. In general, the value of the set of satisfaction formulas (210) draws a triangular plane with a desirable luminance ratio BR_st.

Ns_bおよびNs_dは式(102)と同じような次の式によって計算される:
Ns=int[Max[Δx/dx,Δy/dy,Δz/dz]] (102A)
Δxは端のx方向のスパンである、dx=Nsを計算するための間隔
Δyは端のy方向のスパンである、dy=Nsを計算するための間隔
Δzは端のz方向のスパンである、dz=Nsを計算するための間隔
一般に、dTがdMとdN異なって、およびピクセルの膨張がdM_dN方向で主に作動するので、dx、dy、dzは格子要素構造に関連して三角面のオリエンテーションに従って計算される。これは端のための最適見本抽出の間隔の選択に影響を与える。3つの場合がある:
Ns_b and Ns_d are calculated by the following equation similar to equation (102):
Ns = int [Max [Δx / dx, Δy / dy, Δz / dz]] (102A)
Δx is the span in the x direction at the end, interval for calculating dx = Ns Δy is the span in the y direction at the end, interval for calculating dy = Ns Δz is the span in the z direction at the end , Dz = Ns In general, dx is different from dM and dN, and since pixel expansion operates mainly in the dM_dN direction, dx, dy, dz are triangular planes relative to the lattice element structure. Calculated according to orientation. This affects the selection of the optimal sampling interval for the edge. There are three cases:

場合(1):基盤端および方向端両方の支配的な見本抽出の方向はz軸である。式(102A)から:
Ns=int[Δz/dz]
式(102)から:
Ns_op∝Δz/dz_op
Ns/Ns_op=dz_op/dz=dT/dz (212)
式(210)および(212)から:

Figure 2007188462
sqrt[内容]:内容の二乗根操作
dzは式(214)から得ることができるおよびNsは得ることができる。Case (1): The dominant sampling direction at both the base end and the direction end is the z-axis. From equation (102A):
Ns = int [Δz / dz]
From equation (102):
Ns_op∝Δz / dz_op
Ns / Ns_op = dz_op / dz = dT / dz (212)
From equations (210) and (212):
Figure 2007188462
sqrt [content]: The square root operation dz of the content can be obtained from equation (214) and Ns can be obtained.

場合(2):基盤端および方向端両方の支配的な見本抽出の方向はxまたはy軸である。式(102A)から:
Ns=int[Δx/dx]or int[Δy/dy]
式(102)から:

Figure 2007188462
一般に、dM=dNはおよび私達dx=dyを取ることができる。式(210)および(216)から:
Figure 2007188462
Case (2): The dominant sampling direction at both the base end and the direction end is the x or y axis. From equation (102A):
Ns = int [Δx / dx] or int [Δy / dy]
From equation (102):
Figure 2007188462
In general, dM = dN and we can take dx = dy. From equations (210) and (216):
Figure 2007188462

場合(3):2つの端の1つにz軸で支配的な見本抽出の方向およびxかy軸で他がある。次のプロシージャは好まれる。プロシージャは2つのする方向のおよそ等しい間隔のメッシュを与える、
式(210)、(212)および(216)の結合:

Figure 2007188462
dx<dTが、それからdz=dTを取れば。(220)から:
dx/(n_pdBge/Bge_f)=dM/(FdBR_st) (222)
従って、
Figure 2007188462
すなわち、式(224)の状態の下で、dz=dTおよび式(222)から計算したdxを式(102A)で使用する。
dx>=dTが、それからdz=dxを取れば。(220)から:
Figure 2007188462
すなわち、式(228)の状態の下で、式(226)から計算したdxを式(102A)で使用する。Case (3): One of the two ends has the sample direction dominant on the z axis and the other on the x or y axis. The following procedure is preferred. The procedure gives an approximately equally spaced mesh in two directions,
Coupling of formulas (210), (212) and (216):
Figure 2007188462
If dx <dT, then take dz = dT. From (220):
dx / (n_pd * Bge / Bge_f) = dM / (Fd * BR_st) (222)
Therefore,
Figure 2007188462
That is, dx = dT and dx calculated from equation (222) are used in equation (102A) under the condition of equation (224).
If dx> = dT, then take dz = dx. From (220):
Figure 2007188462
That is, dx calculated from the equation (226) is used in the equation (102A) under the state of the equation (228).

三角面幾何基形の多層レンダリングMultilayer rendering of triangular geometry

簡単なレンダリングが応用のとき、指定三角形内の格子要素の総数は固定である。この数は実際に表示され、感知することができる輝度のレベルの数を限る。三角形のより多くの格子要素は、より多くの輝度のレベル表示することができる。多層レンダリングは1つの三角面のレンダリングで1つ以上の三角の表面を(補助表面と呼ばれる)使用する。図10[A]は考えを説明する。原則は一緒に密接に複数の補助表面、1101a_1101cを積み重ねることである。視覚でそれらは1つの三角面のようである。実用的により多くの格子要素が輝度のより多くのレベルを表現するのに使用されている。そして元の形へ最低のゆがみがある。      When simple rendering is applied, the total number of grid elements in a specified triangle is fixed. This number limits the number of levels of brightness that can actually be displayed and sensed. More triangular grid elements can display more brightness levels. Multi-layer rendering uses one or more triangular surfaces (called auxiliary surfaces) in a single triangular rendering. FIG. 10A illustrates the idea. The principle is to stack a plurality of auxiliary surfaces 1101a — 1101c closely together. Visually they are like a triangle. Practically more grid elements are used to represent more levels of brightness. And there is minimal distortion to the original shape.

仮定NLの補助表面は使用され、望ましい輝度比率はBR_ms、レンダリングのプロシージャ後で記述されているである。輝度比率の概念および式(201)と(202)はまだ適用する。しかし、明快さのために、式(201)多数の補助表面の場合のためにように書直される、
BR_ms(輝度比率)=Br_ms/Br_ms_op (301)
Br_ms=三角面の望ましい輝度のレベル
Br_ms_op=三角面の完全な輝度のレベル
Br_ms_op=NLNge_ss_opBge_f
Nge_ss_op=1つの完全な輝度の補助表面の格子要素の数
従って、
BR_ms=Nge_msBge/(NLNge_ss_opBge_f) (302)
Nge_ms=三角面で描画されるべき格子要素の数
=すべてのNLの補助表面のされた格子要素の数の合計。
式(302)から、私達は補助表面の輝度比率の合計が三角面の輝度比率と等しいことを見る、
BR_ms=BR_ss_0+BR_ss_1+...+BR_ss_(NL−1) (304)
A hypothetical NL auxiliary surface is used and the desired luminance ratio is BR_ms, described after the rendering procedure. The concept of luminance ratio and equations (201) and (202) still apply. However, for clarity, equation (201) is rewritten as for the case of multiple auxiliary surfaces,
BR_ms (luminance ratio) = Br_ms / Br_ms_op (301)
Br_ms = desired luminance level of the triangular surface Br_ms_op = complete luminance level of the triangular surface Br_ms_op = NL * Nge_ss_op * Bge_f
Nge_ss_op = number of grid elements of one full brightness auxiliary surface
BR_ms = Nge_ms * Bge / (NL * Nge_ss_op * Bge_f) (302)
Nge_ms = number of grid elements to be drawn in a triangular plane = total number of grid elements on all NL auxiliary surfaces.
From equation (302) we see that the sum of the luminance ratios of the auxiliary surfaces is equal to the luminance ratio of the triangular surface,
BR_ms = BR_ss_0 + BR_ss_1 +. . . + BR_ss_ (NL-1) (304)

一般に、式(304)を満たす補助表面の輝度比率の組合せ与える同じような結果を。
しかし次は最も便利な方法である:

Figure 2007188462
各補助表面は描画されるべき元の三角面と同じサイズ、形およびオリエンテーションの1つの三角面である。各々の補助表面のBR_ssの輝度比率はまたBR_stと同じ方法定義される。そう、補助表面は三角面の簡単なレンダリングとによって同じ方法丁度描画することができる。In general, similar results give a combination of auxiliary surface luminance ratios that satisfy equation (304).
But the following is the most convenient method:
Figure 2007188462
Each auxiliary surface is one triangular surface of the same size, shape and orientation as the original triangular surface to be drawn. The brightness ratio of BR_ss for each auxiliary surface is also defined in the same way as BR_st. So, the auxiliary surface can be drawn exactly the same way with a simple rendering of a triangular surface.

隣接した2つ補助表面間の間隔(ts)は同じフレームの格子要素を重複することを防ぐ好まれた最小値がある、図10[B]で説明される、
ts=dssinα
ds=dTOSF
αは表面の法線と地平線間の角度ある。
単位の法線ベクトルN=[nx,ny,nz]の三角面、
ts=ds|nz| (505)
小さくαなる時、Tsは小さくなる。式(505)によdMFdより小さくなるTsなら、そして次の最小値は使用されるべきである:
ts=dM・Fd (505A)
補助表面は三角面の法線の方向に沿って角の最高点の計算によって見つけることができる:
(x,y,z)j,k=(xj−ktsnx,yj−ktsny,zj−ktsnz) (507)
(xj,yj,zj)は元の三角面の角の最高点ある
j=0,1,2(3つ角の最高点)
k=0,1,...NL−1は補助表面の指数である。
The spacing (ts) between two adjacent auxiliary surfaces has a preferred minimum value that prevents overlapping grid elements of the same frame, as illustrated in FIG. 10B.
ts = ds * sin α
ds = dT * OSF
α is the angle between the surface normal and the horizon.
Unit normal vector N = [nx, ny, nz] triangular plane,
ts = ds * | nz | (505)
When α becomes smaller, Ts becomes smaller. If Ts is smaller than dM * Fd according to equation (505), then the following minimum value should be used:
ts = dM · Fd (505A)
The auxiliary surface can be found by calculating the highest point of the corner along the direction of the normal of the triangle:
(X, y, z) j, k = (xj−k * ts * nx, yj−k * ts * ny, zj−k * ts * nz) (507)
(Xj, yj, zj) is the highest point of the original triangle face j = 0, 1, 2 (the highest point of the three corners)
k = 0, 1,. . . NL-1 is the index of the auxiliary surface.

図11[A]で示されているように、全2Dビットマップをカバーする2D座標系(u,v)は定義される。座標(u,v)の範囲は(0,0)および(1,1)その間ある。ビットマップにuの方向でMのピクセルおよびvの方向でNのピクセルがある。各ピクセルは整数の指数[M,N]によってM= 0,1,2... M−1およびN = 0,1,2... N−1、と見つけることができる。従って、[m,n]指数と(u,v)座標間にマッピングがある。      As shown in FIG. 11A, a 2D coordinate system (u, v) that covers the entire 2D bitmap is defined. The range of coordinates (u, v) is between (0,0) and (1,1). There are M pixels in the u direction and N pixels in the v direction in the bitmap. Each pixel is represented by an integer index [M, N] where M = 0, 1, 2,. . . M-1 and N = 0,1,2. . . N-1 can be found. Therefore, there is a mapping between [m, n] exponent and (u, v) coordinates.

三角面へのビットマップのテクスチャのマッピングはu−v平面の対応の2D三角形によって定義される。対応の三角形は(明快さのためのUVTと呼ばれる)3D三角面に3つの角の最高点によって(明快さのための3DTと呼ばれる)対応する。UVTによってカバーされるビットマップ区域と3DT間のマッピングは線形割合に基づいている。従って、図11[B]で説明されるように、3DTのグループ1211と望ましいビットマップ区域をカバーするUVTのグループ1210間のマッピングはまた作ることができる。      The mapping of the bitmap texture to the triangular plane is defined by the corresponding 2D triangle in the uv plane. The corresponding triangle corresponds to the 3D triangular face (called UVT for clarity) by the highest point of the three corners (called 3DT for clarity). The mapping between the bitmap area covered by UVT and 3DT is based on a linear ratio. Accordingly, as described in FIG. 11B, a mapping between a 3DT group 1211 and a UVT group 1210 covering the desired bitmap area can also be made.

色のテクスチャのマッピングおよびレンダリングは1つの場一度に行う。即ち、色ビットマップは3つの場のマップ(R(紅)場、G(緑)場およびB(青)場)に最初に分かれている。従って各場のマップは単色的なイメージマップ、同じプロシージャによって描画することができる。体積3Dディスプレイの光学はそして3つの場を組み変え、色のテクスチャのマップを示す。単色的なテクスチャのマップの三角面を描かれたする基本的な手順は次の通りある:
(1)多数個の異なった強度の範囲にテクスチャのマップの完全な強度のスケールを分けなさい。従って各強度の範囲はテクスチャのマップの別の地域に対応する。
(2)テクスチャのマップの各地域から三角面の対応する地域にマッピングを確立しなさい。前に記述されているUVT−3DTのマッピングのプロシージャを使用しなさい。
(3)マッピングに従ってその地域の強度の範囲に基づいて三角面の対応する各々の地域に輝度のレベルを割り当てなさい。輝度比率は前に記述されていると同じ方法定義される。
(4)別の輝度のレベルを表すために表示要素の別の密度の三角面の対応する各々の地域を描画しなさい。点基づかせていたレンダリングは好まれる方法である。基本的に、表面の対応する各々の地域は全表面への望ましい輝度を与えるメッシュ・システムの下で描画されるが、サンプル点は対応する地域の内にだけ置かれる。
Color texture mapping and rendering is done one field at a time. That is, the color bitmap is initially divided into three field maps (R (red) field, G (green) field, and B (blue) field). Each field map is therefore a monochromatic image map and can be drawn by the same procedure. The optics of the volumetric 3D display then recombine the three fields and show a map of color texture. The basic procedure for drawing a triangular surface of a monochromatic texture map is as follows:
(1) Divide the full intensity scale of the texture map into a number of different intensity ranges. Thus, each intensity range corresponds to a different region of the texture map.
(2) Establish a mapping from each region of the texture map to the corresponding region of the triangle. Use the UVT-3DT mapping procedure described previously.
(3) Assign a brightness level to each corresponding area of the triangle based on the intensity range of the area according to the mapping. The luminance ratio is defined in the same way as previously described.
(4) Draw each corresponding area of the triangle of different density of display elements to represent different brightness levels. Point-based rendering is the preferred method. Basically, each corresponding area of the surface is drawn under a mesh system that gives the desired brightness to the entire surface, but the sample points are placed only within the corresponding area.

詳細なステップは次の通りある:
ステップ1:ビットマップから、各ピクセルの紅、緑および青の強度の値を得、3つのピクセルデータ構造をセットアップしなさい:
Pixel_Rfield[m][n].intensity=FI(field intensity)R;
Pixel_Gfield[m][n].intensity=FIG;
Pixel_Bfield[m][n].intensity=FIB;
FIはfield intensityを意味する。
ステップ2:各場では、Nrgnの地域に強度のスケール、1250を分けなさい。部分は強度0とFI_fullの間にあるならない。お好みであれば、分割はFI_lowとFI_highの間で置くことができる、図11[C]見なさい。
The detailed steps are as follows:
Step 1: Get the red, green and blue intensity values for each pixel from the bitmap and set up three pixel data structures:
Pixel_Rfield [m] [n]. intensity = FI (field intensity) R;
Pixel_Gfield [m] [n]. intensity = FIG;
Pixel_Bfield [m] [n]. intensity = FIB;
FI stands for field intensity.
Step 2: In each field, divide the strength scale, 1250, into the Nrgn region. The part must not be between intensity 0 and FI_full. If desired, the split can be placed between FI_low and FI_high, see FIG. 11C.

ステップ3:各場では、強度の価FIに従ってNrgn「地域」の1つに各ピクセルを割り当てなさい。地域iの地域指数:
i=(int)[((FI−FI_low)/(FI_high−FI_low))Nrgn]
(int)[内容]:取得「内容」より小さいの最低の整数の操作
地域指数のデータ構造をセットアップしなさい、(例としてR(紅)場を使用して)
Pixel_Rfield[m][n].region_idx=i; (700A)
Step 3: In each field, assign each pixel to one of the Nrgn “regions” according to the intensity value FI. Regional index for region i:
i = (int) [((FI-FI_low) / (FI_high-FI_low)) * Nrgn]
(Int) [content]: Set up the data structure of the lowest integer manipulated region index less than the acquired “content” (using the R (red) field as an example)
Pixel_Rfield [m] [n]. region_idx = i; (700A)

ステップ4:三角面1の地域を一度に描画しなさい。地域iでは、対応する輝度比率のBR[i]見つけるためにこの地域の下限の強度を取りなさい。図11[C]に従って線形補入を使用しなさい:

Figure 2007188462
これは三角面のこの地域を描画するのに使用されるべき輝度比率BRである。
BRが計算されれば、私達はそれから三角面のこの地域を描画するために前に記述されている簡単レンダリングか多層レンダリングを使用してもいい。多層レンダリングが使用されれば、補助表面それぞれの輝度比率は更に式(303)によって計算されるべきである。Step 4: Draw the area of triangle 1 at a time. In region i, take the lower intensity of this region to find the corresponding luminance ratio BR [i]. Use linear interpolation according to Figure 11 [C]:
Figure 2007188462
This is the luminance ratio BR that should be used to draw this region of the triangle.
Once the BR is calculated, we can then use the simple rendering or multi-layer rendering described previously to render this region of the triangle. If multi-layer rendering is used, the luminance ratio of each auxiliary surface should be further calculated by equation (303).

知られていた輝度比率の地域iのレンダリングは次のステップを含んでいる:
(ステップ4.1):3D三角面(3DT)の基盤の端と方向の端のサンプル点の数((Ns_b[i]+1)と(Ns_d[i]+1))を定めなさい。簡単レンダリングか多層レンダリングを使用し、対応するプロシージャに続きなさい。
The rendering of a known luminance ratio region i includes the following steps:
(Step 4.1): Determine the number of sample points ((Ns_b [i] +1) and (Ns_d [i] +1)) at the edge of the base of the 3D triangle (3DT) and the edge in the direction. Use simple rendering or multilayer rendering and follow the corresponding procedure.

(ステップ4.2):三角形の対応するUVTにNs_b[i]およびNs_d[i]を適用し、サンプル点(u,v)j,kを計算しなさい。サンプル点の計算は前にと同じ、式(101)を使用する各グリッド線で但し例外としては(u,v)取り替える(x,y)およびZ座標あるゼロが。図11[D]見なさい。      (Step 4.2): Apply Ns_b [i] and Ns_d [i] to the corresponding UVT of the triangle and calculate the sample points (u, v) j, k. The calculation of the sample points is the same as before, with each grid line using equation (101) with the exception that (u, v) replace (x, y) and the Z coordinate is zero. See FIG. 11 [D].

(ステップ4.3):この現在の地域iに属するかどうか各々の計算されたサンプル点(u,v)j,kを確認しなさい、地域iに属する点だけこの現在の点密度で描画される。即ち、発見(u,v)点の対応するピクセル配列の指数[m][n]、それから次が本当であるかどうかデータ構造を確認しなさい:
Pixel_Rfield[m][n].region_idx=i;
それが本当でなかったら、次の(u,v)サンプル点を計算しなさい。
それが本当、そしてこの(u,v)j,kの対応する点(x,y,z)j,kを計算し、そして3DTの中のそれを描画しなさい。これはこの指数(j,k)を使用し、3DTに式(101)を加えること単にである。

Figure 2007188462
3DTの基盤の端は(xa,ya,za)から(xb,yb,zb)にあり、方向の端は(xb,yb,zb)から(xc,yc,zc)にある。(Step 4.3): Check each calculated sample point (u, v) j, k to see if it belongs to this current area i, only the points belonging to area i are drawn with this current point density The That is, check the index [m] [n] of the corresponding pixel array at the discovery (u, v) point, then check the data structure to see if the following is true:
Pixel_Rfield [m] [n]. region_idx = i;
If that is not true, calculate the next (u, v) sample point.
Calculate the corresponding point (x, y, z) j, k of this (u, v) j, k and draw it in 3DT. This is simply using this exponent (j, k) and adding equation (101) to 3DT.
Figure 2007188462
The end of the 3DT base is from (xa, ya, za) to (xb, yb, zb), and the end of the direction is from (xb, yb, zb) to (xc, yc, zc).

このように、一度に1つの地域に、テクスチャビットマップは三角面の表面に描画することができる。図11[E]別の輝度(強度)の3つの地域の三角形を説明する。それ故に、三角形に3つのメッシュ・システムがある。地域の指数のデータ構造が効率的にサンプル点がされるべき地域の内にあるかどうか確認するのに使用されている。      In this way, texture bitmaps can be drawn on the surface of a triangular surface, one region at a time. FIG. 11E illustrates three regional triangles with different luminance (intensity). Therefore, there are three mesh systems in the triangle. It is used to check whether the regional index data structure is within the region to be sampled efficiently.

従って、2D画面の透視図のレンダリングは上で記述されているテクスチャのマッピング方法の適用によって行うことができる。      Accordingly, rendering of a perspective view of a 2D screen can be performed by applying the texture mapping method described above.

補足の記述Supplementary description

レンダリングのもう一つの好まれる方法は交面基づかせていたレンダリングである。交面基づかせていた簡単なレンダリングはスライスフレームが付いている交差を計算することとスライスフレームの交面ビットマップのピクセル密度を制御することによって幾何基形を描画する。      Another preferred method of rendering is cross-based rendering. A simple cross-based rendering renders a geometric base by calculating the intersection with the slice frame and controlling the pixel density of the cross-frame bitmap of the slice frame.

一般に、各交差はフレームのピクセルを含む小さいビットマップである。交差のすべての小さいビットマップを一緒にステッチすることは概念的な「合成ビットマップ」を形作る。望ましい輝度のレベルは合成ビットマップのピクセルの総数に関して描画されるピクセルの数の比率の制御によってそれから表現される。小さいビットマップは描画される合成ビットマップからの逆のマッピングによってそれから再描画される。再描画された小さいビットマップは望ましい輝度のレベルでそれから幾何基形を形作る。      In general, each intersection is a small bitmap that contains the pixels of the frame. Stitching all small bitmaps of intersection together forms a conceptual “composite bitmap”. The desired brightness level is then expressed by controlling the ratio of the number of pixels rendered relative to the total number of pixels in the composite bitmap. The small bitmap is then redrawn by the inverse mapping from the composite bitmap being drawn. The redrawn small bitmap then forms a geometric base at the desired brightness level.

直線のレンダリングでは、合成ビットマップは1Dビットストリングとして組織される。三角面1001のレンダリングでは、フレームのスライス1002が付いている各交差は、図10で説明されるように、フレームのピクセル構成の小さいビットマップ1003である。交差のすべての小さいビットマップを一緒にステッチすることは2D合成ビットマップ1004を形作る。      For straight line rendering, the composite bitmap is organized as a 1D bit string. In the rendering of the triangular surface 1001, each intersection with a frame slice 1002 is a small bitmap 1003 of the frame pixel configuration, as illustrated in FIG. Stitching all the small bitmaps of the intersection together forms a 2D composite bitmap 1004.

輝度比率の概念および式(201)および(202)はまだ適用する。そして完全描画された三角形はまだ参照として使用される。三角形の格子要素の数Nge_stは基本的に合成ビットマップのピクセルの数Np_CBM_stである。
Nge_st=Np_CBM_st=合成ビットマップの描画されたピクセルの数
Nge_st_op=Np_CBM_st_f (完全描画された)
The concept of luminance ratio and equations (201) and (202) still apply. And the fully drawn triangle is still used as a reference. The number Nge_st of triangular lattice elements is basically the number Np_CBM_st of pixels in the composite bitmap.
Nge_st = Np_CBM_st = Number of drawn pixels of the composite bitmap Nge_st_op = Np_CBM_st_f (completely drawn)

便宜上、合成ビットマップは図10で示されているようにu−v平面で、表される。レンダリングは2方向で行われる:u−およびv−方向。
完全輝度で(完全満ちている)描画するためには、2方向の描画されたピクセルの間隔は投影されたピクセルのピッチに設定する:
du_op=dv_op=dL_p_op=dM=dN.
For convenience, the composite bitmap is represented in the uv plane as shown in FIG. Rendering takes place in two directions: the u- and v-directions.
To draw at full brightness (fully full), the spacing between the drawn pixels in two directions is set to the pitch of the projected pixels:
du_op = dv_op = dL_p_op = dM = dN.

Np_CBM_stはレンダリングの間隔のdL_pの平方に反比例している:
Np_CBM_st∝(1/dL_p)
従って、
Nge_st/Nge_st_op=Np_CBM_st/Np_CBM_st_f=(dL_p_op/dL_P) (240)
式(240)から、式(202)なる
BR_st=(dL_p_op/dL_p)2*(Bge/Bge_f) (242)
dL_p_op=dM=dNから、
dL_p/sqrt(Bge/Bge_f)=dM/sqrt(BR_st) (244)
Np_CBM_st is inversely proportional to the square of dL_p of the rendering interval:
Np_CBM_st∝ (1 / dL_p) 2
Therefore,
Nge_st / Nge_st_op = Np_CBM_st / Np_CBM_st_f = (dL_p_op / dL_P) 2 (240)
From Expression (240), Expression (202) is satisfied. BR_st = (dL_p_op / dL_p) 2 * (Bge / Bge_f) (242)
From dL_p_op = dM = dN,
dL_p / sqrt (Bge / Bge_f) = dM / sqrt (BR_st) (244)

式(244)望ましい輝度比率BR_stを与える三角面の合成ビットマップで隣接した描画されたピクセル間の望ましい間隔を提供する。ピクセルにグレースケールの機能がなければ(Bge/Bge_f=1)、(dL_p)はBR_stに反比例している、dL_pが得られれば、次の2つのステップはレンダリングを完了する:
(1)合成ビットマップ新しい間隔のdL_pに従って再描画される。新しい間隔に一致させないピクセルを取除きなさい。
(2)元の、完全満たされた交差の小さいビットマップから、それらにステップ(1)で取除かれる対応するピクセルを取除く、これらの修正された交差の小さいビットマップに今の望ましい輝度比率BR_stがある。
Equation (244) provides the desired spacing between adjacent drawn pixels in a triangular composite bitmap that gives the desired luminance ratio BR_st. If the pixel has no grayscale capability (Bge / Bge_f = 1), (dL_p) 2 is inversely proportional to BR_st. Once dL_p is obtained, the next two steps complete the rendering:
(1) The composite bitmap is redrawn according to the new interval dL_p. Remove pixels that do not match the new distance.
(2) The current desired luminance ratio to these modified intersection small bitmaps, which removes the corresponding pixels removed in step (1) from the original, fully filled intersection small bitmaps There is BR_st.

一般に、この発明で記述されているレンダリング方法は表示要素の配分のあらゆる形態との体積3Dディスプレイに適用することができる。フレームのスライスの方向およびdM、dNおよびdTは定義することができる。      In general, the rendering method described in this invention can be applied to volumetric 3D displays with any form of display element distribution. The frame slice direction and dM, dN and dT can be defined.

例えば体積3Dディスプレイが回転表示パネル(かスクリーン)に基づいていれば、そしてdT固定値はない。この場合、急所はレンダリング方法が働き、計算が時間最小になるようにちょうど小さい十分にdTを得ることである。dTはまた表示空間の幾何基形の位置に依存する。      For example, if the volumetric 3D display is based on a rotating display panel (or screen), then there is no dT fixed value. In this case, the key is to get a sufficiently small dT just so that the rendering method works and the computation is time-minimized. dT also depends on the position of the geometric primitive in the display space.

図13[A][B]は回転ディスプレイシステムですることの例を説明する。一般に、
dT=rdθ,
dθは2つの隣接したフレーム間の最低の角の空間である、例えば1581および1582、およびrは描画される点の位置に依存する。
直線P1P2のレンダリング、
dT=OmPmdθ,
OmPmは直線と回転軸線1501間の最も短い間隔である。OmPmはX_Y平面の直線の投射から計算することができる。

Figure 2007188462
CosαおよびOmPmは得ることができる:
Figure 2007188462
FIGS. 13A and 13B illustrate an example of a rotating display system. In general,
dT = rdθ,
dθ is the lowest corner space between two adjacent frames, eg 1581 and 1582, and r depends on the position of the point being drawn.
Rendering of the straight line P1P2,
dT = OmPmdθ,
OmPm is the shortest distance between the straight line and the rotation axis 1501. OmPm can be calculated from a straight line projection in the X_Y plane.
Figure 2007188462
Cosα and OmPm can be obtained:
Figure 2007188462

Pmが直線の外にあったら、図13[C][D]で説明されるように、各コーナー点Pi(xi,yi,zi)に次の式を適用しなさい:
dTi=rdθ=sqrt(xi+yi)dθ
最低のdTiはdTとして使用されるべきである。
If Pm is outside the straight line, apply the following formula to each corner point Pi (xi, yi, zi) as illustrated in FIG. 13 [C] [D]:
dTi = rdθ = sqrt (xi 2 + yi 2 ) dθ
The lowest dTi should be used as dT.

三角面のレンダリングでは、私達は三角形の3つの端の上記の最低dTを見つけるために計算を行う。      In the rendering of a triangular plane, we do a calculation to find the above minimum dT at the three ends of the triangle.

多層レンダリングのtsを定めるためには、状態は類似している。図14で説明されるように、ベクトルNは三角面の単位法線ベクトルであり、NxyはX−Y平面の投射である。
ts_xy=dTsinβ
dT=rdθ=sqrt(x2+y2)dθ
ts=ts xvcosα
SinβおよびCosαはベクトルNからすべて計算することができる。上記のプロシージャを3つの角点に適用し、最も大きいTsを見つけなさい。
To determine ts for multi-layer rendering, the states are similar. As illustrated in FIG. 14, the vector N is a triangular unit normal vector, and Nxy is an XY plane projection.
ts_xy = dT * sinβ
dT = rdθ = sqrt (x2 2 + y2 2 ) dθ
ts = ts xv * cos α
Sinβ and Cosα can all be calculated from the vector N. Apply the above procedure to the three corner points and find the largest Ts.

点基づかせていたレンダリングでは、三角面の2つの端のサンプル点の数は制御点密度に合わせられる。異なったメッシュサイズは異なった輝度比率を表現する。代わりに、私達は固定メッシュサイズを使用してもいい。点の別の数は同じメッシュサイズの下に別の輝度比率を表現できる。同じは交面基づかせていたレンダリングに適用する。ビットマップに本質的なメッシュサイズ(すなわちピクセル格子)があるので、固定ピクセルメッシュサイズは合成ビットマップにより適するかもしれない。      In point-based rendering, the number of sample points at the two ends of the triangle is matched to the control point density. Different mesh sizes represent different luminance ratios. Alternatively, we can use a fixed mesh size. Different numbers of points can represent different luminance ratios under the same mesh size. The same applies to cross-based rendering. A fixed pixel mesh size may be more suitable for a composite bitmap because the bitmap has an inherent mesh size (ie, a pixel grid).

アルゴリズムおよびデータ構造はの形でソフトウェアを記述する記述されている。但し、それらはまたファームウェアまたはデジタル電子回路でアルゴリズムが埋め込まれた電子システムで実行されるとき、特に実行することができる。      Algorithms and data structures are described describing the software in the form of. However, they can also be executed especially when executed in electronic systems where the algorithm is embedded in firmware or digital electronic circuitry.

補足の記述2:Voxelマッピング方法Supplementary description 2: Voxel mapping method

前に記述されていたレンダリングの方法の同じような精神に基づいて、私達はこのセクションで分散グレイ・スケール(または同じような特性)の3D体積のレンダリングの原則そしてアルゴリズムを記述する。基本的な手順はテクスチャのマップが付いている表面レンダリングに類似している、但し例外としてはメッシュ・システムおよび見本抽出は3つの次元で終った。グレイ・スケールは分散させた点のサイズそして密度の配分の制御によって表される。これは解像度を犠牲にしないでに、二進ピクセル基づいて体積3Dディスプレイによって3D体積の色またはグレイ・スケールの配分の表示を可能にする。これは医学または鉱山の視覚化のような適用に有用である。      Based on the similar spirit of the previously described rendering method, we describe the principles and algorithms of 3D volume rendering in distributed gray scale (or similar properties) in this section. The basic procedure is similar to surface rendering with texture maps, with the exception that the mesh system and sampling were done in three dimensions. Gray scale is represented by controlling the distribution of size and density of dispersed spots. This allows the display of a 3D volume color or gray scale distribution by a volumetric 3D display based on binary pixels without sacrificing resolution. This is useful for applications such as medical or mining visualization.

普通、されるべき3D体積(1360)は一組の直角に構成された体積3Dデータである。図15[A]を示して、それはCのビットマップを一緒に積み重ねて基本的にもらう。積み重ねの各層はAxBビットマップである。A、BおよびCは整数である。従ってvoxelの総数はAxBxCある。各データvoxelは3つの整数の指数(a,b,c)によって見つけることができる:
a−データ層の横の方向;ピクセル指数(0,b)から(A−1,b)への;
b−データ層の縦の方向;ピクセル指数(a,0)から(a,B−1)への;
c−積み重ねの方向;層の指数♯0から♯C1への
Usually, the 3D volume (1360) to be done is a set of orthogonally structured volume 3D data. Shown in FIG. 15A, it basically gets the C bitmaps stacked together. Each layer of the stack is an AxB bitmap. A, B and C are integers. Therefore, the total number of voxels is AxBxC. Each data voxel can be found by three integer exponents (a, b, c):
a-lateral direction of the data layer; from pixel index (0, b) to (A-1, b);
b-vertical direction of the data layer; from pixel index (a, 0) to (a, B-1);
c-stacking direction; layer index # 0 to # C1

図15[B]を示して、3D箱1380は密接に3D体積を囲むために定義される。
4つの角ポイントは定義される:
P0(x0,y0,Z0)−対応するvoxel(0,0,0)でに角点
P1(x1,y1,z1)−対応するvoxel(A−1,0,0)でに角点
P2(x2,y2,z2)−対応するvoxel(0,B−1,0)でに角点
P3(x3,y3,z3)−対応するvoxel(0,0,C−1)でに角点
4つの角点の座標を置くことによって、xyzの座標系に関して3D体積の位置そしてオリエンテーションは決定することができる。4つの角点は3つの直角「角のベクトル」を形作る:ベクトルP0P1、ベクトルP0P2、ベクトルP0P3。
As shown in FIG. 15B, a 3D box 1380 is defined to closely surround the 3D volume.
Four corner points are defined:
P0 (x0, y0, Z0)-corner point P1 (x1, y1, z1) at the corresponding voxel (0, 0, 0)-corner point P2 (at the corresponding voxel (A-1, 0, 0) x2, y2, z2) -corresponding voxel (0, B-1,0) at the corner point P3 (x3, y3, z3) -corresponding voxel (0,0, C-1) at the four corner points By placing the coordinates of the corner points, the position and orientation of the 3D volume with respect to the xyz coordinate system can be determined. The four corner points form three right-angle “corner vectors”: vector P0P1, vector P0P2, vector P0P3.

このアルゴリズムはテクスチャのマップとの3DTのレンダリングの地域によって基づくアプローチに類似している。但し、アルゴリズムは3D(空間の3方向)および余分で全3D体積箱適用される。レンダリングはそれぞれ各色場で行われる。すなわち、3D体積は3つの場(R場、G場およびB場)に第一に分かれている。従って各場は単色的な体積、同じプロシージャによって描画することができる。体積3Dディスプレイの光学はそれから3つの場を組み変える。単一場3Dの体積レンダリングでは、3D体積はいくつかの地域に第一に分けられる。各地域に別の強度(輝度)の範囲がある。各地域の強度の範囲から、その地域の対応する輝度比率は定義することができる。知られていた輝度比率の各地域では、3つの直角方向のサンプル点の量は計算することができる。各方向のサンプル点の数が得られれば、そしてその地域の「メッシュ・サイズ」(か格子サイズ)決定することができる。従って、3D箱はそれ対応する輝度比率から一度に1つの地域に描画される。基本的に、3D体積の各地域は全3D箱への望ましい輝度比率を与えるメッシュ・システムの下で描画されるが、サンプル点は対応する地域にだけ置かれる。      This algorithm is similar to the region based approach of 3DT rendering with texture maps. However, the algorithm is applied in 3D (3 directions in space) and extra 3D volume boxes. Each rendering is performed in each color field. That is, the 3D volume is primarily divided into three fields (R field, G field, and B field). Each field can therefore be drawn with a monochromatic volume and the same procedure. The optics of the volumetric 3D display then recombine the three fields. In single field 3D volume rendering, the 3D volume is primarily divided into several regions. Each region has a different intensity (luminance) range. From the intensity range of each region, the corresponding luminance ratio for that region can be defined. For each region of known luminance ratio, the amount of three perpendicular sample points can be calculated. Once the number of sample points in each direction is obtained, the “mesh size” (or grid size) for that region can be determined. Therefore, the 3D box is drawn in one area at a time from the corresponding luminance ratio. Basically, each region of the 3D volume is drawn under a mesh system that gives the desired luminance ratio to the entire 3D box, but sample points are placed only in the corresponding region.

Voxelマッピングの方法の基礎はある特定の輝度比率の3D箱のレンダリングである。3D箱の輝度比率:
BR_box=Br_box/Br_bx_op (801)
Br_box=描画されるべき3D箱の望ましい輝度のレベル
Br_box_op=完全描画された場合3D箱の輝度のレベル
(サンプル点の最適数)
The basis of the Voxel mapping method is the rendering of a 3D box with a certain luminance ratio. Luminance ratio of 3D box:
BR_box = Br_box / Br_bx_op (801)
Br_box = desired brightness level of 3D box to be rendered Br_box_op = luminance level of 3D box when fully rendered (optimum number of sample points)

3D箱の輝度のレベルは描画された格子要素の数に比例している。それは格子要素にグレイ・スケールの機能があれば、格子要素の輝度のスケール自体にまた比例している。
従って、
BR_box=Nge_boxBge/(Nge_box_opBge_f) (802)
Nge_box=3D箱で描画されるべき格子要素の数
Nge_box_op=完全描画されたら3D箱の格子要素の数、
Bge=各描画されたら格子要素の輝度のレベル
Bge_f=格子要素の完全輝度のレベル
The brightness level of the 3D box is proportional to the number of drawn grid elements. It is also proportional to the brightness scale of the grid element itself if the grid element has a gray scale function.
Therefore,
BR_box = Nge_box * Bge / (Nge_box_op * Bge_f) (802)
Nge_box = number of grid elements to be drawn in the 3D box Nge_box_op = number of grid elements in the 3D box when completely drawn,
Bge = the level of brightness of the grid element when each drawing is made Bge_f = the level of full brightness of the grid element

完全描画された3D箱の格子要素の数はサンプル点の数と次の通り関連していることができる、
Nge_box_op=(完全描画された3D箱のサンプル点の数)Fd (803)
Fdは式(102)のピクセル膨張の因数である。
完全描画された3D箱のサンプル点の数=Ns_op_aNs_op_bNs_op_c (804)
Ns_op_a=端P0P1のサンプル点の最適量
Ns_op_b=端P0P2のサンプル点の最適量
Ns_op_c=端P0P3のサンプル点の最適量
従って、
Nge_box_op=Ns_op_aNs_op_bNs_op_cFd (805)
一般に、
Nge_box=Ns_aNs_bNs_cn_pd (806)
Ns_a=端P0P1のサンプル点の量
Ns_b=端P0P2のサンプル点の量
Ns_c=端P0P3のサンプル点の量
n_pd=「膨張数」
=点の膨張させたピクセルの数(元の1つを含んで)
従って、

Figure 2007188462
The number of grid elements in a fully rendered 3D box can be related to the number of sample points as follows:
Nge_box_op = (number of fully drawn 3D box sample points) * Fd 2 (803)
Fd is a factor of pixel expansion in equation (102).
Number of fully drawn 3D box sample points = Ns_op_a * Ns_op_b * Ns_op_c (804)
Ns_op_a = optimal amount of sample point at end P0P1 Ns_op_b = optimal amount of sample point at end P0P2 Ns_op_c = optimal amount of sample point at end P0P3
Nge_box_op = Ns_op_a * Ns_op_b * Ns_op_c * Fd 2 (805)
In general,
Nge_box = Ns_a * Ns_b * Ns_c * n_pd (806)
Ns_a = amount of sample points at end P0P1 Ns_b = amount of sample points at end P0P2 Ns_c = amount of sample points at end P0P3 n_pd = “expansion number”
= Number of dilated pixels of the point (including the original one)
Therefore,
Figure 2007188462

Ns_a、Ns_bおよびNs_cは式(102A)によって計算される。dTがdMとdN異なって、およびピクセルの膨張がdM−dN方向で主に作動するので、dx、dy、dzは格子要素構造に関連して3D箱のオリエンテーションに従って計算される。これは端のための最適見本抽出の間隔の選択に影響を与える。4つの場合がある:      Ns_a, Ns_b, and Ns_c are calculated by the equation (102A). Since dT is different from dM and dN, and pixel expansion operates mainly in the dM-dN direction, dx, dy, dz are calculated according to the orientation of the 3D box relative to the grid element structure. This affects the selection of the optimal sampling interval for the edge. There are four cases:

場合(1):すべての3つの直角端の支配的な見本抽出の方向はz軸である。式(102A)から:
Ns=int[Δz/dz]
式(102)から:
Ns_op∝Δz/dz_op
Ns/Ns_op=dz/op/dz=dT/dz (812)
式(810)および(812)から:

Figure 2007188462
dzは式(814)から得ることができるおよびNsは得ることができる。Case (1): The dominant sampling direction of all three right-angle ends is the z-axis. From equation (102A):
Ns = int [Δz / dz]
From equation (102):
Ns_op∝Δz / dz_op
Ns / Ns_op = dz / op / dz = dT / dz (812)
From equations (810) and (812):
Figure 2007188462
dz can be obtained from equation (814) and Ns can be obtained.

場合(2):すべての3つの直角端の支配的な見本抽出の方向はxまたはy軸である。式(102A)から:
Ns=int[Δx/dx]or int[Δy/dy]
式(102)から:

Figure 2007188462
一般に、dM=dNはおよび私達dx=dyを取ることができる。式(810)および(816)から:
Figure 2007188462
Case (2): The dominant sampling direction of all three right-angle ends is the x or y axis. From equation (102A):
Ns = int [Δx / dx] or int [Δy / dy]
From equation (102):
Figure 2007188462
In general, dM = dN and we can take dx = dy. From equations (810) and (816):
Figure 2007188462

場合(3):3つの端の1つにz軸で支配的な見本抽出の方向およびxかy軸で他がある。これは通常の場合べきである。
式(810)、(812)および(816)の結合:

Figure 2007188462
dx<dTが、それからdz=dTを取れば。(820)から:
(dx)/(n_pdBge/Bge_f)=dM/BR_box (822)
従って、
Figure 2007188462
すなわち、式(824)の状態の下で、dz=dTおよび式(822)から計算したdxを式(102A)で使用する。
dx>=dTが、それからdz=dxを取れば。(820)から:
(dx)/(n_pdBge/Bge_f)=dMdT/BR_box (826)
BR box<=(n pdBge/Bge_f)dM/(dT) (828)
すなわち、式(828)の状態の下で、式(826)から計算したdxを式(102A)で使用する。Case (3): One of the three ends has the sampling direction dominant on the z axis and the other on the x or y axis. This should be the usual case.
Coupling of formulas (810), (812) and (816):
Figure 2007188462
If dx <dT, then take dz = dT. From (820):
(Dx) 2 / (n_pd * Bge / Bge_f) = dM / BR_box (822)
Therefore,
Figure 2007188462
That is, dx = dT and dx calculated from equation (822) are used in equation (102A) under the condition of equation (824).
If dx> = dT, then take dz = dx. From (820):
(Dx) 3 / (n_pd * Bge / Bge_f) = dM * dT / BR_box (826)
BR box <= (n pd * Bge / Bge_f) * dM / (dT) 2 (828)
That is, dx calculated from the equation (826) is used in the equation (102A) under the state of the equation (828).

場合(4):3つの端の1つにxかy軸で支配的な見本抽出の方向およびz軸で他がある。式(810)、(812)および(816)の結合:

Figure 2007188462
dx<dTが、それからdz=dTを取れば。(830)から:
dx/(n_pdBge/Bge_f)=dM/(FdBR_box) (832)
従って、
Figure 2007188462
すなわち、式(834)の状態の下で、dz=dTおよび式(832)から計算したdxを式(102A)で使用する。
dx>=dTが、それからdz=dxを取れば。(830)から:
Figure 2007188462
すなわち、式(838)の状態の下で、式(836)から計算したdxを式(102A)で使用する。Case (4): One of the three ends has the sampling direction dominant on the x or y axis and the other on the z axis. Coupling of formulas (810), (812) and (816):
Figure 2007188462
If dx <dT, then take dz = dT. From (830):
dx / (n_pd * Bge / Bge_f) = dM / (Fd * BR_box) (832)
Therefore,
Figure 2007188462
That is, under the state of Expression (834), dz = dT and dx calculated from Expression (832) are used in Expression (102A).
If dx> = dT, then take dz = dx. From (830):
Figure 2007188462
That is, dx calculated from the equation (836) is used in the equation (102A) under the state of the equation (838).

私達は今3D体積のvoxel(指数(a,b,c))そして3D箱のメッシュ点(指数(i,j,k))間のマッピングを記述する。voxelの索引(a,b,c)は前に記述されているように(0,0,0)から(A−1,B−1,C−1)に、ある。メッシュ点指数(i,j,k)は式(101)で使用した索引定義に基づいている(0,0,0)から(Ns_a,Ns_b,Ns_c)に、ある。私達は例として方向「a」を使用する。同じ原理は他の2方向に、「b」および「c」適用する。      We now describe the mapping between 3D volume voxel (exponential (a, b, c)) and 3D box mesh points (exponential (i, j, k)). The voxel index (a, b, c) is from (0, 0, 0) to (A-1, B-1, C-1) as described previously. The mesh point index (i, j, k) is from (0, 0, 0) to (Ns_a, Ns_b, Ns_c) based on the index definition used in equation (101). We use direction “a” as an example. The same principle applies "b" and "c" in the other two directions.

場合(A):メッシュ点間隔(dLa)>voxelピッチ(dA)、すなわち、Ns_a<A。図16[A]状態を説明する。1401はメッシュの格子を表す。指数「i」メッシュラインのメッシュ点(すなわち交差)の点位置を表す。1402はvoxelの格子を表す。voxelにサイズがあるので、指数「a」区分を表す、この場合、それは(i,j,k)空間からサンプル点を計算することはより有効である。マッピングはどの区分「a(i)」が点「i」に対応するか見ることである。マッピングはxyz寸法の必要性なしで割合指数の空間で、行うことができる。
(i−0)/(Ns_a−0)=(a(i)−0)/A
従って、

Figure 2007188462
Case (A): Mesh point interval (dLa)> voxel pitch (dA), that is, Ns_a <A. FIG. 16A illustrates the state. Reference numeral 1401 denotes a mesh lattice. It represents the point position of the mesh point (ie, the intersection) of the index “i” mesh line. Reference numeral 1402 denotes a voxel lattice. Since the voxel has size, it represents the exponent “a” partition, in which case it is more efficient to calculate the sample points from the (i, j, k) space. The mapping is to see which section “a (i)” corresponds to the point “i”. Mapping can be done in the space of a ratio index without the need for xyz dimensions.
(I-0) / (Ns_a-0) = (a (i) -0) / A
Therefore,
Figure 2007188462

場合(B):メッシュ点間隔(dLa)<=voxclピッチ(dA)、すなわち、Ns_a>=A。図16[B]状態を説明する。この場合、それは(a,b,c)空間からサンプル点を計算することはより有効である。各地域では、私達は正しい強度のvoxelsだけ処理する。マッピングはどの点を区分「a」がカバーするかつかめることである。マッピングはxyz寸法の必要性なしで割合索引の空間で再度、行うことができる。      Case (B): Mesh point interval (dLa) <= voxcl pitch (dA), that is, Ns_a> = A. FIG. 16B illustrates the state. In this case, it is more efficient to calculate the sample points from the (a, b, c) space. In each region, we process only voxels with the correct intensity. Mapping is to cover and point which point “a” covers. Mapping can be performed again in the space of the ratio index without the need for xyz dimensions.

区分「a」の左の(小さい)終わり、1403、はi空間の位置「ia」を対応する。区分にL_a(1404)の長さがある。

Figure 2007188462
The left (small) end 1403 of section “a” corresponds to position “ia” in i-space. The section has a length of L_a (1404).
Figure 2007188462

今私達は詳細なステップを記述する:
ステップ1:3D体積から、各voxelのR,G,Bの強度の値を得、3つのvoxelのデータ構造をセットアップしなさい:
Voxel_Rfield[a][b][c].intensity=FI(field intensity)R;
Voxel_Gfield[a][b][c].intensity=FIG;
Voxel_Bfield[a][b][c].intensity=FIB;
ステップ2:各場では、Nrgnの「地域」(region)に強度のスケールを分けなさい。部分は強度0とFI_fullの間にあるならない。お好みであれば、部分はFI_lowとFI_highの間で置くことができる。図11[C]を示して、最も高いNrgnはFI_fullの1つの地域ごとのすなわち1つの灰色レベルである。
Now we describe the detailed steps:
Step 1: From the 3D volume, get R, G, B intensity values for each voxel and set up three voxel data structures:
Voxel_Rfield [a] [b] [c]. intensity = FI (field intensity) R;
Voxel_Gfield [a] [b] [c]. intensity = FIG;
Voxel_Bfield [a] [b] [c]. intensity = FIB;
Step 2: In each field, divide the intensity scale into Nrgn “regions”. The part must not be between intensity 0 and FI_full. If desired, the part can be placed between FI_low and FI_high. As shown in FIG. 11C, the highest Nrgn is one area of FI_full, that is, one gray level.

ステップ3:各場では、voxclの強さのレベルFIに従ってNrgn「地域」の1つに各voxelを割り当てなさい:
Region r,(r=0,1,2...Nrgn−1):
r=(int)[((FI_FI_low)/(FI_high_FI_low))Nrgn]
地域の指数のデータ構造をセットアップしなさい、(例としてR場を使用して)
Voxel_Rfield[a][b][c].region_idx=r;
さらに、voxelのグループのデータ構造をセットアップし、同じ地域(強度の同じ範囲)に属するvoxelの指数を集めなさい。すなわち、データ構造Voxel_Group[r]同じ地域rに属するすべてのvoxel(a、b、c)を含んでいる。
Step 3: In each field, assign each voxel to one of the Nrgn “regions” according to the strength level FI of voxcl:
Region r, (r = 0, 1, 2,... Nrgn-1):
r = (int) [((FI_FI_low) / (FI_high_FI_low)) * Nrgn]
Set up regional index data structure (using R field as an example)
Voxel_Rfield [a] [b] [c]. region_idx = r;
In addition, set up the data structure of the group of voxels and collect the indices of voxels belonging to the same region (same range of intensity). That is, the data structure Voxel_Group [r] includes all voxels (a, b, c) belonging to the same region r.

ステップ4:3D箱、1つの地域を一度に描画しなさい。地域rの下限の強度は次のとおりである:
FI=r(FI_high−FI_low)/Nrgn
対応する輝度比率のBR[r]そうある

Figure 2007188462
これは3D箱のこの地域rを描画するのに使用されるべき輝度比率BRである。Step 4: Draw a 3D box, one region at a time. The lower strength of region r is as follows:
FI = r * (FI_high−FI_low) / Nrgn
BR [r] for the corresponding luminance ratio
Figure 2007188462
This is the luminance ratio BR to be used to draw this region r of the 3D box.

単一分野3Dの体積箱の知られていた輝度比率BR[r]の地域「r」のレンダリングのための詳細なステップは次のとおりである:
(ステップ4.1)3つの直角端の各自のサンプル点の数をそれぞれ得る:前に記述されている方法によるNs_a、Ns_bおよびNs_c。
(ステップ4.2)点検:
Ns_a<A、Ns_b<BおよびNs_c<Cばサンプル点は効率のための(i,j,k)空間から計算されるべきである(前に説明される場合(A))。行きなさい(ステップ4.3)。
他に、サンプル点は(a,b,c)空間から計算されるべきである。行きなさい(ステップ4.4)。
The detailed steps for the rendering of the region “r” of the known luminance ratio BR [r] of the single field 3D volume box are as follows:
(Step 4.1) Obtain the number of respective sample points at the three right ends: Ns_a, Ns_b and Ns_c according to the method described previously.
(Step 4.2) Inspection:
If Ns_a <A, Ns_b <B, and Ns_c <C, the sample points should be calculated from the (i, j, k) space for efficiency (case (A) described earlier). Go (step 4.3).
Otherwise, the sample points should be calculated from the (a, b, c) space. Go (step 4.4).

(ステップ4.3)(i,j,k)空間からの(a,b,c)空間への計算のサンプル点。
第一に式(710)の使用によって各メッシュ点(i,j,k)の対応するvoxclの位置(a,b,c)を得なさい。それから、ステップ1に確立されるデータ構造を使用して、この地域rに属するかどうか対応する各々のvoxelを確認しなさい。この地域「r」のvoxelsに対応する点だけ描画されるべきである。サンプル点(x,y,z)i,j,kは次の式によって計算することができる:

Figure 2007188462
(Step 4.3) Sample points for calculation from (i, j, k) space to (a, b, c) space.
First, obtain the corresponding voxcl position (a, b, c) of each mesh point (i, j, k) by using equation (710). Then use the data structure established in step 1 to check each corresponding voxel for belonging to this region r. Only points corresponding to voxels in this region “r” should be drawn. Sample points (x, y, z) i, j, k can be calculated by the following formula:
Figure 2007188462

(ステップ4.4)(a,b,c)空間からの(i,j,k)空間への計算のサンプル点。
第一にあらかじめ定義されたデータ構造voxel_Group[r]からのこの地域「r」内の各voxelを、見つけなさい。それらのvoxelの各自のために、式(711)の使用によるこのvoxelによって、カバーされる点の指数(ia,jb,kc)を見つけなさい。式(600)そして指数(x,y,z)ia,jb,kcの使用によってこれ地域の各voxelの対応するこれらの点を、描画しなさい。
(Step 4.4) Sample points for calculation from (a, b, c) space to (i, j, k) space.
First find each voxel in this region “r” from the predefined data structure voxel_Group [r]. For each of those voxels, find the index (ia, jb, kc) of the points covered by this voxel by using equation (711). Draw these points corresponding to each voxel in this region by using the equation (600) and the indices (x, y, z) ia, jb, kc.

図11[C]および式(702)、輝度比率(BR)の範囲は最上のBR_highおよび最下のBR_lowの一般化された形態に表現される。最高い輝度比率、BR_opは、当然1である。普通、マッピングは線形マッピングである場合もある。すなわち、FI=0はBR=0に対応し、FI=FI_fullはBR=1に対応する。マッピングにFIの軸およびBRの軸両方の低−高い窓を選ぶことによって、私達は表示されたイメージの輝度のレベルを処理できる。これはある特定の範囲のデータを高めるか、または抑制できる。更に、マッピングは線形でなくてもよろしくない。マッピングの線1251はカーブである場合もある。      In FIG. 11C and formula (702), the range of the luminance ratio (BR) is expressed in the generalized form of the uppermost BR_high and the lowermost BR_low. The highest luminance ratio, BR_op, is naturally 1. Usually, the mapping may be a linear mapping. That is, FI = 0 corresponds to BR = 0, and FI = FI_full corresponds to BR = 1. By choosing a low-high window on both the FI and BR axes for mapping, we can handle the brightness level of the displayed image. This can enhance or suppress a certain range of data. Furthermore, the mapping need not be linear. The mapping line 1251 may be a curve.

BRの低−高い窓の処理の1つの適用はD体積のイメージのローカル情報を強調することである。体積3DディスプレイのCTまたはMRIの医学イメージ投射データのような3D体積のデータの表示の1つの実用的な問題は、興味のローカル地域の前景および背景のイメージが観覧を妨げることができることである。これは体積3Dディスプレイのイメージが本質的に透明であるのである。1つの解決は興味のローカル地域を見るために「スキャン箱」を加えることである。スキャン箱の中のイメージは正常なか高められた輝度比率で表示される。スキャン箱の外のイメージは減らされた全面的な輝度比率で表示される。図17は考えを説明する。1801は体積3Dイメージとして表示される3Dデータ体積である。小箱1802はスキャン箱と定義される。スキャン箱内のイメージの部分は正常なBRの窓と、例えばBR_high=1およびBR_low=0表示される。スキャン箱の外のイメージの部分は抑制されたBRの窓と、例えばBR_high=0.3およびBR_low=0表示される。      One application of BR low-high window processing is to enhance local information in D volume images. One practical problem with displaying 3D volume data, such as CT or MRI medical imaging data on volumetric 3D displays, is that the foreground and background images of the local area of interest can interfere with viewing. This is because the volume 3D display image is essentially transparent. One solution is to add a “scan box” to see the local area of interest. The image inside the scan box is displayed at a normal or increased brightness ratio. The image outside the scan box is displayed with a reduced overall luminance ratio. FIG. 17 illustrates the idea. Reference numeral 1801 denotes a 3D data volume displayed as a volume 3D image. Small box 1802 is defined as a scan box. The portion of the image in the scan box is displayed with a normal BR window, eg BR_high = 1 and BR_low = 0. The portion of the image outside the scan box is displayed with a suppressed BR window, eg BR_high = 0.3 and BR_low = 0.

実際に、3D体積は2つの3D体積、元の3D箱に対応する大きい体積および新しいスキャン箱に対応する小さい体積に第一に仕切られる。2つの体積は異なったBRの窓を使用してVoxelマッピングのプロシージャによってそれから、別に描画される。スキャン箱は元の3D箱の後で描画される。従って、それは大きい体積に重ね書きすることができる。これが3D医学イメージ投射データの有害なティッシュまたは鉱山の地震データの地質特徴のための調査を助けるのに使用することができる。      Indeed, the 3D volume is first partitioned into two 3D volumes, a large volume corresponding to the original 3D box and a small volume corresponding to the new scan box. The two volumes are then drawn separately by the Voxel mapping procedure using different BR windows. The scan box is drawn after the original 3D box. It can therefore be overwritten in a large volume. This can be used to aid exploration for geological features of harmful tissue or mine seismic data in 3D medical imaging data.

本発明の基本概念の歪斜的座標系の例を示す。      An example of a skewed coordinate system of the basic concept of the present invention will be shown. 本発明の第1例の座標系のマッピングの幾何学的な分析を示す。      2 shows a geometric analysis of the first example coordinate system mapping of the present invention. 回転式往復運動式のディスプレイの底の近くで精錬のイメージフレームをす。      A refining image frame is placed near the bottom of the rotary reciprocating display. 2プロジェクター具体化をす。      2 Implement the projector. 本発明の第2例の座標系のマッピングの幾何学的な分析を示す。      2 shows a geometric analysis of the mapping of the coordinate system of the second example of the present invention. 典型的な体積3Dディスプレイの表示要素のシステムを示す。      1 shows a system of display elements of a typical volumetric 3D display. 点のレンダリングの方法を示す。      Shows how to render a point. 直線の点基づかせていたレンダリングの方法を示す。      Demonstrates a straight point-based rendering method. 三角の表面の点基づかせていたレンダリングの方法を示す。      Shows the method of point-based rendering of a triangular surface. 三角の表面の多層レンダリングの方法を示す。      A method of multi-layer rendering of a triangular surface is shown. 表面のテクスチャのマッピングの方法を示す。      The method of surface texture mapping is shown. 本発明によって三角面の交面基づかせていたレンダリングの方法を示す。      3 illustrates a rendering method based on the intersection of triangular faces according to the present invention. 回転ディスプレイシステムのdTの計算を示す。      Fig. 4 shows the calculation of dT for a rotating display system. 回転ディスプレイシステムのts計算を説明する。      The ts calculation of the rotating display system will be described. 本発明のVoxelのマッピングの方法を示す。      2 illustrates a Voxel mapping method of the present invention. voxelsとサンプル点間のマッピングを示す。      The mapping between voxels and sample points is shown. 本発明のスキャン箱の方法を示す。      2 illustrates a scan box method of the present invention.

符号の説明Explanation of symbols

15 プロジェクター
201 格子要素
450 非歪斜的な座標系の点位置
451 マッピングに従う歪斜的な座標系の点位置
550 付加的な、精製されたフレーム
570 移動スクリーンのトラック
580a−d 2つの隣接したフレーム間の回転角度
590a−f フレーム位置
601 別の2Dプロジェクター
602 切替可能な反射器
1001 三角面
1002 フレームのスライス
1003 小さいビットマップ
1004 合成ビットマップ
1101a−c 補助表面
1210 ビットマップの上の対応の三角形(UVT)
1211 3D三角面(3DT)
1250 Nrgnの地域にビットマップの1つの場の強度のスケールを分けること
1251 ビットマップの1つの場の強度のスケールからの輝度比率へのマッピングのカーブ
15 Projector 201 Grating element 450 Point position 451 in undistorted coordinate system Point position 550 in skewed coordinate system according to mapping Additional refined frame 570 Moving screen track 580a-d Between two adjacent frames Rotation angle 590a-f Frame position 601 Another 2D projector 602 Switchable reflector 1001 Triangular plane 1002 Slice of frame 1003 Small bitmap 1004 Composite bitmap 1101a-c Auxiliary surface 1210 Corresponding triangle (UVT) on bitmap
1211 3D triangular surface (3DT)
Dividing the bitmap one field intensity scale into regions of 1250 Nrgn 1251 Mapping curve from one field intensity scale of bitmap to luminance ratio

Claims (30)

体積3Dディスプレイの連続的な空間で定義される3Dデータを表示する方法であって、
(1)体積3Dディスプレイの有限な空間を歪斜的座標系および2D画面との定義するステップ、
(2)前記連続的な空間の第一の部分と前記有限な空間の歪斜的座標系間の座標系のマッピングを確立するステップ、
(3)前記連続的な空間の残りの部品と前記2D画面の内のバーチャ.スペースの間の座標系のマッピングを確立するステップ、
(4)前記座標系のマッピングに従って、前記連続的な空間の第一の部分の内にいる前記3Dデータの部分を前記有限な空間に表示し、前記連続的な空間の残りの部品の内にいる前記3Dデータの部分を前記2D画面に透視図に表示するステップ、
を含む前記方法。
A method for displaying 3D data defined in a continuous space of a volumetric 3D display comprising:
(1) defining a finite space of a volumetric 3D display with a skewed coordinate system and a 2D screen;
(2) establishing a coordinate system mapping between a first portion of the continuous space and a skewed coordinate system of the finite space;
(3) The remaining parts of the continuous space and the virtual part in the 2D screen. Establishing a coordinate system mapping between spaces;
(4) According to the mapping of the coordinate system, the portion of the 3D data that is within the first portion of the continuous space is displayed in the finite space, and within the remaining parts of the continuous space Displaying the portion of the 3D data that is present on the 2D screen in a perspective view;
Including said method.
前記座標系のマッピングが、
(1)目の位置を選ぶステップ、
(2)基準面を前記連続的な空間で定義し、前記基準面の参照位置を定めるステップであって、前記基準面が前記2D画面と同じサイズの前記目の位置から見られたとき現われる前記ステップ、
(3)前記基準面内の前記連続的な空間の一部分をように前記連続的な空間の第一の部分定義するステップを含む、請求項1記載の方法。
The mapping of the coordinate system is
(1) the step of selecting the eye position,
(2) defining a reference plane in the continuous space and determining a reference position of the reference plane, the step appearing when the reference plane is viewed from the eye position having the same size as the 2D screen Step,
3. The method of claim 1 including defining a first portion of the continuous space such that a portion of the continuous space within the reference plane.
前記2D画面の透視図の表示のステップが、ビットマップとして前記透視図のレンダリングおよびテクスチャのマッピングによって前記ビットマップを使用して前記2D画面のレンダリングが含まれている、請求項1記載の方法。      The method of claim 1, wherein the step of displaying a perspective view of the 2D screen includes rendering the 2D screen using the bitmap by rendering the perspective and texture mapping as a bitmap. 前記体積3Dディスプレイが、イメージフレームを表示し、配り、体積3Dイメージを形作る移動ディスプレイ表面を含み、前記2D画面が近く取付けられ、前記イメージフレームの1つに平行である、請求項1記載の方法。      The method of claim 1, wherein the volumetric 3D display includes a moving display surface that displays and distributes an image frame and forms a volumetric 3D image, the 2D screen being mounted nearby and parallel to one of the image frames. . 前記移動ディスプレイ表面が回転式往復運動式の表面であり、前記2D画面かディスプレイ表面の回転の近い上または底位置であり、前記2D画面を形作る前記ディスプレイ表面の付加的なイメージフレームの発生のステップがさらに含む請求項4記載の方法。      Generating an additional image frame on the display surface, wherein the moving display surface is a rotary reciprocating surface and is near the top or bottom position of the 2D screen or display surface rotation, forming the 2D screen; 5. The method of claim 4, further comprising: 前記付加的なイメージフレームの表示の期限にあらかじめ定義された比率があり、前記付加的なイメージフレームがpulse−width調節の原則によって前記2D画面のグレイ・スケールまたは色のレベルを表現する請求項5記載の方法。      6. The display period of the additional image frame has a predetermined ratio, and the additional image frame represents a gray scale or a color level of the 2D screen according to a principle of pulse-width adjustment. The method described. 更に別のプロジェクター手段によって前記2D画面のためのイメージの発生のステップを含んでいる請求項4記載の方法。      5. A method according to claim 4, further comprising the step of generating an image for the 2D screen by further projector means. 切替可能な前記プロジェクター手段からの前記ディスプレイ表面にプロジェクショソのビームを導くのに反射器を使用するステップさらに含む請求項7記載の方法。      8. The method of claim 7, further comprising using a reflector to direct a projectiono beam from the switchable projector means to the display surface. 前記体積3Dディスプレイの第2の歪斜的な座標系の有限な空間および第2の2D画面の定義のステップ、および座標系のマッピングおよびイメージの表示の対応するステップさらに含む請求項1記載の方法。      The method of claim 1, further comprising the steps of defining a finite space of a second skewed coordinate system and a second 2D screen of the volumetric 3D display, and corresponding steps of coordinate system mapping and image display. 体積3Dディスプレイの実際の3D空間の望ましい輝度のレベルが付いている幾何基形を表示する方法であって、前記幾何基形が直線または表面であり、前記体積3Dディスプレイか体積3Dイメージを表示するための空間的に分布表示要素を含んでいる、前記方法は、
(1)必要な表示要素の最少量Nge_opを完全な輝度Br_opで前記幾何基形を表示するために定めるステップ、
(2)次の関係に基づいて、
(Nge/Nge_op)x(Bge/Bge_f)=Br/Br_op,
望ましい表示要素の量Ngeを望ましい輝度のレベルで前記幾何基形を表示するために定めるステップであって、Brが前記幾何基形の望ましい輝度のレベルを表す、Bge_fが前記表示要素の完全な輝度のレベルを表し、Bgeが前記幾何基形のレンダリングで使用されるべき前記表示要素の輝度のレベルを表す前記ステップ、
(3)前記望ましい表示要素の量を用いる前記幾何基形を描画するステップ、
を含む前記方法。
A method for displaying a geometric primitive with a desired level of brightness in an actual 3D space of a volumetric 3D display, wherein the geometric primitive is a straight line or a surface and displaying the volumetric 3D display or volumetric 3D image. Including a spatially distributed display element for the method,
(1) determining a minimum amount Nge_op of the required display elements to display the geometric primitive with full brightness Br_op;
(2) Based on the following relationship:
(Nge / Nge_op) x (Bge / Bge_f) = Br / Br_op,
Determining a desired display element quantity Nge for displaying the geometric primitive at a desired luminance level, wherein Br represents the desired luminance level of the geometric primitive, and Bge_f is the full luminance of the display element Said level, wherein Bge represents the level of brightness of said display element to be used in rendering said geometry
(3) drawing the geometric primitive using the amount of the desired display element;
Including said method.
前記表示要素の最少量の決定のステップが完全な輝度で前記幾何基形を表すためのサンプル点の基準量Ns_opおよび最大ピクセル膨張数N_dの決定のステップを含み、
前記望ましい表示要素の量の決定のステップが、次の関係に基づいて
[(Nsxn_pd)/(Ns_op x N_d)]x(Bge/Bge_f)=Br/Br_op,
前記幾何基形を表すための望ましいサンプル点の量Nsおよび望ましいピクセル膨張数n_pdの決定のステップを含み、
前記幾何基形を描画するステップが、
(i)前記望ましいサンプル点の量を前記幾何基形で配り、望ましいサンプル点の座標を計算によって得るステップ、
(ii)計算されたサンプル点を前記望ましいピクセル膨張数を用いる描画するステップ、を含む、
請求項10記載の方法。
The step of determining a minimum amount of the display element comprises determining a reference amount Ns_op of a sample point and a maximum pixel expansion number N_d to represent the geometric basis with full luminance;
The step of determining the amount of the desired display element comprises [(Nsxn_pd) / (Ns_op x N_d)] x (Bge / Bge_f) = Br / Br_op, based on the following relationship:
Determining a desired sample point quantity Ns and a desired pixel dilation number n_pd to represent the geometric primitive,
Drawing the geometric primitive;
(I) distributing the amount of the desired sample points in the geometric basis and obtaining the coordinates of the desired sample points by calculation;
(Ii) rendering the calculated sample points using the desired pixel dilation number;
The method of claim 10.
前記幾何基形が直線、
前記サンプル点の基準量の決定のステップが、
(a)3つの直角方向の前記表示要素で前記直線を満たすために必要なサンプル点の最少量を計算によってそれぞれ得るステップ、
(b)ステップ(a)から計算される3つの最少量の最高を前記基準量Ns_opとして選ぶステップ、を含み、
前記望ましいサンプル点の量の分配のステップが、前記直線でサンプル点を均等に配ることのステップを含む、
請求項11記載の方法。
The geometric base is a straight line,
The step of determining a reference amount of the sample point comprises:
(A) obtaining, by calculation, the minimum amount of sample points required to fill the straight line with the display elements in three perpendicular directions;
(B) selecting the highest of the three smallest amounts calculated from step (a) as the reference amount Ns_op;
Distributing the desired amount of sample points includes distributing sample points evenly on the straight line;
The method of claim 11.
前記幾何基形が表面、
前記サンプル点が1つ以上の補助表面間で配られ、前記補助表面が隣接した補助表面間の間隔と密接に積み重なり、
前記基準量Ns_opの決定のステップが各の補助表面のサンプル点の最適量の決定のステップを含み、前記サンプル点の最適量が完全な輝度で補助表面を表し、すべての前記補助表面の最適量の合計がNs_opと等しい、
前記望ましい量Nsの決定のステップが各の補助表面のサンプル点の指定量を選ぶことのステップを含み、すべての前記補助表面のサンプル点の総計がNsと等しい、
前記望ましいサンプル点の量の分配のステップが対応する各々の補助表面へのサンプル点の前記指定量の分配のステップを含める、
請求項11記載の方法。
The geometric shape is a surface;
The sample points are distributed between one or more auxiliary surfaces, the auxiliary surfaces closely stack with the spacing between adjacent auxiliary surfaces;
The step of determining the reference amount Ns_op includes the step of determining the optimal amount of sample points for each auxiliary surface, wherein the optimal amount of sample points represents the auxiliary surface with full brightness, and the optimal amount of all the auxiliary surfaces Is equal to Ns_op,
The step of determining the desired amount Ns comprises selecting a specified amount of sample points for each auxiliary surface, the sum of the sample points of all the auxiliary surfaces being equal to Ns;
The step of dispensing the desired amount of sample points includes the step of dispensing the specified amount of sample points to each corresponding auxiliary surface;
The method of claim 11.
隣接したサンプル点に対応する表示要素が重複しないように表示要素の空間的な配分に関して前記表面のオリエンテーションそして位置に基づいて前記間隔の最小値の決定のステップをさらに含む、
請求項13記載の方法。
Further comprising the step of determining a minimum value of the spacing based on the orientation and position of the surface with respect to the spatial distribution of display elements such that display elements corresponding to adjacent sample points do not overlap.
The method of claim 13.
前記表面が三角の表面であり、前記補助表面がまた三角であり、
前記各の補助表面のサンプル点の最適量の決定のステップが、
(a)前記補助表面の3つの端の各の端ためのサンプル点の最適数を定めステップであって、前記最適数が完全な輝度で前記表示要素で前記端を満たすために必要なサンプル点の最小量である前記ステップ、
(b)方向端と最も高いサンプル点の最適数Ns_op_dを持っている端を定義し、基礎端と最も低いサンプル点の最適数Ns_op_bを持っている端を定義するステップ、
(c)値Ns_op_d x Ns_op_b/2に基づいて前記補助表面のサンプル点の最適量を定めるステップ、を含み、
前記各の補助表面のサンプル点の指定量を選ぶことのステップが、方向端のサンプル点の数Ns_dおよび基礎端のサンプル点の数Ns_bを定め、値Ns_d x Ns_b/2に基づいて前記補助表面のサンプル点の指定量を定めることのステップを含み、
前記各の補助表面へのサンプル点の前記指定量の分配のステップが、
(a)前記方向端のNs_dのサンプル点の座標および前記基礎端のNs_bのサンプル点の座標を計算によって得るステップ、
(b)前記補助表面上のメッシュ・システムを概念上基盤の端の各サンプル点からの直線を描画し、直線を方向の端に平行にし、そして方向の端の各サンプル点からの直線を描画し、そして直線を基盤の端に平行にすることによって組み立てるステップ、
(c)前記補助表面の内で落ちるメッシュ直線の各交差へのサンプル点を置くステップ、を含む、
請求項13記載の方法。
The surface is a triangular surface and the auxiliary surface is also a triangle;
Determining the optimal amount of sample points for each auxiliary surface;
(A) determining an optimum number of sample points for each of the three edges of the auxiliary surface, the optimum number of sample points required to fill the edge with the display element at full brightness; Said step being a minimum amount of
(B) defining an end having an optimal number Ns_op_d of directional edges and highest sample points and defining an edge having a base edge and an optimal number of lowest sample points Ns_op_b;
(C) determining an optimal amount of sample points on the auxiliary surface based on the value Ns_op_d x Ns_op_b / 2,
The step of selecting a specified amount of sample points for each auxiliary surface determines the number Ns_d of sample points at the direction end and the number Ns_b of sample points at the base end, and based on the value Ns_d x Ns_b / 2 Including the step of determining a specified amount of sample points of
The step of dispensing the specified amount of sample points to each auxiliary surface;
(A) calculating the coordinates of the Ns_d sample point at the direction end and the coordinates of the Ns_b sample point at the base end by calculation;
(B) The mesh system on the auxiliary surface conceptually draws a straight line from each sample point at the edge of the base, makes the straight line parallel to the end of the direction, and draws a straight line from each sample point at the end of the direction And assembling by making the straight line parallel to the edge of the base,
(C) placing sample points at each intersection of mesh lines falling within the auxiliary surface;
The method of claim 13.
前記表示要素の最少量の決定のステップが、
(i)前記幾何基形の交差をフレームのスライスが付いている計算するステップであって、前記交差は小さいビットマップを含み、前記小さいビットマップの各ピクセルは1つの前記表示要素を含んでいる前記ステップ、
(ii)前記交差を合成ビットマップに一緒にステッチするステップ、
(iii)前記合成ビットマップを完全な輝度で完全に描画するステップであって、前記合成ビットマップにピクセルの総数Np_CBM_fがある前記ステップを含み、
前記望ましい表示要素の量の決定のステップが、次の関係に基づいて
(Np_CBM/Np_CBM_f)x(Bge/Bge_f)=Br/Br_op
望ましいピクセルの数Np_CBMを前述の合成ビットマップのレンダリングのための定めるステップを含み、
前記幾何基形を描画するステップが、
(i)前記望ましいピクセルの数を用いる前記合成ビットマップを再描画するステップ、
(ii)再描画された合成ビットマップに従う前記交差のレンダリングのステップ、を含む、
請求項10記載の方法。
The step of determining the minimum amount of said display element comprises:
(I) calculating the geometric base intersection with a slice of a frame, wherein the intersection includes a small bitmap, and each pixel of the small bitmap includes one of the display elements Said step,
(Ii) stitching the intersection together into a composite bitmap;
(Iii) completely rendering the composite bitmap with full luminance, comprising the step of having a total number of pixels Np_CBM_f in the composite bitmap;
The step of determining the amount of the desired display element is based on the following relationship: (Np_CBM / Np_CBM_f) × (Bge / Bge_f) = Br / Br_op
Determining a desired number of pixels Np_CBM for rendering the composite bitmap as described above;
Drawing the geometric primitive;
(I) redrawing the composite bitmap using the desired number of pixels;
(Ii) rendering the intersection according to a redrawn composite bitmap;
The method of claim 10.
前記輝度のレベルが原色の1つの輝度のレベルであり、
他の原色の輝度のレベルが付いている望ましい色のレベルの前記幾何基形を表示するために幾何基形の表示のステップをさらに含む
請求項10記載の方法。
The luminance level is a luminance level of one of the primary colors;
11. The method of claim 10, further comprising the step of displaying a geometric base to display the geometric base of a desired color level with other primary color brightness levels.
体積3Dディスプレイで単色的なテクスチャのマップを持っている表面を表示する方法であって、前記体積3Dディスプレイが体積3Dイメージを表示するための空間的に分布表示要素を含んでいる、前記方法は、
(1)テクスチャのマップの完全な強度のスケールを多数個の異なった強度の範囲に分けなさいステップであって、各強度の範囲がテクスチャのマップの別の地域に対応する前記ステップ、
(2)マッピングをテクスチャのマップの各地域から前記表面の対応する地域に確立しなさいステップ、
(3)マッピングに従ってその地域の強度の範囲に基づいて前記表面の対応する各々の地域に輝度比率を割り当てなさいステップであって、前記輝度比率が完全な輝度への望ましい輝度の比率と定義される、前記ステップ、
(4)別の輝度比率を表すために表示要素の別の密度の前記表面の対応する各々の地域を描画しなさいステップ、を含む前記方法。
A method for displaying a surface having a monochromatic texture map on a volumetric 3D display, wherein the volumetric 3D display includes a spatially distributed display element for displaying a volumetric 3D image. ,
(1) dividing the full intensity scale of the texture map into a number of different intensity ranges, wherein each intensity range corresponds to a different region of the texture map;
(2) establishing a mapping from each region of the texture map to a corresponding region of the surface;
(3) assigning a luminance ratio to each corresponding area of the surface based on the intensity range of the area according to the mapping, wherein the luminance ratio is defined as a desired luminance ratio to full luminance Said step,
(4) drawing the corresponding respective areas of the surface of different density of display elements to represent different luminance ratios.
前記表面の対応する各々の地域の描画のステップが、望ましい点密度でサンプル点の分配のステップおよび望ましい数の表示要素への各々の前記サンプル点の膨張のステップが含まれ、前記望ましい点密度および前記膨張の組合せは前記地域の輝度比率を表現する請求項18記載の方法。      The step of drawing each corresponding region of the surface includes the step of distributing sample points at a desired point density and the step of dilating each of the sample points into a desired number of display elements, The method of claim 18, wherein the combination of dilations represents a luminance ratio of the region. 前記表面が三角の表面、
前記サンプル点の分配のステップが、
a.サンプル点を置くためのメッシュ・システムを組み立てるステップであって、前記メッシュ・システムに前記対応する地域の輝度比率と等しい輝度比率で前記三角の表面を描画するために必要なメッシュ密度がある、前記ステップ、
b.メッシュ・システムに従って対応する前述の地域の内にあるメッシュ直線の交差にだけサンプル点を置くステップ、を含む
請求項19記載の方法。
The surface is a triangular surface;
The sample point distribution step comprises:
a. Assembling a mesh system for placing sample points, wherein the mesh system has a mesh density required to draw the triangular surface with a luminance ratio equal to the luminance ratio of the corresponding region; Step,
b. 20. The method of claim 19, comprising placing sample points only at intersections of mesh straight lines within corresponding said regions according to a mesh system.
テクスチャのマップの各ピクセルに地域指数を割り当て、対応するピクセルの位置に関してテクスチャのマップに前記地域指数のデータ構造を確立するステップであって、前記地域指数がピクセルの強度の範囲に従って前記地域の1つを示す前記ステップ、
テクスチャのマップへの前記メッシュ・システムの割合マッピングのステップ、
前記地域指数データ構造の使用によって、メッシュラインの交差が前記表面の対応する地域の内で落ちるかどうか確認するステップ、
をさらに含む請求項20記載の方法。
Assigning a region index to each pixel of the texture map and establishing a data structure of the region index in the texture map with respect to the position of the corresponding pixel, wherein the region index is one of the regions according to a pixel intensity range. Said step indicating one,
A step of ratio mapping of said mesh system to a map of texture;
Checking whether mesh line intersections fall within corresponding areas of the surface by use of the area index data structure;
21. The method of claim 20, further comprising:
前記単色的なテクスチャのマップが色のテクスチャのマップの1つの場であり、
前記色のテクスチャのマップが付いている前記表面を表示するために、他の原色のテクスチャのマップを持っている前記表面の表示のステップをさらに含む、
請求項18記載の方法。
The monochromatic texture map is one place of a color texture map;
Further comprising the step of displaying the surface having a map of textures of other primary colors to display the surface with a map of the color texture.
The method of claim 18.
前記体積3Dディスプレイが空間的に分布表示要素を含み、
前記テクスチャのマッピングが単色的なテクスチャのマップを持っている表面を表示するプロシージャを含み、前記プロシージャか、
(1)テクスチャのマップの完全な強度のスケールを多数個の異なった強度の範囲に分けなさいステップであって、各強度の範囲がテクスチャのマップの別の地域に対応する前記ステップ、
(2)マッピングをテクスチャのマップの各地域から前記表面の対応する地域に確立しなさいステップ、
(3)マッピングに従ってその地域の強度の範囲に基づいて前記表面の対応する各々の地域に輝度比率を割り当てなさいステップであって、前記輝度比率が完全な輝度への望ましい輝度の比率と定義される、前記ステップ、
(4)別の輝度比率を表すために表示要素の別の密度の前記表面の対応する各々の地域を描画しなさいステップ、を含む
請求項3記載の方法。
The volumetric 3D display includes spatially distributed display elements;
The texture mapping includes a procedure for displaying a surface having a monochromatic texture map, or
(1) dividing the full intensity scale of the texture map into a number of different intensity ranges, wherein each intensity range corresponds to a different region of the texture map;
(2) establishing a mapping from each region of the texture map to a corresponding region of the surface;
(3) assigning a luminance ratio to each corresponding area of the surface based on the intensity range of the area according to the mapping, wherein the luminance ratio is defined as a desired luminance ratio to full luminance Said step,
4. The method of claim 3, comprising the step of: (4) rendering each corresponding region of the surface of another density of display elements to represent another luminance ratio.
前記表面の対応する各々の地域の描画のステップが、望ましい点密度でサンプル点の分配のステップおよび望ましい数の表示要素への各々の前記サンプル点の膨張のステップが含まれ、前記望ましい点密度および前記膨張の組合せは前記地域の輝度比率を表現する請求項23記載の方法。      The step of drawing each corresponding region of the surface includes the step of distributing sample points at a desired point density and the step of dilating each of the sample points into a desired number of display elements, The method of claim 23, wherein the combination of dilations represents a luminance ratio of the region. 前記数Ns_dおよび数Ns_bの決定のステップが、
(a)表示要素の構造に関して三角の表面のオリエンテーションに基づく前記2つの数の計算のステップ、そして(b)レンダリングの2方向のおよそ等しい間隔のメッシュに前記2つの数を合わせることのステップ、を含む
請求項15記載の方法。
The step of determining the number Ns_d and the number Ns_b includes:
(A) calculating the two numbers based on a triangular surface orientation with respect to the structure of the display element; and (b) fitting the two numbers to approximately equally spaced meshes in two directions of rendering. 16. The method of claim 15, comprising.
体積3Dディスプレイの実際の3D空間で単色的な強度のスケールの配分を持っている3D体積を表示する方法であって、前記体積3Dディスプレイが空間的に分散表示要素を含んでいる、前記方法は、
(1)前記3D体積の完全な強度のスケールを多数個の異なった強度の範囲に分けなさいステップであって、各強度の範囲が前記3D体積の別の空間的地域に対応する前記ステップ、
(2)空間的地域の対応する強度の範囲に基づいて前記3D体積の各々の前記空間的地域への輝度比率、BRを、割り当てるステップであって、前記輝度比率が完全な輝度への望ましい輝度の比率と定義される、前記ステップ、
(3)別の輝度比率を表すために表示要素の別の密度の前記3D体積の対応する各々の空間的地域を描画しなさいステップであって、
(a)参照メッシュ・システムを組み立て、参照膨張数N_dを選ぶステップであって、前記メッシュ・システムがサンプル点を置くための交差のメッシュラインを含み、前記参照メッシュ・システムが基準点密度にサンプル点を置くために参照メッシュ密度を提供し、前記基準点密度が各々の前記サンプル点がN_dの表示要素に対応するとき完全な輝度で全3D体積を描画すことができる前記ステップ、
(b)次の関係に基づいて、
[(Ns x n_pd)/(Ns_op x N_d)]x(Bge/Bge_f)=前記空間的地域のBR
望ましいメッシュ・システムを組み立て、望ましい膨張数n_pdを選ぶステップであって、Nsが前記望ましいメッシュ・システムを使用して全3D体積を描画するためのサンプル点の数を表し、前記望ましいメッシュ・システムの各サンプル点がn_pdの表示要素に対応し、Ns_opが前記参照メッシュ・システムを使用して全3D体積を描画するためのサンプル点の数を表し、Bge_fが前記表示要素の完全な輝度のレベルを表し、Bgeがレンダリングで使用されるべき表示要素の輝度のレベルを表す前記ステップ、
(c)サンプル点を前記空間的地域内の位置にだけ前記望ましいメッシュ・システムおよび前記望ましい膨張数に従って置くステップ、
を含む前記ステップ、
を含む前記方法。
A method of displaying a 3D volume having a monochromatic intensity scale distribution in the actual 3D space of the volumetric 3D display, wherein the volumetric 3D display includes spatially distributed display elements, ,
(1) dividing the full intensity scale of the 3D volume into a number of different intensity ranges, wherein each intensity range corresponds to a different spatial region of the 3D volume;
(2) assigning a luminance ratio, BR, to each of the spatial regions of the 3D volume based on a corresponding intensity range of the spatial region, wherein the luminance ratio is a desired luminance to full luminance Said step, defined as the ratio of
(3) rendering each corresponding spatial region of the 3D volume of a different density of display elements to represent a different luminance ratio,
(A) assembling a reference mesh system and selecting a reference dilation number N_d, the mesh system including intersecting mesh lines for placing sample points, wherein the reference mesh system samples to a reference point density Providing a reference mesh density for placing points, wherein the reference point density can render a full 3D volume with full brightness when each of the sample points corresponds to N_d display elements;
(B) Based on the following relationship:
[(Ns x n_pd) / (Ns_op x N_d)] x (Bge / Bge_f) = BR of the spatial area
Assembling a desired mesh system and selecting a desired expansion number n_pd, where Ns represents the number of sample points for rendering the entire 3D volume using the desired mesh system, Each sample point corresponds to an n_pd display element, Ns_op represents the number of sample points for rendering the entire 3D volume using the reference mesh system, and Bge_f represents the full brightness level of the display element. Said step, wherein Bge represents the level of brightness of a display element to be used in rendering;
(C) placing sample points only at locations within the spatial region according to the desired mesh system and the desired dilation number;
Said step comprising:
Including said method.
前記3D体積が3Dデータ体積ピクセルから成り立ち、
(i)各々の前記体積ピクセルを地域指数割り当てステップであって、前記地域指数が前記体積ピクセルの強度の範囲の対応する空間的地域を示す前記ステップ、
(ii)前記地域指数のデータ構造を前記3D体積の体積ピクセルの位置に関してセットアップしたステップ、
(iii)前記望ましいメッシュ・システムと3D体積間のマッピングのステップであって、前記メッシュラインの各交差が3D体積の1つの体積ピクセルに対応する前記ステップ、
(iv)前記地域指数データ構造の使用によって、メッシュラインの交差が前記空間的地域の内で落ちるかどうか確認するステップ、
をさらに含む請求項26記載の方法。
The 3D volume comprises 3D data volume pixels;
(I) assigning each said volume pixel a regional index, wherein said regional index indicates a corresponding spatial region in the range of intensity of said volume pixel;
(Ii) setting up the regional index data structure with respect to the position of the volume pixel of the 3D volume;
(Iii) mapping between the desired mesh system and a 3D volume, wherein each intersection of the mesh lines corresponds to one volume pixel of a 3D volume;
(Iv) checking whether mesh line intersections fall within the spatial region by using the regional index data structure;
27. The method of claim 26, further comprising:
前記3D体積が3Dデータ体積ピクセルから成り立ち、
(i)各々の前記体積ピクセルを地域指数割り当てステップであって、前記地域指数が前記体積ピクセルの強度の範囲の対応する空間的地域を示す前記ステップ、
(ii)前記地域指数のデータ構造を前記3D体積の体積ピクセルの位置に関してセットアップしたステップ、
(iii)同じ地域指数の体積ピクセルと対応する空間的地域の望ましいメッシュ・システム間のマッピングのステップであって、各前記体積ピクセルが前記メッシュラインの1つ以上の交差に対応する前記ステップ、
をさらに含む請求項26記載の方法。
The 3D volume comprises 3D data volume pixels;
(I) assigning each said volume pixel a regional index, wherein said regional index indicates a corresponding spatial region in the range of intensity of said volume pixel;
(Ii) setting up the regional index data structure with respect to the position of the volume pixel of the 3D volume;
(Iii) mapping between volume pixels of the same region index and a desired mesh system of the corresponding spatial region, wherein each said volume pixel corresponds to one or more intersections of said mesh line;
27. The method of claim 26, further comprising:
前記単色的な強度のスケールが色の強度のスケールの1つの場であり、
望ましい色のレベルの前記3D体積を表示するために、他の原色の輝度のスケールが付いている前記3D体積の表示のステップをさらに含む、
請求項26記載の方法。
The monochromatic intensity scale is one field of the color intensity scale;
Further comprising the step of displaying the 3D volume with a brightness scale of other primary colors to display the 3D volume at a desired color level;
27. The method of claim 26.
3D体積の空間内のスキャン箱の定義のステップ、
スキャン箱によってカバーされる空間に対応する小さい3D体積の定義のステップ、
減らされた輝度比率の元の3D体積の表示のステップ、
前述の小さい3D体積のレンダリングおよび表示のステップ、
をさらに含む、請求項26記載の方法。
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Defining a scan box in a 3D volume of space;
A step of defining a small 3D volume corresponding to the space covered by the scan box,
A step of displaying the original 3D volume of the reduced luminance ratio;
Rendering and displaying the aforementioned small 3D volume;
27. The method of claim 26, further comprising:
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
Figure 2007188462
JP2006033034A 2006-01-13 2006-01-13 Method for displaying a volumetric 3D image Expired - Fee Related JP5140851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006033034A JP5140851B2 (en) 2006-01-13 2006-01-13 Method for displaying a volumetric 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006033034A JP5140851B2 (en) 2006-01-13 2006-01-13 Method for displaying a volumetric 3D image

Publications (3)

Publication Number Publication Date
JP2007188462A true JP2007188462A (en) 2007-07-26
JP2007188462A5 JP2007188462A5 (en) 2009-06-18
JP5140851B2 JP5140851B2 (en) 2013-02-13

Family

ID=38343563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006033034A Expired - Fee Related JP5140851B2 (en) 2006-01-13 2006-01-13 Method for displaying a volumetric 3D image

Country Status (1)

Country Link
JP (1) JP5140851B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2017685A1 (en) 2007-07-19 2009-01-21 Yokogawa Electric Corporation Safety control system
US11016442B2 (en) 2016-12-22 2021-05-25 Samsung Electronics Co., Ltd. Apparatus for displaying holographic images and method of controlling the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102425299B1 (en) * 2020-02-06 2022-07-27 국민대학교산학협력단 Method and apparatus for 3d modeling based on triangular patterning

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS621075A (en) * 1984-11-20 1987-01-07 Matsushita Electric Ind Co Ltd Method and device for processing three-dimensional graphic
JPH0620063A (en) * 1990-04-26 1994-01-28 Honeywell Inc Method and apparatus for generation of texture map perspective view
US5850225A (en) * 1996-01-24 1998-12-15 Evans & Sutherland Computer Corp. Image mapping system and process using panel shear transforms
US5854613A (en) * 1994-03-16 1998-12-29 The United Sates Of America As Represented By The Secretary Of The Navy Laser based 3D volumetric display system
JP2000201362A (en) * 1998-12-22 2000-07-18 Act Research Inc Improved method and device for displaying cubic 3d image
US6229542B1 (en) * 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6335714B1 (en) * 1999-07-28 2002-01-01 Dynascan Technology Corp. Display apparatus having a rotating display panel
JP2002063596A (en) * 2000-06-05 2002-02-28 Namco Ltd Game system, program and information storage medium
JP2002268136A (en) * 2000-12-28 2002-09-18 Act Research Corp Stereoscopic 3d image display
US20030001841A1 (en) * 2001-06-26 2003-01-02 Thomas Malzbender Volumetric warping for voxel coloring on an infinite domain
US6525699B1 (en) * 1998-05-21 2003-02-25 Nippon Telegraph And Telephone Corporation Three-dimensional representation method and an apparatus thereof
JP2003107399A (en) * 2001-06-16 2003-04-09 Tsuao Che-Chii Image projection technique for volumetric 3d display and 2d display
JP2004164308A (en) * 2002-11-13 2004-06-10 Toshiba Denpa Products Kk Sea surface status expression method by computer graphics
JP2005305042A (en) * 2004-04-26 2005-11-04 Konami Co Ltd Game software, and game machine
US20060017727A1 (en) * 2004-07-26 2006-01-26 Che-Chih Tsao Methods of displaying volumetric 3D images
US7050061B1 (en) * 1999-06-09 2006-05-23 3Dlabs Inc., Ltd. Autonomous address translation in graphic subsystem

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS621075A (en) * 1984-11-20 1987-01-07 Matsushita Electric Ind Co Ltd Method and device for processing three-dimensional graphic
JPH0620063A (en) * 1990-04-26 1994-01-28 Honeywell Inc Method and apparatus for generation of texture map perspective view
US5854613A (en) * 1994-03-16 1998-12-29 The United Sates Of America As Represented By The Secretary Of The Navy Laser based 3D volumetric display system
US5850225A (en) * 1996-01-24 1998-12-15 Evans & Sutherland Computer Corp. Image mapping system and process using panel shear transforms
US6525699B1 (en) * 1998-05-21 2003-02-25 Nippon Telegraph And Telephone Corporation Three-dimensional representation method and an apparatus thereof
US6229542B1 (en) * 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
JP2000201362A (en) * 1998-12-22 2000-07-18 Act Research Inc Improved method and device for displaying cubic 3d image
US7050061B1 (en) * 1999-06-09 2006-05-23 3Dlabs Inc., Ltd. Autonomous address translation in graphic subsystem
US6335714B1 (en) * 1999-07-28 2002-01-01 Dynascan Technology Corp. Display apparatus having a rotating display panel
JP2002063596A (en) * 2000-06-05 2002-02-28 Namco Ltd Game system, program and information storage medium
JP2002268136A (en) * 2000-12-28 2002-09-18 Act Research Corp Stereoscopic 3d image display
JP2003107399A (en) * 2001-06-16 2003-04-09 Tsuao Che-Chii Image projection technique for volumetric 3d display and 2d display
US20030001841A1 (en) * 2001-06-26 2003-01-02 Thomas Malzbender Volumetric warping for voxel coloring on an infinite domain
JP2004164308A (en) * 2002-11-13 2004-06-10 Toshiba Denpa Products Kk Sea surface status expression method by computer graphics
JP2005305042A (en) * 2004-04-26 2005-11-04 Konami Co Ltd Game software, and game machine
US20060017727A1 (en) * 2004-07-26 2006-01-26 Che-Chih Tsao Methods of displaying volumetric 3D images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200201295007; 中嶋正之: '"CGビジュアライゼーション入門-II-基礎その2"' システム/制御/情報 第38巻, 第6号, 19940615, p.47-54, システム制御情報学会 *
JPN6011017346; 中嶋正之: '"CGビジュアライゼーション入門-II-基礎その2"' システム/制御/情報 第38巻, 第6号, 19940615, p.47-54, システム制御情報学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2017685A1 (en) 2007-07-19 2009-01-21 Yokogawa Electric Corporation Safety control system
US11016442B2 (en) 2016-12-22 2021-05-25 Samsung Electronics Co., Ltd. Apparatus for displaying holographic images and method of controlling the same

Also Published As

Publication number Publication date
JP5140851B2 (en) 2013-02-13

Similar Documents

Publication Publication Date Title
US7701455B2 (en) Data rendering method for volumetric 3D displays
US7256791B2 (en) Rasterization of three dimensional images
US7616228B2 (en) Hardware based interdigitation
US7477252B2 (en) Processing three dimensional data for spatial three dimensional displays
JP3840014B2 (en) Scan conversion execution apparatus for graphics display system
US5490240A (en) System and method of generating interactive computer graphic images incorporating three dimensional textures
EP0454129B1 (en) System for generating a texture mapped perspective view
US7652674B2 (en) On the fly hardware based interdigitation
RU2312404C2 (en) Hardware acceleration of graphical operations during construction of images based on pixel sub-components
US7126615B2 (en) Color compression using multiple planes in a multi-sample anti-aliasing scheme
US6636232B2 (en) Polygon anti-aliasing with any number of samples on an irregular sample grid using a hierarchical tiler
US6317525B1 (en) Method and apparatus for full scene anti-aliasing
JP3675488B2 (en) Circuit for determining non-homogeneous secondary perspective texture mapping coordinates using linear interpolation
US5719599A (en) Method and apparatus for efficient digital modeling and texture mapping
US6876361B2 (en) Architecture for real-time texture look up&#39;s for volume rendering
Weber et al. High-quality volume rendering of adaptive mesh refinement data
JP5140851B2 (en) Method for displaying a volumetric 3D image
US20070188492A1 (en) Architecture for real-time texture look-up&#39;s for volume rendering
EP1058912A1 (en) Subsampled texture edge antialiasing
Dietrich Elevation maps
Xu et al. Visualization methods of vector data on a Digital Earth System
US7804500B2 (en) Methods of displaying volumetric 3D images
Schmidt et al. Combined 3D visualization of volume data and polygonal models using a Shear-Warp algorithm
US20090009516A1 (en) Methods of displaying volumetric 3D images
Sourin Making images with mathematics

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees