WO2002069271A1 - Simulateur dote d'une fonction de generation d'images video et procede de simulation comprenant une etape de generation d'images video - Google Patents

Simulateur dote d'une fonction de generation d'images video et procede de simulation comprenant une etape de generation d'images video Download PDF

Info

Publication number
WO2002069271A1
WO2002069271A1 PCT/JP2002/001816 JP0201816W WO02069271A1 WO 2002069271 A1 WO2002069271 A1 WO 2002069271A1 JP 0201816 W JP0201816 W JP 0201816W WO 02069271 A1 WO02069271 A1 WO 02069271A1
Authority
WO
WIPO (PCT)
Prior art keywords
partial
simulation
image
images
mixing
Prior art date
Application number
PCT/JP2002/001816
Other languages
English (en)
French (fr)
Other versions
WO2002069271A8 (fr
Inventor
Shigeru Muraki
Masato Ogata
Kagenori Kajihara
Xuezhen Liu
Kenji Koshizuka
Original Assignee
National Institute Of Advanced Industrial Science And Technology
Mitsubishi Precision Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute Of Advanced Industrial Science And Technology, Mitsubishi Precision Co., Ltd. filed Critical National Institute Of Advanced Industrial Science And Technology
Priority to US10/258,457 priority Critical patent/US7212198B2/en
Priority to EP02701608A priority patent/EP1298594A4/en
Priority to KR1020027014429A priority patent/KR100875297B1/ko
Publication of WO2002069271A1 publication Critical patent/WO2002069271A1/ja
Publication of WO2002069271A8 publication Critical patent/WO2002069271A8/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering

Definitions

  • the present invention relates to a simulation device and a simulation device, and in particular, divides a three-dimensional space in which an analysis model is constructed into a plurality of subspaces, simulates the behavior of an analysis target, and converts the simulation result into a subspace.
  • a simulation device and an image generation function that have an image generation function that can visualize the behavior of the analysis model in real time by superimposing this image in
  • the present invention relates to a simulation method having an occurrence stage.
  • Fig. 1 is a block diagram of a conventional simulation device. The simulation results of the simulator 10 and the simulator 10 that calculate the dynamic characteristics of the analysis target based on the set parameters 1 to m are shown.
  • a storage medium for example, a hard disk
  • an imaging device 12 for visualizing the operation results stored in the storage medium 11, and a simulation result imaged by the imaging device 12.
  • a display panel 13 for displaying the information.
  • Figure 2 is a block diagram of a distributed simulation device with eight nodes. The behavior of the analysis target is distributed-calculated by each of the nodes # 1 to # 8, and the calculation results are synthesized.
  • Outputs of the nodes # 1 to # 8 are transmitted to the server 22 via a communication line (for example, a messaging path router) and a high-speed network switcher 21 and transmitted to the CRT. Displayed as an image on 23. Then, to visually recognize the simulation result,
  • the number of nodes that is, the number of computers connected in parallel, must be increased as the size of the analysis target increases.
  • the number of nodes since there is only one communication line between each node and the server, when the number of nodes is increased, collisions occur between nodes or between nodes and servers, and the overhead time required for communication increases. It can no longer be ignored.
  • Figure 3 is a graph showing the relationship between the number of parallel computers and the processing time.
  • the horizontal axis represents the number of parallel computers, and the vertical axis represents the processing time (seconds).
  • Fig. 3 shows that although the processing time is shortened when the number of computers connected in parallel is increased to 50 to 100, the processing time is shortened when the number of computers is increased to 100 or more. Indicates a longer processing time
  • the shortest processing time is only about 0.5 seconds.
  • the present invention has been made in view of the above problems, and divides a three-dimensional space in which an analysis model is constructed into a plurality of subspaces to simulate a behavior of an analysis target, and simulates a simulation result.
  • a simulation that has a video generation function that can visualize the behavior of the analysis target in real time by imaging the It is intended to provide a device.
  • the first simulation device and the method having the video generation function are to analyze the behavior of the analysis target at predetermined time intervals for each of a plurality of subspaces obtained by dividing the three-dimensional space in which the mathematical model of the analysis target is constructed.
  • a plurality of partial simulation means for simulating the simulation, and generating a partial image of the simulation result of the simulation of the partial space simulated by the partial simulation means within a predetermined time interval A plurality of partial video generating means and partial video generated by the partial video generating means are mixed to form an entire video as a simulation result video of the entire analysis target within a predetermined time interval. It comprises: an entire image generating means for generating; and a display means for displaying the entire image generated by the entire image generating means within the predetermined time interval.
  • the behavior of the analysis target is divided into subspaces and simulated, and the simulation result is immediately visualized. Then, by mixing the partial images, the simulation result of the analysis target is visualized.
  • a partial simulation means calculates a poxel value of a plurality of poxels obtained by dividing a subspace.
  • the simulation operation is performed in units of poxels obtained by dividing the subspace into a dice pattern.
  • the simulation apparatus and the method having the third image generation function are as follows. Generate a partial video with more mixing.
  • the poxel values of the subspaces are mixed by a multiple-shared superposition method.
  • a fourth simulation apparatus and method having a video generation function is a partial video generated by the partial video generation means based on the priority determined by the binary space 'partitioning method. Are mixed.
  • partial images are mixed based on the priority determined by the BPS method.
  • a simulation apparatus and method having a fifth image generation function wherein the whole image generation means mixes the two partial images based on the hidden relationship between the two partial images to generate a mixed image generation means Have a hierarchically stacked configuration.
  • a plurality of mixed image generating means is configured by a pipeline.
  • a sixth simulation apparatus and method having a video generation function is characterized in that the mixed video generation means determines the priority of the two partial videos based on the priority determination means and the priority determination means.
  • Switching means for switching the correspondence between two input videos and two output videos, and video mixing means for mixing output videos output from the switching means based on a mixing equation and outputting a mixed video.
  • the mixed image generating means is configured by combining hardware having a specific function.
  • FIG. 1 is a configuration diagram of a conventional simulation device.
  • FIG. 2 is a configuration diagram of a conventional distributed simulation device.
  • Figure 3 is a graph showing the relationship between the number of units in parallel and the processing time.
  • FIG. 4 is a configuration diagram of a simulation device according to the present invention.
  • FIG. 5 is an explanatory diagram of a division method into subspaces.
  • FIG. 6 is a perspective view of one partial space.
  • FIG. 7 is an explanatory diagram of a method for generating a partial image of a partial space.
  • FIG. 8 is an explanatory diagram of the MS superposition method.
  • FIG. 9 is a BPS tree representation diagram.
  • FIG. 10 is an explanatory diagram of the mixing method.
  • Figure 11 is a hidden relationship diagram.
  • FIG. 12 is an explanatory view (1/2) of the mixing process.
  • Figure 13 is an explanatory diagram (22) of the mixing process.
  • Figure 14 is a block diagram of a pipeline type composer.
  • FIG. 16 is an operation timing diagram of the simulation device according to the present invention.
  • FIG. 17 is a flowchart of the server processing routine.
  • FIG. 18 is a flowchart of the node processing routine.
  • Figure 19 is a flowchart of the partial video generation routine.
  • FIG. 4 is a configuration diagram of a simulation device according to the present invention.
  • the simulation device 4 includes a server 40 that controls the entire device, a display device (for example, a CRT) 41 that displays images, and an analysis device.
  • the server 40 includes a CPU 401 with a focus on the node 400, a memory 402 for storing programs executed by the CPU 401 and processing results of the CPU 401, and a display device 4 for displaying a moving image signal. It consists of a graphics board (GB) 403 output to 1 and an interface board (IFB) 404 for interfacing with the composer 44.
  • GB graphics board
  • IOB interface board
  • each of the nodes 431 to 438 has the same configuration, and the CPU 4 executes a simulation on a subspace where a part of the analysis target is constructed around the path 43a.
  • memory 43b for storing the simulation program executed by the CPU 43b and the simulation result of the CPU 43a, to generate an image of the simulation result of the partial space It consists of a video generation engine board (VGB) 43 c and an interface board (IFB) 43 d for interfacing with the composer 44.
  • VGB video generation engine board
  • IOB interface board
  • the video of the simulation results of the servers 43 1 to 4 38 is generated by a dedicated video generation engine, but the CPU 43 b has a high-speed processing capability. If this is the case, the video may be generated by software using a video generation program.
  • FIG. 5 is an explanatory diagram of a division method into subspaces, and shows a case where a three-dimensional space B in which an analysis model is constructed is divided into eight subspaces B1 to B8. Then, the analysis models in the respective subspaces B1 to B8 are directly incorporated into the respective nodes 431 to 438.
  • FIG. 6 is a perspective view of one subspace B i.
  • the subspace B i is divided into a plurality of poxels V (i, j, k), and by performing the simulation, one poxel V i is obtained.
  • a set of poxel values is calculated for (i, j, k).
  • the poxel value corresponds to depends on what is being analyzed.
  • the poxel values are the temperature, the atmospheric pressure, the wind direction, the wind speed, etc. of one point in the atmosphere.
  • the number of poxels is not limited to one, but may include a plurality of physical quantities.
  • the number of divisions into subspaces is not particularly limited. However, in order to facilitate the synthesis of the video generated in the subspace, the subspace is divided into a plurality of pieces, especially 2 3 n (n is a positive integer) pieces. It is advantageous.
  • the poxel values are converted into color information according to a predetermined rule. For example, it is converted to red if the temperature is high, blue if the temperature is low, and yellow if the temperature is medium.
  • Fig. 7 is an explanatory diagram of a method of generating a video image of a subspace by the ray casting method (RC method).
  • the color of a pixel P (p, q) on a screen S is represented by a cylinder C Of the color information of the poxels contained in It is determined as the superposition integral value.
  • FIG. 8A and 8B are explanatory diagrams of the MS method.
  • FIG. 8A shows the case where the RC method is applied as in FIG. 7, and
  • FIG. 8B shows the case where the MS method is applied.
  • the subspace is distorted, and a poxel in the distorted subspace is irradiated with parallel light perpendicular to the reference plane to generate an image on the reference plane. Pixel values on the reference plane can be calculated.
  • the partial image which is an image of the subspace generated by the MS method, is transmitted from each node to the composer 44, and the images of the subspace are mixed to generate an entire image, which is the image of the entire analysis model. I do.
  • first subspace groups B1 to B8 are separated by seven separate planes S1 to S7. That is, the image is divided into the first subspace groups B1 to B4 and the second subspace groups B5 to B8 by the first separation surface S1.
  • the first subspace group is divided into a 1-1 subspace group B 1 and B 2 and a 1-2 subspace group B 3 and B 4 by a second separating surface S 2.
  • the first-to-first subspace group is divided into a first-to-first-one subspace group B 1 and a first-one-to-two subspace group B 2 by a third separating surface S 3. . Separate in this way The division is repeated until one space divided by the plane contains one subvolume.
  • the priority of the video I i corresponding to the sub-volume B i included in the space having the shortest distance from the viewpoint is set to the highest. That is, the shorter the distance from the viewpoint is, the higher the priority is given to the image I i corresponding to the subspace B i, and the image I i is represented in the BSP (Binary Space Partitioning) tree format.
  • BSP Binary Space Partitioning
  • FIG. 9 is a representation of the BSP tree of FIG. 5, where a priority “1” is assigned to the video I 1 corresponding to the subspace B 1, and the video I 3, I 2, 14, 16, 1 Priority is assigned in the order of 8, 15, and 17. Next, a method of mixing images in a subspace will be described.
  • ⁇ (t) is the attenuation factor at position t on the ray
  • L (s) is the luminance at position s on the ray [Equation 1]
  • S 1 is the end point of the ray
  • I A C 0+ C 1 a 0+ + Ck-1 a 0
  • Fig. 10 is an explanatory diagram of the mixing method.
  • the luminance and transmittance are as follows.
  • a mixed image of I c and A c is generated.
  • FIG. 11 is an obscuration relation diagram, which shows the image obscuration relations corresponding to the eight sub-volumes B1 to B8 based on the BPS tree of FIG.
  • FIG. 12 is an explanatory diagram (part 1) of the mixing process.
  • the image II power S of the subspace B1 is output.
  • the image I2 of the subspace B2 is output from the server 432.
  • the image I 3 of the subspace B 3 is generated, and at the server 4 34, the image 14 of the subspace B 4 is generated.
  • the images I1 to I4 are transmitted to the composer 44, and are mixed as shown in FIG. They are mixed according to the combined equation to produce II +12 +13 +14.
  • FIG. 13 is an explanatory diagram (part 2) of the mixing process. Images I 1 to I 8 are mixed to generate an image of the simulation result of the entire analysis target.
  • the composer 44 for mixing images can be constructed by software, it is advantageous to use a so-called pipeline type computer for parallel processing for high-speed processing.
  • Figure 14 is a block diagram of a pipeline-type composer.
  • the composer 44 is composed of seven mergers 441 to 447 to combine eight images.
  • FIG. 15 is a detailed configuration diagram of one merger.
  • Each merger includes a priority determination unit 44a, a selector 44b, and a blender 44c.
  • the outputs of the nodes X and Y are input to the priority determination section 44a and the selector 44b.
  • the priority determination unit determines the obscuring relationship between the image I X generated at the node X and the image I Y generated at the node Y, and outputs a control command to the selector 44b.
  • the blender 44c mixes the two outputs of the selector 44b based on the mixing equation shown in FIG. And transmittance.
  • the composer 44 will have 7 mergers 4 4 1 to 4 4 7. It is constructed by stacking on tiers.
  • images I 1 and 13 are mixed in the first merger 44 1
  • images 12 and 14 are mixed in the second merger 44 2
  • image 15 is mixed in the third merger 44 3.
  • image 15 is mixed in the third merger 44 3.
  • image 15 is mixed in the third merger 44 3.
  • image 15 is mixed in the third merger 44 3.
  • image 15 is mixed in the third merger 44 3.
  • image 15 is mixed in the third merger 44 3.
  • image 15 is mixed in the third merger 44 3.
  • And 1 7 are mixed, and in the fourth merger 4 4 4 4 the images 16 and 18 are mixed.
  • the fifth merger 445 mixes the output of the first merger 441 and the output of the second merger 442, and the sixth merger 446 stores the third merger 444 and the fourth merger.
  • the output of the merger 4 4 4 is mixed.
  • the seventh merger 444 the outputs of the third merger 443 and the fourth merger 444 are mixed to become the output of the composer 44.
  • the composer in the case where the number of servers is eight has been described. However, in the case where the number of servers is nine or more, the above number of servers can be dealt with by stacking eight composers.
  • the output of the composer 44 is transmitted to the server 40 and displayed on the display device 41, but since the mixed video is imaged by the MS method, it is not displayed on the display device 41. It is necessary to correct distortion using the well-known texture matching function.
  • FIG. 16 is an operation timing diagram of the simulation device according to the present invention, in which the top stage shows the operation timing of the server, and the second and subsequent stages show the operation timing of the nodes # 1 to # 8. Is shown.
  • the server generates a timing pulse to synchronize the operation of the node with the server.
  • the simulation conditions, the viewpoint position for viewing the video, etc. are output as parameters to each node. You.
  • each node When each node receives the parameters, it performs a simulation of the sub-space to be analyzed, then converts the simulation result into a partial image, and outputs a partial image.
  • the server collects partial images from each node, mixes them with a composer, corrects distortions, and displays images of the entire space.
  • FIG. 17 is a flowchart of the server processing routine executed by the server.
  • step 170 it is determined whether or not the operation timing is reached. If the operation timing is not reached, this routine is directly terminated.
  • step 170 If an affirmative determination is made in step 170, that is, if the operation timing is reached, in step 171, the simulation conditions, the viewpoint position for observing the video, and the like are output to each node as parameters.
  • step 172 the video mixed by the composer is received.
  • step 173 mapping processing is performed to correct the distortion and displayed on the display device, and this routine is completed.
  • FIG. 18 is a flowchart of a node processing routine executed in each node.
  • step 180 it is determined whether or not the operation timing is reached. If the operation timing is not reached, this routine is directly performed. To end.
  • step 180 If an affirmative determination is made in step 180, that is, if the operation timing is reached, in step 181, parameters such as the simulation conditions and the viewpoint position for observing the video are received from the server. Next, in Step 182, a simulation of the subspace is performed, and in Step 183, the reference plane is cleared to generate a partial image.
  • a partial video generation routine is executed in step 184, the details of which will be described later. Finally, in step 185, the partial video is transmitted to the server, and the routine ends.
  • FIG 19 shows the part executed in step 18 of the node processing routine.
  • indexes (i, j, k) indicating the poxel addresses in the subspace are set to initial values "1". Note that i and j are addresses along axes orthogonal to each other in the reference plane, and k is an address along an axis perpendicular to the reference plane.
  • step 184b four parameters (UPU ⁇ , UP ⁇ ⁇ J, U ⁇ bSI, UP.bSJ) that vary with k are determined.
  • UP ⁇ ⁇ and UP ⁇ ⁇ ] are the increments in the i-axis and j-axis directions, respectively, and are the increments in the coordinates of the i-axis and j-axis between the deformed poxels.
  • UP ⁇ bS I and UP ⁇ bSJ are the coordinates of the side edges of the subvolume transformed by the MS method in the i-axis and j-axis directions, respectively.
  • step 1884c If the coordinates of one point on the reference plane are (p, q) in step 1884c, the initial value of q is set to UP ⁇ b SJ, and in step 1884d, q is increased in the j direction. Add q and update q.
  • step 1884 e the initial value of p is set to UP ⁇ b S I, and in step 1884 f, p is updated by adding the increment in the i direction to p.
  • step 184g a parameter ijk representing the poxel position before deformation and a parameter Sijk representing the corresponding poxel position after deformation are obtained.
  • the poxel value V ijk Take out.
  • the poxel value Vijk is a four-dimensional vector having red component R, green component G, blue component B, and transparency A as elements.
  • the pixel value C is calculated as the product of the poxel value vijk and the weight function w.
  • (ipjk) is the i-axis and j-axis coordinates of the point on the reference plane corresponding to the poxel (ijk).
  • the pixel value is also a four-dimensional vector with red component R, green component G, blue component B and transparency A as elements.
  • step 184i the composite pixel value Cc calculated in the processing up to all the steps and the pixel value C calculated in step 284h are calculated based on [Equation 4]. To update the composite pixel value C c.
  • step 18 4 j it is determined whether or not the processing has been completed for all the poxels. If the processing along the i-axis has not been completed, i is incremented in step 18 4k and step 18 Return to 4f.
  • this routine ends.
  • a large-scale analysis target can be divided into subspaces and simulated, and a result can be imaged for each subspace. Therefore, it is possible to display simulation results at video speed even if the processing power of the node is not particularly excellent.
  • the simulation operation is performed on the poxels, so that the simulation results can be easily visualized.
  • the hidden relationship can be determined by recursive processing by using the BSP method.
  • the composer since the composer has a pipeline configuration, it is possible to speed up the mixing of the partial video. .
  • the merger is configured by functional hardware, so that the speed of the mixing process of the two videos can be increased. Becomes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書 映像生成機能を有するシミ ュ レーシ ョ ン装置及び映像生成段階を有 するシミ ュ レーシ ョ ン方法
1 . 技術分野
本発明はシミ ュ レーシヨ ン装置及び装置に係り、 特に解析モデル が構築される三次元空間を複数の部分空間に分割して解析対象の挙 動をシミュレーシヨ ンし、 シミュレーショ ン結果を部分空間ごとに 映像化した後に、 隠顕関係を考慮してこの映像を重畳することによ り、 解析モデルの挙動を実時間で可視化することの可能な映像発生 機能を有するシミ ュ レーショ ン装置及び映像発生段階を有するシミ ユ レーショ ン方法に関する。
2 . 背景技術
近年ディジタル計算機の性能向上に伴って、 大規模な解析対象の 挙動をシミュレーションすることが可能となってきているが、 挙動 の理解を容易にするためにはシミユ レーショ ン結果を可視化するこ とが重要となる。
図 1は従来のシミユ レーション装置の構成図であって、 設定され たパラメータ 1〜mに基づいて解析対象の動的特性を演算するシミ ユ レータ 1 0 と、 シミ ュ レータ 1 0 の演算結果を記憶する記憶媒体 (例えばハー ドディスク) 1 1 と、 記憶媒体 1 1 に記憶された演算 結果を映像化する映像化装置 1 2 と、 映像化装置 1 2で映像化され たシミ ュ レーショ ン結果を表示する表示パネル 1 3 とから構成され ている。
しかし、 従来のシミ ュ レーシ ョ ン装置では、 映像化をシミ ュ レ一 ショ ン終了後に実行するボス トプロセスと して取り扱つているため 以下の課題が生じる。
1 . シミ ュ レーション装置から出力されるシミ ュ レーショ ン結果を いつたん記憶媒体に記憶した後に映像化するため、 パラメータを変 更した結果を実時間で観察することは困難である。
2 . シミ ュ レーショ ン結果を映像化装置で映像化するためにはハー ドデイ スク等に記憶されたシミ ュ レ一ショ ン結果を映像化装置に合 致する形式に変換することが必要となるが、 解析対象の規模が大き い場合には変換計算量が膨大となる。
例えば、 視点を移動した場合には移動後の視点に対応した画像を 再度生成する必要もあり、 またシミ ュ レーショ ン結果がボリ ューム データとして出力されポリ ゴンによ り映像化される場合にはポリ ュ ームデータをポリ ゴンに変換することが必要となる。 このため、 シ ミ ュ レーショ ン結果を実時間で映像と して観察することは不可能で あった。
そこでシミュレーショ ン演算及び映像化処理を高速化するために 、 いわゆる分散型シミ ュ レーショ ン装置が提案されている。
図 2はノー ド数 8の分散型シミ ュ レーショ ン装置の構成図であつ て、 解析対象の挙動を各ノー ド # 1 〜 # 8で分散演算し、 演算結果 を合成する。
ノ ー ド # 1〜 # 8 の出力は、 通信回線 (例えば Mes s age Pas s ing I nt e r fac e) 及びハイ ス ピー ドネ ッ トワークスィ ッチヤ 2 1 を介し てサーバ 2 2に伝送され、 C R T 2 3に映像と して表示される。 そして、 シミ ュ レーショ ン結果を視覚的に認識するには 1秒間に
3 0枚程度 (ビデオレー ト) の頻度で映像を更新することが必要と なるため、 解析対象の規模が大きくなるとノード数、 即ち並列接続 されるコ ンピュータ数を増加しなければならない。 しかしながら、 各ノー ドとサーバの間の通信回線は 1回線である ため、 ノード数を増加した場合にはノード間あるいはノード · サー パ間の通信に衝突が生じ通信に要するオーバへッ ド時間を無視する ことができなくなる。
図 3は並列台数と処理時間の関係を示すグラフであって、 横軸は 並列コ ンピュータ台数を、 縦軸は処理時間 (秒) を表す。 即ち、 図 3は並列接続するコ ンピュータ台数を 5 0〜 1 0 0台にまで増加す ると処理時間は短縮されるものの、 コ ンピュータ台数を 1 0 0台以 上に増加した場合には却って処理時間が長く なることを示している
。 そして、 現在使用可能な C P Uを使用した場合には、 最短の処理 時間は " 0 . 5秒" 程度にすぎない。
本発明は上記課題に鑑みなされたものであって、 解析モデルが構 築される三次元空間を複数の部分空間に分割して解析対象の挙動を シミ ュ レーシ ョ ンし、 シミ ュ レーショ ン結果を部分空間ごとに映像 化した後に、 隠顕関係を考慮して映像を混合することによ り、 解析 対象の挙動を実時間で映像化することの可能な映像生成機能を具備 するシミュレーショ ン装置を提供することを目的とする。
3 . 発明の開示
第 1 の映像生成機能を有するシミ ュ レーシ ョ ン装置及び方法は、 解析対象の数式モデルが構築される三次元空間を分割した複数の部 分空間毎に解析対象の挙動を所定の時間間隔毎にシミ ュ レーショ ン する複数の部分シミユ レーショ ン手段と、 部分シミュレーショ ン手 段でシミ ュ レーシ ョ ンされた部分空間のシミ ュ レーショ ン結果の部 分映像を所定の時間間隔内に生成する複数の部分映像生成手段と、 部分映像生成手段で生成された部分映像を混合して解析対象全体の シミ ュ レーシ ョ ン結果の映像である全体映像を所定の時間間隔内に 生成する全体映像生成手段と、 全体映像生成手段で生成された全体 映像を前記所定の時間間隔内に表示する表示手段とを具備する。 本発明にあっては、 解析対象の挙動が部分空間に分割してシミュ レーシヨンされ、 シミ ュ レーショ ン結果が直ちに映像化される。 そ して、 部分映像を混合することによ り解析対象のシミュレーシヨ ン 結果が映像化される。
第 2 の映像生成機能を有するシミュレーシ ョ ン装置及び方法は、 部分シミ ュ レーショ ン手段が部分空間を分割した複数のポクセルの ポクセル値を演算するものである。
本発明にあっては、 部分空間を賽の目状に分割したポクセル単位 でシミ ュ レーシ ョ ン演算が実行される。
第 3 の映像生成機能を有するシミ ュ レーショ ン装置及び方法は、 部分映像生成手段が、 部分シミ ュ レーシ ョ ン手段でシミ ュ レーシ ョ ン演算されたポクセル値をマルチプル · シェア一ド重畳法によ り混 合して部分映像を生成する。
本発明にあっては、 部分空間のポクセル値がマルチプル ' シェア ー ド重畳法によ り混合される。
第 4 の映像生成機能を有するシミ ュ レ一シヨ ン装置及び方法は、 バイナリー · スペース ' パーティシ ョ ニング法によ り決定された優 先度に基づいて部分映像生成手段で生成された部分映像を混合する ものである。
本発明にあっては、 B P S法によ り決定された優先度に基づいて 部分映像が混合される。
第 5 の映像生成機能を有するシミ ュ レーシヨ ン装置及び方法は、 全体映像生成手段が、 2つの部分映像を 2つの部分映像の隠顕関係 に基づいて混合し混合映像を生成する混合映像生成手段が階層的に 積み重ねられた構成を有する。 本発明にあっては、 全体映像生成手段は、 複数の混合映像生成手 段がパイプラインで構成される。
第 6 の映像生成機能を有するシミ ュ レーショ ン装置及び方法は、 混合映像生成手段が、 2つの部分映像の優先度を判定する優先度判 定手段と、 優先度判定手段における判定結果に基づいて 2つの入力 映像と 2つの出力映像の対応関係を切替える切替え手段と、 切替え 手段から出力される出力映像を混合方程式に基づいて混合し混合映 像を出力する映像混合手段を具備する。
本発明にあっては、 混合映像生成手段が、 特定機能を有するハー ドウエアを組み合わせることによって構成される。
4 . 図面の簡単な説明
図 1 は、 従来のシミユレーショ ン装置の構成図である。
図 2は、 従来の分散型シミ ュ レーシ ョ ン装置の構成図である。 図 3は、 並列台数と処理時間の関係を示すグラフである。
図 4は、 本発明に係るシミュレーショ ン装置の構成図である。 図 5は、 部分空間への分割方法説明図である。
図 6は、 1つの部分空間の斜視図である。
図 7は、 部分空間の部分映像生成方法の説明図である。
図 8は、 M S重畳法の説明図である。
図 9は、 B P Sツリー表現図である。
図 1 0は、 混合方法の説明図である。
図 1 1 は、 隠顕関係図である。
図 1 2は、 混合過程の説明図 ( 1 / 2 ) である。
図 1 3は、 混合過程の説明図 ( 2 2 ) である。
図 1 4は、 パイプライン方式のコンポ一ザの構成図である。
図 1 5は、 マージャの構成図である。 図 1 6は、 本発明に係るシミ ュ レーショ ン装置の動作タイ ミ ング 図である。
図 1 7は、 サーバ処理ノレ一チンのフローチャートである。
図 1 8は、 ノード処理ルーチンのフローチャートである。
図 1 9は、 部分映像生成ルーチンのフ ローチャートである。
5. 発明を実施するための最良の形態
図 4は本発明に係るシミユ レーショ ン装置の構成図であって、 シ ミ ュ レーシヨ ン装置 4は、 装置全体を制御するサーバ 4 0、 映像を 表示する表示装置 (例えば C R T) 4 1、 解析モデルが構築される 三次元空間を複数に分割した部分空間のシミ ュ レーショ ン及び映像 化処理を実行する複数のノー ド 4 3 :!〜 4 3 8、 及び各ノー ド 4 3 1〜4 3 8の出力を合成してサーバに出力するコンポ一ザ 4 4から 構成される。
サーバ 4 0は、 ノ ス 4 0 0を中心として C P U 4 0 1、 C P U 4 0 1で実行されるプログラム及び C P U 4 0 1の処理結果を記憶す るメモリ 4 0 2、 動画信号を表示装置 4 1 に出力するグラフィ ック ボー ド (GB) 4 0 3及びコンポ一ザ 4 4 とイ ンターフェイスする ためのイ ンターフェイスボー ド ( I F B) 4 0 4で構成される。
また各ノー ド 4 3 1〜4 3 8はすべて同一の構成を有し、 パス 4 3 aを中心と して解析対象の一部が構築される部分空間についてシ ミ ュレーシヨ ンを実行する C P U 4 3 b、 C P U 4 3 bで実行され るシミ ュ レーシ ョ ンプログラム及び C P U 4 3 aのシミ ュ レーシ ョ ン結果を記憶するメモリ 4 3 b、 部分空間のシミ ュ レーショ ン結果 の映像を生成する映像生成エンジンボー ド (V G B) 4 3 c、 及び コンポ一ザ 4 4 とィ ンタ一フェイスするためのィ ンターフヱイスボ ー ド ( I F B) 4 3 dから構成される。 なお、 上記実施形態においてはサーバ 4 3 1〜 4 3 8のシミ ュ レ ーショ ン結果の映像は専用の映像生成エンジンで生成されるものと したが、 C P U 4 3 bが高速な処理能力を有していれば映像発生プ ログラムによ り ソフ トウエア的に映像を発生してもよい。
図 5は部分空間への分割方法説明図であって、 解析モデルが構築 される三次元空間 Bを部分空間 B 1 〜B 8に 8分割した場合を示 している。 そして、 各部分空間 B l ~B 8内の解析モデルがその まま各ノー ド 4 3 1〜 4 3 8に組み込まれる。
図 6は 1つの部分空間 B i の斜視図であって、 部分空間 B i は 複数のポクセル V (i,j ,k) に分割され、 シミ ュ レーショ ンを実行 することによって 1個のポクセル V (i,j ,k) に対して 1組のポク セル値が算出される。
ポクセル値がいかなる物理量に対応するかは解析対象が何である かに依存する。 例えば地球の天気をシミ ュ レーショ ンする場合には 、 ポクセル値は大気中の一点の気温、 大気圧、 風向、 風速等となる 。 このように、 ポクセル値は 1つには限定されることはなく、 複数 の物理量を含んでいてもよい。
なお、 部分空間への分割数は特に限定されないが、 部分空間で発 生される映像の合成を容易にするために、 複数個、 特に 2の 3 n乗 (nは正整数) 個に分割することが有利である。
シミ ユ レーショ ン結果の映像化のために、 ポクセル値は予め定め られた規則に従って色彩情報に変換される。 例えば、 気温が高温で あれば赤色に、 低温であれば青色に、 中間の温度であれば黄色に変 換される。
図 7はレイ キャスティ ング法 (R C法) による部分空間の映像発 生方法の説明図であって、 スク リーン S上のピクセル P (p , q ) の色は、 部分空間 B i 内の円柱 Cに含まれるポクセルの色情報の 重畳積分値と して決定される。
しかし、 視野はスク リーン Sから遠くなるほど拡大するので、 円 柱 Cの太さはスク リーンから遠くなるほど太くなるため、 重畳積分 する範囲はスク リーンからの距離に応じて拡大し、 重畳積分演算が 複雑となる。
そこで、 本発明においては、 マルチプル · シェアー ド重畳法 (M S法) を適用することによって映像発生を容易にしている。
図 8は MS法の説明図であって、 (A) は図 7 と同じく R C法を 適用した場合を、 (B) は M S法を適用した場合を示す。
即ち、 MS法では、 部分空間を歪ませ、 歪められた部分空間内の ポクセルを基準面に垂直な平行光によ り照射して基準面に映像を生 成することによ り、 単なる加算により基準面上のピクセル値を算出 することが可能となる。
M S法により生成された部分空間の映像である部分映像は、 各ノ ー ドからコンポ一ザ 4 4に伝送され、 部分空間の映像を混合して解 析モデル全体の映像である全体映像を生成する。
そして全体映像を生成するためには、 視点と各部分空間の位置関 係に基づいて隠顕関係を決定することが必要となるが、 図 5を参照 して隠顕関係の決定方法を説明する。
まず、 8つの部分空間 B 1 〜; B 8 を 7つのセパレー ト面 S l〜 S 7 によって隔てる。 即ち、 第 1のセパレー ト面 S 1 によって、 第 1 の部分空間群 B l 〜B 4 と第 2の部分空間群 B 5〜: B 8 に 分割する。 次に第 1の部分空間群を第 2のセパレー ト面 S 2 によ つて第 1— 1の部分空間群 B 1 及び B 2 と第 1 -2の部分空間群 B 3 及び B 4 に分割する。 さ らに、 第 1 一 1の部分空間群を第 3 のセパレー ト面 S 3 によって第 1 一 1 一 1の部分空間群 B 1 と第 1一 1 — 2の部分空間群 B 2 に分割する。 このよ う にセパレー ト 面で分割される 1つの空間にサブボリ ユームが 1つ含まれるように なるまで分割を繰り返す。 そして、 視点との距離が最短である空間 に含まれるサブボリ ューム B i に対応する映像 I i の優先度を最 高に設定する。 即ち、 視点との距離が短いほど部分空間 B i に対 応する映像 I i に高い優先度を付与して B S P (Binary Space Pa rtitioning) ツリー形式で表現する。
図 9は、 図 5の B S Pツリー表現であって、 部分空間 B 1 に対 応する映像 I 1 に優先度 " 1 " が付与され、 以下映像 I 3 、 I 2 、 1 4 、 1 6 、 1 8 、 1 5 、 1 7 の順に優先度が付与される 次に部分空間の映像混合方法を説明する。
光源から放射される光が、 解析モデルが構築される三次元空間を 貫通してスク リ ーン上の点 ( p, q ) に到達する場合の点 ( p, q ) における輝度 I cは [数 1 ] で表される。
Figure imgf000011_0001
二こで μ ( t ) は光線上の位置 t における減衰率
L ( s ) は光線上の位置 s における輝度 [数 1 ]
SO は光線の出発点
S 1 は光線の終点
[数 1 ] を Δ s = Δ t と して離散化すると [数 2 ] となる。
Figure imgf000011_0002
SEL S)
[数 2 ]
∑i=N-1 -| ~ r j=i-1
[数 2 ] を展開すると [数 3 ] となる。 I C= { Ο0+ Ο1 α 0+ Ο2α 0α 1+ Ο3α 0α 1α 2
+…… + Ck-1ひ 0α 1…… a k一 1}
+ { ひ 0ひ 1 ひ k一 1 C k+ ο; 0 CK 1 ··· ひ k_l C k+1ひ k
+ α 0 · 1…… a k-lCN-1 a k…… a N-2}
= I A+ AA · I B
AC= AA · AB
[数 3 ] ただし AA= α Οα 1 a k-1 ·
AB= a a k+1 a N_l
I A= C 0+ C 1 a 0+ + Ck-1 a 0··· a k-1
I B= Ck+ Ck+la k+…… + CN-1 a k--- a N~2
[数 3 ] から判明するように、 輝度がそれぞれ I A 及び I B で 表される 2つの映像を [数 3 ] を使用して混合することによ り合成 映像の輝度を求めることが可能である。 なお、 上記は分割数を " 2 " と した場合を説明したが、 分割数を 2より大と した場合にも同様 に混合可能であることも明らかである。
図 1 0は混合方法の説明図であって、 輝度、 透過率がそれぞれ I A , A A 及び IB , A B の 2枚の映像を [数 3 ] に示す混合方 程式に従って混合すると、 輝度、 透過率が I c , A c の混合映像 が生成される。
図 1 1は隠顕関係図であって、 図 9の B P Sツリーに基づいて 8 個のサブボリ ューム B 1 〜: B 8 に対応する映像隠顕関係を示す。
図 1 2は混合過程の説明図 (その 1 ) であって、 サーバ 4 3 1で 部分空間 B 1 の映像 I I 力 S、 サーバ 4 3 2で部分空間 B 2 の映 像 I 2 が、 サーバ 4 3 3で部分空間 B 3 の映像 I 3 力 S、 サーバ 4 3 4で部分空間 B 4 の映像 1 4が生成される。
映像 I 1 〜 1 4 はコンポ一ザ 4 4に伝送され、 図 1 0に示す混 合方程式に従って混合され、 I I +12 +13 +14 が生成され る。
図 1 3は混合過程の説明図 (その 2 ) であって、 映像 I 1 〜 I 8 が混合されて解析対象全体のシミ ユレーショ ン結果の映像が生 成される。
映像を混合するコンポ一ザ 4 4はソフ トウエアによつて構築する ことも可能であるが、 高速処理のためにいわゆるパイプライン方式 のコンピュータを使用して並列演算を行う ことが有利である。
図 1 4はパイプライ ン方式のコンポ一ザの構成図であって、 コン ポーザ 4 4は 8枚の映像を合成するために 7個のマージャ 4 4 1〜 4 4 7で構成される。
図 1 5は 1つのマージャの詳細構成図であって、 各マージャは優 先度判定部 4 4 a、 セレクタ 4 4 b及びブレンダ 4 4 cから構成さ れる。
即ち、 ノー ド X及び Yの出力は優先度判定部 4 4 a及びセレクタ 4 4 bに入力される。 優先度判定部ではノ一ド Xで生成された画像 I X とノー ド Yで生成された画像 I Y の隠顕関係を判定してセレ クタ 4 4 bに制御指令を出力する。
例えば I Y の優先度が高く、 I X の優先度が低い場合にはセレ クタ 4 4 bのク ロス経路を選択し、 ノード Xの出力をセレクタ 4 4 bの出力口 Bに、 ノー ド Yの出力をセレクタ 4 4 bの出力口 Aに出 力する。 逆に、 I Y の優先度が低く、 I X の優先度が高い場合に はセレクタ 4 4 bのス ト レー ト経路を選択し、 ノー ド Xの出力をセ レクタ 4 4 bの出力口 Aに、 ノー ド Yの出力をセレクタ 4 4 bの出 カロ Bに出力する。
そして、 プレンダ 4 4 cでは、 セレクタ 4 4 bの 2つの出力を図 1 0に示す混合方程式に基づいて混合して混合された映像の強度及 び透過率を出力する。
図 1 4に戻って、 シミュレーショ ン装置 4が 8台のサーバ 4 4 1 〜4 4 8を具備する場合には、 コンポ一ザ 4 4は 7台のマージャ 4 4 1〜4 4 7が 3段に積み重ねられて構成される。
即ち、 第 1のマージャ 4 4 1では画像 I 1 と 1 3 が混合され、 第 2のマージャ 4 4 2では画像 1 2 と 1 4 が混合され、 第 3のマ ージャ 4 4 3では画像 1 5 と 1 7 が混合され、 第 4のマージャ 4 4 4では画像 1 6 と 1 8 が混合される。
第 5のマージャ 4 4 5では第 1のマージャ 4 4 1及ぴ第 2のマー ジャ 4 4 2の出力が混合され、 第 6のマージャ 4 4 6では第 3のマ ージャ 4 4 3及び第 4のマージャ 4 4 4の出力が混合される。 そし て、 第 7のマージャ 4 4 7では第 3のマージャ 4 4 3及び第 4のマ ージャ 4 4 4の出力が混合されてコンポ一ザ 4 4の出力となる。
なお、 上記実施態様はサーバ数が 8の場合のコンポーザについて 説明したが、 サーバ数を 9以上とした場合には上記サーバ数が 8 コ ンポーザを積層することによ り対応可能である。
コンポ一ザ 4 4の出力はサーバ 4 0に伝送されて表示装置 4 1 で 表示されるが、 混合映像は M S法によ り映像化されているため、 表 示装置 4 1 に表示する際には周知のテクスチャマツビング機能を使 用して歪みを補正することが必要である。
図 1 6は本発明に係るシミュレーショ ン装置の動作タイ ミ ング図 であって、 最上段はサーバの動作タイ ミ ングを、 第 2段以下はノー ド # 1〜 # 8の動作タイ ミ ングを示す。
即ちサーバとノー ドの動作を同期させるために、 例えばサーバは タイ ミングパルスを生成する。
タイ ミングパルスを検知すると、 サ一パほシミュレーショ ン条件 、 映像を観察する視点位置等をパラメータと して各ノードに出力す る。
各ノー ドはパラメータを受け取ると、 解析対象のサブ空間のシミ ユレーショ ンを実行し、 次にシミュレーショ ン結果を部分映像化し 、 部分映像を出力する。
サーバは各ノー ドから部分映像を集め、 コンポ一ザで混合し、 歪 みを補正した後全空間の映像を表示する。
図 1 7はサーバで実行されるサーバ処理ルーチンのフローチヤ一 トであって、 ステップ 1 7 0で動作タイ ミ ングであるかを判定し、 動作タイ ミ ングでなければ直接このルーチンを終了する。
ステップ 1 7 0で肯定判定されたとき、 即ち動作タイ ミ ングであ ればステップ 1 7 1 でシミ ュレーショ ン条件、 映像を観察する視点 位置等をパラメータとして各ノー ドに出力する。
次にステップ 1 7 2でコンポーザで混合された映像を受け取り、 ステップ 1 7 3でマッピング処理をして歪みを補正して表示装置に 表示してこのル一チンを終了する。
図 1 8は各ノ一ドで実行されるノー ド処理ルーチンのフローチヤ 一トであって、 ステップ 1 8 0で動作タイ ミ ングであるかを判定し 、 動作タイ ミ ングでなければ直接このルーチンを終了する。
ステップ 1 8 0で肯定判定されたとき、 即ち動作タイ ミ ングであ ればステップ 1 8 1 でシミ ュレーショ ン条件、 映像を観察する視点 位置等のパラメータをサーバから受信する。 次にステップ 1 8 2で 部分空間のシミ ュレーショ ンを実行し、 ステップ 1 8 3で部分映像 を生成するために基準面をク リアする。
ステップ 1 8 4で部分映像生成ルーチンを実行するが詳細は後述 する。 最後にステップ 1 8 5でサーバに部分映像を送信してこのル 一チンを終了する。
図 1 9はノー ド処理ルーチンのステップ 1 8 4で実行される部分 映像生成ルーチンの詳細フローチャートであって、 ステップ 1 8 4 aでサブ空間のポクセルア ドレスを示すインデックス ( i , j , k ) をそれぞれ初期値 " 1 " に設定する。 なお、 i及び j は基準面内 で相互に直交する軸に沿うア ドレス、 kは基準面に垂直な軸に沿う ァ ドレスである。
ステップ 1 8 4 bで kによつて変化する 4つのパラメータ (U P · Δ Ι , U P · Δ J , U Ρ · b S I , U P . b S J ) を求める。 こ こで U P · Δ Ι及び U P · Δ】 は、 それぞれ i軸及び j 軸方向の増 加分であり、 変形されたポクセル間の i軸及び j 軸の座標の増分で ある。 U P · b S I及び U P · b S J は、 それぞれ i軸及び j 軸方 向の M S法によ り変形されたサプボリ ユームの側端の座標である。 ステップ 1 8 4 cで基準面上の 1点の座標を ( p, q ) と したと きの qの初期値を U P · b S J に設定し、 ステップ 1 8 4 dで qに j 方向の増加分を加算して qを更新する。
ステップ 1 8 4 eで pの初期値を U P · b S I に設定し、 ステツ プ 1 8 4 f で pに i方向の増加分を加算して pを更新する。
ステップ 1 8 4 gで変形前のポクセル位置を表すパラメータ ijk 、 及び変形後の対応するポクセル位置を表すパラメータ S i j k を求める。
即ち、
S i j k = ( p , q , r )
とする。
ステップ 1 8 4 hで基準面上の 1点 ( p, q ) のピクセル値 Cを 算出するために、 まずポクセル位置を表すパラメータ ( i , j , k ) に基づいて当該ポクセルのポクセル値 V i j k を取り出す。 な お、 ポクセル値 V i j k は赤色成分 R、 緑色成分 G、 青色成分 B 及び透明度 Aを要素とする 4次元べク トルである。 そして、 ポクセル値 v i j k と重み関数 wの積と してピクセル 値 Cが算出される。
C V i j k *w ( ρ— i ρ q — j q )
ただし、 ( i p j q ) はポクセル ( i j k ) に対応する 基準面上の点の i軸及び j 軸座標である。 また、 ピクセル値も赤色 成分 R、 緑色成分 G、 青色成分 B及び透明度 Aを要素とする 4次元 べク トルである。
最後にステップ 1 8 4 i において、 全ステップまでの処理で算出 されたコンポジッ トピクセル値 C c とステップ 2 8 4 hで算出さ れたピクセル値 Cとを 〔数 4〕 に基づいてコンポジッ ト演算してコ ンポジッ ト ピクセル値 C c を更新する。
Figure imgf000017_0001
A = A * A
[数 4 ]
R ,
G ,
ただし C =
B (
A
R G
C =
B
C ステップ 1 8 4 j で全ポクセルについて処理が完了したかを判定 し、 i軸に沿った処理が終了していないときは、 ステップ 1 8 4 k で i をインク リ メ ント してステップ 1 8 4 f に戻る。
また、 j 軸に沿った処理が終了していないときは、 ステップ 1 8 4 mで j をインク リ メ ントしてステップ 1 8 4 dに戻り、 k軸に沿 つた処理が終了していないときは、 ステップ 1 8 4 nで kをィンク リ メ ント してステップ 1 8 4 bに戻る。 なお、 全ポクセルについて 処理が完了したときはこのルーチンを終了する。
第 1 の発明に係る映像生成機能を有するシミ ュ レーシヨ ン装置及 び方法によれば、 大規模な解析対象を部分空間に分割してシミュ レ ーシヨ ンし、 部分空間毎に結果を映像化できるので、 ノードの処理 能力が特に優れていなくてもシミ ュ レーショ ン結果をビデオ速度で 表示することが可能となる。
第 2の発明に係る映像生成機能を有するシミ ュ レーシヨ ン装置及 び方法によれば、 シミ ュ レーシ ョ ン演算はポクセルについて実施さ れるので、 シミ ュ レーショ ン結果の映像化が容易となる。
第 3 の発明に係る映像生成機能を有するシミ ュ レーシ ヨ ン装置及 び方法によれば、 M S法によ り部分映像を生成することによ り映像 生成時間を短縮することが可能となる。
第 4 の発明に係る映像生成機能を有するシミ ュ レーシ ョ ン装置及 び方法によれば、 B S P法を使用するこ とにより リカーシブな処理 によ り隠顕関係を決定することが可能となる。
第 5の発明に係る映像生成機能を有するシミ ュ レーシ ョ ン装置及 び方法によれば、 コ ンポ一ザがパイプライン構成であるので、 部分 映像の混合を高速化することが可能となる。
第 6 の発明に係る映像生成機能を有するシミ ュ レーシ ョ ン装置及 び方法によれば、 マージャが機能ハードウェアによ り構成されるの で、 2映像の混合処理を高速化することが可能となる。

Claims

求 の 範 囲
1 . 解析対象の数式モデルが構築される三次元空間を分割した複 数の部分空間毎に解析対象の挙動を所定の時間間隔毎にシミ ュレ一 ショ ンする複数の部分シミ ュ レーシ ョ ン手段と、
前記部分シミ ュ レーシ ョ ン手段でシミ ュ レーシ ョ ンされた部分空 間のシミ ュレーショ ン結果の部分映像を前記所定の時間間隔内に生 成する複数の部分映像生成手段と、
前記部分映像生成手段で生成された部分映像を混合して解析対象 全体のシミ ュレーシ'ョ ン結果の映像である全体映像を前記所定の時 間間隔内に生成する全体映像生成手段と、
前記全体映像生成手段で生成された全体映像を前記所定の時間間 隔内に表示する表示手段とを具備する映像生成機能を有するシミュ レーショ ン装置。
2 . 前記部分シミ ュ レーショ ン手段が、 部分空間を分割した複数 のポクセルのポクセル値を演算するものである請求項 1 に記載の映 像生成機能を有するシミ ュ レーシ ョ ン装置。
3 . 前記部分映像生成手段が、 前記部分シミ ュ レーシ ョ ン手段で シミ ュレーショ ンされたポクセル値をマルチプル · シェア一ド重畳 法によ り混合して部分映像を生成するものである請求項 2に記載の 映像生成機能を有するシミ ュレーシヨ ン装置。
4 . 前記全体映像生成手段が、 バイナリー · スペース ' パーティ ショユング法によ り決定された優先度に基づいて前記部分映像生成 手段で生成された部分映像を混合するものである請求項 1から 3の いずれか 1項に記載の映像生成機能を有するシミ ュ レーショ ン装置
5 . 前記全体映像生成手段が、 2つの部分映像を該 2つの部分映 像の隠顕関係に基づいて混合し混合映像を生成する混合映像生成手 段が階層的に積み重ねられた構成を有する請求項 4に記載の映像生 成機能を有するシミ ユ レーシヨ ン装置。
6 . 前記全体映像生成手段が、 前記全体映像生成手段を階層的に 積み重ねられた構成を有する請求項 5に記載の映像生成機能を有す るシミ ュ レーショ ン装置。 '
7 . 前記混合映像生成手段が、
2つの部分映像の優先度を判定する優先度判定手段と、
前記優先度判定手段における判定結果に基づいて 2つの入力映像 と 2つの出力映像の対応関係を切替える切替え手段と、
前記切替え手段から出力される出力映像を混合方程式に基づいて 混合し、 混合映像を出力する映像混合手段を具備する請求項 5又は 6に記載の映像生成機能を有するシミ ュ レーシ ョ ン装置。
8 . 解析対象の数式モデルが構築される三次元空間を分割した複 数の部分空間毎に解析対象の挙動を所定の時間間隔毎にシミ ュ レ一 シヨ ンする複数の部分シミ ュ レーショ ン段階と、
前記部分シミ ュ レーショ ン段階でシミ ュ レーシ ョ ンされた部分空 間のシミュ レーショ ン結果の部分映像を前記所定の時間間隔内に生 成する複数の部分映像生成段階と、
前記部分映像生成段階で生成された部分映像を混合して解析対象 全体のシミュ レーショ ン結果の映像である全体映像を前記所定の時 間間隔内に生成する全体映像生成段階と、
前記全体映像生成段階で生成された全体映像を前記所定の時間間 隔内に表示する表示段階とを具備する映像生成段階を有するシミュ レーショ ン方法。
9 . 前記部分シミ ュ レーショ ン段階が、 部分空間を分割した複数 のポクセルのポクセル値を演算するものである請求項 8に記載の映 像生成段階を有するシミ ュ レーショ ン方法。
1 0 . 前記部分映像生成段階が、 前記部分シミュレ シヨ ン段階 でシミ ユ レーショ ンされたポクセル値をマルチプル · シェア一ド重 畳法により混合して部分映像を生成するものである請求項 9に記載 の映像生成段階を有するシミュ ーシヨ ン方法。
1 1 . 前記全体映像生成段階が、 パイナリー · スペース · パーテ イショユング法によ り決定された優先度に基づいて前記部分映像生 成段階で生成された部分映像を混合するものである請求項 8から 1 0のいずれか 1項に記載の映像生成段階を有するシミ ュ レーショ ン 方法。
1 2 . 前記全体映像生成段階が、 2つの部分映像を該 2つの部分 映像の隠顕関係に基づいて混合し混合映像を生成する混合映像生成 段階を繰り返し実行する請求項 1 1に記載の映像生成段階を有する シミ ュ レーショ ン方法。
1 3 . 前記混合映像生成段階が、
2つの部分映像の優先度を判定する優先度判定段階と、
前記優先度判定段階における判定結果に基づいて 2つの入力映像 と 2つの出力映像の対応関係を切替える切替え段階と、
前記切替え段階から出力される出力映像を混合方程式に基づいて 混合し、 混合映像を出力する映像混合段階を具備する請求項 1 2に 記載の映像生成段階を有するシミ ュ レーショ ン方法。
PCT/JP2002/001816 2001-02-28 2002-02-27 Simulateur dote d'une fonction de generation d'images video et procede de simulation comprenant une etape de generation d'images video WO2002069271A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/258,457 US7212198B2 (en) 2001-02-28 2002-02-27 Simulation system having image generating function and simulation method having image generating process
EP02701608A EP1298594A4 (en) 2001-02-28 2002-02-27 SIMULATOR WITH VIDEO GENERATION FUNCTION AND SIMULATION PROCESS WITH A VIDEO GENERATION STEP
KR1020027014429A KR100875297B1 (ko) 2001-02-28 2002-02-27 영상 생성 기능을 갖는 시뮬레이션 장치 및 영상 생성단계를 갖는 시뮬레이션 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001055354A JP4688316B2 (ja) 2001-02-28 2001-02-28 シミュレーション装置とシミュレーション方法、及び映像生成装置と映像生成方法
JP2001-55354 2001-02-28

Publications (2)

Publication Number Publication Date
WO2002069271A1 true WO2002069271A1 (fr) 2002-09-06
WO2002069271A8 WO2002069271A8 (fr) 2003-02-13

Family

ID=18915553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/001816 WO2002069271A1 (fr) 2001-02-28 2002-02-27 Simulateur dote d'une fonction de generation d'images video et procede de simulation comprenant une etape de generation d'images video

Country Status (6)

Country Link
US (1) US7212198B2 (ja)
EP (1) EP1298594A4 (ja)
JP (1) JP4688316B2 (ja)
KR (1) KR100875297B1 (ja)
CN (1) CN1282133C (ja)
WO (1) WO2002069271A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330447A (ja) * 2002-05-15 2003-11-19 Mitsubishi Electric Corp 画像処理装置
KR100676673B1 (ko) 2004-12-13 2007-02-01 한국전자통신연구원 물리 시뮬레이션 고속화 시스템 및 그 방법
JP4191672B2 (ja) * 2004-12-14 2008-12-03 ザイオソフト株式会社 ボリュームレンダリング等の画像処理システム
US7609280B2 (en) * 2005-09-07 2009-10-27 Microsoft Corporation High level graphics stream
US7808514B2 (en) * 2006-06-21 2010-10-05 Siemens Medical Solutions Usa, Inc. Multiplanar reformatting visualization with multiple scrolling speeds
DE102011081245A1 (de) * 2011-03-31 2012-10-04 Rohde & Schwarz Gmbh & Co. Kg Vorrichtung und Verfahren zum Fixieren eines Verstärkungs- bzw. Dämpfungsfaktors
EP2670130B1 (en) * 2012-06-01 2019-03-27 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal
EP2793127B1 (en) 2013-04-19 2021-11-17 Huawei Technologies Co., Ltd. Method for displaying a 3D scene graph on a screen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63213091A (ja) * 1987-02-28 1988-09-05 Toshiba Corp デプスマツプ作成装置
JPH0296281A (ja) * 1988-10-03 1990-04-09 Toshiba Corp デブスマップ作成装置
JPH11144078A (ja) * 1997-08-01 1999-05-28 Mitsubishi Electric Inf Technol Center America Inc 実時間ボリューム・レンダリング装置
JP2000348202A (ja) * 1999-05-20 2000-12-15 Mitsubishi Electric Inf Technol Center America Inc ボクセルを有するボリューム・データ・セットのずらし−ワープ・レンダリング方法、ボリューム・データ・セットのレンダリング装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2974526B2 (ja) * 1992-12-18 1999-11-10 富士通株式会社 データ転送処理方法及びデータ転送処理装置
WO1994017488A1 (en) * 1993-01-22 1994-08-04 University Corporation For Atmospheric Research Multipipeline multiprocessor system
US5583990A (en) * 1993-12-10 1996-12-10 Cray Research, Inc. System for allocating messages between virtual channels to avoid deadlock and to optimize the amount of message traffic on each type of virtual channel
USRE38410E1 (en) * 1994-01-31 2004-01-27 Axs Technologies, Inc. Method and apparatus for a parallel data storage and processing server
JPH09148937A (ja) * 1995-11-21 1997-06-06 Sony Corp 符号化処理方法、復号化処理方法、符号化処理装置および復号化処理装置
US5892962A (en) * 1996-11-12 1999-04-06 Lucent Technologies Inc. FPGA-based processor
US6028608A (en) * 1997-05-09 2000-02-22 Jenkins; Barry System and method of perception-based image generation and encoding
US6076152A (en) * 1997-12-17 2000-06-13 Src Computers, Inc. Multiprocessor computer architecture incorporating a plurality of memory algorithm processors in the memory subsystem
US6473087B1 (en) * 1999-12-15 2002-10-29 Silicon Magic Corporation Method and system for concurrent processing of slices of a bitstream in a multiprocessor (MP) system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63213091A (ja) * 1987-02-28 1988-09-05 Toshiba Corp デプスマツプ作成装置
JPH0296281A (ja) * 1988-10-03 1990-04-09 Toshiba Corp デブスマップ作成装置
JPH11144078A (ja) * 1997-08-01 1999-05-28 Mitsubishi Electric Inf Technol Center America Inc 実時間ボリューム・レンダリング装置
JP2000348202A (ja) * 1999-05-20 2000-12-15 Mitsubishi Electric Inf Technol Center America Inc ボクセルを有するボリューム・データ・セットのずらし−ワープ・レンダリング方法、ボリューム・データ・セットのレンダリング装置

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
MA KWAN-LIU ET AL.: "A data distributed, parallel algorithm for ray-traced volume rendering", PROCEEDINGS OF THE 1993 SYMPOSIUM ON PARALLEL RENDERING, 1993, NEW YORK: ACM PRESS, pages 15 - 22, XP010222611 *
MURAKI S. ET AL.: "VG cluster: Large scale visual computing system for volumetric simulations", IEEE, 1 October 2000 (2000-10-01), XP002955827, Retrieved from the Internet <URL:http://www.sc2000.org/gems/> [retrieved on 20020319] *
MURAKI SHIGERU ET AL.: "Shinkei systm no daikibo simulation o mezashite", BIT, vol. 33, no. 3, 13 February 2001 (2001-02-13), pages 58 - 60, XP002955824 *
MURAKI SHIGERU ET AL.: "VG cluster: Scalable visual computing system, visual computing graphics to CAD godo symposium 2001 yokoshu", THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAPAN, 21 June 2001 (2001-06-21), pages 85 - 90, XP002955826 *
OGATA NAOTO ET AL.: "Multipleshear jujoho o mochiita heiretsu volume rendering", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 55, no. 7, 20 July 2001 (2001-07-20), pages 1011 - 1018, XP002955825 *
RAY HARVEY ET AL.: "The RACE II engine for real-time volume rendering", PROCEEDINGS 2000 SIGGLAPH/EUROGRAPHICS WORKSHOP ON GRAPHICS HARDWARE, 2000, NEW YORK: ACM PRESS, pages 129 - 135, XP002950190 *
SHIMOKAWA KAZURO ET AL.: "Shinkei kohun denpan no jikan kukanteki simulation to kashika ni kansuru ichikosatsu", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 99, no. 383, 22 October 1999 (1999-10-22), pages 31 - 35, XP002955823 *

Also Published As

Publication number Publication date
CN1282133C (zh) 2006-10-25
JP2002259886A (ja) 2002-09-13
WO2002069271A8 (fr) 2003-02-13
EP1298594A1 (en) 2003-04-02
KR100875297B1 (ko) 2008-12-23
CN1457473A (zh) 2003-11-19
KR20030022110A (ko) 2003-03-15
JP4688316B2 (ja) 2011-05-25
EP1298594A4 (en) 2007-09-26
US20030117394A1 (en) 2003-06-26
US7212198B2 (en) 2007-05-01

Similar Documents

Publication Publication Date Title
US20200364388A1 (en) Machine learning three-dimensional fluid flows for interactive aerodynamic design
JP5168580B2 (ja) 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
Jeřábková et al. Volumetric modeling and interactive cutting of deformable bodies
US8149237B2 (en) Information processing apparatus and program
CN106683189A (zh) 一种在三维场景中渲染文字的方法
CN104157011A (zh) 一种三维地形建模方法
WO2002069271A1 (fr) Simulateur dote d&#39;une fonction de generation d&#39;images video et procede de simulation comprenant une etape de generation d&#39;images video
JP2001524232A (ja) 写実的地形シミュレーションのためのシステム及び方法
CN114655382B (zh) 一种船舶结构动力学分析结果的虚拟可视化系统及方法
CN117036569A (zh) 三维模型颜色生成网络训练方法、颜色生成方法及装置
Shardakov et al. Development of an adaptive module for visualization of the surrounding space for cloud educational environment
EP4287134A1 (en) Method and system for generating polygon meshes approximating surfaces using root-finding and iteration for mesh vertex positions
JP2005234787A (ja) Cgを用いた可視化手法
JP2002259886A5 (ja)
JP3679347B2 (ja) 柄替えシミュレーションシステム
US7782322B2 (en) Plane shape creation system, plane shape creation method and program recording medium
Chen et al. Industrial Operation Training Technology Based on Panoramic Image and Augmented Reality
US20240054728A1 (en) Mesh Model Transformation
JP3734744B2 (ja) 3次元情報合成装置、3次元情報表示装置及び3次元情報合成方法
KR20070061030A (ko) 영역분할을 이용한 대규모 개체의 시뮬레이션 및 렌더링방법
Popescu et al. Fidelity in visualizing large-scale simulations
CN117831369A (zh) 碰撞检测方法及电子设备
CN117475071A (zh) 标记对象的渲染方法、装置、终端设备及存储介质
KR0166253B1 (ko) 원근지형의 영상 생성 방법
JPH07320088A (ja) 画像生成装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB IT

WWE Wipo information: entry into national phase

Ref document number: 028004035

Country of ref document: CN

Ref document number: 10258457

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2002701608

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020027014429

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: C1

Designated state(s): CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: C1

Designated state(s): DE FR GB IT

WR Later publication of a revised version of an international search report
WWP Wipo information: published in national office

Ref document number: 1020027014429

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2002701608

Country of ref document: EP