JP2022136548A - Image processing system and method thereof and program - Google Patents
Image processing system and method thereof and program Download PDFInfo
- Publication number
- JP2022136548A JP2022136548A JP2021036215A JP2021036215A JP2022136548A JP 2022136548 A JP2022136548 A JP 2022136548A JP 2021036215 A JP2021036215 A JP 2021036215A JP 2021036215 A JP2021036215 A JP 2021036215A JP 2022136548 A JP2022136548 A JP 2022136548A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- polygon
- image processing
- attribute
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 28
- 230000005540 biological transmission Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000002834 transmittance Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 abstract description 24
- 238000010586 diagram Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、仮想物体を表示する技術に関するものである。 The present invention relates to technology for displaying virtual objects.
近年、様々な用途で、3次元コンピュータグラフィックス(CG)技術を利用した画像表示が行われている。3次元CG技術は、より現実物に近い表現が求められるとともに、CG画像を高速に表示することが求められる。現実物の見た目に近づけるためには、光や材質、反射や前後関係などの情報を忠実にすべて計算する必要がある。しかし、現実物の見た目に近づける処理と、レンダリングの速さは多くの場合トレードオフの関係にあるため、その処理を一部省略するなど、これまでに多くの工夫がなされてきている。 2. Description of the Related Art In recent years, image display using three-dimensional computer graphics (CG) technology has been performed for various purposes. Three-dimensional CG technology is required to display CG images at high speed, as well as to provide expressions closer to reality. In order to approximate the appearance of the real thing, it is necessary to faithfully calculate all information such as light, materials, reflections and context. However, in many cases, there is a trade-off between the process of approximating the appearance of the real object and the speed of rendering.
また、ガラスのような光を透過する固体(以下、「透過物体」)をCG技術で描画する方法が幾つか存在する。透過物体の描画方法は、例えば、シーン全体をレンダリングし、半透明が重なっている場合は、最奥値から順にレンダリングしていく方法がある。このように、現実に忠実なレンダリングは、一方で計算資源を必要とする。特許文献1ではこのデプスピーリングと呼ばれる方法について、より計算資源を必要としない方法が提案されているが、未だに高性能GPUが必要なのが現状である。 In addition, there are several methods of drawing a solid body such as glass that transmits light (hereinafter referred to as "transmissive object") using CG technology. As a method of drawing a transparent object, for example, there is a method of rendering the entire scene, and when semi-transparent objects overlap, the method of rendering sequentially from the innermost value. Thus, realistic rendering requires computational resources on the one hand. Patent Document 1 proposes a method called depth peeling that requires less computational resources, but the current situation is that a high-performance GPU is still required.
計算資源を比較的必要としない透過物体のレンダリング方法として、透過物体の物体単位で前後関係を判別して、透明による描画色の混合を計算する方法がある。この場合、単一の物体内における面の前後関係の計算は省略されるため、円柱や球体など、単一の物体において複数の面が重なって視認できる場合、レンダリング時に面の前後関係が実物とは異なる順番で描画される場合がある。 As a rendering method for transparent objects that does not require a relatively large amount of computational resources, there is a method in which the context of transparent objects is determined on an object-by-object basis and the mixture of drawing colors due to transparency is calculated. In this case, the calculation of the front-back relationship of the surfaces within a single object is omitted. Therefore, if multiple surfaces can be viewed overlapping in a single object such as a cylinder or sphere, the front-back relationship of the surfaces will not be the same as the real object at the time of rendering. may be rendered in a different order.
上述した透明による描画色の混合を計算する方法では、単一の物体において、前後関係が考慮されず、見た目に違和感が生じることがある。この場合には、透明物体に対し、裏面の描画を省略する背面カリングを実施することで、予期せぬ模様による見た目の違和感を低減することが期待される。 In the above-described method of calculating the mixture of rendering colors due to transparency, the context of a single object is not taken into account, and the appearance of the object may appear strange. In this case, by performing back surface culling for omitting the drawing of the back surface of the transparent object, it is expected that the unnatural appearance due to an unexpected pattern can be reduced.
しかしながら、描画するすべての物体を背面カリングした場合、処理の高速化に寄与する反面、見た目として破綻してしまうケースがある。例えば、立方体CGの内部に仮想視点があった場合、立方体の外部に仮想視点を向けると、立方体の内部からは、立方体の面はすべて裏面となるため、レンダリングされない。このように、全面にカリングを無条件で実施することで、思わぬ副作用が生じる場合がある。 However, if all the objects to be drawn are subjected to back culling, although it contributes to speeding up the processing, there are cases where the appearance is broken. For example, when the virtual viewpoint is inside the cube CG, if the virtual viewpoint is directed to the outside of the cube, all the faces of the cube become the back faces from the inside of the cube, so rendering is not performed. By unconditionally performing culling on the entire surface in this way, an unexpected side effect may occur.
上記課題を解決するため、本発明の1態様によれば、画像処理装置に、仮想物体の透過属性を判定する属性判定手段と、前記仮想物体を観察する仮想視点を設定する設定手段と、前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定する関係判定手段と、前記複数のポリゴンの各ポリゴンについて、前記仮想物体の透過属性と、前記仮想視点と当該ポリゴンとの位置関係とに基づいて、当該ポリゴンの面を描画対象とするかを判断する判断手段と、前記判断手段により描画対象とすると判断されたポリゴンの面を描画する描画手段とを備える。 In order to solve the above problems, according to one aspect of the present invention, an image processing apparatus includes attribute determination means for determining a transmission attribute of a virtual object, setting means for setting a virtual viewpoint for observing the virtual object, and relationship determination means for determining a positional relationship between each of a plurality of polygons representing a virtual object and the virtual viewpoint; and, for each polygon of the plurality of polygons, a transparency attribute of the virtual object and a relationship between the virtual viewpoint and the polygon. and a drawing means for drawing the face of the polygon determined by the determining means to be drawn.
本発明によれば、透過物体である仮想物体の描画において、見た目の違和感を低減しつつ高速な描画を実現する。 According to the present invention, in drawing a virtual object that is a transmissive object, high-speed drawing can be realized while reducing the sense of incongruity in appearance.
以下、図面を参照しながら本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態に記載する構成は代表例であり、本発明の範囲は、それらの具体的構成に限定されるものではない。 Preferred embodiments of the present invention will be described in detail below with reference to the drawings. The configurations described in the following embodiments are representative examples, and the scope of the present invention is not limited to those specific configurations.
(実施形態1)
本実施形態では、透過物体のCGモデルを描画する際に、背面カリングを適用することで、軽処理かつ適切なCG描画を図る。
(Embodiment 1)
In the present embodiment, when rendering a CG model of a transmissive object, by applying back face culling, light processing and appropriate CG rendering are achieved.
図1に、透過物体の描画で、実物の見た目と異なる場合の例を示す。図1は、カリングを実施して描画した透過物体のCGモデル101と、カリングを実施せずに描画した透過物体のCGモデル102である。CGモデル102では、実際には裏面にあたる円柱底面に、上面と同じ見た目のレンダリングがされており、実際の見た目とは異なる。モデル101は、透過物体に対して背面カリングを実施することで、見た目の違和感を低減できることを示している。
FIG. 1 shows an example of rendering a transmissive object that is different from the appearance of the real thing. FIG. 1 shows a
図2は上記を実現する画像処理装置の機能構成例を示すブロック図である。装置201は第1の実施形態を実現する画像処理装置である。
FIG. 2 is a block diagram showing a functional configuration example of an image processing apparatus that implements the above. A
モデルデータ取得部203はCGモデルデータベース202からモデルデータを取得する。透過モデル判断部204では、取得したモデルデータの透過属性について属性判定をし、透過物体(半透明)かどうかをチェックする。本実施形態では、透過物体のモデルデータのレンダリングは、仮想視点に対して裏面を向いている位置関係となるポリゴンをレンダリングしない背面カリングを実施する。
A model
ポリゴン面方向算出部205では、背面カリングを実施するために、ポリゴン面の表面方向を取得する。ポリゴン面の表面方向の算出手順は、例えば、ポリゴン頂点の並びによって判断する。頂点の並び順の回転方向をとり、「時計回り」であれば「表面」、「反時計回り」であれば「裏面」というような設定を実施する。ポリゴン表面の法線方向は頂点の順番に従った2つのベクトルの外積計算によって算出できる。
The polygon surface
視点設定部207は、モデルデータを観察する仮想視点の位置、姿勢、方向を設定する。この視点の設定は、ユーザがUIで指定した数値を取得してもよいし、画像処理装置201に接続したカメラやHMD(ヘッドマウントディスプレイ)などの外部デバイスから取得してもよい。視線方向取得部208は、仮想視点の視線方向を取得する。
A
描画判断部206は、ポリゴン面方向算出部205から取得したポリゴンの面の方向と、視線方向取得部208から取得した視線方向とをもとに、ポリゴンの面の法線方向と視線方向との関係判定を行って、CG描画方式の判断をする。描画処理部209は、画像判断部206の判断結果をもとに、CG描画処理を実行する。表示部210は、描画処理部209で描画されたモデルでデータを外部デバイスに表示する。
Based on the direction of the polygon surface acquired from the polygon surface
次に、画像処理装置201のハードウェア構成について説明する。図6は、本実施形態における画像処理装置201のハードウェア構成を示すブロック図である。同図において、CPU6200は、バスを介して接続する各デバイスを統括的に制御する。またCPU6200は、読み出し専用メモリ(ROM)6300に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM6300に記憶されており、ランダムアクセスメモリ(RAM)6400に一時記憶され、CPU6200によって適宜実行される。
Next, the hardware configuration of the
また、入力I/F6500は、外部の装置(撮像装置)などから画像処理装置201で処理可能な形式で入力信号として入力する。また、出力I/F6600は、外部の装置(表示装置)などへ処理可能な形式で出力信号として出力する。
Also, the input I/
次に上記装置によって実現される本実施形態の処理手順について説明する。図3、図4は本実施形態のレンダリング処理の手順を説明したフローチャートである。図3は、モデルデータ読込時にモデルデータ取得部203と透過モデル判断部204で行われる処理であり、取得したモデルデータに対し、透過モデルかどうかを判断する。
Next, a processing procedure of this embodiment realized by the above apparatus will be described. 3 and 4 are flowcharts for explaining the procedure of rendering processing according to this embodiment. FIG. 3 shows processing performed by the model
ステップS3100では、モデルデータ取得部203において、CGモデルデータベース202からモデルデータを取得する。ステップS3200では、透過モデル判断部204において、取得したモデルが透過物体のCGモデルかどうかを判断する。透過物体のCGモデルであるかは、例えば取得したモデルが半透明マテリアル情報を持つかで判断する。取得したモデルデータが半透明マテリアル情報を持つ場合、ステップS3300に移行する。ステップS3300では、透過モデル判断部204においてモデルデータの背面カリングフラグをONにし、CGレンダリング処理へと移行する。前記フラグの処理を前記透過モデル判断部204で判断するかどうかをユーザが設定できてもよい。
In step S3100, the model
図4では、前記透過モデル判断部204で設定された背面カリングフラグと、仮想視点方向とをもとに、モデルデータをレンダリングする。この処理について説明する。
In FIG. 4, model data is rendered based on the back face culling flag set by the transparent
ステップS4100では、視点方向取得部208において、仮想視点の方向を取得する。仮想視点の方向は、例えば、世界座標系における仮想視点の位置姿勢を原点とした仮想視点座標系方向から算出する。ステップS4200では、モデルデータの背面カリングフラグがONかをチェックする。背面カリングフラグがONの場合、ステップS4300に移行し、ON以外の場合はステップS4700に移行する。ステップS4300では、ポリゴン面方向算出部205において、ポリゴン表面方向を算出する。ポリゴン表面の法線方向は頂点の順番に従った2つのベクトルの外積計算によって算出する。
In step S4100, the viewpoint
ステップS4400では、描画判断部206において、前記視点方向取得部208おいて取得した仮想視点方向と、前記ポリゴン表面方向の内積を算出する。前記内積が0より大きい場合はステップS4500に移行し、それ以外の場合はステップS4600に移行する。ステップS4500では、描画判断部206において、ポリゴンが仮想視点に対し裏面を向いていると判断し、描画対象から除外、ステップS4700に移行する。
In step S4400, the
ステップS4600では、前記透過モデル判断部204において、不透明と判断されたモデル、もしくは前記描画判断部206において、裏面方向を向いたポリゴンではないと判断されたポリゴンを描画対象とする。ステップS4700では、全ポリゴンにおいて描画対象か否かが判断されたかどうかチェックする。未処理のポリゴンがある場合はステップS4200へ移行し、全ポリゴンに対して処理が終わっている場合、ステップS4800に移行する。
In step S4600, a model determined to be opaque by the transparent
以上により、透過物体のCGレンダリングにおいて、見た目の違和感を低減しつつ高速なレンダリングを実現することができる。 As described above, in CG rendering of transparent objects, it is possible to realize high-speed rendering while reducing the sense of incongruity in appearance.
(変形例1)
第1の実施形態では、仮想物体が半透明であるかをモデルデータの設定が透過物体か否かで判断したが、他の判断方法でもよい。例えば、仮想物体の透過率を閾値処理して半透明であるかを判断する方法が考えられる。
(Modification 1)
In the first embodiment, whether or not the virtual object is translucent is determined based on whether or not the model data is set as a transmissive object, but other determination methods may be used. For example, a method of thresholding the transmissivity of a virtual object to determine whether it is translucent can be considered.
図5は、変形例の処理手順を示すフローチャートである。S3200までは第1の実施形態と同じであるため説明は省略する。ステップS5100では、透過モデルと判断されたモデルの透過率を取得する。透過率があらかじめ設定した閾値より大きい場合はS3300に移行する。 FIG. 5 is a flow chart showing the processing procedure of the modification. Since the steps up to S3200 are the same as those in the first embodiment, description thereof is omitted. In step S5100, the transmittance of the model determined to be a transparent model is obtained. If the transmittance is greater than the preset threshold, the process proceeds to S3300.
(他の実施形態)
第1の実施形態では、半透明であるかによって裏面を描画しないか(背面カリングフラグをオンにするか)を判断したが、さらに別の判断条件を加えてもよい。例えば、仮想物体の可視領域(表示領域)に占める割合としてもよい。割合判定により割合が小さい(閾値未満である)とされた場合、見た目の影響が少ないので、背面カリングフラグをオフにする(全てのポリゴンの面を描画する)ようにしてもよい。この割合については、仮想物体の画素数を用いて判断してもよい。また、仮想物体の形状を判断し、複雑な形状の物体については、背面カリングフラグをオフにするようにしてもよい。この形状判定においては、体積に対して表面積が大きい場合に、複雑な形状と判断してもよい。
(Other embodiments)
In the first embodiment, it is determined whether or not to draw the back surface (whether to turn on the back surface culling flag) depending on whether or not the back surface is translucent, but another determination condition may be added. For example, it may be the ratio of the virtual object to the visible area (display area). If the ratio is determined to be small (less than the threshold value) by the ratio determination, the effect on appearance is small, so the back face culling flag may be turned off (all polygon faces are drawn). This ratio may be determined using the number of pixels of the virtual object. Alternatively, the shape of the virtual object may be determined, and the back face culling flag may be turned off for an object with a complicated shape. In this shape determination, when the surface area is large with respect to the volume, it may be determined that the shape is complicated.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
201 画像処理装置
202 CGモデルデータベース
203 モデルデータ取得部
204 透過モデル判断部
205 ポリゴン面方向算出部
206 描画判断部
207 視点設定部
208 視線方向取得部
209 描画処理部
210 表示部
201
Claims (16)
前記仮想物体を観察する仮想視点を設定する設定手段と、
前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定する関係判定手段と、
前記複数のポリゴンの各ポリゴンについて、前記仮想物体の透過属性と、前記仮想視点と当該ポリゴンとの位置関係とに基づいて、当該ポリゴンの面を描画するかを判断する判断手段と、
前記判断手段により描画すると判断されたポリゴンの面を描画する描画手段とを有することを特徴とする画像処理装置。 attribute determining means for determining a transmission attribute of a virtual object;
setting means for setting a virtual viewpoint for observing the virtual object;
relationship determining means for determining a positional relationship between each of a plurality of polygons representing the virtual object and the virtual viewpoint;
determining means for determining, for each polygon of the plurality of polygons, whether to draw the surface of the polygon based on the transparency attribute of the virtual object and the positional relationship between the virtual viewpoint and the polygon;
and drawing means for drawing the face of the polygon determined to be drawn by the determining means.
前記属性判定手段は、当該設定された属性に基づいて当該仮想物体の透過属性を判定することを特徴とする請求項1に記載の画像処理装置。 An attribute indicating whether or not the virtual object is translucent is set in the virtual object,
2. The image processing apparatus according to claim 1, wherein said attribute determination means determines a transparency attribute of said virtual object based on said set attribute.
前記属性判定手段は、当該透過率を閾値と比較することで当該仮想物体の透過属性を判定することを特徴とする請求項1に記載の画像処理装置。 Transmittance is set for the virtual object,
2. The image processing apparatus according to claim 1, wherein said attribute determining means determines the transparency attribute of said virtual object by comparing said transmittance with a threshold value.
前記判断手段は、前記割合が閾値未満と判定された場合は、当該仮想物体の全てのポリゴンの面を描画すると判断することを特徴とする請求項1に記載の画像処理装置。 further comprising ratio determination means for determining the ratio of the virtual object to the display area;
2. The image processing apparatus according to claim 1, wherein, when said ratio is determined to be less than a threshold, said determination means determines to render all polygon surfaces of said virtual object.
前記判断手段は、前記仮想物体が複雑な形状と判定された場合に、当該仮想物体の全てのポリゴンの面を描画すると判断することを特徴とする請求項1に記載の画像処理装置。 further comprising shape determining means for determining the shape of the virtual object;
2. The image processing apparatus according to claim 1, wherein, when the virtual object is determined to have a complicated shape, the determination means determines to draw all polygon surfaces of the virtual object.
前記仮想物体を観察する仮想視点を設定する設定工程と、
前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定する関係判定工程と、
前記複数のポリゴンの各ポリゴンについて、前記仮想物体の透過属性と、前記仮想視点と当該ポリゴンとの位置関係とに基づいて、当該ポリゴンの面を描画対象とするかを判断する判断工程と、
前記判断工程において描画対象とすると判断されたポリゴンの面を描画する描画工程とを有することを特徴とする画像処理方法。 an attribute determination step of determining a transmission attribute of the virtual object;
a setting step of setting a virtual viewpoint for observing the virtual object;
a relationship determination step of determining a positional relationship between each of a plurality of polygons representing the virtual object and the virtual viewpoint;
a determination step of determining, for each polygon of the plurality of polygons, whether the surface of the polygon is to be drawn, based on the transparency attribute of the virtual object and the positional relationship between the virtual viewpoint and the polygon;
and a drawing step of drawing the face of the polygon determined to be drawn in the determining step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021036215A JP2022136548A (en) | 2021-03-08 | 2021-03-08 | Image processing system and method thereof and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021036215A JP2022136548A (en) | 2021-03-08 | 2021-03-08 | Image processing system and method thereof and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022136548A true JP2022136548A (en) | 2022-09-21 |
Family
ID=83311996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021036215A Pending JP2022136548A (en) | 2021-03-08 | 2021-03-08 | Image processing system and method thereof and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022136548A (en) |
-
2021
- 2021-03-08 JP JP2021036215A patent/JP2022136548A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7055815B2 (en) | A mixed reality system that involves warping virtual content and how to use it to generate virtual content | |
KR102701851B1 (en) | Apparatus and method for determining LOD(level Of detail) for texturing cube map | |
CN114897754B (en) | Generating new frames using rendered content and non-rendered content from previous perspectives | |
CN109985384B (en) | Method and device for dynamically adjusting map | |
US9766458B2 (en) | Image generating system, image generating method, and information storage medium | |
CN109696953B (en) | Virtual reality character display method and device and virtual reality equipment | |
US12100106B2 (en) | Stereoscopic rendering of virtual 3D objects | |
KR101919077B1 (en) | Method and apparatus for displaying augmented reality | |
US20200258312A1 (en) | Image processing method and device | |
CN106204703A (en) | Three-dimensional scene models rendering intent and device | |
US8400445B2 (en) | Image processing program and image processing apparatus | |
US6559844B1 (en) | Method and apparatus for generating multiple views using a graphics engine | |
JP2000149062A (en) | Method and device for generating three-dimensional image | |
JP2022136548A (en) | Image processing system and method thereof and program | |
KR101227155B1 (en) | Graphic image processing apparatus and method for realtime transforming low resolution image into high resolution image | |
CN111862338B (en) | Display method and device for simulated eyeglass wearing image | |
KR101227183B1 (en) | Apparatus and method for stereoscopic rendering 3-dimension graphic model | |
US12039660B1 (en) | Rendering three-dimensional content based on a viewport | |
US12039645B1 (en) | Edge contribution techniques for vector graphics rendering | |
US20220270312A1 (en) | Perspective correct vector graphics rendering techniques | |
TWI812548B (en) | Method and computer device for generating a side-by-side 3d image | |
US11915349B1 (en) | Extrusion technique for curve rendering | |
CN118115693A (en) | Method and computer device for generating side-by-side three-dimensional images | |
CN116012511A (en) | Texture display method and device and electronic terminal | |
JP4313892B2 (en) | Drawing apparatus, drawing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240229 |