JP2022136548A - Image processing system and method thereof and program - Google Patents

Image processing system and method thereof and program Download PDF

Info

Publication number
JP2022136548A
JP2022136548A JP2021036215A JP2021036215A JP2022136548A JP 2022136548 A JP2022136548 A JP 2022136548A JP 2021036215 A JP2021036215 A JP 2021036215A JP 2021036215 A JP2021036215 A JP 2021036215A JP 2022136548 A JP2022136548 A JP 2022136548A
Authority
JP
Japan
Prior art keywords
virtual object
polygon
image processing
attribute
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021036215A
Other languages
Japanese (ja)
Inventor
貴紀 勝俣
Takanori Katsumata
直仁 中村
Naohito Nakamura
貴文 渡辺
Takafumi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021036215A priority Critical patent/JP2022136548A/en
Publication of JP2022136548A publication Critical patent/JP2022136548A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

To render a virtual object that is a permeation object at a high speed while reducing discomfort in its appearance.SOLUTION: An image processing system comprises attribute determination means for determining the permeation attribute of a virtual object, setting means for setting a virtual viewpoint to observe the virtual object, relations determination means for determining the physical relationship among each of a plurality of polygons representing the virtual object and the virtual viewpoint, determination means for determining if a surface of the polygon is to be rendered for each polygon of the plurality of polygons based on the physical relationship among the permeation attribute of the virtual object, the virtual viewpoint, and the polygon, and rendering means for rendering the surface of the polygon that is determined to be rendered by the determination means.SELECTED DRAWING: Figure 2

Description

本発明は、仮想物体を表示する技術に関するものである。 The present invention relates to technology for displaying virtual objects.

近年、様々な用途で、3次元コンピュータグラフィックス(CG)技術を利用した画像表示が行われている。3次元CG技術は、より現実物に近い表現が求められるとともに、CG画像を高速に表示することが求められる。現実物の見た目に近づけるためには、光や材質、反射や前後関係などの情報を忠実にすべて計算する必要がある。しかし、現実物の見た目に近づける処理と、レンダリングの速さは多くの場合トレードオフの関係にあるため、その処理を一部省略するなど、これまでに多くの工夫がなされてきている。 2. Description of the Related Art In recent years, image display using three-dimensional computer graphics (CG) technology has been performed for various purposes. Three-dimensional CG technology is required to display CG images at high speed, as well as to provide expressions closer to reality. In order to approximate the appearance of the real thing, it is necessary to faithfully calculate all information such as light, materials, reflections and context. However, in many cases, there is a trade-off between the process of approximating the appearance of the real object and the speed of rendering.

また、ガラスのような光を透過する固体(以下、「透過物体」)をCG技術で描画する方法が幾つか存在する。透過物体の描画方法は、例えば、シーン全体をレンダリングし、半透明が重なっている場合は、最奥値から順にレンダリングしていく方法がある。このように、現実に忠実なレンダリングは、一方で計算資源を必要とする。特許文献1ではこのデプスピーリングと呼ばれる方法について、より計算資源を必要としない方法が提案されているが、未だに高性能GPUが必要なのが現状である。 In addition, there are several methods of drawing a solid body such as glass that transmits light (hereinafter referred to as "transmissive object") using CG technology. As a method of drawing a transparent object, for example, there is a method of rendering the entire scene, and when semi-transparent objects overlap, the method of rendering sequentially from the innermost value. Thus, realistic rendering requires computational resources on the one hand. Patent Document 1 proposes a method called depth peeling that requires less computational resources, but the current situation is that a high-performance GPU is still required.

計算資源を比較的必要としない透過物体のレンダリング方法として、透過物体の物体単位で前後関係を判別して、透明による描画色の混合を計算する方法がある。この場合、単一の物体内における面の前後関係の計算は省略されるため、円柱や球体など、単一の物体において複数の面が重なって視認できる場合、レンダリング時に面の前後関係が実物とは異なる順番で描画される場合がある。 As a rendering method for transparent objects that does not require a relatively large amount of computational resources, there is a method in which the context of transparent objects is determined on an object-by-object basis and the mixture of drawing colors due to transparency is calculated. In this case, the calculation of the front-back relationship of the surfaces within a single object is omitted. Therefore, if multiple surfaces can be viewed overlapping in a single object such as a cylinder or sphere, the front-back relationship of the surfaces will not be the same as the real object at the time of rendering. may be rendered in a different order.

米国特許8217934号公報U.S. Pat. No. 8,217,934

上述した透明による描画色の混合を計算する方法では、単一の物体において、前後関係が考慮されず、見た目に違和感が生じることがある。この場合には、透明物体に対し、裏面の描画を省略する背面カリングを実施することで、予期せぬ模様による見た目の違和感を低減することが期待される。 In the above-described method of calculating the mixture of rendering colors due to transparency, the context of a single object is not taken into account, and the appearance of the object may appear strange. In this case, by performing back surface culling for omitting the drawing of the back surface of the transparent object, it is expected that the unnatural appearance due to an unexpected pattern can be reduced.

しかしながら、描画するすべての物体を背面カリングした場合、処理の高速化に寄与する反面、見た目として破綻してしまうケースがある。例えば、立方体CGの内部に仮想視点があった場合、立方体の外部に仮想視点を向けると、立方体の内部からは、立方体の面はすべて裏面となるため、レンダリングされない。このように、全面にカリングを無条件で実施することで、思わぬ副作用が生じる場合がある。 However, if all the objects to be drawn are subjected to back culling, although it contributes to speeding up the processing, there are cases where the appearance is broken. For example, when the virtual viewpoint is inside the cube CG, if the virtual viewpoint is directed to the outside of the cube, all the faces of the cube become the back faces from the inside of the cube, so rendering is not performed. By unconditionally performing culling on the entire surface in this way, an unexpected side effect may occur.

上記課題を解決するため、本発明の1態様によれば、画像処理装置に、仮想物体の透過属性を判定する属性判定手段と、前記仮想物体を観察する仮想視点を設定する設定手段と、前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定する関係判定手段と、前記複数のポリゴンの各ポリゴンについて、前記仮想物体の透過属性と、前記仮想視点と当該ポリゴンとの位置関係とに基づいて、当該ポリゴンの面を描画対象とするかを判断する判断手段と、前記判断手段により描画対象とすると判断されたポリゴンの面を描画する描画手段とを備える。 In order to solve the above problems, according to one aspect of the present invention, an image processing apparatus includes attribute determination means for determining a transmission attribute of a virtual object, setting means for setting a virtual viewpoint for observing the virtual object, and relationship determination means for determining a positional relationship between each of a plurality of polygons representing a virtual object and the virtual viewpoint; and, for each polygon of the plurality of polygons, a transparency attribute of the virtual object and a relationship between the virtual viewpoint and the polygon. and a drawing means for drawing the face of the polygon determined by the determining means to be drawn.

本発明によれば、透過物体である仮想物体の描画において、見た目の違和感を低減しつつ高速な描画を実現する。 According to the present invention, in drawing a virtual object that is a transmissive object, high-speed drawing can be realized while reducing the sense of incongruity in appearance.

カリングを実施しない場合と実施した場合の、半透明物体における見え方の模式図である。FIG. 10 is a schematic diagram of how a translucent object looks when culling is not performed and when culling is performed; 第1の実施形態における画像処理装置の機能構成例を示すブロック図である。2 is a block diagram showing a functional configuration example of an image processing apparatus according to the first embodiment; FIG. 第1の実施形態における処理手順の例を表すフローチャートである。4 is a flow chart showing an example of a processing procedure in the first embodiment; 第1の実施形態における処理手順の例を表すフローチャートである。4 is a flow chart showing an example of a processing procedure in the first embodiment; 変形例における処理手順の例を表すフローチャートである。It is a flow chart showing an example of a processing procedure in a modification. 画像処理装置のハードウェア構成の例を示すブロック図である。2 is a block diagram showing an example of the hardware configuration of an image processing device; FIG.

以下、図面を参照しながら本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態に記載する構成は代表例であり、本発明の範囲は、それらの具体的構成に限定されるものではない。 Preferred embodiments of the present invention will be described in detail below with reference to the drawings. The configurations described in the following embodiments are representative examples, and the scope of the present invention is not limited to those specific configurations.

(実施形態1)
本実施形態では、透過物体のCGモデルを描画する際に、背面カリングを適用することで、軽処理かつ適切なCG描画を図る。
(Embodiment 1)
In the present embodiment, when rendering a CG model of a transmissive object, by applying back face culling, light processing and appropriate CG rendering are achieved.

図1に、透過物体の描画で、実物の見た目と異なる場合の例を示す。図1は、カリングを実施して描画した透過物体のCGモデル101と、カリングを実施せずに描画した透過物体のCGモデル102である。CGモデル102では、実際には裏面にあたる円柱底面に、上面と同じ見た目のレンダリングがされており、実際の見た目とは異なる。モデル101は、透過物体に対して背面カリングを実施することで、見た目の違和感を低減できることを示している。 FIG. 1 shows an example of rendering a transmissive object that is different from the appearance of the real thing. FIG. 1 shows a CG model 101 of a transparent object drawn with culling and a CG model 102 of a transparent object drawn without culling. In the CG model 102, the bottom surface of the cylinder, which is actually the back surface, is rendered to look the same as the top surface, which is different from the actual appearance. The model 101 shows that by performing back face culling on a transmissive object, it is possible to reduce a sense of incongruity in appearance.

図2は上記を実現する画像処理装置の機能構成例を示すブロック図である。装置201は第1の実施形態を実現する画像処理装置である。 FIG. 2 is a block diagram showing a functional configuration example of an image processing apparatus that implements the above. A device 201 is an image processing device that implements the first embodiment.

モデルデータ取得部203はCGモデルデータベース202からモデルデータを取得する。透過モデル判断部204では、取得したモデルデータの透過属性について属性判定をし、透過物体(半透明)かどうかをチェックする。本実施形態では、透過物体のモデルデータのレンダリングは、仮想視点に対して裏面を向いている位置関係となるポリゴンをレンダリングしない背面カリングを実施する。 A model data acquisition unit 203 acquires model data from the CG model database 202 . A transparent model judgment unit 204 judges the transparent attribute of the acquired model data to check whether it is a transparent object (translucent). In the present embodiment, rendering of the model data of the transmissive object implements back face culling in which polygons that have a positional relationship facing the back face with respect to the virtual viewpoint are not rendered.

ポリゴン面方向算出部205では、背面カリングを実施するために、ポリゴン面の表面方向を取得する。ポリゴン面の表面方向の算出手順は、例えば、ポリゴン頂点の並びによって判断する。頂点の並び順の回転方向をとり、「時計回り」であれば「表面」、「反時計回り」であれば「裏面」というような設定を実施する。ポリゴン表面の法線方向は頂点の順番に従った2つのベクトルの外積計算によって算出できる。 The polygon surface direction calculation unit 205 acquires the surface direction of the polygon surface in order to perform back surface culling. The procedure for calculating the surface direction of the polygon face is determined, for example, by the arrangement of polygon vertices. The rotation direction of the order of the vertices is taken, and if it is "clockwise", it is set to "front", and if it is "counterclockwise", it is set to "back". The normal direction of the polygon surface can be calculated by calculating the outer product of two vectors according to the order of the vertices.

視点設定部207は、モデルデータを観察する仮想視点の位置、姿勢、方向を設定する。この視点の設定は、ユーザがUIで指定した数値を取得してもよいし、画像処理装置201に接続したカメラやHMD(ヘッドマウントディスプレイ)などの外部デバイスから取得してもよい。視線方向取得部208は、仮想視点の視線方向を取得する。 A viewpoint setting unit 207 sets the position, posture, and direction of a virtual viewpoint for observing model data. This viewpoint setting may be obtained from a numerical value designated by the user on the UI, or from an external device such as a camera or HMD (head mounted display) connected to the image processing apparatus 201 . The line-of-sight direction acquisition unit 208 acquires the line-of-sight direction of the virtual viewpoint.

描画判断部206は、ポリゴン面方向算出部205から取得したポリゴンの面の方向と、視線方向取得部208から取得した視線方向とをもとに、ポリゴンの面の法線方向と視線方向との関係判定を行って、CG描画方式の判断をする。描画処理部209は、画像判断部206の判断結果をもとに、CG描画処理を実行する。表示部210は、描画処理部209で描画されたモデルでデータを外部デバイスに表示する。 Based on the direction of the polygon surface acquired from the polygon surface direction calculation unit 205 and the line-of-sight direction acquired from the line-of-sight direction acquisition unit 208, the drawing determination unit 206 determines the normal direction of the polygon surface and the line-of-sight direction. A relation determination is performed to determine the CG drawing method. A drawing processing unit 209 executes CG drawing processing based on the determination result of the image determination unit 206 . The display unit 210 displays the data of the model drawn by the drawing processing unit 209 on the external device.

次に、画像処理装置201のハードウェア構成について説明する。図6は、本実施形態における画像処理装置201のハードウェア構成を示すブロック図である。同図において、CPU6200は、バスを介して接続する各デバイスを統括的に制御する。またCPU6200は、読み出し専用メモリ(ROM)6300に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM6300に記憶されており、ランダムアクセスメモリ(RAM)6400に一時記憶され、CPU6200によって適宜実行される。 Next, the hardware configuration of the image processing apparatus 201 will be described. FIG. 6 is a block diagram showing the hardware configuration of the image processing apparatus 201 according to this embodiment. In the figure, a CPU 6200 centrally controls each device connected via a bus. The CPU 6200 also reads and executes processing steps and programs stored in a read-only memory (ROM) 6300 . An operating system (OS), processing programs, device drivers, and the like according to this embodiment are stored in a ROM 6300, temporarily stored in a random access memory (RAM) 6400, and executed by a CPU 6200 as appropriate.

また、入力I/F6500は、外部の装置(撮像装置)などから画像処理装置201で処理可能な形式で入力信号として入力する。また、出力I/F6600は、外部の装置(表示装置)などへ処理可能な形式で出力信号として出力する。 Also, the input I/F 6500 receives an input signal from an external device (imaging device) or the like in a format that can be processed by the image processing device 201 . Also, the output I/F 6600 outputs an output signal in a processable format to an external device (display device) or the like.

次に上記装置によって実現される本実施形態の処理手順について説明する。図3、図4は本実施形態のレンダリング処理の手順を説明したフローチャートである。図3は、モデルデータ読込時にモデルデータ取得部203と透過モデル判断部204で行われる処理であり、取得したモデルデータに対し、透過モデルかどうかを判断する。 Next, a processing procedure of this embodiment realized by the above apparatus will be described. 3 and 4 are flowcharts for explaining the procedure of rendering processing according to this embodiment. FIG. 3 shows processing performed by the model data acquisition unit 203 and the transparent model judgment unit 204 when model data is read, and judges whether or not the acquired model data is a transparent model.

ステップS3100では、モデルデータ取得部203において、CGモデルデータベース202からモデルデータを取得する。ステップS3200では、透過モデル判断部204において、取得したモデルが透過物体のCGモデルかどうかを判断する。透過物体のCGモデルであるかは、例えば取得したモデルが半透明マテリアル情報を持つかで判断する。取得したモデルデータが半透明マテリアル情報を持つ場合、ステップS3300に移行する。ステップS3300では、透過モデル判断部204においてモデルデータの背面カリングフラグをONにし、CGレンダリング処理へと移行する。前記フラグの処理を前記透過モデル判断部204で判断するかどうかをユーザが設定できてもよい。 In step S3100, the model data acquisition unit 203 acquires model data from the CG model database 202. FIG. In step S3200, transmission model determination section 204 determines whether the acquired model is a CG model of a transmission object. Whether or not it is a CG model of a transmissive object is determined by, for example, whether the acquired model has translucent material information. If the acquired model data has translucent material information, the process moves to step S3300. In step S3300, the transparent model determination unit 204 turns on the back surface culling flag of the model data, and shifts to CG rendering processing. The user may be able to set whether or not the processing of the flag is to be determined by the transparent model determination unit 204 .

図4では、前記透過モデル判断部204で設定された背面カリングフラグと、仮想視点方向とをもとに、モデルデータをレンダリングする。この処理について説明する。 In FIG. 4, model data is rendered based on the back face culling flag set by the transparent model determination unit 204 and the virtual viewpoint direction. This processing will be described.

ステップS4100では、視点方向取得部208において、仮想視点の方向を取得する。仮想視点の方向は、例えば、世界座標系における仮想視点の位置姿勢を原点とした仮想視点座標系方向から算出する。ステップS4200では、モデルデータの背面カリングフラグがONかをチェックする。背面カリングフラグがONの場合、ステップS4300に移行し、ON以外の場合はステップS4700に移行する。ステップS4300では、ポリゴン面方向算出部205において、ポリゴン表面方向を算出する。ポリゴン表面の法線方向は頂点の順番に従った2つのベクトルの外積計算によって算出する。 In step S4100, the viewpoint direction acquisition unit 208 acquires the direction of the virtual viewpoint. The direction of the virtual viewpoint is calculated, for example, from the direction of the virtual viewpoint coordinate system with the position and orientation of the virtual viewpoint in the world coordinate system as the origin. In step S4200, it is checked whether the back face culling flag of the model data is ON. If the back face culling flag is ON, the process proceeds to step S4300; otherwise, the process proceeds to step S4700. In step S4300, the polygon surface direction calculation unit 205 calculates the polygon surface direction. The normal direction of the polygon surface is calculated by cross product calculation of two vectors according to the order of vertices.

ステップS4400では、描画判断部206において、前記視点方向取得部208おいて取得した仮想視点方向と、前記ポリゴン表面方向の内積を算出する。前記内積が0より大きい場合はステップS4500に移行し、それ以外の場合はステップS4600に移行する。ステップS4500では、描画判断部206において、ポリゴンが仮想視点に対し裏面を向いていると判断し、描画対象から除外、ステップS4700に移行する。 In step S4400, the rendering determination unit 206 calculates the inner product of the virtual viewpoint direction acquired by the viewpoint direction acquisition unit 208 and the polygon surface direction. If the inner product is greater than 0, the process proceeds to step S4500; otherwise, the process proceeds to step S4600. In step S4500, the rendering determination unit 206 determines that the polygon faces the back side of the virtual viewpoint, excludes it from rendering, and proceeds to step S4700.

ステップS4600では、前記透過モデル判断部204において、不透明と判断されたモデル、もしくは前記描画判断部206において、裏面方向を向いたポリゴンではないと判断されたポリゴンを描画対象とする。ステップS4700では、全ポリゴンにおいて描画対象か否かが判断されたかどうかチェックする。未処理のポリゴンがある場合はステップS4200へ移行し、全ポリゴンに対して処理が終わっている場合、ステップS4800に移行する。 In step S4600, a model determined to be opaque by the transparent model determination unit 204 or a polygon determined by the rendering determination unit 206 not to face the back side is to be rendered. In step S4700, it is checked whether or not all polygons have been determined to be drawing objects. If there are unprocessed polygons, the process proceeds to step S4200, and if all polygons have been processed, the process proceeds to step S4800.

以上により、透過物体のCGレンダリングにおいて、見た目の違和感を低減しつつ高速なレンダリングを実現することができる。 As described above, in CG rendering of transparent objects, it is possible to realize high-speed rendering while reducing the sense of incongruity in appearance.

(変形例1)
第1の実施形態では、仮想物体が半透明であるかをモデルデータの設定が透過物体か否かで判断したが、他の判断方法でもよい。例えば、仮想物体の透過率を閾値処理して半透明であるかを判断する方法が考えられる。
(Modification 1)
In the first embodiment, whether or not the virtual object is translucent is determined based on whether or not the model data is set as a transmissive object, but other determination methods may be used. For example, a method of thresholding the transmissivity of a virtual object to determine whether it is translucent can be considered.

図5は、変形例の処理手順を示すフローチャートである。S3200までは第1の実施形態と同じであるため説明は省略する。ステップS5100では、透過モデルと判断されたモデルの透過率を取得する。透過率があらかじめ設定した閾値より大きい場合はS3300に移行する。 FIG. 5 is a flow chart showing the processing procedure of the modification. Since the steps up to S3200 are the same as those in the first embodiment, description thereof is omitted. In step S5100, the transmittance of the model determined to be a transparent model is obtained. If the transmittance is greater than the preset threshold, the process proceeds to S3300.

(他の実施形態)
第1の実施形態では、半透明であるかによって裏面を描画しないか(背面カリングフラグをオンにするか)を判断したが、さらに別の判断条件を加えてもよい。例えば、仮想物体の可視領域(表示領域)に占める割合としてもよい。割合判定により割合が小さい(閾値未満である)とされた場合、見た目の影響が少ないので、背面カリングフラグをオフにする(全てのポリゴンの面を描画する)ようにしてもよい。この割合については、仮想物体の画素数を用いて判断してもよい。また、仮想物体の形状を判断し、複雑な形状の物体については、背面カリングフラグをオフにするようにしてもよい。この形状判定においては、体積に対して表面積が大きい場合に、複雑な形状と判断してもよい。
(Other embodiments)
In the first embodiment, it is determined whether or not to draw the back surface (whether to turn on the back surface culling flag) depending on whether or not the back surface is translucent, but another determination condition may be added. For example, it may be the ratio of the virtual object to the visible area (display area). If the ratio is determined to be small (less than the threshold value) by the ratio determination, the effect on appearance is small, so the back face culling flag may be turned off (all polygon faces are drawn). This ratio may be determined using the number of pixels of the virtual object. Alternatively, the shape of the virtual object may be determined, and the back face culling flag may be turned off for an object with a complicated shape. In this shape determination, when the surface area is large with respect to the volume, it may be determined that the shape is complicated.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

201 画像処理装置
202 CGモデルデータベース
203 モデルデータ取得部
204 透過モデル判断部
205 ポリゴン面方向算出部
206 描画判断部
207 視点設定部
208 視線方向取得部
209 描画処理部
210 表示部
201 image processing device 202 CG model database 203 model data acquisition unit 204 transmission model determination unit 205 polygon surface direction calculation unit 206 rendering determination unit 207 viewpoint setting unit 208 line of sight direction acquisition unit 209 rendering processing unit 210 display unit

Claims (16)

仮想物体の透過属性を判定する属性判定手段と、
前記仮想物体を観察する仮想視点を設定する設定手段と、
前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定する関係判定手段と、
前記複数のポリゴンの各ポリゴンについて、前記仮想物体の透過属性と、前記仮想視点と当該ポリゴンとの位置関係とに基づいて、当該ポリゴンの面を描画するかを判断する判断手段と、
前記判断手段により描画すると判断されたポリゴンの面を描画する描画手段とを有することを特徴とする画像処理装置。
attribute determining means for determining a transmission attribute of a virtual object;
setting means for setting a virtual viewpoint for observing the virtual object;
relationship determining means for determining a positional relationship between each of a plurality of polygons representing the virtual object and the virtual viewpoint;
determining means for determining, for each polygon of the plurality of polygons, whether to draw the surface of the polygon based on the transparency attribute of the virtual object and the positional relationship between the virtual viewpoint and the polygon;
and drawing means for drawing the face of the polygon determined to be drawn by the determining means.
前記判断手段は、前記仮想物体の透過属性が半透明と判定され、前記仮想視点に対して前記ポリゴンが前記仮想物体の背面に位置すると判定された場合に、当該ポリゴンの面を描画しないと判断することを特徴とする請求項1に記載の画像処理装置。 The judging means judges not to draw the face of the polygon when it is judged that the transparency attribute of the virtual object is translucent and the polygon is positioned behind the virtual object with respect to the virtual viewpoint. 2. The image processing apparatus according to claim 1, wherein: 前記関係判定手段は、前記仮想視点の視線方向と、前記ポリゴンの面の法線方向とに基づいて、当該仮想視点に対して当該ポリゴンが前記仮想物体の背面に位置するかを判定することを特徴とする請求項2に記載の画像処理装置。 The relationship determination means determines whether the polygon is located behind the virtual object with respect to the virtual viewpoint, based on the line-of-sight direction of the virtual viewpoint and the normal direction of the surface of the polygon. 3. The image processing apparatus according to claim 2. 前記関係判定手段は、前記仮想視点の視線方向を表すベクトルと、前記ポリゴンの面の法線方向を表すベクトルとの内積に基づいて、当該仮想視点に対して当該ポリゴンが前記仮想物体の背面に位置するかを判定することを特徴とする請求項3に記載の画像処理装置。 The relationship determination means determines that the polygon is positioned behind the virtual object with respect to the virtual viewpoint based on the inner product of the vector representing the line-of-sight direction of the virtual viewpoint and the vector representing the normal direction of the surface of the polygon. 4. The image processing apparatus according to claim 3, wherein determination is made as to whether the image is positioned. 前記関係判定手段は、前記内積の値が正であれば、前記仮想視点に対して前記ポリゴンが前記仮想物体の背面に位置すると判定することを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein, if the value of the inner product is positive, the relationship determining means determines that the polygon is positioned behind the virtual object with respect to the virtual viewpoint. 前記関係判定手段は、前記ポリゴンの面の法線方向を表すベクトルを、当該ポリゴンの頂点を順につないで得られる2つのベクトルの外積に基づいて求めることを特徴とする請求項4または5に記載の画像処理装置。 6. The relationship determining means according to claim 4, wherein said relationship determining means obtains a vector representing the normal direction of the face of said polygon based on the outer product of two vectors obtained by connecting vertices of said polygon in order. image processing device. 前記関係判定手段は、前記属性判定手段により前記仮想物体の透過属性が半透明と判定された場合に限って、前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定することを特徴とする請求項1に記載の画像処理装置。 The relationship determining means determines the positional relationship between each of the plurality of polygons representing the virtual object and the virtual viewpoint only when the attribute determining means determines that the virtual object has a translucent attribute. 2. The image processing apparatus according to claim 1, wherein: 前記判断手段は、前記仮想物体の透過属性が不透明と判定された場合に、当該ポリゴンの面を描画すると判断することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein, when it is determined that the transparency attribute of the virtual object is opaque, the determining means determines to render the surface of the polygon. 前記仮想物体には、半透明か否かを示す属性が設定されており、
前記属性判定手段は、当該設定された属性に基づいて当該仮想物体の透過属性を判定することを特徴とする請求項1に記載の画像処理装置。
An attribute indicating whether or not the virtual object is translucent is set in the virtual object,
2. The image processing apparatus according to claim 1, wherein said attribute determination means determines a transparency attribute of said virtual object based on said set attribute.
前記仮想物体には、透過率が設定されており、
前記属性判定手段は、当該透過率を閾値と比較することで当該仮想物体の透過属性を判定することを特徴とする請求項1に記載の画像処理装置。
Transmittance is set for the virtual object,
2. The image processing apparatus according to claim 1, wherein said attribute determining means determines the transparency attribute of said virtual object by comparing said transmittance with a threshold value.
表示領域に対して仮想物体の占める割合を判定する割合判定手段をさらに有し、
前記判断手段は、前記割合が閾値未満と判定された場合は、当該仮想物体の全てのポリゴンの面を描画すると判断することを特徴とする請求項1に記載の画像処理装置。
further comprising ratio determination means for determining the ratio of the virtual object to the display area;
2. The image processing apparatus according to claim 1, wherein, when said ratio is determined to be less than a threshold, said determination means determines to render all polygon surfaces of said virtual object.
前記割合判定手段は、前記割合を前記仮想物体の画素数を用いて判定することを特徴とする請求項11に記載の画像処理装置。 12. The image processing apparatus according to claim 11, wherein said ratio determination means determines said ratio using the number of pixels of said virtual object. 仮想物体の形状を判定する形状判定手段をさらに有し、
前記判断手段は、前記仮想物体が複雑な形状と判定された場合に、当該仮想物体の全てのポリゴンの面を描画すると判断することを特徴とする請求項1に記載の画像処理装置。
further comprising shape determining means for determining the shape of the virtual object;
2. The image processing apparatus according to claim 1, wherein, when the virtual object is determined to have a complicated shape, the determination means determines to draw all polygon surfaces of the virtual object.
前記形状判定手段は、前記仮想物体の体積及び表面積を用いて当該仮想物体の形状を判定することを特徴とする請求項13に記載の画像処理装置。 14. The image processing apparatus according to claim 13, wherein said shape determining means determines the shape of said virtual object using the volume and surface area of said virtual object. 仮想物体の透過属性を判定する属性判定工程と、
前記仮想物体を観察する仮想視点を設定する設定工程と、
前記仮想物体を表現する複数のポリゴンの各々と前記仮想視点との位置関係を判定する関係判定工程と、
前記複数のポリゴンの各ポリゴンについて、前記仮想物体の透過属性と、前記仮想視点と当該ポリゴンとの位置関係とに基づいて、当該ポリゴンの面を描画対象とするかを判断する判断工程と、
前記判断工程において描画対象とすると判断されたポリゴンの面を描画する描画工程とを有することを特徴とする画像処理方法。
an attribute determination step of determining a transmission attribute of the virtual object;
a setting step of setting a virtual viewpoint for observing the virtual object;
a relationship determination step of determining a positional relationship between each of a plurality of polygons representing the virtual object and the virtual viewpoint;
a determination step of determining, for each polygon of the plurality of polygons, whether the surface of the polygon is to be drawn, based on the transparency attribute of the virtual object and the positional relationship between the virtual viewpoint and the polygon;
and a drawing step of drawing the face of the polygon determined to be drawn in the determining step.
コンピュータを請求項1乃至14のいずれか1項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。 A program that causes a computer to function as each means of the image processing apparatus according to any one of claims 1 to 14.
JP2021036215A 2021-03-08 2021-03-08 Image processing system and method thereof and program Pending JP2022136548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021036215A JP2022136548A (en) 2021-03-08 2021-03-08 Image processing system and method thereof and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021036215A JP2022136548A (en) 2021-03-08 2021-03-08 Image processing system and method thereof and program

Publications (1)

Publication Number Publication Date
JP2022136548A true JP2022136548A (en) 2022-09-21

Family

ID=83311996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021036215A Pending JP2022136548A (en) 2021-03-08 2021-03-08 Image processing system and method thereof and program

Country Status (1)

Country Link
JP (1) JP2022136548A (en)

Similar Documents

Publication Publication Date Title
JP7055815B2 (en) A mixed reality system that involves warping virtual content and how to use it to generate virtual content
KR102701851B1 (en) Apparatus and method for determining LOD(level Of detail) for texturing cube map
CN114897754B (en) Generating new frames using rendered content and non-rendered content from previous perspectives
CN109985384B (en) Method and device for dynamically adjusting map
US9766458B2 (en) Image generating system, image generating method, and information storage medium
CN109696953B (en) Virtual reality character display method and device and virtual reality equipment
US12100106B2 (en) Stereoscopic rendering of virtual 3D objects
KR101919077B1 (en) Method and apparatus for displaying augmented reality
US20200258312A1 (en) Image processing method and device
CN106204703A (en) Three-dimensional scene models rendering intent and device
US8400445B2 (en) Image processing program and image processing apparatus
US6559844B1 (en) Method and apparatus for generating multiple views using a graphics engine
JP2000149062A (en) Method and device for generating three-dimensional image
JP2022136548A (en) Image processing system and method thereof and program
KR101227155B1 (en) Graphic image processing apparatus and method for realtime transforming low resolution image into high resolution image
CN111862338B (en) Display method and device for simulated eyeglass wearing image
KR101227183B1 (en) Apparatus and method for stereoscopic rendering 3-dimension graphic model
US12039660B1 (en) Rendering three-dimensional content based on a viewport
US12039645B1 (en) Edge contribution techniques for vector graphics rendering
US20220270312A1 (en) Perspective correct vector graphics rendering techniques
TWI812548B (en) Method and computer device for generating a side-by-side 3d image
US11915349B1 (en) Extrusion technique for curve rendering
CN118115693A (en) Method and computer device for generating side-by-side three-dimensional images
CN116012511A (en) Texture display method and device and electronic terminal
JP4313892B2 (en) Drawing apparatus, drawing method, and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240229