JP5025496B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method

Info

Publication number
JP5025496B2
JP5025496B2 JP2008002163A JP2008002163A JP5025496B2 JP 5025496 B2 JP5025496 B2 JP 5025496B2 JP 2008002163 A JP2008002163 A JP 2008002163A JP 2008002163 A JP2008002163 A JP 2008002163A JP 5025496 B2 JP5025496 B2 JP 5025496B2
Authority
JP
Japan
Prior art keywords
shadow
area
calculated
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008002163A
Other languages
Japanese (ja)
Other versions
JP2009163610A (en
JP2009163610A5 (en
Inventor
要 冨手
真和 藤木
隆之 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008002163A priority Critical patent/JP5025496B2/en
Priority to US12/265,546 priority patent/US9082213B2/en
Publication of JP2009163610A publication Critical patent/JP2009163610A/en
Publication of JP2009163610A5 publication Critical patent/JP2009163610A5/ja
Application granted granted Critical
Publication of JP5025496B2 publication Critical patent/JP5025496B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、コンピュータグラフィックスによる画像生成手法において、特に現実物体を表現する第1の仮想物体および第2の仮想物体を3次元空間内に有し、光学的に正しい描画を行うことを特徴とする技術に関する。   The present invention is characterized in that, in an image generation method based on computer graphics, in particular, a first virtual object and a second virtual object representing a real object are included in a three-dimensional space, and optically correct drawing is performed. Related to technology.

実写風景を背景として、その上にコンピュータグラフィックス(以下、CGと記述)を重畳して提示し、観察者に対して、あたかもその場に仮想の物体が存在するかのような体験を行わせる複合現実感(MR:MixedReality)の技術がある。   Computer graphics (hereinafter referred to as CG) are superimposed on the background of a live-action scene and presented to the viewer as if a virtual object existed on the spot. There is a mixed reality (MR) technique.

従来、前記複合現実感の技術と光線追跡(レイトレーシング)を組み合わせ、現実物体(床)に仮想物体(CG)が影を落とすシステムが提案されている(非特許文献1)。非特許文献1で示される描画システムは、ビデオ映像として取得される実写画像を背景にして、CG物体をレイトレーシング法で描画し重畳することにより複合現実画像を生成している。このシステムを利用した描画の一例では、現実物体である床に仮想物体であるCGの球が影を落とす様子を表現している。このような表現を実現するために、現実の床を表現する仮想物体を定義している。その上で、この床に対応する仮想物体に落ちる影の像を生成し、実写画像と合成する。   Conventionally, a system in which a virtual object (CG) casts a shadow on a real object (floor) by combining the mixed reality technology and ray tracing (ray tracing) has been proposed (Non-Patent Document 1). The drawing system shown in Non-Patent Document 1 generates a mixed reality image by drawing and superimposing a CG object by a ray tracing method against a background of a real image acquired as a video image. In an example of drawing using this system, a state in which a CG sphere as a virtual object casts a shadow on a floor as a real object is expressed. In order to realize such an expression, a virtual object representing an actual floor is defined. Then, an image of a shadow falling on a virtual object corresponding to the floor is generated and synthesized with a real image.

また、現実物体の位置姿勢をセンシングした結果に基づき、その現実物体を表現するCGモデルを複合現実空間に配置して、複合現実空間における仮想物体と現実物体の正しい奥行き関係を表現する手法が提案されている(特許文献1)。
特開2005−293142号公報 Interactive Mixed Reality Rendering in a Distributed Ray Tracing Framework Andreas Pomi,and Philipp Slusallek IEEE and ACM International Symposium on Mixed and Augmented Reality(ISMAR) 2004,Student Colloquium,Arlington,USA,November 2−5,2004
In addition, based on the result of sensing the position and orientation of a real object, a method for expressing the correct depth relationship between the virtual object and the real object in the mixed reality space by placing a CG model that represents the real object in the mixed reality space is proposed. (Patent Document 1).
JP 2005-293142 A Interactive Mixed Reality Rendering in a Distributed Ray Tracing Framework Andreas Pomi, and Philipp Slusallek IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR) 2004, Student Colloquium, Arlington, USA, November 2-5,2004

一般的に、人間が視覚情報から物体間の位置関係を把握する際には、影の像を手がかりにしている。したがって、複合現実感の場合も、観察者が物体間の位置関係を正しく把握するためには、影を正しく表現することが必要不可欠である。つまり、現実物体同士の影や仮想物体同士の影だけではなく、現実物体と仮想物体が相互に影を落とす表現が必要である。   In general, when a human grasps the positional relationship between objects from visual information, a shadow image is used as a clue. Therefore, even in the case of mixed reality, in order for the observer to correctly grasp the positional relationship between the objects, it is indispensable to correctly express the shadow. In other words, not only the shadow between the real objects and the shadow between the virtual objects, but also an expression in which the real object and the virtual object cast a shadow on each other is necessary.

非特許文献1では、仮想物体から現実物体である床を表現する仮想物体(透明な物体として表現されている)に落ちる影を描画している。非特許文献1において、仮想空間の中で現実物体を表すための仮想物体は床と人間の2つである。現実の空間では、人間が床に影を落としている。この場合の影の像は現実空間を撮影した画像の中に現れている。したがって、当然のことながらCGで人間の影を描画する必要はない。   In Non-Patent Document 1, a shadow that falls from a virtual object to a virtual object (represented as a transparent object) representing a floor that is a real object is drawn. In Non-Patent Document 1, two virtual objects for representing a real object in a virtual space are a floor and a human. In real space, humans cast shadows on the floor. The shadow image in this case appears in an image taken in real space. Therefore, as a matter of course, it is not necessary to draw a human shadow with CG.

しかしながら、非特許文献1はこのような場合を考慮していないため、現実画像中の影に加えて、不必要な影の像を生成してしまう。   However, since Non-Patent Document 1 does not consider such a case, an unnecessary shadow image is generated in addition to the shadow in the real image.

この問題は、1つの現実物体を模した仮想物体の内部で影(セルフシャドウ)が生じる場合も起こりうる。例えば、観察者が観察者自身の手を丸めて、丸めた手の平をみると、現実に生じた影の他に、現実物体を模した仮想物体の影によって更に濃い影が生じる。この問題はレイトレーシング法に留まらず、CGによる一般的な画像生成手法にも言える問題である。   This problem may also occur when a shadow (self-shadow) occurs inside a virtual object that imitates one real object. For example, when the observer rolls his / her hand and looks at the rolled palm, a darker shadow is generated due to a shadow of a virtual object imitating a real object in addition to a shadow actually generated. This problem is not limited to the ray tracing method, and can be said to be a general image generation method using CG.

図1は上記の問題を説明する原理図である。図1は、シーン上方から順に仮想光源101、観察者の手102、仮想物体である球103、床104の順番で配置されている。現実の光源状況と仮想の光源状況は一致しているものとする。   FIG. 1 is a principle diagram illustrating the above problem. In FIG. 1, a virtual light source 101, an observer's hand 102, a virtual object sphere 103, and a floor 104 are arranged in this order from the top of the scene. It is assumed that the actual light source situation matches the virtual light source situation.

ここで、現実近似物体以外の仮想物体を“非現実近似物体”と呼び、現実近似物体および非現実近似物体を包括した全ての仮想物体を“全仮想物体”と呼ぶことにする。   Here, a virtual object other than a realistic approximate object is referred to as a “non-realistic approximate object”, and all virtual objects including the real approximate object and the non-realistic approximate object are referred to as “all virtual objects”.

原理図における光学的に正しい描画について説明する。
1.観察者の手102(現実物体)は、球103(非現実近似物体)の上に影を落とす(影(1)105)
2.観察者の手102(現実物体)は、床104(現実物体)に影を落とす(影(2)106)
3.球103(非現実近似物体)は、床104(現実物体)に影を落とす(影(3)107)
4.現実の影(影(2)106)と仮想の影(影(3)107)が重なる領域は、現実の影のみで仮想の影は描画しない(影(4)108)。
An optically correct drawing in the principle diagram will be described.
1. The observer's hand 102 (real object) casts a shadow on the sphere 103 (non-realistic approximate object) (shadow (1) 105).
2. The observer's hand 102 (real object) casts a shadow on the floor 104 (real object) (shadow (2) 106).
3. The sphere 103 (unrealistic approximate object) casts a shadow on the floor 104 (real object) (shadow (3) 107)
4). In the area where the real shadow (shadow (2) 106) and the virtual shadow (shadow (3) 107) overlap, only the real shadow is drawn and the virtual shadow is not drawn (shadow (4) 108).

影(1)105は、現実に存在しない影である。したがって、影(1)105を観察者に提示するにはCGの影を計算し、球の上に描画する必要がある。ここで、現実物体が仮想物体上に影を落とすには、仮想空間内に現実物体の形状情報を仮想物体として定義する必要がある。   Shadow (1) 105 is a shadow that does not actually exist. Therefore, in order to present the shadow (1) 105 to the observer, it is necessary to calculate the shadow of the CG and draw it on the sphere. Here, in order for the real object to cast a shadow on the virtual object, it is necessary to define the shape information of the real object as a virtual object in the virtual space.

本提案では、このように仮想空間内に定義した現実物体を模擬した仮想物体を現実近似物体と呼ぶ(現実近似物体についての詳細は後述)。   In this proposal, a virtual object that simulates a real object defined in the virtual space is called a real approximate object (details of the real approximate object will be described later).

そして、球(非現実近似物体)の表面を描画する際に、仮想空間に定義した現実近似物体の影をCGで描画をすることによって、観察者の手の影を球に描画することが可能になる。   When drawing the surface of a sphere (non-realistic approximation object), it is possible to draw the shadow of the observer's hand on the sphere by drawing the shadow of the real approximation object defined in the virtual space with CG. become.

次に、観察者の手は、床に現実の影を落とす(影(2)106)。これは自然現象であり、そもそもCGで影を描画する必要はない。   Next, the observer's hand casts an actual shadow on the floor (shadow (2) 106). This is a natural phenomenon and it is not necessary to draw a shadow with CG in the first place.

そして、球103は床104に影を落とす必要がある(影(3)107)。この効果を実現するためには、観察者の手と同様に床を現実近似物体として仮想空間に定義して影を落とす領域を計算する必要がある。   The sphere 103 needs to cast a shadow on the floor 104 (shadow (3) 107). In order to realize this effect, it is necessary to define a floor in the virtual space as a physical approximation object and calculate a shadowed area as in the observer's hand.

最後に、影(4)108は、影(2)106と影(3)107が重なる領域である。この領域は現実の影の上にCGの影が描画されるため、現実の影よりも濃い影になってしまう。   Finally, shadow (4) 108 is an area where shadow (2) 106 and shadow (3) 107 overlap. In this area, since the shadow of CG is drawn on the actual shadow, the shadow becomes darker than the actual shadow.

上記の問題を解決するための本発明による画像処理装置は以下の構成を備える。   An image processing apparatus according to the present invention for solving the above-described problem has the following configuration.

現実近似物体と仮想物体とを含む3次元空間を、コンピュータグラフィックスを使って描画する画像処理装置であって、前記現実近似物体が前記3次元空間に落とす影の領域を計算する第1影領域計算手段と、前記仮想物体が前記3次元空間に落とす影の領域を計算する第2影領域計算手段と、前記第1影領域計算手段により計算した領域と前記第2影領域計算手段により計算した領域が重なるときに、前記第1影領域計算手段により計算した領域と、前記第2計算手段により計算した領域との、重なる領域に基づいて、前記仮想物体の影を生成する領域を決定することを特徴とする。 An image processing apparatus that draws a three-dimensional space including a realistic approximate object and a virtual object using computer graphics, and calculates a shadow area that the real approximate object drops in the three-dimensional space. The calculation means, the second shadow area calculation means for calculating the shadow area that the virtual object drops in the three-dimensional space, the area calculated by the first shadow area calculation means, and the second shadow area calculation means Determining an area for generating a shadow of the virtual object based on an overlapping area between the area calculated by the first shadow area calculating means and the area calculated by the second calculating means when the areas overlap. It is characterized by.

本発明によれば、コンピュータグラフィックスによる画像生成手法において、現実物体と仮想物体が相互に生じる影の描画を正しく表現することを可能にする。   ADVANTAGE OF THE INVENTION According to this invention, in the image generation method by computer graphics, it becomes possible to represent correctly the drawing of the shadow which a real object and a virtual object produce mutually.

以下、添付の図面を参照して本発明をその好適な実施形態に基づいて詳細に説明する。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings.

本実施形態に係る画像処理装置は、非現実近似物体が影を落とす領域から、現実物体が占有する領域に対応する3次元空間に存在する貴下形状である現実近似物体が影を落とす領域を除外することにより非現実近似物体のみの影領域を計算するものである。   The image processing apparatus according to the present embodiment has a region in which a realistic approximate object that is a noble shape existing in a three-dimensional space corresponding to a region occupied by a real object casts a region from a region where a non-realistic approximate object casts a shadow By excluding, the shadow area of only the unrealistic approximate object is calculated.

本実施形態における現実物体の計測・推定方法は、公知の技術を用いるため、ここでの詳細な説明は省略する。一例としては、複数台のカメラを利用したステレオマッチングによる3次元復元や、3次元レンジファインダなどの計測機器を利用した計測・推定方法などが挙げられる。   Since the measurement / estimation method of the real object in the present embodiment uses a known technique, a detailed description thereof is omitted here. As an example, three-dimensional reconstruction by stereo matching using a plurality of cameras, a measurement / estimation method using a measurement device such as a three-dimensional range finder, and the like can be given.

(影領域の引き算によって非現実近似物体領域を算出)
図2は、実施例1に係る画像処理装置の構成を説明するためのブロック図である。仮想空間データベース(以下DB)201は、全仮想物体の形状・材質・光源・仮想視点の位置姿勢等の情報を格納しているものである。仮想空間DB201は、ユーザの操作により個々の仮想物体の位置情報が変更された場合や材質等の属性情報が変更された場合に逐次的に更新される。
(Calculate unrealistic approximate object area by subtracting shadow area)
FIG. 2 is a block diagram for explaining the configuration of the image processing apparatus according to the first embodiment. A virtual space database (hereinafter referred to as DB) 201 stores information such as the shape, material, light source, and virtual viewpoint position and orientation of all virtual objects. The virtual space DB 201 is sequentially updated when the position information of each virtual object is changed by a user operation or when attribute information such as a material is changed.

現実物体計測・推定部202は、現実物体の幾何形状・位置姿勢および材質情報などを計測または推定し、仮想空間DB201に出力する。本実施例では、実写画像入力部203より得られる実写画像からステレオマッチングで奥行き推定を行う。奥行き推定で得られた結果を元に3次元の形状推定を行い、仮想空間DB201に登録する。   The real object measurement / estimation unit 202 measures or estimates the geometric shape / position / attitude and material information of the real object, and outputs the measured information to the virtual space DB 201. In the present embodiment, depth estimation is performed by stereo matching from a photographed image obtained from the photographed image input unit 203. Based on the result obtained by the depth estimation, three-dimensional shape estimation is performed and registered in the virtual space DB 201.

現実物体計測・推定部202により仮想空間DB201に出力された仮想物体には現実近似物体である旨の属性情報を付与する。ここで付与する属性情報は、現実近似物体であるか、または一般的な仮想物体(非現実近似物体)であるかの2値の情報である。ただし、ここで付与した情報を区別する方法は問わない。また属性情報を付与する代わりに仮想物体の透明度や、仮想物体に割り当てられた名称などの属性情報から現実近似物体と非現実近似物体の区別を行ってもよい。そして、これらの情報を元に影を落とす領域を計算する。   The virtual object output to the virtual space DB 201 by the real object measuring / estimating unit 202 is given attribute information indicating that it is a realistic approximate object. The attribute information given here is binary information indicating whether it is a realistic approximate object or a general virtual object (non-realistic approximate object). However, there is no limitation on the method for distinguishing the information given here. Further, instead of adding the attribute information, the real approximate object and the non-realistic approximate object may be distinguished from the attribute information such as the transparency of the virtual object and the name assigned to the virtual object. Based on these pieces of information, the shadowed area is calculated.

実写画像入力部203は、観察者の頭部位置に備え付けられたビデオカメラより撮影された映像(画像)を入力データとして取り込む。入力として得られる実写画像は、現実物体計測・推定部202と画素値演算部207に供給される。   The photographed image input unit 203 takes in video (image) taken by a video camera provided at the observer's head position as input data. The real image obtained as an input is supplied to the real object measurement / estimation unit 202 and the pixel value calculation unit 207.

視点位置姿勢制御部204は、観察者の頭部位置姿勢を検出し仮想視点の位置姿勢を制御するものである。観察者の頭部位置姿勢の検出方法は、6自由度センサによる位置姿勢計測や2次元マーカをカメラで撮影し、頭部位置姿勢に変換することで、計測する手法などがある。観察者の頭部位置姿勢検出の方法は公知の技術を用いるため、ここでの詳細な説明は省略する。   The viewpoint position and orientation control unit 204 controls the position and orientation of the virtual viewpoint by detecting the head position and orientation of the observer. As a method for detecting the head position / posture of the observer, there are a method of measuring by performing position / posture measurement using a six-degree-of-freedom sensor, photographing a two-dimensional marker with a camera, and converting it to a head position / posture. Since the method for detecting the head position and orientation of the observer uses a known technique, a detailed description thereof is omitted here.

第1影領域計算部205は、仮想空間DB201に登録されている現実近似物体の影領域を計算する処理を行う。影の計算方法は、シャドウマップによる手法がある。   The first shadow area calculation unit 205 performs a process of calculating a shadow area of a realistic approximate object registered in the virtual space DB 201. There is a shadow map method for calculating the shadow.

シャドウマップは、各仮想光源から見た仮想シーンの深度値(デプス情報)をレンダリングして影を落とす領域を計算する方法である。レンダリングによって得られた深度値は、深度バッファまたはテクスチャ情報として保存する。シャドウマップによる画像生成は、2パスのレンダリングが必要である。   The shadow map is a method of calculating an area where a shadow is dropped by rendering a depth value (depth information) of a virtual scene viewed from each virtual light source. The depth value obtained by rendering is stored as a depth buffer or texture information. Image generation using a shadow map requires two-pass rendering.

まず、1パス目のレンダリングでシャドウマップを作成する。シャドウマップは仮想視点を仮想光源の位置において射影空間のz値をレンダリングする。射影空間のz値を利用しシャドウマップを可視化すると、手前の色が黒で、奥の色が白いテクスチャ情報が得られる。   First, a shadow map is created in the first pass rendering. The shadow map renders the z value of the projection space with the virtual viewpoint at the position of the virtual light source. When the shadow map is visualized using the z value of the projection space, texture information is obtained in which the front color is black and the back color is white.

2パス目のレンダリングでは、仮想物体の深度値と深度バッファの値を比較しながら仮想空間DB201のシーンをレンダリングする。比較する値は、仮想光源からの距離である。   In the second pass rendering, the scene of the virtual space DB 201 is rendered while comparing the depth value of the virtual object and the value of the depth buffer. The value to be compared is the distance from the virtual light source.

比較方法としては、まず仮想光源から見た深度値をシャドウマップとして書き込む。次に通常の仮想視点からみた画面にシャドウマップをマッピングする。一方で、通常の仮想視点から仮想物体を観測した際の仮想物体上の各ピクセルに関して各仮想光源からの距離を求める。そして、それぞれのピクセルに関してシャドウマップの値と計算で求めた仮想光源との距離を比較し、シャドウマップの値が小さい部分を影と判定する。   As a comparison method, first, the depth value viewed from the virtual light source is written as a shadow map. Next, the shadow map is mapped on the screen viewed from the normal virtual viewpoint. On the other hand, the distance from each virtual light source is obtained for each pixel on the virtual object when the virtual object is observed from the normal virtual viewpoint. Then, the distance between the shadow map value and the calculated virtual light source for each pixel is compared, and a portion having a small shadow map value is determined as a shadow.

影が落ちると判定された画素は、影を生じさせている光源の輝度情報を基に影を落とす前の画素値から光源の輝度を減算することにより計算することができる。この処理を各光源に対して繰り返す。ここで、光源輝度と物体表面の明るさの関係は線形性を有しているため、光源一つ一つの輝度を独立に減算することより影の濃さを計算することが可能である。このようにして、影を落とす領域の計算を行う。   The pixel determined to have the shadow fall can be calculated by subtracting the luminance of the light source from the pixel value before the shadow is dropped based on the luminance information of the light source causing the shadow. This process is repeated for each light source. Here, since the relationship between the light source luminance and the brightness of the object surface is linear, it is possible to calculate the shadow density by subtracting the luminance of each light source independently. In this way, the area where the shadow is dropped is calculated.

以上がシャドウマップの概要である。シャドウマップによる計算手法は、公知技術として広く一般に使われる手法であるためこれ以上の詳細な説明は省略する。   The above is the outline of the shadow map. Since the calculation method using the shadow map is a method that is widely used as a publicly known technique, further detailed description is omitted.

第2影領域計算部206は、仮想空間DB201に登録されている非現実近似物体のみが影を落とす領域を計算する。影を落とす領域の計算方法は第1影領域計算部205と同じ手法を用いる。   The second shadow area calculation unit 206 calculates an area where only the non-realistic approximate object registered in the virtual space DB 201 casts a shadow. The same method as that of the first shadow region calculation unit 205 is used as a method for calculating the region where the shadow is dropped.

画素値演算部207は、実写画像入力部203を背景画像として、視点位置制御部204で取得した仮想視点位置に則り、仮想空間DB201と第1および第2影領域計算部の情報を元にレンダリングを行い、画素値を決定する。   The pixel value calculation unit 207 renders based on the information of the virtual space DB 201 and the first and second shadow area calculation units according to the virtual viewpoint position acquired by the viewpoint position control unit 204 using the live-action image input unit 203 as a background image. To determine the pixel value.

画面出力部208は、画素値演算部207で計算した全画素値の結果を表示装置に出力するものである。   The screen output unit 208 outputs the result of all pixel values calculated by the pixel value calculation unit 207 to the display device.

図3は、本発明の第1の実施形態に係る画像処理装置のフローチャートを示す図である。処理を開始すると、ステップS301で、初期化を行う。具体的には、処理の実行に必要な記憶領域の確保などを行うものである。   FIG. 3 is a diagram showing a flowchart of the image processing apparatus according to the first embodiment of the present invention. When the process is started, initialization is performed in step S301. Specifically, a storage area necessary for execution of processing is secured.

ステップS302は、視点位置姿勢制御部204により観察者の頭部位置姿勢情報を取得する。頭部位置姿勢情報から視点位置姿勢情報への変換は公知の技術を用いる。   In step S302, the viewpoint position / posture control unit 204 acquires the head position / posture information of the observer. A known technique is used for conversion from the head position / posture information to the viewpoint position / posture information.

ステップS303は、現実物体計測・推定部202が現実物体の形状・材質情報・現実の光源情報の取り込みを行う。現実物体の形状・材質情報の取得方法ならびに現実の光源情報の取得方法は公知の技術を用いる。ここで、CGによる影の向きや濃さと現実の影の向きや濃さがかけ離れていると、臨場感を損なう大きな要因となる。したがって、現実の光源の位置・向き・強さの情報を忠実に仮想空間内に反映できることが望まれる。   In step S303, the real object measurement / estimation unit 202 takes in the shape / material information / real light source information of the real object. A well-known technique is used for the acquisition method of the shape / material information of the real object and the acquisition method of the actual light source information. Here, if the direction and density of the shadow by CG are different from the direction and density of the actual shadow, it becomes a major factor that impairs the sense of reality. Therefore, it is desired that information on the position, orientation, and strength of the actual light source can be faithfully reflected in the virtual space.

従来より、現実の光源環境を仮想空間内に再現する手法が提案されている。一例としては、ビデオ映像として取得した実写画像からハイライト成分を抽出し分析をすることにより、現実の光源情報(位置・向き・強さ)を算出し推定するものなどが挙げられる(池内克史、佐藤洋一、西野恒、佐藤いまり:“複合現実感における光学的整合性の実現、”日本バーチャルリアリティ学会論文誌「複合現実感」特集号、Vol.4、No.4、pp.623−630、December 1999)。   Conventionally, a method for reproducing an actual light source environment in a virtual space has been proposed. As an example, it is possible to calculate and estimate actual light source information (position, orientation, strength) by extracting and analyzing highlight components from live-action images acquired as video images (Katsufumi Ikenai, Yoichi Sato, Tsuyoshi Nishino, Imari Sato: “Realization of optical consistency in mixed reality,” Special Issue on Virtual Reality Society, “Mixed Reality”, Vol.4, No.4, pp.623-630 , December 1999).

このように3次元形状の取得方法、並びに、現実環境の光源推定方法は多岐に渡って提案されているため、構築したいシステムに応じて好適な手段を選択すればよい。   As described above, since a variety of methods for acquiring a three-dimensional shape and methods for estimating a light source in a real environment have been proposed, a suitable means may be selected according to the system to be constructed.

ステップS304は、ステップS302、ステップS303の結果を受け、仮想空間DB201の更新を行う。具体的には、ステップS302で取得した観察者の頭部位置姿勢情報を仮想空間内の仮想視点位置姿勢に割り当てる。そして、ステップS303で取得した現実物体の形状情報を仮想空間内に登録する。   In step S304, the virtual space DB 201 is updated based on the results of steps S302 and S303. Specifically, the observer's head position / posture information acquired in step S302 is assigned to the virtual viewpoint position / posture in the virtual space. Then, the real object shape information acquired in step S303 is registered in the virtual space.

ここで、現実近似物体の形状を仮想空間内に登録するため、3次元位置情報を有する点群データから三角形パッチを生成しポリゴン化を行う。また、現実物体の形状は必ずしもポリゴン化する必要は無く、NURBS曲面によって表現された任意の形状でも良い。構築するシステムによっては、ポリゴンやメッシュ表現の他にメタボール表現を使うなどの方法で現実近似物体を表現してもよい。   Here, in order to register the shape of the realistic approximate object in the virtual space, a triangular patch is generated from the point cloud data having the three-dimensional position information and polygonized. In addition, the shape of the real object does not necessarily need to be a polygon, and may be any shape expressed by a NURBS curved surface. Depending on the system to be constructed, a realistic approximation object may be represented by a method such as using a metaball representation in addition to a polygon or mesh representation.

また、ステップS303で取得した現実環境の光源情報に従い、仮想光源を仮想空間内に配置する。ステップS305は、画素値演算部207においてステップS302で取得した視点位置姿勢に基づいてレンダリング処理を行う。レンダリング処理の詳細は後述する。ステップS306はステップS305で生成した画像を画面出力部208で表示装置に描画を行う。   Further, the virtual light source is arranged in the virtual space according to the light source information of the real environment acquired in step S303. In step S305, the pixel value calculation unit 207 performs a rendering process based on the viewpoint position and orientation acquired in step S302. Details of the rendering process will be described later. In step S306, the screen output unit 208 draws the image generated in step S305 on the display device.

ステップS307は、システムを終了するか否かの判定を行う。システムを終了させなければ、ステップS302に戻る。そして、システムを終了させる場合はプログラムの終了処理に基づき終了処理を行う。   In step S307, it is determined whether or not to end the system. If the system is not terminated, the process returns to step S302. When the system is terminated, the termination process is performed based on the program termination process.

以上が本実施例に係る画像処理装置の全体の流れである。次に、レンダリング部分の詳細について説明する。図4は、レンダリング部分の流れを説明する図である。   The above is the overall flow of the image processing apparatus according to the present embodiment. Next, details of the rendering portion will be described. FIG. 4 is a diagram for explaining the flow of the rendering portion.

ステップS401は、現実近似物体が影を落とす領域を計算する。ステップS401の影を落とす領域の計算では、各仮想光源に仮想視点を配置して仮想空間DB201の深度情報を計算しシャドウマップを生成する。このとき、第1影領域計算部205では仮想空間DB201より現実近似物体を計算対象としてシャドウマップAを生成する。そして、ステップS402は、仮想空間DB201より非現実近似物体のみを計算対象としてシャドウマップBを生成する。この2つのシャドウマップを計算する処理を各光源に対して繰り返す。そして、各光源に対してシャドウマップAとシャドウマップBを生成しテクスチャ情報としてメモリに保存する。   In step S401, a region where the realistic approximate object casts a shadow is calculated. In the calculation of the area where the shadow is dropped in step S401, a virtual viewpoint is arranged in each virtual light source, depth information of the virtual space DB 201 is calculated, and a shadow map is generated. At this time, the first shadow area calculation unit 205 generates a shadow map A from the virtual space DB 201 with a realistic approximate object as a calculation target. In step S402, the shadow map B is generated from the virtual space DB 201 using only the unrealistic approximate object as a calculation target. The process of calculating these two shadow maps is repeated for each light source. Then, a shadow map A and a shadow map B are generated for each light source and stored in the memory as texture information.

ここで、シャドウマップAおよびシャドウマップBの計算は完全に独立しているため、各CPUをそれぞれのシャドウマップ生成に割り当て、並列計算することが可能である。   Here, since the calculation of the shadow map A and the shadow map B is completely independent, each CPU can be assigned to each shadow map generation and can be calculated in parallel.

ステップS403は、背景となる実写画像を描画するために、実写画像入力部203で取得した画像を画素値演算部207でフレームバッファに書き込む。   In step S <b> 403, the image acquired by the live-action image input unit 203 is written into the frame buffer by the pixel value calculation unit 207 in order to draw the live-action image as the background.

ステップS404は、画素値演算部207で背景となる実写の上に重畳する非現実近似物体を描画する処理を行う。   In step S <b> 404, the pixel value calculation unit 207 performs a process of drawing an unrealistic approximate object to be superimposed on the background real image.

ステップS405は、ステップS401およびステップS402で計算したシャドウマップを元に、仮想視点から見たシーンの影領域を計算する。実際にCGで影を描画する領域は、非現実近似物体が落とす影の領域から、現実近似物体が落とす影の領域を引き算することによって算出することができる。   In step S405, the shadow area of the scene viewed from the virtual viewpoint is calculated based on the shadow map calculated in steps S401 and S402. The area where the shadow is actually drawn by CG can be calculated by subtracting the shadow area dropped by the realistic approximate object from the shadow area dropped by the non-realistic approximate object.

ステップS405における影の領域計算は、第1影領域計算部および第2影領域計算部に、視点位置姿勢制御部204から仮想視点情報を入力し、各光源に対してシャドウマップを参照するとによって計算する。そして、仮想視点においてシャドウマップBを参照して算出した影領域BとシャドウマップAより算出した影領域Aで差をとる。影領域Bと影領域Aの差は、2次元画像上でマスク処理(または画素値の減算処理)をすることによって計算することができる。このようにして、非現実近似物体のみが落とす影の領域を計算する。   The shadow area calculation in step S405 is performed by inputting virtual viewpoint information from the viewpoint position / orientation control section 204 to the first shadow area calculation section and the second shadow area calculation section and referring to the shadow map for each light source. To do. Then, a difference is taken between the shadow area B calculated with reference to the shadow map B at the virtual viewpoint and the shadow area A calculated from the shadow map A. The difference between the shadow area B and the shadow area A can be calculated by performing mask processing (or pixel value subtraction processing) on the two-dimensional image. In this way, the shadow area dropped only by the unreal approximation object is calculated.

その結果、非現実近似物体のみが落とす影の領域のみCGで影を描画することができ、現実の影を阻害せずにCGの影を描画することが可能になる。   As a result, it is possible to draw a shadow with CG only in the shadow area where only the non-realistic approximate object is dropped, and it is possible to draw the shadow of the CG without hindering the actual shadow.

ここで、影の領域を計算する手法としては、本実施形態で説明したシャドウマップの他に、影の影響範囲をボリュームデータとして計算するシャドウボリュームの手法や事前計算済み放射輝度伝播(Precomputed Radiance Transfer)を算出しておいてグローバルイルミネーションの計算を行う手法も広く利用されている。本発明は、上記のいずれにも応用が可能であり、影の描画手法に制限はない。   Here, as a method for calculating the shadow area, in addition to the shadow map described in the present embodiment, a shadow volume method for calculating a shadow influence range as volume data or a precomputed radiance transfer (Precomputed Radiance Transfer). ) To calculate global illumination is also widely used. The present invention can be applied to any of the above, and there is no limitation on the shadow drawing technique.

また、本実施形態では、図1でCGの球が観察者の手と床にそれぞれ影を落とす場合について説明した。本実施形態はそれ以外の配置についても有効である。例えば、図1のCGの球と観察者の手の上下関係が逆転した場合などである。このように本実施形態によれば仮想物体と現実物体が任意の上下関係であっても適応可能であり、さらに物体の個数に関係無く適応可能である。   Further, in the present embodiment, the case where the CG sphere casts shadows on the observer's hand and the floor in FIG. 1 has been described. This embodiment is also effective for other arrangements. For example, this is the case where the vertical relationship between the CG sphere in FIG. 1 and the observer's hand is reversed. As described above, according to the present embodiment, the virtual object and the real object can be applied even if they have an arbitrary vertical relationship, and can be applied regardless of the number of objects.

さらに、非現実近似物体のみの影領域を計算する代わりに、全仮想物体を対象にした影領域を計算した場合も同様に、現実近似物体の影領域を除外することによって求めたい影領域を計算することが可能である。   In addition, instead of calculating the shadow area of only the non-realistic approximation object, calculate the shadow area to be obtained by excluding the shadow area of the real approximation object as well when calculating the shadow area for all virtual objects. Is possible.

(一旦全仮想物体の影を描画した後、影の描画を打ち消す)
実施例1に係る画像処理装置は、全仮想物体が落とす影の領域から現実近似物体のみが落とす影の領域を引き算することによって、現実の影を阻害せずにCGで描画する影の領域を計算するものであった。実施例2に係る画像処理装置は、個々の画素値を計算する際に、現実近似物体が落とすCGによる影の影響を差し引くものである。
(Once all the virtual objects' shadows are drawn, cancel the shadow drawing)
The image processing apparatus according to the first embodiment subtracts a shadow area that only a real approximate object drops from a shadow area that all virtual objects drop, thereby generating a shadow area that is drawn by CG without hindering an actual shadow. It was something to calculate. The image processing apparatus according to the second embodiment subtracts the influence of the shadow caused by the CG dropped by the real approximation object when calculating the individual pixel values.

本実施形態に係る原理図・構成図は第1の実施形態の原理図・構成図と同一であるため、説明は省略する。   Since the principle diagram and configuration diagram according to the present embodiment are the same as the principle diagram and configuration diagram of the first embodiment, description thereof will be omitted.

図5は、第2の実施形態に係るレンダリング処理の流れを説明する図である。第1の実施形態との違いは、図5のステップS501とステップS502の処理である。またステップS402でシャドウマップを作成する対象は全仮想物体である。   FIG. 5 is a diagram for explaining the flow of rendering processing according to the second embodiment. The difference from the first embodiment is the processing in steps S501 and S502 in FIG. In step S402, the target for creating the shadow map is all virtual objects.

ステップS501は、全仮想物体が落とす影の領域(シャドウマップB)に基づいてステップS404で生成した画像にCGで影を描画する。この段階では現実近似物体を含む全仮想物体が落とす影の領域に対してCGの影が描画されるため、正しい描画にはならない(現実の影とCGの影が重なる領域が存在する)。   In step S501, a shadow is drawn with CG on the image generated in step S404 based on the shadow area (shadow map B) dropped by all virtual objects. At this stage, the CG shadow is drawn in the shadow area dropped by all virtual objects including the realistic approximation object, so that the drawing is not correct (there is an area where the actual shadow and the CG shadow overlap).

ステップS502は、現実近似物体のみが落とす影の領域(シャドウマップA)に基づいてステップS501で描画した余分な影の領域(現実の影とCGの影が重なる領域)を取り消す処理を行う。この取り消し処理は、シャドウマップAで算出した影の領域内を対象として各画素の値を再計算することよって実現する。具体的には、シャドウマップAを参照し、現実近似物体で遮ることとなった仮想光源を全て算出し、全ての仮想光源の輝度値を対象画素に加算することによってCGで描画した影を取り消すことが可能になる。   In step S502, a process of canceling the extra shadow area (the area where the real shadow and the CG shadow overlap) drawn in step S501 based on the shadow area (shadow map A) dropped only by the realistic approximate object is performed. This cancellation processing is realized by recalculating the value of each pixel in the shadow area calculated by the shadow map A. Specifically, the shadow map A is referred to, all the virtual light sources that are blocked by the realistic approximation object are calculated, and the luminance value of all the virtual light sources is added to the target pixel to cancel the shadow drawn by CG. It becomes possible.

このようにして、一度全仮想物体が落とす影の領域を描画しておき、現実近似物体が落とす影の領域において、CGによる影の影響を打ち消すことによって現実の影を阻害せずにCGの影を描画することが可能になる。   In this way, once the shadow area dropped by all the virtual objects is drawn, the shadow of the CG without obstructing the actual shadow by canceling the influence of the shadow caused by the CG in the shadow area dropped by the realistic approximate object. Can be drawn.

(画素単位で影描画の判定処理を行う)
実施例3に係る画像処理装置は、非現実物体の描画時に画素単位で影の描画計算を行うものである。本実施形態に係る原理図・構成図は第1の実施形態の原理図・構成図と同一であるため、説明は省略する。
(Performs a shadow drawing judgment process in units of pixels)
The image processing apparatus according to the third embodiment performs a shadow drawing calculation for each pixel when drawing an unreal object. Since the principle diagram and configuration diagram according to the present embodiment are the same as the principle diagram and configuration diagram of the first embodiment, description thereof will be omitted.

図6は、第3の実施形態に係るレンダリング処理の流れを説明する図である。第1の実施形態との違いは、図6のステップS601〜ステップS603の処理である。故にステップS401〜ステップS404までの処理は第1の実施形態における処理と同一であるため説明を省略する。   FIG. 6 is a diagram for explaining the flow of rendering processing according to the third embodiment. The difference from the first embodiment is the processing in steps S601 to S603 in FIG. Therefore, the processing from step S401 to step S404 is the same as the processing in the first embodiment, and a description thereof will be omitted.

ただし、ステップS601〜ステップS603の処理は、ステップS404における各画素単位での処理の流れになっているので、ステップS404は非現実近似物体の画素値を算出した後、その画素に影を描画するか否かの判定処理を行う。   However, since the processing from step S601 to step S603 is a processing flow for each pixel in step S404, step S404 calculates the pixel value of the unreal approximation object, and then draws a shadow on the pixel. Whether to determine whether or not.

ステップS601は、対象画素にCGの影を描画するかどうかを判定する。具体的には、まずシャドウマップBを参照し、非現実近似物体が対象画素に影を落とすかどうかを調べる。非現実近似物体が対象画素に影を落とさない場合は、CGで影を描画する必要が無いため次の処理に移る。   In step S601, it is determined whether to draw a CG shadow on the target pixel. Specifically, first, the shadow map B is referred to, and it is checked whether or not the unreal approximation object casts a shadow on the target pixel. If the non-realistic approximation object does not cast a shadow on the target pixel, it is not necessary to draw a shadow with CG, and the process proceeds to the next process.

次に、シャドウマップAを参照し、現実近似物体が対象画素に影を落とすかどうかを調べる。現実近似物体および非現実近似物体が影を落とす場合は、現実に影が存在するためCGで影を描画する必要がないため次の処理に移る。   Next, with reference to the shadow map A, it is examined whether or not the actual approximation object casts a shadow on the target pixel. When a realistic approximate object and a non-realistic approximate object cast a shadow, since there is a shadow in reality, it is not necessary to draw a shadow with CG, and the process proceeds to the next process.

そして、非現実近似物体のみが影を落とす場合のみ、ステップS602に移行し対象画素に影を描画する処理を行う。   Then, only in the case where only the unrealistic approximate object casts a shadow, the process proceeds to step S602 to perform a process of drawing a shadow on the target pixel.

ここで、シャドウマップは各光源に対して存在するため、ステップS601における判定処理は、各光源に対して繰り返しシャドウマップを参照する必要がある。   Here, since the shadow map exists for each light source, the determination process in step S601 needs to repeatedly refer to the shadow map for each light source.

ステップS602は、対象画素に影の描画を行う。具体的には、対象画素に影を落とす原因となっている仮想光源を特定し、背景となる実写画像または非現実近似物体の画素値から仮想光源の輝度値を減算することによって影を描画することが可能になる。   In step S602, a shadow is drawn on the target pixel. Specifically, the virtual light source that causes the target pixel to cast a shadow is identified, and the shadow is drawn by subtracting the luminance value of the virtual light source from the pixel value of the actual image or the non-realistic approximation object that is the background It becomes possible.

仮想光源は、対象画素に影を落とすシャドウマップAを生成した仮想光源を特定することで特定することができる。   The virtual light source can be specified by specifying the virtual light source that generated the shadow map A that casts a shadow on the target pixel.

ステップS603は仮想スクリーン上の全ての画素において計算が終了したかどうかを判定する。計算が終了していない場合は、ステップS404に戻り次の画素値を計算する。そして、全ての画素に関して計算が終了したら、レンダリング処理を終了する。   In step S603, it is determined whether the calculation has been completed for all the pixels on the virtual screen. If the calculation has not ended, the process returns to step S404 to calculate the next pixel value. When the calculation is completed for all pixels, the rendering process is terminated.

なお、本発明の目的は次のようにしても達成される。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。このようにしても目的が達成されることは言うまでもない。   The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. It goes without saying that the purpose is achieved even in this way.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶したコンピュータ読取可能な記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the computer-readable storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、本発明に係る実施の形態は、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合に限られない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the embodiments according to the present invention are not limited to the case where the functions of the above-described embodiments are realized by executing the program code read by the computer. For example, an OS (operating system) running on a computer performs part or all of actual processing based on an instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

さらに、本発明に係る実施形態の機能は次のようにしても実現される。即ち、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。そして、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行う。この処理により前述した実施形態の機能が実現されることは言うまでもない。   Furthermore, the functions of the embodiment according to the present invention are also realized as follows. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the program code, the CPU provided in the function expansion board or function expansion unit performs part or all of the actual processing. It goes without saying that the functions of the above-described embodiments are realized by this processing.

第1の実施形態に係る画像処理装置の原理を説明する原理図である。It is a principle figure explaining the principle of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置の処理の流れを説明するフローチャートである。4 is a flowchart for explaining a processing flow of the image processing apparatus according to the first embodiment. 第1の実施形態に係る画像処理装置のレンダリング処理の詳細を説明するフローチャートである。6 is a flowchart illustrating details of rendering processing of the image processing apparatus according to the first embodiment. 第2の実施形態に係る画像処理装置のレンダリング処理の詳細を説明するフローチャートである。10 is a flowchart illustrating details of rendering processing of the image processing apparatus according to the second embodiment. 第3の実施形態に係る画像処理装置のレンダリング処理の詳細を説明するフローチャートである。14 is a flowchart illustrating details of rendering processing of the image processing apparatus according to the third embodiment.

Claims (7)

現実近似物体と仮想物体と含む3次元空間を、コンピュータグラフィックスを使って描画する画像処理装置であって、
前記現実近似物体が前記3次元空間に落とす影の領域を計算する第1影領域計算手段と、
前記仮想物体が前記3次元空間に落とす影の領域を計算する第2影領域計算手段と、
前記第1影領域計算手段により計算した領域と前記第2影領域計算手段により計算した領域が重なるときに、前記第1影領域計算手段により計算した領域と、前記第2計算手段により計算した領域と、が重なる領域に基づいて、前記仮想物体の影を生成する領域を決定することを特徴とする画像処理装置。
The 3-dimensional space and a real approximate the object and the virtual object, an image processing apparatus for drawing by using computer graphics,
First shadow region calculation means for calculating a shadow region that the realistic approximation object drops in the three-dimensional space;
A second shadow area calculation means for calculating a shadow area that the virtual object drops in the three-dimensional space;
When the area calculated by the first shadow area calculation means and the area calculated by the second shadow area calculation means overlap, the area calculated by the first shadow area calculation means and the area calculated by the second calculation means And an area where a shadow of the virtual object is generated is determined based on an area where the two overlap.
更に、前記第1影領域計算手段により算出した領域と前記第2影領域手段により計算した領域と、を足し合わせた領域から、前記第1影領域計算手段により算出した領域を除外した領域に、影の影響を画素値に加える画素値演算手段を有することを特徴とする請求項1に記載の画像処理装置。 Moreover, the area calculated by said first shadow region calculating means, and were calculated by the second shadow region means a region, from adding the combined area, in excluding the area calculated by said first shadow region calculating means area The image processing apparatus according to claim 1, further comprising a pixel value calculation unit that adds an influence of a shadow to the pixel value. 前記画素値演算手段は、前記第2影領域計算手段で算出した領域内の画素について、前記現実近似物体が前記3次元空間に落とす影の影響を画素値から打ち消すことを特徴とする請求項2に記載の画像処理装置。   The pixel value calculation means cancels the influence of the shadow that the actual approximate object drops in the three-dimensional space from the pixel value for the pixels in the area calculated by the second shadow area calculation means. An image processing apparatus according to 1. 前記画素値演算手段は、前記第1影領域計算手段により算出した領域と前記第2影領域手段により計算した領域と、に基づいて、画素単位で影の影響を画素値に加えるかどうかの判断をすることを特徴とする請求項2に記載の画像処理装置。 The pixel value calculating means, and area calculated by said first shadow region calculating means, wherein the calculated region by the second shadow area means, based on, of whether to add the effect of shadows on the pixel value in pixel units The image processing apparatus according to claim 2, wherein a determination is made. 現実物体が占有する領域に対応する3次元空間に存在する幾何形状である現実近似物体及び仮想物体を含む3次元空間を、コンピュータグラフィックスを使って描画する画像処理装置が行う画像処理方法であって、
前記画像処理装置の第1影領域計算手段が、前記現実近似物体が3次元空間に落とす影の領域を計算する第1影領域計算工程と、
前記画像処理装置の第2影領域計算手段が、前記仮想物体が前記3次元空間に落とす影の領域を計算する第2影領域計算工程と、
前記第1影領域計算工程により計算した領域と前記第2影領域計算工程により計算した領域が重なるときに、前記第1影領域計算工程により計算した領域と、前記第2計算工程により計算した領域との、重なる領域に基づいて、前記仮想物体の影を生成する領域を決定することを特徴とする画像処理方法。
This is an image processing method performed by an image processing apparatus that draws, using computer graphics, a three-dimensional space including a virtual object and a real approximate object that is a geometric shape existing in a three-dimensional space corresponding to a region occupied by a real object. And
A first shadow region calculation step in which a first shadow region calculation means of the image processing device calculates a shadow region that the real approximation object drops in a three-dimensional space;
A second shadow area calculating step in which the second shadow area calculating means of the image processing apparatus calculates a shadow area that the virtual object drops in the three-dimensional space;
When the region calculated by the first shadow region calculation step and the region calculated by the second shadow region calculation step overlap, the region calculated by the first shadow region calculation step and the region calculated by the second calculation step An area for generating a shadow of the virtual object is determined based on the overlapping area.
コンピュータに請求項5に記載の画像処理方法を実行させることを特徴とするプログラム。   A program causing a computer to execute the image processing method according to claim 5. 請求項6に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the program according to claim 6.
JP2008002163A 2007-11-07 2008-01-09 Image processing apparatus and image processing method Active JP5025496B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008002163A JP5025496B2 (en) 2008-01-09 2008-01-09 Image processing apparatus and image processing method
US12/265,546 US9082213B2 (en) 2007-11-07 2008-11-05 Image processing apparatus for combining real object and virtual object and processing method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008002163A JP5025496B2 (en) 2008-01-09 2008-01-09 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2009163610A JP2009163610A (en) 2009-07-23
JP2009163610A5 JP2009163610A5 (en) 2011-01-27
JP5025496B2 true JP5025496B2 (en) 2012-09-12

Family

ID=40966134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008002163A Active JP5025496B2 (en) 2007-11-07 2008-01-09 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5025496B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
JP2012105200A (en) * 2010-11-12 2012-05-31 Sharp Corp Three-dimensional content display device and three-dimensional content display method
JP5870958B2 (en) * 2012-04-27 2016-03-01 キヤノンマーケティングジャパン株式会社 INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP5818773B2 (en) * 2012-11-22 2015-11-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
EP3123449B1 (en) * 2014-03-25 2020-01-01 Apple Inc. Method and system for representing a virtual object in a view of a real environment
JP2016085648A (en) * 2014-10-28 2016-05-19 大日本印刷株式会社 Image display system, image display device, and program
JP6202118B2 (en) * 2016-03-09 2017-09-27 日本電気株式会社 Drawing apparatus, drawing method and program
JP6088094B1 (en) * 2016-06-20 2017-03-01 株式会社Cygames System for creating a mixed reality environment
KR101949609B1 (en) * 2016-12-20 2019-02-19 한국과학기술원 Method and system for updating occupancy map based on super ray
JP6833575B2 (en) 2017-03-15 2021-02-24 本田技研工業株式会社 Walking support device, walking support method, and program
US10262453B2 (en) * 2017-03-24 2019-04-16 Siemens Healthcare Gmbh Virtual shadows for enhanced depth perception
JP6487578B1 (en) * 2018-01-05 2019-03-20 株式会社スクウェア・エニックス Program, recording medium, and shadow drawing method
JP2019185072A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP7188901B2 (en) * 2018-03-30 2022-12-13 東京ガスiネット株式会社 Information processing system and program
JP7188902B2 (en) * 2018-03-30 2022-12-13 東京ガスiネット株式会社 Information processing system and program
CN110533707B (en) * 2018-05-24 2023-04-14 微软技术许可有限责任公司 Illumination estimation
CA3045133C (en) * 2019-06-03 2023-03-21 Eidos Interactive Corp. Systems and methods for augmented reality applications
JP7125963B2 (en) * 2020-08-07 2022-08-25 株式会社スクウェア・エニックス Information processing program, information processing apparatus, and information processing method
WO2023105784A1 (en) * 2021-12-10 2023-06-15 日本電信電話株式会社 Generation device, generation method, and generation program
WO2023181904A1 (en) * 2022-03-24 2023-09-28 ソニーグループ株式会社 Information processing device, information processing method, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3527672B2 (en) * 1999-12-28 2004-05-17 株式会社スクウェア・エニックス Computer-readable recording medium recording a three-dimensional computer image processing program, shadow drawing processing method, and video game apparatus
JP4600793B2 (en) * 2000-09-20 2010-12-15 株式会社セガ Image processing device
JP4522129B2 (en) * 2004-03-31 2010-08-11 キヤノン株式会社 Image processing method and image processing apparatus
JP3938771B2 (en) * 2004-06-07 2007-06-27 株式会社バンダイナムコゲームス Image processing apparatus and image processing method
JP4739002B2 (en) * 2005-06-30 2011-08-03 キヤノン株式会社 Image processing method and image processing apparatus

Also Published As

Publication number Publication date
JP2009163610A (en) 2009-07-23

Similar Documents

Publication Publication Date Title
JP5025496B2 (en) Image processing apparatus and image processing method
JP4401727B2 (en) Image display apparatus and method
JP4804256B2 (en) Information processing method
US9082213B2 (en) Image processing apparatus for combining real object and virtual object and processing method therefor
US7965304B2 (en) Image processing method and image processing apparatus
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
US8698804B2 (en) Image processing apparatus and image processing method
JP2010520565A (en) System and method for tracking and recording a three-dimensional object
JP7042561B2 (en) Information processing equipment, information processing method
JP2009123018A (en) Image processor and image processing method
KR20190129095A (en) Mixed Reality System with Multi-Source Virtual Content Synthesis and Method of Creating Virtual Content Using Them
JP2009134681A (en) Image processor, and image processing method
JP7162750B2 (en) Image processing device, image processing method, and program
JP4885042B2 (en) Image processing method, apparatus, and program
JP2020052790A (en) Information processor, information processing method, and program
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
JP7403967B2 (en) Information processing device, video generation device, image processing system, control method and program thereof
KR20150124208A (en) Apparatus and method for physical simulation of cloth for virtual fitting based on augmented reality
JP4857601B2 (en) SIMULATION IMAGE GENERATION DEVICE, METHOD, OPERATION PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP4366165B2 (en) Image display apparatus and method, and storage medium
KR20130117668A (en) Method of generating 3d volumetric data
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2009015648A (en) Image processor and image processing method
US11615574B2 (en) System and method for rendering 6 degree-of-freedom virtual reality

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120619

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5025496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151