JP5085722B2 - Image generation system - Google Patents

Image generation system Download PDF

Info

Publication number
JP5085722B2
JP5085722B2 JP2010277341A JP2010277341A JP5085722B2 JP 5085722 B2 JP5085722 B2 JP 5085722B2 JP 2010277341 A JP2010277341 A JP 2010277341A JP 2010277341 A JP2010277341 A JP 2010277341A JP 5085722 B2 JP5085722 B2 JP 5085722B2
Authority
JP
Japan
Prior art keywords
image
eye
reference plane
stereoscopic
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010277341A
Other languages
Japanese (ja)
Other versions
JP2011102988A (en
Inventor
茂樹 遠山
篤 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2010277341A priority Critical patent/JP5085722B2/en
Publication of JP2011102988A publication Critical patent/JP2011102988A/en
Application granted granted Critical
Publication of JP5085722B2 publication Critical patent/JP5085722B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、立体視用印刷物の製造方法及び立体視用印刷物に関する。   The present invention relates to a method for producing a stereoscopic print and a stereoscopic print.

従来より、左目に相当するカメラで撮った左目用の画像と、右目に相当するカメラで撮った右目用の画像とを用意し、これらの画像をアナグリフ(anaglyph)処理などにより合
成し、立体視用画像(立体視用印刷物)を得る技術が知られている。
Conventionally, a left-eye image taken with a camera corresponding to the left eye and a right-eye image taken with a camera equivalent to the right eye are prepared, and these images are synthesized by anaglyph processing or the like for stereoscopic viewing. A technique for obtaining an image for use (stereoscopic print) is known.

特開2000−56411号公報JP 2000-56411 A

さて、人間が物体の立体感を感じるのは、(1)左右の目が空間的に離れていることに起因して網膜の結像がずれる両眼視差(視線角度のずれ)、(2)左右の目が内側に向く機能である輻輳(ふくそう)、(3)水晶体の厚さが物体までの距離に応答するピント調整(焦点距離)という3つの生理的機能に起因する。そして人間は、これらの3つの生理的機能である両眼視差、輻輳、ピント調整を脳内で処理して立体感を感じている。   Now, humans feel the three-dimensional effect of an object. (1) Binocular parallax (gaze angle shift) in which the retina image is shifted due to the spatial separation of the left and right eyes, (2) This is caused by three physiological functions: convergence, which is a function in which the left and right eyes face inward, and (3) focus adjustment (focal length) in which the lens thickness responds to the distance to the object. Humans feel a three-dimensional feeling by processing these three physiological functions, binocular parallax, convergence, and focus adjustment, in the brain.

そして、これらの3つの生理的機能の関係は、通常、脳内において関連づけられている。従って、この関係に誤差や矛盾が生じると、脳が無理に立体と関連づけようとして、不自然さを感じたり、或いは立体として認知できなかったりする事態が生じる。   The relationship between these three physiological functions is usually related in the brain. Therefore, if an error or contradiction arises in this relationship, the brain may forcibly associate with the solid, causing a situation where it feels unnatural or cannot be recognized as a solid.

ところが、従来の立体視では、両眼視差や輻輳だけを利用して、立体視を表現していた。このため、ピント(焦点距離)は、立体視用画像(立体視用印刷物)の面内においてほぼ一定なのに対し、両眼視差や輻輳のずれは、立体視用画像のほとんどの場所において生じており、人間の脳に無理の無い立体視を実現できなかった。   However, in conventional stereoscopic vision, stereoscopic vision is expressed using only binocular parallax and convergence. For this reason, the focus (focal length) is almost constant in the plane of the stereoscopic image (stereoscopic printed matter), whereas binocular parallax and convergence shift occur in almost all places of the stereoscopic image. , I could not realize a reasonable stereoscopic view in the human brain.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、より自然な立体視を実現できる立体視用印刷物の製造方法及び立体視用印刷物を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a method for manufacturing a stereoscopic print and a stereoscopic print that can realize more natural stereoscopic vision. is there.

本発明は、左目用視点位置とオブジェクトの各点を結ぶ投影方向で、視線方向に非直交の基準面に対してオブジェクトの各点を投影して基準面にレンダリングすることで、左目用画像を作成し、右目用視点位置とオブジェクトの各点を結ぶ投影方向で、視線方向に非直交の基準面に対してオブジェクトの各点を投影して基準面にレンダリングすることで、右目用画像を作成し、左目用画像と右目用画像とに基づいて立体視用印刷物を作成する立体視用印刷物の製造方法に関係する。   The present invention projects the left eye image by projecting each point of the object onto the reference plane that is non-orthogonal to the viewing direction in the projection direction connecting the left eye viewpoint position and each point of the object. Create a right-eye image by projecting and rendering each point of the object on the reference plane that is non-orthogonal to the line-of-sight direction in the projection direction connecting the right-eye viewpoint position and each point of the object. In addition, the present invention relates to a method for manufacturing a stereoscopic printed material that creates a stereoscopic printed material based on a left-eye image and a right-eye image.

本発明によれば、左目用視点位置とオブジェクトの各点を結ぶ投影方向で、基準面に対してオブジェクトの各点を投影してレンダリングすることで、左目用画像が作成される。また、右目用視点位置とオブジェクトの各点を結ぶ投影方向で、基準面に対してオブジェクトの各点を投影してレンダリングすることで、右目用画像が作成される。そしてこれらの左目用画像、右目用画像に基づいて、立体視用印刷物が作成される。これにより、ピント調整や奥行き感の矛盾が少なく、より自然な立体視を実現できる立体視用印刷物を提供できる。なお、基準面は、例えば視線方向(左目用視点位置と右目用視点位置の中点と仮想カメラの注視点を結ぶ方向)とは直交しない面である。別の言い方をすれば、視線方向と直交する透視変換スクリーンとは異なる面である。   According to the present invention, the image for the left eye is created by projecting and rendering each point of the object on the reference plane in the projection direction connecting the viewpoint position for the left eye and each point of the object. Further, the right eye image is created by projecting and rendering each point of the object on the reference plane in the projection direction connecting the right eye viewpoint position and each point of the object. Based on these left-eye image and right-eye image, a stereoscopic print is created. Thereby, there is little contradiction of focus adjustment and a feeling of depth, and the printed matter for stereoscopic vision that can realize more natural stereoscopic vision can be provided. The reference plane is, for example, a plane that is not orthogonal to the line-of-sight direction (the direction connecting the midpoint of the left-eye viewpoint position and the right-eye viewpoint position and the gazing point of the virtual camera). In other words, it is a surface different from the perspective conversion screen orthogonal to the line-of-sight direction.

また本発明では、基準面に対して投影されるオブジェクトが、基準面上に配置されるオブジェクトであってもよい。また本発明では、基準面に対して投影されるオブジェクトが、その一部又は全部が、左目用視点位置及び右目用視点位置から見て基準面の奥側に配置されるオブジェクトであってもよい。   In the present invention, the object projected onto the reference plane may be an object arranged on the reference plane. In the present invention, the object projected onto the reference plane may be an object in which part or all of the object is disposed on the back side of the reference plane when viewed from the left eye viewpoint position and the right eye viewpoint position. .

また本発明では、基準面が、第1の基準面と、第1の基準面に対して所定の角度をなす第2の基準面を含み、左目用視点位置とオブジェクトの各点を結ぶ投影方向で、第1又は第2の基準面に対してオブジェクトの各点を投影して第1又は第2の基準面にレンダリングすることで、左目用画像を作成し、右目用視点位置とオブジェクトの各点を結ぶ投影方向で、第1又は第2の基準面に対してオブジェクトの各点を投影して第1又は第2の基準面にレンダリングすることで、右目用画像を作成するようにしてもよい。   In the present invention, the reference plane includes a first reference plane and a second reference plane that forms a predetermined angle with respect to the first reference plane, and a projection direction that connects the left eye viewpoint position and each point of the object. Then, each point of the object is projected onto the first or second reference plane and rendered on the first or second reference plane to create a left-eye image, and the right-eye viewpoint position and each of the object The right eye image may be created by projecting each point of the object onto the first or second reference plane and rendering the first or second reference plane in the projection direction connecting the points. Good.

このようにすることで、1つの基準面を設定しただけでは、奥行き感等に不自然さが生じるような場合にも、これを解消できる。なお、3つ以上の基準面を設定するようにしてもよい。また複数の基準面(第1、第2の基準面)は連結させることができる。   In this way, it is possible to solve this problem even when unnaturalness occurs in the sense of depth, etc., by setting only one reference plane. Three or more reference planes may be set. A plurality of reference planes (first and second reference planes) can be connected.

また本発明では、オブジェクトと視点位置との間の距離を長くした場合に、その長さの変化に応じて左目用視点位置と右目用視点位置との間の距離を長くするようにしてもよい。   In the present invention, when the distance between the object and the viewpoint position is increased, the distance between the left-eye viewpoint position and the right-eye viewpoint position may be increased according to the change in the length. .

なお視点位置は例えば左目用視点位置と右目用視点位置の中点である。   The viewpoint position is, for example, the midpoint between the left-eye viewpoint position and the right-eye viewpoint position.

また本発明では、オブジェクトと視点位置との間の距離を変化させる場合に、基準面に対して所定の角度をなす直線に沿って視点位置を移動させるようにしてもよい。   In the present invention, when the distance between the object and the viewpoint position is changed, the viewpoint position may be moved along a straight line that forms a predetermined angle with respect to the reference plane.

また本発明では、立体視時において立体視用印刷物を載置する面を、基準面として設定するようにしてもよい。   In the present invention, the surface on which the stereoscopic printed material is placed during stereoscopic viewing may be set as the reference surface.

このようにすれば、立体視用印刷物を例えば載置面に平行に載置した場合に、最適で実在感のある立体視を実現できる。   In this way, when the stereoscopic printed material is placed, for example, parallel to the placement surface, it is possible to realize optimal and realistic stereoscopic viewing.

また本発明では、左目用画像と右目用画像とをアナグリフ処理により合成することで、立体視用印刷物を作成するようにしてもよい。   In the present invention, the stereoscopic print may be created by combining the left-eye image and the right-eye image by anaglyph processing.

なお、本発明では、アナグリフ処理以外の手法で、立体視用印刷物を作成してもよい。   In the present invention, the stereoscopic print may be created by a method other than the anaglyph process.

また本発明は、上記のいずれかの製造方法により作成された立体視用印刷物に関係する。また本発明は、上記のいずれかの製造方法により作成された立体視用印刷物を複製することで作成された立体視用印刷物に関係する。   Moreover, this invention relates to the printed matter for stereoscopic vision created by any one of the manufacturing methods described above. The present invention also relates to a stereoscopic printed matter created by duplicating a stereoscopic printed matter created by any one of the above-described manufacturing methods.

本実施形態の第1の立体視方式のフローチャートである。It is a flowchart of the 1st stereoscopic vision system of this embodiment. 本実施形態の第1の立体視方式の説明図である。It is explanatory drawing of the 1st stereoscopic vision system of this embodiment. 左目用画像IL1の一例である。It is an example of image IL1 for left eyes. 右目用画像IR1の一例である。It is an example of the image for right eye IR1. 左目用画像IL2の一例である。It is an example of image IL2 for left eyes. 右目用画像IR2の一例である。It is an example of the image for right eye IR2. 立体視用画像(アナグリフ画像)の一例である。It is an example of the image for stereoscopic vision (anaglyph image). 図8(A)(B)(C)はパースペクティブを無くす補正処理の説明図である。8A, 8B, and 8C are explanatory diagrams of correction processing that eliminates the perspective. 本実施形態により得られた立体視用画像の特徴の説明図である。It is explanatory drawing of the characteristic of the image for stereoscopic vision obtained by this embodiment. 複数の基準面を設ける手法の説明図である。It is explanatory drawing of the method of providing a some reference surface. 複数の基準面を設ける手法のフローチャートである。It is a flowchart of the method of providing a some reference plane. 複数の基準面を設ける手法の説明図である。It is explanatory drawing of the method of providing a some reference surface. 本実施形態の第2の立体視方式の説明図である。It is explanatory drawing of the 2nd stereoscopic vision system of this embodiment. 図14(A)(B)(C)は第2の立体視方式の説明図である。14A, 14B, and 14C are explanatory diagrams of the second stereoscopic viewing method. 図15(A)(B)は従来の方式の説明図である。15A and 15B are explanatory diagrams of a conventional method. 視点位置の設定手法の説明図である。It is explanatory drawing of the setting method of a viewpoint position. 実写画像を用いた立体視用印刷物の作成手法の説明図である。It is explanatory drawing of the production method of the printed matter for stereoscopic vision using a real image. 実写画像を用いた立体視用印刷物の作成手法の説明図である。It is explanatory drawing of the production method of the printed matter for stereoscopic vision using a real image. 図19(A)(B)はCG画像を用いた立体視用印刷物の作成手法の説明図である。19A and 19B are explanatory diagrams of a method for creating a stereoscopic printed matter using a CG image. テクスチャマッピングを用いた補正処理の説明図である。It is explanatory drawing of the correction | amendment process using texture mapping. 画像生成システムの構成例である。1 is a configuration example of an image generation system. 座標系についての説明図である。It is explanatory drawing about a coordinate system. G1〜G4からG1’〜G4’への変換、G1’〜G4’からF1〜F4への変換についての説明図である。It is explanatory drawing about the conversion from G1-G4 to G1'-G4 ', and the conversion from G1'-G4' to F1-F4. 第2の立体視方式の変換式を導くための図である。It is a figure for deriving the conversion formula of the 2nd stereoscopic vision system. 図25(A)(B)は第2の立体視方式を構成する変換の説明図である。FIGS. 25A and 25B are explanatory diagrams of conversion constituting the second stereoscopic viewing system. 第2の立体視方式を構成する変換の説明図である。It is explanatory drawing of the conversion which comprises a 2nd stereoscopic vision system. 第1の立体視方式の変換でのずれ量についての説明図である。It is explanatory drawing about the deviation | shift amount in conversion of a 1st stereoscopic vision system.

以下、本実施形態について図面を用いて説明する。   Hereinafter, the present embodiment will be described with reference to the drawings.

なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

さて、本実施形態では以下に説明する2つの方式で立体視を実現している。   In the present embodiment, stereoscopic vision is realized by the two methods described below.

1.第1の立体視方式
図1に本実施形態の第1の立体視方式のフローチャートを示す。
1. First Stereoscopic Method FIG. 1 shows a flowchart of a first stereoscopic method according to this embodiment.

まず、立体視のための第1の左目用画像IL1と第1の右目用画像IR1を作成(生成)する(ステップS1、S2)。具体的には、左目用視点位置VPLから見える左目用画像IL1と、右目用視点位置VPRから見える右目用画像IR1を作成(生成)する。   First, a first left-eye image IL1 and a first right-eye image IR1 for stereoscopic viewing are created (generated) (steps S1 and S2). Specifically, a left eye image IL1 seen from the left eye viewpoint position VPL and a right eye image IR1 seen from the right eye viewpoint position VPR are created (generated).

ここで左目用、右目用視点位置VPL、VPRは、図2に示すように、観者(viewer)の左目、右目の位置として想定される位置である。例えば、カメラ(デジタルカメラ)による実写により左目用、右目用画像IL1、IR1を作成する場合には、これらのVPL、VPRの位置にカメラを配置して、左目用、右目用画像IL1、IR1を撮影する。この場合、2台のカメラをVPL、VPRに配置して同時に撮影してもよいし、1台のカメラの位置を変えて撮影してもよい。   Here, the left-eye and right-eye viewpoint positions VPL and VPR are positions assumed as positions of the left eye and right eye of the viewer, as shown in FIG. For example, when the left-eye and right-eye images IL1 and IR1 are created by actual shooting with a camera (digital camera), the left-eye and right-eye images IL1 and IR1 are obtained by arranging the cameras at these VPL and VPR positions. Take a picture. In this case, two cameras may be arranged in the VPL and VPR and photographed at the same time, or the position of one camera may be changed and photographed.

一方、CG(コンピュータグラフィックス)画像やゲーム画像(リアルタイム動画像)を生成するシステムにより左目用、右目用画像IL1、IR1を生成する場合には、これらのVPL、VPRの位置に仮想カメラを配置して左目用、右目用画像IL1、IR1を生成する。即ち、オブジェクト空間においてVPL、VPRから見える画像を生成する。   On the other hand, when the left-eye and right-eye images IL1 and IR1 are generated by a system that generates CG (computer graphics) images and game images (real-time moving images), virtual cameras are arranged at these VPL and VPR positions. Thus, the left-eye and right-eye images IL1 and IR1 are generated. That is, an image that can be seen from the VPL and VPR in the object space is generated.

図3、図4に左目用画像IL1、右目用画像IR1の一例を示す。これらは、カメラ(デジタルカメラ)による実写によりIL1、IR1を作成した場合の例である。基準面(物体が置かれる載置面)の上には、ミカン、箱、ボールペン、ステープラーなどの種々の物体(狭義には被写体又はオブジェクト。以下の説明でも同様)が配置されている。そして左目用画像IL1は、左目用視点位置VPLにカメラを配置して、物体(注視点、物体の代表点)の方にカメラの視線(方向)を向けて撮影したものである。また右目用画像IR1は、右目用視点位置VPRにカメラを配置して、物体の方にカメラの視線を向けて撮影したものである。そして図3、図4に示すように、これらの左目用、右目用画像IL1、IR1では視線角度(見え方)がずれており、この視線角度のずれによる両眼視差を利用して立体視が実現される。   3 and 4 show examples of the left-eye image IL1 and the right-eye image IR1. These are examples in the case where IL1 and IR1 are created by actual shooting with a camera (digital camera). Various objects such as mandarin oranges, boxes, ballpoint pens, and staplers (subjects or objects in a narrow sense; the same applies to the following description) are arranged on a reference surface (a placement surface on which an object is placed). The left-eye image IL1 is obtained by placing the camera at the left-eye viewpoint position VPL and taking the camera's line of sight (direction) toward the object (gaze point, representative point of the object). The right-eye image IR1 is obtained by placing a camera at the right-eye viewpoint position VPR and shooting with the camera's line of sight directed toward the object. As shown in FIGS. 3 and 4, the left-eye and right-eye images IL1 and IR1 have different viewing angles (appearance), and stereoscopic viewing is possible using binocular parallax due to the viewing angle deviation. Realized.

なお本実施形態では、立体視時において立体視用印刷物を載置する面(机やテーブルの面。水平面)を、基準面として設定できる。   In the present embodiment, the surface (desk or table surface; horizontal surface) on which the stereoscopic printed material is placed can be set as the reference surface during stereoscopic viewing.

また、CGやゲームの場合には、オブジェクト空間内に設定された基準面の上に、オブジェクト(ミカン、箱、ボールペン、ステープラー等をモデル化したオブジェクト)を配置し、VPL、VPRに仮想カメラを配置する。そして、仮想カメラの視線(方向)をオブジェクト(注視点、オブジェクトの代表点)の方に向けて、仮想カメラから見える画像を生成することで、図3、図4と同様な画像を生成できる。   In the case of a CG or a game, an object (an object that models a mandarin orange, a box, a ballpoint pen, a stapler, etc.) is placed on a reference plane set in the object space, and a virtual camera is placed in the VPL or VPR. Deploy. Then, by generating an image that can be seen from the virtual camera with the line of sight (direction) of the virtual camera directed toward the object (gaze point, representative point of the object), it is possible to generate an image similar to that in FIGS.

次に図1のステップS3に示すように、基準面BSでの画像のパースペクティブ(perspective)を無くすための補正処理を、ステップS1で得られた第1の左目用画像IL1に施し、第2の左目用画像IL2を作成(生成)する。またステップS4に示すように、基準面BSでの画像のパースペクティブ(遠近感)を無くすための補正処理を、ステップS2で得られた第1の右目用画像IR1に施し、第2の右目用画像IR2を作成(生成)する。   Next, as shown in step S3 of FIG. 1, the first left-eye image IL1 obtained in step S1 is subjected to correction processing for eliminating the perspective of the image on the reference plane BS, and the second The left eye image IL2 is created (generated). Further, as shown in step S4, the first right-eye image IR1 obtained in step S2 is subjected to correction processing for eliminating the perspective of the image on the reference plane BS, and the second right-eye image is obtained. IR2 is created (generated).

図5、図6に、補正処理により得られた左目用画像IL2、右目用画像IR2の一例を示す。例えば図3、図4では、基準面BSに描かれている長方形RTG(正方形も含む広義の意味の長方形。以下の説明でも同様)にパースペクティブがついている。これに対して図5、図6では、長方形RTGのパースペクティブが無くなっている。   5 and 6 show examples of the left-eye image IL2 and the right-eye image IR2 obtained by the correction process. For example, in FIGS. 3 and 4, a perspective is attached to a rectangle RTG drawn in the reference plane BS (a rectangle in a broad sense including a square, which is the same in the following description). On the other hand, in FIGS. 5 and 6, the perspective of the rectangular RTG is lost.

ここで、本実施形態におけるパースペクティブを無くす補正処理とは、図8(A)に示すように、基準面BS自体の画像や、基準面に描かれている画像IM1や、物体OB(オブジェクト)の画像のうち基準面BSに接する部分の画像のパースペクティブ(奥行き感)を無くす処理である。即ち図8(A)のB1では、視点から奥側に行くほど、頂点間の距離が狭まるが、図8(A)のB2では、視点から奥側に行っても、頂点間の距離が変わらない。このような補正処理を行うことで、基準面BSの画像については、あたかも真上から見たような画像が作成(生成)されるようになる。なお、この補正処理により、パースペクティブが完全に厳密に無くなる必要はなく、立体視に違和感が生じない程度にパースペクティブが無くなればよい。   Here, the correction process for eliminating the perspective in the present embodiment is, as shown in FIG. 8A, an image of the reference plane BS itself, an image IM1 drawn on the reference plane, and an object OB (object). This is a process for eliminating the perspective (depth feeling) of the image in the part of the image that is in contact with the reference plane BS. That is, in B1 of FIG. 8A, the distance between the vertices decreases as the distance from the viewpoint increases, but in B2 of FIG. 8A, the distance between the vertices changes even when the distance from the viewpoint increases. Absent. By performing such correction processing, an image as if viewed from directly above is created (generated) for the image of the reference surface BS. Note that the perspective does not need to be completely eliminated by this correction process, and it is sufficient that the perspective disappears to such an extent that a sense of incongruity does not occur.

次に図1のステップS5に示すように、第2の左目用画像IL2と第2の右目用画像IR2に基づき、立体視用画像(画像データ)を作成(生成)する。より具体的には、IL2とIR2とに基づきアナグリフ処理などを行って立体視用画像を作成(生成)する。   Next, as shown in step S5 of FIG. 1, a stereoscopic image (image data) is created (generated) based on the second left-eye image IL2 and the second right-eye image IR2. More specifically, a stereoscopic image is created (generated) by performing anaglyph processing or the like based on IL2 and IR2.

そして、この立体視用画像(実写画像又はCG画像)を、インクジェット方式やレーザプリンタ方式などのカラープリンタ(広義には印刷機)を用いて、印刷媒体に印刷することで、立体視用印刷物を製造できる。なお、カラープリンタ(印刷機)により印刷された原盤となる立体視用印刷物を複製することで、立体視用印刷物を製造してもよい。このようにすれば、立体視用印刷物を短期間で大量に製造できるという利点がある。   Then, this stereoscopic image (actual image or CG image) is printed on a print medium by using a color printer (printer in a broad sense) such as an ink jet method or a laser printer method, so that a printed matter for stereoscopic vision is obtained. Can be manufactured. In addition, you may manufacture the printed material for stereoscopic vision by duplicating the printed material for stereoscopic vision used as the original disc printed by the color printer (printing machine). In this way, there is an advantage that a large amount of stereoscopic printed material can be manufactured in a short period of time.

また立体視用画像を、画像生成システムの表示部に表示すれば、ゲーム画像(動画像)のリアルタイム生成が可能になる。なお、この場合に、アナグリフ処理等により得られた立体視用画像を直接に表示部に表示し、これを色フィルタ(赤、青)が設けられた眼鏡(広義には器具)を用いて見るようにしてもよい。或いは、左目用、右目用画像IL2、IR2を異なるフレームで例えば交互に表示部に表示し、これを液晶シャッタ等が設けられた眼鏡を用いて見るようにしてもよい。   If the stereoscopic image is displayed on the display unit of the image generation system, a game image (moving image) can be generated in real time. In this case, a stereoscopic image obtained by anaglyph processing or the like is directly displayed on the display unit, and this is viewed using glasses (equipment in a broad sense) provided with color filters (red and blue). You may do it. Alternatively, the left-eye and right-eye images IL2 and IR2 may be alternately displayed on the display unit in different frames, for example, and viewed using glasses provided with a liquid crystal shutter or the like.

図7に、図5、図6の左目用、右目用画像IL2、IR2に基づきアナグリフ処理を行うことで得られた立体視用画像の一例を示す。   FIG. 7 shows an example of a stereoscopic image obtained by performing anaglyph processing based on the left-eye and right-eye images IL2 and IR2 in FIGS.

この図7の立体視用画像では、左目用画像IL2(IL)と右目用画像IR2(IR)とが合成されている。そして左目用画像IL2と右目用画像IR2は、各々、基準面BSに配置された物体OBの画像を含む。また基準面BSの画像も含む。   In the stereoscopic image of FIG. 7, the left-eye image IL2 (IL) and the right-eye image IR2 (IR) are synthesized. The left-eye image IL2 and the right-eye image IR2 each include an image of the object OB arranged on the reference plane BS. It also includes an image of the reference plane BS.

そして図9のA1に示すように、左目用画像IL2の物体画像と右目用画像IR2の物体画像は、基準面BSの位置において一致している(但し必ずしも完全に一致している必要はない)。即ち、左目用画像IL2の物体画像の印刷位置(表示位置)と右目用画像の物体画像IR2の印刷位置(表示位置)が、基準面BSにおいて一致している。   As shown in A1 of FIG. 9, the object image of the left-eye image IL2 and the object image of the right-eye image IR2 match at the position of the reference plane BS (however, it is not always necessary to match completely). . That is, the printing position (display position) of the object image of the left-eye image IL2 and the printing position (display position) of the object image IR2 of the right-eye image are the same on the reference plane BS.

一方、図9のA2に示すように、基準面BSから離れるほど左目用画像IL2の物体画像と、右目用画像IR2の物体画像のずれが大きくなっている。より具体的には、物体OBの部分のうち基準面BSから上方に位置する部分の画像ほど、左目用画像IL2での印刷位置(表示位置)と、右目用画像IR2での印刷位置(表示位置)とがずれている。   On the other hand, as shown by A2 in FIG. 9, the distance between the object image of the left-eye image IL2 and the object image of the right-eye image IR2 increases as the distance from the reference plane BS increases. More specifically, the image of the portion of the object OB that is located above the reference plane BS is printed at the left eye image IL2 (display position) and at the right eye image IR2 (display position). ) Is off.

この図7、図9の立体視用画像をプリント媒体に印刷することで立体視用印刷物を製造できる。そして、その立体視用印刷物を、例えば左目に赤色フィルタが設けられ右目に青色フィルタが設けられた眼鏡で見ることで、立体視を実現できる。また図7、図9の立体視用画像を表示部に表示することで、立体視用のゲーム画像を生成できる。   A stereoscopic printed matter can be manufactured by printing the stereoscopic image shown in FIGS. 7 and 9 on a print medium. Then, stereoscopic viewing can be realized by viewing the printed material for stereoscopic viewing with glasses having a red filter on the left eye and a blue filter on the right eye, for example. Further, by displaying the stereoscopic image of FIGS. 7 and 9 on the display unit, it is possible to generate a stereoscopic game image.

さて、これまでの立体視では図8(B)に示すように、立体視用印刷物PM(或いは表示部の表示画面。以下の説明でも同様)を、その面が鉛直面に対して平行になるように配置し、観者が、立体視用印刷物PMを正対して見ることが想定されていた。このため、例えば図3、図4のような左目用、右目用画像IL1、IR1に対してそのままアナグリフ処理を施して、立体視用印刷物PMを作成していた。そして、図3、図4の画像ではパースペクティブが残っているため、図8(B)のように立体視用印刷物PMを正対して見た場合に、遠近感に関する限りは、正しい画像になる。   In the conventional stereoscopic vision, as shown in FIG. 8B, the plane of the stereoscopic printed matter PM (or the display screen of the display unit; the same applies to the following description) is parallel to the vertical plane. It was assumed that the viewer would see the stereoscopic printed matter PM facing each other. Therefore, for example, the left-eye and right-eye images IL1 and IR1 as shown in FIGS. 3 and 4 are subjected to anaglyph processing as they are to create a stereoscopic print PM. Since the perspectives remain in the images of FIGS. 3 and 4, when the stereoscopic printed material PM is viewed face to face as shown in FIG. 8B, the images are correct as far as perspective is concerned.

しかしながら図8(B)のように観者が立体視用印刷物PMを正対して見た場合に、ピント(焦点距離)については、PMの全面において同一になってしまう。従って、人間の脳内において、ピント調整と、両眼視差、輻輳との関係に矛盾や誤差が生じてしまう。従って、脳が無理に立体と関連づけようとして、不自然さを感じたり、立体として認知できなくなってしまう。また、従来の方式で作成された立体視用印刷物PMを、水平面に平行になるように机に配置して見てしまうと、奥行き感に矛盾が生じ、不自然な立体視になってしまう。即ち図3、図4の長方形RTGは、高さが零の平面であり、この長方形RTGが立体に見えてはいけないからである。   However, when the viewer looks at the stereoscopic printed matter PM as shown in FIG. 8B, the focus (focal length) is the same on the entire surface of the PM. Accordingly, in the human brain, contradiction and error occur in the relationship between focus adjustment, binocular parallax, and convergence. Therefore, when the brain tries to associate with a solid forcibly, it feels unnatural or cannot be recognized as a solid. Further, if the stereoscopic printed matter PM created by the conventional method is arranged on a desk so as to be parallel to a horizontal plane, the depth feeling becomes inconsistent, resulting in an unnatural stereoscopic view. That is, the rectangular RTG in FIGS. 3 and 4 is a plane having a height of zero, and this rectangular RTG should not appear as a solid.

そこで本実施形態では、図8(C)に示すように、立体視用印刷物PM(表示画面)を、観者が机(水平面に平行な基準面BS)の上に配置して見ることを想定するようにしている。即ち、このような配置が本方式のデフォルトの配置となる。そして、このように水平面に平行に立体視用印刷物PMを配置した場合に、図3、図4の画像をそのままアナグリフ処理して立体視用印刷物PMを作成すると、遠近感に矛盾が生じる。   Therefore, in this embodiment, as shown in FIG. 8C, it is assumed that the viewer sees the stereoscopic printed matter PM (display screen) placed on a desk (reference plane BS parallel to the horizontal plane). Like to do. That is, such an arrangement is the default arrangement of this method. When the stereoscopic printed matter PM is arranged in parallel with the horizontal plane as described above, if the images of FIGS. 3 and 4 are anaglyph processed as they are to create the stereoscopic printed matter PM, a contradiction occurs in perspective.

そこで本実施形態では図5、図6、図8(A)で説明したように、基準面の画像のパースペクティブを無くす補正処理を行う。そして基準面でのパースペクティブを無くした補正後の図5、図6の画像に基づいて、アナグリフ処理を行い、立体視用印刷物PMを作成し、作成された立体視用印刷物PMを図8(C)のように水平面に平行に配置すれば、基準面の画像(長方形RTG)には適正なパースペクティブがつくようになる。また、図8(C)のように配置すれば、立体視用印刷物PMの面上の各点の焦点距離が同一ではなく異なるようになる。このため、ピント調整についても現実世界のピント調整と近いものになる。従って、ピント調整と、両眼視差や輻輳との間の関係のずれも軽減され、より自然で、実在感のある立体視を実現できる。   Therefore, in this embodiment, as described with reference to FIGS. 5, 6, and 8A, correction processing is performed to eliminate the perspective of the reference plane image. Then, anaglyph processing is performed based on the corrected images of FIGS. 5 and 6 after eliminating the perspective on the reference plane, and a stereoscopic printed matter PM is created. The created stereoscopic printed matter PM is shown in FIG. If the reference plane image (rectangular RTG) is arranged parallel to the horizontal plane as in (), an appropriate perspective can be obtained. Moreover, if it arrange | positions like FIG.8 (C), the focal distance of each point on the surface of the printed matter PM for stereoscopic vision will become different instead of being the same. For this reason, the focus adjustment is similar to that in the real world. Therefore, the shift in the relationship between the focus adjustment and the binocular parallax and the convergence is reduced, and a more natural and realistic stereoscopic vision can be realized.

なお、本実施形態の立体視方式では、物体の高さが高い場合に奥行き感等にずれが生じる可能性がある。このような場合には例えば図10に示すように、2つの基準面BS1、BS2(広義には複数の基準面)を設ければよい。   Note that, in the stereoscopic viewing method of the present embodiment, when the height of the object is high, there may be a shift in the depth feeling or the like. In such a case, for example, as shown in FIG. 10, two reference surfaces BS1 and BS2 (a plurality of reference surfaces in a broad sense) may be provided.

ここで基準面BS1は例えば水平面に平行な面である。一方、基準面BS2は、基準面BS1と所定の角度(例えば直角)をなす面である。そして、基準面BS1、BS2は境界BDにおいて連結されている。   Here, the reference plane BS1 is, for example, a plane parallel to the horizontal plane. On the other hand, the reference surface BS2 is a surface that forms a predetermined angle (for example, a right angle) with the reference surface BS1. The reference surfaces BS1 and BS2 are connected at the boundary BD.

物体OB(オブジェクト)は、基準面BS1の上方で且つ基準面BS2の手前側(VPL、VPR側)に配置する。そして図1の代わりに図11に示す処理を行う。   The object OB (object) is arranged above the reference surface BS1 and on the front side (VPL, VPR side) of the reference surface BS2. Then, the processing shown in FIG. 11 is performed instead of FIG.

図11のステップS11、S12は、図1のステップS1、S2と同様である。そしてステップS13では、基準面BS1でのパースペクティブを無くすための補正処理を、左目用画像IL1の基準面BS1に対応する領域(IL1のうち境界BDを基準にしてBS1側の第1の領域)に対して施す。また、基準面BS2でのパースペクティブを無くすための補正処理を、IL1の基準面BS2に対応する領域(IL1のうち境界BDを基準にしてBS2側の第2の領域)に対して施す。そして、これらの補正処理により生成された
画像を繋げた画像である左目用画像Il2を作成(生成)する。
Steps S11 and S12 in FIG. 11 are the same as steps S1 and S2 in FIG. In step S13, correction processing for eliminating the perspective on the reference plane BS1 is performed on the area corresponding to the reference plane BS1 of the left-eye image IL1 (the first area on the BS1 side of IL1 with reference to the boundary BD). Apply to. Further, correction processing for eliminating the perspective on the reference surface BS2 is performed on the region corresponding to the reference surface BS2 of IL1 (the second region on the BS2 side of IL1 with reference to the boundary BD). Then, a left-eye image Il2 that is an image obtained by connecting the images generated by these correction processes is created (generated).

またステップS14では、基準面BS1でのパースペクティブを無くすための補正処理を、右目用画像IR1の基準面BS1に対応する領域(IR1のうち境界BDを基準にしてBS1側の第1の領域)に対して施す。また、基準面BS2でのパースペクティブを無くすための補正処理を、IR1の基準面BS2に対応する領域(IR1のうち境界BDを基準にしてBS2側の第2の領域)に対して施す。そして、これらの補正処理により生成された画像を繋げた画像である右目用画像IR2を作成(生成)する。   In step S14, correction processing for eliminating the perspective on the reference surface BS1 is performed on the region corresponding to the reference surface BS1 of the right-eye image IR1 (the first region on the BS1 side of the IR1 with reference to the boundary BD). Apply to. Further, correction processing for eliminating the perspective on the reference surface BS2 is performed on the region corresponding to the reference surface BS2 of IR1 (the second region on the BS2 side of IR1 with reference to the boundary BD). Then, a right-eye image IR2 that is an image obtained by connecting the images generated by these correction processes is created (generated).

そして最後にステップS15のように、IL2、IR2に基づき、例えばアナグリフ処理等を行って、立体視用画像を作成(生成)する。そして、得られた立体視用画像を印刷媒体に印刷して立体視用印刷物を製造したり、立体視用画像を表示部に表示することでリアルタイム動画像であるゲーム画像を生成する。   Finally, as in step S15, based on IL2 and IR2, for example, an anaglyph process is performed to create (generate) a stereoscopic image. Then, the obtained stereoscopic image is printed on a printing medium to produce a stereoscopic printed material, or the stereoscopic image is displayed on the display unit to generate a game image that is a real-time moving image.

このようにすることで図12に示すように、OBが、基準面BS1からの高さが高い物体である場合にも、より自然で、実在感のある立体視を実現できる。即ち、物体OBの足下付近の領域(境界BSの下側の第1の領域)では、基準面BS1を利用した立体視の処理により、奥行き感やピント調整に無理の無い立体視を実現できる。一方、それ以外の領域(境界BSの上側の第2の領域)では、基準面BS2を利用した立体視の処理により、奥行き感に無理の無い立体視を実現できる。   By doing so, as shown in FIG. 12, even when the OB is an object having a high height from the reference plane BS1, a more natural and realistic stereoscopic vision can be realized. That is, in the region near the foot of the object OB (the first region below the boundary BS), stereoscopic processing using the reference plane BS1 can realize stereoscopic viewing that does not make sense of depth and focus adjustment. On the other hand, in other regions (second region on the upper side of the boundary BS), stereoscopic viewing without a sense of depth can be realized by the stereoscopic processing using the reference plane BS2.

なお、基準面は2つに限定されず、3つ以上の基準面(連結された複数の基準面)を用いてもよい。   The reference plane is not limited to two, and three or more reference planes (a plurality of linked reference planes) may be used.

2.第2の立体視方式
図13に本実施形態の第2の立体視方式のフローチャートを示す。前述の図1の方式は、カメラにより実写した画像を用いて立体視用印刷物を作成するのに最適な方式であるのに対して、図13の方式は、CG画像を用いて立体視用印刷物を作成するのに最適な方式である。
2. Second Stereoscopic Viewing Method FIG. 13 shows a flowchart of the second stereoscopic viewing method of the present embodiment. The above-described method of FIG. 1 is an optimal method for creating a stereoscopic print using an image captured by a camera, whereas the method of FIG. 13 uses a CG image to provide a stereoscopic print. Is the best way to create

まず、左目用視点位置VPLとオブジェクトOBの各点を結ぶ投影方向で、基準面BS(図10の場合はBS1又はBS2)にOBの各点を投影して基準面BSにレンダリングし、左目用画像ILを作成(生成)する(ステップS21)。   First, in the projection direction connecting the left eye viewpoint position VPL and each point of the object OB, each point of OB is projected on the reference surface BS (BS1 or BS2 in the case of FIG. 10) and rendered on the reference surface BS, and the left eye An image IL is created (generated) (step S21).

次に、右目用視点位置VPRとオブジェクトOBの各点を結ぶ投影方向で、基準面BS(図10の場合はBS1又はBS2)にOBの各点を投影して基準面BSにレンダリングし、右目用画像IRを作成(生成)する(ステップS22)。なお、基準面BSは、例えば視線方向(視点位置と注視点を結ぶ方向)に直交しない面である。即ち、基準面BSは、視線方向に常に直交する透視投影スクリーンとは異なる面である。   Next, in the projection direction connecting the right eye viewpoint position VPR and each point of the object OB, each point of OB is projected onto the reference plane BS (BS1 or BS2 in the case of FIG. 10) and rendered on the reference plane BS, and the right eye A production image IR is created (generated) (step S22). Note that the reference surface BS is a surface that is not orthogonal to, for example, the line-of-sight direction (the direction connecting the viewpoint position and the gazing point). That is, the reference plane BS is a plane different from the perspective projection screen that is always orthogonal to the line-of-sight direction.

ステップS21、S22の処理では、VPL(或いはVPR)からオブジェクトOBの方に向かって仮想的な光を投射し、その光を用いて、OBの画像を基準面BS(BS1又はBS2)である仮想紙に焼き付けるようにして、仮想紙にレンダリングする。これにより、図14(A)に示すように、オブジェクトOBの点P1、P2、P3、P4の画像(色等のプロパティ)が、基準面BS上の投影点P1’、P2’、P3’、P4’にレンダリングされる。なお、基準面BS上の点P5、P6の画像については、そのまま、その点P5、P6の位置にレンダリングされる。そして例えば図14(B)に示すように、基準面BS(仮想紙)の全面をラスタスキャンするようにレンダリングすることで、図5、図6のIL2、IR2と同様の左目用画像IL、右目用画像IRを作成できる。即ち、基準面の画像のパースペクティブが無くなった左目用、右目用画像IL、IRを作成できる。   In the processing of steps S21 and S22, virtual light is projected from the VPL (or VPR) toward the object OB, and the image of the OB is a virtual that is the reference plane BS (BS1 or BS2) using the light. Render to virtual paper as if it were burned on paper. Thereby, as shown in FIG. 14A, the images (properties such as colors) of the points P1, P2, P3, and P4 of the object OB are projected points P1 ′, P2 ′, P3 ′, Rendered to P4 ′. Note that the images of the points P5 and P6 on the reference plane BS are rendered as they are at the positions of the points P5 and P6. Then, for example, as shown in FIG. 14B, rendering is performed so that the entire surface of the reference surface BS (virtual paper) is raster-scanned, whereby the left-eye image IL, the right-eye image similar to IL2 and IR2 in FIGS. An image IR can be created. That is, it is possible to create the left-eye and right-eye images IL and IR without the perspective of the reference plane image.

そして、これらの左目用、右目用画像IL、IRに基づき、例えばアナグリフ処理等を行って、立体視用画像を作成(生成)する(ステップS23)。これにより、図7に示すような立体視用画像を得ることができる。そして、得られた立体視用画像を印刷媒体に印刷して立体視用印刷物を製造したり、立体視用画像を表示部に表示することでゲーム画像を生成できる。   Then, based on these left-eye and right-eye images IL and IR, for example, an anaglyph process is performed to create (generate) a stereoscopic image (step S23). Thereby, a stereoscopic image as shown in FIG. 7 can be obtained. Then, the obtained stereoscopic image is printed on a print medium to produce a stereoscopic print, or the game image can be generated by displaying the stereoscopic image on the display unit.

そして例えば図14(C)に示すように立体視用印刷物PM(或いは表示画面)を水平面(基準面)に平行になるように配置して見ることで、より自然で実在感のある立体視を実現できる。   For example, as shown in FIG. 14C, the stereoscopic printed matter PM (or display screen) is arranged so as to be parallel to the horizontal plane (reference plane), so that a more natural and realistic stereoscopic view can be obtained. realizable.

例えば図15(A)では、オブジェクトOBを透視投影スクリーンSCR(視線方向に直交する面)に透視投影して左目用画像、右目用画像を作成している。そして、得られた左目用画像、右目用画像を合成して立体視用印刷物PMを作成する。そして図15(B)に示すように、観者は、立体視用印刷物PMに正対してPMを見ることになる。   For example, in FIG. 15A, an object OB is perspectively projected on a perspective projection screen SCR (a plane orthogonal to the line-of-sight direction) to create a left-eye image and a right-eye image. Then, the obtained left-eye image and right-eye image are synthesized to create a stereoscopic printed matter PM. Then, as shown in FIG. 15B, the viewer sees the PM facing the stereoscopic printed material PM.

この図15(A)の方式では、オブジェクトOBの点P2、P3は、投影投影スクリーンSCR上の点P2”、P3”に投影される。そして、立体視用印刷物PMは図15(B)のように正対して見ることになるため、P2”、P3”の焦点距離差L2が0になってしまう。即ち、実際の点P2、P3の焦点距離差L1は0ではないのに、L2が0となるため、ピント調整が実際のものと異なってしまう。従って、ピント調整と両眼視差の関係に矛盾が生じ、人間の脳に混乱が生じ、違和感のある立体視になってしまう。   In the method of FIG. 15A, the points P2 and P3 of the object OB are projected onto the points P2 ″ and P3 ″ on the projection projection screen SCR. Then, since the stereoscopic printed matter PM is viewed directly facing as shown in FIG. 15B, the focal length difference L2 between P2 ″ and P3 ″ becomes zero. That is, since the focal length difference L1 between the actual points P2 and P3 is not 0 but L2 is 0, the focus adjustment is different from the actual focus adjustment. Accordingly, a contradiction arises in the relationship between the focus adjustment and the binocular parallax, and the human brain is confused, resulting in an uncomfortable stereoscopic view.

これに対して本実施形態では、立体視用印刷物PM(表示画面)を図14(C)に示すように机に置いて見ることになるため、図14(A)に示すように、点P2’、P3’の焦点距離差L2は、実際の点P1、P2の焦点距離差L1と同様に、0ではない。従って手前の部分(点P2)は手前に見え、奥にある部分(P3)は奥に見えるようになるため、ピント調整と両眼視差の関係に矛盾が生じず、人間の脳に混乱が生じないため、より自然な立体視を実現できる。   On the other hand, in the present embodiment, the stereoscopic printed matter PM (display screen) is placed on a desk as shown in FIG. 14C, and therefore, as shown in FIG. The focal length difference L2 of ', P3' is not 0, like the focal length difference L1 of the actual points P1, P2. Therefore, the front part (point P2) can be seen in the front, and the back part (P3) can be seen in the back, so there is no contradiction between the focus adjustment and the binocular parallax, and the human brain is confused. Therefore, more natural stereoscopic vision can be realized.

即ち本実施形態は、立体視用印刷物PMを机に置いて斜めから見る方式であるため、机の面と、立体視の対象となるオブジェクトOBが載っている基準面BS(零面)とは、同一面となり、現実的であり、立体視に無理が生じない。そして、オブジェクトOBが、基準面BS(零面)に対して、数センチメートルだけ浮き上がって見える様子を表現できればよいため、奥行き方向についての矛盾はほとんど生じない。しかも、基準面BSが机の面であるため、あたかも机の上に本当に立体の物体が配置されているかのように見え、物体の実在感が向上する。即ち従来の図15(A)、(B)の方式では、基準面があやふやであるため、立体感は確かにあるが、物体の実在感が幻のようにしかならなかったのである。   That is, in this embodiment, since the stereoscopic printed matter PM is placed on a desk and viewed from an oblique direction, the desk surface and the reference plane BS (zero plane) on which the object OB to be stereoscopically viewed is placed are described. It becomes the same surface, is realistic, and does not cause unreasonable stereoscopic vision. The object OB only needs to be able to express the appearance that the object OB is lifted by a few centimeters with respect to the reference plane BS (zero plane), so that there is almost no contradiction in the depth direction. In addition, since the reference surface BS is a desk surface, it looks as if a three-dimensional object is actually placed on the desk, and the realism of the object is improved. That is, in the conventional method shown in FIGS. 15A and 15B, the reference surface is dim, so that there is a certain three-dimensional effect, but the real sense of the object has only become a phantom.

なお、図13の方式においても、図10で説明したように、複数の基準面を設定して立体視用画像を作成(生成)してもよい。この場合には、図13のステップS21、S22において、基準面BS1に投影される点については基準面BS1にレンダリングし、基準面BS2に投影される点については基準面BS2にレンダリングすればよい。   In the method of FIG. 13, as described with reference to FIG. 10, a plurality of reference planes may be set to create (generate) a stereoscopic image. In this case, in steps S21 and S22 of FIG. 13, the points projected on the reference plane BS1 may be rendered on the reference plane BS1, and the points projected on the reference plane BS2 may be rendered on the reference plane BS2.

3.アナグリフ処理
次に図1のステップS5、図11のステップS15、図13のステップS23で行われるアナグリフ処理について簡単に説明する。
3. Anaglyph Processing Next, the anaglyph processing performed in step S5 in FIG. 1, step S15 in FIG. 11, and step S23 in FIG. 13 will be briefly described.

アナグリフ処理では、1枚の印刷媒体に、左目用画像と右目用画像を色を変えて印刷し
て、立体視用印刷物を作成する。そしてこの立体視用印刷物を、左右の目で異なる色フィルタ(例えば左目が赤、右目が青)を介して見る。この時に、左目では左目用画像だけが見え、右目では右目用画像だけが見えるようになり、立体視が実現される。
In the anaglyph process, the left-eye image and the right-eye image are printed on a single print medium with different colors to create a stereoscopic print. The stereoscopic print is viewed through different color filters (for example, the left eye is red and the right eye is blue) between the left and right eyes. At this time, only the image for the left eye can be seen with the left eye, and only the image for the right eye can be seen with the right eye, thereby realizing stereoscopic viewing.

例えばモノクロのアナグリフ処理では、左目用画像(IL2、IL)をグレースケールに変換する。そして変換後の画像データをアナグリフ画像(RGB)のRチャンネルにコピーする。次に、右目用画像(IR2、IR)をグレースケールに変換する。そして変換後の画像データを、アナグリフ画像(RGB)のGチャンネルとBチャンネルにコピーする。これにより、モノクロのアナグリフ画像が作成される。なお、右目用画像をBチャンネルだけにコピーするようにしてもよい。   For example, in monochrome anaglyph processing, the image for the left eye (IL2, IL) is converted to gray scale. Then, the converted image data is copied to the R channel of the anaglyph image (RGB). Next, the image for the right eye (IR2, IR) is converted to gray scale. Then, the converted image data is copied to the G channel and B channel of the anaglyph image (RGB). Thereby, a monochrome anaglyph image is created. Note that the right-eye image may be copied only to the B channel.

またカラーのアナグリフ処理では、左目用画像(IL2、IL)のRチャンネルを、アナグリフ画像(RGB)のRチャンネルにコピーする。また右目用画像(IR2、IR)のGチャンネルを、アナグリフ画像(RGB)のGチャンネルにコピーする。また右目用画像のBチャンネルをアナグリフ画像(RGB)のBチャンネルにコピーする。これにより、カラー(疑似カラー)のアナグリフ画像を作成できる。   In color anaglyph processing, the R channel of the left-eye image (IL2, IL) is copied to the R channel of the anaglyph image (RGB). The G channel of the right eye image (IR2, IR) is copied to the G channel of the anaglyph image (RGB). Also, the B channel of the right eye image is copied to the B channel of the anaglyph image (RGB). Thereby, a color (pseudo-color) anaglyph image can be created.

なお、立体視の実現手法(図1のステップS5、図11のステップS15、図13のステップS23)は、少なくとも、左目用画像(IL2、IL)と右目用画像(IR2、IR)を用いて実現されるものであればよく、アナグリフ処理に限定されない。   Note that the method for realizing stereoscopic vision (step S5 in FIG. 1, step S15 in FIG. 11, and step S23 in FIG. 13) uses at least a left-eye image (IL2, IL) and a right-eye image (IR2, IR). What is realized is not limited to anaglyph processing.

例えばレンチキュラーレンズと呼ばれる特殊なレンズを使って、左目には左目用画像の像だけが入り、右目には右目用画像の像だけが入るようにして、立体視を実現していもよい。   For example, using a special lens called a lenticular lens, stereoscopic vision may be realized such that only the image for the left eye enters the left eye and only the image for the right eye enters the right eye.

また左目用画像、右目用画像の前に偏光板を配置し、左目用画像の前に置かれた偏光板と右目用画像の前に置かれた偏光板とで、偏向方向を異ならせておく。そして、それに応じた偏向方向を持つ偏光板をレンズ部分に取り付けた眼鏡を観者がかけることで、立体視を実現してもよい。   In addition, a polarizing plate is disposed in front of the left-eye image and the right-eye image, and the polarizing direction is different between the polarizing plate placed in front of the left-eye image and the polarizing plate placed in front of the right-eye image. . Then, stereoscopic viewing may be realized by the viewer wearing spectacles in which a polarizing plate having a deflection direction corresponding thereto is attached to the lens portion.

また左目用画像と右目用画像を、例えばフレームを異ならせて交互に表示する。そして左目用画像の表示に同期して開く左目用のシャッター(例えば液晶シャッター)と、右目用画像の表示に同期して開く右目用のシャッターが設けられた眼鏡を観者がかけることで、立体視を実現してもよい。   Also, the left-eye image and the right-eye image are displayed alternately, for example, with different frames. Then, the viewer wears glasses equipped with a shutter for the left eye (for example, a liquid crystal shutter) that opens in synchronization with the display of the image for the left eye and a shutter for the right eye that opens in synchronization with the display of the image for the right eye. Visualization may be realized.

4.視点位置の設定
次に視点位置の設定手法について説明する。
4). Setting the viewpoint position Next, a method for setting the viewpoint position will be described.

図2、図10の左目用、右目用視点位置VPL、VPRは、立体視用印刷物や立体視用表示画面を観者が実際に見る時の観者の左目、右目の想定位置に基づいて配置することが望ましい。例えば図2、図10において、物体OB(オブジェクト、被写体)と観者の目との間の距離DVB(例えば40cm)、視線角度θ(視線方向SL)、両目間の距離DLR(例えば7cm)に基づいて、左目用、右目用視点位置VPL、VPRを設定する。   The left-eye and right-eye viewpoint positions VPL and VPR in FIGS. 2 and 10 are arranged based on the assumed positions of the left and right eyes of the viewer when the viewer actually views the stereoscopic print or the stereoscopic display screen. It is desirable to do. For example, in FIGS. 2 and 10, the distance DVB (for example, 40 cm) between the object OB (object, subject) and the viewer's eyes, the viewing angle θ (the viewing direction SL), and the distance DLR (for example, 7 cm) between the eyes. Based on this, the left-eye and right-eye viewpoint positions VPL and VPR are set.

但し、縮小表示や拡大表示を行う場合には、縮小率や拡大率に応じてVPL、VPRの位置を移動させる。この場合には図16に示すような手法で視点位置を移動させることが望ましい。   However, when performing reduction display or enlargement display, the positions of VPL and VPR are moved according to the reduction ratio and the enlargement ratio. In this case, it is desirable to move the viewpoint position by a method as shown in FIG.

例えば物体OB(被写体、オブジェクト)と視点位置(VPLとVPRの中点CP)と間の距離DVBを長くした場合には、その長さの変化(比)に応じて、左目用視点位置V
PLと右目用視点位置VPRとの間の距離DLRを長くする。即ち例えばDVBの長さの変化に比例してDLRを長くする。
For example, when the distance DVB between the object OB (subject, object) and the viewpoint position (middle point CP of VPL and VPR) is increased, the left-eye viewpoint position V according to the change (ratio) of the length.
The distance DLR between the PL and the right eye viewpoint position VPR is increased. That is, for example, the DLR is lengthened in proportion to the change in the length of DVB.

また物体OB(被写体、オブジェクト)と視点位置(VPLとVPRの中点CP)との間の距離DVBを変化させる場合に、基準面BSに対して所定の角度θをなす直線LN(視線方向)に沿って移動するように、視点位置(中点CP、VPL、VPR)を移動させる。   Further, when changing the distance DVB between the object OB (subject, object) and the viewpoint position (middle point CP of VPL and VPR), a straight line LN (line-of-sight direction) forming a predetermined angle θ with respect to the reference plane BS. The viewpoint position (midpoint CP, VPL, VPR) is moved so as to move along.

このようにすることで、VPL、VPRを移動させた場合にも、距離DVBや距離DLRが等倍比で変化するようになるため、立体感に破綻が生じる事態を防止できる。これにより、適正な立体感を維持しながら縮小表示や拡大表示を実現できるようになる。   In this way, even when the VPL and VPR are moved, the distance DVB and the distance DLR change at the same magnification ratio, so that it is possible to prevent a situation in which the stereoscopic effect is broken. Thereby, reduction display and enlargement display can be realized while maintaining an appropriate stereoscopic effect.

5.実写画像を用いた立体視用印刷物の作成
次に、実写画像を用いて立体視用印刷物を作成(製造)する手法の詳細について説明する。この場合には図1で説明した第1の立体視方式が適している。
5. Next, details of a method of creating (manufacturing) a stereoscopic print using a real image will be described. In this case, the first stereoscopic method described with reference to FIG. 1 is suitable.

実写画像を用いる場合には、撮影時の環境をそのまま再現する必要がある。従って、観者が見る時の位置関係に近いレイアウトで、実写用のカメラ(デジタルカメラ等)を配置する。例えば標準的な机に立体視用印刷物等を置いて、観者が椅子に座って見た場合を想定して、実写用のカメラを配置する。   When using a photographed image, it is necessary to reproduce the environment at the time of photographing as it is. Accordingly, a camera for actual shooting (such as a digital camera) is arranged in a layout close to the positional relationship when the viewer looks. For example, a stereoscopic print is placed on a standard desk, and a live-action camera is arranged assuming that the viewer is sitting on a chair and watching.

5.1 基準面が1つの場合
図2のように基準面が1つである場合には、両目間の距離DLR(約7cm)、視点と被写体OBとの距離DVB、視線の角度θ、印刷紙の縦サイズD1、横サイズD2(印刷範囲)を設定する。
5.1 When there is a single reference plane When there is a single reference plane as shown in FIG. 2, the distance DLR (approximately 7 cm) between both eyes, the distance DVB between the viewpoint and the subject OB, the viewing angle θ, the printing The vertical size D1 and horizontal size D2 (printing range) of the paper are set.

次に観者の左目、右目の位置と想定される位置にカメラを配置する。そして印刷範囲(D1、D2)の目安となるマークMK1〜MK4(第1〜第4のマーク)が書かれた紙を置く。このマークMK1〜MK4は、基準面BS上の長方形(正方形も含む広義の長方形)の頂点を構成する。   Next, a camera is arranged at a position assumed to be the position of the left eye and right eye of the viewer. Then, paper on which marks MK1 to MK4 (first to fourth marks) serving as a guide for the printing range (D1, D2) are written is placed. The marks MK1 to MK4 constitute the vertices of a rectangle (a broad rectangle including a square) on the reference plane BS.

次に、被写体OBを紙に載せる。この時に、カメラの位置から見て、マークMK1〜MK4で構成される長方形(印刷範囲)の外に被写体OBがはみ出さないように、OBを置く。そして、左目、右目の位置と想定される位置にセッティングされたカメラを用いて、被写体OBとマークMK1〜MK4が入るように撮影し、図3、図4に示すような左目用、右目用の画像IL1、IR1を作成する。   Next, the subject OB is placed on paper. At this time, the OB is placed so that the subject OB does not protrude outside the rectangle (printing range) constituted by the marks MK1 to MK4 when viewed from the camera position. Then, using a camera set at a position assumed to be the position of the left eye and the right eye, the subject OB and the marks MK1 to MK4 are photographed so that the left eye and the right eye as shown in FIGS. Images IL1 and IR1 are created.

次に、撮影された左目用、右目用画像IL1、IR1を画像生成システム(パーソナルコンピュータ、情報処理装置)に取り込み、画面上に表示する。そして表示された画像の中から、紙のマークMK1〜MK4を見つけ出す。   Next, the captured left-eye and right-eye images IL1 and IR1 are loaded into an image generation system (personal computer, information processing apparatus) and displayed on the screen. Then, paper marks MK1 to MK4 are found from the displayed image.

次に、図17に示すように、D1対D2の縦横比の長方形(正方形も含む広義の意味の長方形)の頂点VX1〜VX4の位置に、マークMK1〜MK4を移動させて、画像をゆがめる補正処理を行う。この補正処理を、左目用、右目用画像IL1、IR1のそれぞれに対して行うことで、図5、図6の示すような左目用、右目用画像IL2、IR2を作成する。   Next, as shown in FIG. 17, correction is performed by moving the marks MK1 to MK4 to the positions of the vertices VX1 to VX4 of the rectangle having the aspect ratio of D1 to D2 (a rectangle in a broad sense including a square) to distort the image. Process. By performing this correction process on each of the left-eye and right-eye images IL1 and IR1, left-eye and right-eye images IL2 and IR2 as shown in FIGS. 5 and 6 are created.

次に、印刷範囲以外の余計な部分をトリミングする。そして、アナグリフ処理のソフトウェアを使用して、左目用、右目用画像IL2、IR2から、図7に示すような立体視用画像(アナグリフ画像)を作成する。そして、得られた立体視用画像を、D1、D2のサ
イズの印刷範囲で紙に印刷して、立体視用印刷物を完成する。
Next, an extra portion outside the printing range is trimmed. Then, using the anaglyph processing software, a stereoscopic image (anaglyph image) as shown in FIG. 7 is created from the left-eye and right-eye images IL2 and IR2. Then, the obtained stereoscopic image is printed on paper in a printing range having a size of D1 and D2, thereby completing a stereoscopic print.

5.2 基準面が2つの場合
図10のように基準面を2つ設ける場合には、両目間の距離DLR(約7cm)、視点と被写体OBとの距離DVB、視線の角度θ、印刷紙の縦サイズD1、横サイズD2、高さサイズD3(印刷範囲)を設定する。
5.2 When there are two reference planes When two reference planes are provided as shown in FIG. 10, the distance DLR (approximately 7 cm) between the eyes, the distance DVB between the viewpoint and the subject OB, the angle of view θ, the printing paper Vertical size D1, horizontal size D2, and height size D3 (printing range) are set.

次に、観者の左目、右目の位置と想定される位置にカメラを配置する。そして印刷範囲(D1、D2)の目安となるマークMK1〜MK4(第1〜第4のマーク)が書かれた1枚目の紙(基準面BS1)を置く。このマークMK1〜MK4は、基準面BS1上の長方形の頂点を構成する。   Next, cameras are arranged at positions assumed to be the positions of the left eye and right eye of the viewer. Then, the first sheet of paper (reference surface BS1) on which marks MK1 to MK4 (first to fourth marks) serving as guidelines for the printing range (D1, D2) are written is placed. The marks MK1 to MK4 constitute rectangular vertices on the reference plane BS1.

次に、印刷範囲(D2、D3)の目安となるマークMK5〜MK8(第5〜第8のマーク)が書かれた2枚目の紙(基準面BS2)を、1枚目の紙の後ろに垂直に立てて置く。このマークMK5〜MK8は、基準面BS2上の長方形の頂点を構成する。   Next, the second sheet of paper (reference surface BS2) on which marks MK5 to MK8 (fifth to eighth marks) serving as a guide for the printing range (D2, D3) are written is placed behind the first sheet. Stand vertically. The marks MK5 to MK8 constitute rectangular vertices on the reference plane BS2.

次に、被写体OBを1枚目の紙に載せる。この時に、カメラの位置から見て、マークMK1〜MK4で構成される長方形及びマークMK5〜MK8で構成される長方形(印刷範囲)の外に被写体OBがはみ出さないように、OBを置く。そして、左目、右目の位置と想定される位置にセッティングされたカメラを用いて、被写体OBとマークMK1〜MK4、MK5〜MK8が入るように撮影し、左目用、右目用の画像IL1、IR1(写真)を作成する。   Next, the subject OB is placed on the first sheet. At this time, the OB is placed so that the subject OB does not protrude outside the rectangle composed of the marks MK1 to MK4 and the rectangle composed of the marks MK5 to MK8 (printing range) when viewed from the camera position. Then, using a camera set at a position assumed to be the position of the left eye and the right eye, the subject OB and the marks MK1 to MK4 and MK5 to MK8 are photographed, and the left and right eye images IL1 and IR1 ( Photo).

次に、撮影された左目用、右目用画像IL1、IR1を画像生成システム(パーソナルコンピュータ)に取り込み、画面上に表示する。そして表示された画像の中から、紙のマークMK1〜MK4、MK5〜MK8を見つけ出す。なお、マークMK3、MK4とMK6、MK5は同じマークとすることができる。   Next, the captured left-eye and right-eye images IL1 and IR1 are taken into an image generation system (personal computer) and displayed on the screen. Then, paper marks MK1 to MK4 and MK5 to MK8 are found from the displayed images. The marks MK3, MK4 and MK6, MK5 can be the same mark.

次に、図18に示すように、D1対D2の縦横比の長方形の頂点VX1〜VX4の位置に、マークMK1〜MK4を移動させて、画像をゆがめる補正処理を行う。また、D3対D2の縦横比の長方形の頂点VX5〜VX8の位置に、マークMK5〜MK8を移動させて、画像をゆがめる補正処理を行う。そして、得られた2枚の画像を繋げる。この補正処理を、左目用、右目用画像IL1、IR1のそれぞれに対して行うことで、左目用、右目用画像IL2、IR2を作成する。   Next, as shown in FIG. 18, correction processing is performed to distort the image by moving the marks MK1 to MK4 to the positions of the vertices VX1 to VX4 of the rectangle having the aspect ratio of D1 to D2. Further, correction processing is performed to distort the image by moving the marks MK5 to MK8 to the positions of the vertices VX5 to VX8 of the rectangle having the aspect ratio of D3 to D2. Then, the obtained two images are connected. By performing this correction process on each of the left-eye and right-eye images IL1 and IR1, left-eye and right-eye images IL2 and IR2 are created.

次に、印刷範囲以外の余計な部分をトリミングする。そして、アナグリフ処理のソフトウェアを使用して、左目用、右目用画像IL2、IR2から、立体視用画像(アナグリフ画像)を作成する。そして、得られた立体視用画像を、D1、D2、D3のサイズの印刷範囲で紙に印刷して、立体視用印刷物を完成する。   Next, an extra portion outside the printing range is trimmed. Then, a stereoscopic image (anaglyph image) is created from the left-eye and right-eye images IL2 and IR2 using anaglyph processing software. Then, the obtained stereoscopic image is printed on paper in a printing range having a size of D1, D2, and D3 to complete a stereoscopic print.

6.CG画像を用いた立体視用印刷物の作成
次に、CG(コンピュータグラフィックス)画像を用いて立体視用印刷物を作成(製造)する手法について説明する。この場合には図13で説明した第2の立体視方式が適している。但し図1の第1の立体視方式で実現することも可能である。
6). Creation of Stereoscopic Print Using CG Image Next, a method for creating (manufacturing) a stereoscopic print using a CG (computer graphics) image will be described. In this case, the second stereoscopic method described with reference to FIG. 13 is suitable. However, it can also be realized by the first stereoscopic method of FIG.

まず、観者が見る時の位置関係に近いレイアウトで、仮想カメラ(視点)をオブジェクト空間内に配置する。例えば標準的な机に立体視用印刷物等を置いて、観者が椅子に座って見た場合を想定して、仮想カメラを配置する。   First, a virtual camera (viewpoint) is arranged in the object space with a layout close to the positional relationship when the viewer looks. For example, a virtual camera is arranged on the assumption that a stereoscopic print or the like is placed on a standard desk and a viewer sits on a chair.

そして図2のように、両目間の距離DLR(約7cm)、視点とオブジェクトOBとの
距離DVB、視線の角度θ、印刷紙の縦サイズD1、横サイズD2(印刷範囲)を設定する。
Then, as shown in FIG. 2, the distance DLR (about 7 cm) between the eyes, the distance DVB between the viewpoint and the object OB, the line-of-sight angle θ, the vertical size D1 of the printing paper, and the horizontal size D2 (printing range) are set.

次に観者の左目、右目の位置と想定される位置に仮想カメラを配置する。そして仮想紙(仮想紙オブジェクト)上にオブジェクトを配置する。   Next, virtual cameras are arranged at positions assumed to be the positions of the left eye and right eye of the viewer. Then, the object is arranged on the virtual paper (virtual paper object).

次に、左目用視点位置VPLからオブジェクトOBの方に向かって仮想的な光を投射し、その光を用いて、OBの画像を仮想紙に焼き付けるようにしてレンダリングする。これにより左目用画像ILが作成される。これは、目から見た画像を、机の上の仮想紙にプロジェクタで投射する処理と同様の処理である。   Next, virtual light is projected from the left-eye viewpoint position VPL toward the object OB, and rendering is performed using the light so that the image of the OB is printed on virtual paper. Thereby, the image for left eye IL is created. This is a process similar to the process of projecting an image viewed from the eye onto virtual paper on a desk by a projector.

次に、右目用視点位置VPRからオブジェクトOBの方に向かって仮想的な光を投射し、その光を用いて、OBの画像を仮想紙に焼き付けるようにしてレンダリングする。これにより右目用画像IRが作成される。   Next, virtual light is projected from the right eye viewpoint position VPR toward the object OB, and rendering is performed using the light so that the image of the OB is printed on virtual paper. As a result, a right-eye image IR is created.

次に、アナグリフ処理のソフトウェアを使用して、左目用、右目用画像IL、IRから、立体視用画像(アナグリフ画像)を作成する。そして、得られた立体視用画像を、D1、D2のサイズの印刷範囲で紙に印刷して、立体視用印刷物を完成する。   Next, a stereoscopic image (anaglyph image) is created from the left-eye and right-eye images IL and IR using anaglyph processing software. Then, the obtained stereoscopic image is printed on paper in a printing range having a size of D1 and D2, thereby completing a stereoscopic print.

なお、図10のように複数の基準面を設けて、CG画像を用いた立体視用印刷物を作成してもよい。   Note that a plurality of reference planes may be provided as shown in FIG. 10 to create a stereoscopic print using a CG image.

また、基準面BSに対して投影されるオブジェクトOBは、その全部が、図2のように基準面BS上に配置されるオブジェクトであってもよいし、図19(A)のように、その一部が、基準面BSの奥側に配置されるオブジェクトであってもよい。或いは、図19(B)のように、その全部が、基準面BSの奥側に配置されるオブジェクトであってもよい。   Further, the object OB projected onto the reference plane BS may be an object arranged on the reference plane BS as shown in FIG. 2, or as shown in FIG. A part of the object may be an object disposed on the back side of the reference plane BS. Alternatively, as shown in FIG. 19B, all of the objects may be objects arranged on the back side of the reference plane BS.

例えば図19(A)では、基準面BSの奥側の点P1、P2、P3が手前の点P1’、P2’、P3’に投影される。これにより、オブジェクトOBに開いている穴などを表現できる。また図19(A)のC1の位置では、オブジェクトOBが仮想紙にめり込んだ様子を表現できる。   For example, in FIG. 19A, points P1, P2, and P3 on the back side of the reference plane BS are projected onto the points P1 ', P2', and P3 'in front. Thereby, a hole opened in the object OB can be expressed. In addition, at the position C1 in FIG. 19A, it is possible to express a state in which the object OB is embedded in the virtual paper.

図19(B)でも、基準面BSの奥側の点P1、P2、P3が手前の点P1’、P2’、P3’に投影される。これにより、水面の下に潜っている魚などのオブジェクトを表現できる。なお、水面などの半透明物を表現する場合には、基準面BSの位置に半透明オブジェクトを配置し、この半透明オブジェクトとオブジェクトOB(点P1’、P2’、P3’)とのα合成を行うことが望ましい。   Also in FIG. 19B, the points P1, P2, and P3 on the back side of the reference plane BS are projected onto the points P1 ', P2', and P3 'in front. Thereby, an object such as a fish submerged under the water surface can be expressed. When expressing a semi-transparent object such as a water surface, a semi-transparent object is arranged at the position of the reference surface BS, and α synthesis of the semi-transparent object and the object OB (points P1 ′, P2 ′, P3 ′) is performed. It is desirable to do.

以上のようにCG画像を用いる本実施形態の手法によれば、ゲームマニュアルに添付するのに最適な立体視用印刷物を作成できる。   As described above, according to the method of the present embodiment using a CG image, it is possible to create a stereoscopic printed matter that is optimal for attachment to a game manual.

例えば、平面的なマップの絵しか添付されていない従来のゲームマニュアルでは、マップの形状等をプレーヤが把握するのが難しいという課題があった。   For example, in a conventional game manual in which only a planar map picture is attached, there is a problem that it is difficult for the player to grasp the shape of the map.

これに対して本実施形態の手法を用いれば、立体的に見えるマップの印刷物をゲーム・マニュアルに添付することが可能になる。例えば、マップの形状データは、ゲームデータとして存在するため、このゲームデータを利用することで、マップの立体視用印刷物を容易に作成できる。また本実施形態の手法によれば、机などに置いて見たときに最も立体感がハッキリと出る立体視用印刷物を提供できる。従って、プレーヤにとって使いやすく便
利で、ゲームマニュアルに添付するのに最適な立体視用印刷物を提供できる。
On the other hand, if the method of this embodiment is used, it becomes possible to attach the printed matter of the map which looks three-dimensionally to a game manual. For example, map shape data exists as game data, and therefore, using this game data, a map stereoscopic print can be easily created. In addition, according to the method of the present embodiment, it is possible to provide a stereoscopic printed material that gives the clearest stereoscopic effect when placed on a desk or the like. Therefore, it is possible to provide a stereoscopic printed matter that is easy to use and convenient for the player and is optimal for attachment to a game manual.

なお、例えば車、戦車、飛行機のゲームなどにおいて、登場する車、戦車、飛行機が立体的に表される立体視用印刷物をゲームマニュアルに添付してもよい。或いは、モンスターカードゲームに本実施形態の手法を適用すれば、カードのモンスターが立体的に飛び出して見えるようなカードゲームを実現できる。特にカードゲームでは、机やテーブルなどの水平面にカードを置いてゲームを楽しむものであるため、水平面(基準面)においた時に最も効果的な立体視が可能になる本実施形態の手法は最適である。   Note that, for example, in a car, tank, airplane game, or the like, a stereoscopic printed material in which the appearing cars, tanks, and airplanes are three-dimensionally displayed may be attached to the game manual. Or if the method of this embodiment is applied to a monster card game, the card game in which the monster of a card | curd may jump out three-dimensionally is realizable. In particular, in a card game, a card is placed on a horizontal surface such as a desk or table to enjoy the game. Therefore, the method of the present embodiment that enables the most effective stereoscopic viewing when placed on a horizontal surface (reference surface) is optimal.

7.ゲーム画像の生成
次に、リアルタイム動画像であるゲーム画像を生成する手法について説明する。この場合には図1で説明した第1の立体視方式が適している。但し図13の第2の立体視方式で実現することも可能である。
7). Generation of Game Image Next, a method for generating a game image that is a real-time moving image will be described. In this case, the first stereoscopic method described with reference to FIG. 1 is suitable. However, it can also be realized by the second stereoscopic method shown in FIG.

まず、プレーヤが見る時の位置関係に近いレイアウトで、仮想カメラ(視点)をオブジェクト空間内に配置する。例えば標準的な机に立体視用印刷物等を置いて、プレーヤが椅子に座って見た場合を想定して、仮想カメラを配置する。   First, a virtual camera (viewpoint) is arranged in the object space with a layout close to the positional relationship when the player views. For example, a virtual camera is placed on the assumption that a player is sitting on a chair and viewing a stereoscopic printed material on a standard desk.

そして図2のように、両目間の距離DLR(約7cm)、視点とオブジェクトOBとの距離DVB、視線の角度θ、表示画面の縦サイズD1、横サイズD2(表示画面サイズ)を設定する。   Then, as shown in FIG. 2, the distance DLR (about 7 cm) between the eyes, the distance DVB between the viewpoint and the object OB, the viewing angle θ, the vertical size D1 of the display screen, and the horizontal size D2 (display screen size) are set.

次にプレーヤの左目、右目の位置と想定される位置である左目用、右目用視点位置VPL、VPRに、仮想カメラを配置する。また、仮想カメラの被写体となるオブジェクトOBをオブジェクト空間内に配置する。これらの仮想カメラは、基本的に、左目用、右目用視点位置VPL、VPRからオブジェクト空間内のオブジェクト(注視オブジェクト)の方向に向けられる。   Next, virtual cameras are arranged at the left-eye and right-eye viewpoint positions VPL and VPR that are assumed to be the positions of the left eye and right eye of the player. Also, an object OB that is a subject of the virtual camera is arranged in the object space. These virtual cameras are basically directed from the left-eye and right-eye viewpoint positions VPL and VPR toward the object (gazing object) in the object space.

次に、左目用、右目用視点位置VPL、VPRに配置された仮想カメラから見える左目用、右目用画像IL1、IR1を生成する。そして、生成された左目用、右目用画像IL1、IR1を、VRAMのテクスチャ領域(テクスチャ空間)に書き込み、これらの画像を、図20に示すようなテクスチャー画像TEXに設定する。   Next, left-eye and right-eye images IL1 and IR1 that are visible from the virtual cameras arranged at the left-eye and right-eye viewpoint positions VPL and VPR are generated. Then, the generated left-eye and right-eye images IL1 and IR1 are written in the texture area (texture space) of the VRAM, and these images are set to a texture image TEX as shown in FIG.

次に、パースペクティブのついたテクスチャ画像TEX(図3、図4参照)を、D1、D2のサイズの長方形(正方形を含む広義の意味の長方形)のポリゴンPLG(プリミティブ面)にマッピングする。具体的には、テクスチャ画像TEXのテクスチャ座標(TX1、TY1)、(TX2、TY2)、(TX3、TY3)、(TX4、TY4)を、ポリゴンPLGの頂点VX1、VX2、VX3、VX4にコーディネートして、テクスチャ画像TEXをポリゴンPLGにマッピングする。これにより、図6、図7に示すように基準面の画像のパースペクティブが無くなった画像を生成できる。そして、このようなテクスチャマッピング処理を、左目用、右目用画像IL1、IR1のそれぞれについて行うことで、左目用、右目用画像IL2、IR2を生成する。   Next, the perspective texture image TEX (see FIGS. 3 and 4) is mapped to a polygon PLG (primitive surface) of rectangles of D1 and D2 sizes (rectangles in a broad sense including squares). Specifically, the texture coordinates (TX1, TY1), (TX2, TY2), (TX3, TY3), (TX4, TY4) of the texture image TEX are coordinated with the vertices VX1, VX2, VX3, VX4 of the polygon PLG. Thus, the texture image TEX is mapped to the polygon PLG. As a result, as shown in FIGS. 6 and 7, it is possible to generate an image in which the perspective of the image of the reference plane is lost. Then, by performing such a texture mapping process for each of the left-eye and right-eye images IL1 and IR1, the left-eye and right-eye images IL2 and IR2 are generated.

次に、得られた左目用、右目用画像IL2、IR2を、アナグリフ処理を用いて1枚の立体視用画像に合成する。そして合成された立体視用画像を表示部に出力する。   Next, the obtained left-eye and right-eye images IL2 and IR2 are combined into a single stereoscopic image using anaglyph processing. Then, the combined stereoscopic image is output to the display unit.

なお、液晶シャッタ等を用いて立体視を実現する場合には、生成された左目用、右目用画像IL2、IR2を、異なるフレームで交互に表示部に出力すればよい。   In the case of realizing stereoscopic viewing using a liquid crystal shutter or the like, the generated left-eye and right-eye images IL2 and IR2 may be alternately output to the display unit in different frames.

8.画像生成システム
図21に、本実施形態の画像生成システムの機能ブロック図の例を示す。なお、本実施形態の画像生成システムは、図21の構成要素(各部)を全て含む必要はなく、その一部を省略した構成としてもよい。
8). Image Generation System FIG. 21 shows an example of a functional block diagram of the image generation system of this embodiment. Note that the image generation system of the present embodiment does not have to include all the components (each unit) in FIG. 21, and may have a configuration in which some of them are omitted.

この図21の画像生成システムは、ゲーム画像(リアルタイム動画像)を生成するシステムとして用いることができる。また、CG画像(静止画像)により立体視用画像を作成し、立体視用印刷物を作成するための画像生成システム(CGツール)としても用いることができる。また、カメラで撮った実写画像を取り込み、この実写画像により立体視用画像を作成し、立体視用印刷物を作成するための画像生成システムとしても用いることができる。   The image generation system of FIG. 21 can be used as a system for generating a game image (real-time moving image). Moreover, it can also be used as an image generation system (CG tool) for creating a stereoscopic image from a CG image (still image) and creating a stereoscopic print. Further, it can be used as an image generation system for taking a real image taken by a camera, creating a stereoscopic image from the real image, and creating a stereoscopic print.

操作部160は、プレーヤ(操作者)が操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、シフトレバー、アクセルペダル、ブレーキペダル、マイク、センサー、タッチパネル、或いは筺体などのハードウェアにより実現できる。   The operation unit 160 is for a player (operator) to input operation data, and functions thereof are a lever, a button, a steering, a shift lever, an accelerator pedal, a brake pedal, a microphone, a sensor, a touch panel, a casing, and the like. It can be realized by hardware.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。   The storage unit 170 serves as a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by hardware such as a RAM.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶(記録、格納)される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by hardware such as a memory (ROM). The processing unit 100 performs various processes of this embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores (records and stores) a program for causing the computer to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by hardware such as a CRT, LCD, touch panel, or HMD (head mounted display).

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどのハードウェアにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker or headphones.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。この通信部196を用いて、カメラで撮影された実写画像を画像生成システムに取り込んだり、作成された立体視用画像をプリンタに出力することが可能になる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or a communication ASIC, It can be realized by a program. Using this communication unit 196, it is possible to capture a real image captured by the camera into an image generation system and output the created stereoscopic image to a printer.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and the communication unit 196. You may do it. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基
づいて、ゲーム処理、画像生成処理、或いは音生成処理などの各種の処理を行う。この場合、処理部100は、記憶部170内の主記憶部172をワーク領域として使用して、各種の処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP等)又はASIC(ゲートアレイ等)などのハードウェアや、プログラム(ゲームプログラム)により実現できる。
The processing unit 100 (processor) performs various processes such as a game process, an image generation process, and a sound generation process based on operation data from the operation unit 160, a program, and the like. In this case, the processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The function of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.) and a program (game program).

処理部100は、ゲーム処理部110、第1の画像生成部120、第2の画像生成部122、立体視用画像生成部126、音生成部130を含む。   The processing unit 100 includes a game processing unit 110, a first image generation unit 120, a second image generation unit 122, a stereoscopic image generation unit 126, and a sound generation unit 130.

ここでゲーム処理部110は、操作部160(ゲームコントローラ)からの操作データに基づいて、ゲーム画像を生成するための種々のゲーム処理を行う。このゲーム処理としては、ゲーム開始条件に基づいてゲームを開始する処理、ゲームを進行させる処理、ゲームに登場するオブジェクト(表示物)を配置する処理、オブジェクトの移動情報(位置、速度、加速度)や動作情報(モーション情報)を求める処理、オブジェクトを表示するための処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了させる処理などがある。   Here, the game processing unit 110 performs various game processes for generating a game image based on operation data from the operation unit 160 (game controller). This game process includes a process for starting a game based on game start conditions, a process for advancing the game, a process for placing an object (display object) appearing in the game, object movement information (position, speed, acceleration), There are a process for obtaining motion information (motion information), a process for displaying an object, a process for calculating a game result, a process for ending a game when a game end condition is satisfied, and the like.

第1の画像生成部120は、オブジェクト空間内において左目用視点位置(左目用仮想カメラ)から見える画像である第1の左目用画像を生成する処理を行う。また、オブジェクト空間内において右目用視点位置(右目用仮想カメラ)から見える画像である第1の右目用画像を生成する処理を行う。この場合、第1の左目用画像、第1の右目用画像は、立体視のための画像であり、例えば両眼視差がついた画像である。具体的には、左目用視点位置に仮想カメラを配置し、この仮想カメラの視線方向をオブジェクト(注視点)の方に向けて、第1の左目用画像を生成する。また右目用視点位置に仮想カメラを配置し、この仮想カメラの視線方向をオブジェクト(注視点)の方に向けて、第1の右目用画像を生成する。   The first image generation unit 120 performs processing for generating a first left-eye image that is an image seen from the left-eye viewpoint position (left-eye virtual camera) in the object space. In addition, a process of generating a first right-eye image that is an image seen from the right-eye viewpoint position (right-eye virtual camera) in the object space is performed. In this case, the first left-eye image and the first right-eye image are images for stereoscopic viewing, for example, images with binocular parallax. Specifically, a virtual camera is arranged at the left-eye viewpoint position, and the first left-eye image is generated with the visual line direction of the virtual camera directed toward the object (gaze point). Also, a virtual camera is arranged at the right-eye viewpoint position, and a first right-eye image is generated with the visual line direction of the virtual camera directed toward the object (gaze point).

なお、仮想カメラから見える画像は、次のようにして生成できる。即ち、まず、座標変換、クリッピング処理、透視変換或いは光源処理等のジオメトリ処理を行い、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を作成する。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ174(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラから見える画像が生成される。   Note that an image seen from a virtual camera can be generated as follows. That is, first, geometric processing such as coordinate transformation, clipping processing, perspective transformation or light source processing is performed, and based on the processing result, drawing data (primitive surface vertex position coordinates, texture coordinates, color data, normal vector or α value etc.). Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 174 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera in the object space is generated.

第2の画像生成部122は、第1の左目用画像に対して、基準面での画像のパースペクティブを無くすための補正処理を施して、第2の左目用画像を生成する。また、第1の右目用画像に対して、基準面での画像のパースペクティブを無くすための補正処理を施して、第2の右目用画像を生成する(図1、図8(A)参照)。   The second image generation unit 122 performs a correction process for eliminating the perspective of the image on the reference plane with respect to the first left-eye image, and generates a second left-eye image. In addition, a correction process for eliminating the perspective of the image on the reference plane is performed on the first right-eye image to generate a second right-eye image (see FIGS. 1 and 8A).

この場合の補正処理は、テクスチャマッピング部124が図20で説明したテクスチャマッピング処理を行うことで実現される。具体的には、第1の画像生成部120で生成された第1の左目用画像、第1の右目用画像は、テクスチャ画像としてテクスチャ記憶部176に記憶される。そしてテクスチャマッピング部124は、この記憶された第1の左目用画像のテクスチャを、長方形のポリゴンにマッピングすることで、第2の左目用画像を生成する。また、この記憶された第1の右目用画像のテクスチャを、長方形のポリゴンにマッピングすることで、第2の右目用画像を生成する。   The correction process in this case is realized by the texture mapping unit 124 performing the texture mapping process described with reference to FIG. Specifically, the first left-eye image and the first right-eye image generated by the first image generation unit 120 are stored in the texture storage unit 176 as texture images. Then, the texture mapping unit 124 generates a second left-eye image by mapping the stored texture of the first left-eye image to a rectangular polygon. Further, the second right-eye image is generated by mapping the stored texture of the first right-eye image to a rectangular polygon.

また第2の画像生成部122が、図13で説明した方式に基づいて、左目用画像、右目
用画像を生成してもよい。即ち第2の画像生成部122が、左目用視点位置とオブジェクトの各点を結ぶ投影方向で、基準面に対してオブジェクトの各点を投影してレンダリングすることで、左目用画像を生成する。また、右目用視点位置とオブジェクトの各点を結ぶ投影方向で、基準面に対してオブジェクトの各点を投影してレンダリングすることで、右目用画像を生成する。
The second image generation unit 122 may generate a left-eye image and a right-eye image based on the method described with reference to FIG. That is, the second image generation unit 122 generates the left-eye image by projecting and rendering each point of the object on the reference plane in the projection direction connecting the left-eye viewpoint position and each point of the object. Also, the right eye image is generated by projecting and rendering each point of the object on the reference plane in the projection direction connecting the right eye viewpoint position and each point of the object.

立体視用画像生成部126は、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)とに基づいて立体視用画像を生成する処理を行う。例えば、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)をアナグリフ処理により合成して、立体視用画像を生成し、表示部190に出力する。この場合には、プレーヤは、例えば赤の色フィルタと青の色フィルタが左目、右目に設けられた眼鏡をかけて、ゲームをプレイすることになる。   The stereoscopic image generation unit 126 performs processing for generating a stereoscopic image based on the second left-eye image (left-eye image) and the second right-eye image (right-eye image). For example, the second left-eye image (left-eye image) and the second right-eye image (right-eye image) are synthesized by anaglyph processing to generate a stereoscopic image and output it to the display unit 190. In this case, for example, the player plays the game wearing glasses with red and blue color filters provided on the left and right eyes.

或いは、立体視用画像生成部126が、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)を異なるフレームで表示部190に出力する処理を行い、立体視を実現してもよい。この場合には、プレーヤは、フレームに同期してシャッターが開閉するシャッター付き眼鏡をかけて、ゲームをプレイすることになる。   Alternatively, the stereoscopic image generation unit 126 performs a process of outputting the second left-eye image (left-eye image) and the second right-eye image (right-eye image) to the display unit 190 in different frames, so that the stereoscopic image is displayed. May be realized. In this case, the player plays the game wearing glasses with shutters that open and close in synchronization with the frame.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.

また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて生成してもよい。   Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals (game machine, mobile phone).

9.第1、第2の立体視方式の解析
次に図1、図13で説明した本実施形態の第1、第2の立体視方式を数学的に解析する。第1の立体視方式は、基準面(机)スクリーンに直接射影(C1)できない現実世界の物体の像が、カメラの撮影(C2)で得られた写真(図3、図4)と、それに対する後処理(C3。図8(A)のパースペクティブを無くす処理)によって、実用上は差し支えない範囲で再構成が可能なことを示している。そこで、この第1の立体視方式と、基準面(机)スクリーンに物体の点を直接射影する第2の立体視方式との違いについて、数学的な解析を行う。
9. Analysis of First and Second Stereoscopic Viewing Methods Next, the first and second stereoscopic viewing methods of the present embodiment described with reference to FIGS. 1 and 13 are mathematically analyzed. The first stereoscopic viewing method is a photograph (FIGS. 3 and 4) in which an image of a real-world object that cannot be directly projected (C1) onto a reference plane (desk) screen is obtained by camera shooting (C2). This shows that the post-processing (C3. Processing for eliminating the perspective in FIG. 8A) can be reconfigured within a practical range. Therefore, mathematical analysis is performed on the difference between the first stereoscopic viewing method and the second stereoscopic viewing method in which a point of an object is projected directly onto a reference plane (desk) screen.

9.1 第1の立体視方式の数学的解析
まず視点(v)と、カメラのスクリーン(s)と、物体と、それらに対する座標系を図22のように定める。図22では、視点からの射影によって、物体の点(x、y、z)が、スクリーン(カメラのスクリーン)上の点(x、y)に投影されている。
9.1 Mathematical Analysis of First Stereoscopic Viewing Method First, a viewpoint (v), a camera screen (s), an object, and a coordinate system for them are determined as shown in FIG. In FIG. 22, the point (x, y, z) of the object is projected onto the point (x * , y * ) on the screen (camera screen) by projection from the viewpoint.

まずカメラの撮影(C2)は、下式(1)の回転Rxの行列と、下式(2)の射影Pzの行列との合成により表すことができる。   First, the camera photographing (C2) can be expressed by combining the matrix of the rotation Rx in the following equation (1) and the matrix of the projection Pz in the following equation (2).

ここで回転Rxの行列は、斜め方向の視線方向をZ軸方向に平行になるように回転させる行列である。また射影Pzの行列は、視点(Z=v)からカメラのスクリーン(Z=s)への射影を表す行列である。なおαは視線方向と基準面スクリーンとのなす角度である。 Here, the matrix of the rotation Rx is a matrix for rotating the oblique line-of-sight direction so as to be parallel to the Z-axis direction. The matrix of the projection Pz is a matrix representing the projection from the viewpoint (Z = v) to the camera screen (Z = s). Α is an angle formed between the line-of-sight direction and the reference plane screen.

従って、カメラの撮影(C2)は下式(3)のように表すことができる。   Therefore, the camera photographing (C2) can be expressed as the following equation (3).

この上式(3)は下式(4)のような変換式で表すこともできる。 The above equation (3) can also be expressed by a conversion equation such as the following equation (4).

例えば図23に示すように、机等の基準面上(Z=0)に、正方形を構成する4つの格子点G1=(a、a、0)、G2=(−a、a、0)、G3=(−a、−a、0)、G4=(a、−a、0)を設定する。なお「t」は転置を意味する。 For example, as shown in FIG. 23, four grid points G1 = t (a, a, 0), G2 = t (−a, a, 0) forming a square on a reference plane (Z = 0) of a desk or the like. ), G3 = t (−a, −a, 0), G4 = t (a, −a, 0). “T” means transposition.

これらの格子点G1〜G4は、上式(3)(4)の変換によって、図23に示すように格子点G1’〜G4’に写る。これらの格子点G1’〜G4’の座標は、上式(3)(4
)の(x、y、z)に、(a、a、0)、(−a、a、0)、(−a、−a、0)、(a、−a、0)を代入することで、下式(5)〜(8)のように計算される。
These lattice points G1 to G4 appear in lattice points G1 ′ to G4 ′ as shown in FIG. 23 by the conversion of the above equations (3) and (4). The coordinates of these lattice points G1 ′ to G4 ′ are expressed by the above equations (3) (4
) T (x, y, z), t (a, a, 0), (-a, a, 0), t (-a, -a, 0), t (a, -a, 0) By substituting, the following equations (5) to (8) are calculated.

第1の立体視方式の後処理(C3。パースペクティブを無くす処理)は、これらの格子点G1’〜G4’を、写真上の2次元正方形を構成する格子点F1=(b、b)、F2=(−b、b)、F3=(−b、−b)、F4=(b、−b)に写す射影変換である。即ち図3のマーカMK1〜MK4(G1’〜G4’に相当)の位置を、図5のマーカMK1〜MK4(F1〜F4に相当)の位置に写す射影変換である。 In the post-processing of the first stereoscopic viewing method (C3. Processing for eliminating the perspective), these lattice points G1 ′ to G4 ′ are converted into lattice points F1 = t (b, b) constituting a two-dimensional square on the photograph. This is a projective transformation for F2 = t (−b, b), F3 = t (−b, −b), and F4 = t (b, −b). That is, it is projective transformation that maps the positions of the markers MK1 to MK4 (corresponding to G1 ′ to G4 ′) in FIG. 3 to the positions of the markers MK1 to MK4 (corresponding to F1 to F4) in FIG.

このような射影P1を表す行列は、行列の要素a11、a12、a13・・・a33についての連立方程式を解くことで、下式(9)のように求められる。 A matrix representing such a projection P1 is obtained as shown in the following expression (9) by solving simultaneous equations for the elements a 11 , a 12 , a 13 ... A 33 of the matrix.

従って、カメラの撮影(C2)と後処理(C3)の合成である第1の立体視方式の変換は、上式(1)の回転Rxの行列と、上式(2)の射影Pzの行列と、上式(9)の射影P1の行列の合成で表すことができ、下式(10)のように表すことができる。 Therefore, the conversion of the first stereoscopic method, which is a combination of the camera shooting (C2) and the post-processing (C3), is a matrix of the rotation Rx in the above equation (1) and a matrix of the projection Pz in the above equation (2). And the matrix of the projection P1 in the above equation (9), and can be represented as the following equation (10).

この上式(10)は下式(11)のような変換式で表すこともできる。 The above equation (10) can also be expressed by a conversion equation such as the following equation (11).

以上のように、図1の第1の立体視方式は、上式(10)又は上式(11)のような数式で表現できる。 As described above, the first stereoscopic viewing method of FIG. 1 can be expressed by a mathematical expression such as the above expression (10) or the above expression (11).

9.2 第2の立体視方式の数学的解析
物体の点を基準面スクリーンに直接投影する図13の第2の立体視方式の変換は、図24から、下式(12)のように表すことができる。
9.2 Mathematical Analysis of the Second Stereoscopic Viewing Method The transformation of the second stereoscopic viewing method of FIG. 13 in which the object point is directly projected on the reference plane screen is expressed by the following equation (12) from FIG. be able to.

この上式(12)は下式(13)のような変換式で表すこともできる。 The above equation (12) can also be expressed by a conversion equation such as the following equation (13).

上式(12)(13)で表される第2の立体視方式の変換は、図25(A)に示すような物体OBの平行移動Ty(y方向での−vcosαの平行移動)と、図25(B)に示すような平行移動後の物体OBの射影PZと、図26に示すような射影後の物体OBの平行移動Ty(y方向でのvcosαの平行移動)の3つの変換から成り立っている。 The conversion of the second stereoscopic viewing method expressed by the above formulas (12) and (13) includes the translation Ty of the object OB as shown in FIG. 25A (translation of -v cos α in the y direction), From the three transformations of the projection PZ of the object OB after translation as shown in FIG. 25B and the translation Ty (translation of vcos α in the y direction) of the object OB after projection as shown in FIG. It is made up.

9.3 第1、第2の立体視方式の比較
以上のように、数学的には、第1の立体式方式の変換は下式(14)又は(15)のように表され、第2の立体視方式の変換は下式(16)又は(17)のように表される。
9.3 Comparison of First and Second Stereoscopic Methods As described above, mathematically, the conversion of the first stereoscopic method is expressed as the following equation (14) or (15), and the second The conversion of the stereoscopic method is expressed by the following formula (16) or (17).

上式(14)と(16)との相違部分は、J1に示す項とK1に示す項である。上式(15)と(17)では、この相違部分は、J2に示す項とK2に示す項の相違になる。 The difference between the above equations (14) and (16) is the term shown in J1 and the term shown in K1. In the above equations (15) and (17), this difference is the difference between the term indicated by J2 and the term indicated by K2.

これらの相違部分を、図を用いて直感的に説明すると次のようになる。即ち、前述のように第2の立体視方式は図25(A)(B)、図26の3つの変換により成り立っている。そして第1の立体視方式が第2の立体視方式と異なるのは、最初の図25(A)の平行移動でのずれ量である。即ち第1の立体視方式では、このずれ量はzcotαになる(上式(14)(15)のJ1、J2参照)。これに対して第2の立体視方式では、このずれ量はvcosα(上式(16)(17)のK1、K2参照)になる。   These differences are intuitively explained with reference to the drawings as follows. That is, as described above, the second stereoscopic viewing method is constituted by three conversions shown in FIGS. 25A and 25B and FIG. The first stereoscopic viewing system is different from the second stereoscopic viewing system in the amount of shift in the first parallel movement of FIG. That is, in the first stereoscopic viewing method, this shift amount is zcot α (see J1 and J2 in the above equations (14) and (15)). On the other hand, in the second stereoscopic viewing method, this shift amount is vcos α (see K1 and K2 in the above equations (16) and (17)).

このように第2の立体視方式では、ずれ量(vcosα)は、視点(v)と視線方向(α)に依存する。一方、第1の立体視方式では、ずれ量(zcotα)は、高さ(z)と
視線方向(α)に依存し、視点(v)そのものには依存しない。そしてこの第1の立体視方式でのずれ量(zcotα)は、図27に示すように、物体の点(x、y、z)から下ろした垂線が、基準面(机)スクリーンとが交わる点N1と、物体の点(x、y、z)から、射影方向ではなく視線方向に延ばした線と、基準面スクリーンとが交わる点N2との間の距離に等しい。
As described above, in the second stereoscopic viewing method, the shift amount (vcos α) depends on the viewpoint (v) and the line-of-sight direction (α). On the other hand, in the first stereoscopic viewing method, the shift amount (zcot α) depends on the height (z) and the line-of-sight direction (α), and does not depend on the viewpoint (v) itself. As shown in FIG. 27, the shift amount (zcot α) in the first stereoscopic method is such that the perpendicular line drawn from the point (x, y, z) of the object intersects the reference plane (desk) screen. It is equal to the distance between N1 and the point N2 where the line extending from the point (x, y, z) of the object in the line-of-sight direction instead of the projection direction intersects the reference plane screen.

このように第1の立体視方式では、図25(A)の平行移動のずれ量(zcotα)が、高さ(z)に依存する。従って、物体の点(x、y、z)の高さ(z)に応じて、第1の立体視方式での立体視の見え方と、第2の立体視方式での立体視の見え方に差異が生じるようになり、この点において第1、第2の立体視方式は異なる。   As described above, in the first stereoscopic viewing system, the shift amount (zcot α) of the parallel movement in FIG. 25A depends on the height (z). Therefore, depending on the height (z) of the point (x, y, z) of the object, how the stereoscopic view looks in the first stereoscopic view method and how the stereoscopic view looks in the second stereoscopic view method In this respect, the first and second stereoscopic viewing methods are different.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。   The present invention is not limited to that described in the above embodiment, and various modifications can be made.

例えば、明細書又は図面中の記載において広義な用語(物体、プリミティブ面等)として引用された用語(オブジェクト・被写体、ポリゴン等)は、明細書又は図面中の他の記載においても広義な用語に置き換えることができる。   For example, terms (objects / subjects, polygons, etc.) cited as broad terms (objects, primitive surfaces, etc.) in the description in the specification or drawings are also broad terms in other descriptions in the specification or drawings. Can be replaced.

また、左目用画像、右目用画像、立体視用画像の作成(生成)手法も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Also, the method for creating (generating) the left-eye image, the right-eye image, and the stereoscopic image is not limited to that described in the present embodiment, and various modifications can be made.

また本発明の手法で作成(生成)された立体視用画像を、立体視用印刷物やゲーム画像以外の用途に用いることも可能である。   It is also possible to use the stereoscopic image created (generated) by the method of the present invention for uses other than the stereoscopic printed material and the game image.

また本実施形態で説明した第1、第2の立体視方式と均等な方式で、立体視用画像を生成する場合も本発明の範囲に含まれる。   In addition, a case where a stereoscopic image is generated by a method equivalent to the first and second stereoscopic methods described in the present embodiment is also included in the scope of the present invention.

また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

また、本発明は種々のゲーム(格闘ゲーム、競争ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、ロールプレイングゲーム等)に適用できる。   Further, the present invention can be applied to various games (such as fighting games, competitive games, shooting games, robot battle games, sports games, role playing games, etc.).

また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード等の種々の画像生成システム(ゲームシステム)に適用できる。   The present invention is also applicable to various image generation systems (game systems) such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images. Applicable.

VPL 左目用視点位置、VPR 右目用視点位置、
OB 物体(オブジェクト、被写体)、BS(BS1、BS2) 基準面、
RTG 長方形、MK1〜MK4 マーク、MK5〜MK8 マーク、
IL1 第1の左目用画像、IR1 第1の右目用画像、
IL2 第2の左目用画像、IR2 第2の右目用画像、
IL 左目用画像、IR 右目用画像、
100 処理部、110 ゲーム処理部、120 第1の画像生成部、
122 第2の画像生成部、124 テクスチャマッピング部
126 立体視用画像生成部、130 音生成部、160 操作部、
170 記憶部、172 主記憶部、174 描画バッファ、
176 テクスチャ記憶部、180 情報記憶媒体、190 表示部
192 音出力部、194 携帯型情報記憶装置、196 通信部
VPL left eye viewpoint position, VPR right eye viewpoint position,
OB object (object, subject), BS (BS1, BS2) reference plane,
RTG rectangle, MK1-MK4 mark, MK5-MK8 mark,
IL1 first left-eye image, IR1 first right-eye image,
IL2 second left eye image, IR2 second right eye image,
IL image for left eye, IR image for right eye,
100 processing unit, 110 game processing unit, 120 first image generation unit,
122 second image generation unit, 124 texture mapping unit 126 stereoscopic image generation unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 172 main storage unit, 174 drawing buffer,
176 texture storage unit, 180 information storage medium, 190 display unit 192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (4)

立体視用画像を生成する画像生成システムであって、
視線方向に対して斜め方向となる基準面に物体を配置して作成された、立体視のための第1の左目用画像の基準面での画像の少なくとも奥行き方向でのパースペクティブを無くすための補正処理を、第1の左目用画像に対して施して、第2の左目用画像を作成し、前記基準面に物体を配置して作成された、立体視のための第1の右目用画像の基準面での画像の少なくとも奥行き方向でのパースペクティブを無くすための補正処理を、第1の右目用画像に対して施して、第2の右目用画像を作成する画像生成部と、
第2の左目用画像と第2の右目用画像とに基づいて立体視用画像を作成し、レンチキュラーレンズを含む表示部に立体視用画像を出力する立体視用画像生成部とを含むことを特徴とする画像生成システム
An image generation system for generating a stereoscopic image ,
Correction for eliminating a perspective in at least the depth direction of the image on the reference plane of the first left-eye image for stereoscopic viewing created by arranging an object on a reference plane that is oblique to the line-of-sight direction Processing is performed on the first left-eye image to create a second left-eye image, and the first right-eye image for stereoscopic viewing created by placing an object on the reference plane An image generation unit that performs correction processing for eliminating at least a perspective in the depth direction of the image on the reference plane with respect to the first right-eye image, and creates a second right-eye image ;
Including a stereoscopic image generating unit that creates a stereoscopic image based on the second left-eye image and the second right-eye image and outputs the stereoscopic image to a display unit including a lenticular lens. A featured image generation system .
請求項1において、
基準面が、第1の基準面と、第1の基準面に対して所定の角度をなす第2の基準面を含み、
前記画像生成部が、
第1の左目用画像の第1の基準面での画像のパースペクティブを無くすための左目用の第1の補正処理を、第1の左目用画像の第1の基準面に対応する領域に対して施すと共に、第1の左目用画像の第2の基準面での画像のパースペクティブを無くすための左目用の第2の補正処理を、第1の左目用画像の第2の基準面に対応する領域に対して施して、第2の左目用画像を作成し、第1の右目用画像の第1の基準面での画像のパースペクティブを無くすための右目用の第1の補正処理を、第1の右目用画像の第1の基準面に対応する領域に対して施すと共に、第1の右目用画像の第2の基準面での画像のパースペクティブを無くすための右目用の第2の補正処理を、第1の右目用画像の第2の基準面に対応する領域に対して施して、第2の右目用画像を作成することを特徴とする画像生成システム
In claim 1,
The reference plane includes a first reference plane and a second reference plane forming a predetermined angle with respect to the first reference plane;
The image generator
The first correction process for the left eye for eliminating the perspective of the image on the first reference plane of the first left-eye image is performed on the region corresponding to the first reference plane of the first left-eye image. And applying the second correction process for the left eye for eliminating the perspective of the image on the second reference plane of the first left-eye image to the second reference plane of the first left-eye image The first correction process for the right eye for creating the second left-eye image and eliminating the perspective of the image on the first reference plane of the first right-eye image, A second correction process for the right eye for eliminating the perspective of the image on the second reference plane of the first right-eye image while applying to the region corresponding to the first reference plane of the right-eye image; Applying to the region corresponding to the second reference plane of the first right-eye image, the second right Image generation system characterized by creating a use images.
立体視用画像を生成する画像生成システムであって、
被写体と、視線方向に対して斜め方向となる基準面において長方形を構成する第1〜第4のマークを、左目用視点位置から撮影することで作成された、立体視のための第1の左目用画像において少なくとも奥行き方向でパースペクティブを有する第1〜第4のマークを、長方形の頂点位置に移動させる補正処理を行うことで、第1の左目用画像から第2の左目用画像を作成し、被写体と、視線方向に対して斜め方向となる基準面において長方形を構成する第1〜第4のマークを、右目用視点位置から撮影することで作成された、立体視のための第1の右目用画像において少なくとも奥行き方向でパースペクティブを有する第1〜第4のマークを、長方形の頂点位置に移動させる補正処理を行うことで、第1の右目用画像から第2の右目用画像を作成する画像生成部と、
第2の左目用画像と第2の右目用画像とに基づいて立体視用画像を作成し、レンチキュラーレンズを含む表示部に立体視用画像を出力する立体視用画像生成部とを含むことを特徴とする画像生成システム
An image generation system for generating a stereoscopic image ,
First left eye for stereoscopic vision created by photographing the subject and first to fourth marks that form a rectangle on a reference plane that is oblique to the line-of-sight direction from the left-eye viewpoint position A second left-eye image is created from the first left-eye image by performing correction processing for moving the first to fourth marks having perspective in at least the depth direction in the image to the vertex position of the rectangle, The first right eye for stereoscopic vision created by photographing the subject and the first to fourth marks that form a rectangle on the reference plane that is oblique to the line-of-sight direction from the right-eye viewpoint position The first right-eye image is changed to the second right-eye image by performing correction processing for moving the first to fourth marks having perspective in at least the depth direction in the image to the vertex position of the rectangle. An image generating unit that creates,
Including a stereoscopic image generating unit that creates a stereoscopic image based on the second left-eye image and the second right-eye image and outputs the stereoscopic image to a display unit including a lenticular lens. A featured image generation system .
請求項3において、
基準面が、第1の基準面と、第1の基準面に対して所定の角度をなす第2の基準面を含み、
前記第1の左目用画像は、
被写体と、第1の基準面において長方形を構成する第1〜第4のマークと、第2の基準面において長方形を構成する第5〜第8のマークを、左目用視点位置から撮影することで作成された画像であり
前記第1の右目用画像は、
被写体と、第1の基準面において長方形を構成する第1〜第4のマークと、第2の基準面において長方形を構成する第5〜第8のマークを、右目用視点位置から撮影することで作成された画像であり
前記画像生成部が、
第1の左目用画像の第1〜第4のマークを、長方形の頂点位置に移動させる左目用の第1の補正処理を行うと共に、第1の左目用画像の第5〜第8のマークを、長方形の頂点位置に移動させる左目用の第2の補正処理を行うことで、第1の左目用画像から第2の左目用画像を作成し、第1の右目用画像の第1〜第4のマークを、長方形の頂点位置に移動させる右目用の第1の補正処理を行うと共に、第1の右目用画像の第5〜第8のマークを、長方形の頂点位置に移動させる右目用の第2の補正処理を行うことで、第1の右目用画像から第2の右目用画像を作成することを特徴とする画像生成システム
In claim 3,
The reference plane includes a first reference plane and a second reference plane forming a predetermined angle with respect to the first reference plane;
The first left-eye image is
By photographing the subject, the first to fourth marks that form a rectangle on the first reference plane, and the fifth to eighth marks that form a rectangle on the second reference plane from the viewpoint position for the left eye. The created image ,
The first right-eye image is
By photographing the subject, the first to fourth marks forming a rectangle on the first reference plane, and the fifth to eighth marks forming a rectangle on the second reference plane from the right eye viewpoint position. The created image ,
The image generator
The first correction process for the left eye is performed to move the first to fourth marks of the first left eye image to the vertex positions of the rectangle, and the fifth to eighth marks of the first left eye image are set. By performing the second correction process for the left eye that moves to the vertex position of the rectangle, a second left eye image is created from the first left eye image, and the first to fourth images of the first right eye image are created. The first correction process for the right eye that moves the mark to the vertex position of the rectangle is performed, and the fifth to eighth marks of the first right-eye image are moved to the vertex position of the rectangle. by performing the second correction process, an image generation system, characterized in that the first right-eye image to create a second right-eye image.
JP2010277341A 2002-11-12 2010-12-13 Image generation system Expired - Fee Related JP5085722B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010277341A JP5085722B2 (en) 2002-11-12 2010-12-13 Image generation system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002328869 2002-11-12
JP2002328869 2002-11-12
JP2010277341A JP5085722B2 (en) 2002-11-12 2010-12-13 Image generation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008098286A Division JP4672037B2 (en) 2002-11-12 2008-04-04 Method for producing stereoscopic printed matter, stereoscopic printed matter

Publications (2)

Publication Number Publication Date
JP2011102988A JP2011102988A (en) 2011-05-26
JP5085722B2 true JP5085722B2 (en) 2012-11-28

Family

ID=39757036

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008098286A Expired - Fee Related JP4672037B2 (en) 2002-11-12 2008-04-04 Method for producing stereoscopic printed matter, stereoscopic printed matter
JP2010277341A Expired - Fee Related JP5085722B2 (en) 2002-11-12 2010-12-13 Image generation system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008098286A Expired - Fee Related JP4672037B2 (en) 2002-11-12 2008-04-04 Method for producing stereoscopic printed matter, stereoscopic printed matter

Country Status (1)

Country Link
JP (2) JP4672037B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10157494B2 (en) 2014-02-20 2018-12-18 Samsung Electronics Co., Ltd. Apparatus and method for processing virtual point lights in an image

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03236698A (en) * 1990-02-14 1991-10-22 Nissan Motor Co Ltd Picture generating device for both eye stereoscopic view
JPH06258722A (en) * 1993-03-03 1994-09-16 Toppan Printing Co Ltd Device for positioning original picture for stereoscopic image and synthesis method for the stereoscopic image using it
JPH08126034A (en) * 1994-10-20 1996-05-17 Canon Inc Method and device for displaying stereoscopic image
JP3491029B2 (en) * 1995-09-28 2004-01-26 松下電器産業株式会社 Automatic monitoring device
JP3476114B2 (en) * 1996-08-13 2003-12-10 富士通株式会社 Stereoscopic display method and apparatus
JP3690002B2 (en) * 1996-10-28 2005-08-31 富士ゼロックス株式会社 Image reading method, image reading apparatus, and medium on which image reading program is recorded
JPH10177660A (en) * 1996-12-16 1998-06-30 Takenaka Komuten Co Ltd Image generating method, image generating device and virtual reality experience device
JPH11341522A (en) * 1998-05-22 1999-12-10 Fuji Photo Film Co Ltd Stereoscopic image photographing device
JP2000056411A (en) * 1998-08-05 2000-02-25 Dainippon Printing Co Ltd Plate making method and three-dimensional color printed matter
JP2002125245A (en) * 2000-10-17 2002-04-26 Sony Corp Stereoscopic image edit method, stereoscopic image editor and stereoscopic image display system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10157494B2 (en) 2014-02-20 2018-12-18 Samsung Electronics Co., Ltd. Apparatus and method for processing virtual point lights in an image

Also Published As

Publication number Publication date
JP4672037B2 (en) 2011-04-20
JP2008198228A (en) 2008-08-28
JP2011102988A (en) 2011-05-26

Similar Documents

Publication Publication Date Title
JP4823334B2 (en) Image generation system, image generation method, program, and information storage medium
US8249335B2 (en) Method of making printed material for stereoscopic viewing, and printed material for stereoscopic viewing
US7796134B2 (en) Multi-plane horizontal perspective display
US7907167B2 (en) Three dimensional horizontal perspective workstation
US20050219240A1 (en) Horizontal perspective hands-on simulator
US20050219694A1 (en) Horizontal perspective display
US20050248566A1 (en) Horizontal perspective hands-on simulator
JP4218937B2 (en) Stereoscopic display device and stereoscopic display method
JP3579683B2 (en) Method for producing stereoscopic printed matter, stereoscopic printed matter
JP4397217B2 (en) Image generation system, image generation method, program, and information storage medium
JP3640256B2 (en) Method for producing stereoscopic printed matter, stereoscopic printed matter
JP5085722B2 (en) Image generation system
JP4397216B2 (en) Method for producing stereoscopic printed matter, stereoscopic printed matter
JP2004207780A (en) Photo taking apparatus
JP4218938B2 (en) Stereoscopic prints
JP3794694B2 (en) Method for manufacturing stereoscopic printed matter, stereoscopic printed matter, and program
JP4662238B2 (en) Method for manufacturing stereoscopic printed matter, stereoscopic printed matter, image generation method, and program
JP2009169155A (en) Method for manufacturing stereoscopic printed matter, stereoscopic printed matter, image generation system, image generation method, program, and information storage medium
JP2006221372A (en) Method for manufacturing printed matter for stereoscopic vision, printed matter for stereoscopic vision, image generation method, and program
JP2018112885A (en) Program and image generation system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120829

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120905

R150 Certificate of patent or registration of utility model

Ref document number: 5085722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees