JP2008176522A - Method and device for generating defocus image - Google Patents

Method and device for generating defocus image Download PDF

Info

Publication number
JP2008176522A
JP2008176522A JP2007008647A JP2007008647A JP2008176522A JP 2008176522 A JP2008176522 A JP 2008176522A JP 2007008647 A JP2007008647 A JP 2007008647A JP 2007008647 A JP2007008647 A JP 2007008647A JP 2008176522 A JP2008176522 A JP 2008176522A
Authority
JP
Japan
Prior art keywords
image
image generation
observer
copy
generation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007008647A
Other languages
Japanese (ja)
Inventor
Masanori Kakimoto
正憲 柿本
Tomoaki Tachikawa
智章 立川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SGI Japan Ltd
Original Assignee
SGI Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SGI Japan Ltd filed Critical SGI Japan Ltd
Priority to JP2007008647A priority Critical patent/JP2008176522A/en
Publication of JP2008176522A publication Critical patent/JP2008176522A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means efficiently generating and displaying a defocus image in real time in three-dimensional CG. <P>SOLUTION: The method for generating a two-dimensional image by applying perspective transformation to an object disposed within a three-dimensional space comprises steps of: (a) setting an adjustment limit of focal point by an observer's eyeballs; (b) disposing, for an object outside the adjustment limit, a copy of the object around the original position of the object; and (c) generating an image seen from the visual point of the observer by the perspective transformation. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、3次元コンピュータグラフィックス(3DCG)の分野において、デフォーカス画像を生成する方法及び装置に関するものである。すなわち、本発明は、3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成するに際してデフォーカス画像を生成できる方法及び装置に関するものである。   The present invention relates to a method and apparatus for generating a defocused image in the field of three-dimensional computer graphics (3DCG). That is, the present invention relates to a method and apparatus capable of generating a defocused image when generating a two-dimensional image by performing perspective transformation on an object placed in a three-dimensional space.

反射・屈折の表示はコンピュータグラフィクスの研究の中で重要なテーマの一つである。従来からレイトレーシングによってこれらの処理が実現されているが、処理時間が膨大である。そのため近年は、グラフィックスハードウェアの機能である環境マッピングを使ってリアルタイムで反射・屈折を近似的に表示する手法が一般的に使われている。   Reflection and refraction display is one of the important themes in computer graphics research. Conventionally, these processes have been realized by ray tracing, but the processing time is enormous. Therefore, in recent years, a method of approximately displaying reflection / refraction in real time using environment mapping, which is a function of graphics hardware, is generally used.

レイトレーシングはもともと光学系設計のための手法であり、正確な屈折をシミュレートするために現在も使われている。精度が要求される光学系の設計には、近似手法は現在使われていない。   Ray tracing is originally a method for optical system design and is still used to simulate accurate refraction. Approximation methods are not currently used for designing optical systems that require accuracy.

しかし、人間がメガネレンズを通して見える様子をシミュレートする目的であれば、近似手法でも実用上問題ないことが期待できる。リアルタイム表示になることにより、設計検証の効率が上がるだけでなく、販売店での顧客への提示といった応用も可能となる。   However, for the purpose of simulating how a human can see through a spectacle lens, it can be expected that there is no practical problem with the approximation method. Real-time display not only increases the efficiency of design verification, but also enables applications such as presentation to customers at dealers.

リアルタイムの反射・屈折を考慮した表示を行う技術に関して、関連研究を以下に記載する。さらに、人間の視力矯正のシミュレーションに関する関連研究についても紹介する。   The related research on the technology to display in consideration of real-time reflection and refraction is described below. In addition, related research on human vision correction simulation will be introduced.

(リアルタイムの反射・屈折表示)
反射を近似するためにBlinnによって提案された環境マッピング(非特許文献1)は、ハードウェアにより実装できるため(非特許文献2及び3)、リアルタイム表示の応用に広く用いられている。環境マッピングは映りこむ物体が無限遠にあるという前提が伴うため、特に近くにある(ローカルな)物体に関して誤差が大きいという欠点があった。
(Real time reflection / refraction display)
The environment mapping proposed by Blinn to approximate reflection (Non-Patent Document 1) can be implemented by hardware (Non-Patent Documents 2 and 3) and is therefore widely used for real-time display applications. Since environment mapping involves the premise that the object to be reflected is at infinity, there is a drawback that the error is particularly large for a nearby (local) object.

近年、これを改良するための手法が考案されている。Hakura らは、ローカル物体に関しては別のレイヤーとし、個別の環境マップをレイトレーシングによる前処理で用意することでこれを解決した(非特許文献4)。しかしながら、この方法では反射・屈折物体が動いてローカル物体が頻繁に変わる場合、前処理やり直しのコストが大きい。Szirmay-Kalos らは、画素ごとに奥行き値z も持つキューブマップを求め、反射・屈折方向へのレイと物体の交点を、繰り返し計算で近似することで、ローカル物体のより正確な反射・屈折をリアルタイムで実現した(非特許文献5)。この手法の目的はゲームであるため、屈折はシーンに置かれた透過物体の雰囲気を出すことが目的であった。   In recent years, methods for improving this have been devised. Hakura et al. Solved this problem by using a separate layer for local objects and preparing individual environment maps by preprocessing by ray tracing (Non-Patent Document 4). However, in this method, when the reflecting / refracting object moves and the local object changes frequently, the cost of re-processing is large. Szirmay-Kalos et al. Found a cube map that also has a depth value z for each pixel, and approximated the intersection of the ray and the object in the reflection / refraction direction by iterative calculation, thereby making more accurate reflection / refraction of local objects Realized in real time (Non-Patent Document 5). Since the purpose of this technique is a game, refraction was aimed at creating an atmosphere of a transparent object placed in the scene.

レンズを通して見たシーン全体の様子を検証するためには、より正確な手法が必要となる。そこで、本発明者らは、レンズ各頂点を通してレイとシーンの交差計算を行い、レイトレーシングと同等の正確さを実現する手法を提案している(特願2006−124656号参照)。   In order to verify the state of the entire scene viewed through the lens, a more accurate method is required. In view of this, the present inventors have proposed a method of performing the intersection calculation of the ray and the scene through each vertex of the lens and realizing the same accuracy as ray tracing (see Japanese Patent Application No. 2006-124656).

(視力矯正のシミュレーション)
人間の眼の特性を考慮した描画手法として、被写界深度のシミュレーションは以前から行われている(非特許文献6及び7)。
(Simulation of vision correction)
As a drawing technique that takes into account the characteristics of the human eye, simulation of depth of field has been performed for some time (Non-Patent Documents 6 and 7).

眼球をレンズ系としてとらえ、視力の矯正まで考慮したシミュレーションモデルはMostafawy らによって提案された(非特許文献8)。Loos らは、波動光学的なアプローチ
であるwavefront tracing を活用し、累進焦点レンズ(境目のない遠近両用レンズ)による視力矯正のシミュレーションを行った(非特許文献9)。
A simulation model that considers the eyeball as a lens system and considers correction of vision has been proposed by Mostafawy et al. (Non-patent Document 8). Loos et al. Used wavefront tracing, which is a wave-optical approach, to simulate visual acuity correction using a progressive focus lens (a bifocal lens with no boundary) (Non-Patent Document 9).

これらの従来手法はいずれも分散レイトレーシングを使って処理を行っているため、表示速度は遅くリアルタイム処理は不可能である。
1) J.F. Blinn and M.E. Newell. Texture and reflection in computer generated images. Communications of the ACM, Vol. 19, No. 10, pp. 542-547, 1976. 2) P.Haeberli and M.Segal. Texture mapping as A fundamental drawing primitive. In Fourth Eurographics Workshop on Rendering, pp. 259-266, 1993. 3) D.Voorhies and J. Foran. Reflection vector shading hardware. In Proc. SIGGRAPH '94, pp. 163-166, 1994. 4) Z.S. Hakura, J.M. Snyder, and J.E. Lengyel. Parameterized environment maps. In SI3D '01: Proceedings of the 2001 symposium on Interactive 3D graphics, pp. 203-208, 2001. 5) L. Szirmay-Kalos, B. Aszodi, I. Lazanyi, and M. Premecz. Approximate Ray-Tracing on the GPU with Distance Impostors. Computer Graphics Forum (Proc. Eurographics 2005), Vol.24, No.3, pp. 685-704, 2005. 6) R.L. Cook, T.Porter, and L.Carpenter. Distributed Ray Tracing. In Proc. SIGGRAPH’84, pp. 137-146, 1984. 7) P.Haeberli and K.Akeley. The accumulation buffer: hardware support for high-quality rendering. In Proc. SIGGRAPH '90, pp. 309-318, 1990. 8) S.Mostafawy, O.Kermani, and H.Lubatschowski. Virtual Eye: Retinal Image Visualization of the Human Eye. IEEE CG&A, Vol.17, No.1, pp. 8-12, January-February 1997. 9) J.Loos, Ph. Slusallek, and H.-P. Seidel. Using wavefront tracing for the visualization and optimization of progressive lenses. Computer Graphics Forum (Proc. Eurographics 1998), Vol.17, No.3, pp. 255-263, 1998. 10) J.Amanatides and A.Woo. A fast voxel traversal algorithm for ray tracing. In Proc. Eurographics 1987, pp. 3-10, 1987.
Since all these conventional methods perform processing using distributed ray tracing, the display speed is slow and real-time processing is impossible.
1) JF Blinn and ME Newell.Texture and reflection in computer generated images.Communications of the ACM, Vol. 19, No. 10, pp. 542-547, 1976. 2) P. Haeberli and M. Segal. Texture mapping as A fundamental drawing primitive. In Fourth Eurographics Workshop on Rendering, pp. 259-266, 1993. 3) D. Voorhies and J. Foran. Reflection vector shading hardware. In Proc. SIGGRAPH '94, pp. 163-166, 1994. 4) ZS Hakura, JM Snyder, and JE Lengyel.Parameterized environment maps.In SI3D '01: Proceedings of the 2001 symposium on Interactive 3D graphics, pp. 203-208, 2001. 5) L. Szirmay-Kalos, B. Aszodi, I. Lazanyi, and M. Premecz. Approximate Ray-Tracing on the GPU with Distance Impostors. Computer Graphics Forum (Proc. Eurographics 2005), Vol.24, No.3, pp. 685-704, 2005. 6) RL Cook, T. Porter, and L. Carpenter. Distributed Ray Tracing. In Proc. SIGGRAPH'84, pp. 137-146, 1984. 7) P. Haeberli and K. Akeley. The accumulation buffer: hardware support for high-quality rendering. In Proc. SIGGRAPH '90, pp. 309-318, 1990. 8) S. Mostafawy, O. Kermani, and H. Lubatschowski. Virtual Eye: Retinal Image Visualization of the Human Eye. IEEE CG & A, Vol. 17, No. 1, pp. 8-12, January-February 1997. 9) J.Loos, Ph. Slusallek, and H.-P. Seidel.Using wavefront tracing for the visualization and optimization of progressive lenses.Computer Graphics Forum (Proc.Eurographics 1998), Vol.17, No.3, pp. 255-263, 1998. 10) J. Amanatides and A. Woo. A fast voxel traversal algorithm for ray tracing. In Proc. Eurographics 1987, pp. 3-10, 1987.

本発明は、前記した状況に鑑みてなされたものである。本発明は、デフォーカス画像を効率よく生成し、リアルタイムでの表示を可能にする手段を提供することを目的としている。   The present invention has been made in view of the above situation. An object of the present invention is to provide means for efficiently generating a defocused image and enabling display in real time.

前記した課題を解決するために、本発明は、以下のいずれかの項目に記載される構成を備えている。   In order to solve the above-described problems, the present invention has a configuration described in any of the following items.

(項目1)
3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する方法であって、さらに、以下のステップを備えた画像生成方法:
(a)観察者の眼球による焦点の調節限界を設定するステップ;
(b)調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置するステップ;
(c)前記観察者の視点から見た画像を前記透視変換により生成するステップ。
(Item 1)
A method for generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space, and further comprising the following steps:
(A) setting a focus adjustment limit by the eye of the observer;
(B) For an object present at a position beyond the adjustment limit, placing a copy of the object around the original position in the object;
(C) generating an image viewed from the viewpoint of the observer by the perspective transformation;

項目1に係る発明によれば、焦点の調節限界を超えた位置に存在する対象物については、その対象物の周囲に、対象物のコピーを配置するので、透視変換によって得られた画像においては、対象物がぼやけて見えることになる。これにより、デフォーカス画像を生成することができる。   According to the invention according to item 1, a copy of the object is placed around the object that exists at a position that exceeds the focus adjustment limit. Therefore, in an image obtained by perspective transformation, The object will appear blurred. Thereby, a defocused image can be generated.

(項目2)
前記対象物のコピーは複数であることを特徴とする、項目1に記載の画像生成方法。
(Item 2)
Item 2. The image generation method according to Item 1, wherein there are a plurality of copies of the object.

(項目3)
前記対象物のコピーは、前記対象物における本来の位置を中心とする円周上に配置されていることを特徴とする、項目2に記載の画像生成方法。
(Item 3)
3. The image generation method according to item 2, wherein the copy of the object is arranged on a circumference centered on an original position of the object.

(項目4)
前記対象物のコピーは、前記対象物における本来の位置を中心とする複数の同心円上に配置されていることを特徴とする、項目2に記載の画像生成方法。
(Item 4)
3. The image generation method according to item 2, wherein the copy of the object is arranged on a plurality of concentric circles centered on the original position of the object.

(項目5)
前記対象物は、少なくとも三つの頂点を備えたポリゴンによりモデリングされており、
前記ステップ(b)における、前記対象物のコピーは、前記ポリゴンを単位として配置される
ことを特徴とする、項目1〜4のいずれかに記載の画像生成方法。
(Item 5)
The object is modeled by a polygon with at least three vertices;
5. The image generation method according to any one of items 1 to 4, wherein the copy of the object in step (b) is arranged in units of the polygon.

項目5に係る発明においては、対象物のコピーを、ポリゴン毎に生成して配置することになる。対象物のモデルを構成するポリゴンを細かく設定することにより、対象物の部分に応じてぼけ量を変更することができ、より実際に近いデフォーカス画像を生成することができる。   In the invention according to item 5, a copy of the object is generated and arranged for each polygon. By finely setting the polygons constituting the model of the object, the amount of blur can be changed according to the part of the object, and a defocus image closer to the actual can be generated.

(項目6)
前記ステップ(b)において、前記対象物のコピーと、前記対象物における本来の位置との距離は、基準点から前記対象物までの距離に応じて設定される
ことを特徴とする項目1〜5のいずれかに記載の画像生成方法。
(Item 6)
In the step (b), the distance between the copy of the object and the original position in the object is set according to the distance from the reference point to the object. An image generation method according to any one of the above.

項目6に係る発明によれば、対象物の位置が調節限界から遠ざかるほど、対象物とそのコピーとの距離を離すことができる。これにより、実際に近いデフォーカス画像を生成することができる。   According to the invention according to item 6, the distance between the object and its copy can be increased as the position of the object is further away from the adjustment limit. Thereby, it is possible to generate a defocused image that is close to reality.

(項目7)
前記基準点とは、観察者の視点であることを特徴とする項目6に記載の画像生成方法。
(Item 7)
Item 7. The image generating method according to Item 6, wherein the reference point is an observer's viewpoint.

項目7に係る発明によれば、裸眼の場合における、「観察者からの見え方」をシミュレートすることができる。   According to the invention according to item 7, it is possible to simulate the “viewing from the observer” in the case of the naked eye.

(項目8)
前記基準点とは、レンズ表面と視線との交点であることを特徴とする項目6に記載の画像生成方法。
(Item 8)
The image generation method according to item 6, wherein the reference point is an intersection of the lens surface and the line of sight.

項目8に係る発明によれば、例えば眼鏡を使用した場合のように、レンズでの屈折を伴う見え方をシミュレートすることができる。   According to the invention according to item 8, it is possible to simulate the appearance accompanied by refraction at the lens, for example, when glasses are used.

(項目9)
前記対象物は、少なくとも三つの頂点を備えたポリゴンによりモデリングされており、前記基準点から前記対象物までの距離とは、前記基準点から前記ポリゴンの頂点までの距離である項目6〜8のいずれかに記載の画像生成方法。
(Item 9)
The object is modeled by a polygon having at least three vertices, and the distance from the reference point to the object is a distance from the reference point to the vertex of the polygon. The image generation method according to any one of the above.

(項目10)
前記焦点の調節限界とは、焦点調節の近点又は遠点であることを特徴とする項目1から9のいずれか1項に記載の画像生成方法。
(Item 10)
The image generation method according to any one of items 1 to 9, wherein the focus adjustment limit is a near point or a far point of focus adjustment.

もちろん、焦点の近点と遠点の両者を調節限界とすることもできる。ここで、近点とは、これ以上近くでは焦点が合わなくなる点のことである。近点が調節限界である場合は、「調節限界を超える」とは、近点より近いことである。また、遠点とは、これ以上遠くでは焦点が合わなくなる点のことである。遠点が調節限界である場合は、「調節限界を超える」とは、遠点より遠いことである。近点と遠点との間においては、焦点調整が可能であることになる。   Of course, both the near point and the far point of the focus can be set as adjustment limits. Here, the near point is a point where the focus is not achieved near this point. When the near point is the adjustment limit, “exceeding the adjustment limit” means closer to the near point. Further, the far point is a point at which the focus is not achieved at a far distance. When the far point is the adjustment limit, “exceeding the adjustment limit” means being far from the far point. Focus adjustment is possible between the near point and the far point.

ここで、近点や遠点は、例えば次のようにして設定できる。
・対象者(観察者)の眼球の状態に基づいて、使用の都度に設定;
・平均的な眼球の状態に基づいて予め設定;
・眼鏡を使用した状態を仮定して設定。
Here, the near point and the far point can be set as follows, for example.
・ Set for each use based on the eyeball of the subject (observer);
-Preset based on average eyeball condition;
・ Set assuming glasses are used.

(項目11)
前記遠点又は前記近点は、レンズによる矯正後のものであることを特徴とする項目10に記載の画像生成方法。
(Item 11)
The image generation method according to item 10, wherein the far point or the near point is after correction by a lens.

項目11に係る発明によれば、レンズによる矯正後の状態を簡便にシミュレートすることができる。   According to the invention according to item 11, the state after correction by the lens can be simulated easily.

(項目12)
前記ステップ(b)において、前記対象物のコピーと、前記対象物における本来の位置との距離は、以下のステップを含む処理により設定されていることを特徴とする、項目1〜11のいずれか1項に記載の画像生成方法。
(b1)前記透視変換の対象となる3次元空間内に複数のボクセルを配置するステップ;
(b2)前記ボクセル毎に前記距離を予め設定しておくステップ。
(Item 12)
Any of items 1 to 11, wherein in step (b), the distance between the copy of the object and the original position in the object is set by a process including the following steps: 2. The image generation method according to item 1.
(B1) arranging a plurality of voxels in a three-dimensional space to be subjected to the perspective transformation;
(B2) A step of presetting the distance for each voxel.

項目12に係る発明によれば、ボクセル毎に事前の計算を行っておくことにより、表示のリアルタイム性を向上させることができる。   According to the invention according to item 12, the real-time property of display can be improved by performing a prior calculation for each voxel.

(項目13)
前記ボクセルが占める領域は、観察者の視点に近いほど細かく設定されていることを特徴とする項目12に記載の画像生成方法。
(Item 13)
13. The image generation method according to item 12, wherein the area occupied by the voxel is set to be finer as it is closer to the viewpoint of the observer.

項目13に係る発明によれば、観察者の視点に近いほど、ぼけ量(デフォーカス量)を細かく変更できるので、実際の見え方をより正確にシミュレートすることができる。また、このようなボクセル設定は、3次元モデリング空間を用いた画像生成に必須の透視変換と親和性の高い処理となるので、画像生成に要する処理時間を短縮することが可能になる。   According to the invention according to item 13, the closer to the observer's viewpoint, the finer the blur amount (defocus amount) can be changed, so that the actual appearance can be simulated more accurately. In addition, such voxel setting is a process having high affinity with the perspective transformation essential for image generation using the three-dimensional modeling space, and thus it is possible to shorten the processing time required for image generation.

(項目14)
3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する装置であって、
この装置は、記憶部と画像生成部とを備えており、
前記記憶部は、処理に必要なデータやコンピュータソフトウエアを格納するものであり、
前記画像生成部は、以下の処理を行うことを特徴とする画像生成装置:
(a)観察者の眼球による焦点の調節限界を設定する処理;
(b)調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置する処理;
(c)前記観察者の視点から見た画像を前記透視変換により生成する処理。
(Item 14)
An apparatus for generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space,
The apparatus includes a storage unit and an image generation unit,
The storage unit stores data and computer software necessary for processing,
The image generation unit performs the following processing:
(A) a process of setting a focus adjustment limit by the eyeball of the observer;
(B) For an object existing at a position exceeding the adjustment limit, a process of arranging a copy of the object around the original position of the object;
(C) Processing for generating an image viewed from the observer's viewpoint by the perspective transformation.

(項目15)
3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する方法であって、さらに、以下のステップを備えた画像生成方法を、コンピュータにより実行させることを特徴とするコンピュータプログラム:
(a)観察者の眼球による焦点の調節限界を設定するステップ;
(b)調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置するステップ;
(c)前記観察者の視点から見た画像を前記透視変換により生成するステップ。
(Item 15)
A method of generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space, and further comprising causing a computer to execute an image generation method including the following steps: Computer program:
(A) setting a focus adjustment limit by the eye of the observer;
(B) For an object present at a position beyond the adjustment limit, placing a copy of the object around the original position in the object;
(C) generating an image viewed from the viewpoint of the observer by the perspective transformation;

(項目16)
3次元空間内に配置された対象物を透視変換することにより得られた画像データであって、
観察者の眼球による焦点の調節限界を超えた位置に存在する対象物については、対象物における本来の位置の周囲に、対象物の複数のコピーが配置された状態で透視変換されている
ことを特徴とする画像データ。
(Item 16)
Image data obtained by perspective-transforming an object placed in a three-dimensional space,
For objects existing beyond the limit of focus adjustment by the observer's eyeball, the perspective is converted with multiple copies of the object placed around the original position of the object. Feature image data.

項目16の発明によれば、焦点の調節限界を超えた位置にある対象物については、対象物本来の位置の周囲に、それをコピーした対象物が配置されている。このため、実際に近いぼけを有するデフォーカス画像を提供することができる。   According to the invention of item 16, for an object at a position exceeding the focus adjustment limit, an object obtained by copying the object is disposed around the original position of the object. For this reason, it is possible to provide a defocused image having a blur that is actually close.

(項目17)
3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する方法であって、さらに、以下のステップを備えた画像生成方法:
(a)観察者の眼球による焦点の調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置するステップ;
(b)前記観察者の視点から見た画像を前記透視変換により生成するステップ。
(Item 17)
A method for generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space, and further comprising the following steps:
(A) For an object existing at a position beyond the focus adjustment limit by the observer's eyeball, placing a copy of the object around the original position of the object;
(B) generating an image viewed from the viewpoint of the observer by the perspective transformation;

焦点の調節限界は、使用の都度設定しても良いし、何らかの固定された値や自動的に生成される値(例えば使用者の年齢等から算出される値)を用いても良い。この場合も、項目1と同様の効果を発揮できる。   The focus adjustment limit may be set at each use, or some fixed value or an automatically generated value (for example, a value calculated from the user's age or the like) may be used. Also in this case, the same effect as item 1 can be exhibited.

本発明によれば、デフォーカス画像を効率よく生成し、リアルタイムでの表示を可能にする手段を提供することができる。   According to the present invention, it is possible to provide means for efficiently generating a defocused image and enabling real-time display.

以下、本発明の一実施形態を、添付図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

(画像生成装置)
まず、本実施形態の実施に用いる画像生成装置を、図1に基づいて説明する。この画像生成装置は、入力部10と、入力インタフェース11と、表示部20と、出力インタフェース21と、記憶部30と、画像生成部40と、バス50とを備えている。これらの構成要素は、ワークステーションやコンピュータなどのハードウエア自体、又は、ハードウエアにコンピュータプログラムを組み込むことによって構成することができる。
(Image generation device)
First, an image generation apparatus used for implementing this embodiment will be described with reference to FIG. The image generation apparatus includes an input unit 10, an input interface 11, a display unit 20, an output interface 21, a storage unit 30, an image generation unit 40, and a bus 50. These components can be configured by hardware itself such as a workstation or a computer, or by incorporating a computer program in the hardware.

入力部10は、入力インタフェース11を介してバス50に接続されている。入力部10は、例えばキーボードやマウスやタッチパッドなどの適宜な入力機器であり、これを用いて操作者からの指令を入力できるようになっている。   The input unit 10 is connected to the bus 50 via the input interface 11. The input unit 10 is an appropriate input device such as a keyboard, a mouse, or a touch pad, for example, and can be used to input a command from an operator.

表示部20は、出力インタフェース21を介してバス50に接続されている。出力部20は、例えばディスプレイやプリンタなどの適宜な出力機器である。出力部20は、画像生成部40で生成された画像(透視変換により得た2次元画像)を受け取って利用者に提示できる構成になっている。   The display unit 20 is connected to the bus 50 via the output interface 21. The output unit 20 is an appropriate output device such as a display or a printer. The output unit 20 is configured to receive the image generated by the image generation unit 40 (two-dimensional image obtained by perspective transformation) and present it to the user.

記憶部30は、データ(コンピュータプログラムを含む)の記憶や読み出しができる機器である。記憶部30としては、磁気的記憶装置(例えばハードディスク)、半導体記憶装置(例えばメモリボード)、光学的記憶装置(例えばDVDなどの光ディスクを用いた記憶装置)など、適宜の装置を用いることができる。記憶部30は、ワークステーションやコンピュータに内蔵されているものでも、インターフェース機器を介して外部に接続されるものでもよい。さらに、記憶部30としては、ネットワークを介して利用できる記憶装置であってもよい。記憶部30は、物理的には複数存在する記憶装置によって構成されていてもよい。   The storage unit 30 is a device that can store and read data (including computer programs). As the storage unit 30, an appropriate device such as a magnetic storage device (for example, a hard disk), a semiconductor storage device (for example, a memory board), or an optical storage device (for example, a storage device using an optical disk such as a DVD) can be used. . The storage unit 30 may be built in a workstation or computer, or may be connected to the outside via an interface device. Furthermore, the storage unit 30 may be a storage device that can be used via a network. The storage unit 30 may be physically configured by a plurality of storage devices.

本実施形態に係る記憶部30には、ワークステーションやコンピュータを用いて画像生成部40を構成するためのコンピュータプログラムや、本実施形態の方法の実施に用いるデータが予め格納されている。また、記憶部30は、本実施形態の方法の実施に伴って生成されるデータを格納できるようになっている。   The storage unit 30 according to the present embodiment stores in advance a computer program for configuring the image generation unit 40 using a workstation or a computer, and data used for performing the method of the present embodiment. In addition, the storage unit 30 can store data generated in accordance with the execution of the method of the present embodiment.

画像生成部40は、以下の処理を行う構成となっている。
(a)観察者の眼球による焦点の調節限界を設定する処理;
(b)調節限界を超えた位置に存在する対象物については、対象物における本来の位置の周囲に、対象物のコピーを配置する処理;
(c)前記観察者の視点から見た画像を前記透視変換により生成する処理。
The image generation unit 40 is configured to perform the following processing.
(A) a process of setting a focus adjustment limit by the eyeball of the observer;
(B) For an object that exists at a position beyond the adjustment limit, a process of placing a copy of the object around the original position of the object;
(C) Processing for generating an image viewed from the observer's viewpoint by the perspective transformation.

これらの処理の詳細は、本実施形態に係る画像生成方法の説明(後述)において述べる。画像生成部40は、ワークステーションやコンピュータ上で、コンピュータプログラムを実行することにより、機能要素として構成されるものである。   Details of these processes will be described in the description (described later) of the image generation method according to the present embodiment. The image generation unit 40 is configured as a functional element by executing a computer program on a workstation or a computer.

バス50は、前記した各部間でのデータのやりとりを可能にする伝送路である。バス50としては、一本のバスを共用する構成に限らず、専用のバスを別途用いる構成であってもよい。また、伝送路としては、有線でなく無線でもよい。要するに伝送路としては、データのやりとりができればよく、物理的構成や使用するプロトコルは制約されない。   The bus 50 is a transmission path that enables data exchange between the above-described units. The bus 50 is not limited to a configuration in which one bus is shared, and a configuration in which a dedicated bus is separately used. Further, the transmission path may be wireless instead of wired. In short, the transmission path only needs to be able to exchange data, and the physical configuration and the protocol to be used are not limited.

(本実施形態に係る画像生成方法)
つぎに、本実施形態に係る画像生成方法を説明する。以下においては、まず、レンズによる歪みを正確に表示するための屈折処理に用いる、頂点ベースのレイトレーシングについて説明する。なお、本実施形態の説明においては、対象となる物体はすべてポリゴンモデルとしている。
(Image generation method according to this embodiment)
Next, an image generation method according to the present embodiment will be described. In the following, vertex-based ray tracing used for refraction processing for accurately displaying distortion caused by a lens will be described first. In the description of the present embodiment, all target objects are polygon models.

(アルゴリズム)
毎フレームについて行われる処理手順は、以下のとおりである。図2と対応させて説明する。なお、このアルゴリズムは、発明者らによる前記した非特許文献11に記載されているものと同様である。
( 1 ) 反射・屈折物体表面1の頂点1aでの反射・屈折ベクトルをすべて求める;
( 2 ) 仮想視点2と視野を求め、環境マップを描画する;
( 3 ) 反射・屈折物体の各頂点について:
( a ) 反射・屈折ベクトルの延長がシーン中の物体3と交差する点(交点)4を求める;
( b ) 上記交点4と仮想視点2を結ぶ直線5を求める;
( c ) 上記直線5と環境マップ投影面6との交点を求める;
( d ) 上記交点4の、環境マップ画像上での座標を、頂点1aのテクスチャ座標とする;
( 4 ) 本来の視点から反射・屈折物体とシーン全体を描画する。
(algorithm)
The processing procedure performed for each frame is as follows. A description will be given in correspondence with FIG. This algorithm is the same as that described in Non-Patent Document 11 by the inventors.
(1) Obtain all reflection / refraction vectors at the vertex 1a of the reflection / refraction object surface 1;
(2) Obtain virtual viewpoint 2 and field of view and draw environment map;
(3) For each vertex of a reflective / refractive object:
(a) Find the point (intersection) 4 where the extension of the reflection / refraction vector intersects the object 3 in the scene;
(b) Find a straight line 5 connecting the intersection 4 and the virtual viewpoint 2;
(c) Find the intersection of the straight line 5 and the environment map projection plane 6;
(d) The coordinates of the intersection 4 on the environment map image are set as the texture coordinates of the vertex 1a;
(4) Draw the reflection / refraction object and the entire scene from the original viewpoint.

上記(2) の仮想視点2は、反射・屈折ベクトルをいくつか選び、それらの延長線に最も近くなる点として求める。本アルゴリズムでは、反射・屈折物体の各頂点について正確な位置が映りこむことが基本的に保証される。   The virtual viewpoint 2 in (2) above is obtained as a point closest to the extension line by selecting several reflection / refraction vectors. This algorithm basically guarantees that the exact position of each vertex of the reflective / refractive object is reflected.

例外として、頂点と仮想視点のずれに起因して遮蔽物体の食い違いが起こる場合がある。これは反射・屈折物体が大きく、かつレイの広がりが極端に大きい場合にほぼ限られ、レンズのシミュレーションでは問題にならない。   As an exception, there may be a discrepancy between occluded objects due to a shift between the vertex and the virtual viewpoint. This is almost limited to cases where the reflective / refractive object is large and the ray spread is extremely large, and this is not a problem in lens simulation.

図2では反射の例について示しているが、レンズのような屈折物体の場合は、入射と出射の2 回の屈折を経たあとのレイを求めて同様の手順を実行する。   Although an example of reflection is shown in FIG. 2, in the case of a refracting object such as a lens, a similar procedure is performed by obtaining a ray after two refractions of incident and outgoing.

(反射と屈折の表示結果)
頂点ベースのレイトレーシングの反射の表示例を図3(a)及び(b)に示す。比較として、従来のキューブマッピングによる反射の表示例を図3(c)及び(d)に示す。キューブマッピングではずれが生じるローカル物体の映りこみも、頂点ベースのレイトレーシングでは正確に処理されていることがわかる。これらの図では、車のドアミラーに映りこんだ画像を表示している。図(b)及び図(d)の画像では、ミラーのワイヤーフレームモデルを重ね合わせている。多数の球は、反射ベクトルとシーンとの交点に配置した。頂点ベースのレイトレーシングでは交点が正確に頂点部分に映りこんでいる。また、レンズを通した屈折の表示例を図4に示す。この図は、凹レンズを通した屈折の表示結果を示している。図(b)は図(a)の右端付近を拡大したもので、レンズ頂点をワイヤーフレームで表示し、屈折ベクトルとシーンの交点に小さな球を配置したものである。この図においても、屈折ベクトルの交点が頂点に正確に映りこんでいることがわかる。
(Reflection and refraction display results)
Display examples of vertex-based ray tracing reflection are shown in FIGS. As a comparison, FIGS. 3C and 3D show examples of reflection display by conventional cube mapping. It can be seen that the reflection of local objects, which are displaced by cube mapping, is accurately processed by vertex-based ray tracing. In these figures, an image reflected on the door mirror of the car is displayed. In the images of FIGS. (B) and (d), mirror wireframe models are superimposed. Many spheres were placed at the intersection of the reflection vector and the scene. In vertex-based ray tracing, the intersection is accurately reflected in the vertex. Further, FIG. 4 shows a display example of refraction through a lens. This figure shows the display result of refraction through a concave lens. FIG. 2B is an enlarged view of the vicinity of the right end of FIG. 2A, in which the lens apex is displayed in a wire frame, and a small sphere is arranged at the intersection of the refraction vector and the scene. Also in this figure, it can be seen that the intersection of the refraction vectors is accurately reflected at the apex.

(デフォーカスの補正)
以下では、デフォーカスのモデル化と、メガネレンズによる矯正後のデフォーカスを考慮した表示処理とについて述べる。以下の手法では、幾何光学を利用した簡易モデルを用いることとし、波動光学の要素は考慮しない。
(Defocus correction)
Hereinafter, modeling of defocus and display processing in consideration of defocus after correction by the eyeglass lens will be described. In the following method, a simple model using geometric optics is used, and the elements of wave optics are not considered.

(実施例1:裸眼の場合)
まず、裸眼でのデフォーカスについて考えてみる。眼光学では、最も近くに焦点を合わせたとき、眼球からその点までの距離を近点、逆に最も遠くに合わせたときの距離を遠点と呼ぶ。近点が大きい人ほど老視(老眼)が強く、遠点が小さい人ほど近視が強いことになる。
(Example 1: In the case of the naked eye)
First, consider defocusing with the naked eye. In ophthalmic optics, when the closest focus is achieved, the distance from the eyeball to that point is referred to as the near point, and conversely, the distance when the focus is adjusted farthest is referred to as the far point. A person with a large near point has a strong presbyopia (presbyopia), and a person with a small far point has a strong myopia.

図5は、本実施形態の手法で用いる簡易モデルである。眼球の屈折は、本来、角膜と水晶体の2ヶ所で起こるが、ここでは、これらを一つの薄いレンズとみなす(図5(a)参照)。   FIG. 5 is a simple model used in the method of this embodiment. Refraction of the eyeball originally occurs in two places, the cornea and the lens, but here they are regarded as one thin lens (see FIG. 5 (a)).

近点に合わせた状態で近点よりもさらに近くの被写体(対象物)を見た場合にデフォーカスが起こる。瞳の開口の直径をA、瞳から近点までの距離をn とし、近点よりもさらにzn だけ内側に点状の被写体があったとする(図5(b))。この被写体を見ようとしても、開口からのレイは一点に収束せず、被写体を中心として視線に垂直な直径Dn の円盤状に拡がる。ここで Defocusing occurs when an object (object) closer to the near point is seen in the state of being matched with the near point. Assume that the diameter of the pupil opening is A, the distance from the pupil to the near point is n, and there is a point-like subject inside z n further from the near point (FIG. 5B). Even if it tries to look at this subject, the ray from the opening does not converge to one point, but spreads in a disk shape with a diameter D n perpendicular to the line of sight centering on the subject. here

Dn =Azn/n (1) D n = Az n / n (1)

である。提案手法では、この直径Dn の円盤を点拡がり関数(Point Spread Function)とみなし、被写体を円盤内に多数サンプリング配置したのちに通常のCGのカメラモデルで描画することによりデフォーカスを実現する。すなわち、調節限界としての近点を超えた位置に存在する対象物については、対象物における本来の位置の周囲に、対象物のコピーを配置する。 It is. In the proposed method, the disk with the diameter D n is regarded as a point spread function, and a large number of objects are sampled in the disk and then drawn with a normal CG camera model. That is, for an object existing at a position beyond the near point as the adjustment limit, a copy of the object is arranged around the original position of the object.

各サンプル(つまり各コピー)の描画結果はアキュムレーションバッファ(非特許文献7参照)を使って重み付け(平均化)をして合成することができる。これにより、複数のコピーが対象物の近傍に半透明物体として存在する画像を作り出すことができる。これがデフォーカス画像となる。具体的には、例えば次のような処理が可能である。まず、0番のサンプルについて透視変換して画像を生成し、それをアキュムレーションバッファに入れる。つぎに、1番のサンプルについて同様に画像を生成してアキュムレーションバッファに入れる。以降同様にして、所定数のサンプルについて、2次元画像を生成する。ついで、これらの2次元画像を合成して、デフォーカス画像を生成できる。このとき、元の画像の輝度を1とすると、合成画像の輝度が1となるように、重みづけ(例えばサンプル数10であれば各サンプル画像の輝度を1/10とすること)を行う。   The drawing result of each sample (that is, each copy) can be synthesized by weighting (averaging) using an accumulation buffer (see Non-Patent Document 7). Thereby, it is possible to create an image in which a plurality of copies exist as a semi-transparent object in the vicinity of the object. This is a defocused image. Specifically, for example, the following processing is possible. First, a perspective transformation is performed on the 0th sample to generate an image, which is put in an accumulation buffer. Next, an image is similarly generated for the first sample and placed in the accumulation buffer. Thereafter, similarly, a two-dimensional image is generated for a predetermined number of samples. Then, these two-dimensional images can be combined to generate a defocused image. At this time, if the brightness of the original image is 1, weighting is performed so that the brightness of the composite image is 1 (for example, if the number of samples is 10, the brightness of each sample image is 1/10).

図5(c) に示すように、遠点よりさらに遠くの被写体を見たときにもデフォーカスが起こる。このときも、被写体を直径   As shown in FIG. 5 (c), defocusing occurs even when a subject farther than the far point is viewed. Again, the subject

Df =Azf/f (2) D f = Az f / f (2)

の円盤内でサンプリング配置することによりデフォーカスをシミュレートする。すなわち、調節限界としての遠点を超えた位置に存在する対象物については、対象物における本来の位置の周囲に、対象物のコピーを配置する。 Defocusing is simulated by sampling in the disk. That is, for an object that exists at a position beyond the far point as the adjustment limit, a copy of the object is placed around the original position of the object.

(頂点の変位処理)
実際の被写体であるポリゴンモデルに対するデフォーカス画像の生成方法を、図6のフローチャートを参照しながら説明する。
(Vertex displacement processing)
A method of generating a defocus image for a polygon model that is an actual subject will be described with reference to the flowchart of FIG.

(ステップSA−1)
はじめに、前記したとおり、想定される対象者の眼球の特性に応じて、近点近点及び遠点を設定する。この設定は、操作者が入力部10を用いて行うことができる。ただし、近点及び遠点の位置は、事前に設定された適宜な固定値を用いても良い。この場合は、使用時における設定作業を省略することができる。
(Step SA-1)
First, as described above, the near point and the far point are set according to the characteristics of the assumed eyeball of the subject. This setting can be performed by the operator using the input unit 10. However, for the positions of the near point and the far point, an appropriate fixed value set in advance may be used. In this case, setting work at the time of use can be omitted.

(ステップSA−2)
ついで、サンプリング数S を決め、すべての与えられたモデル(この実施例ではポリゴン)についてクローン(つまりコピー)を作る。各クローンにはクローン番号i(i = 0, 1, .., S-1)を付す。便宜上、もとのモデルにも、クローン番号0を付し、クローンの一種として扱う。表示処理の際には、S 個のクローンすべてを表示するが、全頂点について、視点からの距離に応じて、式(1) または式(2) の範囲内で視線と垂直方向に変位させる(ただし、元の頂点を消去するのではなく、頂点のコピーが生成されるという意味である)。頂点が近点と遠点の間にある場合は変位は0となる。変位した各頂点を結べばコピーのポリゴンが生成できることになる(後述)。ここで、各頂点の変位量は、視点から頂点までの距離により決定される。したがって、一つのポリゴンを構成する三つの頂点の変位量は、視点からの距離によりそれぞれ決定されることになる。変位した頂点を結ぶことで、コピーのポリゴンが生成される。よって、結果的には、コピーのポリゴンの変位量自体も、視点からの距離により決定されていることになる。
(Step SA-2)
Next, the sampling number S is determined, and clones (that is, copies) are made for all given models (polygons in this embodiment). Each clone is assigned a clone number i (i = 0, 1, .., S-1). For convenience, the original model is also assigned a clone number 0 and treated as a kind of clone. During the display process, all S clones are displayed, but all vertices are displaced in the direction perpendicular to the line of sight within the range of Equation (1) or Equation (2) according to the distance from the viewpoint ( (However, this means that instead of deleting the original vertex, a copy of the vertex is generated). If the vertex is between the near and far points, the displacement is zero. By connecting the displaced vertices, a copy polygon can be generated (described later). Here, the displacement amount of each vertex is determined by the distance from the viewpoint to the vertex. Therefore, the displacement amounts of the three vertices constituting one polygon are respectively determined by the distance from the viewpoint. By connecting the displaced vertices, a copy polygon is generated. Therefore, as a result, the displacement amount of the copy polygon itself is also determined by the distance from the viewpoint.

変位の方向と大きさは、あらかじめ定めたS 個の変位ベクトルdi(i = 0, 1, ..., S-1)からなる変位ベクトルセットのうち、その頂点の属するモデルのクローン番号にしたがって選択する。図7に変位ベクトルの例を示す。図では近点の内側と遠点の外側とについてそれぞれ一つずつの変位ベクトルセット(S = 17)を例示している。 The direction and magnitude of the displacement is determined by the clone number of the model to which the vertex belongs in the displacement vector set consisting of S displacement vectors d i (i = 0, 1, ..., S-1). Therefore, select. FIG. 7 shows an example of the displacement vector. In the figure, one displacement vector set (S = 17) is illustrated for each of the inside of the near point and the outside of the far point.

実装時は、変位ベクトルは正規化したものを1 セットだけ保持し、頂点位置でのDn またはDf の値に応じてその場で大きさを決める。近点と遠点の間では、変位は0 なので、すべての変位ベクトルが0 であるような変位ベクトルセットとする。これは、焦点が完全に合わせられ、デフォーカスがまったくないことを意味する。 At the time of implementation, only one set of normalized displacement vectors is retained, and the size is determined on the spot according to the value of D n or D f at the vertex position. Since the displacement is zero between the near point and the far point, the displacement vector set is such that all the displacement vectors are zero. This means that it is fully focused and has no defocus at all.

(ステップSA−3)
ついで、前記した通り、モデルのコピーを、対象物の周囲に配置する。つまり、前記の手順で変位されたコピーの頂点を結ぶことで、コピーのポリゴンを生成できる。コピーと対象物との距離は、前記したとおり、変位ベクトルセットによって決まる。式(1)及び(2)から明らかなように、対象物のコピーと、対象物における本来の位置との距離は、基準点(前記の例では視点)から対象物までの距離に応じて設定される。つまり、近点より近い位置の対象物については、近いほどずれ量が大きくなり、遠点より遠い位置の対象物については、遠いほどずれ量が大きくなる。
(Step SA-3)
Then, as described above, a copy of the model is placed around the object. That is, a copy polygon can be generated by connecting the vertices of the copy displaced in the above procedure. As described above, the distance between the copy and the object is determined by the displacement vector set. As is clear from the equations (1) and (2), the distance between the copy of the object and the original position in the object is set according to the distance from the reference point (the viewpoint in the above example) to the object. Is done. That is, for an object at a position closer to the near point, the shift amount increases as it is closer, and for an object at a position farther from the far point, the shift amount increases as it is further away.

(ステップSA−4)
ついで、前記のようにして生成された3次元シーンを、ビューボリューム内で透視変換する。これにより、描画を行うことができる。透視変換自体は従来からよく知られた手法を用いることができるので、詳細な説明を省略する。得られた画像データは、「観察者の眼球による焦点の調節限界を超えた位置に存在する対象物については、対象物における本来の位置の周囲に、対象物の複数のコピーが配置された状態で透視変換されている」ものとなっている。画像データの実例は後述する。
(Step SA-4)
Next, the three-dimensional scene generated as described above is perspective-transformed in the view volume. Thereby, drawing can be performed. Since the perspective transformation itself can use a well-known method, detailed description thereof will be omitted. The obtained image data is “a state in which a plurality of copies of the object are arranged around the original position of the object for the object existing beyond the focus adjustment limit by the observer's eyeball”. It has been “transparent-converted”. An example of image data will be described later.

(実施例2:眼鏡使用の場合)
(デフォーカス量の空間分布)
実施例1の方法では、頂点が決まれば視点からの距離が決まり、変位量を式(1) または式(2) によって計算して変位ベクトルを求めた。裸眼の視覚モデルとしてはこれでよいが、レンズを用いる場合は、各頂点について計算で変位ベクトルを求めるのは困難である。そこで、眼鏡使用の場合におけるデフォーカス画像の生成方法を、図8に示すフローチャートを参照しながら説明する。この方法では、図9に示されるように、立方体のボクセルによる空間分割を行い、各ボクセルについて変位ベクトルセットを前計算する。
(Example 2: When using glasses)
(Spatial distribution of defocus amount)
In the method of the first embodiment, when the vertex is determined, the distance from the viewpoint is determined, and the displacement vector is obtained by calculating the displacement amount by the equation (1) or (2). This may be used as a naked eye visual model, but when a lens is used, it is difficult to calculate a displacement vector for each vertex. Therefore, a method for generating a defocused image when glasses are used will be described with reference to the flowchart shown in FIG. In this method, as shown in FIG. 9, space division is performed by cubic voxels, and a displacement vector set is pre-calculated for each voxel.

ここでは、眼とメガネレンズの位置関係が固定という前提条件を用いる。また、ボクセル空間はシーン全体を包含するのに十分な大きさで設定する。したがって、ボクセルは、ビューボリューム内に配置されることになる。   Here, the precondition that the positional relationship between the eye and the eyeglass lens is fixed is used. The voxel space is set with a size sufficient to encompass the entire scene. Therefore, the voxel is arranged in the view volume.

詳細な説明の前に、前計算の概略を以下に説明する。まず全ボクセルの変位ベクトルを初期化したあと、近点に合わせた状態での変位ベクトルを、次に遠点に合わせた状態での
変位ベクトルを各ボクセルに記録していく。
Before the detailed description, the outline of the pre-calculation will be described below. First, after initializing the displacement vectors of all the voxels, the displacement vector in the state matched with the near point is recorded in each voxel, and the displacement vector in the state matched with the far point is recorded in each voxel.

一回の変位ベクトルの記録の処理は次のようになる。視点からレンズ面にある一点に対して近点用または遠点用のレイの束(光束)を発し、その束が通るボクセルにおけるレイの拡がりを変位ベクトルセットとして蓄積する。この処理を、レンズ面上の点を一定間隔で走査する形で光束の生成と処理を繰り返す。各ボクセル側から見ると光束が複数回通ることになるが、複数回蓄積した変位ベクトルセットから最後に平均の変位ベクトルセットを計算する。   The process of recording the displacement vector once is as follows. A ray bundle (light beam) for near points or far points is emitted from a viewpoint to a point on the lens surface, and the spread of rays in the voxel through which the bundle passes is accumulated as a displacement vector set. This process is repeated by generating and processing a light beam by scanning points on the lens surface at regular intervals. When viewed from the side of each voxel, the light beam passes a plurality of times, but an average displacement vector set is finally calculated from the displacement vector set accumulated a plurality of times.

(ステップSB−1)
以下、近点用の光束を処理する方法について詳細に説明する(図10参照)。まず、視点7からレンズ上の与えられた一点に対して光線を生成する。この光線を中心として光束を生成するため、これを基準光線8とよぶことにする。光束の中の他の光線の開始点9は視点の近傍に設ける。この開始点は瞳孔の表面に対応するもので、視点を中心とし基準光線に垂直な直径A(実施例1で述べた瞳の開口直径)の円盤内でほぼ一様に分布させる。
(Step SB-1)
Hereinafter, a method for processing the near-point light beam will be described in detail (see FIG. 10). First, a light ray is generated from a viewpoint 7 to a given point on the lens. In order to generate a light beam centered on this light beam, it will be referred to as a reference light beam 8. The starting point 9 of another ray in the light beam is provided in the vicinity of the viewpoint. This starting point corresponds to the surface of the pupil and is distributed almost uniformly in a disk having a diameter A (pupil opening diameter described in the first embodiment) centered on the viewpoint and perpendicular to the reference ray.

次に、基準光線上の近点61(裸眼の場合)を求め、基準光線以外の光線もすべてそこを通るようにする。本例では、近点61の位置は、適宜の方法で測定されて入力されるものとして扱う。結果として、光束は近点で収束する細長い円錐状の形となる。   Next, a near point 61 (in the case of the naked eye) on the reference ray is obtained, and all rays other than the reference ray pass therethrough. In this example, it is assumed that the position of the near point 61 is measured and input by an appropriate method. As a result, the light beam has an elongated conical shape that converges at a near point.

さらに、基準光線を含む各光線についてレンズ63で2回屈折を行い、屈折後の光束が最も収束する点を求め、これを矯正近点62とする。光束が最も収束する点は、最小二乗法を用いた計算によって求めることができる。矯正遠点についても同様にして求めることができる。これにより、眼鏡使用の場合における焦点の調節限界(矯正近点及び矯正遠点)を設定することができる。   Further, each light beam including the reference light beam is refracted twice by the lens 63 to obtain a point at which the refracted light beam converges most, and this is set as a correction near point 62. The point at which the luminous flux converges most can be obtained by calculation using the least square method. The correction far point can be obtained in the same manner. Thereby, the focus adjustment limit (correction near point and correction far point) in the case of using glasses can be set.

(ステップSB−2)
矯正近点よりも視点に近い場所について、屈折後の基準光線が通るボクセルをたどり(たどる方法については非特許文献10参照)、そのボクセルにおける屈折後の光束の拡がりを、変位ベクトルセットとして蓄積する。具体的には、ボクセルで切り取られた基準光線(屈折後)の中点を求め、その中点を通り基準光線に垂直な平面を求める。屈折後の光束の各光線がその垂直平面に交わる点に、前記中点から引いたベクトル群を変位ベクトルセットとする(図10(c) 参照)。ここで、変位ベクトルセットそのものは、裸眼の場合と同様でよい(図7参照)。
(Step SB-2)
Traces the voxel through which the refracted reference ray passes for a place closer to the viewpoint than the correction near point (see Non-Patent Document 10 for the method of tracing), and accumulates the spread of the light beam after refraction at the voxel as a displacement vector set. . Specifically, the midpoint of the reference ray (after refraction) cut out by the voxel is obtained, and a plane that passes through the midpoint and is perpendicular to the reference ray is obtained. A vector group drawn from the midpoint is defined as a displacement vector set at a point where each light beam of the refracted light beam intersects the vertical plane (see FIG. 10 (c)). Here, the displacement vector set itself may be the same as in the case of the naked eye (see FIG. 7).

以上の処理をレンズ上の各点(通常は頂点でよい)について繰り返す。すなわち、この実施例2では、レンズ表面と視線(基準光線)との交点を基準点とすれば、この基準点からの距離に応じて、変位ベクトルセットの長さ(コピーまでの離間距離)が決まっていることになる。遠点に関しても同様の処理となるので、遠点については詳細な説明を省略する。   The above process is repeated for each point on the lens (usually a vertex). That is, in the second embodiment, if the intersection of the lens surface and the line of sight (reference ray) is taken as a reference point, the length of the displacement vector set (separation distance to the copy) depends on the distance from this reference point. It will be decided. Since the same processing is performed for the far point, the detailed description of the far point is omitted.

最後に各ボクセルについて蓄積した変位ベクトルから平均を求め、前処理を終了する。   Finally, an average is obtained from the displacement vectors stored for each voxel, and the preprocessing is terminated.

(ステップSB−3)
表示処理の実行時には、すべてのクローンモデルの頂点について次のような手順を行う。まず、その頂点の属するボクセルを求める。これは一回の座標変換によって求まる。次に、そのボクセルに記録された変位ベクトルセットから、頂点のクローン番号に応じて変位ベクトルを選び、実施例1と同様の手法により、実際に頂点を変位させる。また、実施例1と同様に、実際の3次元シーンにおいて、各クローンモデルを合成する。これにより、三つの頂点で構成されるポリゴンのコピーを多数生成できることになる。
(Step SB-3)
When executing the display process, the following procedure is performed for the vertices of all clone models. First, the voxel to which the vertex belongs is obtained. This is obtained by a single coordinate transformation. Next, a displacement vector is selected from the displacement vector set recorded in the voxel according to the clone number of the vertex, and the vertex is actually displaced by the same method as in the first embodiment. Similarly to the first embodiment, each clone model is synthesized in an actual three-dimensional scene. This makes it possible to generate a large number of polygon copies composed of three vertices.

(ステップSB−4)
ついで、実施例1のステップSA−4と同様に、透視変換を行い、デフォーカス画像を生成することができる。
(Step SB-4)
Next, as in step SA-4 of the first embodiment, perspective transformation can be performed to generate a defocused image.

(実験結果)
実施例2の手法によりデフォーカス処理を施し、レンズによる矯正(屈折)も考慮して描画した結果を図11に示す。
(a):裸眼での正視の画像(近点0.2m, 遠点10m)。
(b):裸眼での近視かつ老視の画像(近点0.5m, 遠点1.3m)。
(c):上記(b) を近視用の凹レンズで矯正した結果。
(d):上記(b) を老視用の凸レンズで矯正した結果。
(Experimental result)
FIG. 11 shows a result obtained by performing defocus processing by the method of Example 2 and drawing in consideration of correction (refraction) by the lens.
(a): An image with the naked eye (near point 0.2 m, far point 10 m).
(b): Myopic and presbyopic image with the naked eye (near point 0.5m, far point 1.3m).
(c): The result of correcting (b) above with a concave lens for myopia.
(d): The result of correcting (b) above with a convex lens for presbyopia.

いずれも、瞳口径A = 0:012m、ボクセル数110×77×42、デフォーカスのサンプル数(コピー数)S = 10、屈折率1:66(ガラス)とした。   In all cases, the pupil diameter A = 0: 012m, the number of voxels 110 × 77 × 42, the number of defocused samples (copy number) S = 10, and the refractive index 1:66 (glass).

本実験では、CPU としてPentium4(商標)の3.8GHz、GPU としてGeForce 7800GTX(商標)を使用し、表示性能については以下のような結果を得た。まず、図4(a)のように、レンズによる屈折処理だけを行いデフォーカスをしない場合は、30〜40fps(frame per second)で表示できる。これは眼とレンズの相対位置を固定にした場合(屈折ベクトルの再生成が不要)で、この前提を解除すると表示レートは6fps に落ちる。使用したレンズのポリゴン数は表面と裏面それぞれ約1,500、シーンのポリゴン数は10,000 程度である。   In this experiment, Pentium4 (trademark) 3.8GHz was used as the CPU, and GeForce 7800GTX (trademark) was used as the GPU. First, as shown in FIG. 4A, when only refraction processing by a lens is performed and defocusing is not performed, display can be performed at 30 to 40 fps (frame per second). This is when the relative position of the eye and the lens is fixed (regeneration of the refraction vector is not required). If this assumption is removed, the display rate drops to 6 fps. The number of polygons of the lens used is about 1,500 on the front and back sides, and the number of polygons on the scene is about 10,000.

次に、デフォーカス処理については、約1,500 の光束(光線数10)を屈折させ110×77×42 のボクセルについてサンプル数10 の変位ベクトルセットを前計算するのに約3 秒かかった。デフォーカス矯正の表示性能(図11(c)(d))は12〜15fps であった。レンズを使わない裸眼でのデフォーカスの表示性能(図11(a)(b))は30fps である。   Next, for defocus processing, it took about 3 seconds to refract about 1,500 luminous fluxes (10 rays) and pre-calculate a displacement vector set with 10 samples for 110 × 77 × 42 voxels. The display performance of the defocus correction (FIGS. 11 (c) and 11 (d)) was 12 to 15 fps. The display performance of defocus with the naked eye without using a lens (FIGS. 11A and 11B) is 30 fps.

(モデルデータの前処理)
実施例2の手法における制限の一つは、「対象物を、ボクセル間隔程度に頂点が配置されるぐらいの細かさでポリゴン化しておく必要がある」という点である。たとえ一枚の四辺形であっても、大きなものであれば細かくメッシュ化する必要がある。そのため、データ作成の手間がかかることは確かである。表示性能への影響についていえば、いわゆるLOD(Level of detail)処理により最小限にすることができる。すなわち、各対象物についてメッシュ化の詳細度が異なるモデルをあらかじめ用意しておき、細かいメッシュ化が必要な比較的視点に近い部分では詳細度の高いモデルを表示し、視点から離れるにつれて詳細度の低いモデルを表示するような制御を行う。
(Preprocessing of model data)
One of the limitations in the method of the second embodiment is that “the object needs to be polygonized with such a fineness that the vertices are arranged at the voxel interval”. Even a single quadrilateral must be finely meshed if it is large. Therefore, it is certain that it takes time to create data. Regarding the influence on the display performance, it can be minimized by so-called LOD (Level of detail) processing. In other words, models with different levels of detail for meshing are prepared in advance for each target, and models with a high level of detail are displayed at parts that are relatively close to the viewpoint where fine meshing is required. Control to display a low model.

(視線に対する考え方)
人間の視覚は、ある瞬間を考えると、広い視野のうち視線方向の限られた範囲だけに高い視力を集中し、周囲の視力は極端に低い。本実施形態のように、人間の眼球特性まで考慮した描画を行う場合でも、このような視線を考慮した処理は二つの理由で困難である。一つは、広い視野の視力分布のモデル化が困難である点である。もう一つは、結果の提示の際、実際のユーザの視線を検出してそれに即応した表示を行うことが難しい点である。
(Concept for gaze)
Considering a certain moment, human vision concentrates high visual acuity only in a limited range of gaze direction in a wide visual field, and surrounding visual acuity is extremely low. Even when drawing is performed in consideration of the characteristics of the human eyeball as in the present embodiment, such a process considering the line of sight is difficult for two reasons. One is that it is difficult to model a visual field distribution over a wide visual field. The other is that when presenting results, it is difficult to detect the actual user's line of sight and display it promptly.

本実施形態では、描画すべき画像の各部分(各ボクセル)についてそれぞれ個別に最良の調節を行った場合の結果を集積して出力画像とし、広域の視力分布は無視している。このように、出力画像の各部分について入力条件が異なるのは一見奇異に思える。しかし、最終的に結果の画像を見るユーザも、その画像のごく一部にしか高い視力を発揮できないから、画像全体を同一の条件でシミュレートすることはあまり意味がない。少なくとも、メガネレンズによる矯正結果の検証の応用では、各部分で最良の調節を使って描画することが有用である。   In the present embodiment, the results obtained when the best adjustments are individually made for each part (each voxel) of the image to be drawn are accumulated into an output image, and the visual acuity distribution in a wide area is ignored. Thus, it seems strange that the input conditions are different for each part of the output image. However, since the user who finally sees the resulting image can also exhibit high visual acuity only in a small part of the image, it is not very meaningful to simulate the entire image under the same conditions. At least in the application of verification of correction results with spectacle lenses, it is useful to draw with the best adjustment in each part.

(本実施形態の利点)
本実施形態の方法によれば、レイトレーシングと実用上同じ精度の反射・屈折をリアルタイム処理で実現し、従来分散レイトレーシングで多くの時間をかけていた屈折矯正によるデフォーカスのシミュレーションもインタラクティブな表示レートで実現することが可能となる。
(Advantages of this embodiment)
According to the method of the present embodiment, real-time processing of reflection and refraction with the same accuracy as ray tracing is realized by real-time processing, and defocus simulation by refraction correction, which has taken a lot of time in conventional distributed ray tracing, is also interactively displayed. It can be realized at a rate.

この方法は、表示精度を高くすることができるので、実際のメガネレンズ設計の検証に十分活用できると考えられる。   Since this method can increase the display accuracy, it is considered that this method can be sufficiently utilized for verification of an actual spectacle lens design.

以上説明したように、本実施形態の方法は、環境マッピングをベースに、反射・屈折物体の頂点ごとにレイトレーシングを行ってマップ画像を補正する手法を提案するものである。この手法を用いれば、レンズを通した像の歪みをシミュレートするのに十分な正確さでリアルタイム表示を行うことができる。また、焦点ぼけ(デフォーカス)をモデル化するために、人間の裸眼での視力特性を、レイをサンプリングした光束として表現した。それらの光束を使って空間内のデフォーカス量の分布を求め、物体の各頂点でデフォーカス処理を行うことができる。これによって、裸眼での見え方をシミュレートでき、レンズによる眼球での屈折の矯正もシミュレートできるという利点がある。   As described above, the method of the present embodiment proposes a method of correcting a map image by performing ray tracing for each vertex of a reflective / refractive object based on environment mapping. Using this technique, real-time display can be performed with sufficient accuracy to simulate distortion of the image through the lens. In order to model defocusing, the visual acuity characteristics with the naked human eye were expressed as a luminous flux obtained by sampling rays. A distribution of the defocus amount in the space can be obtained using these light beams, and defocus processing can be performed at each vertex of the object. As a result, it is possible to simulate the appearance with the naked eye and to simulate the correction of refraction at the eyeball by the lens.

なお、本発明の範囲は、前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることはもちろんである。   It should be noted that the scope of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.

例えば、前記した各構成要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良い。本発明における複数の機能要素が一つの機能要素により実現されても良い。   For example, each component described above may exist as a functional block, and may not exist as independent hardware. As a mounting method, hardware or computer software may be used. Furthermore, one functional element in the present invention may be realized by a set of a plurality of functional elements. A plurality of functional elements in the present invention may be realized by one functional element.

また、機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。   Moreover, the functional element may be arrange | positioned in the position physically separated. In this case, the functional elements may be connected by a network.

本実施形態に係る画像生成装置の、概略的な機能ブロック図である。It is a schematic functional block diagram of the image generation apparatus which concerns on this embodiment. 頂点ベースのレイトレーシングによる画像生成方法を説明するための説明図である。It is explanatory drawing for demonstrating the image generation method by vertex-based ray tracing. 図2の方法により描画した結果を示す図であって、図(a)及び(b)は頂点ベースのレイトレーシングによる描画結果を示し、図(c)及び(d)は従来のキューブマッピングによる描画結果を示している。FIGS. 3A and 2B are diagrams showing results drawn by the method of FIG. 2, in which FIGS. 1A and 1B show results of drawing by vertex-based ray tracing, and FIGS. 2C and 2D show drawing by conventional cube mapping. Results are shown. 凹レンズを通した屈折における描画結果を示す図である。図(b)は図(a)の右端付近を拡大したものである。It is a figure which shows the drawing result in the refraction through a concave lens. FIG. 2B is an enlarged view of the vicinity of the right end of FIG. 眼球によるデフォーカスの簡易モデルを示す説明図である。図(a)は、簡易眼球モデルを示す。図(b)は、限界まで近く(近点)に焦点を合わせた状態を示す。図(c)は、限界まで遠く(遠点)に焦点を合わせた状態を示す。It is explanatory drawing which shows the simple model of the defocus by an eyeball. FIG. (A) shows a simple eyeball model. Figure (b) shows the state of focusing close to the limit (near point). FIG. (C) shows a state in which the focus is far (far point) to the limit. 実施例1における描画方法の概要を説明するためのフローチャートである。3 is a flowchart for explaining an outline of a drawing method according to the first embodiment. 視点からの距離によって決まる頂点変位ベクトルの例を示す説明図である。It is explanatory drawing which shows the example of the vertex displacement vector determined by the distance from a viewpoint. 実施例2における描画方法の概要を説明するためのフローチャートである。12 is a flowchart for explaining an outline of a drawing method according to the second embodiment. デフォーカス量(変位ベクトル)の空間分布(ボクセル)の例を示す説明図である。It is explanatory drawing which shows the example of the spatial distribution (voxel) of a defocus amount (displacement vector). 変位ベクトルセットのボクセルへの蓄積処理を説明する説明図である。図(a)は光束の生成を示す。図(b)は屈折後の光束を示す。図(c)は、屈折後の基準光束が通るボクセルに蓄積する変位ベクトルセットを示す。It is explanatory drawing explaining the accumulation | storage process to the voxel of a displacement vector set. Figure (a) shows the generation of the luminous flux. Figure (b) shows the light beam after refraction. FIG. 3C shows a displacement vector set accumulated in the voxel through which the reference light beam after refraction passes. 視力を考慮したデフォーカスの表示とその矯正の結果を示す画像の例である。図(a)は正視の画像(近点0.2m, 遠点10m)を示す。図(b)は、近視かつ老視の画像(近点0.5m, 遠点1.3m)を示す。図(c)は、図(b)を近視用の凹レンズで矯正した結果を示す。図(d)は、図(b)を老視用の凸レンズで矯正した結果を示す。It is an example of the image which shows the display of the defocus which considered visual acuity, and the result of the correction. Figure (a) shows a normal image (near point 0.2m, far point 10m). Figure (b) shows a myopic and presbyopic image (near point 0.5 m, far point 1.3 m). Fig. (C) shows the result of correcting Fig. (B) with a concave lens for myopia. Fig. (D) shows the result of correcting Fig. (B) with a convex lens for presbyopia.

符号の説明Explanation of symbols

10 入力部
11 入力インタフェース
20 表示部
21 出力インタフェース
30 記憶部
40 画像生成部
50 バス
DESCRIPTION OF SYMBOLS 10 Input part 11 Input interface 20 Display part 21 Output interface 30 Memory | storage part 40 Image generation part 50 Bus

Claims (17)

3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する方法であって、さらに、以下のステップを備えた画像生成方法:
(a)観察者の眼球による焦点の調節限界を設定するステップ;
(b)調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置するステップ;
(c)前記観察者の視点から見た画像を前記透視変換により生成するステップ。
A method for generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space, and further comprising the following steps:
(A) setting a focus adjustment limit by the eye of the observer;
(B) For an object present at a position beyond the adjustment limit, placing a copy of the object around the original position in the object;
(C) generating an image viewed from the viewpoint of the observer by the perspective transformation;
前記対象物のコピーは複数であることを特徴とする、請求項1に記載の画像生成方法。   The image generation method according to claim 1, wherein there are a plurality of copies of the object. 前記対象物のコピーは、前記対象物における本来の位置を中心とする円周上に配置されていることを特徴とする、請求項2に記載の画像生成方法。   The image generation method according to claim 2, wherein the copy of the object is arranged on a circumference centered on an original position of the object. 前記対象物のコピーは、前記対象物における本来の位置を中心とする複数の同心円上に配置されていることを特徴とする、請求項2に記載の画像生成方法。   The image generation method according to claim 2, wherein the copy of the object is arranged on a plurality of concentric circles centered on an original position of the object. 前記対象物は、少なくとも三つの頂点を備えたポリゴンによりモデリングされており、
前記ステップ(b)における、前記対象物のコピーは、前記ポリゴンを単位として配置される
ことを特徴とする、請求項1〜4のいずれかに記載の画像生成方法。
The object is modeled by a polygon with at least three vertices;
The image generation method according to claim 1, wherein the copy of the object in step (b) is arranged in units of the polygon.
前記ステップ(b)において、前記対象物のコピーと、前記対象物における本来の位置との距離は、基準点から前記対象物までの距離に応じて設定される
ことを特徴とする請求項1〜5のいずれか1項に記載の画像生成方法。
In the step (b), the distance between the copy of the object and the original position in the object is set according to the distance from a reference point to the object. 6. The image generation method according to any one of 5 above.
前記基準点とは、観察者の視点であることを特徴とする請求項6に記載の画像生成方法。   The image generation method according to claim 6, wherein the reference point is an observer's viewpoint. 前記基準点とは、レンズ表面と視線との交点であることを特徴とする請求項6に記載の画像生成方法。   The image generation method according to claim 6, wherein the reference point is an intersection of a lens surface and a line of sight. 前記対象物は、少なくとも三つの頂点を備えたポリゴンによりモデリングされており、前記基準点から前記対象物までの距離とは、前記基準点から前記ポリゴンの頂点までの距離である請求項6〜8のいずれか1項に記載の画像生成方法。   The object is modeled by a polygon having at least three vertices, and the distance from the reference point to the object is a distance from the reference point to the vertex of the polygon. The image generation method according to any one of the above. 前記焦点の調節限界とは、焦点の近点又は遠点であることを特徴とする請求項1から9のいずれか1項に記載の画像生成方法。   The image generation method according to claim 1, wherein the focus adjustment limit is a near point or a far point of the focus. 前記遠点又は前記近点は、レンズによる矯正後のものであることを特徴とする請求項10に記載の画像生成方法。   The image generation method according to claim 10, wherein the far point or the near point is after correction by a lens. 前記ステップ(b)において、前記対象物のコピーと、前記対象物における本来の位置との距離は、以下のステップを含む処理により設定されていることを特徴とする、請求項1〜11のいずれか1項に記載の画像生成方法。
(b1)前記透視変換の対象となる3次元空間内に複数のボクセルを配置するステップ;
(b2)前記ボクセル毎に前記距離を設定しておくステップ。
The distance between the copy of the object and the original position in the object in the step (b) is set by a process including the following steps. The image generation method according to claim 1.
(B1) arranging a plurality of voxels in a three-dimensional space to be subjected to the perspective transformation;
(B2) A step of setting the distance for each voxel.
前記ボクセルが占める領域は、観察者の視点に近いほど細かく設定されていることを特徴とする請求項12に記載の画像生成方法。   The image generation method according to claim 12, wherein an area occupied by the voxel is set to be finer as it is closer to an observer's viewpoint. 3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する装置であって、
この装置は、記憶部と画像生成部とを備えており、
前記記憶部は、処理に必要なデータやコンピュータソフトウエアを格納するものであり、
前記画像生成部は、以下の処理を行うことを特徴とする画像生成装置:
(a)観察者の眼球による焦点の調節限界を設定する処理;
(b)調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置する処理;
(c)前記観察者の視点から見た画像を前記透視変換により生成する処理。
An apparatus for generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space,
The apparatus includes a storage unit and an image generation unit,
The storage unit stores data and computer software necessary for processing,
The image generation unit performs the following processing:
(A) a process of setting a focus adjustment limit by the eyeball of the observer;
(B) For an object existing at a position exceeding the adjustment limit, a process of arranging a copy of the object around the original position of the object;
(C) Processing for generating an image viewed from the observer's viewpoint by the perspective transformation.
3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する方法であって、さらに、以下のステップを備えた画像生成方法を、コンピュータにより実行させることを特徴とするコンピュータプログラム:
(a)観察者の眼球による焦点の調節限界を設定するステップ;
(b)調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置するステップ;
(c)前記観察者の視点から見た画像を前記透視変換により生成するステップ。
A method of generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space, and further comprising causing a computer to execute an image generation method including the following steps: Computer program:
(A) setting a focus adjustment limit by the eye of the observer;
(B) For an object present at a position beyond the adjustment limit, placing a copy of the object around the original position in the object;
(C) generating an image viewed from the viewpoint of the observer by the perspective transformation;
3次元空間内に配置された対象物を透視変換することにより得られた画像データであって、
観察者の眼球による焦点の調節限界を超えた位置に存在する対象物については、対象物における本来の位置の周囲に、対象物の複数のコピーが配置された状態で透視変換されている
ことを特徴とする画像データ。
Image data obtained by perspective-transforming an object placed in a three-dimensional space,
For objects existing beyond the limit of focus adjustment by the observer's eyeball, the perspective is converted with multiple copies of the object placed around the original position of the object. Feature image data.
3次元空間内に配置された対象物に対する透視変換を行うことにより2次元画像を生成する方法であって、さらに、以下のステップを備えた画像生成方法:
(a)観察者の眼球による焦点の調節限界を超えた位置に存在する対象物については、前記対象物における本来の位置の周囲に、前記対象物のコピーを配置するステップ;
(b)前記観察者の視点から見た画像を前記透視変換により生成するステップ。
A method for generating a two-dimensional image by performing perspective transformation on an object arranged in a three-dimensional space, and further comprising the following steps:
(A) For an object existing at a position beyond the focus adjustment limit by the observer's eyeball, placing a copy of the object around the original position of the object;
(B) generating an image viewed from the viewpoint of the observer by the perspective transformation;
JP2007008647A 2007-01-18 2007-01-18 Method and device for generating defocus image Pending JP2008176522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007008647A JP2008176522A (en) 2007-01-18 2007-01-18 Method and device for generating defocus image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007008647A JP2008176522A (en) 2007-01-18 2007-01-18 Method and device for generating defocus image

Publications (1)

Publication Number Publication Date
JP2008176522A true JP2008176522A (en) 2008-07-31

Family

ID=39703502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007008647A Pending JP2008176522A (en) 2007-01-18 2007-01-18 Method and device for generating defocus image

Country Status (1)

Country Link
JP (1) JP2008176522A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170642A (en) * 2010-02-18 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Information display controller, information display control method and program
JP2012528376A (en) * 2009-05-29 2012-11-12 シリコンアーツ インコーポレイテッド Ray tracing apparatus and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215092A (en) * 1993-01-18 1994-08-05 Toshiba Corp Display device
JPH10239634A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Stereoscopic video display device
JP2000090283A (en) * 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP2000251090A (en) * 1999-03-01 2000-09-14 Sony Computer Entertainment Inc Drawing device, and method for representing depth of field by the drawing device
JP2001250127A (en) * 1999-12-31 2001-09-14 Square Co Ltd Computer-readable recording medium with recorded program for three-dimensional computer image processing, shading drawing method, and video game device
JP2004013510A (en) * 2002-06-06 2004-01-15 Sony Computer Entertainment Inc Plotting processing program, storage medium having the same stored thereon, plotting processing apparatus and method therefor
JP2004118559A (en) * 2002-09-26 2004-04-15 Konami Co Ltd Image processing apparatus and program
JP2004334801A (en) * 2003-05-12 2004-11-25 Namco Ltd Image-generating system, program, and information storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215092A (en) * 1993-01-18 1994-08-05 Toshiba Corp Display device
JPH10239634A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Stereoscopic video display device
JP2000090283A (en) * 1998-09-09 2000-03-31 Toshiba Iyo System Engineering Kk Volume rendering image display method, image processor and storage medium storing program for the same method
JP2000251090A (en) * 1999-03-01 2000-09-14 Sony Computer Entertainment Inc Drawing device, and method for representing depth of field by the drawing device
JP2001250127A (en) * 1999-12-31 2001-09-14 Square Co Ltd Computer-readable recording medium with recorded program for three-dimensional computer image processing, shading drawing method, and video game device
JP2004013510A (en) * 2002-06-06 2004-01-15 Sony Computer Entertainment Inc Plotting processing program, storage medium having the same stored thereon, plotting processing apparatus and method therefor
JP2004118559A (en) * 2002-09-26 2004-04-15 Konami Co Ltd Image processing apparatus and program
JP2004334801A (en) * 2003-05-12 2004-11-25 Namco Ltd Image-generating system, program, and information storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012528376A (en) * 2009-05-29 2012-11-12 シリコンアーツ インコーポレイテッド Ray tracing apparatus and method
JP2011170642A (en) * 2010-02-18 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Information display controller, information display control method and program

Similar Documents

Publication Publication Date Title
AU2019419376B2 (en) Virtual try-on systems and methods for spectacles
JP3342423B2 (en) Eye optical system simulation device
WO2010044383A1 (en) Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses
US20020109701A1 (en) Dynamic depth-of- field emulation based on eye-tracking
CN110402425A (en) Mixed reality system with the distortion of colored virtual content and the method using system generation virtual content
CN112513712A (en) Mixed reality system with virtual content warping and method for generating virtual content using the same
US10924727B2 (en) High-performance light field display simulator
CN110419061A (en) Mixed reality system with the synthesis of multi-source virtual content and the method using system generation virtual content
Yang et al. Nonlinear perspective projections and magic lenses: 3D view deformation
CA2819660C (en) System and method to achieve better eyelines in cg characters
US10088692B1 (en) Free-space lens design method
Loos et al. Using wavefront tracing for the visualization and optimization of progressive lenses
WO2020212293A1 (en) Methods and systems for handling virtual 3d object surface interaction
JP2008176522A (en) Method and device for generating defocus image
JP2009003812A (en) Generation method and generation device of defocus image
Nießner et al. Real-time simulation and visualization of human vision through eyeglasses on the GPU
JP5327866B2 (en) Glasses fitting simulation system, glasses fitting simulation method and program
Kakimoto et al. Interactive simulation of the human eye depth of field and its correction by spectacle lenses
Kakimoto et al. An eyeglass simulator using conoid tracing
US9588489B2 (en) Computational highlight holography
EP1330785A2 (en) Dynamic depth-of-field emulation based on eye-tracking
JP2007299080A (en) Image generation method and image generation device
US11009715B2 (en) Methods and systems for fitting heads-up display to user
TWI537598B (en) Computer一based method for designing a free space reflective optical surface for used in a head一mounted dlsplay,computer program for performing said computer一based method,and computer system programmed to perform said method
Ishihara et al. Correcting distorted objects formed in a concave mirror

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111129