JP5632245B2 - Eyeglass field image display device - Google Patents

Eyeglass field image display device Download PDF

Info

Publication number
JP5632245B2
JP5632245B2 JP2010215367A JP2010215367A JP5632245B2 JP 5632245 B2 JP5632245 B2 JP 5632245B2 JP 2010215367 A JP2010215367 A JP 2010215367A JP 2010215367 A JP2010215367 A JP 2010215367A JP 5632245 B2 JP5632245 B2 JP 5632245B2
Authority
JP
Japan
Prior art keywords
image
eye
eyeball
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010215367A
Other languages
Japanese (ja)
Other versions
JP2012066002A (en
Inventor
祁 華
華 祁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2010215367A priority Critical patent/JP5632245B2/en
Publication of JP2012066002A publication Critical patent/JP2012066002A/en
Application granted granted Critical
Publication of JP5632245B2 publication Critical patent/JP5632245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、眼鏡レンズを通して見える網膜像を、シミュレーションによって表示する、眼鏡の視野画像表示装置に係わる。   The present invention relates to a field-of-view image display device for glasses that displays a retinal image seen through a spectacle lens by simulation.

従来、眼鏡店においては、眼鏡使用者が、サンプルレンズを使用して見え方を確認して、レンズやフレームを選択して注文していた。
しかし、眼鏡店において用意できるサンプルレンズの種類には限りがある。特に、累進屈折力レンズは、レンズの種類が非常に多いために、サンプルレンズの中に眼鏡使用者に適したレンズがあるとは限らない。そのため、注文したレンズが出来上がって実際に掛けて見るまでは、どのように見えるかがわからない。
Conventionally, in a spectacle store, a spectacle user uses a sample lens to check the appearance and selects and orders a lens and a frame.
However, the types of sample lenses that can be prepared at an eyeglass store are limited. In particular, since there are so many kinds of progressive-power lenses, there are not always lenses suitable for spectacle users among sample lenses. Therefore, it is not clear how it will look until the ordered lens is completed and actually viewed.

そこで、眼鏡を掛けたときに見える網膜像を、シミュレーションによって表示することにより、サンプルレンズにない種類のレンズを使用した場合の見え方を示すことが提案されている(例えば、特許文献1参照。)。
累進屈折力レンズでは、度数の異なる遠用部と近用部とを、滑らかにつないでいるために歪曲収差が生じ、顔の方向を変化させると、揺れを感じる。眼鏡を掛けたときに見える網膜像を、シミュレーションによって表示することにより、この揺れ等を容易に示して説明することが可能になる。
In view of this, it has been proposed to display a retinal image that can be seen when wearing spectacles by simulation to show the appearance when a lens of a type not included in the sample lens is used (see, for example, Patent Document 1). ).
In the progressive-power lens, the distance portion and the near portion having different powers are smoothly connected to each other, so that distortion is generated, and when the face direction is changed, shaking is felt. By displaying a retinal image that can be seen when wearing spectacles by simulation, it is possible to easily show and explain this shaking and the like.

前記特許文献1に記載された構成では、顔の方向の変化に基づいて、画像の範囲を変化させて、その範囲の画像に対して歪曲収差の画像処理を行っている。   In the configuration described in Patent Document 1, the range of the image is changed based on the change in the direction of the face, and distortion aberration image processing is performed on the image in the range.

また、眼球は、水平及び垂直運動の他、前後軸を回る回旋運動を行っている。
そして、回旋運動も含んで、眼球の運動を計測する方法が提案されている(例えば、特許文献2や、非特許文献1及び非特許文献2を参照)。
In addition to the horizontal and vertical movements, the eyeball performs a rotational movement around the longitudinal axis.
And the method of measuring a motion of an eyeball also including a rotation motion is proposed (for example, refer to patent documents 2, a nonpatent literature 1, and a nonpatent literature 2).

特許第3893760号明細書Japanese Patent No. 3893760 特開2005−66358号公報JP 2005-66358 A

坂下祐輔、藤吉弘亘、平田豊、「角膜における屈折を考慮した3次元眼球運動計測」、第13回画像センシングシンポジウム予稿集、2007年、IN2-25Yusuke Sakashita, Hironobu Fujiyoshi, Yutaka Hirata, “Three-dimensional eye movement measurement considering refraction in cornea”, Proceedings of 13th Image Sensing Symposium, 2007, IN2-25 坂下祐輔、藤吉弘亘、平田豊、「画像処理による3次元眼球運動計測」、実験力学、Vol.6,No.3,2006年、p.236−243Yusuke Sakashita, Hironobu Fujiyoshi, Yutaka Hirata, “3D Eye Movement Measurement by Image Processing”, Experimental Mechanics, Vol. 6, no. 3, 2006, p. 236-243

軸方向の存在する乱視屈折力、プリズム、非点収差等は、矯正する眼球に合わせて方向を配置する必要がある。
ところが、特定のケースにおいて、眼球が視線方向を軸とする回転である融像回旋(トーション)を行うことがある。
そして、この融像回旋(トーション)が行われる場合を調べたところ、輻輳等の視線方向が平行状態でなくなった場合に、発生することが明らかになった。
Astigmatism power, prism, astigmatism, and the like that exist in the axial direction need to be arranged in accordance with the eyeball to be corrected.
However, in a specific case, the eyeball may perform fusion rotation (torsion), which is rotation about the line-of-sight direction.
And when the case where this fusion rotation (torsion) is performed was examined, it became clear that it occurred when the line-of-sight directions such as convergence were not in a parallel state.

この輻輳に伴う融像回旋は、個人差があるものの、特に、乱視量の大きな処方値(例えば、乱視量2.0D以上)であると、その影響が顕著に発現する。
そのため、眼鏡の融像回旋(トーション)が行われている場合には、従来のシミュレーション方法では、シミュレーションの結果と現実との差異が生じて、問題となることがあった。
Although the fusion of rotation due to the convergence has individual differences, the influence is particularly prominent when the prescription value has a large astigmatism amount (for example, an astigmatism amount of 2.0 D or more).
For this reason, when the fusion of the glasses is performed (torsion), the conventional simulation method may cause a difference between the simulation result and the actual situation.

上述した問題の解決のために、本発明においては、眼球の融像回旋にも対応して、シミュレーションにより網膜像を表示することが可能である、眼鏡の視野画像表示装置を提供するものである。   In order to solve the above-described problems, the present invention provides a field-of-view image display device for glasses that can display a retinal image by simulation in response to fusion of the eyeball. .

本発明の眼鏡の視野画像表示装置は、眼鏡レンズを掛けたときに見える網膜像を、シミュレーションによって表示する構成であって、眼鏡レンズを掛けた状態での眼球の視線の方向に対応する視野内の元画像のデータに、眼鏡レンズにおける視線の通過点に対応する、少なくとも、眼球の視軸回りの回転運動である融像回旋を含む眼球回旋量を加える処理を行うことにより、網膜像を作成する画像処理部と、この画像処理部で作成した網膜像を表示する表示部とを有するものである。   The eyeglass field-of-view image display device according to the present invention is configured to display a retinal image that is visible when the eyeglass lens is worn, by simulation, and in the field of view corresponding to the direction of the line of sight of the eyeball when the eyeglass lens is worn. A retinal image is created by performing processing that adds at least the amount of eyeball rotation, including fusion rotation, which is a rotational motion around the visual axis of the eyeball, corresponding to the eye gaze passing point in the spectacle lens. And an image processing unit for displaying the retinal image created by the image processing unit.

前記本発明の眼鏡の視野画像表示装置において、画像処理部が、視線方向の遠用アイポイントにおける基準位置からの視線移動角度量(眼球の水平垂直運動)と、眼鏡レンズの屈折力及び/又はプリズムとに応じて、眼球のトーション(融像回旋)角度を算出する構成とすることができる。   In the eyeglass field-of-view image display device according to the present invention, the image processing unit includes a line-of-sight movement angle amount (horizontal and vertical movement of the eyeball) from a reference position at a distance eye point in the line-of-sight direction, a refractive power of the eyeglass lens, and / or Depending on the prism, the torsion (fusion rotation) angle of the eyeball can be calculated.

また、前記本発明の眼鏡の視野画像表示装置において、画像処理部が、一例として、融像回旋の角度θ(左眼)及びθ(右眼)を、リスティング法則から算出した両眼の視線方向に直交するベクトルである、ベクトルY(左眼)及びベクトルY(右眼)と、左眼の視線方向の単位ベクトル及び右眼の視線方向の単位ベクトルの外積であるベクトルYとから、下記の式により算出する構成とすることができる。

Figure 0005632245
In the eyeglass field-of-view image display device according to the present invention, as an example, the image processing unit calculates the fusion rotation angles θ L (left eye) and θ R (right eye) based on the listing law. Vector Y C, which is the outer product of vector Y L (left eye) and vector Y R (right eye), which are vectors orthogonal to the line-of-sight direction, and a unit vector in the line-of-sight direction of the left eye and a unit vector in the line-of-sight direction of the right eye From these, it can be set as the structure calculated by the following formula.
Figure 0005632245

この例は、縦方向ホロプター(vertical horopter)を左眼視線方向と右眼視線方向の外積方向と仮定した場合の融像回旋角度の計算方法である。実際の縦方向ホロプターは、必ずしも左眼視線方向と右眼視線方向の外積方向とは限らない。その場合、左右眼それぞれの融像回旋角は、眼球の(網膜の)縦方向と縦方向ホロプター方向とが同一平面にあるように決定すべきである。   This example is a method for calculating a fusion rotation angle when a vertical horopter is assumed to be the outer product direction of the left eye gaze direction and the right eye gaze direction. An actual vertical horopter is not necessarily the outer product direction of the left eye gaze direction and the right eye gaze direction. In that case, the fusion rotation angles of the left and right eyes should be determined so that the longitudinal direction of the eyeball (retinal) and the longitudinal horopter direction are in the same plane.

上述の本発明の眼鏡の視野画像表示装置によれば、画像処理部において、眼鏡レンズを掛けた状態での眼球の視線の方向に対応する視野内の元画像のデータに、眼鏡レンズにおける視線の通過点に対応する、少なくとも、眼球の視軸回りの回転運動である融像回旋を含む眼球回旋量を加える処理を行うことにより、網膜像が作成される。
これにより、顔の方向の変化や視線の方向の変化だけでなく、眼球の融像回旋も反映させて、眼球回旋量を加える処理をした網膜像の画像を作成することができる。そのため、融像回旋が生じている場合でも、注視部分を正確にシミュレートすることができる。
従って、本発明の眼鏡の視野画像表示装置により、融像回旋にも対応して、実際の見え方に近い網膜像を表示することが可能な眼鏡の視野画像表示装置を実現することができる。
According to the eyeglass field-of-view image display device of the present invention described above, the image processing unit converts the line-of-sight of the eyeglass lens into the original image data in the field of view corresponding to the direction of the eyesight of the eyeball when the eyeglass lens is worn. A retinal image is created by performing a process of adding at least the amount of eyeball rotation including the fusion of rotation, which is a rotational motion around the visual axis of the eyeball, corresponding to the passing point.
As a result, it is possible to create an image of a retinal image that has been processed to add the amount of eyeball rotation by reflecting not only the change in the face direction and the change in the direction of the line of sight but also the fusion of the eyeball. Therefore, even when the fusion of rotation occurs, the gaze portion can be accurately simulated.
Therefore, the eyeglass field image display device of the present invention can realize the eyeglass field image display device capable of displaying a retinal image close to the actual appearance in correspondence with fusion rotation.

本発明の一実施の形態の眼鏡の視野画像表示装置(表示システム)の概略構成図(ブロック図)である。1 is a schematic configuration diagram (block diagram) of a visual field image display device (display system) for glasses according to an embodiment of the present invention. 図1のシステムにおいて使用する、3次元CGモデルの一例である。It is an example of the three-dimensional CG model used in the system of FIG. 図1の装置における、シミュレーションの画像を表示するまでの過程を示すフローチャートである。It is a flowchart which shows the process until it displays the image of the simulation in the apparatus of FIG. 本発明の一実施の形態のシミュレーションにおいて使用する座標系である。It is a coordinate system used in the simulation of one embodiment of the present invention. レンズの屈折による光線の歪みを説明する図である。It is a figure explaining distortion of the light ray by refraction of a lens. PSFを求めるための光線追跡を説明する図である。It is a figure explaining the ray tracing for calculating | requiring PSF. A、B 入射瞳の分割方法を示す図である。A, B It is a figure which shows the division | segmentation method of an entrance pupil. 網膜上の結像位置と入射角との対応を示す図である。It is a figure which shows a response | compatibility with the image formation position on a retina, and an incident angle. 融像回旋を説明するための座標系である。It is a coordinate system for demonstrating fusion rotation. A、B 両眼視の場合の左右の眼の視線方向を説明する図である。A, B It is a figure explaining the gaze direction of the right and left eyes in the case of binocular vision. 両眼共通のy方向を示す図である。It is a figure which shows the y direction common to both eyes. 等確率楕円を示す図である。It is a figure which shows an equal probability ellipse. 本発明の他の実施の形態の眼鏡の視野画像表示装置(表示システム)における、シミュレーションの画像を表示するまでの過程を示すフローチャートである。It is a flowchart which shows the process until it displays the image of the simulation in the visual field image display apparatus (display system) of the spectacles of other embodiment of this invention.

以下、発明を実施するための最良の形態(以下、実施の形態とする)について説明する。
なお、説明は以下の順序で行う。
1.本発明の一実施の形態の装置・システムの構成の説明
2.動画像シミュレーションの理論及び手法の説明
2−1.シミュレーションの目的
2−2.シミュレーションに使用する座標系
2−3.レンズの歪みについての説明
2−4.レンズによるボヤケについての説明
2−5.融像回旋(トーション)についての説明
2−6.シミュレーション像の合成
2−7.視野の中心視線を指定した場合の座標変換
2−8.光線データのスプライン補間近似
2−9.PSFの簡略化
2−10.多次元Bスプライン補間計算の高速化
2−11.まとめ
3.本発明の他の実施の形態の説明
4.変形例
Hereinafter, the best mode for carrying out the invention (hereinafter referred to as an embodiment) will be described.
The description will be given in the following order.
1. 1. Explanation of configuration of apparatus / system according to one embodiment of the present invention 2. Description of theory and method of moving image simulation 2-1. Purpose of simulation 2-2. Coordinate system used for simulation 2-3. Explanation of lens distortion 2-4. Explanation of blurring by lens 2-5. Explanation about fusion of rotation (torsion) 2-6. Synthesis of simulation image 2-7. Coordinate conversion when the center line of sight is designated 2-8. Spline interpolation approximation of ray data 2-9. Simplification of PSF 2-10. Speeding up multidimensional B-spline interpolation calculation 2-11. Summary 3. 3. Description of another embodiment of the present invention Modified example

<1.本発明の一実施の形態の装置・システムの構成の説明>
本発明の一実施の形態として、眼鏡の視野画像表示装置(表示システム)の概略構成図(ブロック図)を、図1に示す。
<1. Description of Configuration of Apparatus / System of One Embodiment of Present Invention>
As an embodiment of the present invention, FIG. 1 shows a schematic configuration diagram (block diagram) of a field-of-view image display device (display system) for glasses.

図1に示すシステムでは、HMD(ヘッドマウントディスプレイ)11と、PC(パーソナルコンピュータ)15と、2つのモニター16,17と、入力装置である、ゲームパッド18又はキーボード19とを備えている。
HMD11には、頭部の動きセンサー(ジャイロセンサー等)12と、視線の動きセンサー(視線追跡装置等)13とが、搭載されている。
PC15内には、右眼の画像用のグラフィックボード21、左眼の画像用のグラフィックボード22、USB23を備えている。また、HMD11とPC15との間には、HMDコントローラ14が接続されている。グラフィックボード21,22を備えていることにより、PC15は、本発明の眼鏡の視野画像表示装置の画像処理部として動作する。
The system shown in FIG. 1 includes an HMD (head mounted display) 11, a PC (personal computer) 15, two monitors 16 and 17, and a game pad 18 or a keyboard 19 as input devices.
The HMD 11 includes a head motion sensor (gyro sensor or the like) 12 and a line-of-sight motion sensor (line-of-sight tracking device or the like) 13.
The PC 15 includes a graphic board 21 for an image for the right eye, a graphic board 22 for an image for the left eye, and a USB 23. An HMD controller 14 is connected between the HMD 11 and the PC 15. Since the graphic boards 21 and 22 are provided, the PC 15 operates as an image processing unit of the eyeglass field-of-view image display device of the present invention.

本実施の形態の装置・システムにおいては、累進屈折力レンズの見え方を、「ユレ(歪み)」と「ぼやけ」の観点から体験させることを目的としている。
そのため、視対象となる3次元CG(コンピュータグラフィックス)ムービーに、リアルタイム演算にて「歪み」と「ぼやけ」の画像処理効果を与えて、累進屈折力レンズの見え方を再現する。
The apparatus / system of the present embodiment is intended to allow the progressive power lens to be seen from the viewpoint of “distortion” and “blurring”.
Therefore, an image processing effect of “distortion” and “blurring” is given to a three-dimensional CG (computer graphics) movie to be viewed by real-time calculation to reproduce the appearance of the progressive addition lens.

図1に示すシステムでは、右眼用画像と左眼用画像とを用意することにより、立体視表示が可能となる。
また、再現される視野は、HMD11に搭載したジャイロセンサー(頭部の動きセンサー12)及び視線追跡装置(視線の動きセンサー13)によって、視聴者の視線の動きに応じて、3次元CGモデル内の視野を追従させる形で表示を行う。
In the system shown in FIG. 1, stereoscopic display is possible by preparing a right-eye image and a left-eye image.
The field of view to be reproduced is a 3D CG model according to the movement of the viewer's line of sight by the gyro sensor (head movement sensor 12) and the line-of-sight tracking device (line-of-sight movement sensor 13) mounted on the HMD 11. The display is made to follow the field of view.

PC15では、「歪みフィルター」、並びに「ぼやけフィルター」としての画像処理が行われる。
「歪みフィルター」とは、元画像の各画素に対して、Bスプライン光線データベースから、像側の出力座標(T’,C’)の値を返す機構である。
「ぼやけフィルター」とは、元画像の各画素に対して、Bスプライン光線データベースから、ぼやけテクスチャの大きさ(σμ,σν)、及び方向係数(ρ)の値を返す機構である。
出力となる可視画像は、元画像の全ての画素を入力とし、「歪みフィルター」を通して返される出力画像での座標位置に、「ぼやけフィルター」を通して返されるぼやけテクスチャ画像を加算(重ね塗り)して生成される。
In the PC 15, image processing as a “distortion filter” and a “blurring filter” is performed.
The “distortion filter” is a mechanism that returns the value of the output coordinate (T ′, C ′) on the image side from the B-spline ray database for each pixel of the original image.
The “blurring filter” is a mechanism that returns the values of the size (σ μ , σ v ) and the direction coefficient (ρ) of the blurred texture from the B-spline ray database for each pixel of the original image.
The output visible image takes all pixels of the original image as input, and adds (overlapping) the blurred texture image returned through the “blur filter” to the coordinate position in the output image returned through the “distortion filter”. Generated.

図1のシステムにおいて使用する、3次元CGモデルの一例を、図2に示す。
空間内に、球・円柱・直方体・立方体等の形状の5個のオブジェクト31,32,33,34,35が配置されている。眼鏡使用者41から見て、それぞれのオブジェクト31,32,33,34,35までの距離は様々であり、球形状のオブジェクト31は比較的近く、オブジェクト32やオブジェクト34は比較的遠くなっている。
また、図2においては、3次元CGモデルの配置と共に、2方向の主視線43A,43Bにおいて、眼鏡レンズ50上の視線通過点46A,46Bを併せて示している。
An example of a three-dimensional CG model used in the system of FIG. 1 is shown in FIG.
In the space, five objects 31, 32, 33, 34, and 35 having shapes such as a sphere, a cylinder, a rectangular parallelepiped, and a cube are arranged. When viewed from the eyeglass user 41, the distances to the objects 31, 32, 33, 34, and 35 are various, the spherical object 31 is relatively close, and the objects 32 and 34 are relatively far away. .
In FIG. 2, along with the arrangement of the three-dimensional CG model, the line-of-sight passing points 46A and 46B on the spectacle lens 50 are also shown in the two-direction main lines of sight 43A and 43B.

この図2を参照して、視野の位置によって眼鏡レンズ50上の視線通過点の位置が変化することを説明する。
まず、眼鏡使用者41が、オブジェクト32及びオブジェクト33の方を見て、視覚視野44Aが見えている状態を考える。このとき、眼鏡使用者41の頭部42は図示しないが視覚視野44Aの方を向いている。そして、主視線43Aは、視覚視野44Aの視野中心45Aに向かっている。ここで、視覚視野44Aは、比較的眼鏡使用者41からの距離が比較的遠くなっているため、眼鏡レンズ50上の視線通過点46Aの位置は、中央部よりやや上にある。
次に、眼鏡使用者41が、オブジェクト34及びオブジェクト35の方を見て、視覚視野44Bが見えている状態を考える。このとき、眼鏡使用者41の頭部42は図示しないが視覚視野44Bの方を向いている。そして、主視線43Bは、視覚視野44Bの視野中心45Bに向かっている。ここで、視覚視野44Bは、比較的眼鏡使用者41からの距離が視覚視野44Aよりも近くなっているため、眼鏡レンズ50上の視線通過点46Bの位置は、先ほどの視線通過点46Aよりも下にあり、眼鏡レンズ50の中央部付近にある。
このように、視覚視野44A,44Bが変わることにより、眼鏡使用者41の頭部42の向きが変わるだけではなく、視覚視野44A,44Bまでの距離等に対応して、眼鏡レンズ50上の視線通過点46A,46Bの位置も変わってくる。
このようなことから、前記特許文献1のように頭部の動きに対応させるだけで、視線通過点が固定であると、実際の見え方とは大きく異なってくることになる。
本実施の形態では、図1に示したシステムを使用して、眼鏡レンズ50上の視線通過点46A,46Bの位置の変化にも対応するように、シミュレーションの画像を表示する。
With reference to FIG. 2, it will be described that the position of the line-of-sight passing point on the spectacle lens 50 changes depending on the position of the visual field.
First, consider a state in which the eyeglass user 41 looks at the object 32 and the object 33 and the visual field 44A is visible. At this time, the head 42 of the eyeglass user 41 faces the visual field 44A although not shown. The main line of sight 43A is directed toward the visual field center 45A of the visual visual field 44A. Here, since the visual field 44A is relatively far from the spectacle user 41, the position of the line-of-sight passing point 46A on the spectacle lens 50 is slightly above the center.
Next, it is assumed that the eyeglass user 41 looks at the object 34 and the object 35 and the visual field 44B is visible. At this time, the head 42 of the eyeglass user 41 faces the visual field 44B although not shown. The main line of sight 43B is directed to the visual field center 45B of the visual visual field 44B. Here, since the visual field 44B is relatively closer to the eyeglass user 41 than the visual field 44A, the position of the line-of-sight passing point 46B on the eyeglass lens 50 is larger than the line-of-sight passing point 46A. Located below and near the center of the spectacle lens 50.
Thus, not only the direction of the head 42 of the eyeglass user 41 changes due to the change of the visual fields 44A and 44B, but also the line of sight on the eyeglass lens 50 corresponding to the distance to the visual fields 44A and 44B. The positions of the passing points 46A and 46B also change.
For this reason, if the line-of-sight passing point is fixed simply by making it correspond to the movement of the head as in Patent Document 1, it will be very different from the actual appearance.
In the present embodiment, a simulation image is displayed using the system shown in FIG. 1 so as to correspond to the change in the position of the line-of-sight passing points 46A and 46B on the spectacle lens 50.

次に、シミュレーションの画像を表示するまでの過程を、図3のフローチャートに示す。
以下、図3を参照して、図1のシステムにおけるシミュレーションの過程を説明する。
Next, the process until the simulation image is displayed is shown in the flowchart of FIG.
The simulation process in the system of FIG. 1 will be described below with reference to FIG.

まず、HMD11に搭載されたジャイロセンサー(頭部の動きセンサー12)や視線追跡装置(視線の動きセンサー13)により、眼鏡使用者42の顔の位置、向き(頭部42の向き)、視線方向を検出する。ステップS1では、右眼用の検出を行い、ステップS2では、左眼用の検出を行う。
一方、ステップS3において、図2に示したように、CG仮想物体(3次元CGモデル)を用意する。
次に、ステップS4において、CGウォークスルー機能を使用して、ステップS1及びステップS2によって検出した顔の位置や向きや視線方向によって、3次元CGモデルから切り取る視覚視野を求める。この視覚視野は、右眼用と左眼用とでそれぞれ異なる視野となる。
次に、ステップS5において、ステップS4で切り取った視覚視野から、右眼用の歪み、ボヤケが全くない元画像を作成する。同様に、ステップS6において、ステップS5において、ステップS4で切り取った視覚視野から、左眼用の歪み、ボヤケが全くない元画像を作成する。
一方、ステップS7において、入力装置(キーボード19等)により、眼鏡使用者41の処方度数、加入度、レンズ種類を入力する。
次に、入力した内容から、ステップS8で右眼レンズの形状データ及びレイアウトデータ及び右眼球モデルを作成し、ステップS9で左眼レンズの形状データ及びレイアウトデータ及び左眼球モデルを作成する。
次に、ステップS8〜S9でそれぞれ作成した、形状データ、レイアウトデータ、眼球モデルに基づいて、ステップS10において、光線データの3次元スプライン補間係数を生成する。
次に、ステップS10で生成した光線データの3次元スプライン補間係数を用いて、ステップS11において、右眼用の、出射光線方向、PSFパラメータ、レンズ通過点位置、その他いろいろなパラメータの3次元スプライン補間係数を求める。同様に、ステップS12において、左眼用の、出射光線方向、PSFパラメータ、レンズ通過点位置、その他いろいろなパラメータの3次元スプライン補間係数を求める。
次に、ステップS5及びステップS6で作成した元画像と、ステップS11及びステップS12で求めたパラメータや補間係数等を使用して、ステップS13において、シミュレーションを実行する。このシミュレーションの過程では、画像処理用ハードウエアを使用することも含んでいる。
次に、ステップS14において、右眼用の、歪み及びボヤケを含む画像を作成する。同様に、ステップS15において、左眼用の、歪み及びボヤケを含む画像を作成する。
このようにして作成した、歪み及びボヤケを含む画像は、HMD11の表示画面や、右眼監視用モニター16、左眼監視用モニター17に表示する。
以上説明した過程によって、HMD11の表示画面において、視線方向に対応した、歪みやボヤケを含む画像が表示される。
First, the position, orientation (orientation of the head 42), and eye-gaze direction of the eyeglass user 42 are detected by a gyro sensor (head movement sensor 12) or a gaze tracking device (gaze movement sensor 13) mounted on the HMD 11. Is detected. In step S1, detection for the right eye is performed, and in step S2, detection for the left eye is performed.
On the other hand, in step S3, as shown in FIG. 2, a CG virtual object (three-dimensional CG model) is prepared.
Next, in step S4, using the CG walk-through function, a visual field to be cut out from the three-dimensional CG model is obtained based on the face position, orientation, and line-of-sight direction detected in steps S1 and S2. This visual field is different for the right eye and the left eye.
Next, in step S5, an original image having no distortion or blur for the right eye is created from the visual field cut out in step S4. Similarly, in step S6, in step S5, an original image without any distortion or blur for the left eye is created from the visual field cut out in step S4.
On the other hand, in step S7, the prescription power, the addition power, and the lens type of the eyeglass user 41 are input by an input device (keyboard 19 or the like).
Next, shape data, layout data, and a right eye model of the right eye lens are created from the input content in step S8, and shape data, layout data, and a left eye model of the left eye lens are created in step S9.
Next, based on the shape data, the layout data, and the eyeball model created in steps S8 to S9, a three-dimensional spline interpolation coefficient of light ray data is generated in step S10.
Next, using the three-dimensional spline interpolation coefficient of the ray data generated in step S10, in step S11, the three-dimensional spline interpolation for the right eye, the outgoing ray direction, the PSF parameter, the lens passing point position, and other various parameters. Find the coefficient. Similarly, in step S12, the three-dimensional spline interpolation coefficients for the left eye for the outgoing light direction, PSF parameter, lens passing point position, and other various parameters are obtained.
Next, a simulation is executed in step S13 using the original image created in steps S5 and S6 and the parameters and interpolation coefficients obtained in steps S11 and S12. This simulation process includes using image processing hardware.
Next, in step S14, an image including distortion and blur for the right eye is created. Similarly, in step S15, an image including distortion and blur for the left eye is created.
The image including distortion and blur generated in this way is displayed on the display screen of the HMD 11, the right eye monitoring monitor 16, and the left eye monitoring monitor 17.
Through the process described above, an image including distortion and blur corresponding to the viewing direction is displayed on the display screen of the HMD 11.

<2.動画像シミュレーションの理論及び手法の説明>
2−1.シミュレーションの目的
この動画像シミュレーションは、眼鏡をかけた場合にどのように感じるかを、静止画像や動画像で表現することを目的としている。
3次元CGとHMD11、ジャイロセンサー、視線追跡装置を組み合わせて使うことにより、仮想空間の中で頭を回したり、視線を変更したりするときに見える画像を、リアルタイムで提示することが可能である。
また、図1のシステム及び図3のフローチャートに示したように、左右の眼にそれぞれ別々の画像を提示すれば両眼立体視も可能である。
<2. Explanation of theory and method of video simulation>
2-1. The purpose of the simulation The purpose of this moving image simulation is to express how it feels when wearing glasses with a still image or a moving image.
By using a combination of 3D CG, HMD11, gyro sensor, and eye tracking device, it is possible to present in real time an image that can be seen when turning the head or changing the eye in the virtual space. .
Further, as shown in the system of FIG. 1 and the flowchart of FIG. 3, binocular stereoscopic vision is also possible if separate images are presented to the left and right eyes, respectively.

2−2.シミュレーションに使用する座標系
本実施の形態のシミュレーションに使用する座標系を、図4に示す。
図4に示すように、x軸、y軸、z軸の3軸の直交座標系を構成する。x軸は、正面から目に入る方向にとる。y軸は、x軸と直交し、上に向く方向とする。z軸は、右から左に向く水平方向とする。x軸−y軸−z軸の方向は、右手則に則っている。そして、原点は、眼球の回旋中心に置く。図中の破線は、眼球とその角膜とを模式的に示している。
2-2. Coordinate System Used for Simulation FIG. 4 shows a coordinate system used for the simulation of this embodiment.
As shown in FIG. 4, a three-axis orthogonal coordinate system of x-axis, y-axis, and z-axis is configured. The x-axis is taken in the direction from the front to the eye. The y-axis is orthogonal to the x-axis and faces upward. The z-axis is the horizontal direction from right to left. The x-axis-y-axis-z-axis directions are in accordance with the right-hand rule. The origin is placed at the center of rotation of the eyeball. The broken line in the figure schematically shows the eyeball and its cornea.

そして、図4に示す座標系において、空間内の任意一点P(x,y,z)(ここではx<0、つまり目の前)は、目に入る光線の角度β,γと回旋中心点までの距離POとによって、表し直すことができる。
シミュレーション画像上の位置は、縦方向ではtanβ=y/xとなり、横方向ではtanγ=z/xとなる。物体距離は、そのまま表すのではなく、逆数で表わすことが、眼鏡の場合には都合がいい。従って、空間上任意点の位置は、下記のように表わすことができる。

Figure 0005632245
In the coordinate system shown in FIG. 4, an arbitrary point P (x, y, z) in space (here, x <0, that is, in front of the eyes) is the angles β and γ of light rays entering the eye and the rotation center point. It can be expressed again by the distance PO.
The position on the simulation image is tan β = y / x in the vertical direction and tan γ = z / x in the horizontal direction. In the case of glasses, it is convenient to represent the object distance by the reciprocal number instead of representing it as it is. Accordingly, the position of an arbitrary point in space can be expressed as follows.
Figure 0005632245

2−3.レンズの歪みについての説明
レンズを通して見ると、光線が屈折されてしまう。
つまり、裸眼では(ψ,ζ)の方向にある物体点が、眼鏡レンズを通して見ると、(ψ',ζ')に移動する。
このことを、図5を参照して、さらに詳しく説明する。図5には、眼鏡レンズ50と、眼球51と、眼鏡レンズ50の凹面に対応する後方頂点球面52を示している。
図5に示す任意点Pは、裸眼時の入射方向がPOであるのに対し、眼鏡をかけて眼鏡レンズ50を通して見ると、眼球51の回旋中心Oへの入射方向がROに変わる。
同様に、図5に示す点Aは、裸眼時の入射方向がAOであるのに対し、眼鏡レンズ50を通して見ると、眼球51の回旋中心Oへの入射方向がBOに変わる。
2-3. Explanation of lens distortion When viewed through a lens, light rays are refracted.
That is, the object point in the direction of (ψ, ζ) with the naked eye moves to (ψ ′, ζ ′) when viewed through the spectacle lens.
This will be described in more detail with reference to FIG. FIG. 5 shows a spectacle lens 50, an eyeball 51, and a rear vertex spherical surface 52 corresponding to the concave surface of the spectacle lens 50.
At the arbitrary point P shown in FIG. 5, the incident direction at the naked eye is PO, but when viewed through the spectacle lens 50 with glasses, the incident direction to the rotation center O of the eyeball 51 changes to RO.
Similarly, at point A shown in FIG. 5, the incident direction when the naked eye is AO is AO, but when viewed through the spectacle lens 50, the incident direction of the eyeball 51 to the rotation center O changes to BO.

ここで、眼鏡をかけたときに感じる物体の位置(ψ',ζ')は裸眼の時の位置(D,ψ,ζ)の関数で表すことができる。つまり、
ψ'=ψ'(D,ψ,ζ)
ζ'=ζ'(D,ψ,ζ)
という関数で表すことができる。この関数の中身は、後述する光線追跡によって確定することができる。
なお、融像回旋がある場合には、中心視線の融像回旋角に合わせて座標変換する必要がある。融像回旋の原理については後述する。
Here, the position (ψ ′, ζ ′) of the object felt when wearing glasses can be expressed by a function of the position (D 1 , ψ, ζ) when the eye is naked. That means
ψ ′ = ψ ′ (D l , ψ, ζ)
ζ ′ = ζ ′ (D l , ψ, ζ)
It can be expressed by the function The contents of this function can be determined by ray tracing described later.
In the case where there is a fusion rotation, it is necessary to perform coordinate conversion in accordance with the fusion rotation angle of the central line of sight. The principle of fusion will be described later.

2−4.レンズによるボヤケについての説明
レンズによるボヤケの原因は、物体点からのすべての光線が網膜の一点に収束しないことである。
物体点からの光が、像点を中心にある範囲に広がる光量分布を形成する。この分布を、点広がり関数(Point Spread Function;PSF)という。
2-4. Description of lens blur The cause of lens blur is that all rays from the object point do not converge on one point of the retina.
A light amount distribution in which light from the object point spreads in a range centered on the image point is formed. This distribution is called a point spread function (PSF).

この関数PSFを求める方法を、図6を参照して説明する。
PSFを求めるときには、まずその点Pを通る主光線PQOを探す。
主光線が決まれば、入射瞳を均等に分割して(例えば400分割)、P点から各分割領域の中心と結ぶ光線を追跡し、網膜に交わる点を求める。
図6において、P点の方位角と、P点出発の光線の主光線に対する方位角とを用いて、各光線を追跡することができる。
入射瞳の位置は、厳密に言うと瞳孔の物体側の共役点だが、主光線の物体側の線PQの延長線上の一点O’で、PO=PO’を満たすところに設定しても差し支えない。
A method for obtaining this function PSF will be described with reference to FIG.
When obtaining the PSF, first, the principal ray PQO passing through the point P is searched.
When the principal ray is determined, the entrance pupil is divided equally (for example, 400 divisions), the ray connecting from the point P to the center of each divided region is traced, and the point intersecting the retina is obtained.
In FIG. 6, each ray can be traced using the azimuth angle of the point P and the azimuth angle of the ray starting from the point P with respect to the principal ray.
Strictly speaking, the position of the entrance pupil is a conjugate point on the object side of the pupil, but it may be set to satisfy PO = PO ′ at one point O ′ on the extension line of the line PQ on the object side of the principal ray. .

幾何光学原理のPSFであれば、網膜交点の密度がそのままPSFである。
波動光学の効果を考える場合には、さらに各分割領域の光線の光路差を計算して、フレネル積分してPSFを求める。
In the case of PSF of the geometrical optical principle, the density of the retinal intersection is the PSF as it is.
When considering the effect of wave optics, the optical path difference of the light in each divided region is further calculated, and the PSF is obtained by Fresnel integration.

次に、入射瞳の分割方法は、様々な方法が考えられる。
主な分割方法として、図7Aに示す正方分割と、図7Bに示す螺旋分割との2種類が挙げられる。
図7Aに示す正方分割は、縦横に領域を分割して、各領域の中心点を使用している。この場合には、単純明解だが、四隅に無駄な部分があり、予定の光線数の7割程度しか追跡できない。
一方、図7Bに示す螺旋分割は、入射瞳の中心点から螺旋状に延びる曲線の上の点を使用している。この場合には、予定の光線数の全てを追跡できる。
なお、螺旋状の配置は少なくとも2以上の螺旋を含むことが望ましい。2以上の螺旋を含むことにより、1つの螺旋のみを含む配置よりも、入射瞳を効率良く利用することができる。図7Bでは6つの螺旋を含んでおり、このように6つの螺旋を含んだ場合には、最も効率良く入射瞳を利用することができる。
Next, various methods of dividing the entrance pupil can be considered.
As the main division method, there are two types, a square division shown in FIG. 7A and a helical division shown in FIG. 7B.
The square division shown in FIG. 7A divides an area vertically and horizontally and uses the center point of each area. In this case, it is simple and clear, but there are wasted parts at the four corners, and only about 70% of the planned number of rays can be traced.
On the other hand, the spiral division shown in FIG. 7B uses a point on a curve extending in a spiral shape from the center point of the entrance pupil. In this case, all the planned number of rays can be tracked.
Note that the spiral arrangement preferably includes at least two or more spirals. By including two or more spirals, the entrance pupil can be used more efficiently than an arrangement including only one spiral. In FIG. 7B, six spirals are included, and when the six spirals are included in this way, the entrance pupil can be used most efficiently.

こうして求めたPSFは、網膜面上の光密度分布であるが、入射画像の座標は眼球の回旋中心から見た方向の座標(ψ,ζ)であるため、網膜上の座標と入射画像の座標(ψ,ζ)との変換が必要である。
ここで、入射角と像高の関係を、図8に示す。PSFの有効範囲では像高が小さく、近軸計算で十分精度が得られると考える。
つまり、ψ=y/f,ζ=z/fとなる。なお、fは目の焦点距離であり、処方度数によって変化する。
The PSF thus obtained is the light density distribution on the retina surface, but the coordinates of the incident image are the coordinates (ψ, ζ) in the direction viewed from the center of rotation of the eyeball. Conversion with (ψ, ζ) is required.
Here, the relationship between the incident angle and the image height is shown in FIG. It is considered that the image height is small in the effective range of PSF, and sufficient accuracy can be obtained by paraxial calculation.
That is, ψ m = y m / f and ζ m = z m / f. In addition, f is a focal distance of eyes and changes with prescription frequencies.

このように、網膜上位置の光量分布は、入射光線方向の光量分布に変換することができる。つまり、物体点からの光は、物体点だけではなく物体点を中心としたある範囲の空間からも来ているように目が感じている。
そして、近傍の点と点の間は、お互いに影響を及ぼしあって、区別がつきにくく、ぼやけるように見える。
In this way, the light amount distribution at the position on the retina can be converted into the light amount distribution in the incident light direction. That is, the eyes feel that light from an object point comes not only from the object point but also from a certain range of space centered on the object point.
The neighboring points affect each other, making it difficult to distinguish and appear blurry.

レンズ上異なる位置を通して見た場合のPSFは当然異なる。
また、たとえレンズ上同じ位置を通して見ていても、物体距離が異なっていれば、PSFも異なる。
さらにまた、レンズ上同じ位置を通して同じ物体距離の点を見ても、目の調節状態が異なるとPSFも異なる。
なお、融像回旋がある場合には、眼球とレンズとの位置関係が融像回旋角だけ変わって、PSFも変化する。特に、乱視処方(眼球の度数に乱視成分が含まれる)の場合、注意が必要である。
Naturally, the PSF when viewed through different positions on the lens is different.
Further, even when viewing through the same position on the lens, if the object distance is different, the PSF is also different.
Furthermore, even when looking at the same object distance point through the same position on the lens, the PSF is different if the eye adjustment state is different.
When there is a fusion, the positional relationship between the eyeball and the lens changes by the fusion angle, and the PSF also changes. In particular, in the case of an astigmatism prescription (an astigmatism component is included in the power of the eyeball), attention is required.

2−5.融像回旋(トーション)についての説明
前述したように、視線方向が平行状態でなくなった場合には、眼球が融像回旋を行うことがある。
遠方を見る場合の眼球の回旋は、リスティング法則(Listing’s Law)に基づく。このリスティング法則は、眼球が空間上のある方向に向いたときの姿勢を定める法則である。
眼球の姿勢というのは、眼球の横方向と縦方向の向きを指す。眼球の姿勢が定まらないと、網膜像の上下左右が定まらない。
ただし、視線の方向、即ち、眼球の光軸の方向が決まっただけでは、眼球の姿勢は視線を軸に回転する全ての方向を取りうる。
2-5. Description of Fusion Rotation (Torsion) As described above, when the line-of-sight direction is not in a parallel state, the eyeball may perform fusion rotation.
The rotation of the eyeball when looking far away is based on the Listing's Law. This listing rule is a rule that determines the posture when the eyeball is directed in a certain direction in space.
The posture of the eyeball refers to the horizontal direction and the vertical direction of the eyeball. If the posture of the eyeball is not determined, the top, bottom, left and right of the retinal image cannot be determined.
However, only by determining the direction of the line of sight, that is, the direction of the optical axis of the eyeball, the posture of the eyeball can take all directions rotating around the line of sight.

リスティング法則は、無限遠方の任意の視線方向に向けた眼球の姿勢を定める。
リスティング法則について、例えば、「視覚情報処理ハンドブック」p.405では、「片眼のどんな回転も1つの平面(リスティング平面)内の軸を中心にして起こるとみなしうる」と記載されている。
The listing law defines the posture of the eyeball in an arbitrary gaze direction at infinity.
For listing laws, see, for example, “Visual Information Processing Handbook” p. 405 states that "any rotation of one eye can be considered to occur about an axis in one plane (listing plane)".

このことについて、図9に示す座標系を用いて説明する。
図9に示す座標系は、図4に示した座標系と同様に、X軸は正面(水平前方)から目に入る方向、Y軸はX軸と直交する上方向、Z軸は水平方向、としている。図9のX軸方向は、第1眼位とも呼ばれる。
そして、眼球と、眼球の回旋中心の点Rを示している。Y−Z平面は、前述したリスティング平面である。
This will be described using the coordinate system shown in FIG.
The coordinate system shown in FIG. 9 is similar to the coordinate system shown in FIG. 4, the X axis is the direction from the front (horizontal front) to the eye, the Y axis is the upward direction orthogonal to the X axis, the Z axis is the horizontal direction, It is said. The X-axis direction in FIG. 9 is also called the first eye position.
And the eyeball and the point R of the center of rotation of the eyeball are shown. The YZ plane is the above-described listing plane.

任意方向への眼球回旋後の姿勢は、点Rを含むリスティング平面内の直線を軸にした回転と同じである。図9においては、この回転軸となる直線の一例を、Y軸とZ軸との間に記載している。そして、この回転軸は、第1眼位(X軸方向)とも、回転後の視線方向とも、垂直である。
仮に、(図示しない)方向ベクトル(L,M,N)へ眼球回旋するならば、回旋後の眼球座標系のX軸、Y軸、Z軸のそれぞれのベクトルは、下記の式(1)で計算される。
The posture after the eyeball rotation in an arbitrary direction is the same as the rotation around the straight line in the listing plane including the point R. In FIG. 9, an example of a straight line serving as the rotation axis is shown between the Y axis and the Z axis. The rotation axis is perpendicular to both the first eye position (X-axis direction) and the line-of-sight direction after rotation.
If the eyeball is rotated to a direction vector (L, M, N) (not shown), the X-axis, Y-axis, and Z-axis vectors of the rotated eyeball coordinate system are expressed by the following equation (1). Calculated.

Figure 0005632245
Figure 0005632245

リスティング法則は、片眼が無限遠方の物体に対して眼球の姿勢を定めるものとしては正しい。
また、例えば、無限遠方の物体を視ていて体を傾けた場合には、左眼と右眼とで眼球の姿勢が同じで、眼球の回旋も同様である。
これに対して、無限遠方でない物体を両眼で視る場合には、左眼と右眼とで眼球の姿勢が異なることがある。
ここで、両眼視の場合の左右の眼の視線方向を説明する図を、図10A及び図10Bに示す。
The listing law is correct for determining the posture of the eyeball with respect to an object with one eye at infinity.
Further, for example, when an object at infinity is viewed and the body is tilted, the left eye and the right eye have the same eyeball posture, and the eyeball rotation is the same.
On the other hand, when an object that is not infinitely far away is viewed with both eyes, the posture of the eyeball may be different between the left eye and the right eye.
Here, FIGS. 10A and 10B are diagrams for explaining the gaze directions of the left and right eyes in the case of binocular vision.

両眼視の場合、無限遠方物体ならば、図10Aに示すように、左眼の眼球51Lと右眼の眼球51Rとを同じ視方向に向けるので、左右眼球がそれぞれリスティング法則に従って回旋した後の姿勢も同一である。
このとき、左右眼それぞれの網膜像に差異は生じない。
なお、図10A及び図10Bでは、左眼の眼球51Lと右眼の眼球51Rとの間の中央部に、左眼と右眼とを平均した眼球55を破線で示している。
In the case of binocular vision, if the object is infinitely far away, the left eyeball 51L and the right eyeball 51R are directed in the same viewing direction as shown in FIG. 10A. The posture is also the same.
At this time, there is no difference between the retinal images of the left and right eyes.
In FIGS. 10A and 10B, an eyeball 55 obtained by averaging the left eye and the right eye is indicated by a broken line at the center between the left eyeball 51L and the right eyeball 51R.

一方、有限距離の物体(点A)に対しては、図10Bに示すように、両眼輻輳が必要になる。
そのため、左眼の眼球51Lの視方向と、右眼の眼球51Rの視方向とが異なり、眼球の回旋量が、左右の眼球51L,51Rで異なる。図10Bでは、点Aが左前方にあるため、右眼の眼球51Rの回旋量が左目の眼球51Lの回旋量よりも多くなっている。
On the other hand, binocular convergence is required for an object (point A) of a finite distance, as shown in FIG. 10B.
Therefore, the viewing direction of the left-eye eyeball 51L and the viewing direction of the right-eye eyeball 51R are different, and the amount of rotation of the eyeball is different between the left and right eyeballs 51L and 51R. In FIG. 10B, since the point A is on the left front, the amount of rotation of the right-eye eyeball 51R is larger than the amount of rotation of the left-eye eyeball 51L.

リスティング法則に基づく眼球回旋では、回旋後の眼球姿勢、つまり、回旋後のy軸とz軸の各方向ベクトルは、式(1)に示した視方向ベクトルに依存している。
左眼と右眼の視方向ベクトルが異なれば、回旋後のy軸とz軸の各方向ベクトルは、左右眼で一致せず、網膜像の回転ずれが起こる。
この回転ずれを解消するために、左右の眼において、それぞれ視線周りの回旋が必要になる。この回旋を、融像回旋という。
In eyeball rotation based on the listing law, the eyeball posture after rotation, that is, each direction vector of the y-axis and z-axis after rotation depends on the viewing direction vector shown in Expression (1).
If the viewing direction vectors of the left eye and the right eye are different, the direction vectors of the y-axis and the z-axis after the rotation do not match with the left and right eyes, and a rotation shift of the retinal image occurs.
In order to eliminate this rotational deviation, rotation around the line of sight is required for the left and right eyes. This rotation is called fusion rotation.

融像回旋の角度(融像回旋角)を決めるためには、左右の眼に共通のy方向(縦方向)を決める必要がある。
この共通のy方向は、左眼の視線と右眼の視線とに対して、共に垂直である方向が自然である。つまり、図10Bの左目の眼球51Lの中心と点Aとの間の直線と、右眼の眼球51Rの中心と点Aとの間の直線とを含む平面に垂直な方向である。
従って、図11に両眼共通のy方向を示すように、左眼の視線方向のベクトルxと右眼の視線方向のベクトルxとに、それぞれ垂直な方向に、共通のy方向のベクトルyがある。この方向は、理論的縦方向ホロプターともいう。
In order to determine the angle of fusion (fusion rotation angle), it is necessary to determine the y direction (vertical direction) common to the left and right eyes.
The common y direction is naturally a direction that is perpendicular to both the left eye gaze and the right eye gaze. That is, the direction is perpendicular to a plane including a straight line between the center of the left eyeball 51L and the point A and a straight line between the center of the right eyeball 51R and the point A in FIG. 10B.
Accordingly, as shown in FIG. 11, the y-direction common to both eyes, the vector x L in the left eye gaze direction and the vector x R in the right eye gaze direction are respectively common to the y-direction vectors in the vertical direction. there is a y C. This direction is also called a theoretical longitudinal horopter.

仮に、左右の眼の視線方向単位ベクトルxとxがそれぞれ、下記の式(2)の通りであるとする。

Figure 0005632245
このとき、共通のy方向のベクトルyは、下記の式(3)で表される。
Figure 0005632245
If line-of-sight direction unit vector x L and x R of the right and left eyes, respectively, and is as the formula (2) below.
Figure 0005632245
In this case, the vector y C a common y-direction is expressed by the following formula (3).
Figure 0005632245

左右の眼がそれぞれの視線方向に向けて回旋したときの、リスティング法則に基づいたy方向のベクトルy,yは、下記の式(4)で表される。

Figure 0005632245
ベクトルyとベクトルyとの角度が、左眼球の融像回旋角度となり、同様にベクトルyとベクトルyとの角度が、右眼球の融像回旋角度となる。 The vectors y L and y R in the y direction based on the listing rule when the left and right eyes are rotated in the respective line-of-sight directions are expressed by the following equation (4).
Figure 0005632245
Angle between the vector y L and the vector y C becomes a fusion torsion angle of the left eye, as well as the angle between the vectors y R and the vector y C, the fusion torsion angle of the right eye.

さらに、眼鏡をかける場合は、眼鏡レンズの屈折作用を考慮しなければならない。
この場合、共通のy方向y自体は変わらないが、左右それぞれのレンズを通過した後のy方向を光線追跡で求めて、光線追跡で求めた共通のy方向と左右の眼のリスティング法則に基づいたy方向のベクトルとの角度を求めると、融像回旋角が求められる。
Furthermore, when wearing spectacles, the refractive action of the spectacle lens must be considered.
In this case, the common y direction y C itself does not change, but the y direction after passing through the left and right lenses is obtained by ray tracing, and the common y direction obtained by ray tracing and the right and left eye listing laws are used. When the angle with the vector in the y direction is obtained, the fusion angle is obtained.

光線追跡で求めた共通のy方向のベクトルYと、左右の眼のy方向のベクトルY,Yとから、下記の式により、左右の眼球の融像回線角度θ,θを算出することができる。

Figure 0005632245
And vector Y C common y direction obtained by ray tracing, vector Y L in the y-direction of the right and left eyes, and a Y R, by the following formula, the left and right eye image fusion line angle theta L, a theta R Can be calculated.
Figure 0005632245

なお、以上の式は両眼共通の縦方向、つまり、縦方向ホロプターが、左右眼視線の外積方向である場合の融像回旋角を求める式である。実際の縦方向ホロプターは、左右眼視線の外積方向とは異なる場合がある。その場合の融像回旋角は、眼球の縦方向と実際の縦方向ホロプター方向が同一平面内にあるように決めるべきである。   Note that the above expression is an expression for obtaining a fusion angle when the vertical direction common to both eyes, that is, the vertical horopter is the outer product direction of the left and right eye gazes. The actual vertical horopter may differ from the cross product direction of the left and right eye gazes. The fusion angle in that case should be determined so that the longitudinal direction of the eyeball and the actual longitudinal horopter direction are in the same plane.

2−6.シミュレーション像の合成
以上、レンズによる歪みとボヤケと融像回旋について説明した。
歪みとボヤケとを画像処理の手法で合成すると、眼鏡レンズをかけて見える画像のシミュレーションが可能である。さらに、静止画像だけではなく、動画像も可能である。
歪みについては、像側視野内のすべての画素の対応点物体側に求めて、元画像の輝度情報を当てることで実現できる。
ボヤケについては、各画素の輝度をそのPSFに基づいて周辺画素に“分配”して、画像全画素の輝度を再構成することによって実現できる。
ボヤケ処理は、たたみこみ演算(Convolution)とも呼ばれる。一般的なたたみこみ演算と異なるのは、PSFが一定でないことである。
融像回旋(トーション)については、視野内の元画像のデータに、融像回旋を含む眼球回旋量を加える処理を行うことによって実現できる。
2-6. Synthesis of simulation image So far, distortion, blurring and fusion of the lens have been described.
When distortion and blur are combined by an image processing technique, it is possible to simulate an image viewed through a spectacle lens. Furthermore, not only still images but also moving images are possible.
Distortion can be realized by obtaining the corresponding point object side of all pixels in the image side field of view and applying the luminance information of the original image.
Blurring can be achieved by “distributing” the luminance of each pixel to the surrounding pixels based on its PSF and reconstructing the luminance of all pixels in the image.
The blur process is also called a convolution operation. The difference from the general convolution operation is that the PSF is not constant.
The fusion (torsion) can be realized by performing processing for adding the amount of eyeball rotation including fusion to the original image data in the field of view.

より好ましくは、融像回旋(トーション)について、視線方向の遠用アイポイントにおける基準位置からの視線の移動角度量(眼球の水平方向及び垂直方向の運動)と、眼鏡レンズの屈折力及び/又はプリズムとに応じて、眼球の融像回旋(トーション)の角度を算出する。
なお、視線方向の遠用アイポイントにおける基準位置とは、図10Bでは、左右の眼球51L,51Rから伸びる破線の方向であり、左眼と右眼とを平均した眼球55からでは、正面から角度φだけ左にある。図10Bでは、左右の眼の移動角度量の和が角度αとなっている。
More preferably, with regard to fusion rotation (torsion), the amount of movement of the line of sight from the reference position at the distance eye point in the line of sight (horizontal and vertical movement of the eyeball) and the refractive power of the spectacle lens and / or The angle of fusion (torsion) of the eyeball is calculated according to the prism.
In FIG. 10B, the reference position at the distance eye point in the line-of-sight direction is the direction of the broken line extending from the left and right eyeballs 51L and 51R, and from the eyeball 55 that averages the left eye and the right eye, it is an angle from the front. Left by φ. In FIG. 10B, the sum of the movement angle amounts of the left and right eyes is an angle α.

さらに好ましくは、融像回旋の角度θ(左眼)及びθ(右眼)を、リスティング法則から算出した両眼の視線方向に直交するベクトルである、ベクトルY(左眼)及びベクトルY(右眼)と、左眼の視線方向の単位ベクトル及び右眼の視線方向の単位ベクトルの外積であるベクトルYとから、前述した式により算出する。 More preferably, the angle of fusion rotation theta L (the left eye) and theta R (right eye), a vector orthogonal to the viewing direction of both eyes, which is calculated from the listing's Law, vector Y L (left eye) and vector Y R (right eye) and the vector Y C which is the outer product of the unit vector in the line of sight of the left eye and the unit vector of the line of sight in the right eye are calculated by the above-described equation.

なお、融像回旋(トーション)については、左右の眼の視線方向が平行な場合には生じないため、被写体の位置によって左右の眼の視線方向が平行となっているときには、融像回旋の回旋量を加える処理は行わない。
融像回旋(トーション)は、無限遠方を見ている遠方視は除く近方視のときに生じるものであり、左右の眼の視線方向が異なる(平行でなく、交差する)ときに生じるものである。
また、注視している物体が近づいて来る際に眼球が内転する運動(即ち、輻輳)や、注視している物体が遠ざかる際に眼球が外転する運動(即ち、開散)に伴い、融像回旋(トーション)の処理が加えられる。
Note that fusion rotation (torsion) does not occur when the left and right eye gaze directions are parallel, so when the left and right eye gaze directions are parallel depending on the position of the subject, fusion rotation is performed. There is no processing to add the amount.
Fusion rotation (torsion) occurs in near vision except far vision looking at infinity, and occurs when the left and right eye gaze directions are different (not parallel but intersecting). is there.
In addition, with the movement of the eyeball inversion (ie, convergence) when the object being watched approaches, or the movement of the eyeball abduction when the object being watched away (ie, spread), A process of fusion (torsion) is added.

2−7.視野の中心視線を指定した場合の座標変換
以上のように、真正面から目に入る方向をx軸とした座標系(以下、グローバル座標系と呼ぶ)において、歪み情報(物体側視方向から像側視方向への変換)と、ボヤケ情報(特定視方向、視距離におけるPSF)とを用いれば、視野全体のシミュレーションが可能である。
2-7. Coordinate transformation when the central line of sight of the field of view is specified As described above, in the coordinate system (hereinafter referred to as the global coordinate system) in which the direction from the front to the eye is the x axis, the distortion information (from the object side viewing direction to the image side) By using the conversion to the viewing direction and blur information (specific viewing direction, PSF at the viewing distance), the entire visual field can be simulated.

しかしながら、実際のシミュレーションは、必ずしも中心視線が真正面向きではない。
例えば、近用部の見え方を確認したい場合は、中心視線がレンズ近用部を通っている必要がある。この場合、中心視線はグローバル座標の斜め方向に当たる。この斜め方向をx’軸とするローカル座標系において、シミュレーションを行う。
このとき、ローカル座標系のy’軸とz’軸をいかに決めるかが問題となる。ここでは眼球回旋の法則のひとつである、リスティング法則に則って決める。リスティング法則によれば、中心視線が真正面向きのときの上下方向及び左右方向が、眼球が回旋して中心視線が移動することに対応して、ある決まった方向にそれぞれ変化する。そして、中心視線が移動して視線方向が変化したときにも、実際の物体の上下方向及び左右方向が網膜像でも上下方向及び左右方向となるように変化する。
座標軸の変換マトリックスは、下記の式(5)になる。

Figure 0005632245
(ここで、a,b,cは、中心視線方向のグローバル座標における方向単位ベクトル(a b c)の各軸成分である。)
そして、グローバル座標の任意一点(x,y,z)のローカル座標(x',y',z')は、下記の式(6)で変換される。
Figure 0005632245
逆に、ローカル座標の任意一点(x',y',z')のグローバル座標(x,y,z)は、下記の式(7)で変換される。
Figure 0005632245
However, in actual simulations, the central line of sight is not necessarily directly in front.
For example, when it is desired to confirm how the near portion is visible, the central line of sight needs to pass through the lens near portion. In this case, the central line of sight hits the diagonal direction of the global coordinates. A simulation is performed in a local coordinate system having the oblique direction as the x ′ axis.
At this time, how to determine the y ′ axis and the z ′ axis of the local coordinate system becomes a problem. Here, it is decided according to the listing law, which is one of the laws of eyeball rotation. According to the listing rule, the vertical direction and the left-right direction when the central line of sight is facing directly in front change to a predetermined direction in response to the eyeball rotating and the central line of sight moving. Even when the center line of sight moves and the line of sight changes, the vertical and horizontal directions of the actual object change so as to be the vertical and horizontal directions even in the retinal image.
A coordinate matrix conversion matrix is expressed by the following equation (5).
Figure 0005632245
(Here, a, b, and c are each axis component of the direction unit vector (a b c) in the global coordinates in the central line-of-sight direction.)
Then, the local coordinates (x ′, y ′, z ′) of an arbitrary point (x, y, z) in the global coordinates are converted by the following expression (6).
Figure 0005632245
Conversely, global coordinates (x, y, z) of an arbitrary point (x ′, y ′, z ′) of local coordinates are converted by the following equation (7).
Figure 0005632245

以上のような座標変換式を用いれば、レンズ上の任意点を通過する視線方向を中心視線とする場合の歪みを、リアルにシミュレートすることが可能となる。   By using the coordinate conversion formula as described above, it is possible to realistically simulate distortion when the line-of-sight direction passing through an arbitrary point on the lens is the central line-of-sight.

2−8.光線データのスプライン補間近似
メガネレンズを通しての見え方をシミュレーションする光学的原理及び画像処理手法は、上述のようにして確立した。
しかし、いざシミュレーションを始めると、膨大な計算量に悩まされる。眼鏡レンズの形状は単純な球面ではなく、特に累進レンズは自由曲面である。
眼鏡レンズのような複雑な面の光線追跡には、繰り返して収束する手法を採用する。これは単純な球面の光線追跡よりも、少なくとも数倍の時間がかかる。
また、シミュレーションする画像の画素数の多さも、光線追跡計算量の上昇に拍車をかけている。
全てのシミュレーションの結果画像の全画素に対して、元画像のどの画素に対応しているか探すための光線追跡(主光線追跡)を実行しなければならない。その上に、PSFを確定するために対応物体点から発する多数(例えば100)の光線を追跡して、網膜上のスポットを求める。これらの光線追跡が全て非球面に対応するために、繰り返し収束手法を採用しなければならないので、途方もなく膨大な計算負担になるのである。
現在のパーソナルコンピュータ1台の計算能力では、このような手法では、一枚の画像(動画像の一コマ)を処理するのに数日かかることになる。
2-8. Spline Interpolation Approximation of Ray Data The optical principle and image processing method for simulating the appearance through a spectacle lens were established as described above.
However, when you start the simulation, you suffer from a huge amount of calculations. The shape of the spectacle lens is not a simple spherical surface, and in particular, the progressive lens is a free-form surface.
For ray tracing of a complicated surface such as a spectacle lens, a method of repeatedly converging is adopted. This takes at least several times longer than simple spherical ray tracing.
In addition, the large number of pixels in the image to be simulated has spurred an increase in the amount of ray tracing calculation.
Ray tracing (principal ray tracing) for finding out which pixel of the original image corresponds to all pixels of the image as a result of all simulations must be executed. In addition, a number of (for example, 100) rays emanating from the corresponding object points are traced to determine the PSF, and a spot on the retina is obtained. In order for all of these ray tracing to correspond to aspherical surfaces, it is necessary to adopt a convergence method repeatedly, which is a tremendous calculation burden.
With the current computing ability of one personal computer, it takes several days to process one image (one frame of moving image) with such a method.

一方、レンズ形状、眼球パラメータ、レンズと眼球の位置関係が全部確定している状態では、下記の物体側の任意一点に対し、像側(ψ',ζ')は唯一に決まる。

Figure 0005632245
つまり、下記の関数
ψ'=ψ'(D,ψ,ζ)
ζ'=ζ'(D,ψ,ζ)
が成立する。
しかも、変数(D,ψ,ζ)に対し、(ψ',ζ')は連続変化することも、容易に想像できる。このような関数は、スプライン補間に適している。 On the other hand, in a state in which the lens shape, eyeball parameters, and the positional relationship between the lens and the eyeball are all determined, the image side (ψ ′, ζ ′) is uniquely determined with respect to any one point on the object side described below.
Figure 0005632245
That is, the following function ψ ′ = ψ ′ (D l , ψ, ζ)
ζ ′ = ζ ′ (D l , ψ, ζ)
Is established.
Moreover, it can be easily imagined that (ψ ′, ζ ′) continuously changes with respect to the variable (D l , ψ, ζ). Such a function is suitable for spline interpolation.

そこで、各変数の定義域内に、有限個のサンプル点を設定する。例えば、物体距離逆数Dのサンプル点を、(−0.2,0.0,0.2,0.5,0.8,1.1,1.4,1.7,2.0,2.3,2.6,2.9,3.2,3.6,4.0)の15点とし、上下角度のタンジェントψのサンプルを、(−1.5,−1.2,−1.0,−0.8,−0.6,−0.4,−0.2,0.0,0.2,0.4,0.6,0.8,1.0,1.2,1.5)の15点とし、左右角度のタンジェントζのサンプルを(−1.5,−1.2,−1.0,−0.8,−0.6,−0.4,−0.2,0.0,0.2,0.4,0.6,0.8,1.0,1.2,1.5)の15点に設定する。
これらのサンプル点のすべての組み合わせについて、光線追跡を実行し、真の関数値を求める。
それ以外の変数値(サンプル点とサンプル点の間の値)に対する関数値は、サンプル点における真の関数値を用いて補間する方法が確立されている。補間方法は、目的に合わせて多数あるが、サンプル点における真値が既知の場合の補間方法としては、Bスプライン法が最も適している。
Therefore, a finite number of sample points are set in the domain of each variable. For example, the sample points of the reciprocal object distance D 1 are (−0.2, 0.0, 0.2, 0.5, 0.8, 1.1, 1.4, 1.7, 2.0, 2.3, 2.6, 2.9, 3.2, 3.6, 4.0), and samples of the tangent ψ of the vertical angle are (−1.5, −1.2, − 1.0, -0.8, -0.6, -0.4, -0.2, 0.0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.. 2, 1.5), and samples of the tangent ζ of the left and right angles are (−1.5, −1.2, −1.0, −0.8, −0.6, −0.4, -0.2, 0.0, 0.2, 0.4, 0.6, 0.8, 1.0, 1.2, 1.5).
For all combinations of these sample points, ray tracing is performed to find a true function value.
A method of interpolating function values for other variable values (values between sample points) using true function values at the sample points has been established. There are many interpolation methods according to the purpose, but the B-spline method is most suitable as an interpolation method when the true value at the sample point is known.

サンプル点の数や間隔は、補間精度に関係する。一般的に、サンプル点間隔の小さいところの補間精度は高い。ただし、間隔を小さくすると、定義域全部をカバーするためのサンプル数が多くなり、プログラム上メモリを多く確保する必要がある。最近のPCやOSはメモリを沢山装着できるようになったので、サンプル数の制限は緩和され、高精度の結果が得られるようになった。   The number and interval of sample points are related to the interpolation accuracy. In general, the interpolation accuracy is small where the sample point interval is small. However, if the interval is reduced, the number of samples for covering the entire definition area increases, and it is necessary to secure a large amount of memory in the program. Since recent PCs and OSs can be equipped with a lot of memory, the limit on the number of samples has been relaxed, and high-precision results can be obtained.

このようにして、歪み情報を表す関数

Figure 0005632245
を、少ない計算量のスプライン補間で得られるようになる。式中、Cは補間係数であり、Nは各次元の節点に基づいた基底多項式関数である。 In this way, a function representing distortion information
Figure 0005632245
Can be obtained with a small amount of spline interpolation. In the equation, C is an interpolation coefficient, and N is a basis polynomial function based on the nodes of each dimension.

2−9.PSFの簡略化
前述したように、厳密にある物体点のPSFを取得するには、物体点から発し、入射瞳を均等分割する多数の点を通過する光線を追跡し、網膜上のスポットを求めて、さらにスポット密度分布関数を求める。
しかし、この方法では、光線の数を増やしても精度の向上が思うほど上がらない。
また、収差が少ない場合にはスポットが集中して、像点以外にはほとんど光線が通らないケースもあれば、度数誤差の大きい場合には、ある領域で均等分布のケースもあり、PSF関数の変化が激しい。
一方、シミュレーションやレンズパフォーマンス評価の場合、必ずしも正確なPSFを必要としない。例えば、視力の場合、二つの点が分別できる最も近い距離(視角)を表している。この場合、PSFの関数の精密な形は必要とせず、PSFがカバーする範囲の大きさが重要なパラメータである。従って、PSFを大胆に簡略しても、レンズ性能評価に果たす役割が大きく影響されることはないと言える。
逆に、PSFをあらかじめ連続関数に仮定して、そのパラメータを光線追跡のデータを用いて当てはめるようにすれば、少ないパラメータでPSFを表現できる。それらのパラメータを、前述の歪み関数のようにスプライン補間(三次元)で求めることができる。
2-9. Simplification of PSF As described above, in order to obtain the PSF of an object point exactly, the light beam emitted from the object point and passing through a large number of points that equally divide the entrance pupil is traced to obtain a spot on the retina. Further, a spot density distribution function is obtained.
However, with this method, even if the number of light beams is increased, the accuracy cannot be improved as expected.
In addition, when the aberration is small, the spot is concentrated, and there are cases where the light ray hardly passes other than the image point, and when the power error is large, there is a case of uniform distribution in a certain region. Change is intense.
On the other hand, in the case of simulation and lens performance evaluation, an accurate PSF is not necessarily required. For example, in the case of visual acuity, it represents the closest distance (viewing angle) at which two points can be distinguished. In this case, the precise shape of the PSF function is not required, and the size of the range covered by the PSF is an important parameter. Accordingly, even if the PSF is boldly simplified, it can be said that the role played in the lens performance evaluation is not greatly affected.
On the contrary, if the PSF is assumed to be a continuous function in advance and the parameters are applied using the ray tracing data, the PSF can be expressed with a small number of parameters. These parameters can be obtained by spline interpolation (three-dimensional) like the above-described distortion function.

簡略関数の形状は、度数誤差やあらゆる軸角度の非点収差のPSFを近似できるように、二次元正規分布が適切と考えられる、つまり、簡略関数は、下記の式(8)のようになる。

Figure 0005632245
(ここで、μ,νはそれぞれy、z方向の主光線からの偏移角、σμ,σν,ρは正規分布のパラメータである。これらのパラメータはσμ>0,σν>0,−1<ρ<1を満たす。)
下記の式(9)で表される楕円の線上すべての点(μ,ν)において、次の式(10)が成り立つ。
Figure 0005632245
Figure 0005632245
そして、その等高線楕円内の積分は、下記の式(11)となる。
Figure 0005632245
この場合の等確率楕円を、図12に示す。 As the shape of the simplified function, a two-dimensional normal distribution is considered appropriate so that the PSF of astigmatism with a power error or any axial angle can be approximated. In other words, the simplified function is expressed by the following equation (8). .
Figure 0005632245
(Where μ and ν are shift angles from the principal rays in the y and z directions, respectively, and σ μ , σ ν and ρ are parameters of a normal distribution. These parameters are σ μ > 0 and σ ν > 0. , −1 <ρ <1 is satisfied.)
The following equation (10) holds at all points (μ, ν) on the elliptical line represented by the following equation (9).
Figure 0005632245
Figure 0005632245
The integral within the contour ellipse is given by the following equation (11).
Figure 0005632245
The equiprobability ellipse in this case is shown in FIG.

このように、二次元正規分布関数は、広がりの程度(σμ,σν)と非点ボケの程度(等確率楕円長短軸比)、角度(長軸の角度)を表すことができる。
もちろん、PFSの光学系の状態による無限に近い変化を忠実に表すことはできないが、PSFを表現する簡略関数としては有効である。
Thus, the two-dimensional normal distribution function can represent the extent of spread (σ μ , σ ν ), the degree of astigmatism blur (equal probability ellipse major / minor axis ratio), and the angle (major axis angle).
Of course, near-infinite change due to the state of the optical system of PFS cannot be faithfully expressed, but it is effective as a simplified function for expressing PSF.

二次元正規分布関数のパラメータσμ,σν,ρを、光線データから求める方法を考えると、(μ,ν)平面に散布する多数の光線の交点(各交点が入射瞳上の各分割点に対応)の統計値を求めて、σμ,σν,ρに当てる方法が考えられる。つまり、

Figure 0005632245
である。ここで、Nは光線数で、(μ,ν)は交点座標である。 Considering the method of obtaining the parameters σ μ , σ ν , and ρ of the two-dimensional normal distribution function from the ray data, the intersections of many rays scattered on the (μ, ν) plane (each intersection point is each division point on the entrance pupil) Can be considered as a method of calculating the statistical value of the corresponding to σ μ , σ ν , and ρ. That means
Figure 0005632245
It is. Here, N is the number of rays, and (μ i , ν i ) is the intersection coordinates.

このように、物体空間上の任意一点(D,ψ,ζ)のPSF分布関数を、パラメータσμ,σν,ρを持つ二次元正規分布関数で近似することができる。さらに、σμ,σν,ρは(D,ψ,ζ)の関数と表すことができる。つまり、
σμ=σμ(D,ψ,ζ)
σν=σν(D,ψ,ζ)
ρ=ρ(D,ψ,ζ)
これらの関数は、歪み情報と同様にスプライン補間で求めることもできる。つまり、下記のように求めることができる。

Figure 0005632245
As described above, the PSF distribution function at an arbitrary point (D 1 , ψ, ζ) on the object space can be approximated by a two-dimensional normal distribution function having parameters σ μ , σ ν , and ρ. Furthermore, σ μ , σ ν , and ρ can be expressed as a function of (D l , ψ, ζ). That means
σ μ = σ μ (D l , ψ, ζ)
σ ν = σ ν (D l , ψ, ζ)
ρ = ρ (D l , ψ, ζ)
These functions can also be obtained by spline interpolation in the same manner as the distortion information. That is, it can be obtained as follows.
Figure 0005632245

ここで注意したいのは、スプライン補間誤差で関数値が定義域を超える可能性がある、ということである。例えば、−1<ρ<1だが、補間で求めるとρ=1.002のような結果になって、楕円が存在しない結果になることがある。この問題の解決法は、ρの代わりにsin−1ρを補間して求め、得られた結果に対してsin演算を行って、ρを求めることが有効である。 It should be noted here that the function value may exceed the domain due to spline interpolation error. For example, although -1 <ρ <1, when it is obtained by interpolation, a result such as ρ = 1.002 may be obtained, and an ellipse may not exist. As a solution to this problem, it is effective to interpolate sin −1 ρ instead of ρ, and perform sine operation on the obtained result to obtain ρ.

歪みやボヤケのパラメータ以外にも、有用なパラメータをスプライン補間で求めることができる。例えば、主光線のレンズ凸面通過点位置(yconvex,zconvex)、凹面通過点位置(yconcave,zconcave)等が挙げられる。これらのパラメータは、下記のようにして、算出することが可能である。

Figure 0005632245
In addition to distortion and blur parameters, useful parameters can be obtained by spline interpolation. For example, the lens convex surface passing point position ( yconvex , zconvex ) of the principal ray, the concave surface passing point position ( yconvave , zconveve ), and the like can be mentioned. These parameters can be calculated as follows.
Figure 0005632245

主光線のレンズ通過点位置は、レンズ特定位置の透過光線を中心視線とするローカル座標系においての歪みやボヤケの分布のシミュレーションに役立つ。   The lens passing point position of the principal ray is useful for simulating the distortion and blur distribution in the local coordinate system with the transmitted ray at the specific lens position as the central line of sight.

2−10.多次元Bスプライン補間計算の高速化
1次元スプライン補間は、

Figure 0005632245
で表される。ここで、iは各次元の節点番号、Cはその係数、nは標本点数である。N(x)は、i番節点に対応する基底関数であり、階数Mの場合、i番節点とi+M番節点との間の範囲でゼロでない値を持ち、隣接節点間はm−1次多項式で表される(基底関数の局部性のため)。
言い換えると、xの定義域内の任意点aにおいては、ゼロでない値のN(x)が最多でもM個しか存在しない。
従って、補間式は一見するとn項あるように見えるが、x=aにおいては実質M項であり、M回の掛け算とM回の足し算でF(a)が得られる。 2-10. Speeding up multidimensional B-spline interpolation calculation One-dimensional spline interpolation is
Figure 0005632245
It is represented by Here, i is the node number of each dimension, C i is its coefficient, and n is the number of sample points. N i (x) is a basis function corresponding to the i-th node, and in the case of rank M, N i (x) has a non-zero value in the range between the i-th node and the i + M-th node, and the m−1 order between adjacent nodes Expressed in polynomial form (due to locality of basis functions).
In other words, at an arbitrary point a within the domain of x, there are only M non-zero values N i (x) at most.
Therefore, the interpolation equation seems to have n terms at first glance, but when x = a, it is substantially M terms, and F (a) is obtained by M multiplications and M additions.

3次元スプライン補間は、下記式(12)で表される。

Figure 0005632245
ここで、i,j,kは各次元の節点番号であり、それぞれ標本点数だけ変化する。
つまり、項の数は各次元の標本点数の積になる。しかし、上述の基底関数の局部性により、ある一点については、ゼロでない項の数は、各次元の階数の積である。
各次元のスプライン階数が4の場合、項の数は4=64である。つまり、一回の補間演算では、足し算を64回、掛け算を64×3=192回行うことになる。
一般的には、nj次元のM階スプライン補間演算に必要な掛け算の回数は、nj×Mnjであり、次元数が大きくなるにつれて、急激に計算負担が増える。 Three-dimensional spline interpolation is expressed by the following equation (12).
Figure 0005632245
Here, i, j, and k are node numbers of each dimension, and change by the number of sample points.
That is, the number of terms is the product of the number of sample points in each dimension. However, due to the locality of the basis functions described above, for a certain point, the number of non-zero terms is the product of the rank of each dimension.
If the spline rank in each dimension is 4, the number of terms is 4 3 = 64. That is, in one interpolation operation, addition is performed 64 times and multiplication is performed 64 × 3 = 192 times.
In general, the number of multiplications required for the nj-dimensional M-order spline interpolation calculation is nj × Mnj , and the calculation load increases rapidly as the number of dimensions increases.

ところが、上記式(12)を下記式(13)のように書き直すと、計算回数を若干減らすことができる。

Figure 0005632245
この式(9)は、1次元の補間のネスト構造(入れ子構造)であり、次元の順番は自由に変えることができる。掛け算と足し算は、共に4+4×(4+4×4)=84回であり、ほぼ1/2の計算時間で済む。
一般的には、nj次元のM階スプライン補間演算に必要な掛け算の回数は、下記式(14)で表される。
Figure 0005632245
However, if the above equation (12) is rewritten as the following equation (13), the number of calculations can be slightly reduced.
Figure 0005632245
This equation (9) is a one-dimensional interpolation nested structure (nested structure), and the order of dimensions can be freely changed. The multiplication and the addition are both 4 + 4 × (4 + 4 × 4) = 84 times, and the calculation time is almost ½.
In general, the number of multiplications required for the nj-dimensional M-th order spline interpolation calculation is expressed by the following equation (14).
Figure 0005632245

2−11.まとめ
3次元CGを利用した動画像シミュレーションの、主に技術的側面について説明した。累進レンズをかけて見えた3次元の外部世界を動画像でシミュレーションするため、計算量は膨大である。
この膨大な計算量を、スプライン補間とPSFのパラメータ化によって削減することができ、実現可能なレベルまで達成することが可能になる。
そして、本発明を適用しないでシミュレーションの計算を行った場合と比較して、本発明を適用した場合には、計算に要する時間を1/100〜1/1000程度にまで短縮することができる。
2-11. Summary The technical aspects of moving image simulation using 3D CG have been described. The amount of calculation is enormous because a three-dimensional external world viewed with a progressive lens is simulated with a moving image.
This enormous amount of calculation can be reduced by spline interpolation and PSF parameterization, and can be achieved to a realizable level.
When the present invention is applied, the time required for the calculation can be shortened to about 1/100 to 1/1000 compared to the case where the simulation calculation is performed without applying the present invention.

実際に、左右両眼の歪みやボヤケパラメータのスプライン係数データベース事前に準備して、高性能パソコンと画像グラフィックボードを用いてシミュレーション画像を生成した。
そして、ジャイロを搭載したHMDで、CGの中でリアルタイムウォークスルーを実行したところ、10フレーム/秒の速さで実現することができた。
Actually, a spline coefficient database of left and right binocular distortion and blur parameters was prepared in advance, and a simulation image was generated using a high-performance personal computer and an image graphic board.
When a real-time walkthrough was executed in the CG with an HMD equipped with a gyro, it was realized at a speed of 10 frames / second.

3.本発明の他の実施の形態の説明
本発明では、上述の実施の形態のように、HMD11とモニター16,17の両方への画像表示を行う構成に限定されるものではない。モニターを省略してHMDのみに表示する等、いずれか一方の表示部のみを設けて、その表示部に網膜像を表示する構成としてもよい。
本発明において、網膜像を表示する表示部は、HMDやモニターに限定されない。また、頭部の動きのセンサーは、ジャイロセンサーに限定されるものではない。
3. Description of Other Embodiments of the Present Invention The present invention is not limited to a configuration that displays images on both the HMD 11 and the monitors 16 and 17 as in the above-described embodiments. For example, only one of the display units may be provided and a retinal image may be displayed on the display unit, for example, the monitor may be omitted and displayed only on the HMD.
In the present invention, the display unit for displaying a retinal image is not limited to an HMD or a monitor. The head movement sensor is not limited to the gyro sensor.

ここで、本発明の他の実施の形態として、眼鏡の視野画像表示装置(表示システム)の構成を説明する。
本実施の形態では、図1及び図3に示したHMD11とモニター16,17の代わりに、3D(立体)ディスプレー、例えば、3Dテレビジョンや3Dプロジェクター等を表示部として使用する。そして、あらかじめ動画を作成した後に、一コマずつシミュレーション画像を作成して、このシミュレーション画像から眼鏡レンズをかけた場合の動画像を作成して、左右眼画像を3Dディスプレーに表示する。
Here, as another embodiment of the present invention, a configuration of a field-of-view image display device (display system) for glasses will be described.
In this embodiment, instead of the HMD 11 and the monitors 16 and 17 shown in FIGS. 1 and 3, a 3D (stereoscopic) display such as a 3D television or a 3D projector is used as a display unit. Then, after a moving image is created in advance, a simulation image is created frame by frame, a moving image when a spectacle lens is applied is created from the simulation image, and left and right eye images are displayed on the 3D display.

本実施の形態の装置における、シミュレーションの画像を表示するまでの過程を、図13のフローチャートに示す。
まず、ステップS21において、図2に示したと同様に、CG仮想物体(3次元CGモデル)を用意する。
また、ステップS22において、あらかじめ作成した動画像ストーリーを用意する。
次に、ステップS23において、CG仮想物体(3次元CGモデル)と動画像ストーリーとから、動画の一コマを左右眼の視点及び視方向から作成する。
次に、ステップS24において、ステップS23で作成した動画の一コマから、右眼用の歪み、ボヤケが全くない元画像の各画素の輝度(RGB)と視点からの距離を求める。同様に、ステップS25において、ステップS23で作成した動画の一コマから、左眼用の歪み、ボヤケが全くない元画像の各画素の輝度(RGB)と視点からの距離を求める。
一方、ステップS26において、入力装置(キーボード19等)により、眼鏡使用者の処方度数、加入度、レンズ種類を入力する。
次に、入力した内容から、ステップS27で右眼レンズの形状データ及びレイアウトデータと右眼球モデルを作成し、ステップS28で左眼レンズの形状データ及びレイアウトデータ及び左眼球モデルを作成する。
次に、ステップS27〜S28でそれぞれ作成した、形状データ、レイアウトデータ、眼球モデルに基づいて、ステップS29において、光線データの3次元スプライン補間係数を生成する。
次に、ステップS29で生成した光線データの3次元スプライン補間係数を用いて、ステップS30において、右眼用の、出射光線方向、PSFパラメータ、レンズ通過点位置、その他いろいろなパラメータの3次元スプライン補間係数を求める。同様に、ステップS31において、左眼用の、出射光線方向、PSFパラメータ、レンズ通過点位置、その他いろいろなパラメータの3次元スプライン補間係数を求める。
次に、ステップS24及びステップS25で作成した元画像の各画素の輝度及び視点からの距離と、ステップS30及びステップS31で求めたパラメータや補間係数等を使用して、ステップS32において、シミュレーションを実行する。このシミュレーションの過程では、画像処理用ハードウエアを使用することも含んでいる。
次に、ステップS33において、右眼用の、歪み及びボヤケを含む画像を作成する。同様に、ステップS34において、左眼用の、歪み及びボヤケを含む画像を作成する。
このようにして作成した、歪み及びボヤケを含む画像は、3Dディスプレーにおいて立体表示する。
以上説明した過程によって、3Dディスプレーの表示画面において、視線方向に対応した、歪みやボヤケを含む立体画像が表示される。
The process until the simulation image is displayed in the apparatus of the present embodiment is shown in the flowchart of FIG.
First, in step S21, a CG virtual object (three-dimensional CG model) is prepared as shown in FIG.
In step S22, a moving image story created in advance is prepared.
Next, in step S23, a frame of a moving image is created from the viewpoint and viewing direction of the left and right eyes from the CG virtual object (three-dimensional CG model) and the moving image story.
Next, in step S24, the luminance (RGB) and the distance from the viewpoint of each pixel of the original image having no distortion or blur for the right eye are obtained from one frame of the moving image created in step S23. Similarly, in step S25, the luminance (RGB) and the distance from the viewpoint of each pixel of the original image having no distortion or blur for the left eye are obtained from one frame of the moving image created in step S23.
On the other hand, in step S26, the prescription power, the addition power, and the lens type of the spectacle user are input by an input device (keyboard 19 or the like).
Next, from the input content, shape data and layout data of the right eye lens and a right eyeball model are created in step S27, and shape data, layout data and left eyeball model of the left eye lens are created in step S28.
Next, based on the shape data, layout data, and eyeball model created in steps S27 to S28, a three-dimensional spline interpolation coefficient for the light ray data is generated in step S29.
Next, using the three-dimensional spline interpolation coefficient of the ray data generated in step S29, in step S30, the three-dimensional spline interpolation of the right ray for the outgoing ray direction, the PSF parameter, the lens passing point position, and other various parameters. Find the coefficient. Similarly, in step S31, three-dimensional spline interpolation coefficients for the left eye, the direction of outgoing light, the PSF parameter, the lens passing point position, and other various parameters are obtained.
Next, a simulation is executed in step S32 using the brightness and distance from the viewpoint of each pixel of the original image created in step S24 and step S25, and the parameters and interpolation coefficients obtained in steps S30 and S31. To do. This simulation process includes using image processing hardware.
Next, in step S33, an image including distortion and blur for the right eye is created. Similarly, in step S34, an image including distortion and blur for the left eye is created.
The image including distortion and blur created as described above is displayed in a 3D display on a 3D display.
Through the process described above, a stereoscopic image including distortion and blur corresponding to the viewing direction is displayed on the 3D display screen.

本実施の形態において、上述した説明以外のその他の構成は、先の実施の形態と同様であるので、重複説明を省略する。   In the present embodiment, other configurations other than those described above are the same as those in the previous embodiment, and thus redundant description is omitted.

4.変形例
上述の実施の形態では、歪みを加える処理では、像側視野内のすべての画素の対応点物体側に求めて、元画像の輝度情報を当てていた。
また、上述の実施の形態では、ボヤケを加える処理では、各画素の輝度をそのPSFに基づいて周辺画素に“分配”して、画像全画素の輝度を再構成していた。さらにまた、式(1)で表わされる正規分布関数とパラメータを使用していた。
本発明では、歪みやボケを加える処理の方法は、上述した実施の形態で説明した方法に限定されるものではなく、その他の方法を使用することが可能である。
そして、本発明は、歪みを加える処理とボケを加える処理とのうち、一方又は両方に、上述した実施の形態で説明した方法以外の方法を使用する構成も含むものである。
4). In the above-described embodiment, in the process of adding distortion, the luminance information of the original image is applied to the corresponding point object side of all the pixels in the image side field of view.
In the above-described embodiment, in the process of adding blur, the luminance of each pixel is “distributed” to the peripheral pixels based on the PSF to reconstruct the luminance of all the pixels in the image. Furthermore, the normal distribution function and parameters represented by the equation (1) are used.
In the present invention, the processing method for adding distortion and blur is not limited to the method described in the above embodiment, and other methods can be used.
The present invention also includes a configuration in which a method other than the method described in the above-described embodiment is used for one or both of the process of adding distortion and the process of adding blur.

また、上述の実施の形態では、右眼用画像と左眼用画像とをそれぞれ作成して立体視が可能な構成としていた。
本発明は、右眼用画像或いは左眼用画像のいずれか一方の眼用の画像のみを作成する構成も含む。
Further, in the above-described embodiment, the right-eye image and the left-eye image are respectively created to enable stereoscopic viewing.
The present invention also includes a configuration in which only one of the right-eye image and the left-eye image is created.

また、上述の実施の形態では、本発明を累進屈折力レンズのシミュレーションを行う場合に適用して、融像回旋を含む眼球回旋量を加える処理を行い、網膜像を作成する構成であった。
本発明では、累進屈折力レンズに限らず、他の眼鏡レンズにおいても、融像回旋を含む眼球回旋量を加える処理を行って、網膜像を作成することが可能である。
In the above-described embodiment, the present invention is applied to the case where a progressive-power lens simulation is performed, and the processing for adding the amount of eyeball rotation including fusion is performed to create a retinal image.
In the present invention, not only the progressive power lens but also other spectacle lenses can be used to create a retinal image by performing processing for adding the amount of eyeball rotation including fusion.

本発明は、上述の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲でその他様々な構成が取り得る。   The present invention is not limited to the above-described embodiment, and various other configurations can be taken without departing from the gist of the present invention.

11 HMD、15 PC、16,17 モニター、41 眼鏡装用者、42 頭部、43A,43B 主視線、44A,44B 視覚視野、46A,46B 視線通過点、50 眼鏡レンズ
11 HMD, 15 PC, 16, 17 Monitor, 41 Eyeglass wearer, 42 Head, 43A, 43B Main line of sight, 44A, 44B Visual field of view, 46A, 46B Line of sight, 50 Eyeglass lens

Claims (3)

眼鏡レンズを掛けたときに見える網膜像を、シミュレーションによって表示する、眼鏡の視野画像表示装置であって、
前記眼鏡レンズを掛けた状態での眼球の視線の方向に対応する視野内の元画像のデータに、前記眼鏡レンズにおける前記視線の通過点に対応する、少なくとも、眼球の視軸回りの回転運動である融像回旋を含む眼球回旋量を加える処理を行うことにより、前記網膜像を作成する画像処理部と、
前記画像処理部で作成した前記網膜像を表示する表示部とを有する
ことを特徴とする眼鏡の視野画像表示装置。
A visual field image display device for spectacles, which displays a retinal image that is visible when a spectacle lens is worn by simulation,
The original image data in the field of view corresponding to the direction of the line of sight of the eyeball in the state where the spectacle lens is applied is at least a rotational movement around the visual axis of the eyeball corresponding to the passing point of the line of sight in the spectacle lens. An image processing unit that creates the retinal image by performing processing to add an eyeball rotation amount including a certain fusion rotation;
And a display unit for displaying the retinal image created by the image processing unit.
前記画像処理部は、視線方向の遠用アイポイントにおける基準位置からの視線移動角度量(眼球の水平垂直運動)と、前記眼鏡レンズの屈折力及び/又はプリズムとに応じて、眼球のトーション(融像回旋)角度を算出することを特徴とする請求項1に記載の眼鏡の視野画像表示装置。   The image processing unit performs eye torsion (in accordance with the amount of eye movement angle (horizontal and vertical movement of the eyeball) from the reference position at the distance eye point in the eye direction and the refractive power of the spectacle lens and / or the prism. 2. The visual field image display device for spectacles according to claim 1, wherein an angle of fusion is calculated. 前記画像処理部は、前記融像回旋の角度θ(左眼)及びθ(右眼)を、リスティング法則から算出した両眼の視線方向に直交するベクトルである、ベクトルY(左眼)及びベクトルY(右眼)と、左眼の視線方向の単位ベクトル及び右眼の視線方向の単位ベクトルの外積であるベクトルYとから、下記の式により算出することを特徴とする請求項1に記載の眼鏡の視野画像表示装置。
Figure 0005632245
The image processing unit is a vector Y L (left eye) that is a vector orthogonal to the line-of-sight direction of both eyes calculated from the listing law, with the angles θ L (left eye) and θ R (right eye) of the fusion rotation. ) And a vector Y R (right eye) and a vector Y C that is the outer product of the unit vector in the line-of-sight direction of the left eye and the unit vector in the line-of-sight direction of the right eye, Item 2. A field-of-view image display device for glasses according to Item 1.
Figure 0005632245
JP2010215367A 2010-09-27 2010-09-27 Eyeglass field image display device Active JP5632245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010215367A JP5632245B2 (en) 2010-09-27 2010-09-27 Eyeglass field image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010215367A JP5632245B2 (en) 2010-09-27 2010-09-27 Eyeglass field image display device

Publications (2)

Publication Number Publication Date
JP2012066002A JP2012066002A (en) 2012-04-05
JP5632245B2 true JP5632245B2 (en) 2014-11-26

Family

ID=46163967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010215367A Active JP5632245B2 (en) 2010-09-27 2010-09-27 Eyeglass field image display device

Country Status (1)

Country Link
JP (1) JP5632245B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104284622B (en) * 2012-05-25 2016-11-09 Hoya株式会社 Analog
WO2014030403A1 (en) * 2012-08-20 2014-02-27 Hoya株式会社 Simulation device, simulation system, simulation method and simulation program
WO2014122834A1 (en) * 2013-02-06 2014-08-14 Hoya株式会社 Simulation system, simulation device, and product description assistance method
CN114903591A (en) 2016-03-21 2022-08-16 华盛顿大学 Virtual reality or augmented reality visualization of 3D medical images
US10783700B2 (en) * 2018-05-20 2020-09-22 Neurolens, Inc. Progressive lens simulator with an axial power-distance simulator
JP7186082B2 (en) * 2018-12-26 2022-12-08 ホヤ レンズ タイランド リミテッド Spectacle lens design and manufacturing method
CN110430357B (en) * 2019-03-26 2021-01-29 华为技术有限公司 Image shooting method and electronic equipment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347514B2 (en) * 1995-03-31 2002-11-20 ホーヤ株式会社 Eye optical system simulation device
JP3893760B2 (en) * 1998-07-28 2007-03-14 セイコーエプソン株式会社 Glasses field of view experience apparatus, glasses field of view experience method, and recording medium
JP2000047154A (en) * 1998-07-28 2000-02-18 Seiko Epson Corp Device and method for experiencing visual field of spectacles and record medium
JP3825654B2 (en) * 2000-05-22 2006-09-27 Hoya株式会社 Ophthalmic optical system simulation method and apparatus
JP3919097B2 (en) * 2001-09-06 2007-05-23 Hoya株式会社 Binocular visual performance display method and apparatus for spectacle lens
JP4477909B2 (en) * 2004-03-19 2010-06-09 セイコーオプティカルプロダクツ株式会社 Glasses wearing simulation system and image generation method
JP3686418B2 (en) * 2004-10-29 2005-08-24 アレイ株式会社 Measuring device and method
WO2010044383A1 (en) * 2008-10-17 2010-04-22 Hoya株式会社 Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses
JP5352249B2 (en) * 2009-01-13 2013-11-27 ホーヤ レンズ マニュファクチャリング フィリピン インク Simulation device, simulation program, and recording medium recording simulation program

Also Published As

Publication number Publication date
JP2012066002A (en) 2012-04-05

Similar Documents

Publication Publication Date Title
WO2010044383A1 (en) Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses
JP7078540B2 (en) Image creation device, image creation method, image creation program, spectacle lens design method and spectacle lens manufacturing method
US9785306B2 (en) Apparatus and method for designing display for user interaction
JP5632245B2 (en) Eyeglass field image display device
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
EP1949174B1 (en) Ophthalmic lens simulation system and method
JP3342423B2 (en) Eye optical system simulation device
JP6023801B2 (en) Simulation device
US9629539B2 (en) Eyeglasses-wearing simulation method, program, device, eyeglass lens-ordering system and eyeglass lens manufacturing method
CN109791433A (en) Prediction type central fovea virtual reality system
US20210283496A1 (en) Realistic Virtual/Augmented/Mixed Reality Viewing and Interactions
JP6276691B2 (en) Simulation device, simulation system, simulation method, and simulation program
US20230251508A1 (en) Modular prescription augmented reality display
JP4270347B2 (en) Distance calculator
Potemin et al. An application of the virtual prototyping approach to design of VR, AR, and MR devices free from the vergence-accommodation conflict
US9454007B1 (en) Free-space lens design and lenses therefrom
Sun et al. A Novel Integrated Eye-Tracking System With Stereo Stimuli for 3-D Gaze Estimation
JP6446465B2 (en) I / O device, I / O program, and I / O method
CN108881892B (en) Anti-dizziness method and system for desktop virtual reality system
JP7241702B2 (en) Image creation device, spectacle lens selection system, image creation method and program
D'Angelo et al. Development of a Low-Cost Augmented Reality Head-Mounted Display Prototype
Wetzstein Augmented and virtual reality
Zhdanov et al. Adaptive vergence reconstruction method for mixed reality systems
JP2022050768A (en) Element image group generation device and program thereof
CN106680995A (en) Display control method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141009

R150 Certificate of patent or registration of utility model

Ref document number: 5632245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250