JP5098739B2 - Simulation device, simulation program, and recording medium recording simulation program - Google Patents

Simulation device, simulation program, and recording medium recording simulation program Download PDF

Info

Publication number
JP5098739B2
JP5098739B2 JP2008078565A JP2008078565A JP5098739B2 JP 5098739 B2 JP5098739 B2 JP 5098739B2 JP 2008078565 A JP2008078565 A JP 2008078565A JP 2008078565 A JP2008078565 A JP 2008078565A JP 5098739 B2 JP5098739 B2 JP 5098739B2
Authority
JP
Japan
Prior art keywords
lens
distance
image data
simulation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008078565A
Other languages
Japanese (ja)
Other versions
JP2009230699A (en
Inventor
俊英 篠原
唯之 加賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008078565A priority Critical patent/JP5098739B2/en
Publication of JP2009230699A publication Critical patent/JP2009230699A/en
Application granted granted Critical
Publication of JP5098739B2 publication Critical patent/JP5098739B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eyeglasses (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、レンズの見え方をシミュレーションするためのシミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体に関する。   The present invention relates to a simulation apparatus for simulating the appearance of a lens, a simulation program, and a recording medium recording the simulation program.

昨今、各種用途に応じてシミュレーション装置が利用されている。例えば、仮想空間における住宅等の構造物の中を、仮想の人間が移動しながらその住宅内の様々な位置・方向での室内の見え方や、エアコン等による温度分布や照明器具の効果を擬似体験させるシミュレーションシステムが提案されている(特許文献1)。このような移動を伴う擬似体験のやり方をウォークスルーと呼ぶ。
この特許文献1では、仮想空間内を移動する仮想視点に追随するとともに仮想視点からの両眼視線の向かっている観察対象物までの距離を都度計算し、この計算された距離と設定された左右両眼の距離とから、視差をもたせた左右眼による画像を計算する。そして、その視差をもたせた画像をヘッドマウント型ディスプレイで観察者の左右両眼にそれぞれの画像を視認させることにより、立体イメージでの擬似体験をさせている。
In recent years, simulation apparatuses are used according to various applications. For example, a virtual person moves through a structure such as a house in a virtual space to simulate the appearance of the room at various positions and directions in the house, the temperature distribution by an air conditioner, etc., and the effects of lighting fixtures. A simulation system for experiencing is proposed (Patent Document 1). This method of simulated experience with movement is called walk-through.
In this patent document 1, the distance from the virtual viewpoint to the observation object toward the binocular line of sight is calculated each time, following the virtual viewpoint moving in the virtual space, and the calculated distance and the set left and right From the distance between both eyes, an image with the left and right eyes with parallax is calculated. The parallaxed images are made to be simulated by a three-dimensional image by causing the left and right eyes of the observer to visually recognize the images with the parallax.

また、眼鏡レンズをかけた状態を疑似体験させるシミュレーション装置も提案されている(非特許文献1)
この非特許文献1の従来例を図11の概念図を用いて説明する。図11において、眼鏡レンズLの手前に仮想視点Pを置き、この仮想視点Pから仮想観察対象物Oを見るとともに、この仮想視点Pと仮想観察対象物Oとを結ぶ直線LDと視軸LPとの成す角度をθ、直線LDと視軸LPとの眼鏡レンズLの上の点を結ぶ直線LAと眼鏡レンズLのレンズ光軸LCを通るX軸LXとの成す角度をαとする。
非特許文献1では、まず、仮想視点Pから視野の各方向(α、θ)・各距離DへのレンズLを通したレイトレーシングを最初に実施する。レンズLを透したときのプリズム作用、パワーエラー、非点収差等の光学特性を計算し、さらに、目の調節力から遠点、近点を計算し、それらからその位置でのレンズデフォーカス量を総合的に計算する。そして、レンズデフォーカス量を視野空間の各位置(方向、距離)でのレンズLによるレンズ視覚特性データとして登録する。ウォークスルーの際は、どの方向のどの距離に対象物があるかを判定し、その視野空間の位置に登録された特性データにより物体を変位させながら複数回の表示を合成することにより画像を作成する。
In addition, a simulation device that simulates the state of wearing a spectacle lens has also been proposed (Non-Patent Document 1).
A conventional example of Non-Patent Document 1 will be described with reference to the conceptual diagram of FIG. In FIG. 11, a virtual viewpoint P is placed in front of the spectacle lens L, the virtual observation object O is viewed from the virtual viewpoint P, and a straight line LD connecting the virtual viewpoint P and the virtual observation object O and the visual axis LP Is defined as θ, and the angle formed between the straight line LA connecting the point on the spectacle lens L between the straight line LD and the visual axis LP and the X axis LX passing through the lens optical axis LC of the spectacle lens L is defined as α.
In Non-Patent Document 1, first, ray tracing through the lens L from the virtual viewpoint P to each direction (α, θ) and each distance D of the visual field is first performed. Calculates optical properties such as prism action, power error, astigmatism, etc. when passing through the lens L, and further calculates the far point and near point from the eye's adjustment power, and then the lens defocus amount at that position Is calculated comprehensively. Then, the lens defocus amount is registered as lens visual characteristic data by the lens L at each position (direction and distance) in the visual field space. During walk-through, an image is created by determining which direction in which direction the object is located and synthesizing multiple displays while displacing the object based on the characteristic data registered in the position of the visual field space. To do.

特開平7-73338号公報(図7、8)JP 7-73338 A (FIGS. 7 and 8) 「頂点ベースのレイトレーシングを用いた屈折矯正結果の表示」情報処理学会研究報告、2006−CG−124(5)、pp.25-30(2006年8月)"Display of refractive correction results using vertex-based ray tracing" Information Processing Society of Japan Research Report, 2006-CG-124 (5), pp.25-30 (August 2006)

特許文献1では、眼鏡レンズ光学特性の擬似体験をする上では次の課題がある。
眼鏡レンズを装用している場合、図12に示す通り、遠くのものを見るときと近くのものを見るときでは眼鏡レンズ内の視線の通過する位置が異なる。例えば、図12(A)で示される通り、遠方視の場合は眼鏡レンズLの光軸LCを中心としたレンズの中心部分が視野の中心となる。一方、図12(B)で示される通り、近方視の場合は視軸LPを目標に向けるすなわち眼の輻輳があり、視線は左右の眼鏡レンズLの鼻側を通過することになるため、レンズ上の視野の中心は左右レンズとも鼻側に移動する。
In Patent Document 1, there is the following problem in performing a simulated experience of spectacle lens optical characteristics.
When the spectacle lens is worn, as shown in FIG. 12, the position where the line of sight passes through the spectacle lens differs when looking at a distant object and when viewing a close object. For example, as shown in FIG. 12A, in the case of far vision, the center portion of the lens centering on the optical axis LC of the spectacle lens L is the center of the visual field. On the other hand, as shown in FIG. 12B, in the case of near vision, the visual axis LP is directed to the target, that is, there is eye convergence, and the line of sight passes through the nose side of the left and right eyeglass lenses L. The center of the field of view on the lens moves to the nose side for both the left and right lenses.

眼鏡レンズLでは光軸LCを中心とするレンズ中央部と異なり、レンズの周辺部においては光学的特性、たとえば非点収差、パワーエラー、歪曲収差等があるため、左右両眼による眼鏡レンズLを透しての視覚シミュレーションを行う場合は、それらを忠実に再現することが求められる。特に、累進屈折力レンズはレンズ内に遠くを見る遠用部と呼ばれる領域、近くを見る近用部と呼ばれる領域、その中間に位置する中間距離を見る中間部あるいは累進部と呼ばれる領域をもつものであり、レンズ内に部分的に比較的大きな非点収差、歪曲収差、度数変化をもっている。そのため累進屈折力レンズでは、特にこの輻輳を考慮したシミュレーションが重要である。   Unlike the central part of the lens centered on the optical axis LC, the spectacle lens L has optical characteristics such as astigmatism, power error, distortion, etc. in the peripheral part of the lens. In the case of performing visual simulation through, it is required to faithfully reproduce them. In particular, a progressive-power lens has an area called a distance portion that looks far away in the lens, a region called a near portion that looks near, and an intermediate portion that looks at an intermediate distance located in the middle or an area called a progressive portion The lens partially has relatively large astigmatism, distortion, and power change. Therefore, in the progressive-power lens, a simulation that takes this convergence into consideration is particularly important.

また、視覚シミュレーションにおいては、眼の調節も考慮する必要がある。すなわち、人の眼は、その中の水晶体の屈折力を変えることによって、遠くを見たり近くを見たりしている。その調節により見ることのできる最長距離を遠点と呼び、最短距離を近点と呼び、遠点と近点の間の距離であればハッキリとものを見ることができる。累進屈折力レンズを必要とする老眼患者はこの眼の調節力が衰えてくるため、遠点と近点の間が近づいてくる。
従って、老眼患者の視覚シミュレーションを行う場合には、単純にどの方向に何が見えると言うことだけではなく、それが調節の遠点、近点の範囲に入っているかどうか、もし外れているとするとどのくらい外れていてそれによりどのくらいぼやけて見えるのかというシミュレーションもしないと正確なシミュレーションにはならない。
In visual simulation, it is necessary to consider eye adjustment. That is, the human eye looks at the distance or near by changing the refractive power of the lens in the eye. The longest distance that can be seen by the adjustment is called the far point, the shortest distance is called the near point, and the distance between the far point and the near point can be clearly seen. A presbyopic patient who needs a progressive power lens loses the accommodation power of this eye, so the distance between the far point and the near point approaches.
Therefore, when performing a visual simulation of a presbyopic patient, it is not only that what is seen in which direction, but also if it is out of the range of the far and near points of adjustment. Then, it will not be an accurate simulation without a simulation of how far it is off and how blurry it looks.

従来のウォークスルーの両眼視によるシミュレーションは、建物内の構造物を空間的に体験する目的であるため、単純に左右眼で視野の各方向に何があるかをすべての視野内の各方向についてシミュレーションするだけである。従って、眼の調節も考慮した視覚シミュレーションにはなっていない。
さらに、眼鏡レンズを装用しての両眼視による視覚シミュレーションとしては、前述のような眼の輻輳も考慮して眼鏡レンズのどの位置を通過するか、そのときの屈折作用によるプリズム効果、パワーエラー・非点収差の発生によって、視線がどのように曲げられ、対象物がどのようにぼやけて見えるかといった計算が必要である。
そのようなシミュレーションは、各シチュエーションにおいて、レイトレーシング法によって計算することによって求められるが、眼鏡レンズという視線を屈折させる中間物のない従来のものではほぼリアルタイムでウォークスルーのスピードに合わせて計算し、画像として表示可能かもしれないが、眼鏡レンズによる光学特性をシミュレーションするにはその方向の視線の少し離れた近傍に無数のレイトレーシングをする必要があり、膨大な処理時間がかかってしまう。そのため、仮想空間内をウォークスルーするあるいは視線の方向を素早く動かして累進屈折力レンズのもつ揺れを体験するようなリアルタイム処理は困難である。
The conventional walk-through simulation with binocular vision is for the purpose of experiencing the structure in the building spatially, so simply determine what is in each direction of the field of view with the left and right eyes. Just simulate about. Therefore, it is not a visual simulation that takes account of eye accommodation.
Furthermore, as a visual simulation with binocular vision wearing a spectacle lens, the position of the spectacle lens that passes through the eye as described above, the prism effect due to refraction, power error, etc. -It is necessary to calculate how the line of sight is bent by the occurrence of astigmatism and how the object looks blurred.
Such a simulation is obtained by calculating by the ray tracing method in each situation, but in the conventional thing without an intermediate that refracts the line of sight of a spectacle lens, it is calculated in accordance with the speed of the walkthrough in almost real time. Although it may be possible to display as an image, in order to simulate the optical characteristics of the spectacle lens, it is necessary to perform innumerable ray tracing in the vicinity of the line of sight in that direction, and enormous processing time is required. Therefore, real-time processing that walks through the virtual space or quickly moves the direction of the line of sight to experience the shaking of the progressive-power lens is difficult.

非特許文献1では、ウォークスルーで視線が移動する毎にレンズによる光学特性を求めるためのレイトレーシングが必要ないため計算を短縮できるものの、眼の調節条件が変わって、輻輳が変化した場合には、レンズ上の視野位置が変わってくることになり、その都度レンズ視覚特性データを計算し直さなければならない。
そのため、非特許文献1でもリアルタイムでの擬似体験をさせることは困難であった。
In Non-Patent Document 1, every time the line of sight moves in the walk-through, the ray tracing for obtaining the optical characteristics by the lens is not necessary, so that the calculation can be shortened. However, when the eye adjustment condition changes and the convergence changes. The visual field position on the lens changes, and the lens visual characteristic data must be recalculated each time.
Therefore, even in Non-Patent Document 1, it is difficult to make a real-time simulated experience.

本発明は、リアルタイムで眼鏡レンズによる両眼視の視覚シミュレーションを可能にし、眼鏡をかけたときの見え方の擬似体験を可能にできるシミュレーション装置、シミュレーションプログラムおよびシミュレーションプログラムを記録した記録媒体を提供することを目的とする。   The present invention provides a simulation apparatus, a simulation program, and a recording medium on which the simulation program is recorded, which enables visual simulation of binocular vision using a spectacle lens in real time and enables a pseudo experience of how the eyeglass looks when wearing glasses. For the purpose.

本発明のシミュレーション装置は、レンズの設計事項に関するレンズ設計データを取得する設計データ取得手段と、前記レンズ設計データに基づいてレンズを設計するレンズ設計手段と、眼鏡装着者の視覚に対応したデータを取得する画像データ取得手段と、前記画像データ取得手段で取得されたデータに基づいて画像データを作成する画像データ作成手段と、この画像データ作成手段で作成された画像データを加工済みレンズを介して見た状態を示す画像処理手段と、前記画像処理手段で作成された処理画像データを表示する表示手段と、視差条件に対応する視覚特性データが予め記録された記録手段と、を備え、前記画像データ作成手段は、仮想視野空間を仮想始点からの距離に応じて少なくとも2つに分割する分割工程と、この分割工程で分割された仮想視野空間のうち所定の距離に対応した視差条件を設定する視差条件設定工程と、眼鏡装着者の目の調節による目的視距離を決定する目的視距離決定工程と、この目的視距離決定工程で決定された目的視距離から視差条件を判定する視差条件判定工程と、この視差条件判定工程で判定された視差条件に対応する視覚特性データを前記記録手段から読み出し、当該読み出した視覚特性データを用いて、眼鏡レンズを透した仮想視野空間内の対象物の両眼視シミュレーション画像を作成する画像作成工程とを有することを特徴とする。 The simulation apparatus of the present invention includes design data acquisition means for acquiring lens design data relating to lens design items, lens design means for designing a lens based on the lens design data, and data corresponding to the eyesight of a spectacle wearer. Image data acquisition means for acquiring, image data generation means for generating image data based on the data acquired by the image data acquisition means, and image data generated by the image data generation means via the processed lens An image processing unit that indicates a viewing state; a display unit that displays processed image data created by the image processing unit; and a recording unit that records visual characteristic data corresponding to a parallax condition in advance. The data creating means includes a dividing step of dividing the virtual visual field space into at least two according to the distance from the virtual starting point, and the dividing process. In a parallax condition setting step of setting a predetermined distance parallax conditions corresponding one of the divided virtual viewing space, the object viewing distance determination step of determining a target viewing distance by adjusting the eye of the spectacle wearer, this purpose vision A parallax condition determining step for determining a parallax condition from the target viewing distance determined in the distance determining step, and visual characteristic data corresponding to the parallax condition determined in the parallax condition determining step are read from the recording unit, and the read visual And an image creation step of creating a binocular vision simulation image of the object in the virtual visual field space through the spectacle lens using the characteristic data .

この発明によると、シミュレーション装置は、レンズ設計手段で、レンズの設計事項に関するレンズ設計データを取得し、画像データ取得手段で、眼鏡装着者の視覚に対応したデータを取得する。そして、画像データ作成手段で、画像データ取得手段で取得されたデータに基づいて画像データを作成する。
画像データ作成手段は、分割工程、視差条件決定工程、目的視距離決定工程、視差条件判定工程、および画像作成工程の各工程を実施する。
つまり、仮想視野空間を仮想始点からの距離に応じて少なくとも2つに分割し、分割された仮想視野空間のうち所定の距離に対応した視差条件を決定する。さらに、眼鏡装着者の目の調節により目的視距離を決定し、決定された目的視距離から視差条件を判定し、判定された視差条件により眼鏡レンズを透した仮想視野空間内の対象物の両眼視シミュレーション画像を作成する。
両眼視シミュレーション画像に基づいて、画像処理手段は、加工済みレンズを介して見た状態を作成し、この処理画像データを表示手段で表示する。
According to the present invention, the simulation apparatus acquires lens design data relating to lens design items by the lens design means, and acquires data corresponding to the eyesight of the spectacle wearer by the image data acquisition means. Then, the image data creating means creates image data based on the data obtained by the image data obtaining means.
The image data creation means performs each of the division process, the parallax condition determination process, the target viewing distance determination process, the parallax condition determination process, and the image creation process.
That is, the virtual visual field space is divided into at least two according to the distance from the virtual start point, and the parallax condition corresponding to a predetermined distance is determined in the divided virtual visual field space. Further, the target viewing distance is determined by adjusting the eye of the spectacle wearer, the parallax condition is determined from the determined target viewing distance, and both of the objects in the virtual visual field space through the spectacle lens are determined based on the determined parallax condition. Create a visual simulation image.
Based on the binocular vision simulation image, the image processing means creates a state viewed through the processed lens and displays the processed image data on the display means.

本発明では、画像データ作成手段が、予め複数の視差を設定し、目的視距離に応じて適当な視差を選択することにより、視差によるレンズ視覚特性の計算を簡略化することができる。
そのため、画像処理時間の短縮化を図り、リアルタイムによる擬似体験が可能となる。
In the present invention, the image data creation means sets a plurality of parallaxes in advance and selects an appropriate parallax according to the target viewing distance, thereby simplifying the calculation of the lens visual characteristics based on the parallax.
Therefore, it is possible to shorten the image processing time and to realize a real-time simulated experience.

本発明のシミュレーション装置において、前記分割工程は、略1mから2mの間および略40cmから1mの間に2つの境界を設け、前記仮想視野空間を遠距離、中距離、近距離に3分割する構成が好ましい。
この発明によれば、遠距離、中距離、および近距離を3分割する境界は通常の眼鏡レンズの設計において基準としている寸法であるため、好ましい眼鏡レンズを設計することができる。
つまり、一般に眼鏡レンズや眼の屈折力は焦点距離の逆数が用いられており、遠点が無限遠方にある正視の状態から、小さな調節、例えば、0.5Dから1.0Dの調節を使うと、焦点位置はそれぞれ2mおよび1mまで焦点が移動する。中程度の調節2.0Dを使うと焦点位置は0.5mとなり、比較的大きな調節3.0Dを使うと0.33mに焦点が移動する。
したがって、この眼の調節力の量によって仮想空間を距離によって分割することで、眼鏡使用者に適した眼鏡レンズとなる。
In the simulation apparatus of the present invention, the dividing step includes two boundaries between approximately 1 m and 2 m and approximately 40 cm to 1 m, and the virtual visual field space is divided into three at a long distance, a medium distance, and a short distance. Is preferred.
According to the present invention, since the boundary that divides the long distance, the medium distance, and the short distance into three is a dimension that is a standard in designing a normal spectacle lens, a preferable spectacle lens can be designed.
That is, in general, the refraction power of the spectacle lens or the eye uses the reciprocal of the focal length, and when using a small adjustment, for example, an adjustment from 0.5D to 1.0D, from a normal vision state where the far point is at infinity. The focal point moves to 2 m and 1 m, respectively. With medium adjustment 2.0D, the focus position is 0.5m, and with relatively large adjustment 3.0D, the focus moves to 0.33m.
Therefore, by dividing the virtual space by the distance according to the amount of the eye adjustment force, a spectacle lens suitable for the spectacle user is obtained.

本発明のシミュレーション装置は、前記目的視距離決定工程は、眼鏡装用者の目の調節による目的視距離の決定が前記表示手段での表示画面上の仮想視野空間内の観察対象物を指定することにより決定される構成が好ましい。
この発明によれば、表示画面上の近距離に対応する観察対象物(例えば、手前の見開きの本)、中距離に対応する観察対象物(例えば、パソコン)、遠距離に対応する画像対象物(例えば、奥にある窓)のうち1つ、例えば、近距離に対応する観察対象物を指定するだけで、近距離に対応する距離が決定される。
そのため、画像処理時間をより短縮化して、リアルタイムによる擬似体験をすることができる。
In the simulation apparatus of the present invention, in the target viewing distance determination step, the determination of the target viewing distance by adjusting the eye of the spectacle wearer specifies an observation object in a virtual visual field space on the display screen of the display means. The structure determined by is preferable.
According to the present invention, an observation object corresponding to a short distance on the display screen (for example, a front spread book), an observation object corresponding to a medium distance (for example, a personal computer), and an image object corresponding to a long distance. The distance corresponding to the short distance is determined only by designating one of the objects (for example, the window in the back), for example, the observation object corresponding to the short distance.
Therefore, the image processing time can be further shortened, and a real-time simulated experience can be achieved.

本発明のシミュレーション装置において、前記レンズは、累進面を有する累進屈折力レンズであることが好ましい。
本発明のシミュレーション装置では、対象物の距離に合わせた遠用部、中間部および近用部を備え、これらの領域によって見え方が異なる累進屈折力レンズにおいて、リアルタイムによる擬似体験をすることができる。
In the simulation apparatus of the present invention, it is preferable that the lens is a progressive addition lens having a progressive surface.
In the simulation apparatus of the present invention, it is possible to have a real-time pseudo-experience in a progressive power lens that includes a distance portion, an intermediate portion, and a near portion according to the distance of an object, and the appearance differs depending on these regions. .

本発明のシミュレーションプログラムは、演算手段を前述のシミュレーション装置として機能させることを特徴とする。
この発明によれば、シミュレーションプログラムにより、演算手段を前述のシミュレーション装置として機能させていることができるので、前述の通り、眼鏡使用者は、リアルタイムによる擬似体験を短時間で実行することができる。
The simulation program of the present invention is characterized in that the calculation means functions as the aforementioned simulation apparatus.
According to the present invention, since the calculation means can function as the above-described simulation device by the simulation program, as described above, the spectacle user can execute a real-time simulated experience in a short time.

本発明のシミュレーションプログラムを記録した記録媒体は、前述のシミュレーションプログラムが演算手段にて読取可能に記録されたことを特徴とする。
この発明によれば、記録媒体には、上記したようなシミュレーションプログラムが演算手段に読取可能に記録されているから、この記録媒体を演算手段に読み取らせることで、前述のシミュレーションプログラムを演算手段に実施させることができる。
The recording medium on which the simulation program of the present invention is recorded is characterized in that the above-described simulation program is recorded so as to be readable by the calculation means.
According to the present invention, since the simulation program as described above is recorded on the recording medium so as to be readable by the calculation means, the calculation program is read by the calculation means by causing the calculation means to read the recording medium. Can be implemented.

以下、本発明の一実施形態にかかるシミュレーション装置を図面に基づいて説明する。
〔シミュレーション装置の構成〕
図1に、本実施形態に係るシミュレーション装置1の概略構成を示す。
シミュレーション装置1は、例えばメガネレンズの販売店などに設置される。
なお、本実施形態において、このシミュレーション装置1としては、パーソナルコンピュータを例示するが、これに限定されず、例えば携帯用電話機器などの他の演算手段を用いてもよい。
シミュレーション装置1は、図1に示すように、入力部12と、表示手段としての表示部13と、画像記録手段としての記録部14と、メモリ15と、処理部16と、などを備えている。
Hereinafter, a simulation apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[Configuration of simulation device]
FIG. 1 shows a schematic configuration of a simulation apparatus 1 according to the present embodiment.
The simulation apparatus 1 is installed, for example, at a spectacle lens store.
In the present embodiment, the simulation apparatus 1 is exemplified by a personal computer, but is not limited thereto, and other calculation means such as a portable telephone device may be used.
As shown in FIG. 1, the simulation apparatus 1 includes an input unit 12, a display unit 13 as a display unit, a recording unit 14 as an image recording unit, a memory 15, a processing unit 16, and the like. .

入力部12は、例えばキーボードやマウスなどで、入力操作される図示しない各種操作ボタンや操作つまみなどを有している。
これらの操作ボタンや操作つまみなどの入力操作は、シミュレーション装置1の動作内容の設定や、シミュレーション装置1に記憶する情報の設定などの設定事項の設定入力である。
そして、入力部12は、設定事項の入力操作により、設定事項に対応する信号を処理部16へ適宜出力して設定入力させる。
なお、入力操作としては、操作ボタンや操作つまみなどの操作に限らず、例えば表示部13に設けられたタッチパネルによる入力操作や、音声による入力操作などにより、各種設定事項を設定入力する構成としてもよい。例えば、入力操作としては、画面上でダイアログボックスを表示し、このダイアログボックスに入力操作するものでもよい。そして、このダイアログボックスは、画面の隅部に表示してもよいが、操作性を考慮すると、画面の中央部に表示することが好ましい。
The input unit 12 includes, for example, various operation buttons and operation knobs (not shown) that are input and operated with a keyboard, a mouse, or the like.
These input operations such as operation buttons and operation knobs are setting input for setting items such as setting of operation contents of the simulation apparatus 1 and setting of information stored in the simulation apparatus 1.
Then, the input unit 12 appropriately outputs a signal corresponding to the setting item to the processing unit 16 to perform setting input by an input operation of the setting item.
Note that the input operation is not limited to operation of operation buttons, operation knobs, and the like, and may be configured to input various setting items by, for example, input operation using a touch panel provided on the display unit 13 or input operation using voice. Good. For example, as an input operation, a dialog box may be displayed on the screen and an input operation may be performed on this dialog box. The dialog box may be displayed at the corner of the screen, but is preferably displayed at the center of the screen in consideration of operability.

表示部13は、処理部16にて制御され、処理部16から入力される画像情報の信号を図示しない表示領域に画面表示させる。
この表示部13としては、例えばヘッドマウント型で左右眼に視差をもたせた画像を表示する3Dディスプレイ装置や、平面ディスプレイに視差をもたせた左右画像を交互に表示し左右眼の前に設置した液晶パネルシャッターを交互に同期をとって開閉することによって、左右画像をそれぞれ左右眼に認識させる3Dディスプレイ装置、あるいは偏光を利用し偏光特性の異なる視差をもたせた左右画像を表示し、偏光特性が合致した眼に左右画像を認識させる3Dディスプレイ装置などが例示できる。
The display unit 13 is controlled by the processing unit 16 and causes the image information signal input from the processing unit 16 to be displayed on a display area (not shown).
As the display unit 13, for example, a head-mounted 3D display device that displays an image with parallax between the left and right eyes, or a liquid crystal that is displayed in front of the left and right eyes by alternately displaying left and right images with parallax on a flat display. By alternately opening and closing the panel shutter in synchronization, the left and right images are recognized by the left and right eyes, respectively, or the left and right images with different parallax characteristics using polarized light are displayed and the polarization characteristics match. An example is a 3D display device that allows the right eye to recognize left and right images.

記録部14は、例えば顧客データや、シミュレーションの対象となる原画像、眼鏡フレームの形状などの各種データなどを格納、すなわち読み出し可能に記憶する。
記録部14としては、HD(Hard Disk)、DVD(Digital Versatile Disc)、光ディスク、メモリカードなどの記録媒体に読み出し可能に記憶するドライブやドライバなどを備えた構成などとしてもよい。
The recording unit 14 stores, for example, customer data, various data such as an original image to be simulated, the shape of a spectacle frame, and the like so as to be readable.
The recording unit 14 may have a configuration including a drive and a driver that are readable and stored in a recording medium such as an HD (Hard Disk), a DVD (Digital Versatile Disc), an optical disc, and a memory card.

ここで、顧客データは、眼鏡装着者である顧客から注文されたレンズの処方などに関するデータである。この顧客データは、顧客IDデータと、処方データと、レンズ形状設計データと、などを関連付けて1つのデータとして構成される。
なお、処方データおよびレンズ形状設計データにより、本実施形態のレンズ設計データが構築されている。
Here, the customer data is data relating to the prescription of the lens ordered by the customer who is the spectacle wearer. This customer data is configured as one piece of data by associating customer ID data, prescription data, lens shape design data, and the like.
The lens design data of the present embodiment is constructed from the prescription data and the lens shape design data.

顧客IDデータは、顧客データを特定するための固有情報であり、顧客データ毎に設定される情報である。この顧客データとしては、例えば顧客ごとに設定される顧客番号、顧客の氏名などに関する顧客個人情報などを例示できる。   The customer ID data is unique information for specifying customer data, and is information set for each customer data. Examples of the customer data include customer personal information related to a customer number and customer name set for each customer.

処方データは、顧客IDデータに特定される顧客データの顧客の視覚やレンズの処方に関するデータである。この処方データには、顧客の視覚に関する視覚データ、設計するレンズの処方に関するレンズ処方データなどが記録されている。
視覚データには、例えば顧客の視力や乱視の有無などの顧客の裸眼における視覚に関する情報が記録されている。また、レンズ処方データには、レンズの度数、加入度数、球面度数、乱視度数、乱視軸、プリズム度数、近用内寄せ量などに関するデータが記録されている。
The prescription data is data relating to customer vision of the customer data specified in the customer ID data and lens prescription. In this prescription data, visual data relating to the customer's vision, lens prescription data relating to the prescription of the lens to be designed, and the like are recorded.
In the visual data, for example, information related to the visual perception of the customer's naked eye, such as the visual acuity of the customer and the presence or absence of astigmatism, is recorded. In the lens prescription data, data relating to the lens power, addition power, spherical power, astigmatism power, astigmatism axis, prism power, near inset amount, and the like are recorded.

レンズ形状設計データは、レンズの形状に関するデータである。例えばレンズ素材の屈折率やアッベ数、レンズ屈折面(前面、後面)の座標値データ、レンズ中心厚などの厚みデータ、累進帯長などの設計パラメータに関するデータなどが記録されている。また、レンズ上の各点における屈折作用(屈折力、プリズム作用など)のデータを含めることもできる。   The lens shape design data is data related to the shape of the lens. For example, the refractive index and Abbe number of the lens material, the coordinate value data of the lens refracting surface (front surface and rear surface), the thickness data such as the lens center thickness, and the data related to the design parameters such as the progressive zone length are recorded. In addition, data of refractive action (refractive power, prism action, etc.) at each point on the lens can be included.

メモリ15は、入力部12で入力操作される設定事項、音声情報や画像情報などを適宜読み出し可能に記憶する。また、メモリ15には、シミュレーション装置1全体を動作制御するOS(Operating System)上に展開される各種プログラムなどを記憶している。そして、このプログラムには、後述する遠距離、中距離、および近距離の視差条件における両眼画像を作成するためのプログラムが含まれる。このプログラムは、例えば、非特許文献1で示される方法を実行するプログラムを例示できる。
なお、メモリ15としては、HD、DVD、光ディスクなどの記録媒体に読み出し可能に記憶するドライブやドライバなどを備えた構成としてもよい。
The memory 15 stores setting items input by the input unit 12, audio information, image information, and the like so as to be appropriately read out. Further, the memory 15 stores various programs developed on an OS (Operating System) that controls the operation of the entire simulation apparatus 1. This program includes a program for creating a binocular image under the long-distance, middle-distance, and short-distance parallax conditions described later. This program can illustrate the program which performs the method shown by the nonpatent literature 1, for example.
Note that the memory 15 may be configured to include a drive, a driver, and the like that are readable and stored in a recording medium such as an HD, DVD, or optical disc.

処理部16は、図示しない各種入出力ポート、例えば入力部12が接続されるキー入力ポート、表示部13が接続される表示ポート、記録部14が接続される記憶ポート、メモリ15が接続されるメモリポートなどを有する。
そして、処理部16は、各種プログラムとして、図1に示すように、データ取得手段161と、データ作成手段162と、などを備えている。
The processing unit 16 is connected to various input / output ports (not shown) such as a key input port to which the input unit 12 is connected, a display port to which the display unit 13 is connected, a storage port to which the recording unit 14 is connected, and a memory 15. It has a memory port.
The processing unit 16 includes, as various programs, a data acquisition unit 161, a data creation unit 162, and the like as shown in FIG.

データ取得手段161は、利用者が入力部12にした入力操作による入力信号を認識し、入力信号に基づく各種データを取得する。また、データ取得手段161は、記録部14から各種データを取得する。
データ取得手段161は、レンズ設計データを取得する設計データ取得手段163と、顧客の視覚に対応した画像データなどの画像を取得する画像データ取得手段164と、眼鏡フレームの形状を取得するフレーム形状取得手段165と、を有する。
The data acquisition unit 161 recognizes an input signal generated by an input operation performed by the user on the input unit 12 and acquires various data based on the input signal. The data acquisition unit 161 acquires various data from the recording unit 14.
The data acquisition unit 161 includes a design data acquisition unit 163 that acquires lens design data, an image data acquisition unit 164 that acquires an image such as image data corresponding to a customer's vision, and a frame shape acquisition that acquires the shape of a spectacle frame. Means 165.

データ作成手段162は、データ取得手段161にて取得した各種データから新たなデータを作成する。
データ作成手段162は、前記画像データ取得手段で取得されたデータに基づいて画像データを作成する画像データ作成手段166、レンズ設計データに基づいて玉型加工前のレンズ(設計レンズ)を設計するレンズ設計手段167と、設計レンズに玉型加工を施した加工済みレンズを介して画像データを見た状態を示す処理画像データを作成する画像処理手段168と、を有する。
The data creation unit 162 creates new data from various data acquired by the data acquisition unit 161.
The data creation means 162 is an image data creation means 166 that creates image data based on the data acquired by the image data acquisition means, and a lens that designs a lens (design lens) before the lens processing based on the lens design data. And a design unit 167 and an image processing unit 168 that creates processed image data indicating a state in which the image data is viewed through a processed lens obtained by subjecting the design lens to a target lens shape.

〔シミュレーション装置の動作〕
以下、図2から図4を参照してシミュレーション装置1の動作について説明する。
なお、本実施形態において、レンズは累進面を有する累進屈折力レンズである。
[Operation of simulation device]
Hereinafter, the operation of the simulation apparatus 1 will be described with reference to FIGS.
In the present embodiment, the lens is a progressive power lens having a progressive surface.

図2はシミュレーション装置1の全体を通しての動作を示すフローチャートである。
図2において、まず、レンズ設計工程S110が実施される。この工程では、設計データ取得手段163が、記録部14からレンズ設計データを読み込み、レンズ設計手段167が、読み込んだレンズ設計データに基づいて玉型加工前のレンズ(設計レンズ)を設計する。設計されたレンズは、物体側と眼球側の3次元座標値データなどの形式で記録部14に格納される。
このレンズ設計工程が済むと次ぎに画像データ作成工程S111に進む。
この画像データ作成工程S111の具体的な手順が図3および図4に記載されている。
画像データ作成工程S111は前工程と本工程とに分けられるものであり、図3は画像データ作成工程の前工程のフローチャートであり、図4は画像データ作成工程の本工程のフローチャートである。
図3において、まず、データ作成手段162が記録部14やメモリ15から種々のデータを取り込み、各仮想視野空間の距離による分割をする(S11)。つまり、仮想視点から眼前に広がる仮想視野空間を、仮想視点からの距離に応じて少なくとも2つ以上、本実施形態では、3つに分割する。
FIG. 2 is a flowchart showing the overall operation of the simulation apparatus 1.
In FIG. 2, first, a lens design step S110 is performed. In this step, the design data acquisition unit 163 reads lens design data from the recording unit 14, and the lens design unit 167 designs a lens (design lens) before target lens processing based on the read lens design data. The designed lens is stored in the recording unit 14 in a format such as three-dimensional coordinate value data on the object side and the eyeball side.
When this lens design process is completed, the process proceeds to an image data creation process S111.
The specific procedure of this image data creation step S111 is described in FIGS.
The image data creation step S111 is divided into a pre-step and a main step, FIG. 3 is a flowchart of the pre-step of the image data creation step, and FIG. 4 is a flowchart of the main step of the image data creation step.
In FIG. 3, first, the data creation means 162 takes in various data from the recording unit 14 and the memory 15 and divides each virtual visual field space according to the distance (S11). That is, the virtual visual field space that extends from the virtual viewpoint to the eyes is divided into at least two or more according to the distance from the virtual viewpoint, in this embodiment, three.

図5は、仮想視野空間を3つに分割することを説明する概念図である。
図5において、左右両眼Iの中点に仮想視点Pを設定し、この仮想視点Pから眼鏡レンズLを通して顔の前方に広がる仮想視野空間を遠距離、中距離、近距離の3つの空間境域S1,S2,S3に分割する。この分割は眼の調節力の量によって行われる。
一般に、眼鏡レンズや眼の屈折力として焦点距離の逆数(単位:ディオプトリー、以下Dと表記)が使われているので、遠点が無限遠方にある正視の状態から、小さな調節、例えば、0.5Dから1.0Dの調節を使うと、焦点位置はそれぞれ2mおよび1mまで焦点が移動する。中程度の調節2.0Dを使うと焦点位置は0.5mとなり、比較的大きな調節3.0Dを使うと0.33mに焦点が移動する。具体的には、仮想視野空間を遠距離、中距離、近距離に3分割する場合は、その境界が概ね1mから2mの間のR1と概ね40cmから1mの間のR2との2つとなる。
FIG. 5 is a conceptual diagram for explaining that the virtual visual field space is divided into three.
In FIG. 5, a virtual viewpoint P 0 is set at the midpoint between the left and right eyes I, and a virtual visual field space extending from the virtual viewpoint P 0 through the spectacle lens L to the front of the face is divided into three distances, a long distance, a medium distance, and a short distance. Divide into spatial boundaries S1, S2, S3. This division is performed according to the amount of eye accommodation.
In general, since the reciprocal of the focal length (unit: diopter, hereinafter referred to as D) is used as the refractive power of the spectacle lens or the eye, small adjustments, for example, 0. With adjustments from 5D to 1.0D, the focal point moves to 2m and 1m respectively. With medium adjustment 2.0D, the focus position is 0.5m, and with relatively large adjustment 3.0D, the focus moves to 0.33m. Specifically, when the virtual visual field space is divided into a long distance, a medium distance, and a short distance, there are two boundaries, R1 between approximately 1 m and 2 m and R2 between approximately 40 cm and 1 m.

図3に戻り、分割された仮想視野空間を代表する距離に対応した視差条件を決定する(S12)。視差条件とは両眼の距離と目的視距離である。
図6は視差条件を模式的に示す説明図である。
図6において、遠距離と中距離との境界R1を仮想視点Pから1.5m、中距離と近距離の境界R2を仮想視点Pから40cmとし、図6(A)では近距離空間にその領域を代表する距離として、例えば、目的視距離Qを仮想視点Pから30cmと設定する。図6(B)では中距離空間を代表する目的視距離Qを1mに設定する。そして、図6(C)では遠距離空間を代表する目的視距離Qを4mと設定する。両眼Iの回旋中心間距離Dはいずれの距離においても62mmとする。
Returning to FIG. 3, the parallax condition corresponding to the distance representing the divided virtual visual field space is determined (S12). The parallax condition is the distance between both eyes and the target viewing distance.
FIG. 6 is an explanatory diagram schematically showing parallax conditions.
6, the boundary R1 between long distance and medium distance from the virtual viewpoint P 0 1.5 m, a medium range and short-range boundary R2 and 40cm from a virtual viewpoint P 0, the short-range space in FIG. 6 (A) as the distance representing the region, for example, is set to 30cm the desired viewing distance Q from the virtual viewpoint P 0. In FIG. 6B, the target viewing distance Q representing the middle distance space is set to 1 m. In FIG. 6C, the target viewing distance Q representing the long-distance space is set to 4 m. The distance D between the rotation centers of both eyes I is 62 mm at any distance.

次に、遠距離、中距離、近距離の各領域空間の視差条件における眼鏡レンズを透して見た場合の見え方への影響を表す視覚特性データを、眼鏡レンズデータを使い、各空間領域と関連づけて登録する。そして、これらをデータベースとして、記憶装置内に記憶する。
そのため、図3に示される通り、データ作成手段162が視差条件データを記録部14から呼び出し(S13)、各視差条件による視差特性を計算し(S14)、各視差条件での視差特性データベースを作成する(S15)。
Next, using the spectacle lens data, the visual characteristic data representing the effect on the appearance when viewed through the spectacle lens in the parallax conditions of the long distance, medium distance, and short distance space space area Register in association with. These are stored as a database in the storage device.
Therefore, as shown in FIG. 3, the data creation unit 162 calls the parallax condition data from the recording unit 14 (S13), calculates the parallax characteristics according to each parallax condition (S14), and creates a parallax characteristic database under each parallax condition. (S15).

視覚特性データベースを作成する方法について図7に基づいて説明する。
図7(A),(B)は、それぞれ裸眼および眼鏡レンズを装用した状態で、特定の視距離Qを見ようとしたときの視覚特性データを模式的に示したものである。これらの図は図5に示す仮想視野空間において、左右眼球の回旋中心を結ぶ直線を含む平面であって、水平正面を見る視線に対して、一定の仰角あるいは伏角を有する面を表している。この平面上で、目的視距離Qを見ようとした場合の各視線の方向の各距離における網膜上での像のボケ量を楕円の大きさによって表したものである。図では、正面の視線と側方に向けての視線の2つについて表されている。このボケ量の計算は装用者の眼の処方やレンズ設計データを用いてレイトレーシング法により計算される。
A method for creating a visual characteristic database will be described with reference to FIG.
FIGS. 7A and 7B schematically show visual characteristic data when an attempt is made to look at a specific viewing distance Q with the naked eye and the spectacle lens worn, respectively. These figures show a plane including a straight line connecting the rotation centers of the left and right eyeballs in the virtual visual field space shown in FIG. 5 and having a certain elevation angle or dip angle with respect to the line of sight as viewed from the horizontal front. On this plane, the amount of blurring of the image on the retina at each distance in the direction of each line of sight when attempting to see the target viewing distance Q is represented by the size of an ellipse. In the figure, two lines are shown: a front line of sight and a side line of sight. The amount of blur is calculated by the ray tracing method using the prescription of the wearer's eye and lens design data.

図7(A)の裸眼での場合は、眼に乱視がなくかつ目的視距離Qが眼の調節力の範囲内であれば、この図のように目的視距離Qでボケ量がほぼ無く、すなわち焦点が合う。そこから前後に遠ざかるにつれて、ボケ量は大きくなる様子が表されている。図には正面に向かう視線と側方に向かう視線の2つについて各位置でのボケ量を表しており、裸眼の場合は視点からの距離だけに依存し、どの方向でも変わりはない。
図7(B)のレンズ装用の場合は、正面の視線においては目的視距離QがレンズLの屈折力を加味した眼の調節可能範囲にあれば、目的視距離Qで図のように焦点が合う。しかし、側方に向に向かう視線では、レンズ光学性能の影響が現れる。
一般にレンズLの光軸から離れたレンズ側方では非点収差が発生するために、ボケ量は大きくなる。特に累進屈折力レンズでは、累進帯の側方に比較的大きな非点収差があるため、顕著にボケ量の増大が見られる。
以上の図7(A)(B)の事例においては目的視距離Qで焦点が合う場合を例示したが、眼あるいはレンズLの条件によっては、明確な焦点を結ばない場合もある。その場合はそれらの条件の範囲で目的視距離Qでのボケ量が最小になる条件で、各位置でのボケ量として定義する。
In the case of the naked eye in FIG. 7A, if there is no astigmatism in the eye and the target viewing distance Q is within the range of the eye accommodation power, there is almost no blur at the target viewing distance Q as shown in this figure. In other words, it is in focus. It shows that the amount of blur increases as you move back and forth. The figure shows the amount of blur at each position for two lines of sight looking toward the front and looking toward the side. In the case of the naked eye, it depends only on the distance from the viewpoint and does not change in any direction.
In the case of wearing the lens of FIG. 7B, if the target viewing distance Q is within the adjustable range of the eye taking into account the refractive power of the lens L in the front line of sight, the focus is as shown in the figure at the target viewing distance Q. Fit. However, the effect of lens optical performance appears in the line of sight toward the side.
In general, astigmatism occurs on the side of the lens away from the optical axis of the lens L, and the amount of blur increases. In particular, in the progressive-power lens, since there is a relatively large astigmatism on the side of the progressive zone, the amount of blur is significantly increased.
In the examples of FIGS. 7A and 7B described above, the case where the focus is achieved at the target viewing distance Q is illustrated, but depending on the condition of the eye or the lens L, a clear focus may not be achieved. In that case, the blur amount at each position is defined under the condition that the blur amount at the target viewing distance Q is minimized within the range of these conditions.

これらの計算を仰角あるいは伏角を一定角度毎に変えて、仮想視野空間の全体にわたって計算を行う。すると仮想視野空間に3次元のボケ量マップが完成する。このマップは角度による空間格子の各点に関連づけられたボケ量であるが、それらの格子点の間の空間にある点については、一般に使われている補間法によりすべての空間点についてボケ量を計算することができる。
上述の方法により、左右眼と左右眼鏡レンズのそれぞれについて、分割された仮想視野空間に代表目的視距離を設定し、それぞれの視覚特性データを求める。更に目的視距離と左右眼の距離による視差から図6に示したような視野中心のオフセットを加えることにより、各視差条件に対応した視覚特性データが完成する。それを記録部14に格納してデータベースとする。
These calculations are performed over the entire virtual visual field space by changing the elevation angle or the dip angle for each constant angle. Then, a three-dimensional blur amount map is completed in the virtual visual field space. This map is the amount of blur associated with each point of the spatial grid by angle, but for the points in the space between those grid points, the blur amount for all spatial points is determined by the commonly used interpolation method. Can be calculated.
By the above-described method, the representative target viewing distance is set in the divided virtual visual field space for each of the left and right eyes and the left and right eyeglass lenses, and the respective visual characteristic data is obtained. Further, visual characteristic data corresponding to each parallax condition is completed by adding an offset of the visual field center as shown in FIG. 6 from the parallax based on the target viewing distance and the distance between the left and right eyes. It is stored in the recording unit 14 and used as a database.

次に、図4のフローチャートに基づいて画像データを作成する本工程の手順を説明する。
ここでは、図8に示す被観察対象画像の例に説明する。図8は、仮想視野空間内に画像データ取得手段164により取り込まれた画像データを示しており、図8(A)は平面図で図の下方が観察者にとって手前、上方が奥となっている。手前から机の上に置かれた本B、パソコンP、壁の時計Cや窓Wが配置されている。図8(B)は正面図で観察者方向からの画像を示している。ここでは説明のために観察対象空間を2枚の図面を用いてデータを示したが、実際には空間内の物体の形状・位置を示す3次元データと物体を構成する表面の特性値データが取得され記録部14に記録されている。
Next, the procedure of this process for creating image data will be described based on the flowchart of FIG.
Here, an example of the observation target image shown in FIG. 8 will be described. FIG. 8 shows the image data captured by the image data acquisition means 164 in the virtual visual field space. FIG. 8A is a plan view, with the lower side of the figure being in front of the observer and the upper side being the back. . A book B, a personal computer P, a wall clock C and a window W placed on the desk from the front are arranged. FIG. 8B is a front view showing an image from the observer direction. Here, for the purpose of explanation, the data for the observation target space is shown using two drawings. Actually, however, the three-dimensional data indicating the shape and position of the object in the space and the characteristic value data of the surface constituting the object are shown. Obtained and recorded in the recording unit 14.

この観察対象空間の画像データ作成の手順としては、まず、装用者の目の調節による目的視距離を決定する(S21)。この目的視距離決定工程S21では、入力部12を構成する操作キーボードの特定キーに視距離選択入力機能を割り付けることで、選択画面を画面の一角に表示するものでもよいが、本実施形態では、表示部13で表示されている画面上にある観察対象物、例えば、中距離領域空間S2を示すパソコンPの部位をマウス等で指定し、オブジェクトの仮想視点からの距離を目的視距離として求める。
つまり、目的視距離決定工程S21は、装用者の目の調節による目的視距離の決定が表示部13での表示画面上の仮想視野空間内の観察対象物を指定することにより計算され決定される。
As a procedure for creating image data of the observation target space, first, a target viewing distance by adjusting the wearer's eyes is determined (S21). In this target viewing distance determining step S21, a selection screen may be displayed at one corner of the screen by assigning a viewing distance selection input function to a specific key of the operation keyboard constituting the input unit 12, but in this embodiment, An observation object on the screen displayed on the display unit 13, for example, a part of the personal computer P showing the middle distance area space S <b> 2 is designated with a mouse or the like, and the distance from the virtual viewpoint of the object is obtained as the target viewing distance.
That is, in the target viewing distance determination step S21, the determination of the target viewing distance by adjusting the wearer's eyes is calculated and determined by designating the observation object in the virtual visual field space on the display screen of the display unit 13. .

ついで、その目的視距離が先に設定した仮想視野空間のうち近距離領域空間、中距離領域空間、遠距離領域空間のいずれかに該当するかを判定する(S22)。例えば、その目的視距離が70cmであれば、境界R1とR2との間(40cm〜1.5m)の中距離領域空間S2に該当すると判定され、目的視距離1mのときの視差条件が選択される。目的視距離が20cmであれば、境界R2と仮想視点Pとの間の近距離領域空間S3に該当すると判定され、目的視距離が30cmのときの視差条件が選択される。目的視距離が5mであれば、遠距離領域空間S1に該当すると判定され、目的視距離が4mのときの視差条件が選択される。 Next, it is determined whether the target viewing distance corresponds to any one of the short-distance area space, medium-distance area space, and long-distance area space in the previously set virtual visual field space (S22). For example, if the target viewing distance is 70 cm, it is determined that the target viewing distance is the middle-range area space S2 between the boundaries R1 and R2 (40 cm to 1.5 m), and the parallax condition when the target viewing distance is 1 m is selected. The If object viewing distance is 20 cm, it is determined to correspond to the short range space S3 between the virtual viewpoint P 0 and the boundary R2, object viewing distance parallax condition when the 30cm is selected. If the target viewing distance is 5 m, it is determined that the target viewing distance corresponds to the long-distance region space S1, and the parallax condition when the target viewing distance is 4 m is selected.

そして、選択された視差条件により予め記録された視覚特性データを記録部14から呼び出し、それを使って仮想空間の仮称視野空間内に存在するすべての対象について、それが位置する仮想視野空間に対応する視覚特性データにより、ぼやけや歪みの処理を行い、左右両眼の視差をもった画像を作成する(S24)。さらに、最終的に作成された左右眼の画像をそれぞれの目に別々に認識されるような方法で記録する(S25)。   Then, the visual characteristic data recorded in advance according to the selected parallax condition is called from the recording unit 14, and all objects existing in the virtual visual field space of the virtual space are used to correspond to the virtual visual field space where it is located. Based on the visual characteristic data to be processed, blurring and distortion processing is performed to create an image having parallax between the left and right eyes (S24). Furthermore, the finally created left and right eye images are recorded in such a way as to be recognized separately for each eye (S25).

このようにして作成された左右眼の画像の表示について、図9、図10により説明する。なお、以後の説明は左眼の画像について行い右眼の画像については同様であるので省略する。図9(A)は、上述の画像作成工程S111の結果得られた裸眼での中距離を見たとき画像の一例であり、この画像データ51は装用者眼の屈折異常と老眼のためどの距離のものもボケて見える場合の事例であることを表している。図9(B)は、上述の画像作成工程S111の結果得られた、その屈折異常の矯正と老眼の補正のために設計された累進屈折力眼鏡レンズを透したときのレンズによる画像データ62である。一般に眼鏡レンズは円形に設計されるので、このレンズによる画像データも円形の領域でのものとなり、図中の破線63は、累進屈折力レンズである設計レンズの遠用部、中間部および近用部と、光学的歪みにより利用できない部分(レンズ下部の左右)と、の境界を示す。レンズによる画像データ62は、破線63を境に、の見え方が異なるように画像処理されている。
この図ではその光学歪みについては省略しており、焦点距離によるボケのみを表現している。
The display of the left and right eye images created in this way will be described with reference to FIGS. The following description will be made with respect to the left eye image, and the same will be omitted for the right eye image. 9 (A) is an example of an image when viewed medium distance in resulting naked eye image creation step S111 described above, which distance for the image data 51 and the refractive error of the wearer's eye presbyopia This indicates that this is an example of a blurred image. FIG. 9B shows image data 62 obtained by the lens when passing through a progressive-power eyeglass lens designed for correcting the refractive error and correcting for presbyopia, obtained as a result of the image creation step S111 described above. is there. In general, since a spectacle lens is designed in a circular shape, image data from the lens is also in a circular region, and a broken line 63 in the figure indicates a distance portion, an intermediate portion, and a near portion of a design lens that is a progressive power lens. , And a portion that cannot be used due to optical distortion (left and right of the lower part of the lens). The image data 62 by the lens has been subjected to image processing so that the appearance of the image differs from the broken line 63.
In this figure, the optical distortion is omitted, and only the blur due to the focal length is expressed.

その後、図2に示される手順に戻る。表示画像を作成するに当たっては、まず、フレーム選択工程S112において、顧客が入力部12を操作して眼鏡フレームを選択する。フレーム形状取得手段165は、選択された眼鏡フレームの形状を記録部14から取得する。
フレーム選択工程S112が終了したら、重畳工程S113に続く、重畳工程S113においては、図10(A)に示すように、画像データ取得手段164が、記録部14から読み込んだレンズによる画像データに眼鏡フレームの画像に関するフレーム画像データ64を重畳させる。
続く、抜出工程S114では、画像データ取得手段164が、レンズによる画像データ62とフレーム画像データ64との重畳部分65を抜き出す。
Thereafter, the procedure returns to the procedure shown in FIG. In creating the display image, first, in the frame selection step S112, the customer operates the input unit 12 to select a spectacle frame. The frame shape acquisition unit 165 acquires the shape of the selected spectacle frame from the recording unit 14.
When the frame selection step S112 is completed, in the superimposition step S113 following the superposition step S113, the image data acquisition unit 164 adds the spectacle frame to the image data by the lens read from the recording unit 14, as shown in FIG. The frame image data 64 relating to the other image is superimposed.
In the subsequent extraction step S114, the image data acquisition unit 164 extracts the overlapped portion 65 of the lens image data 62 and the frame image data 64.

次に、S115において、嵌め込み工程S116を実施するか否かを選択する。
嵌め込み工程S116を実施する場合(YESを選択)、画像データ取得手段164が、図10(B)に示すように、重畳部分65を画像データ51の対応する位置に嵌め込む。そして、表示工程S117において、表示部13が、重畳部分65が嵌め込まれた画像データ51を処理画像データ70が完成する。
Next, in S115, it is selected whether or not the fitting step S116 is performed.
When the fitting step S116 is performed (YES is selected), the image data acquisition unit 164 fits the superimposed portion 65 at a corresponding position in the image data 51 as shown in FIG. In the display step S117, the display unit 13 completes the processed image data 70 from the image data 51 in which the overlapping portion 65 is fitted.

このようにして左目用の画像を作成し、同じ方法によって右目用の各データを使って右目用の画像を作成する。そしてそれらを前出の3Dディスプレイ装置によって表示、左右眼別々に知覚させることによって、3次元画像として認識させる。   In this way, the image for the left eye is created, and the image for the right eye is created using the data for the right eye by the same method. These are displayed on the 3D display device described above and perceived separately for the left and right eyes to be recognized as a three-dimensional image.

ここで、目的視距離を変更する場合(S118)、例えば、中距離領域空間S2から遠距離領域空間に目的視距離を変更する場合には、再度、目的視距離の決定工程S21に戻る。
中距離領域空間S2から遠距離領域空間S1に変更する場合、例えば、表示部13で表示される観察対象物であるパソコンPから目を上げて窓Wの外を見るような場合は、表示されている画面上で窓Wの外にカーソルを移動することによって、視差条件を遠距離領域空間S1に切り替えて表示させる。
Here, when the target viewing distance is changed (S118), for example, when the target viewing distance is changed from the middle distance area space S2 to the far distance area space, the process returns to the target viewing distance determination step S21 again.
When changing from the middle-distance region space S2 to the long-distance region space S1, for example, when the user looks up from the personal computer P that is the observation object displayed on the display unit 13 and looks out of the window W, the display is displayed. By moving the cursor out of the window W on the displayed screen, the parallax condition is switched to the long-distance area space S1 and displayed.

〔実施形態の作用効果〕
以上の本実施形態によれば、次のような効果が得られる。
(1)画像データ作成手段166は、仮想視野空間を仮想始点からの距離に応じて分割する分割工程S11と、この分割工程S11で分割された仮想視野空間のうち所定の距離に対応した視差条件を設定する視差条件設定工程S12と、眼鏡装着者の目の調節により目的視距離を決定する目的視距離決定工程S21と、この目的視距離決定工程S21で決定された目的視距離から視差条件を判定する視差条件判定工程S22と、判定された視差条件により眼鏡レンズを透した仮想視野空間内の対象物の両眼視シミュレーション画像を作成する画像作成工程S24とを実行する。そのため、画像データ作成手段166が、予め複数の視差条件を設定し、目的視距離に応じて適当な視差条件を選択することにより、視差によるレンズ視覚特性の計算を簡略化し、これによって、画像処理時間の短縮化を図ってリアルタイムによる擬似体験が可能となる。
[Effects of Embodiment]
According to the above embodiment, the following effects can be obtained.
(1) The image data creating unit 166 divides the virtual visual field space according to the distance from the virtual start point, and a parallax condition corresponding to a predetermined distance in the virtual visual field space divided in the division step S11 The parallax condition is set from the target viewing distance determined in the target viewing distance determining step S21, the target viewing distance determining step S21 in which the target viewing distance is determined by adjusting the eye of the spectacle wearer, and the parallax condition setting step S21. A parallax condition determining step S22 for determining and an image generating step S24 for generating a binocular vision simulation image of the object in the virtual visual field space through the spectacle lens according to the determined parallax condition are executed. Therefore, the image data creation unit 166 simplifies the calculation of the lens visual characteristic by the parallax by setting a plurality of parallax conditions in advance and selecting an appropriate parallax condition according to the target viewing distance. Real time simulated experience is possible by shortening the time.

(2)分割工程は、仮想視野空間を遠距離領域空間S1、中距離領域空間S2、近距離領域空間S3の3分割としたから、実際に近い見え方でのシミュレーションと視覚特性データベースのためのメモリ容量の少量化とを同時に達成することができる。
特に、これらの領域空間を略1mから2mの間および略40cmから1mの間にそれぞれ設けられた境界R1,R2で仕切られた空間とした。これらの寸法は、通常の眼鏡レンズの設計において基準としているため、好ましい眼鏡レンズを設計することができる。
(2) In the dividing step, the virtual visual field space is divided into the far-distance area space S1, the middle-distance area space S2, and the short-distance area space S3. A reduction in memory capacity can be achieved at the same time.
In particular, these region spaces are spaces partitioned by boundaries R1 and R2 provided between about 1 m and 2 m and between about 40 cm and 1 m, respectively. Since these dimensions are used as a standard in the design of a normal spectacle lens, a preferable spectacle lens can be designed.

(3)目的視距離決定工程S21は眼鏡装用者の目の調節による目的視距離の決定が表示画面上の仮想視野空間内の観察対象物を指定することにより、仮想視点からの距離によって計算され決定される。
そのため、表示画面上の仮想視野空間内の観察対象物、例えば、近距離領域空間S3に位置する見開きの本の画像や、中距離領域空間S2に位置するパソコンの画像、遠距離領域空間S1に位置する窓の画像において、例えば、見開きの本の画像を、マウス等を用いて指定するだけで、近距離領域空間S3に対応する距離が決定される。
そのため、画像処理時間をより短縮化して、リアルタイムによる擬似体験をすることができる。
(3) In the target viewing distance determination step S21, the determination of the target viewing distance by adjusting the eye of the spectacle wearer is calculated by the distance from the virtual viewpoint by designating the observation object in the virtual visual field space on the display screen. It is determined.
Therefore, an object to be observed in the virtual visual field space on the display screen, for example, an image of a spread book located in the short distance area space S3, an image of a personal computer located in the middle distance area space S2, or the far distance area space S1. In the image of the window that is positioned, for example, the distance corresponding to the short-distance region space S3 is determined only by designating the image of the spread book using a mouse or the like.
Therefore, the image processing time can be further shortened, and a real-time simulated experience can be achieved.

(4)画像処理手段168が、重畳工程S113および抜出工程S114を実施し、眼鏡フレームに対応して玉型加工された加工済みレンズに関する処理画像データ70を作成するので、特定の眼鏡フレームを使用した場合のレンズの見え方を評価することができる。
また、レンズ設計手段167が玉型加工前の設計レンズを設計した後に、画像処理手段168が一連の処理を実施するので、眼鏡フレームを変更するごとに、長時間を要するレンズ設計工程S111を実施する必要がない。
したがって、本実施形態のシミュレーション装置1では、眼鏡フレームの形状を短時間で変更でき、それぞれの眼鏡フレームによるレンズの見え方を容易に比較することができる。
(4) Since the image processing means 168 performs the superimposing step S113 and the extraction step S114 and creates the processed image data 70 regarding the processed lens that has been processed into a lens shape corresponding to the spectacle frame, a specific spectacle frame is selected. The appearance of the lens when used can be evaluated.
Since the image processing unit 168 performs a series of processes after the lens design unit 167 designs the design lens before the target lens processing, the lens design process S111 that requires a long time is performed every time the spectacle frame is changed. There is no need to do.
Therefore, in the simulation apparatus 1 of the present embodiment, the shape of the spectacle frame can be changed in a short time, and the appearance of the lens by each spectacle frame can be easily compared.

(5)眼鏡フレームに合わせて玉型加工した加工済みレンズの見え方を確認することができるので、累進屈折力レンズの遠用部、中間部および近用部の面積が、眼鏡フレームごとにどのように変化するかを前もって確認することができる。
特に、本実施形態では、利用できない部分との境界を破線63で表示しているので、眼鏡フレームごとの各領域の面積の変化を容易に把握することができる。
(5) Since it is possible to confirm the appearance of the processed lens that has been processed into a lens shape according to the spectacle frame, the area of the distance portion, the intermediate portion, and the near portion of the progressive addition lens is determined for each spectacle frame. Can be confirmed in advance.
In particular, in this embodiment, since the boundary with the unusable part is displayed by the broken line 63, the change in the area of each region for each spectacle frame can be easily grasped.

〔実施形態の変形〕
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の目的を達成できる範囲で以下に示される変形をも含むものである。
例えば、前記実施形態では、仮想視野空間を遠距離領域空間S1、中距離領域空間S2、近距離領域空間S3の3つに分割したが、本発明では、複数であれば、分割する数は限定されるものではない。例えば、2つに分割してもよく、あるいは、4以上に分割するものでもよい。4以上に細かく分割すれば、より実際に近い見え方でのシミュレーションが可能となる。しかしながら、分割を多くするほど、事前処理の時間と視覚特性データを記録する記録部14やメモリ15のメモリ容量が増えるため、装置が大掛かりなものとなる。そのため、分割する数は目的にあわせて選択する必要がある。
[Modification of Embodiment]
In addition, this invention is not limited to embodiment mentioned above, The deformation | transformation shown below is included in the range which can achieve the objective of this invention.
For example, in the embodiment, the virtual visual field space is divided into three, that is, the long-distance area space S1, the medium-distance area space S2, and the short-distance area space S3. Is not to be done. For example, it may be divided into two, or may be divided into four or more. If it is finely divided into four or more, it is possible to perform a simulation with a more realistic view. However, as the number of divisions increases, the preprocessing time and the memory capacity of the recording unit 14 and the memory 15 for recording visual characteristic data increase, which increases the size of the apparatus. Therefore, the number to be divided needs to be selected according to the purpose.

また、前記実施形態では、目的視距離決定工程S21は眼鏡装用者の目の調節による目的視距離の決定が表示画面上の仮想視野空間内の観察対象物を指定することにより、仮想視点からの距離によって計算され決定される構成としたが、本発明では、表示部13の入力手段で別途切換操作するものでもよい。   In the embodiment, the target viewing distance determination step S21 determines the target viewing distance by adjusting the eye of the spectacle wearer by designating the observation target in the virtual visual field space on the display screen. Although it is configured to be calculated and determined by the distance, in the present invention, another switching operation may be performed by the input means of the display unit 13.

そして、前記実施形態において、フレーム画像データ64などにおける眼鏡フレームの端部を実線で表示したが、このような実線の表示はなくてもよい。
また、累進屈折力レンズの遠用部、中間部および近用部と、光学的歪みにより利用できない部分との境界を破線63で表示したが、破線63はなくてもよい。遠用部、中間部および近用部の各領域ごとに見え方が異なる画像処理がされていれば、顧客は、破線63がなくても各領域の面積の変化による見え方の違いを確認することができる。
In the embodiment, the end of the spectacle frame in the frame image data 64 or the like is displayed with a solid line, but such a solid line may not be displayed.
In addition, although the boundary between the distance portion, the intermediate portion, and the near portion of the progressive power lens and the portion that cannot be used due to optical distortion is indicated by a broken line 63, the broken line 63 may be omitted. If image processing is performed in different ways for each of the distance portion, the intermediate portion, and the near portion, the customer confirms the difference in the appearance due to the change in the area of each region even without the broken line 63. be able to.

さらに、本発明は、前記実施形態で示されるような、シミュレーション装置1として構成されるだけでなく、コンピュータなどの演算手段をシミュレーション装置1として機能させるシミュレーションプログラム、およびこのシミュレーションプログラムが演算手段にて読取可能に記録されたCD−ROM、メモリカードなどの記録媒体としても構成することができる。   Furthermore, the present invention is not only configured as the simulation apparatus 1 as shown in the above-described embodiment, but also a simulation program for causing an arithmetic means such as a computer to function as the simulation apparatus 1, and the simulation program by the arithmetic means. It can also be configured as a recording medium such as a CD-ROM or a memory card recorded in a readable manner.

その他、本発明の実施の際の具体的な構造および手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。   In addition, the specific structure and procedure for carrying out the present invention can be appropriately changed to other structures and the like within a range in which the object of the present invention can be achieved.

本発明の一実施形態に係るシミュレーション装置の構成を示す概略図。Schematic which shows the structure of the simulation apparatus which concerns on one Embodiment of this invention. 前記実施形態の全体を通しての動作を示すフローチャート。The flowchart which shows the operation | movement through the said embodiment whole. 画像データ作成工程の前工程のフローチャート。The flowchart of the pre-process of an image data creation process. 画像データ作成工程の本工程のフローチャート。The flowchart of this process of an image data creation process. 仮想視野空間を3つに分割することを説明する概念図。The conceptual diagram explaining dividing a virtual visual field space into three. 視差条件を模式的に示す説明図。Explanatory drawing which shows a parallax condition typically. 視覚特性データの作成方法を示す図。The figure which shows the creation method of visual characteristic data. 仮想視野空間内に画像データ取得手段により取り込まれた画像データを示すもので、(A)は平面図、(B)は正面図。The image data taken in by the image data acquisition means in the virtual visual field space is shown, (A) is a plan view, and (B) is a front view. (A)は画像作成工程の結果得られた裸眼での中距離を見たとき画像の一例を示す正面図、(B)は累進屈折力眼鏡レンズを透したときのレンズによる画像データを示す正面図。(A) is a front view showing an example of an image when viewed at a medium distance with the naked eye obtained as a result of the image creation step, and (B) is a front view showing image data by the lens when viewed through a progressive-power eyeglass lens. Figure. 前記実施形態の表示を説明するものであり、(A)は画像データに眼鏡フレームの画像に関するフレーム画像データを重畳させた正面図、(B)は重畳部分を画像データの対応する位置に嵌め込んだ状態を示す正面図。FIG. 4 is a diagram for explaining display in the embodiment, in which (A) is a front view in which frame image data relating to an image of a spectacle frame is superimposed on image data, and (B) is a portion in which the superimposed portion is fitted at a corresponding position in the image data. The front view which shows a state. 従来例を説明する概念図。The conceptual diagram explaining a prior art example. 従来例の課題を説明するための概念図。The conceptual diagram for demonstrating the subject of a prior art example.

符号の説明Explanation of symbols

1…シミュレーション装置、13…表示部(表示手段)、14…記録部、51…画像データ、62…レンズによる画像データ、70…処理画像データ、163…設計データ取得手段、164…画像データ取得手段、166…画像データ作成手段、167…レンズ設計手段、168…画像処理手段   DESCRIPTION OF SYMBOLS 1 ... Simulation apparatus, 13 ... Display part (display means), 14 ... Recording part, 51 ... Image data, 62 ... Image data by lens, 70 ... Processed image data, 163 ... Design data acquisition means, 164 ... Image data acquisition means 166: Image data creation means, 167: Lens design means, 168: Image processing means

Claims (6)

レンズの設計事項に関するレンズ設計データを取得する設計データ取得手段と、
前記レンズ設計データに基づいてレンズを設計するレンズ設計手段と、
眼鏡装着者の視覚に対応したデータを取得する画像データ取得手段と、
前記画像データ取得手段で取得されたデータに基づいて画像データを作成する画像データ作成手段と、
この画像データ作成手段で作成された画像データを加工済みレンズを介して見た状態を示す画像処理手段と、
前記画像処理手段で作成された処理画像データを表示する表示手段と、
視差条件に対応する視覚特性データが予め記録された記録手段と、
を備え、
前記画像データ作成手段は、仮想視野空間を仮想始点からの距離に応じて少なくとも2つに分割する分割工程と、この分割工程で分割された仮想視野空間のうち所定の距離に対応した視差条件を設定する視差条件設定工程と、眼鏡装着者の目の調節による目的視距離を決定する目的視距離決定工程と、この目的視距離決定工程で決定された目的視距離から視差条件を判定する視差条件判定工程と、この視差条件判定工程で判定された視差条件に対応する視覚特性データを前記記録手段から読み出し、当該読み出した視覚特性データを用いて、眼鏡レンズを透した仮想視野空間内の対象物の両眼視シミュレーション画像を作成する画像作成工程とを有する
ことを特徴とするシミュレーション装置。
Design data acquisition means for acquiring lens design data relating to lens design items;
Lens design means for designing a lens based on the lens design data;
Image data acquisition means for acquiring data corresponding to the vision of the spectacle wearer;
Image data creating means for creating image data based on the data obtained by the image data obtaining means;
Image processing means showing a state in which the image data created by the image data creating means is viewed through the processed lens;
Display means for displaying the processed image data created by the image processing means;
Recording means in which visual characteristic data corresponding to the parallax condition is recorded in advance;
With
The image data creation means is configured to divide the virtual visual field space into at least two according to the distance from the virtual start point, and a parallax condition corresponding to a predetermined distance in the virtual visual field space divided in the division step. A parallax condition setting step for setting, a target viewing distance determination step for determining a target viewing distance by adjusting the eye of the spectacle wearer, and a parallax condition for determining a parallax condition from the target viewing distance determined in the target viewing distance determination step A visual characteristic data corresponding to the parallax condition determined in the determining step and the parallax condition determining step is read from the recording means , and the object in the virtual visual field space through the spectacle lens is read using the read visual characteristic data An image creation step of creating a binocular vision simulation image of the above.
請求項1に記載されたシミュレーション装置において、
前記分割工程は、略1mから2mの間および略40cmから1mの間に2つの境界を設け、前記仮想視野空間を遠距離、中距離、近距離に3分割することを特徴とするシミュレーション装置。
The simulation apparatus according to claim 1,
In the division step, two boundaries are provided between about 1 m and 2 m and between about 40 cm and 1 m, and the virtual visual field space is divided into three at a long distance, a medium distance, and a short distance.
請求項1または請求項2に記載されたシミュレーション装置において、
前記目的視距離決定工程は、眼鏡装用者の目の調節による目的視距離の決定が前記表示手段での表示画面上の仮想視野空間内の観察対象物を指定することにより決定されることを特徴とするシミュレーション装置。
In the simulation apparatus according to claim 1 or claim 2,
In the target viewing distance determining step, the determination of the target viewing distance by adjusting the eye of the spectacle wearer is determined by designating an observation object in a virtual visual field space on the display screen of the display means. A simulation device.
請求項1ないし請求項3のいずれかに記載のシミュレーション装置において、
前記レンズは、累進面を有する累進屈折力レンズである
ことを特徴とするシミュレーション装置。
The simulation apparatus according to any one of claims 1 to 3,
The simulation device, wherein the lens is a progressive power lens having a progressive surface.
請求項1ないし請求項5のいずれかに記載のシミュレーション装置として演算手段を機能させる
ことを特徴とするシミュレーションプログラム。
6. A simulation program for causing a calculation means to function as the simulation apparatus according to claim 1.
請求項5に記載のシミュレーションプログラムが演算手段にて読取可能に記録された
ことを特徴とするシミュレーションプログラムを記録した記録媒体。
6. A recording medium on which a simulation program according to claim 5 is recorded so as to be readable by an arithmetic means.
JP2008078565A 2008-03-25 2008-03-25 Simulation device, simulation program, and recording medium recording simulation program Active JP5098739B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008078565A JP5098739B2 (en) 2008-03-25 2008-03-25 Simulation device, simulation program, and recording medium recording simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008078565A JP5098739B2 (en) 2008-03-25 2008-03-25 Simulation device, simulation program, and recording medium recording simulation program

Publications (2)

Publication Number Publication Date
JP2009230699A JP2009230699A (en) 2009-10-08
JP5098739B2 true JP5098739B2 (en) 2012-12-12

Family

ID=41245960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008078565A Active JP5098739B2 (en) 2008-03-25 2008-03-25 Simulation device, simulation program, and recording medium recording simulation program

Country Status (1)

Country Link
JP (1) JP5098739B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4609581B2 (en) * 2008-03-26 2011-01-12 セイコーエプソン株式会社 Simulation device, simulation program, and recording medium recording simulation program
JP5352249B2 (en) * 2009-01-13 2013-11-27 ホーヤ レンズ マニュファクチャリング フィリピン インク Simulation device, simulation program, and recording medium recording simulation program
WO2013027755A1 (en) * 2011-08-24 2013-02-28 Hoya株式会社 Eyeglasses-wearing simulation method, program, device, eyeglass lens-ordering system and eyeglass lens manufacturing method
KR101260287B1 (en) * 2012-04-27 2013-05-03 (주)뷰아이텍 Method for simulating spectacle lens image using augmented reality
AU2013206460A1 (en) * 2012-06-27 2014-01-16 Johnson & Johnson Vision Care, Inc. Free form custom lens design manufacturing apparatus, system and business method
US9581835B2 (en) * 2014-05-30 2017-02-28 Johnson & Johnson Vision Care, Inc. Patient interactive fit tool and methodology for contact lens fitting
EP3153909A1 (en) * 2015-10-09 2017-04-12 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Method for determining an usage index value for an single-vision ophthalmic lens
JP6364517B2 (en) * 2017-03-27 2018-07-25 株式会社ニコン・エシロール Spectacle lens design method and spectacle lens manufacturing method
CN111587397B (en) * 2018-01-11 2022-09-06 株式会社尼康依视路 Image generation device, spectacle lens selection system, image generation method, and program
DE102021200965A1 (en) * 2021-02-03 2022-08-04 Carl Zeiss Ag Process for simulating an optical image

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120213A (en) * 1997-10-09 1999-04-30 Seiko Epson Corp Virtual experience device for spectacles
JPH11142797A (en) * 1997-11-12 1999-05-28 Seiko Epson Corp Visual field experiencing device of eyeglasses, visual field experiencing method thereof and recording medium
JP3919069B2 (en) * 2000-04-11 2007-05-23 Hoya株式会社 Eyeglass lens performance display method and apparatus
JP3919097B2 (en) * 2001-09-06 2007-05-23 Hoya株式会社 Binocular visual performance display method and apparatus for spectacle lens
JP2008059548A (en) * 2006-08-04 2008-03-13 Seiko Epson Corp Lens order system, lens order method, lens order program, and recording medium for recording lens order program

Also Published As

Publication number Publication date
JP2009230699A (en) 2009-10-08

Similar Documents

Publication Publication Date Title
JP5098739B2 (en) Simulation device, simulation program, and recording medium recording simulation program
JP7078540B2 (en) Image creation device, image creation method, image creation program, spectacle lens design method and spectacle lens manufacturing method
JP5410241B2 (en) VISUAL SIMULATION DEVICE FOR GLASSES LENS, VISUAL SIMULATION METHOD FOR GLASSES LENS, AND VISUAL SIMULATION PROGRAM FOR GLASSES LENS
JP6014038B2 (en) Spectacle wearing simulation method, program, apparatus, spectacle lens ordering system, and spectacle lens manufacturing method
KR102077105B1 (en) Apparatus and method for designing display for user interaction in the near-body space
JP6023801B2 (en) Simulation device
KR101748976B1 (en) Simulation system, simulation device, and product description assistance method
CN107071382B (en) Stereoscopic display device
JP4609581B2 (en) Simulation device, simulation program, and recording medium recording simulation program
JP6276691B2 (en) Simulation device, simulation system, simulation method, and simulation program
WO2010044383A1 (en) Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses
Leroy et al. Visual fatigue reduction for immersive stereoscopic displays by disparity, content, and focus-point adapted blur
US20160363763A1 (en) Human factor-based wearable display apparatus
KR20020030707A (en) A method for evaluating an ocular optical lens, an apparatus and a memory medium for it
JP5632245B2 (en) Eyeglass field image display device
JP5352249B2 (en) Simulation device, simulation program, and recording medium recording simulation program
JP6368907B2 (en) Lens optical performance evaluation method, design method, and lens optical performance display method
JP3825654B2 (en) Ophthalmic optical system simulation method and apparatus
CN118151410A (en) Method and system for determining personalized values of optical characteristics of corrective ophthalmic lenses
WO2017051915A1 (en) Visual simulation device
CN106680995A (en) Display control method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5098739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250