JP2024004042A - Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program - Google Patents

Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program Download PDF

Info

Publication number
JP2024004042A
JP2024004042A JP2022103479A JP2022103479A JP2024004042A JP 2024004042 A JP2024004042 A JP 2024004042A JP 2022103479 A JP2022103479 A JP 2022103479A JP 2022103479 A JP2022103479 A JP 2022103479A JP 2024004042 A JP2024004042 A JP 2024004042A
Authority
JP
Japan
Prior art keywords
simulation
image
eyeball
model
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022103479A
Other languages
Japanese (ja)
Inventor
武士 岸本
Takeshi Kishimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Essilor Co Ltd
Original Assignee
Nikon Essilor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Essilor Co Ltd filed Critical Nikon Essilor Co Ltd
Priority to JP2022103479A priority Critical patent/JP2024004042A/en
Publication of JP2024004042A publication Critical patent/JP2024004042A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eyeglasses (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve simulation accuracy of reproducing the appearance of a specific scene viewed by a user through a spectacle lens, for example.
SOLUTION: According to a first embodiment of the present disclosure, a simulation device which reproduces the appearance of a specific scene viewed by a user through a spectacle lens is provided. The simulation device comprises: a processing unit which, on the basis of at least eyeball information concerning a user's eyeball and designing information concerning the spectacle lens, generates a simulation image indicating the appearance of the scene; and an output unit which outputs the simulation image generated by the processing unit to a display device.
SELECTED DRAWING: Figure 17
COPYRIGHT: (C)2024,JPO&INPIT

Description

本開示は、シミュレーション装置、データ送信装置、モデル生成装置、事前データ生成装置、画像生成装置、シミュレーション方法、及びシミュレーションプログラムに関する。 The present disclosure relates to a simulation device, a data transmission device, a model generation device, a preliminary data generation device, an image generation device, a simulation method, and a simulation program.

特許文献1には、眼鏡レンズを通した見え方のシミュレーションを行うシミュレーション装置が記載されている。シミュレーション装置において、シミュレーションの精度を向上させることが求められている。 Patent Document 1 describes a simulation device that simulates how people see through spectacle lenses. In simulation devices, it is required to improve the accuracy of simulation.

特開平8-215149号公報Japanese Patent Application Publication No. 8-215149

本開示の第1の態様に従えば、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するシミュレーション装置が提供される。シミュレーション装置は、少なくとも、利用者の眼球に関する眼球情報と眼鏡レンズの設計情報とに基づいて、シーンの見え方を示すシミュレーション画像を生成する処理部と、処理部によって生成されたシミュレーション画像を表示装置に出力する出力部と、を備える。 According to a first aspect of the present disclosure, a simulation device is provided that reproduces how a specific scene is viewed by a user through a spectacle lens. The simulation device includes at least a processing unit that generates a simulation image showing how a scene is viewed based on eyeball information regarding the user's eyes and design information of the spectacle lens, and a display device that displays the simulation image generated by the processing unit. and an output section for outputting to the.

本開示の第2の態様に従えば、利用者の眼球情報を取得する取得部と、取得部で取得した眼球情報を、個人毎に異なる眼球モデルを生成するモデル生成装置に対して送信する送信部と、を備えるデータ送信装置が提供される。 According to the second aspect of the present disclosure, an acquisition unit that acquires eyeball information of a user, and a transmission that transmits the eyeball information acquired by the acquisition unit to a model generation device that generates a different eyeball model for each individual. A data transmitting device is provided, comprising: a.

本開示の第3の態様に従えば、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するための眼球モデルを生成するモデル生成装置が提供される。モデル生成装置は、利用者の眼球情報を含む情報に基づいて利用者の眼球をモデル化することで、個人毎に異なる眼球モデルを生成する。 According to a third aspect of the present disclosure, there is provided a model generation device that generates an eyeball model for reproducing the appearance of a specific scene viewed by a user through a spectacle lens. The model generation device generates a different eyeball model for each individual by modeling the user's eyeballs based on information including the user's eyeball information.

本開示の第4の態様に従えば、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現したシミュレーション画像を生成するための事前データを生成する事前データ生成装置が提供される。事前データ生成装置は、利用者の眼球情報を用いてモデル化された利用者の眼球モデルと、眼鏡レンズをモデル化した眼鏡レンズモデルと、を有する光学系を用いて事前データを生成する。 According to a fourth aspect of the present disclosure, there is provided an a priori data generation device that generates a priori data for generating a simulation image that reproduces how a specific scene is viewed by a user through a spectacle lens. The prior data generation device generates prior data using an optical system that includes a user's eyeball model that is modeled using the user's eyeball information and a spectacle lens model that models a spectacle lens.

本開示の第5の態様に従えば、眼鏡レンズを通して利用者が見る特定のシーンの見え方を示すシミュレーション画像を生成する画像生成装置が提供される。画像生成装置は、利用者の眼球に関する眼球情報と眼鏡レンズの設計情報とに基づいて生成された事前データに基づいて、シミュレーション画像を生成し、生成したシミュレーション画像を表示装置に表示させる。 According to a fifth aspect of the present disclosure, there is provided an image generation device that generates a simulation image showing how a specific scene is viewed by a user through a spectacle lens. The image generation device generates a simulation image based on a priori data generated based on eyeball information regarding the user's eyeballs and design information of the spectacle lens, and displays the generated simulation image on a display device.

本開示の第6の態様に従えば、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するシミュレーション方法が提供される。シミュレーション方法は、少なくとも、利用者の眼球に関する眼球情報と眼鏡レンズの設計情報とに基づいて、シーンの見え方を示すシミュレーション画像を生成することと、生成したシミュレーション画像を表示装置に出力することと、を含む。 According to a sixth aspect of the present disclosure, a simulation method is provided that reproduces the appearance of a specific scene viewed by a user through a spectacle lens. The simulation method includes, at least, generating a simulation image showing how a scene is viewed based on eyeball information regarding the user's eyeballs and design information of a spectacle lens, and outputting the generated simulation image to a display device. ,including.

本開示の第7の態様に従えば、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するためのシミュレーション装置として、コンピュータを機能させるシミュレーションプログラムが提供される。シミュレーションプログラムは、コンピュータを、少なくとも、利用者の眼球に関する眼球情報と眼鏡レンズの設計情報とに基づいて、シーンの見え方を示すシミュレーション画像を生成する処理部と、処理部によって生成されたシミュレーション画像を表示装置に出力する出力部として機能させる。 According to a seventh aspect of the present disclosure, there is provided a simulation program that causes a computer to function as a simulation device for reproducing the way a specific scene is viewed by a user through a spectacle lens. The simulation program includes at least a processing unit that generates a simulation image showing how a scene is viewed based on eyeball information regarding the user's eyes and design information of the spectacle lens, and a simulation image generated by the processing unit. It functions as an output unit that outputs to a display device.

本実施形態に係るシミュレーションシステムの一例を示す図である。FIG. 1 is a diagram showing an example of a simulation system according to the present embodiment. 本実施形態に係るプロセッサの機能ブロック図である。FIG. 2 is a functional block diagram of a processor according to the present embodiment. 本実施形態に係る眼球モデルの角膜後面を自由曲面で置き換える方法を説明する図である。FIG. 3 is a diagram illustrating a method of replacing the posterior corneal surface of the eyeball model with a free-form surface according to the present embodiment. 本実施形態に係る光学系の模式図である。FIG. 1 is a schematic diagram of an optical system according to the present embodiment. 本実施形態に係るデータ計算部の概略構成図である。It is a schematic block diagram of the data calculation part based on this embodiment. 本実施形態に係る視錐台の一例を示す図である。FIG. 3 is a diagram showing an example of a viewing frustum according to the present embodiment. 本実施形態に係る歪み変位量の算出方法を説明する図である。It is a figure explaining the calculation method of the amount of strain displacement concerning this embodiment. 本実施形態に係る歪みベクトル配列データの一例を示す図である。FIG. 3 is a diagram showing an example of distortion vector array data according to the present embodiment. 実施形態に係る錯乱楕円の計算方法を説明する図である。FIG. 3 is a diagram illustrating a method of calculating a confusion ellipse according to an embodiment. 本実施形態に係る画像生成部の概略構成図である。FIG. 2 is a schematic configuration diagram of an image generation unit according to the present embodiment. 本実施形態に係る特定シーン画像を説明する図である。FIG. 3 is a diagram illustrating a specific scene image according to the present embodiment. 本実施形態に係る画像処理フィルタの模式図であるFIG. 2 is a schematic diagram of an image processing filter according to the present embodiment. 本実施形態に係る画像処理フィルタの作成方法を説明する図である。FIG. 3 is a diagram illustrating a method for creating an image processing filter according to the present embodiment. 本実施形態に係る画像処理フィルタを説明する図である。FIG. 2 is a diagram illustrating an image processing filter according to the present embodiment. 本実施形態に係る歪み処理を説明する図である。FIG. 3 is a diagram illustrating distortion processing according to the present embodiment. 本実施形態に係るボケ処理を説明する図である。FIG. 3 is a diagram illustrating blur processing according to the present embodiment. 本実施形態に係る個別眼球モデルの作成処理の流れのフロー図である。It is a flowchart of the flow of creation processing of an individual eyeball model concerning this embodiment. 本実施形態に係る事前データ作成処理の流れのフロー図である。It is a flowchart of the flow of advance data creation processing concerning this embodiment. 本実施形態に係るリアルタイム処理の流れのフロー図である。It is a flowchart of the flow of real-time processing concerning this embodiment. 本実施形態に係るシミュレーションシステム1の構成例を示す図である。1 is a diagram showing a configuration example of a simulation system 1 according to the present embodiment.

以下、発明の実施形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be explained through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all combinations of features described in the embodiments are essential to the solution of the invention.

特許文献1に記載のシミュレーション装置では、眼鏡レンズを通した見え方のシミュレーションを行うにあたって、瞳孔径、眼軸長、及び角膜面形状などの利用者の眼球に関する眼球情報は考慮されていない。すなわち、個人毎の眼球情報の違いは、上記見え方のシミュレーションには考慮されない。本実施形態に係るシミュレーション装置2は、利用者の眼球に関する眼球情報を考慮して、眼鏡レンズを通して利用者が見る特定のシーンの見え方をシミュレート(再現)することで、その個人毎の眼球に応じた上記見え方のシミュレーションを行うことができ、シミュレーションの精度を向上させることが可能となる。以下に、本開示の実施形態に係るシミュレーション装置2を有するシミュレーションシステム1について、具体的に説明する。 In the simulation device described in Patent Document 1, eyeball information regarding the user's eyeballs, such as pupil diameter, axial length, and corneal surface shape, is not taken into consideration when simulating how the user sees through spectacle lenses. That is, differences in eyeball information for each individual are not taken into consideration in the above-mentioned visual simulation. The simulation device 2 according to the present embodiment takes into account eyeball information regarding the user's eyeballs and simulates (reproduces) the way the user sees a specific scene through the eyeglass lens. It is possible to perform a simulation of the above-mentioned appearance according to the above, and it is possible to improve the accuracy of the simulation. Below, a simulation system 1 having a simulation device 2 according to an embodiment of the present disclosure will be specifically described.

図1は、本実施形態に係るシミュレーションシステムの一例を示す図である。図1に示すように、シミュレーションシステム1は、シミュレーション装置2と、表示装置3とを備える。 FIG. 1 is a diagram showing an example of a simulation system according to this embodiment. As shown in FIG. 1, the simulation system 1 includes a simulation device 2 and a display device 3.

シミュレーション装置2は、表示装置3に対して無線又は有線で接続されている。シミュレーション装置2は、眼鏡レンズを通して利用者が見る特定のシーンの見え方のシミュレーション(以下、「見え方シミュレーション」という。)を行う。シミュレーション装置2は、見え方シミュレーションの結果を表示装置3に出力する。 The simulation device 2 is connected to the display device 3 wirelessly or by wire. The simulation device 2 performs a simulation of how a specific scene is viewed by a user through spectacle lenses (hereinafter referred to as "view simulation"). The simulation device 2 outputs the results of the viewing simulation to the display device 3.

見え方シミュレーションは、例えば、利用者が眼鏡レンズを購入するにあたって実施される。例えば、利用者は、眼鏡レンズを購入するにあたって、購入希望の眼鏡レンズを通した見え方を、購入前に確認したい場合がある。このような場合に、利用者の眼球に関する情報と、利用者が選択した眼鏡レンズの情報とが、事前にシミュレーション装置2に対して直接的又は間接的に入力されることで、利用者は、本実施形態の見え方シミュレーションの結果、すなわち眼鏡レンズを通した見え方(静止画像又は動画)を、当該眼鏡レンズの購入前に確認することができる。なお、利用者の眼球に関する情報がシミュレーション装置2に対して間接的に入力されることは、例えば、施設(例えば、眼鏡店や病院)に設置している波面収差測定装置で利用者の眼球に関するデータが測定され、その測定されたデータが、通信ネットワークを介してシミュレーション装置2に入力されることを含む。 The visual simulation is performed, for example, when a user purchases eyeglass lenses. For example, when purchasing eyeglass lenses, a user may want to check how the user will see through the desired eyeglass lenses before purchasing. In such a case, information about the user's eyeballs and information about the eyeglass lens selected by the user are directly or indirectly input into the simulation device 2 in advance, so that the user can The results of the visual appearance simulation of this embodiment, that is, the visual appearance through the eyeglass lens (still image or video) can be confirmed before purchasing the eyeglass lens. Note that information regarding the user's eyeballs may be input indirectly to the simulation device 2, for example, by a wavefront aberration measuring device installed in a facility (e.g., an optician shop or hospital). It includes measuring data and inputting the measured data to the simulation device 2 via a communication network.

シミュレーション装置2は、見え方シミュレーションの処理(以下、「見え方シミュレーション処理」という。)に用いられるデータ(以下、「事前データ」という。)を生成するデータ生成処理を、見え方シミュレーション処理を行う前に実施する。そして、シミュレーション装置2は、事前に生成した事前データを用いて、見え方シミュレーション処理を実施する。 The simulation device 2 performs a data generation process that generates data (hereinafter referred to as "prior data") used in a visual simulation process (hereinafter referred to as a "visual simulation process"), and performs a visual simulation process. be carried out before. Then, the simulation device 2 performs a viewing simulation process using the prior data generated in advance.

シミュレーション装置2は、例えばコンピュータである。シミュレーション装置2は、眼鏡店又は病院などの施設に設置されてもよい。例えば、シミュレーション装置2は、波面収差測定装置などの眼球の情報を計測する装置が設置されている施設に設けられてもよいし、当該装置が設置されていない施設に設けられてもよい。シミュレーション装置2は、インターネット上又はクラウド上に配置されてもよい。シミュレーション装置2は、少なくとも1つの物理サーバを備えてもよい。シミュレーション装置2として構成される複数の物理サーバは、通信ネットワークを介して互いに接続されていることにより、互いに通信可能である。上記した物理サーバは、少なくとも一つの仮想サーバを備えてもよい。仮想サーバは、クラウドシステム上のサーバ(クラウドサーバ)であってもよい。 The simulation device 2 is, for example, a computer. The simulation device 2 may be installed in a facility such as an eyeglass store or a hospital. For example, the simulation device 2 may be installed in a facility where a device for measuring eyeball information such as a wavefront aberration measuring device is installed, or in a facility where the device is not installed. The simulation device 2 may be placed on the Internet or the cloud. The simulation device 2 may include at least one physical server. The plurality of physical servers configured as the simulation device 2 are connected to each other via a communication network, so that they can communicate with each other. The physical server described above may include at least one virtual server. The virtual server may be a server on a cloud system (cloud server).

シミュレーション装置2は、例えば、記憶装置4、入力装置5、出力装置6及びプロセッサ7を備える。プロセッサ7は、処理部の一例である。出力装置6は、出力部の一例である。 The simulation device 2 includes, for example, a storage device 4, an input device 5, an output device 6, and a processor 7. The processor 7 is an example of a processing unit. The output device 6 is an example of an output section.

記憶装置4には、例えば、見え方シミュレーションを実行するためのプログラム(ソフトウェア)、及びこのプログラムで処理されるデータ等が格納される。また、記憶装置4には、見え方シミュレーションに必要な情報が格納される。 The storage device 4 stores, for example, a program (software) for executing a viewing simulation, data processed by this program, and the like. Further, the storage device 4 stores information necessary for visual appearance simulation.

記憶装置4は、例えば、ROM(Read Only Memory)等の不揮発性メモリ、HDD(Hard Disk Drive)及びSSD(Solid State Drive)を含む。上記したプログラムは、コンピュータで読み取り可能な記憶媒体によって提供されてもよいし、通信ネットワークにより外部装置から提供されてもよい。提供されたプログラムは、記憶装置4に格納され、プロセッサ7によって実行される。 The storage device 4 includes, for example, nonvolatile memory such as ROM (Read Only Memory), HDD (Hard Disk Drive), and SSD (Solid State Drive). The above-mentioned program may be provided by a computer-readable storage medium, or may be provided from an external device via a communication network. The provided program is stored in the storage device 4 and executed by the processor 7.

入力装置5は、外部からの情報を記憶装置4に対して入力する。入力装置5は、例えば、外部装置と通信するための通信インタフェースである。通信インタフェースが外部装置と通信する通信ネットワークは、有線通信の伝送路であってよいし、無線通信の伝送路(例えば、無線LAN)であってもよいし、有線通信の伝送路及び無線通信の伝送路の組み合わせであってもよい。 The input device 5 inputs information from the outside into the storage device 4 . The input device 5 is, for example, a communication interface for communicating with an external device. The communication network through which the communication interface communicates with the external device may be a transmission path for wired communication, a transmission path for wireless communication (for example, a wireless LAN), or a transmission path for wired communication and wireless communication. It may also be a combination of transmission paths.

入力装置5は、利用者からの入力操作を受け付ける操作装置であってもよい。例えば、操作装置は、利用者からの入力操作を受け付けると、その受け付けた入力操作に応じた情報を記憶装置4に格納してもよい。例えば、操作装置は、タッチパネル、タッチパッド、マウス等のポインティングデバイス、ボタン、スイッチ、モーションセンシティブコントローラ、キーボード、マウス、ジェスチャー入力デバイス、又は音声入力デバイス(例えば、マイクロフォン)などである。なお、入力装置5は、上記通信インタフェースと上記操作装置とのいずれか又は両方を含んでもよい。 The input device 5 may be an operating device that accepts input operations from the user. For example, upon receiving an input operation from a user, the operating device may store information corresponding to the received input operation in the storage device 4. For example, the operating device is a touch panel, a touch pad, a pointing device such as a mouse, a button, a switch, a motion-sensitive controller, a keyboard, a mouse, a gesture input device, or an audio input device (for example, a microphone). Note that the input device 5 may include either or both of the communication interface and the operating device.

出力装置6は、表示装置3に対して無線又は有線で接続されており、見え方シミュレーションの結果を表示装置3に出力する。 The output device 6 is connected to the display device 3 wirelessly or by wire, and outputs the result of the viewing simulation to the display device 3.

表示装置3は、様々な情報を表示する。例えば、表示装置3は、パーソナルコンピュータ用のモニタである。ただし、これに限定されず、表示装置3は、携帯電話、スマートフォン、タブレット型端末などの携帯機器の表示デバイス(ディスプレイ)であってもよい。また、表示装置3は、VRヘッドセットのディスプレイであってもよい。例えば、表示装置3は、眼鏡店などの施設に設置されてもよいし、利用者の自宅に設置されてもよい。表示装置3とシミュレーション装置2とは、それぞれ別の施設に設置されてもよい。 The display device 3 displays various information. For example, the display device 3 is a monitor for a personal computer. However, the present invention is not limited thereto, and the display device 3 may be a display device (display) of a mobile device such as a mobile phone, a smartphone, or a tablet terminal. Further, the display device 3 may be a display of a VR headset. For example, the display device 3 may be installed in a facility such as an eyeglass store, or may be installed in a user's home. The display device 3 and the simulation device 2 may be installed in different facilities.

プロセッサ7は、データ生成処理及び見え方シミュレーション処理を実行することで、特定のシーンの見え方を示すシミュレーション画像を生成する。プロセッサ7は、記憶装置4内に格納されたプログラムを実行し、プログラムによって記述された動作、すなわちデータ生成処理及び見え方シミュレーション処理を実行するように動作可能である。一例として、プロセッサ7は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)及びGPU(Graphics Processing Unit)の少なくとも1つ以上を含む。 The processor 7 generates a simulation image showing how a specific scene looks by executing data generation processing and appearance simulation processing. The processor 7 is operable to execute a program stored in the storage device 4 and to execute operations described by the program, that is, data generation processing and appearance simulation processing. As an example, the processor 7 includes at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit).

上記プログラムは、コンピュータ可読記憶媒体によって提供されてもよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置4にインストールされ、プロセッサ7によって実行される。上記プログラムは、通信ネットワークを介して外部装置からダウンロードされる形態としてもよい。 The program may be provided by a computer-readable storage medium. The program is read from a computer-readable storage medium, installed in the storage device 4, which is also an example of a computer-readable storage medium, and executed by the processor 7. The program may be downloaded from an external device via a communication network.

コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable storage media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disk Read Only Memory (CD-ROM), Digital Versatile Disk (DVD), Blu-ray (RTM) Disc, Memory Stick, Integrated circuit cards and the like may be included.

本実施形態のプロセッサ7の機能部について、図2を用いて説明する。図2は、本実施形態に係るプロセッサ7の機能ブロック図である。プロセッサ7は、図2に示すように、データ生成部10と、画像生成部20とを備える。データ生成部10及び画像生成部20とは、プロセッサ7が記憶装置4内に格納された上記プログラムを実行することにより実現される。 The functional units of the processor 7 of this embodiment will be explained using FIG. 2. FIG. 2 is a functional block diagram of the processor 7 according to this embodiment. The processor 7 includes a data generation section 10 and an image generation section 20, as shown in FIG. The data generation section 10 and the image generation section 20 are realized by the processor 7 executing the above programs stored in the storage device 4.

データ生成部10は、データ生成処理を実行する。データ生成部10は、例えば、モデル構築部11と、データ計算部12とを備える。 The data generation unit 10 executes data generation processing. The data generation unit 10 includes, for example, a model construction unit 11 and a data calculation unit 12.

モデル構築部11は、利用者の眼球に関する眼球情報を取得する。眼球情報は、入力装置5の一例である操作装置が操作されることでシミュレーション装置2に入力されてもよいし、入力装置5の一例である通信インタフェースを介して外部装置からシミュレーション装置2に入力されてもよい。眼球情報は、例えば、波面収差測定装置の測定データ、裸眼処方、及び眼鏡処方のうち、1つ以上を含む。眼球情報は、利用者ごとに異なる。換言すれば、眼球情報は、個人毎の眼球に応じた情報である。 The model construction unit 11 acquires eyeball information regarding the user's eyeballs. The eyeball information may be input into the simulation device 2 by operating an operating device, which is an example of the input device 5, or may be input into the simulation device 2 from an external device via a communication interface, which is an example of the input device 5. may be done. The eyeball information includes, for example, one or more of measurement data of a wavefront aberration measurement device, an unaided eye prescription, and a glasses prescription. Eyeball information differs for each user. In other words, the eyeball information is information that corresponds to the eyeballs of each individual.

測定データは、例えば、少なくとも角膜前面の形状データ及び角膜中心厚を含む。角膜前面の形状データとは、例えば、角膜の前面(トーリック面)の形状を表すための各種データ(以下、「角膜前面トーリックデータ」という。)と、角膜前面の自由曲面の形状データと、角膜前面の波面データとを含む。裸眼処方は、利用者の裸眼の検査によって得られるデータであって、例えば、球面度数S1、乱視度数C1、乱視方向Ax1を含む。眼鏡処方は、利用者が眼鏡を装着した状態での眼の検査によって得られるデータであって、例えば、球面度数S2、乱視度数C2、乱視方向Ax2を含む。 The measurement data includes, for example, at least shape data of the anterior surface of the cornea and central corneal thickness. The shape data of the anterior surface of the cornea includes, for example, various data representing the shape of the anterior surface of the cornea (toric surface) (hereinafter referred to as "front surface toric data"), shape data of the free-form surface of the anterior surface of the cornea, and front wavefront data. The naked eye prescription is data obtained by a user's naked eye examination, and includes, for example, a spherical power S1, an astigmatic power C1, and an astigmatic direction Ax1. The eyeglass prescription is data obtained by an eye examination while the user is wearing eyeglasses, and includes, for example, a spherical power S2, an astigmatic power C2, and an astigmatic direction Ax2.

モデル構築部11は、利用者の眼球情報を含む情報に基づいて、当該利用者の眼球をモデル化した眼球モデル(以下、「個別眼球モデル」という。)を構築する。この個別眼球モデルは、利用者ごとに異なる。個別眼球モデルは、例えば三次元モデルである。モデル構築部11は、例えば、個別眼球モデルの構築にあたって、まず、三次元の標準眼球モデルを生成する。標準眼球モデルは、各種の眼球のパラメータが標準的な値である眼球モデルである。例えば、標準眼球モデルは、Gullstrand(グルストランド)の模型眼である。一例として、モデル構築部11は、標準眼球モデルの構築として、グルストランドの模型眼などの正視状態の眼球モデルの3次元構造及び媒体データを構築する。 The model construction unit 11 constructs an eyeball model (hereinafter referred to as "individual eyeball model") that models the user's eyeballs based on information including the user's eyeball information. This individual eyeball model differs for each user. The individual eyeball model is, for example, a three-dimensional model. For example, in constructing an individual eyeball model, the model construction unit 11 first generates a three-dimensional standard eyeball model. The standard eyeball model is an eyeball model in which various eyeball parameters have standard values. For example, the standard eyeball model is the Gullstrand eye model. As an example, the model construction unit 11 constructs a three-dimensional structure and medium data of an eyeball model in an emmetropic state, such as a Gullstrand model eye, as construction of a standard eyeball model.

モデル構築部11は、標準眼球モデルを生成した後に、利用者の眼球情報に基づいて標準眼球モデルを更新して当該利用者の眼球になるべく近い眼球モデル(以下、「個別眼球モデル」という。)を構築する。例えば、モデル構築部11は、眼球情報の中に標準眼球モデルに適用できる情報があれば、その情報を標準眼球モデルに適用する。そして、モデル構築部11は、裸眼処方又は眼鏡処方に一致するように標準眼球モデルにおける1つ以上のパラメータを調整することで利用者の眼球情報に応じた個別眼球モデルを構築する。以下に、個別眼球モデルの生成方法について説明する。 After generating the standard eyeball model, the model construction unit 11 updates the standard eyeball model based on the user's eyeball information to create an eyeball model that is as close to the user's eyeballs as possible (hereinafter referred to as "individual eyeball model"). Build. For example, if the eyeball information includes information that can be applied to the standard eyeball model, the model construction unit 11 applies that information to the standard eyeball model. Then, the model construction unit 11 constructs an individual eyeball model according to the user's eyeball information by adjusting one or more parameters in the standard eyeball model so as to match the naked-eye prescription or the spectacle prescription. The method for generating the individual eyeball model will be described below.

例えば、モデル構築部11は、標準眼球モデルを生成した後に、標準眼球モデルに対して眼球情報を適用することで、標準眼球モデルの各種パラメータが眼球情報によって更新された更新眼球モデルを生成する。 For example, after generating a standard eyeball model, the model construction unit 11 applies eyeball information to the standard eyeball model to generate an updated eyeball model in which various parameters of the standard eyeball model are updated with the eyeball information.

例えば、モデル構築部11は、眼球情報に測定データが含まれていれば、その測定データである角膜前面の形状データと角膜中心厚とを標準眼球モデルに適用する。なお、測定データが適用された標準眼球モデルを、「第1眼球モデル」と称する。モデル構築部11は、裸眼処方に基づいて、第1眼球モデルの眼軸長と角膜後面トーリックパラメータとを決定する。角膜後面トーリックパラメータは、角膜の後面(トーリック面)の形状を表すための各種パラメータである。角膜後面トーリックパラメータは、例えば、主方向、主方向曲率半径である。眼軸長と角膜後面トーリックパラメータとが決定された第1眼球モデルを、「第2眼球モデル」と称する。 For example, if the eyeball information includes measurement data, the model construction unit 11 applies the measurement data, which is the shape data of the anterior surface of the cornea and the central corneal thickness, to the standard eyeball model. Note that the standard eyeball model to which the measurement data is applied is referred to as a "first eyeball model." The model construction unit 11 determines the axial length and posterior corneal toric parameter of the first eyeball model based on the naked eye prescription. The corneal posterior surface toric parameters are various parameters representing the shape of the posterior surface (toric surface) of the cornea. The posterior corneal toric parameters are, for example, the principal direction and the radius of curvature in the principal direction. The first eyeball model whose axial length and posterior corneal toric parameters have been determined is referred to as a "second eyeball model."

モデル構築部11は、例えば、眼軸長を決定する場合には、眼軸長を第1可変パラメータとして設定する。そして、モデル構築部11は、第1可変パラメータを変えながら、第1眼球モデルの網膜中心窩から水晶体、瞳孔、角膜の順番に公知の近軸光線追跡を行い、第1眼球モデルの平均屈折率が、裸眼処方の平均屈折力P1tに一致するまで反復計算を行う。モデル構築部11は、第1眼球モデルの平均屈折率が、平均屈折力P1tに一致したときの第1可変パラメータを、第1眼球モデルの眼軸長として決定する。なお、平均屈折力P1tは、例えば、裸眼処方の乱視度数C1に2を除算した値を、裸眼処方の球面度数S1に対して加算した値(=S1+(C1/2))である。 For example, when determining the ocular axial length, the model construction unit 11 sets the ocular axial length as the first variable parameter. Then, the model construction unit 11 performs known paraxial ray tracing from the fovea of the retina of the first eyeball model to the lens, pupil, and cornea in this order while changing the first variable parameter, and calculates the average refractive index of the first eyeball model. Iterative calculations are performed until P1t matches the average refractive power P1t of the prescription for the naked eye. The model construction unit 11 determines the first variable parameter when the average refractive index of the first eyeball model matches the average refractive power Plt as the axial length of the first eyeball model. Note that the average refractive power P1t is, for example, a value obtained by dividing the astigmatic power C1 of the naked eye prescription by 2 and adding it to the spherical power S1 of the naked eye prescription (=S1+(C1/2)).

モデル構築部11は、例えば、角膜後面トーリックパラメータを決定する場合には、角膜の各経線方向の断面経路ごとに、角膜後面トーリックパラメータの一例である角膜後面の経線方向の曲率半径を第2可変パラメータとして設定する。モデル構築部11は、第1眼球モデルの網膜中心窩から水晶体、瞳孔、角膜の順番に公知の近軸光線追跡を行い、各経線方向の屈折力が、各経線方向の目標屈折力P1mに一致するまで反復計算を行う。モデル構築部11は、第1眼球モデルの屈折力が、目標屈折力P1mに一致したときの第2可変パラメータを、角膜後面トーリックパラメータとして決定する。なお、目標屈折力P1mは、例えば、裸眼処方の乱視度数C1にsinθを除算した値を、球面度数S1に対して加算した値(=S1+C1・sinθ)である。θは、X軸からの角度である。 For example, when determining the posterior corneal toric parameter, the model construction unit 11 sets the radius of curvature in the meridian direction of the posterior corneal surface, which is an example of the posterior corneal toric parameter, to a second variable for each cross-sectional path in the meridian direction of the cornea. Set as a parameter. The model construction unit 11 performs known paraxial ray tracing from the fovea of the retina to the lens, pupil, and cornea of the first eyeball model in this order, and the refractive power in each meridian direction matches the target refractive power P1m in each meridian direction. Repeat calculations until The model construction unit 11 determines the second variable parameter when the refractive power of the first eyeball model matches the target refractive power P1m as the posterior corneal toric parameter. Note that the target refractive power P1m is, for example, a value obtained by dividing the astigmatic power C1 of the naked eye prescription by sin 2 θ and adding it to the spherical power S1 (=S1+C1·sin 2 θ). θ is the angle from the X axis.

モデル構築部11は、第2眼球モデルにおける角膜の前面と後面とを非球面化する。例えば、モデル構築部11は、角膜前面自由曲面の形状データを第2眼球モデルに適用することで、角膜の前面を非球面化する。一例として、角膜前面自由曲面の形状データは、X方向、Y方向及びZ方向の3次元位置データである。モデル構築部11は、この3次元位置データからスプライン面を構築して、第2眼球モデルの角膜前面を、自由曲面の一例であるトーリック面と置き換える。 The model construction unit 11 asphericizes the front and back surfaces of the cornea in the second eyeball model. For example, the model construction unit 11 applies the shape data of the free-form surface of the anterior surface of the cornea to the second eyeball model, thereby making the anterior surface of the cornea aspherical. As an example, the shape data of the free-form surface of the anterior surface of the cornea is three-dimensional position data in the X direction, Y direction, and Z direction. The model construction unit 11 constructs a spline surface from this three-dimensional position data, and replaces the anterior surface of the cornea of the second eyeball model with a toric surface, which is an example of a free-form surface.

また、モデル構築部11は、第2眼球モデルの角膜後面が、測定データの1つである角膜後面の波面データとなるように第2眼球モデルの角膜後面を自由曲面で置き換える。これにより、モデル構築部11は、第2眼球モデルにおける角膜の後面を非球面化する。非球面化が行われた第2眼球モデルは、「更新眼球モデル」の一例である。以下に、第2眼球モデルの角膜後面を自由曲面で置き換える方法を、図3を用いて説明する。図3は、第2眼球モデルの角膜後面を自由曲面で置き換える方法の一例を説明する図である。DOPは、角膜であり、眼球光学系に含まれる。 Further, the model construction unit 11 replaces the posterior corneal surface of the second eyeball model with a free-form surface so that the posterior corneal surface of the second eyeball model becomes wavefront data of the posterior corneal surface, which is one of the measurement data. Thereby, the model construction unit 11 aspherics the posterior surface of the cornea in the second eyeball model. The second eyeball model that has been asphericized is an example of an "updated eyeball model." Below, a method of replacing the posterior corneal surface of the second eyeball model with a free-form surface will be explained using FIG. 3. FIG. 3 is a diagram illustrating an example of a method of replacing the posterior corneal surface of the second eyeball model with a free-form surface. DOP is the cornea and is included in the ocular optical system.

まず、モデル構築部11は、例えば、網膜中心窩から円錐状に多数の光線を射出させ、主光線B1の光学的距離OPL1と、その他の光線群の各光線B2の光学的距離OPL2との差分ΔOPLを求める(図3(a))。光学的距離OPL1は、射出された主光線B1が計測面MP(交点位置Po1)まで進んだ光路長である。光学的距離OPL2は、射出された光線B2が計測面MP(交点位置Po2)まで進んだ光路長である。なお、図3(a)では、光学的距離OPL2<光学的距離OPL1である。 First, the model construction unit 11 emits a large number of light rays in a conical shape from the fovea of the retina, for example, and calculates the difference between the optical distance OPL1 of the principal ray B1 and the optical distance OPL2 of each light ray B2 of the other light ray group. Find ΔOPL (FIG. 3(a)). The optical distance OPL1 is the optical path length that the emitted chief ray B1 travels to the measurement plane MP (intersection position Po1). The optical distance OPL2 is the optical path length that the emitted light ray B2 travels to the measurement plane MP (intersection point Po2). Note that in FIG. 3A, optical distance OPL2<optical distance OPL1.

モデル構築部11は、光学的距離OPL2が光学的距離OPL1と同じになるように、光線B2と計測面MPとの交点位置を、交点位置Po2から差分ΔOPLだけ光線方向(+Z方向)に移動させた交点位置Po3に移動させる(図3(b))。すなわち、モデル構築部11は、光学的距離OPL2が光学的距離OPL1と同じになるように、同一の光学的距離の集合である波面Wcal(以下、「計算波面」という。)を構築する。計算波面Wcalは、光学的距離OPL1と同じ光学的距離を持つ点の集合体である。 The model construction unit 11 moves the intersection position of the ray B2 and the measurement plane MP in the ray direction (+Z direction) by a difference ΔOPL from the intersection position Po2 so that the optical distance OPL2 becomes the same as the optical distance OPL1. (FIG. 3(b)). That is, the model construction unit 11 constructs a wavefront W cal (hereinafter referred to as a "calculated wavefront") that is a set of the same optical distances so that the optical distance OPL2 is the same as the optical distance OPL1. The calculated wavefront W cal is a collection of points having the same optical distance as the optical distance OPL1.

モデル構築部11は、計算波面Wcalを構築すると、測定データの1つである角膜前面頂点位置の波面データWtargetと、計算波面Wcalとの差分ΔWを計算する(図3(c))。モデル構築部11は、光学的距離OPL2を差分ΔWだけ増加させる角膜後面のサグ移動量Δdを計算する(図3(d))。サグ移動量Δdは、例えば、次式で表される。なお、経路の数は、眼球モデルによって変化する。ここで、nは屈折率を示す。dは光が進む距離である。具体的には、nは網膜中心と水晶体皮質との間の屈折率であり、dは網膜中心と水晶体皮質(点P1)との間の距離である。nは網膜側の水晶体皮質の屈折率であり、dは光線B2が網膜側の水晶体皮質を進む距離(点P1と点P2との間の距離)である。nは水晶体核の屈折率であり、dは光線B2が水晶体核を進む距離(点P2と点P3との間の距離)である。nは角膜側の水晶体皮質の屈折率であり、dは光線B2が角膜側の水晶体皮質を進む距離(点P3と点P4との間の距離)である。nは水晶体(LS)と角膜(DOP)との間の屈折率であり、dは光線B2が水晶体(LS)と角膜(DOP)との間を進む距離である。nは角膜(DOP)の屈折率であり、dは光線B2が角膜(DOP)を進む距離(点P5と点P6との間の距離)である。nは角膜(DOP)の外側の屈折率であり、dは光線B2が角膜(DOP)と計算波面Wcalとの間を進む距離(点P6と交点位置Po3との間の距離)である。 After constructing the calculated wavefront W cal , the model construction unit 11 calculates the difference ΔW between the wavefront data W target at the corneal anterior apex position, which is one of the measurement data, and the calculated wavefront W cal (FIG. 3(c)). . The model construction unit 11 calculates a sag movement amount Δd of the posterior surface of the cornea that increases the optical distance OPL2 by the difference ΔW (FIG. 3(d)). The sag movement amount Δd is expressed, for example, by the following equation. Note that the number of paths varies depending on the eyeball model. Here, n indicates a refractive index. d is the distance that light travels. Specifically, n 0 is the refractive index between the retinal center and the lens cortex, and d 0 is the distance between the retinal center and the lens cortex (point P1). n 1 is the refractive index of the lens cortex on the retina side, and d 1 is the distance that the light ray B2 travels through the lens cortex on the retina side (distance between points P1 and P2). n 2 is the refractive index of the lens nucleus, and d 2 is the distance that the ray B2 travels through the lens nucleus (distance between points P2 and P3). n 3 is the refractive index of the lens cortex on the cornea side, and d 3 is the distance that the ray B2 travels through the lens cortex on the cornea side (distance between points P3 and P4). n 4 is the refractive index between the crystalline lens (LS) and the cornea (DOP), and d 4 is the distance that the ray B2 travels between the crystalline lens (LS) and the cornea (DOP). n 5 is the refractive index of the cornea (DOP), and d 5 is the distance that the ray B2 travels through the cornea (DOP) (distance between points P5 and P6). n 6 is the refractive index outside the cornea (DOP), and d 6 is the distance that the ray B2 travels between the cornea (DOP) and the calculated wavefront W cal (distance between the point P6 and the intersection position Po3). be.

Figure 2024004042000002
Figure 2024004042000002

モデル構築部11は、サグ移動量Δdに基づいて角膜後面の形状を変更することにより計算波面Wcalを角膜前面頂点位置の波面データWtargetに近づける。モデル構築部11は、図3(a)から図3(d)で説明した処理を、差分Δwが許容誤差未満になるまで反復する。 The model construction unit 11 changes the shape of the posterior surface of the cornea based on the sag movement amount Δd to bring the calculated wavefront W cal closer to the wavefront data W target at the vertex position of the anterior surface of the cornea. The model construction unit 11 repeats the processing described in FIGS. 3A to 3D until the difference Δw becomes less than the allowable error.

このように、モデル構築部11は、眼球情報に測定データが含まれている場合には、測定データを標準眼球モデルに適用し、最終的に、第2眼球モデルの角膜後面を自由曲面で置き換えて更新眼球モデルを生成する。ただし、眼球情報に測定データが含まれていない場合がある。この場合には、モデル構築部11は、眼鏡処方を参照して標準眼球モデルの眼軸長及び角膜前面トーリックパラメータを更新する。すなわち、眼球情報に測定データが含まれていない場合には、モデル構築部11は、眼鏡処方に基づいて、標準眼球モデルの眼軸長と角膜前面トーリックパラメータとのそれぞれを可変パラメータとして調整することで更新眼球モデルを生成する。 In this way, when the eyeball information includes measurement data, the model construction unit 11 applies the measurement data to the standard eyeball model, and finally replaces the posterior corneal surface of the second eyeball model with a free-form surface. to generate an updated eyeball model. However, the eyeball information may not include measurement data. In this case, the model construction unit 11 updates the axial length and anterior corneal toric parameter of the standard eyeball model with reference to the eyeglass prescription. That is, when the eyeball information does not include measurement data, the model construction unit 11 adjusts each of the axial length and front corneal toric parameter of the standard eyeball model as variable parameters based on the glasses prescription. Generate an updated eyeball model with .

例えば、モデル構築部11は、測定データが含まれていない場合において眼軸長を決定する場合には、眼軸長を第3可変パラメータとして設定し、第3可変パラメータを変えながら、標準眼球モデルの網膜中心窩から水晶体、瞳孔、角膜、角膜から前方にある参照位置の順番に公知の近軸光線追跡を行い、標準眼球モデルの平均屈折率が、眼鏡処方の平均屈折力P2tに一致するまで反復計算を行う。参照位置は、例えば、角膜から前方に12mmの位置である。モデル構築部11は、標準眼球モデルの平均屈折率が、平均屈折力P2tに一致したときの第3可変パラメータを、標準眼球モデルの眼軸長として決定する。なお、平均屈折力P2tは、例えば、眼鏡処方の乱視度数C2に2を除算した値を、眼鏡処方の球面度数S2に対して加算した値(=S2+(C2/2))である。 For example, when determining the ocular axial length when measurement data is not included, the model construction unit 11 sets the ocular axial length as the third variable parameter, and uses the standard eyeball model while changing the third variable parameter. A well-known paraxial ray tracing is performed in the order of the fovea of the retina, the crystalline lens, the pupil, the cornea, and the reference position in front of the cornea, until the average refractive index of the standard eye model matches the average refractive power P2t of the eyeglass prescription. Perform iterative calculations. The reference position is, for example, a position 12 mm forward from the cornea. The model construction unit 11 determines the third variable parameter when the average refractive index of the standard eyeball model matches the average refractive power P2t as the axial length of the standard eyeball model. Note that the average refractive power P2t is, for example, a value obtained by dividing the astigmatic power C2 of the eyeglass prescription by 2 and adding it to the spherical power S2 of the eyeglass prescription (=S2+(C2/2)).

モデル構築部11は、例えば、角膜前面トーリックパラメータを決定する場合には、角膜の各経線方向の断面経路ごとに、角膜前面の経線方向の曲率半径を第4可変パラメータとして設定する。モデル構築部11は、標準眼球モデルを網膜中心窩から水晶体、瞳孔、角膜、参照位置の順番に公知の近軸光線追跡を行い、各経線方向の屈折力が、各経線方向の目標屈折力P2mに一致するまで反復計算を行う。モデル構築部11は、標準眼球モデルの屈折力が、目標屈折力P2mに一致したときの第4可変パラメータを、角膜後面トーリックパラメータとして決定する。なお、目標屈折力P2mは、例えば、眼鏡処方の乱視度数C2にsinθを除算した値を、球面度数S2に対して加算した値(=S2+C2・sinθ)である。 For example, when determining the anterior corneal toric parameter, the model construction unit 11 sets the radius of curvature in the meridian direction of the anterior corneal surface as the fourth variable parameter for each cross-sectional path in each meridian direction of the cornea. The model construction unit 11 performs known paraxial ray tracing on the standard eyeball model in the order of the fovea of the retina, the crystalline lens, the pupil, the cornea, and the reference position, so that the refractive power in each meridian direction is determined by the target refractive power P2m in each meridian direction. Iterate calculations until it matches. The model construction unit 11 determines the fourth variable parameter when the refractive power of the standard eyeball model matches the target refractive power P2m as the posterior corneal toric parameter. Note that the target refractive power P2m is, for example, a value obtained by dividing the astigmatic power C2 of the glasses prescription by sin 2 θ and adding it to the spherical power S2 (=S2+C2·sin 2 θ).

モデル構築部11は、更新眼球モデルの調節力が目標値になるように、第3眼球モデルの水晶体のパラメータ(以下、「水晶体パラメータ」という。)を可変パラメータとして調整することで個別眼球モデルを構築する。水晶体パラメータは、例えば、水晶体の曲率(例えば、水晶体の前面及び後面の曲率)と水晶体の頂点位置(例えば、水晶体の前面及び後面の頂点位置)である。ここで、調節力の目標値は、1つではなく複数である。例えば、弛緩時の調節力(最小調節力)Pmin=0[D(ディオプトリー)]から、予め設定された最大の調節力Pmax[D]までの範囲において、離散的に複数のレベル(以下、「調節レベル」という。)が割当てられている。すなわち、Pmin以上かつPmax以下の範囲で、複数の調節レベルが割り当てられている。調節レベルは、例えば、0.00D(Pmin),1.00D,2.00D,…,10.00Dである。調節レベルは、調節力の目標値に相当する。 The model construction unit 11 constructs the individual eyeball model by adjusting parameters of the lens of the third eyeball model (hereinafter referred to as "crystalline lens parameters") as variable parameters so that the accommodation power of the updated eyeball model reaches the target value. To construct. The crystalline lens parameters are, for example, the curvature of the crystalline lens (for example, the curvatures of the anterior and posterior surfaces of the crystalline lens) and the apex positions of the crystalline lens (for example, the apex positions of the anterior and posterior surfaces of the crystalline lens). Here, the target value of the adjustment force is not one but multiple. For example, in the range from the accommodation force during relaxation (minimum accommodation force) Pmin = 0 [D (diopters)] to the preset maximum accommodation force Pmax [D], a plurality of discrete levels (hereinafter referred to as " (referred to as "accommodation level") is assigned. That is, a plurality of adjustment levels are assigned within a range of Pmin or more and Pmax or less. The adjustment levels are, for example, 0.00D (Pmin), 1.00D, 2.00D, . . . , 10.00D. The accommodation level corresponds to the target value of the accommodation force.

モデル構築部11は、更新眼球モデルの調節力が調節レベルになるように、更新眼球モデルの水晶体パラメータを調整する処理を調節レベルごとに行うことで、調節レベルごとの個別眼球モデルを作成する。この調節レベルごとの個別眼球モデルは、記憶装置4に格納される。従って、10個の調節レベルが設定されている場合には、利用者ごとに10個の個別眼球モデルが作成される。一例として、調節レベルごとの個別眼球モデルは、記憶装置4において、データベースとして格納される。 The model construction unit 11 creates individual eyeball models for each accommodation level by performing a process of adjusting the crystalline lens parameters of the updated eyeball model for each accommodation level so that the accommodation power of the updated eyeball model becomes the accommodation level. This individual eyeball model for each accommodation level is stored in the storage device 4. Therefore, if 10 accommodation levels are set, 10 individual eyeball models are created for each user. As an example, individual eyeball models for each accommodation level are stored as a database in the storage device 4.

データ計算部12は、利用者の個別眼球モデルMeと眼鏡レンズモデルMgとを仮想空間に配置して光学系100を構築する。図4は、本実施形態に係る光学系100の模式図である。眼鏡レンズモデルMgは、眼鏡レンズ前後の2つの自由曲面と、そのレンズ中心厚と、媒体屈折率とを定義して構築される。そして、データ計算部12は、構築した光学系100を用いて事前データを生成する。図5は、本実施形態に係るデータ計算部12の概略構成図である。図5に示すように、データ計算部12は、例えば、歪みデータ計算部30と、波面計算部31と、錯乱楕円計算部32と、波面収差計算部33と、点像広がり関数(PSF)計算部34とを備える。 The data calculation unit 12 constructs the optical system 100 by arranging the user's individual eyeball model Me and the spectacle lens model Mg in virtual space. FIG. 4 is a schematic diagram of the optical system 100 according to this embodiment. The spectacle lens model Mg is constructed by defining two free-form surfaces at the front and rear of the spectacle lens, the center thickness of the lens, and the medium refractive index. Then, the data calculation unit 12 generates preliminary data using the constructed optical system 100. FIG. 5 is a schematic configuration diagram of the data calculation section 12 according to this embodiment. As shown in FIG. 5, the data calculation section 12 includes, for example, a distortion data calculation section 30, a wavefront calculation section 31, a confusion ellipse calculation section 32, a wavefront aberration calculation section 33, and a point spread function (PSF) calculation section. 34.

歪みデータ計算部30は、眼鏡レンズによる歪み(以下、「歪み変位量」という。)を算出する。例えば、眼鏡レンズがない場合、すなわち裸眼の場合において視線方向にある点(例えば、格子点)が、眼鏡レンズを通して見ると光線が屈折することによって当該格子点の位置に変位する。この位置の変位量は、上記の歪み変位量に相当する。 The distortion data calculation unit 30 calculates distortion caused by the spectacle lens (hereinafter referred to as "distortion displacement amount"). For example, when there is no spectacle lens, that is, in the case of the naked eye, a point (for example, a lattice point) in the line of sight direction is displaced to the position of the lattice point due to the refraction of light rays when viewed through the spectacle lens. The amount of displacement at this position corresponds to the amount of strain displacement described above.

例えば、歪みデータ計算部30は、歪み変位量を求めるにあたって、まず仮想空間上において、光学系100を含む視錐台110の領域を設定する。図6は、本実施形態に係る視錐台110の一例を示す図である。歪みデータ計算部30は、例えば、個別眼球モデルMeに所定の視点を置き、その視点から見える範囲を視錐台110として設定する。歪みデータ計算部30は、その視錐台110に対して格子点を生成する。視錐台110は、四角錐を近方面と遠方面で切り取って形成した領域である。 For example, in calculating the amount of distortion displacement, the distortion data calculation unit 30 first sets an area of the viewing frustum 110 that includes the optical system 100 in virtual space. FIG. 6 is a diagram showing an example of the viewing frustum 110 according to the present embodiment. For example, the distortion data calculation unit 30 places a predetermined viewpoint on the individual eyeball model Me, and sets the range visible from that viewpoint as the viewing frustum 110. The distortion data calculation unit 30 generates lattice points for the viewing frustum 110. The viewing frustum 110 is an area formed by cutting a quadrangular pyramid into a near plane and a far plane.

歪みデータ計算部30は、図7(a)に示すように、眼鏡レンズモデルがない場合において、ある特定の格子点(以下、「特定格子点」という。)SPを見たときの視線方向uを初期値として設定する。視線方向uは、以下のように表される。Pgは特定格子点の位置座標である。Rrcは眼球の回旋中心の位置座標である。 As shown in FIG. 7A, the distortion data calculation unit 30 calculates the line of sight direction u when looking at a certain lattice point (hereinafter referred to as "specific lattice point") SP when there is no eyeglass lens model. Set 0 as the initial value. The viewing direction u 0 is expressed as follows. Pg is the position coordinate of a specific grid point. Rrc is the position coordinate of the center of rotation of the eyeball.

Figure 2024004042000003
Figure 2024004042000003

次に、歪みデータ計算部30は、図7(a)に示すように、眼鏡レンズを考慮して、すなわち眼鏡レンズによる屈折がある状態で後方光線追跡を行い、特定格子点SPが存在するXY平面との交点IP1の座標(交点座標)Peを計算する。後方光線追跡は、眼球モデルの内部(例えば、中心窩)から眼鏡レンズモデル側(図7に示す+Z方向側)に向けて発せられる光線を追跡する処理である。歪みデータ計算部30は、交点座標Peと特定格子点SPの位置座標Pgとの差分を基に、視線方向uを補正する反復処理により、特定格子点SPに向かう主光線経路を確定する。なお、補正された視線方向uを視線方向u´と称する場合がある。視線方向u´は、主光線経路の確定によって特定される。 Next, as shown in FIG. 7A, the distortion data calculation unit 30 performs backward ray tracing in consideration of the eyeglass lens, that is, in a state where there is refraction due to the eyeglass lens, and performs backward ray tracing on the XY The coordinates (intersection coordinates) Pe of the intersection point IP1 with the plane are calculated. Backward ray tracing is a process of tracing light rays emitted from the inside of the eyeball model (for example, the fovea) toward the eyeglass lens model side (+Z direction side shown in FIG. 7). The distortion data calculation unit 30 determines the principal ray path toward the specific grid point SP through an iterative process of correcting the line-of-sight direction u 0 based on the difference between the intersection point coordinate Pe and the position coordinate Pg of the specific grid point SP. Note that the corrected line-of-sight direction u0 may be referred to as the line-of-sight direction u'. The viewing direction u' is specified by determining the principal ray path.

歪みデータ計算部30は、眼鏡レンズがある状態での光線が特定格子点SPに向かうときの視線方向u´において、眼鏡レンズがない場合のXY平面の交点IP2の座標Pvと、特定格子点SPの位置座標Pgとの差分ΔPを歪み変位量として計算する。この歪み変位量の計算は、複数の格子点のそれぞれを特定格子点SPとして設定することで、格子点ごとに実施される。換言すれば、歪み変位量のデータは、格子点ごとに格納されている。図8(a)は、ある測定距離(Z方向の距離)におけるXY平面のN×Mの格子点と、その格子点の座標とを示す。図8(b)は、ある測定距離(Z方向の距離)におけるXY平面の各格子点に格納される歪み変位量データの一例を示す。図8に示すように、格子点の座標(x,y)、変位後の格子点の座標(x′,y′)、及びその変位量(歪み量)Δx,Δyが格子点ごとに記憶装置4に格納される。座標及び歪み量の添え字は、各格子点を区別するものである。これらの格子点ごとの歪み変位量データを、総称して「歪みベクトル配列データ」と表記する場合がある。 The distortion data calculation unit 30 calculates the coordinates Pv of the intersection point IP2 of the XY plane when there is no eyeglass lens and the specific grid point SP in the line of sight direction u' when a light ray heads toward the specific grid point SP with the eyeglass lens present. The difference ΔP between the position coordinate Pg and the position coordinate Pg is calculated as the amount of strain displacement. This distortion displacement amount calculation is performed for each grid point by setting each of the plurality of grid points as a specific grid point SP. In other words, the data on the amount of strain displacement is stored for each grid point. FIG. 8A shows N×M lattice points on the XY plane at a certain measurement distance (distance in the Z direction) and the coordinates of the lattice points. FIG. 8B shows an example of strain displacement amount data stored at each grid point on the XY plane at a certain measurement distance (distance in the Z direction). As shown in FIG. 8, the coordinates (x, y) of the lattice point, the coordinates (x', y') of the lattice point after displacement, and the amount of displacement (amount of distortion) Δx, Δy are stored for each lattice point. It is stored in 4. The coordinates and distortion amount subscripts distinguish each grid point. The distortion displacement amount data for each of these lattice points may be collectively referred to as "distortion vector array data."

波面計算部31は、光学系100を用いて、眼鏡レンズモデルMgの前面での波面を計算する。例えば、波面計算部31は、個別眼球モデルMeの網膜中心窩から円錐状に多数の光線を射出させる。波面計算部31は、射出させた多数の光線と、個別眼球モデルMeの角膜前面又は眼鏡レンズモデルMgのレンズ前面との交点位置において、それぞれの光線の光学的距離(OPL)が主光線のOPLとなる点の分布をゼルニケ(Zernike)多項式面でフィッティングして求めることで眼鏡レンズモデルMgの前面での波面を計算する。 The wavefront calculation unit 31 uses the optical system 100 to calculate the wavefront at the front surface of the spectacle lens model Mg. For example, the wavefront calculation unit 31 causes a large number of light rays to be emitted in a conical shape from the fovea of the retina of the individual eyeball model Me. The wavefront calculation unit 31 determines that the optical distance (OPL) of each ray is the OPL of the principal ray at the intersection position of the many emitted rays and the front surface of the cornea of the individual eyeball model Me or the front surface of the lens of the spectacle lens model Mg. The wavefront at the front surface of the eyeglass lens model Mg is calculated by fitting the distribution of points with the Zernike polynomial surface.

錯乱楕円計算部32は、光学系100の錯乱楕円を計算する錯乱楕円計算を実行する。錯乱楕円計算部32は、波面計算部31による波面計算によって計算された波面と、特定格子点が存在する平面との交差領域(錯乱楕円)を計算する。図9は、錯乱楕円の計算方法を説明する図である。波面計算により角膜頂点又は眼鏡レンズ前面における2つの主経線方向(Tξ,Tη)とその方向の曲率(Kξ,Kη)が求まる(図9(a))。錯乱楕円計算部32は、波面の進行方向(ベクトルN)の平面格子位置での楕円錐の形状を相似計算による求める。錯乱楕円計算部32は、この楕円形状をベクトルNがZ軸と一致するように回転して交差領域を求めることで、特定格子点における錯乱楕円の形状データ(以下、「錯乱楕円データ」という。)を求める。錯乱楕円データは、例えば、図9(b)に例示するように、主経線1方向半径aξ、主経線2方向半径aη、主経線1方向角度θξ、及び主経線2方向角度θηを含む。錯乱楕円データは、格子点ごと、調節レベルごと、及び瞳孔径レベルごとに記憶装置4に格納される。例えば、錯乱楕円計算部32は、予め設定された複数の瞳孔径ごとに錯乱楕円データを算出する処理を調節レベルごとに実施する。そして、錯乱楕円計算部32は、この調節レベルごとの処理を、格子点ごとに実施する。 The confusion ellipse calculation unit 32 executes confusion ellipse calculation to calculate the confusion ellipse of the optical system 100. The confusion ellipse calculation unit 32 calculates an intersection area (confusion ellipse) between the wavefront calculated by the wavefront calculation by the wavefront calculation unit 31 and the plane in which the specific grid point exists. FIG. 9 is a diagram illustrating a method of calculating a confusion ellipse. By wavefront calculation, the two principal meridian directions (Tξ, Tη) and the curvatures (Kξ, Kη) of the directions at the corneal vertex or the front surface of the spectacle lens are determined (FIG. 9(a)). The confusion ellipse calculation unit 32 calculates the shape of an elliptic cone at the plane grid position in the traveling direction of the wavefront (vector N) by similarity calculation. The confusion ellipse calculation unit 32 rotates this ellipse shape so that the vector N coincides with the Z axis to find an intersection area, thereby generating shape data of the confusion ellipse at a specific grid point (hereinafter referred to as "confusion ellipse data"). ). The confusion ellipse data includes, for example, a radius aξ in one principal meridian direction, a radius aη in two principal meridian directions, an angle θξ in one principal meridian direction, and an angle θη in two principal meridian directions, as illustrated in FIG. 9B, for example. The confusion ellipse data is stored in the storage device 4 for each grid point, each accommodation level, and each pupil diameter level. For example, the confusion ellipse calculation unit 32 performs a process of calculating confusion ellipse data for each of a plurality of preset pupil diameters for each accommodation level. Then, the confusion ellipse calculation unit 32 performs this processing for each adjustment level for each grid point.

波面収差計算部33は、波面計算部31による波面計算によって求められた波面と、理想波面との差分面を波面収差として計算する。理想波面は、すべての光線が1点に収束する波面で、物体位置を中心として物体距離(後述する)を半径とする球面である。換言すれば、理想波面は、波面の位置と格子点間の距離を半径とする球面である。波面収差計算部33は、物体距離によって理想波面が異なるので、格子点ごとに変化する物体距離ごとに波面収差を計算する。 The wavefront aberration calculation unit 33 calculates the difference surface between the wavefront calculated by the wavefront calculation by the wavefront calculation unit 31 and the ideal wavefront as a wavefront aberration. The ideal wavefront is a wavefront on which all light rays converge to one point, and is a spherical surface whose center is the object position and whose radius is the object distance (described later). In other words, the ideal wavefront is a spherical surface whose radius is the distance between the position of the wavefront and the lattice points. Since the ideal wavefront differs depending on the object distance, the wavefront aberration calculation unit 33 calculates the wavefront aberration for each object distance that changes for each grid point.

PSF計算部34は、波面収差計算部33によって計算された波面収差に基づいて、点像広がり関数(Point spread function:PSF)を計算する。例えば、PSF計算部34は、波面収差計算部33によって計算された波面収差をフーリエ変換してPSFを計算する。PSF計算部34は、計算したPSFを記憶装置4に格納する。フーリエ変換においては、特定シーン画像の最小画素幅以下でサンプリングして、画素レベルの影響を反映できるように設定されている。 The PSF calculation unit 34 calculates a point spread function (PSF) based on the wavefront aberration calculated by the wavefront aberration calculation unit 33. For example, the PSF calculation unit 34 calculates the PSF by Fourier transforming the wavefront aberration calculated by the wavefront aberration calculation unit 33. The PSF calculation unit 34 stores the calculated PSF in the storage device 4. In the Fourier transform, sampling is performed at a value less than or equal to the minimum pixel width of a specific scene image, so that the influence of the pixel level can be reflected.

具体的には、PSF計算部34は、ます、波面収差W(x,y)を瞳関数P(x,y)に変換し、その瞳関数P(x,y)をフーリエ変換することでPSFを求めることができる。例えば、瞳関数P(x,y)は、以下の式で算出される。 Specifically, the PSF calculation unit 34 first converts the wavefront aberration W(x,y) into a pupil function P(x,y), and performs a Fourier transform on the pupil function P(x,y) to calculate the PSF. can be found. For example, the pupil function P(x,y) is calculated using the following formula.

Figure 2024004042000004
Figure 2024004042000004

PSF計算部34は、瞳関数P(x,y)をフーリエ変換する場合には、そのフーリエ変換に関するパラメータを決定する。瞳関数P(x,y)のサンプリング間隔Δと瞳関数P(x,y)の領域幅Lの関係は、Δ=L/rである。なお、rはサンプリング数である。 When performing Fourier transform on the pupil function P(x,y), the PSF calculation unit 34 determines parameters related to the Fourier transform. The relationship between the sampling interval Δ of the pupil function P(x,y) and the region width L of the pupil function P(x,y) is Δ=L/r. Note that r is the number of samplings.

点像広がり関数の基本空間周波数Vbaseと瞳関数の領域幅Lの関係は、Vbase=1/Lとなる。基本空間周波数Vbaseが特定シーン画像の最小画素幅以下となるように2のべき乗となるサンプリング数rを決定する。瞳関数P(x,y)をフーリエ変換した結果は複素値である。そのため、PSF計算部34は、複素振幅量の2乗値(実数)をPSFデータとして記憶装置4に格納する。 The relationship between the basic spatial frequency V base of the point spread function and the region width L of the pupil function is V base =1/L. The sampling number r is determined to be a power of 2 so that the basic spatial frequency V base is equal to or less than the minimum pixel width of the specific scene image. The result of Fourier transformation of the pupil function P(x,y) is a complex value. Therefore, the PSF calculation unit 34 stores the square value (real number) of the complex amplitude amount in the storage device 4 as PSF data.

ここで、PSFのデータは、格子点ごと、調節レベルごと、及び瞳孔径レベルごとに準備されている。例えば、波面計算、波面収差計算、及び点像広がり関数計算を一連の処理とし、予め設定された複数の瞳孔径ごとに一連の処理が実行される。この複数の瞳孔径ごとの一連の処理は、調節レベルごとに実施される。そのため、10の調節レベルが設定されている場合には、複数の瞳孔径ごとの一連の処理は、10の調節レベルそれぞれにおいて実施され、合計10回実行される。さらに、この調節レベルごとの処理は、格子点ごとに実施される。すなわち、ある任意の格子点を特定格子点として設定して点像広がり関数を求める処理(以下、「格子点処理」という。)が実行される。格子点処理は、格子点ごとに実施される。また、格子点処理は、複数の瞳孔径のそれぞれに対応する上記の一連の処理を調節レベルごとに実行する。 Here, the PSF data is prepared for each grid point, each accommodation level, and each pupil diameter level. For example, wavefront calculation, wavefront aberration calculation, and point spread function calculation are performed as a series of processes, and the series of processes is executed for each of a plurality of preset pupil diameters. This series of processing for each of the plurality of pupil diameters is performed for each accommodation level. Therefore, when 10 accommodation levels are set, a series of processes for each of a plurality of pupil diameters is performed at each of the 10 accommodation levels, and is executed 10 times in total. Furthermore, this processing for each adjustment level is performed for each grid point. That is, a process (hereinafter referred to as "lattice point processing") for determining a point spread function by setting an arbitrary lattice point as a specific lattice point is executed. Grid point processing is performed for each grid point. Furthermore, in the lattice point processing, the above-described series of processing corresponding to each of a plurality of pupil diameters is executed for each accommodation level.

画像生成部20は、見え方シミュレーション処理を実行する。図10は、本実施形態に係る画像生成部の概略構成図である。図10に示すように、画像生成部20は、例えば、シーン画像取得部40、情報取得部41、画像フィルタ生成部42と、画像処理部43とを備える。 The image generation unit 20 executes appearance simulation processing. FIG. 10 is a schematic configuration diagram of the image generation section according to this embodiment. As shown in FIG. 10, the image generation section 20 includes, for example, a scene image acquisition section 40, an information acquisition section 41, an image filter generation section 42, and an image processing section 43.

シーン画像取得部40は、特定シーン画像を取得する。この特定シーン画像は、コンピュータグラフィックスによって作成される。図11は、特定シーン画像を説明する図である。特定シーン画像には、例えば、1つ以上の物体を含む。例えば、シーン画像取得部40は、コンピュータグラフィックスによる描画処理を実行することで、3次元のシーンを透視投影した正視状態の2次元画像を特定シーン画像として作成する。また、シーン画像取得部40は、その特定シーン画像の各画素の距離データを取得する。各画素の距離データは、深度バッファと呼ばれるメモリ領域に記録されている深度値のデータ(以下、「深度データ」という。)に相当する。換言すれば、シーン画像取得部40は、理想カメラにより3次元シーン(例えば、カラー画像)のCGレンダリングを行い、CGレンダリングした投影画像とその画像の各画素の深度データとを保持する。 The scene image acquisition unit 40 acquires a specific scene image. This specific scene image is created using computer graphics. FIG. 11 is a diagram illustrating a specific scene image. The specific scene image includes, for example, one or more objects. For example, the scene image acquisition unit 40 creates a two-dimensional image in a straight-view state obtained by perspectively projecting a three-dimensional scene as a specific scene image by executing a drawing process using computer graphics. Further, the scene image acquisition unit 40 acquires distance data of each pixel of the specific scene image. The distance data for each pixel corresponds to depth value data (hereinafter referred to as "depth data") recorded in a memory area called a depth buffer. In other words, the scene image acquisition unit 40 performs CG rendering of a three-dimensional scene (for example, a color image) using an ideal camera, and holds a CG rendered projection image and depth data of each pixel of the image.

情報取得部41は、利用者の視線方向と瞳孔径とを取得する。例えば、利用者は、視線追跡装置を装着している。情報取得部41は、利用者が装着している視線追跡装置から、当該利用者の視線方向と瞳孔径とを取得する。なお、情報取得部41は、視線追跡装置以外から利用者の視線方向と瞳孔径とを取得してもよい。例えば、情報取得部41は、視線方向を真正面として取得してもよい。すなわち、利用者の視線方向が真正面として予め設定されてもよい。また、利用者の瞳孔径は、固定値として予め所定の値が設定されてもよい。また、情報取得部41は、利用者の瞳孔径を固定値とはせずに、特定シーンの明るさ又は凝視物体との距離に応じて瞳孔径を変化させてもよい。すなわち、情報取得部41は、特定シーンの明るさ又は凝視物体との距離に応じた瞳孔径の値を求めることで、利用者の瞳孔径を取得してもよい。 The information acquisition unit 41 acquires the user's gaze direction and pupil diameter. For example, the user is wearing an eye tracking device. The information acquisition unit 41 acquires the gaze direction and pupil diameter of the user from the gaze tracking device worn by the user. Note that the information acquisition unit 41 may acquire the user's gaze direction and pupil diameter from a source other than the gaze tracking device. For example, the information acquisition unit 41 may acquire the information with the viewing direction set directly in front. That is, the user's line of sight direction may be set in advance as directly ahead. Further, the pupil diameter of the user may be set to a predetermined value in advance as a fixed value. Further, the information acquisition unit 41 may change the pupil diameter of the user according to the brightness of a specific scene or the distance to the gazed object, instead of setting the pupil diameter to a fixed value. That is, the information acquisition unit 41 may acquire the pupil diameter of the user by determining the value of the pupil diameter according to the brightness of the specific scene or the distance to the gazed object.

情報取得部41は、利用者の視線方向における物体距離を取得する。物体距離とは、個別眼球モデルMeの基準位置からシーン画像内の特定画素に対応する空間位置までの距離である。例えば、情報取得部41は、個別眼球モデルMeの眼球の基準位置から視線方向に向けて光線を射出する。情報取得部41は、その光線と特定シーン画像内の物体との衝突判定により、その光線と物体との最短の交点を求める。情報取得部41は、光線と物体との交点を求めると、その交点と眼球の基準位置との長さを求めることで物体距離を求める。 The information acquisition unit 41 acquires the object distance in the user's line of sight direction. The object distance is the distance from the reference position of the individual eyeball model Me to the spatial position corresponding to a specific pixel in the scene image. For example, the information acquisition unit 41 emits a light beam from the reference position of the eyeball of the individual eyeball model Me toward the line of sight direction. The information acquisition unit 41 determines the shortest point of intersection between the light ray and the object by determining a collision between the light ray and the object in the specific scene image. When the information acquisition unit 41 determines the intersection between the light ray and the object, the information acquisition unit 41 determines the object distance by determining the length between the intersection and the reference position of the eyeball.

画像フィルタ生成部42は、記憶装置4に格納されているPSFデータを含む情報に基づいて、画像処理フィルタを生成する。例えば、画像フィルタ生成部42は、連続量の点像広がり関数から特定シーン画像の画素幅に合わせた離散値の画像処理フィルタを生成する。図12は、画像処理フィルタの模式図である。図12の画像処理フィルタは、20mm×20mm領域のPSFデータから光線広がり範囲2.852mm×2.852mmを抽出し、物理画素幅が0.051855mmとなるように55×55個の数値行列の画像処理フィルタを作成した例である。以下に、画像フィルタ生成部42における画像処理フィルタの作成方法の一例について説明する。図13は、画像処理フィルタの作成方法を説明する図である。 The image filter generation unit 42 generates an image processing filter based on information including PSF data stored in the storage device 4. For example, the image filter generation unit 42 generates a discrete value image processing filter that matches the pixel width of a specific scene image from a continuous point spread function. FIG. 12 is a schematic diagram of an image processing filter. The image processing filter in Figure 12 extracts a ray spread range of 2.852 mm x 2.852 mm from PSF data of a 20 mm x 20 mm area, and creates an image of 55 x 55 numerical matrices so that the physical pixel width is 0.051855 mm. This is an example of creating a processing filter. An example of a method for creating an image processing filter in the image filter generation section 42 will be described below. FIG. 13 is a diagram illustrating a method for creating an image processing filter.

画像フィルタ生成部42は、画像処理フィルタを作成するにあたって、複数の調節レベルから1つの調節レベルを決定する。例えば、画像フィルタ生成部42は、情報取得部41で取得された物体距離にある物体を個別眼球モデルMeで見るのに必要な調節力(以下、「必要調節力」という。)Paccomを求める。Paccomは、次式で算出される。dobjは、物体距離である。 The image filter generation unit 42 determines one adjustment level from a plurality of adjustment levels when creating an image processing filter. For example, the image filter generation unit 42 calculates the accommodation force (hereinafter referred to as “required accommodation force”) P accom required for the individual eyeball model Me to view an object at the object distance acquired by the information acquisition unit 41. . P accom is calculated by the following formula. d obj is the object distance.

Figure 2024004042000005
Figure 2024004042000005

この必要調節力Paccomが最大調節力以上の場合は、必要調節力Paccomを最大調節力とする。必要調節力Paccomと調節レベルが一致しない場合は、必要調節力Paccomを囲む調節レベルのデータを線形補間してデータを利用する。 If this required adjustment force P accom is greater than or equal to the maximum adjustment force, the required adjustment force P accom is set as the maximum adjustment force. If the required adjustment force P acom and the adjustment level do not match, the data of the adjustment levels surrounding the required adjustment force P acom are linearly interpolated and used.

例えば、PSFデータが格子点ごと、調節レベルごと、及び瞳孔径レベルごとに準備されている。この場合において、画像フィルタ生成部42は、図13(a)に示す物体位置Pobjを囲む8点のPSFデータを作成する。以下の式に示すように、この8点には、それぞれ調節レベル数をq、瞳孔径数をmとしてq×m要素のPSFデータ行列[Ii](i=0,1,…,7)が割当てられている。iは各格子点の位置を区別するものである。ここで、数(5)のa~aが各調整レベルを示し、b~bが各瞳孔径レベルを示す。例えば、調整レベルaの添え字は、各調整レベルを区別するものであって、例えば、調整レベルの低い順から数えて何番目の調整レベルであるかを表している。例えば、瞳孔径レベルbの添え字は、各瞳孔径レベルを区別するものであって、例えば、瞳孔径レベルの低い順から数えて何番目の瞳孔径レベルであるかを表している。 For example, PSF data is prepared for each grid point, each accommodation level, and each pupil diameter level. In this case, the image filter generation unit 42 creates PSF data of eight points surrounding the object position Pobj shown in FIG. 13(a). As shown in the equation below, each of these eight points has a PSF data matrix [Ii] of q×m elements (i=0, 1,..., 7), where q is the number of accommodation levels and m is the number of pupil diameters. Assigned. i distinguishes the position of each grid point. Here, a 0 to a q in equation (5) indicate each adjustment level, and b 0 to b m indicate each pupil diameter level. For example, the suffix of adjustment level a distinguishes each adjustment level, and represents, for example, the number of the adjustment level in the ascending order of adjustment levels. For example, the subscript of pupil diameter level b distinguishes each pupil diameter level, and represents, for example, the number of the pupil diameter level counting from the lowest pupil diameter level.

Figure 2024004042000006
Figure 2024004042000006

画像フィルタ生成部42は、上記に示すPSFデータ行列[Ii]から、現在の調節レベルのPSFデータ配列[I´i]を作成する。PSFデータ配列[I´i]は、例えば、次式で表される。 The image filter generation unit 42 creates a PSF data array [I'i] of the current adjustment level from the PSF data matrix [Ii] shown above. The PSF data array [I'i] is expressed, for example, by the following equation.

Figure 2024004042000007
Figure 2024004042000007

PSFデータ配列[I´i]の各要素は、調節レベルa0,a1,…,aから現在の調節量acurを含む区間[a・ak+1]を得て、Ii(a,b)とIi(ak+1,b)からIi(acur,b)を補間により計算される。線形補間の場合には、t=(acur-a)/(ak+1-a)として以下の式で計算する。kは1~qのいずれかの数である。jは、1からmのいずれかの数である。 Each element of the PSF data array [I'i] obtains an interval [a k・a k+1 ] including the current adjustment amount a cur from the adjustment levels a 0 , a 1 ,...,a q , and Ii( Ii (a cur , b j ) is calculated from a k , b j ) and Ii (a k+1 , b j ) by interpolation. In the case of linear interpolation, t=(acur-a k )/(a k+1 -a k ) and the calculation is performed using the following formula. k is any number from 1 to q. j is any number from 1 to m.

Figure 2024004042000008
Figure 2024004042000008

なお、現在の調節量acurが、最大調節量以上の場合は、以下の式に示すように、調節レベルaqのPSFデータをそのまま利用する。 Note that if the current adjustment amount a cur is greater than or equal to the maximum adjustment amount, the PSF data of the adjustment level a q is used as is, as shown in the following equation.

Figure 2024004042000009
Figure 2024004042000009

例えば、眼前300mmに物体がある場合には、3.33Dの調節量が必要となる。最大調節量4.00Dで調節量0.00D,2.00D,4.00Dに対する点像広がり関数データが、a,a,aとして保持されている場合には、画像フィルタ生成部42は、2.00Dと4.00Dに対応するa,aのPSFデータを補間して取得する。一例として、2.00DのPSFデータをIi(a,b)、4.00DのPSFデータをIi(a,b)とすると、t=(3.33-2)/(4.00-2.00)=1.33/2=0.665として、現在の調節量に対応するPSFデータは、以下の式で表される。 For example, if there is an object 300 mm in front of the eyes, an adjustment amount of 3.33D is required. When the maximum adjustment amount is 4.00D and the point spread function data for adjustment amounts of 0.00D, 2.00D, and 4.00D are held as a 0 , a 1 , and a 2 , the image filter generation unit 42 is obtained by interpolating the PSF data of a 1 and a 2 corresponding to 2.00D and 4.00D. As an example, if 2.00D PSF data is Ii(a 1 , b j ) and 4.00D PSF data is Ii(a 2 , b j ), then t=(3.33-2)/(4. 00-2.00)=1.33/2=0.665, the PSF data corresponding to the current adjustment amount is expressed by the following formula.

Figure 2024004042000010
Figure 2024004042000010

最大調節量1.50Dで調節量0.00D,1.00D,1.50DのPSFデータがa,a,aとして保持されている場合には、aのPSFデータを次式に示すようにそのまま利用する。 When the maximum adjustment amount is 1.50D and the PSF data of adjustment amounts of 0.00D, 1.00D, and 1.50D are held as a 0 , a 1 , and a 2 , the PSF data of a 2 can be calculated using the following formula. Use as shown.

Figure 2024004042000011
Figure 2024004042000011

次に、画像フィルタ生成部42は、現在の調節レベルのPSFデータ配列[I´i]から、現在の瞳孔径bcurに対応するPSFデータIi(acur,bcur)を取得する。例えば、瞳孔径レベルb,b,…, bから現在の瞳孔径bcurを含む区間[b.bk+1]を得て、Ii(acur,b)とIi(acur,bk+1)から、PSFデータIi(acur,bcur)を補間により計算する。この線形補間の場合には、t=(bcur-b)/(bk+1-b)として以下の式で計算する。 Next, the image filter generation unit 42 obtains PSF data Ii (a cur , b cur ) corresponding to the current pupil diameter b cur from the PSF data array [I'i] of the current accommodation level. For example , an interval [ b k . b k+1 ] is obtained, and PSF data Ii (a cur , b cur ) is calculated from Ii (a cur , b k ) and Ii ( a cur , b k+1 ) by interpolation. In the case of this linear interpolation, t=(b cur -b k )/(b k+1 -b k ) and is calculated using the following formula.

Figure 2024004042000012
Figure 2024004042000012

現在の瞳孔径bcurが最大瞳孔径以上の場合は、以下の式に示すように、瞳孔径レベルbのPSFデータをそのまま利用する。 If the current pupil diameter b cur is greater than or equal to the maximum pupil diameter, the PSF data of the pupil diameter level b m is used as is, as shown in the following equation.

Figure 2024004042000013
Figure 2024004042000013

なお、瞳孔径0.0mmに対応する瞳孔径レベルbのPSFデータは、中心部のみ値をもつ点結像のデータを保持してもよい。 Note that the PSF data at the pupil diameter level b 0 corresponding to a pupil diameter of 0.0 mm may hold point imaging data having values only at the center.

画像フィルタ生成部42は、PSFデータIi(acur,bcur)から畳み込み演算用の画像処理フィルタを作成する。物体距離dobj、視野角θh、θvで表示面のピクセルサイズをW(width)×H(height)とした場合の、1画素の物理サイズは、X方向の長さΔpx、Y方向の長さΔpyとした場合に、以下の式で表される。 The image filter generation unit 42 creates an image processing filter for convolution calculation from the PSF data Ii (a cur , b cur ). When the pixel size of the display surface is W (width) x H (height) with object distance d obj and viewing angles θh and θv, the physical size of one pixel is the length in the X direction Δpx and the length in the Y direction When Δpy, it is expressed by the following formula.

Figure 2024004042000014
Figure 2024004042000014

画素は正方形(pΔx=pΔy)となるように視野角θh、θvで調整されると仮定する。PSFデータIは、連続量の分布である。そのため、画像フィルタ生成部42は、PSFデータの分布から画素サイズの領域を積分して、その積分値を画像処理フィルタのカーネル値とする。光線の広がり範囲である画像処理フィルタのカーネル物理サイズは、錯乱楕円計算にて事前に計算した錯乱楕円の外接正方形サイズとする。このとき、画像フィルタ生成部42は、対象画素空間位置を囲む8つの格子点のデータ群から、線形補間して錯乱楕円データを取得する。 It is assumed that the pixels are adjusted with viewing angles θh and θv so that they form a square (pΔx=pΔy). PSF data I is a distribution of continuous quantities. Therefore, the image filter generation unit 42 integrates a region of pixel size from the distribution of PSF data, and uses the integrated value as the kernel value of the image processing filter. The kernel physical size of the image processing filter, which is the spread range of the light beam, is the size of the circumscribed square of the confusion ellipse calculated in advance by confusion ellipse calculation. At this time, the image filter generation unit 42 performs linear interpolation to obtain confusion ellipse data from a data group of eight grid points surrounding the target pixel spatial position.

画像フィルタ生成部42は、外接する正方形サイズQEoCと1画素サイズpΔxとから以下に示す式を用いて、画像処理フィルタの画素数nを算出する。 The image filter generation unit 42 calculates the number of pixels n of the image processing filter from the circumscribed square size Q EoC and the one pixel size pΔx using the formula shown below.

Figure 2024004042000015
Figure 2024004042000015

画像フィルタ生成部42は、画像処理フィルタの画素数nが偶数の場合には、その画素数nに1を加えて奇数にする。画像フィルタ生成部42は、画像処理フィルタの画素数n×n内の各領域を面積分してフィルタ値を設定することで画像処理フィルタFijを生成する。図14は、画像処理フィルタFijを説明する図である。 When the number n of pixels of the image processing filter is an even number, the image filter generation unit 42 adds 1 to the number n of pixels to make it an odd number. The image filter generation unit 42 generates an image processing filter Fij by area-integrating each region within the number of pixels n×n of the image processing filter and setting a filter value. FIG. 14 is a diagram illustrating the image processing filter Fij.

Figure 2024004042000016
Figure 2024004042000016

画像処理部43は、歪み変位量に合わせて特定シーン画像を歪ませる歪み処理を行う。画像処理部43は、歪み変位量を含む情報に基づいて、特定シーン画像(図15(a))に対して歪み処理を行う。例えば、画像処理部43は、歪み変位量のベクトル配列データと、特定シーン画像の距離データとを用いて、特定シーン画像とその距離データとに対して歪み処理を行う。図15は、本実施形態に係る歪み処理を説明する図である。例えば、画像処理部43は、図15に示すように、歪み変位量を適用することで、特定シーン画像の画素データCz(u-Δx,v-Δy)を歪み先の画素データCz´(u,v)に置き換える。すなわち、画像処理部43は、特定シーン画像の歪み先の画素の色をサンプリングする。これにより、歪み処理が適用された特定シーン画像(図15(b))が生成される。 The image processing unit 43 performs distortion processing to distort the specific scene image in accordance with the amount of distortion displacement. The image processing unit 43 performs distortion processing on the specific scene image (FIG. 15(a)) based on information including the amount of distortion displacement. For example, the image processing unit 43 performs distortion processing on the specific scene image and its distance data using the vector array data of the amount of distortion displacement and the distance data of the specific scene image. FIG. 15 is a diagram illustrating distortion processing according to this embodiment. For example, as shown in FIG. 15, by applying the distortion displacement amount, the image processing unit 43 transforms the pixel data Cz (u-Δx, v-Δy) of the specific scene image into the pixel data Cz' (u , v). That is, the image processing unit 43 samples the color of the distortion destination pixel of the specific scene image. As a result, a specific scene image (FIG. 15(b)) to which distortion processing has been applied is generated.

また、画像処理部43は、歪み変位量を適用することで、距離データz(u-Δx,v-Δy)も歪み先の距離z´(u,v)に置き換える。なお、歪み変位量は、物体距離によって変化する。そのため、画像処理部43は、単位距離での歪み変位量に物体距離をかけて適用する。これより、歪み画像における距離データにおいても歪み変位量が適用される。 Furthermore, by applying the distortion displacement amount, the image processing unit 43 also replaces the distance data z (u−Δx, v−Δy) with the distortion destination distance z′ (u, v). Note that the amount of distortion displacement changes depending on the object distance. Therefore, the image processing unit 43 multiplies the amount of distortion displacement per unit distance by the object distance. From this, the distortion displacement amount is also applied to the distance data in the distortion image.

画像処理部43は、画像処理フィルタを含む情報に基づいて、歪み処理を加えた特定シーン画像にボケ処理を行う。これにより、シミュレーション画像が生成される。図16は、本実施形態に係るボケ処理を説明する図である。図16に示すように、例えば、画像処理部43は、歪み処理が行われた特定シーン画像に対して、距離データに応じた画像処理フィルタを用いて畳み込み演算を行うことによりシミュレーション画像を生成する。次式は、畳み込み演算を用いたボケ処理の一例を示す式である。なお、Sは、予め設定された数であり、例えば16である。Rは、歪み処理が行われた特定シーン画像の画素データを示す。 The image processing unit 43 performs blur processing on the specific scene image subjected to distortion processing based on information including the image processing filter. As a result, a simulation image is generated. FIG. 16 is a diagram illustrating blur processing according to this embodiment. As shown in FIG. 16, for example, the image processing unit 43 generates a simulation image by performing a convolution operation on a specific scene image that has been subjected to distortion processing using an image processing filter according to distance data. . The following equation is an example of blur processing using convolution calculation. Note that S is a preset number, for example, 16. R indicates pixel data of a specific scene image that has been subjected to distortion processing.

Figure 2024004042000017
Figure 2024004042000017

画像処理部43によって生成されたシミュレーション画像は、出力装置6によって表示装置3に静止画又は動画として表示される。動画として表示される場合には、動画のフレームごとにシミュレーション画像を生成して表示装置3に表示する処理を行うことで、眼鏡レンズを通した見え方を動画として表示装置3に表示することができる。シミュレーション画像は、動画のフレームである。これにより、注視点を移動した場合などの見え方を再現できる。 The simulation image generated by the image processing unit 43 is displayed on the display device 3 by the output device 6 as a still image or a moving image. When displayed as a video, by performing processing to generate a simulation image for each frame of the video and displaying it on the display device 3, it is possible to display the appearance through the eyeglass lenses on the display device 3 as a video. can. The simulation image is a frame of a moving image. With this, it is possible to reproduce the appearance when the point of gaze is moved.

以下に、本実施形態に係る見え方シミュレーションの流れについて説明する。このシミュレーションには、大別して、個別眼球モデルの作成処理と、事前データ作成処理と、リアルタイム処理との3つの処理がある。まず、図17を参照して、個別眼球モデルの作成処理の流れの一例について説明する。 The flow of the visual appearance simulation according to this embodiment will be described below. This simulation can be roughly divided into three types of processing: individual eyeball model creation processing, preliminary data creation processing, and real-time processing. First, with reference to FIG. 17, an example of the flow of the individual eyeball model creation process will be described.

モデル構築部11は、標準眼球モデルを生成する(ステップS101)。モデル構築部11は、利用者の眼球に関する眼球情報を外部から取得すると、その取得した眼球情報の中に、測定データが含まれているか否かを判定する(ステップS102)。モデル構築部11は、眼球情報の中に、測定データが含まれている場合には、その測定データを標準眼球モデルに適用する(ステップS103)。モデル構築部11は、ステップS103の処理を行った後、裸眼処方に基づいて、測定データが適用された標準眼球モデル(第1眼球モデル)の眼軸長を決定する(ステップS104)。また、モデル構築部11は、第1眼球モデルの眼軸長を決定した後に、裸眼処方に基づいて、角膜後面トーリックパラメータを設定する(ステップS105)。 The model construction unit 11 generates a standard eyeball model (step S101). When the model construction unit 11 acquires eyeball information regarding the user's eyeballs from the outside, it determines whether measurement data is included in the acquired eyeball information (step S102). If the eyeball information includes measurement data, the model construction unit 11 applies the measurement data to the standard eyeball model (step S103). After performing the process in step S103, the model construction unit 11 determines the axial length of the standard eyeball model (first eyeball model) to which the measurement data is applied based on the naked eye prescription (step S104). Furthermore, after determining the axial length of the first eyeball model, the model construction unit 11 sets posterior corneal toric parameters based on the naked eye prescription (step S105).

モデル構築部11は、眼軸長及び角膜後面トーリックパラメータが設定された第1眼球モデル(第2眼球モデル)に対して、角膜前面自由曲面の形状データを適用することで、角膜の前面を非球面化する(ステップS106)。また、モデル構築部11は、第2眼球モデルの角膜後面を自由曲面形状として調整することにより、測定データの1つである角膜前面頂点位置での波面データと一致するように置き換える(ステップS107)。これにより、モデル構築部11は、第2眼球モデルにおける角膜の後面を非球面化する。 The model construction unit 11 applies the shape data of the free-form surface of the anterior surface of the cornea to the first eye model (second eye model) in which the axial length and the posterior corneal toric parameter are set, so that the anterior surface of the cornea is not reconstructed. It is made into a spherical surface (step S106). In addition, the model construction unit 11 adjusts the posterior corneal surface of the second eyeball model to have a free-form surface shape so that it matches the wavefront data at the anterior corneal apex position, which is one of the measured data (step S107). . Thereby, the model construction unit 11 aspherics the posterior surface of the cornea in the second eyeball model.

ステップS102において、モデル構築部11は、眼球情報の中に、測定データが含まれていない場合には、眼軸長を優先するか否かを判定する(ステップS108)。なお、例えば、眼軸長を優先するか否かは、予め設定されており、シミュレーション装置2の管理者などによって切り替え可能である。また、ステップS108の処理は、省略可能である。モデル構築部11は、眼軸長を優先すると判定した場合には、眼軸長さを第3可変パラメータに設定し、標準眼球モデルの平均屈折率が、眼鏡処方から求められる平均屈折力に一致するように第3可変パラメータを調整する(ステップS109)。ステップS109を実行すると、ステップS110に移行する。モデル構築部11は、眼軸長を優先しないと判定した場合には、ステップS110に移行する。ステップS110において、モデル構築部11は、角膜前面トーリックパラメータを第4可変パラメータに設定し、標準眼球モデルの各経線方向の屈折力が、眼鏡処方から求められる各経線方向の目標屈折力に一致するように角膜前面トーリックパラメータを調整する(ステップS110)。 In step S102, if the measurement data is not included in the eyeball information, the model construction unit 11 determines whether or not to give priority to the axial length (step S108). Note that, for example, whether or not to give priority to the axial length is set in advance and can be switched by the administrator of the simulation device 2 or the like. Further, the process of step S108 can be omitted. When the model construction unit 11 determines that priority is given to the axial length, the axial length is set as the third variable parameter, and the average refractive index of the standard eyeball model matches the average refractive power determined from the glasses prescription. The third variable parameter is adjusted so as to (step S109). After step S109 is executed, the process moves to step S110. When the model construction unit 11 determines that the axial length is not prioritized, the process proceeds to step S110. In step S110, the model construction unit 11 sets the corneal front surface toric parameter as the fourth variable parameter so that the refractive power in each meridian direction of the standard eyeball model matches the target refractive power in each meridian direction determined from the glasses prescription. The anterior corneal toric parameters are adjusted as follows (step S110).

モデル構築部11は、ステップS109において、標準眼球モデルの平均屈折率が、眼鏡処方から求められる平均屈折力に一致したか否かを判定する(ステップS111)。モデル構築部11は、標準眼球モデルの平均屈折率が、眼鏡処方から求められる平均屈折力に一致したと判定した場合には、そのときの第3可変パラメータを眼軸長に決定する。モデル構築部11は、標準眼球モデルの平均屈折率が、眼鏡処方から求められる平均屈折力に一致していないと判定した場合には、ステップS109に移行する。 In step S109, the model construction unit 11 determines whether the average refractive index of the standard eyeball model matches the average refractive power determined from the eyeglass prescription (step S111). When the model construction unit 11 determines that the average refractive index of the standard eyeball model matches the average refractive power determined from the eyeglass prescription, the model construction unit 11 determines the axial length as the third variable parameter at that time. If the model construction unit 11 determines that the average refractive index of the standard eyeball model does not match the average refractive power determined from the eyeglass prescription, the process proceeds to step S109.

また、モデル構築部11は、ステップS111において、標準眼球モデルの各経線方向の屈折力が、眼鏡処方から求められる各経線方向の目標屈折力に一致したか否かを判定する。モデル構築部11は、ステップS111において、標準眼球モデルの各経線方向の屈折力が、眼鏡処方から求められる各経線方向の目標屈折力に一致した場合には、そのときの第4可変パラメータを角膜前面トーリックパラメータに決定する。モデル構築部11は、ステップS111において、標準眼球モデルの各経線方向の屈折力が、眼鏡処方から求められる各経線方向の目標屈折力に一致していないと判定した場合には、ステップS109に移行する。 Furthermore, in step S111, the model construction unit 11 determines whether the refractive power of the standard eyeball model in each meridian direction matches the target refractive power in each meridian direction determined from the eyeglass prescription. In step S111, if the refractive power in each meridian direction of the standard eyeball model matches the target refractive power in each meridian direction determined from the glasses prescription, the model construction unit 11 sets the fourth variable parameter at that time to the corneal Decide on the front toric parameters. If the model construction unit 11 determines in step S111 that the refractive power in each meridian direction of the standard eyeball model does not match the target refractive power in each meridian direction determined from the glasses prescription, the process proceeds to step S109. do.

モデル構築部11は、ステップS113からステップS115までのループ処理Aを、複数の調節レベルのそれぞれにおいて終了するまで繰り返す(ステップS112~ステップS116)。ステップS112において、モデル構築部11は、瞳孔中心を通る光線についての後方光線追跡を行う。ステップS113において、モデル構築部11は、水晶体の曲率と水晶体の頂点位置とを可変パラメータとして、後方光線追跡によって得られる角膜の頂点位置での平均パワーが目標の調節力に一致するまで当該可変パラメータを調整する。これにより、水晶体のパラメータが更新され、個別眼球モデルMeが構築される。ステップS114において、モデル構築部11は、各調節力に対応した個別眼球モデルMeを、データベースとして記憶装置4に格納する。 The model construction unit 11 repeats the loop process A from step S113 to step S115 until it is completed at each of the plurality of adjustment levels (steps S112 to S116). In step S112, the model construction unit 11 performs backward ray tracing of the ray passing through the center of the pupil. In step S113, the model construction unit 11 sets the curvature of the crystalline lens and the apex position of the crystalline lens as variable parameters, and uses the variable parameters until the average power at the apex position of the cornea obtained by backward ray tracing matches the target accommodation power. Adjust. Thereby, the parameters of the crystalline lens are updated and the individual eyeball model Me is constructed. In step S114, the model construction unit 11 stores the individual eyeball model Me corresponding to each accommodation force in the storage device 4 as a database.

次に、図18を参照して、事前データ作成処理の流れの一例について説明する。事前データ作成処理は、個別眼球モデルの作成処理の後に実行される。データ計算部12は、仮想空間上において視錐台110の領域を設定し、その視錐台110内に複数の格子点を生成する(ステップS201)。そして、データ計算部12は、ステップS203からステップS212までのループ処理Bを、すべての格子点のそれぞれにおいて終了するまで繰り返す(ステップS202~ステップS213)。すなわち、すべての格子点のそれぞれを順番に特定格子点として設定し、ループ処理Bを実行する。 Next, an example of the flow of preliminary data creation processing will be described with reference to FIG. 18. The preliminary data creation process is executed after the individual eyeball model creation process. The data calculation unit 12 sets a region of the view frustum 110 in the virtual space, and generates a plurality of lattice points within the view frustum 110 (step S201). Then, the data calculation unit 12 repeats the loop processing B from step S203 to step S212 until it is completed at each of all grid points (steps S202 to S213). That is, all the grid points are sequentially set as specific grid points, and loop processing B is executed.

ステップS203において、データ計算部12は、眼鏡レンズがある状態での光線が特定格子点に向かうときの視線方向を決定し、その視線方向において、眼鏡レンズがない状態での光線光路を決定する(ステップS203)。そして、データ計算部12は、眼鏡レンズがない状態での光線光路とXY平面との交点と、特定格子点との差分を歪み変位量として計算する(ステップS204)。これにより、格子点のそれぞれにおいて、歪み変位量が割り当てられる。 In step S203, the data calculation unit 12 determines the line-of-sight direction when the light ray heads toward a specific grid point when the eyeglass lens is present, and determines the ray optical path when the eyeglass lens is not present in the line-of-sight direction ( Step S203). Then, the data calculation unit 12 calculates the difference between the intersection of the light beam path and the XY plane without the spectacle lens and the specific grid point as the amount of distortion displacement (step S204). As a result, a strain displacement amount is assigned to each grid point.

データ計算部12は、ステップS206からステップS211までのループ処理Cを、すべての調節レベルのそれぞれにおいて終了するまで繰り返す(ステップS205~ステップS212)。 The data calculation unit 12 repeats the loop processing C from step S206 to step S211 until it is completed at each of all adjustment levels (steps S205 to S212).

ステップS206において、データ計算部12は、ステップS207からステップS210までのループ処理Dを、すべての瞳孔径レベルのそれぞれにおいて終了するまで繰り返す。 In step S206, the data calculation unit 12 repeats the loop processing D from step S207 to step S210 until it is completed for each of all pupil diameter levels.

ステップS207において、データ計算部12は、個別眼球モデルMeの網膜中心窩から射出させた多数の光線と、個別眼球モデルMeの角膜前面又は眼鏡レンズモデルMgのレンズ前面との交点位置において、それぞれの光線のOPLが主光線のOPLとなる点の分布をゼルニケ多項式面でフィッティングして求めることで眼鏡レンズモデルMgの前面での波面を計算する。 In step S207, the data calculation unit 12 calculates each of the multiple light rays emitted from the fovea of the retina of the individual eyeball model Me at the intersection position of the front surface of the cornea of the individual eyeball model Me or the front surface of the lens of the spectacle lens model Mg. The wavefront at the front surface of the eyeglass lens model Mg is calculated by fitting the distribution of points where the OPL of the light ray is the OPL of the chief ray using a Zernike polynomial surface.

ステップS208において、データ計算部12は、ステップS207の波面計算によって計算された波面と、特定格子点が位置する平面との交差領域(錯乱楕円)を計算することで、錯乱楕円の形状データを求める。これにより、格子点のそれぞれにおいて、調節レベルごと且つ瞳孔径ごとの錯乱楕円の形状データが割り当てられる。 In step S208, the data calculation unit 12 calculates the shape data of the confusion ellipse by calculating the intersection area (confusion ellipse) between the wavefront calculated by the wavefront calculation in step S207 and the plane in which the specific grid point is located. . As a result, shape data of the confusion ellipse is assigned to each grid point for each accommodation level and each pupil diameter.

ステップS209において、データ計算部12は、特定格子点において、ステップS207の波面計算によって求められた波面と、理想波面との差分面を波面収差として計算する。ステップS210において、データ計算部12は、ステップS209によって計算された波面収差に基づいて、点像広がり関数を計算する。これにより、格子点のそれぞれにおいて、調節レベルごと且つ瞳孔径ごとの点像広がり関数が割り当てられる。 In step S209, the data calculation unit 12 calculates the difference surface between the wavefront obtained by the wavefront calculation in step S207 and the ideal wavefront at the specific grid point as a wavefront aberration. In step S210, the data calculation unit 12 calculates a point spread function based on the wavefront aberration calculated in step S209. As a result, a point spread function is assigned to each grid point for each accommodation level and each pupil diameter.

次に、図19を参照して、リアルタイム処理の流れの一例について説明する。リアルタイム処理は、事前データ作成処理の後に実行される。このリアルタイム処理では、例えば、利用者に装着された視線追跡装置からの視線方向又は瞳孔径に応じてリアルタイムでシミュレーション画像を表示装置3に表示させる。ここで、リアルタイムとは、視線追跡装置とシミュレーション装置2との通信時間及びシミュレーション装置2の処理時間を含んでもよい。例えば、利用者の視線や瞳孔径に応じてシミュレーション画像を変化させるにあたって、利用者の視線や瞳孔径の変化と、シミュレーション画像の変化との間は、同一の時間である必要はなく、上記通信時間及び上記処理時間に相当する時間の遅れを含んでもよい。 Next, an example of the flow of real-time processing will be described with reference to FIG. 19. Real-time processing is performed after preliminary data creation processing. In this real-time processing, for example, a simulation image is displayed on the display device 3 in real time according to the line-of-sight direction or pupil diameter from a line-of-sight tracking device worn by the user. Here, real time may include the communication time between the eye tracking device and the simulation device 2 and the processing time of the simulation device 2. For example, when changing a simulation image according to the user's line of sight or pupil diameter, the change in the user's line of sight or pupil diameter and the change in the simulation image do not need to occur at the same time; It may also include a time delay corresponding to the above processing time.

画像処理部43は、ステップS302からステップS306までのループ処理Eを、動画のフレームごとに繰り返す(ステップS301~ステップS316)。 The image processing unit 43 repeats the loop processing E from step S302 to step S306 for each frame of the moving image (steps S301 to S316).

ステップS302において、画像処理部43は、コンピュータグラフィックスによって特定シーン画像を取得する。ステップS303において、画像処理部43は、利用者が装着している視線追跡装置から、当該利用者の視線方向と瞳孔径とを取得する。 In step S302, the image processing unit 43 acquires a specific scene image using computer graphics. In step S303, the image processing unit 43 acquires the user's gaze direction and pupil diameter from the gaze tracking device worn by the user.

ステップS304において、画像処理部43は、ステップS303で取得した視線方向にある特定シーン画像内の物体と、眼球の基準位置との長さである物体距離を求める。ステップS305において、画像処理部43は、複数の調節レベルの中から、ステップS304で求めた物体距離にある物体を個別眼球モデルMeで見るのに必要な調節力に相当する調節レベルを決定する。 In step S304, the image processing unit 43 calculates the object distance, which is the length between the object in the specific scene image in the line-of-sight direction acquired in step S303 and the reference position of the eyeball. In step S305, the image processing unit 43 determines, from among the plurality of accommodation levels, an accommodation level corresponding to the accommodation power necessary for the individual eyeball model Me to view an object at the object distance determined in step S304.

ステップS306において、画像処理部43は、ステップS305で決定した調節レベルに対応する点像広がり関数に基づいて、ボケ処理を行うための画像処理フィルタを生成する。ステップS307において、画像処理部43は、特定シーン画像と同じサイズの画像格納領域を確保し、この同じサイズの特定シーン画像の画素ごとに、ステップS308からステップS309までのループ処理Fを実行する。 In step S306, the image processing unit 43 generates an image processing filter for performing blur processing based on the point spread function corresponding to the adjustment level determined in step S305. In step S307, the image processing unit 43 secures an image storage area of the same size as the specific scene image, and executes loop processing F from step S308 to step S309 for each pixel of the specific scene image of the same size.

ステップS308において、画像処理部43は、深度バッファから、対象となる画素の距離データを取得する。ステップS309において、画像処理部43は、ステップS308で取得した距離データと、歪みベクトル配列データとを用いて、特定シーン画像及び距離データに対して歪み処理を行う。 In step S308, the image processing unit 43 acquires distance data of the target pixel from the depth buffer. In step S309, the image processing unit 43 performs distortion processing on the specific scene image and distance data using the distance data acquired in step S308 and the distortion vector array data.

ステップS311において、画像処理部43は、特定シーン画像の画素ごとに、ステップS312からステップS313までのループ処理Gを実行する(ステップS311~ステップS314)。 In step S311, the image processing unit 43 executes loop processing G from step S312 to step S313 for each pixel of the specific scene image (steps S311 to S314).

ステップS312において、画像処理部43は、深度バッファから、対象となる画素の距離データを取得する。ステップS313において、画像処理部43は、ステップS312で取得した距離データと、画像処理フィルタとを用いて、歪み処理が行われた特定シーン画像に対してボケ処理を行う。ステップS315において、出力装置6は、ボケ処理が行われた特定シーン画像をシミュレーション画像として表示装置3に出力する。 In step S312, the image processing unit 43 acquires distance data of the target pixel from the depth buffer. In step S313, the image processing unit 43 uses the distance data acquired in step S312 and the image processing filter to perform blurring processing on the specific scene image that has been subjected to the distortion processing. In step S315, the output device 6 outputs the specific scene image subjected to the blurring process to the display device 3 as a simulation image.

以上、本実施形態に係るシミュレーション装置2は、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現する。シミュレーション装置2は、少なくとも、利用者の眼球に関する眼球情報と眼鏡レンズの設計情報とに基づいて、特定のシーンの見え方を示すシミュレーション画像を生成する。シミュレーション装置2は、生成したシミュレーション画像を表示装置3に出力する。従って、シミュレーションの精度が向上する。 As described above, the simulation device 2 according to the present embodiment reproduces how a specific scene is viewed by the user through the spectacle lens. The simulation device 2 generates a simulation image showing how a specific scene looks based on at least eyeball information regarding the user's eyeballs and design information of the spectacle lens. The simulation device 2 outputs the generated simulation image to the display device 3. Therefore, the accuracy of simulation is improved.

また、見え方のシミュレーションにおいて、光線追跡によって眼球と補正眼鏡レンズの収差を考慮して計算する場合が考えられる。しかしながら、光線追跡の計算量は膨大である場合が考えられ、リアルタイム処理において光線追跡を用いることは遅延の増大を引き起こしてしまう。本実施形態に係るシミュレーション装置2では、リアルタイム処理に光線追跡を用いていないため、リアルタイム処理の遅延を抑制することができる。 In addition, in the simulation of the appearance, calculations may be performed by taking into account aberrations between the eyeball and the correction spectacle lens by ray tracing. However, the amount of calculation required for ray tracing may be enormous, and using ray tracing in real-time processing causes an increase in delay. In the simulation device 2 according to this embodiment, since ray tracing is not used for real-time processing, delays in real-time processing can be suppressed.

シミュレーション装置2は、眼球情報を含む情報に基づいて利用者の眼球をモデル化した個別眼球モデルMeを生成し、記眼鏡レンズを通して個別眼球モデルMeから見えるシーンの見え方を表した画像をシミュレーション画像として生成してもよい。 The simulation device 2 generates an individual eyeball model Me that models the user's eyeball based on information including eyeball information, and generates an image representing the appearance of the scene seen from the individual eyeball model Me through the recording eyeglass lens as a simulation image. It may be generated as

シミュレーション装置2は、個人毎に異なる個別眼球モデルMeと、眼鏡レンズをモデル化した眼鏡レンズモデルMgとを有する光学系100を仮想空間に構築してもよい。この場合には、シミュレーション装置2は、コンピュータグラフィックスによって生成した特定シーン画像に対して、光学系100において個別眼球モデルMeの内部から眼鏡レンズモデルMgに向かう光線を追跡する後方光線追跡によって得られる情報に基づいて加工することでシミュレーション画像を生成してもよい。歪み処理は、加工の一例である。ボケ処理は、加工の一例である。 The simulation device 2 may construct an optical system 100 in a virtual space that includes an individual eyeball model Me that is different for each individual and a spectacle lens model Mg that models a spectacle lens. In this case, the simulation device 2 obtains a specific scene image generated by computer graphics by backward ray tracing in which the optical system 100 traces rays from inside the individual eyeball model Me toward the spectacle lens model Mg. A simulation image may be generated by processing based on the information. Distortion processing is an example of processing. Blur processing is an example of processing.

シミュレーション装置2は、後方光線追跡によって眼鏡レンズによって生じる視線方向の歪み変位量と眼鏡レンズの前面での波面収差とを算出し、波面収差からPSFを計算してもよい。シミュレーション装置2は、歪み変位量に応じた歪み処理と、PSFを含む情報に基づいたボケ処理とを特定シーン画像に対して行ってもよい。 The simulation device 2 may calculate the amount of distortion displacement in the line of sight direction caused by the eyeglass lens and the wavefront aberration at the front surface of the eyeglass lens by backward ray tracing, and calculate the PSF from the wavefront aberration. The simulation device 2 may perform distortion processing according to the amount of distortion displacement and blurring processing based on information including PSF on the specific scene image.

シミュレーション装置2は、フーリエ変換を用いて波面収差からPSFを算出してもよい。また、シミュレーション装置2は、PSFに基づいて、ボケ処理を行うための画像処理フィルタを生成し、歪み処理が行われた後の特定シーン画像に対して画像処理フィルタを含む情報に基づいてボケ処理を行ってもよい。 The simulation device 2 may calculate the PSF from the wavefront aberration using Fourier transform. The simulation device 2 also generates an image processing filter for performing blur processing based on the PSF, and performs blur processing on the specific scene image after distortion processing based on information including the image processing filter. You may do so.

シミュレーション装置2は、歪み変位量と、シーン画像の各画素の距離データとに基づいて歪み処理を行い、画像処理フィルタとその距離データとに基づいて、歪み処理が行われた後の特定シーン画像に対してボケ処理を行ってもよい。 The simulation device 2 performs distortion processing based on the amount of distortion displacement and distance data of each pixel of the scene image, and creates a specific scene image after the distortion processing based on the image processing filter and its distance data. Blur processing may be applied to the image.

シミュレーション装置2は、視線追跡装置から利用者の視線方向と瞳孔径との少なくともいずれかの情報を取得し、当該情報をさらに用いてシミュレーション画像を生成してもよい。 The simulation device 2 may acquire information on at least one of the user's gaze direction and pupil diameter from the gaze tracking device, and further use this information to generate a simulation image.

シミュレーション装置2は、フレームごとに生成されたシミュレーション画像を表示装置3に出力することで表示装置3に対して特定のシーンの見え方を動画として出力させてもよい。 The simulation device 2 may output a simulation image generated for each frame to the display device 3, thereby causing the display device 3 to output the appearance of a specific scene as a moving image.

以上、本発明を、実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the range described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the embodiments described above. It is clear from the claims that forms with such changes or improvements may also be included within the technical scope of the present invention.

上記実施形態において、シミュレーション装置2は、1つの装置として構成されているが、これに限定されない。例えば、シミュレーション装置2は、複数の装置から構成されてもよい。例えば、データ生成部10と、画像生成部20とは、それぞれ異なる装置であってもよい。すなわち、例えば、個別眼球モデルを作成する処理と、事前データ作成処理とが第1装置で実行され、リアルタイム処理が第1装置とは異なる第2装置で実行されてもよい。この場合には、第1装置と第2装置との間のネットワークは、有線でもよいし、無線でもよいし、その両方であってもよい。また、個別眼球モデルを作成する処理と、事前データ作成処理とがそれぞれ別の装置で実施されてもよい。 In the embodiment described above, the simulation device 2 is configured as one device, but the simulation device 2 is not limited to this. For example, the simulation device 2 may be composed of a plurality of devices. For example, the data generation section 10 and the image generation section 20 may be different devices. That is, for example, the process of creating an individual eyeball model and the preliminary data creation process may be executed by a first device, and the real-time processing may be executed by a second device different from the first device. In this case, the network between the first device and the second device may be wired, wireless, or both. Furthermore, the process of creating an individual eyeball model and the process of creating preliminary data may be performed by separate devices.

図20は、本実施形態に係るシミュレーションシステム1Aの構成例を示す図である。シミュレーションシステム1Aは、データ送信装置200と、モデル生成装置300と、記憶装置400と、事前データ生成装置500と、画像生成装置600と、表示装置3とを備える。 FIG. 20 is a diagram showing a configuration example of a simulation system 1A according to this embodiment. The simulation system 1A includes a data transmission device 200, a model generation device 300, a storage device 400, a preliminary data generation device 500, an image generation device 600, and a display device 3.

例えば、眼鏡店ESには、データ送信装置200が設けられている。データ送信装置200は、例えば、取得部210と、送信部220とを備える。取得部210は、例えば、眼鏡店ESに設置している波面収差測定装置などの測定装置から利用者の眼球情報を取得する。取得部210は、眼鏡店ESに設置されている又は眼鏡店ESが管理しているサーバなどの記憶媒体から利用者の眼球情報を取得してもよい。送信部220は、取得部210で取得した眼球情報を、個人毎に異なる眼球モデルを生成するモデル生成装置300に対して送信する。ここで、送信部220は、眼球情報をモデル生成装置300に送信するにあたって、利用者を識別する識別情報を、眼球情報に付加して送信してもよい。この識別情報は、個人を特定できれば特に限定されないが、例えば、名前やID番号などである。送信部220は、モデル生成装置300に対して、通信ネットワークNWを介して接続されている。通信ネットワークNWは、有線でもよいし、無線でもよいし、その両方であってもよい。 For example, a data transmitting device 200 is provided in an eyeglass store ES. The data transmission device 200 includes, for example, an acquisition section 210 and a transmission section 220. The acquisition unit 210 acquires the user's eyeball information from a measurement device such as a wavefront aberration measurement device installed at an eyeglass store ES, for example. The acquisition unit 210 may acquire the user's eyeball information from a storage medium such as a server installed in the eyeglass store ES or managed by the eyeglass store ES. The transmitter 220 transmits the eyeball information acquired by the acquirer 210 to the model generation device 300 that generates different eyeball models for each individual. Here, when transmitting the eyeball information to the model generation device 300, the transmitter 220 may add identification information for identifying the user to the eyeball information and transmit the eyeball information. This identification information is not particularly limited as long as it can identify an individual, and may be, for example, a name or an ID number. The transmitter 220 is connected to the model generation device 300 via the communication network NW. The communication network NW may be wired, wireless, or both.

モデル生成装置300は、例えば、眼鏡メーカEMによって管理されている。モデル生成装置300は、上述したモデル構築部11の機能を有しており、図17に例示した個別眼球モデルMeの作成処理を実行する。モデル生成装置300は、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するための個別眼球モデルMeを生成する。モデル生成装置300は、利用者の眼球情報を含む情報に基づいて利用者の眼球をモデル化することで、個人毎に異なる個別眼球モデルMeを生成する。モデル生成装置300は、生成した個別眼球モデルMeを記憶装置400に格納する。なお、記憶装置400は、モデル生成装置300内に設けられてもよいし、事前データ生成装置500に設けられてもよいし、その他の装置に設けられてもよい。また、記憶装置400は、2つ以上の記憶媒体から構成されてもよい。なお、モデル生成装置300が作成した個別眼球モデルMeは、利用者の識別情報ごとに記憶装置400に格納されてもよい。すなわち、個別眼球モデルMeが利用者の識別情報に関連付けられて記憶装置400に格納されてもよい。 The model generation device 300 is managed by, for example, an eyeglass manufacturer EM. The model generation device 300 has the functions of the model construction section 11 described above, and executes the creation process of the individual eyeball model Me illustrated in FIG. 17. The model generation device 300 generates an individual eyeball model Me for reproducing the way a specific scene is viewed by a user through a spectacle lens. The model generation device 300 generates individual eyeball models Me that are different for each individual by modeling the user's eyeballs based on information including the user's eyeball information. The model generation device 300 stores the generated individual eyeball model Me in the storage device 400. Note that the storage device 400 may be provided within the model generation device 300, may be provided in the preliminary data generation device 500, or may be provided in another device. Furthermore, the storage device 400 may be composed of two or more storage media. Note that the individual eyeball model Me created by the model generation device 300 may be stored in the storage device 400 for each user's identification information. That is, the individual eyeball model Me may be stored in the storage device 400 in association with the user's identification information.

事前データ生成装置500は、例えば、眼鏡メーカEMによって管理されている。事前データ生成装置500は、通信ネットワークNWに接続されている。事前データ生成装置500は、眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現したシミュレーション画像を生成するための事前データを生成する。具体的には、事前データ生成装置500は、利用者の眼球情報を用いてモデル化された利用者の個別眼球モデルMeと、眼鏡レンズをモデル化した眼鏡レンズモデルMgと、を有する光学系100を用いて事前データを生成する。例えば、事前データ生成装置500は、利用者の個別眼球モデルMeを記憶装置400から読み込む。利用者の情報は、外部から事前データ生成装置500に入力されてもよい。事前データ生成装置500には、例えば、眼鏡レンズの識別情報が入力される。事前データ生成装置500は、入力された眼鏡レンズの識別情報から、当該眼鏡レンズの設計情報を事前データ生成装置500の記憶装置又は外部の記憶装置から抽出し、抽出した設計情報に基づいて、眼鏡レンズモデルMgを生成する。事前データ生成装置500は、データ計算部12の機能を有している。事前データ生成装置500は、生成した個別眼球モデルMeと眼鏡レンズモデルMgとに基づいて、図18に例示した事前データ作成処理を実行することで事前データを生成する。なお、事前データ生成装置500は、必ずしも眼鏡レンズモデルMgを生成する必要はなく、外部装置から眼鏡レンズモデルMgを取得してもよい。事前データは、記憶装置400に格納されてもよいし、後述する画像生成装置600に送信されてもよい。また、事前データは、利用者の識別情報に関連づけられて記憶装置400に格納されてもよい。 The preliminary data generation device 500 is managed, for example, by eyeglass manufacturer EM. The preliminary data generation device 500 is connected to the communication network NW. The prior data generation device 500 generates prior data for generating a simulation image that reproduces the way a specific scene is viewed by a user through a spectacle lens. Specifically, the preliminary data generation device 500 includes an optical system 100 that includes a user's individual eyeball model Me that is modeled using the user's eyeball information, and a spectacle lens model Mg that models a spectacle lens. Generate preliminary data using . For example, the preliminary data generation device 500 reads the user's individual eyeball model Me from the storage device 400. User information may be input into the preliminary data generation device 500 from the outside. For example, identification information of eyeglass lenses is input to the preliminary data generation device 500. The preliminary data generation device 500 extracts the design information of the spectacle lens from the storage device of the preliminary data generation device 500 or an external storage device from the input identification information of the spectacle lens, and based on the extracted design information, specifies the design information of the spectacle lens. A lens model Mg is generated. The preliminary data generation device 500 has the function of the data calculation section 12. The prior data generation device 500 generates prior data by executing the prior data creation process illustrated in FIG. 18 based on the generated individual eyeball model Me and spectacle lens model Mg. Note that the preliminary data generation device 500 does not necessarily need to generate the spectacle lens model Mg, and may acquire the spectacle lens model Mg from an external device. The preliminary data may be stored in the storage device 400, or may be transmitted to the image generation device 600, which will be described later. Further, the preliminary data may be stored in the storage device 400 in association with the user's identification information.

画像生成装置600は、通信ネットワークNWに接続されている。画像生成装置600は、眼鏡店ESに設けられてもよいし、眼鏡メーカEMが管理してもよい。画像生成装置600は、眼鏡レンズを通して利用者が見る特定のシーンの見え方を示すシミュレーション画像を生成する。例えば、画像生成装置600は、記憶装置400に格納されている利用者の事前データを読み込み、読み込んだ事前データに基づいて、シミュレーション画像を生成し、生成したシミュレーション画像を表示装置3に表示させる。なお、画像生成装置600は、記憶装置400に格納されている利用者の事前データを読み込むのではなく、事前データ生成装置500から直接送信されてもよい。画像生成装置600は、画像生成部20の機能を有しており、事前データに基づいて、図19に例示したリアルタイム処理を実行する。例えば、画像生成装置600は、利用者の識別情報が入力されると、入力された識別情報に関連付けられた事前データを、記憶装置400から読み込み、読み込んだ事前データに基づいてリアルタイム処理を実行してもよい。 Image generation device 600 is connected to communication network NW. The image generation device 600 may be provided at an eyeglass store ES, or may be managed by an eyeglass manufacturer EM. The image generation device 600 generates a simulation image showing how a specific scene is viewed by a user through a spectacle lens. For example, the image generation device 600 reads the user's prior data stored in the storage device 400, generates a simulation image based on the read prior data, and displays the generated simulation image on the display device 3. Note that the image generation device 600 may not read the user's prior data stored in the storage device 400, but may directly transmit the prior data from the prior data generation device 500. The image generation device 600 has the function of the image generation section 20, and executes the real-time processing illustrated in FIG. 19 based on prior data. For example, when the user's identification information is input, the image generation device 600 reads prior data associated with the input identification information from the storage device 400, and executes real-time processing based on the read prior data. You can.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム及び方法における動作、手順、ステップ及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示していない。また、各処理の実行順序は、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現し得ることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, stage, etc. in the apparatus, system, program, and method shown in the claims, specification, and drawings is specifically defined as "before", "prior to", etc. It is not explicitly stated. Furthermore, it should be noted that each process can be executed in any order unless the output of a previous process is used in a subsequent process. Even if the claims, specifications, and operational flows in the drawings are explained using "first," "next," etc. for convenience, this does not mean that it is essential to carry out the operations in this order. It's not a thing.

1,1A シミュレーションシステム
2 シミュレーション装置
3 表示装置
4 記憶装置
5 入力装置
6 出力装置
7 プロセッサ
10 データ生成部
11 モデル構築部
12 データ計算部
20 画像生成部
100 光学系
200 データ送信装置
300 モデル生成装置
400 記憶装置
500 事前データ生成装置
600 画像生成装置
Me 眼球モデル
Mg 眼鏡レンズモデル
1, 1A Simulation system 2 Simulation device 3 Display device 4 Storage device 5 Input device 6 Output device 7 Processor 10 Data generation section 11 Model construction section 12 Data calculation section 20 Image generation section 100 Optical system 200 Data transmission device 300 Model generation device 400 Storage device 500 Prior data generation device 600 Image generation device Me Eyeball model Mg Eyeglass lens model

Claims (16)

眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するシミュレーション装置であって、
少なくとも、前記利用者の眼球に関する眼球情報と前記眼鏡レンズの設計情報とに基づいて、前記シーンの見え方を示すシミュレーション画像を生成する処理部と、
前記処理部によって生成された前記シミュレーション画像を表示装置に出力する出力部と、
を備えるシミュレーション装置。
A simulation device that reproduces the appearance of a specific scene seen by a user through spectacle lenses,
a processing unit that generates a simulation image showing how the scene is viewed based on at least eyeball information regarding the user's eyeballs and design information of the spectacle lens;
an output unit that outputs the simulation image generated by the processing unit to a display device;
A simulation device equipped with.
前記処理部は、
前記眼球情報を含む情報に基づいて前記利用者の眼球をモデル化した眼球モデルを生成するデータ生成部と、
前記眼鏡レンズを通して前記眼球モデルから見える前記シーンの見え方を表したシーン画像を前記シミュレーション画像として生成する画像生成部と、
を備える、請求項1に記載のシミュレーション装置。
The processing unit includes:
a data generation unit that generates an eyeball model that models the user's eyeballs based on information including the eyeball information;
an image generation unit that generates, as the simulation image, a scene image representing how the scene is seen from the eyeball model through the eyeglass lens;
The simulation device according to claim 1, comprising:
前記データ生成部は、個人毎に異なる前記眼球モデルと、前記眼鏡レンズをモデル化した眼鏡レンズモデルとを有する光学系を仮想空間に構築し、
前記画像生成部は、コンピュータグラフィックスによって生成した前記シーン画像に対して、前記光学系において前記眼球モデルの内部から前記眼鏡レンズモデルに向かう光線を追跡する後方光線追跡によって得られる情報に基づいて加工することで前記シミュレーション画像を生成する、
請求項2に記載のシミュレーション装置。
The data generation unit constructs in a virtual space an optical system having the eyeball model that is different for each individual and a spectacle lens model that models the spectacle lens,
The image generation unit processes the scene image generated by computer graphics based on information obtained by backward ray tracing that traces a ray from inside the eyeball model toward the eyeglass lens model in the optical system. generating the simulation image by
The simulation device according to claim 2.
前記データ生成部は、前記後方光線追跡によって前記眼鏡レンズによって生じる視線方向の歪み変位量と前記眼鏡レンズの前面での波面収差とを算出し、前記波面収差から点像広がり関数を計算し、
前記画像生成部は、前記歪み変位量に応じて前記シーン画像を変形させる歪み処理と、前記点像広がり関数を含む情報に基づいて前記シーン画像にボケ処理とを行うことで前記シミュレーション画像を生成する、
請求項3に記載のシミュレーション装置。
The data generation unit calculates a distortion displacement amount in the line of sight direction caused by the eyeglass lens by the backward ray tracing and a wavefront aberration at the front surface of the eyeglass lens, and calculates a point spread function from the wavefront aberration,
The image generation unit generates the simulation image by performing distortion processing to transform the scene image according to the distortion displacement amount and blurring processing to the scene image based on information including the point spread function. do,
The simulation device according to claim 3.
前記データ生成部は、フーリエ変換を用いて前記波面収差から前記点像広がり関数を算出する、
請求項4に記載のシミュレーション装置。
The data generation unit calculates the point spread function from the wavefront aberration using Fourier transform.
The simulation device according to claim 4.
前記画像生成部は、前記点像広がり関数に基づいて、前記ボケ処理を行うための画像処理フィルタを生成し、前記歪み処理が行われた後の前記シーン画像に対して前記画像処理フィルタを含む情報に基づいて前記ボケ処理を行う、
請求項5に記載のシミュレーション装置。
The image generation unit generates an image processing filter for performing the blurring process based on the point spread function, and includes the image processing filter for the scene image after the distortion process is performed. performing the blurring process based on the information;
The simulation device according to claim 5.
前記画像生成部は、
前記画像生成部は、前記歪み変位量と、前記シーン画像の各画素の距離データとに基づいて前記歪み処理を行い、前記画像処理フィルタと前記距離データとに基づいて、前記歪み処理が行われた後の前記シーンの画像に対して前記ボケ処理を行う、
請求項6に記載のシミュレーション装置。
The image generation unit includes:
The image generation unit performs the distortion processing based on the distortion displacement amount and distance data of each pixel of the scene image, and the distortion processing is performed based on the image processing filter and the distance data. performing the blurring process on the image of the scene after
The simulation device according to claim 6.
前記処理部は、視線追跡装置から前記利用者の視線方向と瞳孔径との少なくともいずれかの情報を取得し、当該情報をさらに用いて前記シミュレーション画像を生成する、
請求項1に記載のシミュレーション装置。
The processing unit acquires information on at least one of the user's gaze direction and pupil diameter from the gaze tracking device, and further uses the information to generate the simulation image.
The simulation device according to claim 1.
前記シミュレーション画像は、動画のフレームであり、
前記出力部は、前記フレームごとに生成された前記シミュレーション画像を前記表示装置に出力することで前記表示装置に対して前記シーンの見え方を動画として出力させる、
請求項1から8のいずれか一項に記載のシミュレーション装置。
The simulation image is a frame of a video,
The output unit outputs the simulation image generated for each frame to the display device, thereby causing the display device to output the appearance of the scene as a moving image.
A simulation device according to any one of claims 1 to 8.
利用者の眼球情報を取得する取得部と、
前記取得部で取得した前記眼球情報を、個人毎に異なる眼球モデルを生成するモデル生成装置に対して送信する送信部と、
を備えるデータ送信装置。
an acquisition unit that acquires eyeball information of the user;
a transmission unit that transmits the eyeball information acquired by the acquisition unit to a model generation device that generates a different eyeball model for each individual;
A data transmitting device comprising:
眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するための眼球モデルを生成するモデル生成装置であって、
前記利用者の眼球情報を含む情報に基づいて前記利用者の眼球をモデル化することで、個人毎に異なる前記眼球モデルを生成するモデル生成装置。
A model generation device that generates an eyeball model for reproducing the appearance of a specific scene seen by a user through a spectacle lens,
A model generation device that generates a different eyeball model for each individual by modeling the user's eyeball based on information including eyeball information of the user.
眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現したシミュレーション画像を生成するための事前データを生成する事前データ生成装置であって、
前記利用者の眼球情報を用いてモデル化された前記利用者の眼球モデルと、前記眼鏡レンズをモデル化した眼鏡レンズモデルと、を有する光学系を用いて前記事前データを生成する、
事前データ生成装置。
A prior data generation device that generates prior data for generating a simulation image that reproduces the appearance of a specific scene seen by a user through a spectacle lens,
Generating the prior data using an optical system having an eyeball model of the user modeled using eyeball information of the user and a spectacle lens model modeling the spectacle lens;
Advance data generation device.
前記眼球モデルの内部から前記眼鏡レンズモデルに向かう光線を追跡する後方光線追跡を行うことで、点像広がり関数と、前記眼鏡レンズによって生じる視線方向の歪み変位量と、を前記事前データとして生成する、
請求項12に記載の事前データ生成装置。
A point spread function and a distortion displacement amount in the direction of the line of sight caused by the eyeglass lens are generated as the prior data by performing backward ray tracing that traces a ray from inside the eyeball model toward the eyeglass lens model. do,
The advance data generation device according to claim 12.
眼鏡レンズを通して利用者が見る特定のシーンの見え方を示すシミュレーション画像を生成する画像生成装置であって、
前記利用者の眼球に関する眼球情報と前記眼鏡レンズの設計情報とに基づいて生成された事前データに基づいて、前記シミュレーション画像を生成し、生成した前記シミュレーション画像を表示装置に表示させる画像生成装置。
An image generation device that generates a simulation image showing how a specific scene is viewed by a user through a spectacle lens,
An image generation device that generates the simulation image based on a priori data generated based on eyeball information regarding the user's eyeballs and design information of the eyeglass lens, and displays the generated simulation image on a display device.
眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するシミュレーション方法であって、
少なくとも、前記利用者の眼球に関する眼球情報と前記眼鏡レンズの設計情報とに基づいて、前記シーンの見え方を示すシミュレーション画像を生成することと、
生成した前記シミュレーション画像を表示装置に出力することと、
を含むシミュレーション方法。
A simulation method that reproduces the appearance of a specific scene seen by a user through spectacle lenses,
generating a simulation image showing how the scene is viewed based on at least eyeball information regarding the user's eyeballs and design information of the spectacle lens;
outputting the generated simulation image to a display device;
simulation methods including.
眼鏡レンズを通して利用者が見る特定のシーンの見え方を再現するためのシミュレーション装置として、コンピュータを機能させるシミュレーションプログラムであって、
前記コンピュータを、
少なくとも、前記利用者の眼球に関する眼球情報と前記眼鏡レンズの設計情報とに基づいて、前記シーンの見え方を示すシミュレーション画像を生成する処理部と、
前記処理部によって生成された前記シミュレーション画像を表示装置に出力する出力部
として機能させるシミュレーションプログラム。
A simulation program that causes a computer to function as a simulation device for reproducing the appearance of a specific scene seen by a user through spectacle lenses,
The computer,
a processing unit that generates a simulation image showing how the scene is viewed based on at least eyeball information regarding the user's eyeballs and design information of the spectacle lens;
A simulation program that functions as an output unit that outputs the simulation image generated by the processing unit to a display device.
JP2022103479A 2022-06-28 2022-06-28 Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program Pending JP2024004042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022103479A JP2024004042A (en) 2022-06-28 2022-06-28 Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022103479A JP2024004042A (en) 2022-06-28 2022-06-28 Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program

Publications (1)

Publication Number Publication Date
JP2024004042A true JP2024004042A (en) 2024-01-16

Family

ID=89538184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022103479A Pending JP2024004042A (en) 2022-06-28 2022-06-28 Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program

Country Status (1)

Country Link
JP (1) JP2024004042A (en)

Similar Documents

Publication Publication Date Title
JP7291708B2 (en) Display system and method for determining alignment between display and user&#39;s eye
US11880043B2 (en) Display systems and methods for determining registration between display and eyes of user
CN114730101B (en) System and method for adjusting inventory eyeglass frames using 3D scanning of facial features
JP7078540B2 (en) Image creation device, image creation method, image creation program, spectacle lens design method and spectacle lens manufacturing method
AU2017208994B2 (en) Eye image collection, selection, and combination
JP6014038B2 (en) Spectacle wearing simulation method, program, apparatus, spectacle lens ordering system, and spectacle lens manufacturing method
JP2021533462A (en) Depth plane selection for multi-depth plane display systems by user categorization
JP2000107129A (en) Simulation method and apparatus for ophthalmologic optical system
JP2019515355A (en) How to design and place a lens in an eyeglass frame
US11422620B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user&#39;s eyes
JP2023534213A (en) Eye tracking using an aspheric corneal model
JP6994468B2 (en) Eyeglass lens design method, eyeglass lens manufacturing method, eyeglass lens ordering device, eyeglass lens ordering device, eyeglass lens ordering system
CN113613546B (en) Apparatus and method for evaluating performance of visual device for visual task
US20200133022A1 (en) Method for designing eyeglass lens, method for manufacturing eyeglass lens, eyeglass lens, eyeglass lens ordering device, eyeglass lens order receiving device, and eyeglass lens ordering and order receiving system
JP3825654B2 (en) Ophthalmic optical system simulation method and apparatus
Csoba et al. Rendering algorithms for aberrated human vision simulation
JP2024004042A (en) Simulation device, data transmission device, model generation device, preliminary data generation device, image generation device, simulation method, and simulation program
KR20240040727A (en) How to simulate optical products
JP7437402B2 (en) Systems and methods utilizing computer-assisted optics
JP7241702B2 (en) Image creation device, spectacle lens selection system, image creation method and program
JP3735842B2 (en) Computer-readable recording medium storing a program for driving an eye optical system simulation apparatus
JP5996205B2 (en) Spectacle wearing simulation system, spectacle wearing simulation information providing method, and spectacle wearing simulation program
CN118078204A (en) Method and system for improving performance of an eye tracking system
JP2024523115A (en) How to simulate optical products
JP2021162678A (en) Evaluation apparatus of spectacle lens