JP7467830B2 - Visual simulation method and visual simulation program - Google Patents

Visual simulation method and visual simulation program Download PDF

Info

Publication number
JP7467830B2
JP7467830B2 JP2019088524A JP2019088524A JP7467830B2 JP 7467830 B2 JP7467830 B2 JP 7467830B2 JP 2019088524 A JP2019088524 A JP 2019088524A JP 2019088524 A JP2019088524 A JP 2019088524A JP 7467830 B2 JP7467830 B2 JP 7467830B2
Authority
JP
Japan
Prior art keywords
patient
simulation
eye
visual
estimated information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019088524A
Other languages
Japanese (ja)
Other versions
JP2020182680A (en
JP2020182680A5 (en
Inventor
直樹 竹野
良一 相原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2019088524A priority Critical patent/JP7467830B2/en
Publication of JP2020182680A publication Critical patent/JP2020182680A/en
Publication of JP2020182680A5 publication Critical patent/JP2020182680A5/ja
Application granted granted Critical
Publication of JP7467830B2 publication Critical patent/JP7467830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本開示は、視覚シミュレーション方法、および、視覚シミュレーションプログラムに関する。 This disclosure relates to a visual simulation method and a visual simulation program.

眼の疾患として、緑内障等、視野に障害を生じる疾患が知られている。疾患の進行状況は、視野計、および、OCT(光干渉断層計)等の検査装置によって検査できる。 There are known eye diseases, such as glaucoma, that can impair the field of vision. The progression of the disease can be examined using perimeters and examination devices such as OCT (optical coherence tomography).

近年、将来における患者の視野を推定する手法が提案されている。例えば、特許文献1に開示された手法では、複数回にわたる視野計での検査結果に基づいて、将来における患者の視野が推定される。 In recent years, methods have been proposed for estimating a patient's future visual field. For example, the method disclosed in Patent Document 1 estimates a patient's future visual field based on the results of multiple perimeter tests.

特開2014-166250号公報JP 2014-166250 A

視野の障害は、患者の自覚がないまま徐々に進行する場合が多い。また、視野の障害は、非可逆的である。故に、障害の進行を防いで失明を予防するためには、治療に関して、患者が積極的に関わり、通院および服薬等が適切に行われることが重要となる。 Visual field disorders often progress gradually, without the patient realizing it. Furthermore, visual field disorders are irreversible. Therefore, in order to prevent the progression of disorders and prevent blindness, it is important for patients to be proactive in their treatment and to make appropriate visits to hospitals and take medication.

しかしながら、特に、視野の障害の初期の段階では、患者が症状を自覚しにくい。また、視野の障害は進行が遅く、非可逆的であることから、治療効果を患者が実感し難い。そこで、本発明者は、治療に対する動機付けを患者に対して効果的に与える手法に着目し、検討を行った。 However, it is difficult for patients to recognize symptoms, especially in the early stages of visual field impairment. In addition, because visual field impairment progresses slowly and is irreversible, it is difficult for patients to realize the effects of treatment. Therefore, the inventors focused on and investigated methods to effectively motivate patients to undergo treatment.

本開示は、上記事情に鑑みてなされたものであり、眼の治療に対する動機付けを、患者に対して効果的に与えること、を技術課題とする。 This disclosure was made in light of the above circumstances, and its technical objective is to effectively motivate patients to undergo eye treatment.

本開示の第1態様に係る視覚シミュレーション方法は、ある時点での患者眼における視覚状態を示す推定情報を、コンピュータが取得する推定情報取得ステップと、前記ある時点での患者眼における見え方を示すシミュレーション画像であって、前記推定情報に応じたシミュレーション画像を前記コンピュータが出力する出力ステップと、を含み、前記推定情報取得ステップでは、左右の患者眼のそれぞれの前記推定情報を取得し、前記出力ステップでは、左右の患者眼のそれぞれの前記推定情報に応じた前記シミュレーション画像を、前記左右の患者眼に個別に呈示するために出力し、更に、前記推定情報取得ステップでは、将来のある時点における視覚状態を示す前記推定情報として、障害の進行速度が第1の速度である場合における第1推定情報と、障害の進行速度が前記第1の速度とは異なる第2の速度である場合における第2推定情報とを、取得し、前記コンピュータは、同一の視野に関して障害の進行速度が互いに異なる前記シミュレーション画像として、前記第1推定情報に基づく第1シミュレーション画像および前記第2推定情報に基づく第2シミュレーション画像を生成する A visual simulation method according to a first aspect of the present disclosure includes an estimated information acquisition step in which a computer acquires estimated information indicating a visual state of a patient's eye at a certain time point, and an output step in which the computer outputs a simulation image indicating how the patient's eye looks at the certain time point, the simulation image corresponding to the estimated information, wherein the estimated information acquisition step acquires the estimated information for each of the left and right patient's eyes, and the output step outputs the simulation images corresponding to the estimated information for each of the left and right patient's eyes for presentation to the left and right patient's eyes individually . Furthermore, the estimated information acquisition step acquires, as the estimated information indicating the visual state at a certain time point in the future, first estimated information when the progression speed of the impairment is a first speed, and second estimated information when the progression speed of the impairment is a second speed different from the first speed, and the computer generates a first simulation image based on the first estimated information and a second simulation image based on the second estimated information as the simulation images having different progression speeds of the impairment for the same visual field .

本開示の第2態様に係る視覚シミュレーションプログラムは、第1態様に係る視覚シミュレーション方法を、前記コンピュータに実行させる。 The visual simulation program according to the second aspect of the present disclosure causes the computer to execute the visual simulation method according to the first aspect.

本開示によれば、眼の治療に対する動機付けを、患者に対して効果的に与えることができる。 The present disclosure makes it possible to effectively motivate patients to undergo eye treatment.

第1実施形態に係る、眼科システムの概要を示した図である。1 is a diagram showing an overview of an ophthalmologic system according to a first embodiment. 患者端末の詳細構成を示した図である。FIG. 2 is a diagram showing a detailed configuration of a patient terminal. 実施形態における視覚シミュレーション方法の流れを説明するための図である。1 is a diagram for explaining the flow of a visual simulation method in an embodiment. 障害の進行速度が互いに異なる場合のMD値の経時変化を示したグラフである。1 is a graph showing the change in MD value over time when the progression rates of the disorder are different.

以下、図面を参照しつつ、本開示を、実施形態に基づいて説明する。 The present disclosure will be described below based on an embodiment with reference to the drawings.

図1は、第1実施形態における眼科システム1の概略構成を示している。眼科システム1は、ある時点での患者眼における見え方を示すシミュレーション画像を患者眼に呈示するために利用される。ここでいう、ある時点とは、現在以外の時点であってもよく、過去および将来のある時点であってもよい。また、過去、現在、および将来のある時点であってもよい。以下の説明において、眼科システム1は、一例として、将来の時点と対応するシミュレーション画像を呈示するために利用される。 Figure 1 shows a schematic configuration of an ophthalmic system 1 in the first embodiment. The ophthalmic system 1 is used to present to the patient's eye a simulation image showing how the patient's eye sees at a certain point in time. The certain point in time here may be a point in time other than the present, or may be a point in the past or future. It may also be a point in the past, present, or future. In the following description, the ophthalmic system 1 is used, as an example, to present a simulation image corresponding to a future point in time.

図1に示した眼科システム1は、眼検査装置10と、PC20と、患者端末30と、を含む。各装置は、ネットワークを介して、相互に接続されてもよい。 The ophthalmologic system 1 shown in FIG. 1 includes an eye examination device 10, a PC 20, and a patient terminal 30. Each device may be connected to each other via a network.

<眼検査装置>
眼検査装置10は、患者眼の視機能を検査するために利用される。
<Eye Examination Device>
The eye examination apparatus 10 is used to examine the visual function of a patient's eye.

第1実施形態では、視機能として主に網膜機能が検査される。眼検査装置10は、部位ごとの網膜視感度を検査するために利用されてもよい。このような眼検査装置10は、例えば、視野計であってもよいし、ERG(electroretinogram)であってもよいし、FRG(functional retinography)であってもよい。視野計は、静的視野計(例えば、ハンフリー視野計、および、マイクロペリメータ等)であってもよいし、動的視野計(例えば、ゴールドマン視野計等)であってもよい。 In the first embodiment, retinal function is mainly examined as visual function. The eye examination device 10 may be used to examine the retinal visual sensitivity for each part. Such an eye examination device 10 may be, for example, a perimeter, an ERG (electroretinogram), or an FRG (functional retinography). The perimeter may be a static perimeter (e.g., a Humphrey perimeter and a microperimeter, etc.) or a kinetic perimeter (e.g., a Goldmann perimeter, etc.).

また、近年では、眼底イメージング装置で撮影される網膜の構造的な特徴に基づいて、患者の視覚状態を推定する手法が注目されている。このような手法へ利用可能な眼底イメージング装置としては、OCT、眼底カメラ、および、SLO等が挙げられる。眼底イメージング装置は、細胞レベルで眼底を撮影する装置であってもよい。網膜の構造的な特徴に基づいて患者の視覚状態を推定する手法の一例として、光干渉断層計(OCT)で計測される網膜の層厚情報(層厚の分布情報)から、患者の視野を推定する手法が、次の文献において提案されている。
Sugiura, H. et al. (2018) Estimating Glaucomatous Visual Sensitivity from Retinal Thickness with Pattern-Based Regularization and Visualization, in Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining - KDD ’18. New York, New York, USA: ACM Press, pp. 783-792.
In recent years, a method of estimating a patient's visual condition based on structural characteristics of the retina photographed by a fundus imaging device has been attracting attention. Fundus imaging devices that can be used for such a method include OCT, fundus cameras, and SLOs. The fundus imaging device may be a device that photographs the fundus at a cellular level. As an example of a method of estimating a patient's visual condition based on structural characteristics of the retina, the following document proposes a method of estimating a patient's visual field from retinal layer thickness information (layer thickness distribution information) measured by an optical coherence tomography (OCT).
Sugiura, H. et al. (2018) Estimating Glaucomatous Visual Sensitivity from Retinal Thickness with Pattern-Based Regularization and Visualization, in Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining - KDD '18. New York, New York, USA: ACM Press, pp. 783-792.

以下、特に断りが無い限り、眼検査装置10は視野計であって、眼検査装置10による検査結果として、部位ごとの網膜の視感度を示す情報が得られるものとして、説明する。 Unless otherwise specified, the following description assumes that the eye examination device 10 is a perimeter and that the examination results obtained by the eye examination device 10 are information indicating the visual sensitivity of the retina at each location.

<コンピュータ>
第1実施形態では、PC20によって、視覚シミュレーションプログラムが実行される。第1実施形態では、PC20によって、シミュレーション画像が生成され、表示装置(第1実施形態では、患者端末)へ出力される。シミュレーション画像は、ある時点での患者眼における見え方を示した画像であり、ここでは、将来の見え方を示す。第1実施形態において、シミュレーション画像は、PC20による画像処理によって生成されるものとして説明する。
<Computer>
In the first embodiment, a visual simulation program is executed by the PC 20. In the first embodiment, a simulation image is generated by the PC 20 and output to a display device (a patient terminal in the first embodiment). The simulation image is an image showing how the patient's eye sees at a certain point in time, and in this embodiment, how the patient will see in the future. In the first embodiment, the simulation image is described as being generated by image processing by the PC 20.

第1実施形態において、PC20は、プロセッサ21(処理装置)を備える。第1実施形態において、プロセッサ21は、画像処理器を兼用する。PC20が備えるユーザインターフェイス(図示せず)を介して、PC20は、検者等からの操作入力を受け付けてもよい。例えば、PC20は、見え方をシミュレーションする時点を示す情報(例えば、患者の年齢)を、ユーザインターフェースを介して受け付けてもよく、受け付けた「時点」でのシミュレーション画像が、後述の各処理によって生成されてもよい。 In the first embodiment, the PC 20 includes a processor 21 (processing device). In the first embodiment, the processor 21 also functions as an image processor. The PC 20 may receive operational input from an examiner or the like via a user interface (not shown) included in the PC 20. For example, the PC 20 may receive information indicating the time point at which the appearance is to be simulated (e.g., the age of the patient) via the user interface, and a simulation image at the received "time point" may be generated by each process described below.

第1実施形態において、視覚シミュレーションプログラムは、プロセッサ21からアクセス可能な、PC20の不揮発性メモリ(例えば、メモリ22)に格納されていてもよい。 In the first embodiment, the visual simulation program may be stored in a non-volatile memory (e.g., memory 22) of the PC 20 that is accessible from the processor 21.

<患者端末>
第1実施形態において、患者端末30は、表示装置として利用される。つまり、患者端末30によって、シミュレーション画像が、患者眼に対して呈示される。第1実施形態において、患者端末30は、左右の患者眼のそれぞれに、個別の画像を、同時に呈示し得る。つまり、左右の被検眼の間で、互いに異なるシミュレーション画像を呈示できる。
<Patient terminal>
In the first embodiment, the patient terminal 30 is used as a display device. That is, a simulation image is presented to the patient's eye by the patient terminal 30. In the first embodiment, the patient terminal 30 can simultaneously present individual images to the left and right patient's eyes. That is, different simulation images can be presented between the left and right eyes to be examined.

患者端末30は、ウェアラブルデバイスであってもよく、一例として、図1,2に示すようなヘッドマウントディスプレイであってもよい。説明の便宜のため、以下では、患者端末30は、画像を患者に観察させるための画面31を備えるものとして説明する。第1実施形態において、画面31は、左右2つの領域に区分される。画面31の左半分(患者から見たときの左半分)は、左眼に対して画像を呈示するために用いられ、画面31の右半分(患者から見たときの右半分)は、右眼に対して画像を呈示するために用いられる。 The patient terminal 30 may be a wearable device, and as an example, may be a head-mounted display as shown in Figures 1 and 2. For ease of explanation, the patient terminal 30 will be described below as having a screen 31 that allows the patient to observe images. In the first embodiment, the screen 31 is divided into two areas, left and right. The left half of the screen 31 (the left half as seen by the patient) is used to present an image to the left eye, and the right half of the screen 31 (the right half as seen by the patient) is used to present an image to the right eye.

但し、必ずしもこれに限られるものでは無く、患者端末30は、患者眼の網膜へ直接画像を投影するプロジェクタを備えていてもよい。この場合、左右の患者眼のそれぞれに対し、プロジェクタは個別に画像を投影するものであってもよい。具体例として、左右の患者眼毎に、プロジェクタが1基ずつ設けられていてもよい。患者端末30がヘッドマウントディスプレイである場合、患者端末30は、スマートフォンおよびタブレット等のポータブルコンピュータを、ヘッドセットへ装着したものであってもよいし、スタンドアローン型の装置であってもよい。 However, this is not necessarily limited to this, and the patient terminal 30 may be equipped with a projector that projects an image directly onto the retina of the patient's eye. In this case, the projector may project an image separately onto each of the patient's left and right eyes. As a specific example, one projector may be provided for each of the patient's left and right eyes. When the patient terminal 30 is a head-mounted display, the patient terminal 30 may be a portable computer such as a smartphone or tablet attached to a headset, or may be a standalone device.

なお、患者端末30は、視度補正部を備えていてもよい。画面31と、患者眼との間に、配置される補正レンズ33を、視度補正部は有していてもよい。視度補正部は、患者眼の屈折誤差を補正するために利用される。視度補正部は、画面31または補正レンズの位置を、前後方向へ移動させる機構を含んでいてもよい。 The patient terminal 30 may also include a diopter correction unit. The diopter correction unit may have a correction lens 33 disposed between the screen 31 and the patient's eye. The diopter correction unit is used to correct refractive errors in the patient's eye. The diopter correction unit may include a mechanism for moving the position of the screen 31 or the correction lens in the forward and backward directions.

<動作説明>
次に、図3および図4を参照し、第1実施形態における眼科システム1による視覚シミュレーション方法を説明する。
<Operation description>
Next, a visual simulation method using the ophthalmologic system 1 in the first embodiment will be described with reference to FIGS.

<検査ステップ>
事前に、眼検査装置10によって、患者眼についての視機能に関する検査が、複数回にわたって行われる。各回の検査は、例えば、数ヶ月間隔で実施されることが望ましい。また、例えば、前述の特許文献1に開示された推定処理の手法を利用して、ある時点(ここでは、将来のある時点)における患者眼の視機能の状態(視覚状態)を推定するためには、検査の回数は、3回以上であることが好ましい。
<Inspection steps>
The eye examination device 10 performs a number of tests on the visual function of the patient's eye in advance. Each test is preferably performed at intervals of several months. In order to estimate the state of the visual function (visual state) of the patient's eye at a certain point in time (here, a certain point in time in the future) using, for example, the estimation processing method disclosed in the above-mentioned Patent Document 1, it is preferable to perform the test three or more times.

第1実施形態では、眼検査装置10は、事前に、左右の患者眼に対し、視機能に関する検査を複数回行う。これにより、各回の検査で、左右の患者眼のそれぞれにおける視感度の分布を示すデータが取得される。 In the first embodiment, the eye examination device 10 performs tests on the visual function of the left and right patient's eyes multiple times in advance. As a result, data showing the distribution of visual sensitivity in each of the patient's left and right eyes is obtained in each test.

視感度の分布を示すデータは、眼検査装置10からPC20に転送されることで、PC20のメモリ(例えば、メモリ22)に格納される。第1実施形態では、この状態で、PC20によって、視覚シミュレーションプログラムが実行される。 The data showing the visibility distribution is transferred from the eye examination device 10 to the PC 20 and stored in the memory (e.g., memory 22) of the PC 20. In the first embodiment, in this state, the visual simulation program is executed by the PC 20.

<推定情報取得ステップ>
まず、PC20は、推定情報を取得する。推定情報は、患者眼におけるある時点(ここでは、将来の時点)での視覚状態を示す。第1実施形態においては、図3に示すように、左右の患者眼のそれぞれにおける推定情報が取得される。推定情報は、所定の時点(例えば、1年後、3年後、10年後等・・・)における視覚状態を示すものであってもよいし、検者または患者の所望の時点における視覚状態を示すものであってもよい。所望の時点については、例えば、入力インタフェースに対する操作入力に基づいて事前に設定されてもよい。また、将来の複数の時点における視覚状態を示す、複数の推定情報が取得されてもよい。なお、ここでは、推定情報が、PC20のプロセッサ21によって処理可能な状態に置かれることを指す。例えば、プロセッサ21によってアクセス可能な所定のメモリ領域へ、推定情報が記憶されることによって、推定情報が取得される。
<Estimated information acquisition step>
First, the PC 20 acquires estimated information. The estimated information indicates the visual state of the patient's eye at a certain time (here, a future time). In the first embodiment, as shown in FIG. 3, estimated information is acquired for each of the left and right patient's eyes. The estimated information may indicate the visual state at a predetermined time (e.g., one year later, three years later, ten years later, etc.), or may indicate the visual state at a desired time of the examiner or the patient. The desired time may be set in advance based on an operation input to an input interface, for example. In addition, multiple pieces of estimated information indicating visual states at multiple future time points may be acquired. Note that, in this case, it refers to putting the estimated information in a state that can be processed by the processor 21 of the PC 20. For example, the estimated information is acquired by storing the estimated information in a predetermined memory area accessible by the processor 21.

第1実施形態では、過去の検査結果に基づく推定処理(「予後推定」ともいう)が、PC20のプロセッサ21によって実行され、その結果として、推定情報が取得される。推定処理では、過去の複数回の検査結果に基づいて、患者眼における将来の視覚状態が推定される。 In the first embodiment, an estimation process based on past test results (also called "prognosis estimation") is executed by the processor 21 of the PC 20, and as a result, estimated information is obtained. In the estimation process, the future visual condition of the patient's eye is estimated based on the results of multiple past tests.

推定処理には、例えば、特許文献1の処理内容を適用し得る。この場合、例えば、複数回の過去の検査でそれぞれ得られた、患者眼の各部の網膜視感度を示すデータに基づいて、将来(を含む任意の時点)における各部の網膜視感度を示すデータを、プロセッサ21が、ベイズ推定によって推定してもよい。また、推定法は、ベイズ推定に必ずしも限定されるものではなく、他の推定法が用いられてもよい。 For example, the processing contents of Patent Document 1 may be applied to the estimation process. In this case, for example, the processor 21 may estimate data indicating the retinal visibility of each part at the future (or any time point) by Bayesian estimation based on data indicating the retinal visibility of each part of the patient's eye obtained from multiple past examinations. Furthermore, the estimation method is not necessarily limited to Bayesian estimation, and other estimation methods may be used.

また、プロセッサ21は、機械学習による学習モデルに照らして、複数回の過去の検査結果から、将来(を含む任意の時点)における視覚状態を示すデータ(例えば、各部の網膜視感度を示すデータ)を推定してもよい。この場合、学習モデルは、例えば、複数の患者眼のそれぞれにおける複数回の検査結果に基づいて形成され得る。各患者眼につき、数年~数十年にわたる経過観察によって蓄積された検査結果に基づいて、学習モデルは形成されてもよい。 The processor 21 may also estimate data indicating the visual condition in the future (or at any time) (e.g., data indicating the retinal visual sensitivity of each part) from multiple past test results in light of the machine learning learning model. In this case, the learning model may be formed, for example, based on multiple test results for each of multiple patient's eyes. The learning model may be formed based on test results accumulated over several years to several decades of follow-up observation for each patient's eye.

<画像処理ステップ>
第1実施形態では、推定情報に基づいて入力画像に対する画像処理がプロセッサ21によって行われ、その結果として、シミュレーション画像が生成される。シミュレーション画像は、入力画像が画像処理によって加工されたものであり、患者眼での将来における入力画像の見え方を示した画像である。入力画像に対し、視覚状態が悪い箇所を隠すような加工(換言すれば、見づらくする加工)が、プロセッサ21によって施されることで、シミュレーション画像が生成される。
<Image processing steps>
In the first embodiment, the processor 21 performs image processing on the input image based on the estimated information, and as a result, a simulation image is generated. The simulation image is an input image processed by image processing, and is an image showing how the input image will be seen by the patient's eye in the future. The processor 21 processes the input image to hide areas with poor visual condition (in other words, processes the areas to make them difficult to see), thereby generating the simulation image.

第1実施形態においては、図3に示すように、左眼用の推定情報(L)に基づいて、左眼用のシミュレーション画像(L)が生成され、右眼用の推定情報(R)に基づいて、右眼用のシミュレーション画像(R)が生成される。 In the first embodiment, as shown in FIG. 3, a simulation image (L) for the left eye is generated based on estimated information (L) for the left eye, and a simulation image (R) for the right eye is generated based on estimated information (R) for the right eye.

また、将来の複数の時点毎に対応するシミュレーション画像を各々の推定情報に基づいて生成する。 In addition, simulation images corresponding to multiple future time points are generated based on each estimated information.

入力画像は、例えば、外界を表した画像であって、例えば、図3に示すような風景を示した画像であってもよい。また、人物又は動物の画像であってもよい。入力画像は、静止画であってもよいし、動画であってもよい。動画である場合、リアルタイムに撮影されてもよい。この場合、例えば、患者端末30には、入力画像と動画をリアルタイムに撮影するための外界カメラが更に設けられていてもよい。また、左眼用の入力画像と右眼用の入力画像との間には、視差があってもよいし、無くてもよい。 The input image is, for example, an image showing the outside world, and may be, for example, an image showing a landscape as shown in FIG. 3. It may also be an image of a person or an animal. The input image may be a still image or a video. If it is a video, it may be captured in real time. In this case, for example, the patient terminal 30 may further be provided with an outside camera for capturing the input image and the video in real time. Also, there may or may not be parallax between the input image for the left eye and the input image for the right eye.

入力画像における各領域と、推定情報と対応する視野内の各領域(換言すれば、網膜の各部位)とは、1対1で互いに対応付けられ得る。この対応関係を利用し、プロセッサ21は、入力画像に対して視覚状態が悪い箇所を隠すような加工(換言すれば、見づらくする加工)を、画像処理によって行い、シミュレーション画像を生成する。 Each area in the input image can be associated with each area in the visual field that corresponds to the estimated information (in other words, each part of the retina) on a one-to-one basis. Using this correspondence, the processor 21 uses image processing to process the input image in a way that hides areas of poor visual condition (in other words, makes them difficult to see), and generates a simulation image.

第1実施形態では、例えば、入力画像における各領域のうち、視覚状態の程度がより悪い領域ほど(ここでは、網膜視感度が低い領域ほど)、画像処理によって、より見づらくされる。このとき、入力画像の各領域は、視覚状態の程度に応じて3段階以上で区分けされてもよいし、視覚状態の程度が比較的良い領域と、悪い領域との2段階で区分けされてもよい。 In the first embodiment, for example, the worse the visual condition of each region in the input image (here, the lower the retinal visibility), the more difficult it is to see through image processing. In this case, each region of the input image may be divided into three or more stages according to the degree of visual condition, or may be divided into two stages: regions with a relatively good visual condition and regions with a relatively bad visual condition.

シミュレーション画像を生成するための画像処理(視覚状態が悪い箇所を隠すような加工)は、例えば、インペインティング(修復処理)であってもよいし、内挿処理であってもよいし、ぼかし処理であってもよいし、塗りつぶし処理であってもよい。 The image processing used to generate the simulation image (processing to hide areas with poor visual quality) may be, for example, inpainting (repair processing), interpolation processing, blurring processing, or filling in.

例えば、インペインティングおよび内挿処理では、入力画像のうち、視覚状態の程度が悪い箇所を劣化領域として、劣化領域の情報を、その周辺領域の情報に基づいて補間する。このとき、劣化領域は、入力画像の情報を持たない画素によって形成されてもよい。但し、必ずしも、劣化領域は、入力画像の情報を持たない画素のみで形成される必要は無く、入力画像の情報を残したままの画素が一部存在してもよい。入力画像の情報を残したままの画素の数は、視覚状態に応じて設定されてもよく、視覚状態が悪いほど低減されてもよい。なお、例えば、劣化領域に対してディザリングを行うことで、入力画像の情報を残したままの画素を、劣化領域内に設けることができる。また、この場合、入力画像の情報を持たない画素を対象として、インペインティング又は内挿処理が行われる。 For example, in the inpainting and interpolation processes, a portion of the input image where the visual condition is poor is treated as a degraded area, and information about the degraded area is interpolated based on information about the surrounding area. In this case, the degraded area may be formed by pixels that do not have information about the input image. However, the degraded area does not necessarily have to be formed only by pixels that do not have information about the input image, and some pixels may still have information about the input image. The number of pixels that still have information about the input image may be set according to the visual condition, and may be reduced the worse the visual condition. For example, by performing dithering on the degraded area, pixels that still have information about the input image can be provided within the degraded area. In this case, the inpainting or interpolation process is performed on the pixels that do not have information about the input image.

インペインティングおよび内挿処理は、それぞれ、種々のアルゴリズムが知られており、適宜、いずれかのアルゴリズムを適用可能である。例えば、インペインティングのアルゴリズムは、例えば、Fast Marching Methodを基にしたアルゴリズム(非特許文献2参照)であってもよいし、偏微分方程式(例えば、ナビエ・ストークス方程式)を利用したアルゴリズム(非特許文献3参照)であってもよいし、機械学習を用いたアルゴリズム(非特許文献4参照)であってもよい。また、内挿処理には、多項式補間、スプライン補間、線形補間、キュービック補間など各種補間手法のうちいずれかを用いても良い。
Telea, Alexandru. “An image inpainting technique based on the fast marching method.” Journal of graphics tools 9.1 (2004): 23-34. Bertalmio, Marcelo, Andrea L. Bertozzi, and Guillermo Sapiro. “Navier-stokes, fluid dynamics, and image and video inpainting.” In Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on, vol. 1, pp. I-355. IEEE, 2001. Liu et al. “Image Inpainting for Irregular Holes Using Partial Convolutions.” arXiv: 1804.07723
Various algorithms are known for the inpainting and the interpolation process, and any of the algorithms can be applied as appropriate. For example, the inpainting algorithm may be, for example, an algorithm based on the Fast Marching Method (see Non-Patent Document 2), an algorithm using partial differential equations (e.g., Navier-Stokes equations) (see Non-Patent Document 3), or an algorithm using machine learning (see Non-Patent Document 4). In addition, any of various interpolation methods such as polynomial interpolation, spline interpolation, linear interpolation, and cubic interpolation may be used for the interpolation process.
Telea, Alexandru. “An image inpainting technique based on the fast marching method.” Journal of graphics tools 9.1 (2004): 23-34. Bertalmio, Marcelo, Andrea L. Bertozzi, and Guillermo Sapiro. “Navier-stokes, fluid dynamics, and image and video inpainting.” In Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on, vol. 1, pp. I-355. IEEE, 2001. Liu et al. “Image Inpainting for Irregular Holes Using Partial Convolutions.” arXiv: 1804.07723

ぼかし処理では、視覚状態が悪い箇所を強くぼかし、良い箇所を弱くぼかしてもよい。ぼかし処理には、平均値フィルタ、ガウシアンフィルタ、メディアンフィルタを用いても良い。また、塗りつぶしの場合、前述の劣化領域(より詳細には、その中でも、入力画像の情報を持たない各画素)を、所定の色(例えば、グレー)で塗りつぶしても良い。又は、画像全体、もしくは一部の平均的な色で塗りつぶしてもよい。更には、視覚状態に応じて、各領域を異なる色で塗りつぶしもよい。例えば、視覚状態が比較的良い領域は、明るい色、視覚状態が比較的悪い領域は、暗い色、でそれぞれ塗りつぶしても良い。 In the blurring process, areas with poor visual conditions may be strongly blurred and areas with good visual conditions may be weakly blurred. An average filter, a Gaussian filter, or a median filter may be used for the blurring process. In addition, in the case of filling, the degraded areas (more specifically, each pixel therein that does not have information from the input image) may be filled with a predetermined color (e.g., gray). Alternatively, the entire image or a part of it may be filled with an average color. Furthermore, each area may be filled with a different color depending on the visual condition. For example, areas with relatively good visual conditions may be filled with a light color, and areas with relatively poor visual conditions may be filled with a dark color.

入力画像の画角は、推定情報と対応する視野と、形状および大きさが略一致していることが好ましい。図3に示すように、推定情報と対応する視野が円形で、入力画像が矩形である場合、入力画像内には、対応する推定情報が無い領域が存在する場合があり得る。この場合、対応する推定情報が無い領域は、劣化領域と同様に、前述のインペインティング、および、塗りつぶし処理のうちいずれかの画像処理が行われても良い。又は、外挿処理が行われても良い。 It is preferable that the angle of view of the input image is approximately the same in shape and size as the field of view corresponding to the estimated information. As shown in FIG. 3, when the field of view corresponding to the estimated information is circular and the input image is rectangular, there may be areas in the input image for which there is no corresponding estimated information. In this case, the areas for which there is no corresponding estimated information may be subjected to the image processing of either the inpainting or filling processing described above, as with the degraded areas. Alternatively, extrapolation processing may be performed.

<出力・呈示ステップ>
次に、PC20は、推定情報に応じたシミュレーション画像を、患者眼へ呈示するために出力する。第1実施形態において、シミュレーション画像は、患者端末30へ出力される。これに伴い、患者端末30が、シミュレーション画像を患者眼へ呈示する。結果、シミュレーション画像を通じて、将来の視覚状態を、患者が直感的に把握し得る。結果、視野の障害への治療に対する動機付けを、患者に対して効果的に与えることができる。つまり、患者のアドヒアランスが向上することが期待される。
<Output/presentation step>
Next, the PC 20 outputs a simulation image corresponding to the estimated information for presentation to the patient's eye. In the first embodiment, the simulation image is output to the patient terminal 30. Accordingly, the patient terminal 30 presents the simulation image to the patient's eye. As a result, the patient can intuitively grasp the future visual condition through the simulation image. As a result, the patient can be effectively motivated to undergo treatment for the visual field disorder. In other words, it is expected that the patient's adherence will improve.

<左右の患者眼に対して、個別にシミュレーション画像を出力・呈示>
第1実施形態では、画像処理ステップにおいて、左右それぞれの患者眼に対するシミュレーション画像が得られている。PC20は、左右それぞれの患者眼に対するシミュレーション画像を、左右それぞれの患者眼に対して個別に呈示するために出力してもよい。つまり、左眼用のシミュレーション画像は左眼に、右眼用のシミュレーション画像は右眼に、それぞれ呈示されるように、PC20は、シミュレーション画像を出力してもよい。更には、シミュレーション画像と共に、端末装置30における呈示態様を指示するための情報が、PC20から出力されてもよい。一例として、第1実施形態では、左眼用のシミュレーション画像と、右眼用のシミュレーション画像と、のそれぞれにおける画面31上の表示位置を指示するための情報が、PC20から出力されてもよい。端末装置30は、指示情報に基づいて、左眼用のシミュレーション画像を、画面31の左半分へ、右眼用のシミュレーション画像を、画面31の右半分へ、それぞれ表示してもよい。左眼用のシミュレーション画像と、右眼用のシミュレーション画像とは、同時に呈示されてもよいし、片方ずつ呈示されてもよい。視野の障害において患者が症状を自覚し難い理由の1つとして、両眼視することで、片眼において視野が欠けた領域が、反対眼によって補完されることが挙げられる。上記のように、左眼用のシミュレーション画像と、右眼用のシミュレーション画像とが同時に呈示されることで、補完を考慮した両眼視の状態での見え方を、患者に体験させることができる。また、左右それぞれの患者眼に対するシミュレーション画像を、片方ずつ呈示することで、各眼における将来の見え方を、直感的に、良好に示すことができる。片方ずつ呈示する場合において、患者端末30は、左右いずれの患者眼に対するシミュレーション画像であるかを識別する指標(例えば、「L」「R」等の記号でもよい)を、シミュレーション画像と同時に表示させてもよい。
<Simulation images are output and presented separately for each patient's left and right eyes>
In the first embodiment, in the image processing step, simulation images for the left and right patient's eyes are obtained. The PC 20 may output the simulation images for the left and right patient's eyes to be individually presented to the left and right patient's eyes. That is, the PC 20 may output the simulation images so that the simulation image for the left eye is presented to the left eye, and the simulation image for the right eye is presented to the right eye. Furthermore, together with the simulation images, information for instructing the presentation mode in the terminal device 30 may be output from the PC 20. As an example, in the first embodiment, information for instructing the display positions on the screen 31 of the simulation image for the left eye and the simulation image for the right eye may be output from the PC 20. The terminal device 30 may display the simulation image for the left eye on the left half of the screen 31 and the simulation image for the right eye on the right half of the screen 31 based on the instruction information. The simulation image for the left eye and the simulation image for the right eye may be presented simultaneously, or one at a time. One of the reasons why patients are less aware of symptoms of visual field disorders is that, by viewing with both eyes, the area of visual field missing in one eye is complemented by the other eye. As described above, by simultaneously presenting a simulation image for the left eye and a simulation image for the right eye, the patient can experience how the image looks in a state of binocular vision that takes complementation into consideration. In addition, by presenting a simulation image for each of the patient's left and right eyes one by one, the future vision of each eye can be intuitively and satisfactorily shown. When presenting one by one, the patient terminal 30 may display an indicator (e.g., a symbol such as "L" or "R") that identifies which of the patient's eyes the simulation image is for, simultaneously with the simulation image.

但し、左右それぞれの患者眼に対するシミュレーション画像を、片方ずつ呈示する場合は、必ずしも片眼のみにシミュレーション画像が呈示される必要はなく、片眼と対応するシミュレーション画像が、両眼に提示されてもよい。つまり、同一のシミュレーション画像が両眼に呈示されてもよい。各眼における将来の見え方を、患者に両眼視で良好に観察させることができる。 However, when presenting a simulation image for each of the patient's left and right eyes, it is not necessary to present the simulation image to only one eye, and the simulation image corresponding to one eye may be presented to both eyes. In other words, the same simulation image may be presented to both eyes. This allows the patient to clearly observe the future vision in each eye with binocular vision.

<複数の時点に対応する複数のシミュレーション画像を出力・呈示>
画像処理ステップにおいて、患者眼における将来の複数の時点に対応する複数のシミュレーション画像が得られている場合、PC20は、複数のシミュレーション画像を患者端末30へ出力してもよい。将来の複数の時点に対応する複数のシミュレーション画像は、例えば、患者端末30によって、時系列に患者眼に呈示されてもよい。シミュレーション画像によって示される見え方が、過去または現在から、未来へ推移するように、シミュレーション画像が時系列に切り替えられつつ、呈示されてもよい。但し、必ずしもこれに限られるものではなく、複数の時点に対応する複数のシミュレーション画像が、患者眼に対して同時に(換言すれば、並列的に)呈示されてもよい。この場合、患者は、複数の時点における見え方を一覧でき、また、比較できる。
<Output and display multiple simulation images corresponding to multiple time points>
In the image processing step, when multiple simulation images corresponding to multiple future time points of the patient's eye are obtained, the PC 20 may output the multiple simulation images to the patient terminal 30. For example, the multiple simulation images corresponding to multiple future time points may be presented to the patient's eye in chronological order by the patient terminal 30. The simulation images may be presented while being switched in chronological order so that the appearance shown by the simulation images transitions from the past or present to the future. However, this is not necessarily limited to this, and multiple simulation images corresponding to multiple time points may be presented to the patient's eye simultaneously (in other words, in parallel). In this case, the patient can view and compare the appearance at multiple time points.

<障害の進行速度毎に、シミュレーション画像を生成、出力(および、呈示)>
PC20は、将来のある時点における視覚状態を示す推定情報を、障害の進行速度毎にコンピュータが取得してもよく、この場合、更に、画像処理ステップにおいて、将来のある時点における見え方を示すシミュレーション画像を、障害の進行速度毎に生成してもよい。
<Generate, output (and present) simulation images for each obstacle progression speed>
The PC 20 may have a computer acquire estimated information indicating the visual state at a certain point in the future for each speed of progression of the obstacle, and in this case, in a further image processing step, a simulation image indicating how the vision will look at a certain point in the future for each speed of progression of the obstacle may be generated.

例えば、障害の進行の程度の経時変化は、図4に示すグラフによって示される。図4に示すグラフでは、縦軸がMD(mean deviation)値 [dB]を示しており、横軸が時間を示している。MD値は、視野における平均感度低下を示しており、視野検査によって得られる、視野の障害の程度を示す指標の一種である。図4において、各時点でのMD値に対してフィッティングされる直線(曲線であってもよい)は、MD slopeと呼ばれる。障害の進行速度は、MD slopeの傾き[dB/year]によって記述され得る。例えば、過去の検査点でのMD 値を用いて、過去と将来で進行速度が変わらない場合における、MD slopeを求めることができる。MD slopeに基づいて、ある年齢でのMD値を推定できる。 For example, the change over time in the degree of progression of the disorder is shown by the graph in FIG. 4. In the graph in FIG. 4, the vertical axis indicates the MD (mean deviation) value [dB], and the horizontal axis indicates time. The MD value indicates the average loss of sensitivity in the visual field, and is a type of index obtained by visual field testing that indicates the degree of visual field impairment. In FIG. 4, the straight line (or curve) that is fitted to the MD value at each time point is called the MD slope. The progression rate of the disorder can be described by the slope of the MD slope [dB/year]. For example, the MD value at a past test point can be used to calculate the MD slope when the progression rate does not change between the past and future. The MD value at a certain age can be estimated based on the MD slope.

このとき、障害の進行速度は、適切に治療された場合と、されなかった場合と、の間で互いに異なる。適切に治療された場合の進行速度は、より緩やかであり、適切に治療されなかった場合の進行速度は、より早くなる。 At this time, the rate at which the disorder progresses differs between cases where the disorder is properly treated and cases where the disorder is not properly treated. The rate of progression is slower when the disorder is properly treated, and is faster when the disorder is not properly treated.

そこで、第1実施形態では、上記のMD slope(便宜上、第1のMD slopeという)とは異なる第2のMD slopeを想定することで、これまでとは異なる速度で障害が進行するときにおける、将来の各時点での患者眼における視覚状態が、第2のMD slopeによって特定される。ここで、第1のMD slopeにおけるある時点での視覚状態を示す推定情報は、上記推定処理に基づいて求めることができる。また、MD値と視覚状態データが一対一の関係であると仮定されることによって、第2のMD slopeにおけるある時点での視覚状態は、第1のMD slopeにおける別の時点での視覚状態と同じと考えられる。よって、第1のMD slopeと第2のMD slopeとのMD値による対応関係に基づいて、上記推定処理において視覚状態を求める時点を補正することで、第2のMD slopeにおける任意の時点での視覚状態を示す推定情報を、求めることができる。また、求めた推定情報に基づいて、第2のMD slopeにおける任意の時点でのシミュレーション画像を得ることができる。 In the first embodiment, a second MD slope different from the above MD slope (for convenience, referred to as the first MD slope) is assumed, and the visual state of the patient's eye at each future time point when the disorder progresses at a different speed from before is specified by the second MD slope. Here, estimated information indicating the visual state at a certain time point in the first MD slope can be obtained based on the above estimation process. Also, by assuming that the MD value and the visual state data have a one-to-one relationship, the visual state at a certain time point in the second MD slope is considered to be the same as the visual state at another time point in the first MD slope. Therefore, based on the correspondence between the first MD slope and the second MD slope by the MD value, the time point at which the visual state is obtained in the above estimation process is corrected, and estimated information indicating the visual state at any time point in the second MD slope can be obtained. Also, based on the obtained estimated information, a simulation image at any time point in the second MD slope can be obtained.

なお、図4において、第2のMD slopeは、第1のMD slopeに対して、より悪い予後を示すものである。第2のMD slopeと第1のMD slopeとの間における傾きの差は、過去の複数の患者眼のMD slopeに基づく、統計的な値であってもよい。この値は、例えば、既定値であってもよいし、機械学習に基づく値であってもよい。 In FIG. 4, the second MD slope indicates a worse prognosis than the first MD slope. The difference in slope between the second MD slope and the first MD slope may be a statistical value based on the MD slopes of multiple patient eyes in the past. This value may be, for example, a default value or a value based on machine learning.

第1実施形態では、以上のようにして、将来のある時点における見え方を示すシミュレーション画像が、障害の進行速度毎に生成され、それぞれのシミュレーション画像が、患者眼に呈示される。進行速度が互いに異なる2つシミュレーション画像は、治療が適切に行われる場合と、行われなかった場合と、に対応しているため、それぞれのシミュレーション画像が呈示されることで、患者は、障害の進行速度の違いによる、将来の見え方の違いを、良好に比較できる。その結果、治療に対する動機付けを、より効果的に患者に与えることができる。 In the first embodiment, as described above, simulation images showing the vision at a certain point in the future are generated for each progression speed of the disorder, and each simulation image is presented to the patient's eye. Since the two simulation images with different progression speeds correspond to a case where treatment is performed appropriately and a case where treatment is not performed, by presenting each simulation image, the patient can easily compare the difference in future vision due to the difference in the progression speed of the disorder. As a result, the patient can be more effectively motivated to undergo treatment.

なお、障害の進行速度が互いに異なる複数のシミュレーション画像は、同時に、患者眼に呈示されてもよいし、交互に切り替えて患者眼に呈示されてもよい。これによって、患者は、障害の進行速度の違いによる、将来の見え方の違いを、良好に比較できる。障害の進行速度が互いに異なる複数のシミュレーション画像が、交互に切り替えて患者眼に呈示される場合は、障害の進行速度がより遅い場合を想定したシミュレーション画像と、障害の進行速度がより遅い場合を想定したシミュレーション画像と、の呈示順序が予め定められていてもよい。また、呈示順序は、検者からの操作入力に応じて変更可能であってもよい。 Note that multiple simulation images with different rates of progression of the disorder may be presented to the patient's eye simultaneously, or may be presented to the patient's eye in an alternating manner. This allows the patient to easily compare the difference in future vision due to the difference in the rate of progression of the disorder. When multiple simulation images with different rates of progression of the disorder are presented to the patient's eye in an alternating manner, the presentation order of the simulation image assuming a slower rate of progression of the disorder and the simulation image assuming an even slower rate of progression of the disorder may be predetermined. The presentation order may also be changeable in response to operational input from the examiner.

また、障害の進行速度が互いに異なる複数のシミュレーション画像を呈示する際に、併せて、寿命が尽きる前に失明するか否かを示す情報が、患者に対して呈示されてもよい。 When presenting multiple simulation images with different rates of progression of the disorder, the patient may also be presented with information indicating whether or not they will become blind before the end of their lifespan.

また、PC20は、ユーザインターフェースを介して障害の程度を示す情報を受け付け、その障害の程度によるシミュレーション画像を生成し出力すると共に、その障害の程度に至るまでの期間を求めて出力してもよい。障害の程度を示す情報は、例えば、MD値であってもよいし、初期、中期、後期等の情報であってもよい。例えば、あるMD値を受け付けた場合に、そのMD値での見え方を示すシミュレーション画像と共に、何年後にその見え方に至るかを示す情報を、PC20は、例えば、前述のMD slopeに基づいて取得し、表示装置へ出力してもよい。入力された障害の程度に至るまでの期間を示す情報は、例えば、障害の進行速度毎に複数求められてもよい。 The PC 20 may also receive information indicating the degree of disability via a user interface, generate and output a simulation image based on that degree of disability, and determine and output the period until that degree of disability is reached. The information indicating the degree of disability may be, for example, an MD value, or information on early, middle, late, etc. For example, when a certain MD value is received, the PC 20 may obtain information indicating how many years it will take to reach that degree of disability, based on, for example, the MD slope described above, and output this to the display device, along with a simulation image showing how the vision will look at that MD value. The information indicating the period until the input degree of disability is reached may be obtained in multiple quantities, for example, for each progression speed of the disability.

<所望の時点におけるシミュレーション画像の表示>
PC20がユーザインターフェースを介してシミュレーション画像によって見え方を示す「時点」に関する情報を受け付け、該時点におけるシミュレーション画像を生成する場合においても、上述のMD slopeは利用され得る。例えば、上述のMD slopeにおける、入力された「時点」と対応するMD値に基づいて、該時点での見え方を示すシミュレーション画像を生成してもよい。これにより、検者又は患者の所望の時点における見え方を確認できる。
<Displaying a simulation image at a desired time point>
The above-mentioned MD slope can be used even when the PC 20 receives information on the "time point" showing the appearance by the simulation image via a user interface and generates a simulation image at the time point. For example, a simulation image showing the appearance at the time point may be generated based on the MD value corresponding to the input "time point" in the above-mentioned MD slope. This allows the examiner or patient to check the appearance at a desired time point.

また、PC20は、障害の進行速度が互いに異なる第1のMD slopeと第2のMD slopeとの時間(例えば、年齢)による対応関係に基づいて、入力された「時点」での、シミュレーション画像を、障害の進行速度毎(例えば、MD slope毎)に生成し、更に出力してもよい。 The PC 20 may also generate and further output a simulation image at the input "time point" for each progression speed of the disorder (e.g., for each MD slope) based on the correspondence over time (e.g., age) between the first MD slope and the second MD slope, which have different progression speeds of the disorder.

<正常者の見え方との比較表示>
PC20は、シミュレーション画像と正常者の見え方を示す画像とを、患者眼に対して、同時に、又は、交互に切換えて呈示するために出力してもよい。正常者の見え方を示す画像は、例えば、入力画像であってもよい。シミュレーション画像と正常者の見え方を示す画像とが呈示されることで、患者は、将来の見え方を、より良好に把握できる。
<Comparison with normal vision>
The PC 20 may output the simulation image and the image showing how a normal person sees to be presented to the patient's eye simultaneously or by switching between them alternately. The image showing how a normal person sees may be, for example, an input image. By presenting the simulation image and the image showing how a normal person sees, the patient can better grasp how he or she will see in the future.

以上、実施形態に基づいて説明したが、本開示は、必ずしも上記実施形態に限定されるものではなく、適宜変形し、実施し得る。 Although the above description is based on an embodiment, the present disclosure is not necessarily limited to the above embodiment and can be modified and implemented as appropriate.

<視覚シミュレーションプログラムの実行主体について>
例えば、第1実施形態では、PC20において、視覚シミュレーションプログラムが実行される場合について説明した。しかし、必ずしもこれに限られるものでは無く、視覚シミュレーションプログラムは、PC20以外のコンピュータにおいて実行されてもよい。例えば、検査装置10、および、患者端末30のいずれかで実行されてもよいし、図示なきサーバコンピュータにおいて実行されてもよい。
<About the entity that runs the visual simulation program>
For example, in the first embodiment, a case has been described in which the visual simulation program is executed in the PC 20. However, this is not necessarily limited to this, and the visual simulation program may be executed in a computer other than the PC 20. For example, the visual simulation program may be executed in either the inspection device 10 or the patient terminal 30, or may be executed in a server computer (not shown).

また、第1実施形態では、患者眼の視機能を検査する装置と、推定情報に基づいてシミュレーション画像を得る装置と、シミュレーション画像を患者眼に呈示する装置と、が別体であった。しかし、必ずしもこれに限られるものではなく、上記のいずれか2つまたは全部が一体化されてもよい。例えば、特開2017-217016号公報には、ヘッドマウント型の視野計が開示されている。このようなデバイスで更に、シミュレーション画像を推定情報に基づいて取得し、更にはシミュレーション画像を患者眼に呈示してもよい。 In the first embodiment, the device for testing the visual function of the patient's eye, the device for obtaining a simulation image based on estimated information, and the device for presenting the simulation image to the patient's eye were separate. However, this is not necessarily limited to this, and any two or all of the above may be integrated. For example, JP 2017-217016 A discloses a head-mounted perimeter. Such a device may further obtain a simulation image based on estimated information and further present the simulation image to the patient's eye.

<程度分類ベースで、将来の視覚状態を推定>
例えば、第1実施形態では、シミュレーション画像は、推定情報に基づいて患者端末20が画像処理することによって生成されるものとして説明した。但し、シミュレーション画像は、必ずしも画像処理によって得られる必要は無い。例えば、シミュレーション画像は、障害の程度分類に応じて、予め複数用意されていてもよい。
<Estimating future visual status based on degree classification>
For example, in the first embodiment, the simulation image is described as being generated by image processing performed by the patient terminal 20 based on the estimated information. However, the simulation image does not necessarily have to be obtained by image processing. For example, a plurality of simulation images may be prepared in advance according to the classification of the degree of the disability.

例えば、緑内障による程度分類としては、一例として、湖崎分類、Aulhorn 分類Greve 変法、および、Humphery 視野計における視野欠損の程度分類等が知られており、例えば、これらいずれかの分類に応じて、複数のシミュレーション画像が予め用意されていてもよい。 For example, known examples of glaucoma severity classification include the Kosaki classification, the Aulhorn classification Greve modification, and the Humphery perimeter visual field defect severity classification. For example, multiple simulation images may be prepared in advance according to any of these classifications.

<出力・呈示ステップにおけるシミュレーション画像の出力先について>
例えば、第1実施形態では、出力・呈示ステップにおいて、シミュレーション画像がPC20から患者端末30へ出力される場合について説明した。しかし、必ずしもこれに限られるものではなく、シミュレーション画像は、PC20からアクセス可能なメモリ(例えば、非一過性のメモリ22、および、サーバコンピュータのメモリ等)に出力されてもよい。また、患者端末30そのものが推定情報に基づいてシミュレーション画像を得る場合、出力・呈示ステップにおけるシミュレーション画像の出力は、モニタまたはプロジェクタを介した患者眼への呈示出力によって実現され得る。
<About the output destination of the simulation image in the output/presentation step>
For example, in the first embodiment, a case has been described in which the simulation image is output from the PC 20 to the patient terminal 30 in the output/presentation step. However, this is not necessarily limited to this, and the simulation image may be output to a memory accessible from the PC 20 (e.g., the non-transient memory 22 and the memory of a server computer, etc.). In addition, when the patient terminal 30 itself obtains the simulation image based on the estimated information, the output of the simulation image in the output/presentation step may be realized by a presentation output to the patient's eye via a monitor or a projector.

<ヘッドマウントディスプレイによるトラッキング>
端末装置30は、患者眼の視線方向を検出し、視線方向に応じて、画面上におけるシミュレーション画像の表示位置を制御してもよい(トラッキング)。これにより、患者眼の視線方向が変化しても、将来における患者眼の視覚状態を、患者が適切に観察できる。
<Tracking using head-mounted displays>
The terminal device 30 may detect the gaze direction of the patient's eye and control the display position of the simulation image on the screen according to the gaze direction (tracking). This allows the patient to appropriately observe the future visual condition of the patient's eye even if the gaze direction of the patient's eye changes.

<表示装置(呈示装置)の他の実施例>
また、例えば、上記実施形態において、シミュレーション画像を患者に呈示するための表示装置は、ヘッドマウントディスプレイ(患者端末30)であるものとして説明した。但し、必ずしもこれに限られるものではない。表示装置は、例えば、据え置き型のディスプレイであってもよいし、スクリーンに画像を投影するプロジェクタであってもよいし、他の表示装置であってもよい。表示装置として、据え置き型のディスプレイやプロジェクタが利用される場合は、患者だけでなく、その家族、および、検者(例えば、医師)と共に、推定された視覚状態を見ることができ、インフォームドコンセントに有用である。
<Another embodiment of the display device (presentation device)>
Also, for example, in the above embodiment, the display device for presenting the simulation image to the patient has been described as a head-mounted display (patient terminal 30). However, this is not necessarily limited to this. The display device may be, for example, a stationary display, a projector that projects an image onto a screen, or another display device. When a stationary display or projector is used as the display device, the estimated visual condition can be viewed not only by the patient but also by the patient's family and the examiner (for example, a doctor), which is useful for informed consent.

なお、上記実施形態では、ヘッドマウントディスプレイ(患者端末30)を表示装置として利用することで、患者眼の左眼と右眼とに、独立に画像を呈示可能であった。しかし、例えば、上記のような据え置き型のディスプレイやプロジェクタが表示装置として利用される場合は、患者眼の両眼に、同一の画像が呈示される。このとき、表示装置には、ある時点における両眼視の状態での見え方を1枚で示すシミュレーション画像が表示されてもよい。両眼視の状態での見え方を1枚で示すシミュレーション画像は、例えば、左右各眼に対する2枚のシミュレーション画像の論理和によるものであってもよい。なお、両眼視の状態での見え方を1枚で示すシミュレーション画像は、表示装置が据え置き型ディスプレイやプロジェクタである場合に限らず、各種表示装置において表示されてもよい。 In the above embodiment, a head-mounted display (patient terminal 30) was used as a display device, making it possible to present images independently to the left and right eyes of the patient. However, for example, when a stationary display or projector as described above is used as a display device, the same image is presented to both of the patient's eyes. In this case, a simulation image showing the appearance in a binocular vision state at a certain point in time may be displayed on the display device. The simulation image showing the appearance in a binocular vision state on a single sheet may be, for example, a logical sum of two simulation images for each of the left and right eyes. The simulation image showing the appearance in a binocular vision state on a single sheet may be displayed on various display devices, not limited to when the display device is a stationary display or projector.

<前眼部に関する視覚状態の推定結果への適用>
上記実施形態では、患者眼における視機能として、ある時点における網膜機能が推定され、推定される網膜機能に基づいてシミュレーション画像が生成および呈示される場合について説明した。患者眼における視機能として、ある時点における患者眼の前眼部に関する機能が推定され、推定される前眼部の機能に基づいてシミュレーション画像が生成および呈示されてもよい。また、前眼部と網膜との両方の機能が推定されてもよく、推定される両方の機能を考慮して、シミュレーション画像が生成および呈示されてもよい。前眼部の機能としては、例えば、屈折機能(眼屈折力)が推定されてもよいし、眼軸長値が推定されてもよいし、調節機能(調節力)が推定されてもよいし、透光体における混濁の程度が推定されてもよい。これらの各種機能は、種々の眼科測定装置によって、適宜測定され得る。
<Application to estimation results of visual condition related to the anterior eye>
In the above embodiment, a case has been described in which the retinal function at a certain time is estimated as the visual function of the patient's eye, and a simulation image is generated and presented based on the estimated retinal function. As the visual function of the patient's eye, a function related to the anterior segment of the patient's eye at a certain time may be estimated, and a simulation image may be generated and presented based on the estimated function of the anterior segment. In addition, the functions of both the anterior segment and the retina may be estimated, and a simulation image may be generated and presented taking into account both estimated functions. As the function of the anterior segment, for example, the refractive function (ocular refractive power) may be estimated, the axial length value may be estimated, the accommodation function (accommodation power) may be estimated, or the degree of opacity in the optical medium may be estimated. These various functions may be appropriately measured by various ophthalmic measuring devices.

例えば、屈折機能が推定される場合、推定される屈折力に応じたPSF(点像強度分布)を取得し、PSFと入力画像との画像処理(例えば、コンボリューション積分)によって、推定された屈折力での見え方を示すシミュレーション画像が生成されてもよい。また、点像強度分布(PSF)を更にフーリエ変換することによって得られる光学伝達関数(OTF)を、入力画像と画像処理(コンボリューション積分)することによって、シミュレーション画像が生成されてもよい。屈折力の推定は、例えば、過去の複数回の検査に基づいて推定される。例えば、過去の検査点のフィッティング直線(または曲線)に基づいて推定されてもよいし、機械学習に基づく値であってもよい。 For example, when the refractive function is estimated, a PSF (point spread function) according to the estimated refractive power may be acquired, and a simulation image showing the appearance at the estimated refractive power may be generated by image processing (e.g., convolution integration) of the PSF and the input image. A simulation image may also be generated by image processing (convolution integration) of the optical transfer function (OTF) obtained by further Fourier transforming the point spread function (PSF) and the input image. The refractive power is estimated, for example, based on multiple past examinations. For example, it may be estimated based on a fitting straight line (or curve) of past examination points, or may be a value based on machine learning.

患者眼における視機能を推定するうえで、患者眼に関するその他の測定結果を利用してもよい。更には、脳を含む、眼以外の身体を撮像するMRI, CT, PET, 超音波などあらゆる検査装置の検査結果を利用して、患者眼における視機能を推定しても良い。 In estimating the visual function of the patient's eye, other measurement results of the patient's eye may be used. Furthermore, the visual function of the patient's eye may be estimated using the results of any examination device that images the body other than the eye, including the brain, such as MRI, CT, PET, or ultrasound.

<補足:本開示に含まれる実施形態>
また、本開示の実施形態は、以下の第1の視覚シミュレーション方法、および、視覚シミュレーション方法をコンピュータに実行させる視覚シミュレーションプログラムであり得る。
<Supplementary Note: Embodiments Contained in This Disclosure>
Furthermore, an embodiment of the present disclosure may be the following first visual simulation method and a visual simulation program for causing a computer to execute the visual simulation method.

第1の視覚シミュレーション方法は、患者眼(被検眼)の現在の視覚状態とは異なる視覚状態での見え方を示したシミュレーション画像であって、患者眼の左眼と右眼と間で互いに異なるシミュレーション画像を取得する取得ステップと、患者眼の左眼と右眼とに、独立に画像を呈示可能な表示装置を介して、左眼用のシミュレーション画像を左眼に、右眼用のシミュレーション画像を右眼に、同時に呈示する呈示ステップと、を含む。第1の視覚シミュレーション方法によれば、視覚状態が変化したときの見え方を、左眼と右眼とで個別に想定でき、そのときの両眼視による見え方を、患者(被検者)に体験させることができる。従って、より実際の見え方に近い形で、視覚状態が変化したときの見え方を体験させることができる。 The first visual simulation method includes an acquisition step of acquiring different simulation images between the left and right eyes of the patient's eye, which are simulation images showing how the patient's eye (examined eye) sees in a visual state different from the current visual state of the patient's eye, and a presentation step of simultaneously presenting a simulation image for the left eye to the left eye and a simulation image for the right eye to the right eye via a display device capable of presenting images independently to the left and right eyes of the patient's eye. According to the first visual simulation method, the appearance when the visual state changes can be individually imagined for the left and right eyes, and the patient (examinee) can experience the appearance with binocular vision at that time. Therefore, the appearance when the visual state changes can be experienced in a form that is closer to the actual appearance.

10 眼検査装置
20 PC
30 患者端末
E 患者眼
10 Eye examination device 20 PC
30 Patient terminal E Patient eye

Claims (2)

ある時点での患者眼における視覚状態を示す推定情報を、コンピュータが取得する推定情報取得ステップと、
前記ある時点での患者眼における見え方を示すシミュレーション画像であって、前記推定情報に応じたシミュレーション画像を前記コンピュータが出力する出力ステップと、を含み、
前記推定情報取得ステップでは、左右の患者眼のそれぞれの前記推定情報を取得し、
前記出力ステップでは、左右の患者眼のそれぞれの前記推定情報に応じた前記シミュレーション画像を、前記左右の患者眼に個別に呈示するために出力し、
更に、
前記推定情報取得ステップでは、将来のある時点における視覚状態を示す前記推定情報として、障害の進行速度が第1の速度である場合における第1推定情報と、障害の進行速度が前記第1の速度とは異なる第2の速度である場合における第2推定情報とを、取得し、
前記コンピュータは、同一の視野に関して障害の進行速度が互いに異なる前記シミュレーション画像として、前記第1推定情報に基づく第1シミュレーション画像および前記第2推定情報に基づく第2シミュレーション画像を生成する、視覚シミュレーション方法。
An estimated information acquisition step in which a computer acquires estimated information indicating a visual condition of a patient's eye at a certain point in time;
an output step in which the computer outputs a simulation image showing a vision in the patient's eye at the certain time point, the simulation image corresponding to the estimated information;
In the estimated information acquisition step, the estimated information of each of the patient's left and right eyes is acquired,
In the output step, the simulation images corresponding to the estimated information for each of the left and right patient's eyes are output to be presented to the left and right patient's eyes individually,
Furthermore,
In the estimated information acquisition step, first estimated information in a case where a progression speed of the obstacle is a first speed and second estimated information in a case where the progression speed of the obstacle is a second speed different from the first speed are acquired as the estimated information indicating a visual state at a certain time point in the future;
The computer generates a first simulation image based on the first estimated information and a second simulation image based on the second estimated information as the simulation images in which the progression speeds of an obstacle are different for the same field of view.
請求項1記載の視覚シミュレーション方法を、前記コンピュータに実行させる視覚シミュレーションプログラム。 A visual simulation program that causes the computer to execute the visual simulation method described in claim 1.
JP2019088524A 2019-05-08 2019-05-08 Visual simulation method and visual simulation program Active JP7467830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019088524A JP7467830B2 (en) 2019-05-08 2019-05-08 Visual simulation method and visual simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088524A JP7467830B2 (en) 2019-05-08 2019-05-08 Visual simulation method and visual simulation program

Publications (3)

Publication Number Publication Date
JP2020182680A JP2020182680A (en) 2020-11-12
JP2020182680A5 JP2020182680A5 (en) 2022-04-18
JP7467830B2 true JP7467830B2 (en) 2024-04-16

Family

ID=73045342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088524A Active JP7467830B2 (en) 2019-05-08 2019-05-08 Visual simulation method and visual simulation program

Country Status (1)

Country Link
JP (1) JP7467830B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058321A1 (en) * 2021-10-04 2023-04-13 ソニーグループ株式会社 Information processing apparatus, information processing method, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149654A (en) 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
US20120154742A1 (en) 2009-08-28 2012-06-21 Universidad De Murcia Ophthalmic instrument for the measurement of ocular refraction and visual simulation, and associated methods of measurement of ocular refraction, simulation of ophthalmic elements, visual simulation and for obtaining optical parameters
WO2013175923A1 (en) 2012-05-25 2013-11-28 Hoya株式会社 Simulation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149654A (en) 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
US20120154742A1 (en) 2009-08-28 2012-06-21 Universidad De Murcia Ophthalmic instrument for the measurement of ocular refraction and visual simulation, and associated methods of measurement of ocular refraction, simulation of ophthalmic elements, visual simulation and for obtaining optical parameters
WO2013175923A1 (en) 2012-05-25 2013-11-28 Hoya株式会社 Simulation device

Also Published As

Publication number Publication date
JP2020182680A (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP5017328B2 (en) Tomographic imaging apparatus, control method therefor, program, and storage medium
JP5733962B2 (en) Ophthalmologic apparatus, ophthalmologic apparatus control method, and program
JP6076329B2 (en) System and method for efficiently obtaining measurements of a human eyeball using tracking
Adam et al. Quality and diagnostic utility of mydriatic smartphone photography: the smartphone ophthalmoscopy reliability trial
Kim et al. Long-term reproducibility of macular ganglion cell analysis in clinically stable glaucoma patients
JP7297628B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
KR20130042640A (en) Image processing apparatus
JP2012157591A (en) Image processing apparatus, image processing method and program
JP7458343B2 (en) Vitreous-retinal characterization using optical coherence tomography
JP7270686B2 (en) Image processing system and image processing method
JP2022526867A (en) Eye examination
JP7467830B2 (en) Visual simulation method and visual simulation program
Stino et al. Comparison of two ultra-widefield color-fundus imaging devices for visualization of retinal periphery and microvascular lesions in patients with early diabetic retinopathy
CN111989030B (en) Image processing method, program, and image processing apparatus
Schramm et al. 3D retinal imaging and measurement using light field technology
Bergua et al. Tele-transmission of stereoscopic images of the optic nerve head in glaucoma via Internet
US20220409046A1 (en) Ophthalmic imaging apparatus and ophthalmic image processing appratus
JP5436630B2 (en) Tomographic imaging apparatus, tomographic imaging method and program
Yogesan et al. Software for 3-D visualization/analysis of optic-disc images
JP2022037486A (en) Ophthalmologic image processing apparatus, ophthalmologic apparatus, image quality evaluation method, program, and ophthalmologic image processing system
JP6753228B2 (en) Lens prescription assistance program
JP2021010417A (en) Visual perception simulation method and visual perception simulation program
JP6911301B2 (en) Lens prescription assistance program
JP2020121012A (en) Ophthalmologic information processing apparatus, learned model, learning apparatus, ophthalmologic information processing method, and program
US11875480B1 (en) Distinguishing artifacts from pathological features in digital images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7467830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150