JP2020182680A - Visual perception simulation method and visual perception simulation program - Google Patents

Visual perception simulation method and visual perception simulation program Download PDF

Info

Publication number
JP2020182680A
JP2020182680A JP2019088524A JP2019088524A JP2020182680A JP 2020182680 A JP2020182680 A JP 2020182680A JP 2019088524 A JP2019088524 A JP 2019088524A JP 2019088524 A JP2019088524 A JP 2019088524A JP 2020182680 A JP2020182680 A JP 2020182680A
Authority
JP
Japan
Prior art keywords
patient
eye
visual
simulation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019088524A
Other languages
Japanese (ja)
Other versions
JP7467830B2 (en
JP2020182680A5 (en
Inventor
直樹 竹野
Naoki Takeno
直樹 竹野
良一 相原
Ryoichi Aihara
良一 相原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2019088524A priority Critical patent/JP7467830B2/en
Publication of JP2020182680A publication Critical patent/JP2020182680A/en
Publication of JP2020182680A5 publication Critical patent/JP2020182680A5/ja
Application granted granted Critical
Publication of JP7467830B2 publication Critical patent/JP7467830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide a visual perception simulation method and a visual perception simulation program that effectively motivate a patient to undergo treatment for the patient's eye.SOLUTION: A visual perception simulation method to be implemented by an ophthalmologic system includes at least: an estimation information acquisition step of a computer acquiring estimation information indicating a visual perception state of a patient's eye at a certain point of time; and an output step of a PC outputting a simulation image that indicates visual performance of the patient's eye at the certain point of time and corresponds to the estimation information in order to present the simulation image to the patient's eye. As a result of the presentation of the simulation image to the patient's eye, the patient is effectively motivated to undergo treatment for the eye.SELECTED DRAWING: Figure 3

Description

本開示は、視覚シミュレーション方法、および、視覚シミュレーションプログラムに関する。 The present disclosure relates to a visual simulation method and a visual simulation program.

眼の疾患として、緑内障等、視野に障害を生じる疾患が知られている。疾患の進行状況は、視野計、および、OCT(光干渉断層計)等の検査装置によって検査できる。 As eye diseases, diseases that cause visual field disorders such as glaucoma are known. The progress of the disease can be inspected by a perimeter and an inspection device such as an OCT (optical coherence tomography).

近年、将来における患者の視野を推定する手法が提案されている。例えば、特許文献1に開示された手法では、複数回にわたる視野計での検査結果に基づいて、将来における患者の視野が推定される。 In recent years, methods for estimating the field of view of patients in the future have been proposed. For example, in the method disclosed in Patent Document 1, the field of view of a patient in the future is estimated based on the test results of a plurality of perimeters.

特開2014−166250号公報Japanese Unexamined Patent Publication No. 2014-166250

視野の障害は、患者の自覚がないまま徐々に進行する場合が多い。また、視野の障害は、非可逆的である。故に、障害の進行を防いで失明を予防するためには、治療に関して、患者が積極的に関わり、通院および服薬等が適切に行われることが重要となる。 Visual field impairment often progresses gradually without the patient's awareness. Also, visual field impairment is irreversible. Therefore, in order to prevent the progression of disability and prevent blindness, it is important that the patient is actively involved in the treatment, and that the patient goes to the hospital and takes appropriate medicine.

しかしながら、特に、視野の障害の初期の段階では、患者が症状を自覚しにくい。また、視野の障害は進行が遅く、非可逆的であることから、治療効果を患者が実感し難い。そこで、本発明者は、治療に対する動機付けを患者に対して効果的に与える手法に着目し、検討を行った。 However, patients are less likely to notice symptoms, especially in the early stages of visual field impairment. In addition, since the visual field disorder progresses slowly and is irreversible, it is difficult for the patient to realize the therapeutic effect. Therefore, the present inventor has focused on and studied a method for effectively motivating a patient for treatment.

本開示は、上記事情に鑑みてなされたものであり、眼の治療に対する動機付けを、患者に対して効果的に与えること、を技術課題とする。 The present disclosure has been made in view of the above circumstances, and it is a technical subject to effectively motivate patients for eye treatment.

本開示の第1態様に係る視覚シミュレーション方法は、ある時点での患者眼における視覚状態を示す推定情報を、コンピュータが取得する推定情報取得ステップと、前記ある時点での患者眼における見え方を示すシミュレーション画像であって、前記推定情報に応じたシミュレーション画像を、患者眼へ呈示するために前記コンピュータが出力する出力ステップと、を含む。 The visual simulation method according to the first aspect of the present disclosure shows an estimation information acquisition step in which a computer acquires estimation information indicating a visual state in the patient's eye at a certain time point, and how it looks in the patient's eye at the time point. It is a simulation image, and includes an output step output by the computer to present the simulation image corresponding to the estimated information to the patient's eye.

本開示の第2態様に係る視覚シミュレーションプログラムは、第1態様に係る視覚シミュレーション方法を、前記コンピュータに実行させる。 The visual simulation program according to the second aspect of the present disclosure causes the computer to execute the visual simulation method according to the first aspect.

本開示によれば、眼の治療に対する動機付けを、患者に対して効果的に与えることができる。 According to the present disclosure, the patient can be effectively motivated for the treatment of the eye.

第1実施形態に係る、眼科システムの概要を示した図である。It is a figure which showed the outline of the ophthalmic system which concerns on 1st Embodiment. 患者端末の詳細構成を示した図である。It is a figure which showed the detailed structure of a patient terminal. 実施形態における視覚シミュレーション方法の流れを説明するための図である。It is a figure for demonstrating the flow of the visual simulation method in embodiment. 障害の進行速度が互いに異なる場合のMD値の経時変化を示したグラフである。It is a graph which showed the time-dependent change of MD value when the progress rate of a disorder is different from each other.

以下、図面を参照しつつ、本開示を、実施形態に基づいて説明する。 Hereinafter, the present disclosure will be described based on an embodiment with reference to the drawings.

図1は、第1実施形態における眼科システム1の概略構成を示している。眼科システム1は、ある時点での患者眼における見え方を示すシミュレーション画像を患者眼に呈示するために利用される。ここでいう、ある時点とは、現在以外の時点であってもよく、過去および将来のある時点であってもよい。また、過去、現在、および将来のある時点であってもよい。以下の説明において、眼科システム1は、一例として、将来の時点と対応するシミュレーション画像を呈示するために利用される。 FIG. 1 shows a schematic configuration of an ophthalmic system 1 according to the first embodiment. The ophthalmic system 1 is used to present to the patient's eye a simulated image showing how it looks in the patient's eye at a given point in time. The time point referred to here may be a time point other than the present, or may be a time point in the past and in the future. It may also be at some point in the past, present, and future. In the following description, the ophthalmic system 1 is used, as an example, to present a simulation image corresponding to a future time point.

図1に示した眼科システム1は、眼検査装置10と、PC20と、患者端末30と、を含む。各装置は、ネットワークを介して、相互に接続されてもよい。 The ophthalmic system 1 shown in FIG. 1 includes an eye examination device 10, a PC 20, and a patient terminal 30. The devices may be connected to each other via a network.

<眼検査装置>
眼検査装置10は、患者眼の視機能を検査するために利用される。
<Eye examination device>
The eye examination device 10 is used to examine the visual function of the patient's eye.

第1実施形態では、視機能として主に網膜機能が検査される。眼検査装置10は、部位ごとの網膜視感度を検査するために利用されてもよい。このような眼検査装置10は、例えば、視野計であってもよいし、ERG(electroretinogram)であってもよいし、FRG(functional retinography)であってもよい。視野計は、静的視野計(例えば、ハンフリー視野計、および、マイクロペリメータ等)であってもよいし、動的視野計(例えば、ゴールドマン視野計等)であってもよい。 In the first embodiment, the retinal function is mainly examined as the visual function. The eye examination device 10 may be used to examine the retinal luminosity factor for each site. Such an eye examination device 10 may be, for example, a perimeter, an ERG (electroretinogram), or an FRG (functional retinography). The perimeter may be a static perimeter (eg, Humphrey perimeter, microperimeter, etc.) or a dynamic perimeter (eg, Goldman perimeter, etc.).

また、近年では、眼底イメージング装置で撮影される網膜の構造的な特徴に基づいて、患者の視覚状態を推定する手法が注目されている。このような手法へ利用可能な眼底イメージング装置としては、OCT、眼底カメラ、および、SLO等が挙げられる。眼底イメージング装置は、細胞レベルで眼底を撮影する装置であってもよい。網膜の構造的な特徴に基づいて患者の視覚状態を推定する手法の一例として、光干渉断層計(OCT)で計測される網膜の層厚情報(層厚の分布情報)から、患者の視野を推定する手法が、次の文献において提案されている。
Sugiura, H. et al. (2018) Estimating Glaucomatous Visual Sensitivity from Retinal Thickness with Pattern-Based Regularization and Visualization, in Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining - KDD ’18. New York, New York, USA: ACM Press, pp. 783-792.
Further, in recent years, a method of estimating the visual state of a patient based on the structural features of the retina imaged by a fundus imaging device has attracted attention. Examples of the fundus imaging device that can be used for such a method include OCT, fundus camera, SLO, and the like. The fundus imaging device may be a device that images the fundus at the cellular level. As an example of a method for estimating the visual state of a patient based on the structural characteristics of the retina, the visual field of the patient is obtained from the layer thickness information (layer thickness distribution information) of the retina measured by an optical coherence tomography (OCT). A method for estimating is proposed in the following literature.
Sugiura, H. et al. (2018) Estimating Glaucomatous Visual Sensitivity from Retinal Thickness with Pattern-Based Regularization and Visualization, in Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining --KDD '18. New York, New York , USA: ACM Press, pp. 783-792.

以下、特に断りが無い限り、眼検査装置10は視野計であって、眼検査装置10による検査結果として、部位ごとの網膜の視感度を示す情報が得られるものとして、説明する。 Hereinafter, unless otherwise specified, the eye examination device 10 will be described as a perimeter, and as an examination result by the eye examination device 10, information indicating the luminosity factor of the retina for each site can be obtained.

<コンピュータ>
第1実施形態では、PC20によって、視覚シミュレーションプログラムが実行される。第1実施形態では、PC20によって、シミュレーション画像が生成され、表示装置(第1実施形態では、患者端末)へ出力される。シミュレーション画像は、ある時点での患者眼における見え方を示した画像であり、ここでは、将来の見え方を示す。第1実施形態において、シミュレーション画像は、PC20による画像処理によって生成されるものとして説明する。
<Computer>
In the first embodiment, the PC 20 executes a visual simulation program. In the first embodiment, the PC 20 generates a simulation image and outputs it to a display device (in the first embodiment, a patient terminal). The simulation image is an image showing the appearance in the patient's eye at a certain point in time, and here, the future appearance is shown. In the first embodiment, the simulation image will be described as being generated by image processing by the PC 20.

第1実施形態において、PC20は、プロセッサ21(処理装置)を備える。第1実施形態において、プロセッサ21は、画像処理器を兼用する。PC20が備えるユーザインターフェイス(図示せず)を介して、PC20は、検者等からの操作入力を受け付けてもよい。例えば、PC20は、見え方をシミュレーションする時点を示す情報(例えば、患者の年齢)を、ユーザインターフェースを介して受け付けてもよく、受け付けた「時点」でのシミュレーション画像が、後述の各処理によって生成されてもよい。 In the first embodiment, the PC 20 includes a processor 21 (processing device). In the first embodiment, the processor 21 also serves as an image processor. The PC 20 may accept an operation input from an examiner or the like via a user interface (not shown) provided in the PC 20. For example, the PC 20 may accept information indicating a time point for simulating the appearance (for example, the age of the patient) via the user interface, and a simulation image at the received "time point" is generated by each process described later. May be done.

第1実施形態において、視覚シミュレーションプログラムは、プロセッサ21からアクセス可能な、PC20の不揮発性メモリ(例えば、メモリ22)に格納されていてもよい。 In the first embodiment, the visual simulation program may be stored in the non-volatile memory of the PC 20 (for example, the memory 22) accessible from the processor 21.

<患者端末>
第1実施形態において、患者端末30は、表示装置として利用される。つまり、患者端末30によって、シミュレーション画像が、患者眼に対して呈示される。第1実施形態において、患者端末30は、左右の患者眼のそれぞれに、個別の画像を、同時に呈示し得る。つまり、左右の被検眼の間で、互いに異なるシミュレーション画像を呈示できる。
<Patient terminal>
In the first embodiment, the patient terminal 30 is used as a display device. That is, the patient terminal 30 presents the simulation image to the patient's eye. In the first embodiment, the patient terminal 30 can simultaneously present individual images to each of the left and right patient eyes. That is, different simulation images can be presented between the left and right eyes to be inspected.

患者端末30は、ウェアラブルデバイスであってもよく、一例として、図1,2に示すようなヘッドマウントディスプレイであってもよい。説明の便宜のため、以下では、患者端末30は、画像を患者に観察させるための画面31を備えるものとして説明する。第1実施形態において、画面31は、左右2つの領域に区分される。画面31の左半分(患者から見たときの左半分)は、左眼に対して画像を呈示するために用いられ、画面31の右半分(患者から見たときの右半分)は、右眼に対して画像を呈示するために用いられる。 The patient terminal 30 may be a wearable device, and as an example, it may be a head-mounted display as shown in FIGS. 1 and 2. For convenience of explanation, the patient terminal 30 will be described below assuming that the patient terminal 30 includes a screen 31 for allowing the patient to observe the image. In the first embodiment, the screen 31 is divided into two regions, left and right. The left half of the screen 31 (the left half when viewed from the patient) is used to present the image to the left eye, and the right half of the screen 31 (the right half when viewed from the patient) is the right eye. It is used to present an image to.

但し、必ずしもこれに限られるものでは無く、患者端末30は、患者眼の網膜へ直接画像を投影するプロジェクタを備えていてもよい。この場合、左右の患者眼のそれぞれに対し、プロジェクタは個別に画像を投影するものであってもよい。具体例として、左右の患者眼毎に、プロジェクタが1基ずつ設けられていてもよい。患者端末30がヘッドマウントディスプレイである場合、患者端末30は、スマートフォンおよびタブレット等のポータブルコンピュータを、ヘッドセットへ装着したものであってもよいし、スタンドアローン型の装置であってもよい。 However, the present invention is not limited to this, and the patient terminal 30 may include a projector that projects an image directly onto the retina of the patient's eye. In this case, the projector may individually project an image to each of the left and right patient eyes. As a specific example, one projector may be provided for each of the left and right patient eyes. When the patient terminal 30 is a head-mounted display, the patient terminal 30 may be a portable computer such as a smartphone and a tablet attached to a headset, or may be a stand-alone device.

なお、患者端末30は、視度補正部を備えていてもよい。画面31と、患者眼との間に、配置される補正レンズ33を、視度補正部は有していてもよい。視度補正部は、患者眼の屈折誤差を補正するために利用される。視度補正部は、画面31または補正レンズの位置を、前後方向へ移動させる機構を含んでいてもよい。 The patient terminal 30 may include a diopter correction unit. The diopter correction unit may have a correction lens 33 arranged between the screen 31 and the patient's eye. The diopter correction unit is used to correct the refraction error of the patient's eye. The diopter correction unit may include a mechanism for moving the position of the screen 31 or the correction lens in the front-rear direction.

<動作説明>
次に、図3および図4を参照し、第1実施形態における眼科システム1による視覚シミュレーション方法を説明する。
<Operation explanation>
Next, the visual simulation method by the ophthalmic system 1 in the first embodiment will be described with reference to FIGS. 3 and 4.

<検査ステップ>
事前に、眼検査装置10によって、患者眼についての視機能に関する検査が、複数回にわたって行われる。各回の検査は、例えば、数ヶ月間隔で実施されることが望ましい。また、例えば、前述の特許文献1に開示された推定処理の手法を利用して、ある時点(ここでは、将来のある時点)における患者眼の視機能の状態(視覚状態)を推定するためには、検査の回数は、3回以上であることが好ましい。
<Inspection step>
In advance, the eye examination device 10 performs a plurality of examinations on the visual function of the patient's eye. It is desirable that each test be performed, for example, at intervals of several months. Further, for example, in order to estimate the state of visual function (visual state) of the patient's eye at a certain time point (here, a certain point in the future) by using the estimation processing method disclosed in Patent Document 1 described above. The number of inspections is preferably 3 or more.

第1実施形態では、眼検査装置10は、事前に、左右の患者眼に対し、視機能に関する検査を複数回行う。これにより、各回の検査で、左右の患者眼のそれぞれにおける視感度の分布を示すデータが取得される。 In the first embodiment, the eye examination device 10 performs a plurality of examinations related to visual function on the left and right patient eyes in advance. As a result, data showing the distribution of luminosity factor in each of the left and right patient eyes is acquired in each examination.

視感度の分布を示すデータは、眼検査装置10からPC20に転送されることで、PC20のメモリ(例えば、メモリ22)に格納される。第1実施形態では、この状態で、PC20によって、視覚シミュレーションプログラムが実行される。 The data showing the distribution of luminosity factor is transferred from the eye examination device 10 to the PC 20 and stored in the memory of the PC 20 (for example, the memory 22). In the first embodiment, the visual simulation program is executed by the PC 20 in this state.

<推定情報取得ステップ>
まず、PC20は、推定情報を取得する。推定情報は、患者眼におけるある時点(ここでは、将来の時点)での視覚状態を示す。第1実施形態においては、図3に示すように、左右の患者眼のそれぞれにおける推定情報が取得される。推定情報は、所定の時点(例えば、1年後、3年後、10年後等・・・)における視覚状態を示すものであってもよいし、検者または患者の所望の時点における視覚状態を示すものであってもよい。所望の時点については、例えば、入力インタフェースに対する操作入力に基づいて事前に設定されてもよい。また、将来の複数の時点における視覚状態を示す、複数の推定情報が取得されてもよい。なお、ここでは、推定情報が、PC20のプロセッサ21によって処理可能な状態に置かれることを指す。例えば、プロセッサ21によってアクセス可能な所定のメモリ領域へ、推定情報が記憶されることによって、推定情報が取得される。
<Estimated information acquisition step>
First, the PC 20 acquires the estimation information. Estimated information indicates the visual state of the patient's eye at a point in time (here, a future point in time). In the first embodiment, as shown in FIG. 3, estimated information in each of the left and right patient eyes is acquired. The estimated information may indicate the visual state at a predetermined time point (for example, 1 year, 3 years, 10 years, etc.), or the visual state at the desired time point of the examiner or the patient. It may indicate. The desired time point may be preset, for example, based on the operational input to the input interface. In addition, a plurality of estimated information indicating the visual state at a plurality of future time points may be acquired. Here, it means that the estimated information is placed in a state where it can be processed by the processor 21 of the PC 20. For example, the estimated information is acquired by storing the estimated information in a predetermined memory area accessible by the processor 21.

第1実施形態では、過去の検査結果に基づく推定処理(「予後推定」ともいう)が、PC20のプロセッサ21によって実行され、その結果として、推定情報が取得される。推定処理では、過去の複数回の検査結果に基づいて、患者眼における将来の視覚状態が推定される。 In the first embodiment, an estimation process (also referred to as “prognosis estimation”) based on past inspection results is executed by the processor 21 of the PC 20, and as a result, estimation information is acquired. In the estimation process, the future visual state in the patient's eye is estimated based on the results of multiple past tests.

推定処理には、例えば、特許文献1の処理内容を適用し得る。この場合、例えば、複数回の過去の検査でそれぞれ得られた、患者眼の各部の網膜視感度を示すデータに基づいて、将来(を含む任意の時点)における各部の網膜視感度を示すデータを、プロセッサ21が、ベイズ推定によって推定してもよい。また、推定法は、ベイズ推定に必ずしも限定されるものではなく、他の推定法が用いられてもよい。 For example, the processing content of Patent Document 1 can be applied to the estimation processing. In this case, for example, based on the data showing the retinal luminosity factor of each part of the patient's eye obtained in each of a plurality of past examinations, the data showing the retinal luminosity factor of each part in the future (including at any time point) is obtained. , Processor 21 may estimate by Bayesian estimation. Further, the estimation method is not necessarily limited to Bayesian estimation, and other estimation methods may be used.

また、プロセッサ21は、機械学習による学習モデルに照らして、複数回の過去の検査結果から、将来(を含む任意の時点)における視覚状態を示すデータ(例えば、各部の網膜視感度を示すデータ)を推定してもよい。この場合、学習モデルは、例えば、複数の患者眼のそれぞれにおける複数回の検査結果に基づいて形成され得る。各患者眼につき、数年〜数十年にわたる経過観察によって蓄積された検査結果に基づいて、学習モデルは形成されてもよい。 In addition, the processor 21 refers to data indicating a visual state in the future (including at any time point) from the results of a plurality of past examinations in light of a learning model by machine learning (for example, data indicating retinal luminosity factor of each part). May be estimated. In this case, the learning model can be formed, for example, based on the results of multiple tests in each of the plurality of patient eyes. For each patient's eye, a learning model may be formed based on the test results accumulated over years to decades of follow-up.

<画像処理ステップ>
第1実施形態では、推定情報に基づいて入力画像に対する画像処理がプロセッサ21によって行われ、その結果として、シミュレーション画像が生成される。シミュレーション画像は、入力画像が画像処理によって加工されたものであり、患者眼での将来における入力画像の見え方を示した画像である。入力画像に対し、視覚状態が悪い箇所を隠すような加工(換言すれば、見づらくする加工)が、プロセッサ21によって施されることで、シミュレーション画像が生成される。
<Image processing step>
In the first embodiment, the processor 21 performs image processing on the input image based on the estimated information, and as a result, a simulation image is generated. The simulation image is an image obtained by processing the input image by image processing and showing the appearance of the input image in the future with the patient's eye. A simulation image is generated by performing processing (in other words, processing that makes it difficult to see) on the input image so as to hide a portion having a poor visual state by the processor 21.

第1実施形態においては、図3に示すように、左眼用の推定情報(L)に基づいて、左眼用のシミュレーション画像(L)が生成され、右眼用の推定情報(R)に基づいて、右眼用のシミュレーション画像(R)が生成される。 In the first embodiment, as shown in FIG. 3, a simulation image (L) for the left eye is generated based on the estimated information (L) for the left eye, and the estimated information (R) for the right eye is used. Based on this, a simulation image (R) for the right eye is generated.

また、将来の複数の時点毎に対応するシミュレーション画像を各々の推定情報に基づいて生成する。 In addition, simulation images corresponding to each of a plurality of time points in the future are generated based on the estimated information.

入力画像は、例えば、外界を表した画像であって、例えば、図3に示すような風景を示した画像であってもよい。また、人物又は動物の画像であってもよい。入力画像は、静止画であってもよいし、動画であってもよい。動画である場合、リアルタイムに撮影されてもよい。この場合、例えば、患者端末30には、入力画像と動画をリアルタイムに撮影するための外界カメラが更に設けられていてもよい。また、左眼用の入力画像と右眼用の入力画像との間には、視差があってもよいし、無くてもよい。 The input image may be, for example, an image representing the outside world, and may be, for example, an image showing a landscape as shown in FIG. It may also be an image of a person or an animal. The input image may be a still image or a moving image. If it is a moving image, it may be shot in real time. In this case, for example, the patient terminal 30 may be further provided with an external camera for capturing input images and moving images in real time. Further, there may or may not be parallax between the input image for the left eye and the input image for the right eye.

入力画像における各領域と、推定情報と対応する視野内の各領域(換言すれば、網膜の各部位)とは、1対1で互いに対応付けられ得る。この対応関係を利用し、プロセッサ21は、入力画像に対して視覚状態が悪い箇所を隠すような加工(換言すれば、見づらくする加工)を、画像処理によって行い、シミュレーション画像を生成する。 Each region in the input image and each region in the visual field corresponding to the estimated information (in other words, each region of the retina) can be associated with each other on a one-to-one basis. Utilizing this correspondence, the processor 21 performs processing (in other words, processing that makes it difficult to see) to hide a portion having a poor visual state with respect to the input image by image processing, and generates a simulation image.

第1実施形態では、例えば、入力画像における各領域のうち、視覚状態の程度がより悪い領域ほど(ここでは、網膜視感度が低い領域ほど)、画像処理によって、より見づらくされる。このとき、入力画像の各領域は、視覚状態の程度に応じて3段階以上で区分けされてもよいし、視覚状態の程度が比較的良い領域と、悪い領域との2段階で区分けされてもよい。 In the first embodiment, for example, among the regions in the input image, the region having a worse degree of visual state (here, the region having a lower retinal luminosity factor) is made more difficult to see by the image processing. At this time, each area of the input image may be divided into three or more stages according to the degree of the visual state, or may be divided into two stages of a region having a relatively good degree of visual state and an area having a bad visual state. Good.

シミュレーション画像を生成するための画像処理(視覚状態が悪い箇所を隠すような加工)は、例えば、インペインティング(修復処理)であってもよいし、内挿処理であってもよいし、ぼかし処理であってもよいし、塗りつぶし処理であってもよい。 The image processing for generating the simulation image (processing that hides the part with poor visual condition) may be, for example, inpainting (repair processing), interpolation processing, or blurring. It may be a process or a fill process.

例えば、インペインティングおよび内挿処理では、入力画像のうち、視覚状態の程度が悪い箇所を劣化領域として、劣化領域の情報を、その周辺領域の情報に基づいて補間する。このとき、劣化領域は、入力画像の情報を持たない画素によって形成されてもよい。但し、必ずしも、劣化領域は、入力画像の情報を持たない画素のみで形成される必要は無く、入力画像の情報を残したままの画素が一部存在してもよい。入力画像の情報を残したままの画素の数は、視覚状態に応じて設定されてもよく、視覚状態が悪いほど低減されてもよい。なお、例えば、劣化領域に対してディザリングを行うことで、入力画像の情報を残したままの画素を、劣化領域内に設けることができる。また、この場合、入力画像の情報を持たない画素を対象として、インペインティング又は内挿処理が行われる。 For example, in the in-painting and interpolation processing, the information of the deteriorated region is interpolated based on the information of the peripheral region, with the portion of the input image having a poor visual state as the deteriorated region. At this time, the deteriorated region may be formed by pixels having no information of the input image. However, the deteriorated region does not necessarily have to be formed only by pixels that do not have the information of the input image, and some pixels that retain the information of the input image may exist. The number of pixels that retain the information of the input image may be set according to the visual state, or may be reduced as the visual state is worse. Note that, for example, by performing dithering on the deteriorated region, it is possible to provide pixels in the deteriorated region while retaining the information of the input image. Further, in this case, inpainting or interpolation processing is performed on the pixels that do not have the information of the input image.

インペインティングおよび内挿処理は、それぞれ、種々のアルゴリズムが知られており、適宜、いずれかのアルゴリズムを適用可能である。例えば、インペインティングのアルゴリズムは、例えば、Fast Marching Methodを基にしたアルゴリズム(非特許文献2参照)であってもよいし、偏微分方程式(例えば、ナビエ・ストークス方程式)を利用したアルゴリズム(非特許文献3参照)であってもよいし、機械学習を用いたアルゴリズム(非特許文献4参照)であってもよい。また、内挿処理には、多項式補間、スプライン補間、線形補間、キュービック補間など各種補間手法のうちいずれかを用いても良い。
Telea, Alexandru. “An image inpainting technique based on the fast marching method.” Journal of graphics tools 9.1 (2004): 23-34. Bertalmio, Marcelo, Andrea L. Bertozzi, and Guillermo Sapiro. “Navier-stokes, fluid dynamics, and image and video inpainting.” In Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on, vol. 1, pp. I-355. IEEE, 2001. Liu et al. “Image Inpainting for Irregular Holes Using Partial Convolutions.” arXiv: 1804.07723
Various algorithms are known for inpainting and interpolation processing, respectively, and any of the algorithms can be applied as appropriate. For example, the inpainting algorithm may be, for example, an algorithm based on the Fast Marching Method (see Non-Patent Document 2) or an algorithm using a partial differential equation (for example, the Navier-Stokes equation) (non-patent). It may be an algorithm using machine learning (see Patent Document 3) or an algorithm using machine learning (see Non-Patent Document 4). Further, for the interpolation processing, any one of various interpolation methods such as polynomial interpolation, spline interpolation, linear interpolation, and cubic interpolation may be used.
Telea, Alexandru. “An image inpainting technique based on the fast marching method.” Journal of graphics tools 9.1 (2004): 23-34. Bertalmio, Marcelo, Andrea L. Bertozzi, and Guillermo Sapiro. “Navier-stokes, fluid dynamics, and image and video inpainting.” In Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on, vol. 1, pp. I-355. IEEE, 2001. Liu et al. “Image Inpainting for Irregular Holes Using Partial Convolutions.” ArXiv: 1804.07723

ぼかし処理では、視覚状態が悪い箇所を強くぼかし、良い箇所を弱くぼかしてもよい。ぼかし処理には、平均値フィルタ、ガウシアンフィルタ、メディアンフィルタを用いても良い。また、塗りつぶしの場合、前述の劣化領域(より詳細には、その中でも、入力画像の情報を持たない各画素)を、所定の色(例えば、グレー)で塗りつぶしても良い。又は、画像全体、もしくは一部の平均的な色で塗りつぶしてもよい。更には、視覚状態に応じて、各領域を異なる色で塗りつぶしもよい。例えば、視覚状態が比較的良い領域は、明るい色、視覚状態が比較的悪い領域は、暗い色、でそれぞれ塗りつぶしても良い。 In the blurring process, a part with poor visual condition may be strongly blurred and a part with good visual condition may be weakly blurred. An average value filter, a Gaussian filter, and a median filter may be used for the blurring process. Further, in the case of filling, the above-mentioned deteriorated region (more specifically, each pixel having no information of the input image among them) may be filled with a predetermined color (for example, gray). Alternatively, the entire image or a part of the image may be filled with an average color. Further, each area may be filled with a different color depending on the visual state. For example, an area having a relatively good visual state may be filled with a bright color, and an area having a relatively poor visual state may be filled with a dark color.

入力画像の画角は、推定情報と対応する視野と、形状および大きさが略一致していることが好ましい。図3に示すように、推定情報と対応する視野が円形で、入力画像が矩形である場合、入力画像内には、対応する推定情報が無い領域が存在する場合があり得る。この場合、対応する推定情報が無い領域は、劣化領域と同様に、前述のインペインティング、および、塗りつぶし処理のうちいずれかの画像処理が行われても良い。又は、外挿処理が行われても良い。 It is preferable that the angle of view of the input image is substantially the same in shape and size as the field of view corresponding to the estimated information. As shown in FIG. 3, when the field of view corresponding to the estimated information is circular and the input image is rectangular, there may be a region in the input image where there is no corresponding estimated information. In this case, in the area where there is no corresponding estimation information, either the above-mentioned inpainting or the filling process may be performed as in the case of the deteriorated area. Alternatively, extrapolation processing may be performed.

<出力・呈示ステップ>
次に、PC20は、推定情報に応じたシミュレーション画像を、患者眼へ呈示するために出力する。第1実施形態において、シミュレーション画像は、患者端末30へ出力される。これに伴い、患者端末30が、シミュレーション画像を患者眼へ呈示する。結果、シミュレーション画像を通じて、将来の視覚状態を、患者が直感的に把握し得る。結果、視野の障害への治療に対する動機付けを、患者に対して効果的に与えることができる。つまり、患者のアドヒアランスが向上することが期待される。
<Output / presentation step>
Next, the PC 20 outputs a simulation image according to the estimated information for presenting to the patient's eye. In the first embodiment, the simulation image is output to the patient terminal 30. Along with this, the patient terminal 30 presents the simulation image to the patient's eye. As a result, the patient can intuitively grasp the future visual state through the simulation image. As a result, the patient can be effectively motivated for treatment of visual field impairment. In other words, it is expected that patient adherence will improve.

<左右の患者眼に対して、個別にシミュレーション画像を出力・呈示>
第1実施形態では、画像処理ステップにおいて、左右それぞれの患者眼に対するシミュレーション画像が得られている。PC20は、左右それぞれの患者眼に対するシミュレーション画像を、左右それぞれの患者眼に対して個別に呈示するために出力してもよい。つまり、左眼用のシミュレーション画像は左眼に、右眼用のシミュレーション画像は右眼に、それぞれ呈示されるように、PC20は、シミュレーション画像を出力してもよい。更には、シミュレーション画像と共に、端末装置30における呈示態様を指示するための情報が、PC20から出力されてもよい。一例として、第1実施形態では、左眼用のシミュレーション画像と、右眼用のシミュレーション画像と、のそれぞれにおける画面31上の表示位置を指示するための情報が、PC20から出力されてもよい。端末装置30は、指示情報に基づいて、左眼用のシミュレーション画像を、画面31の左半分へ、右眼用のシミュレーション画像を、画面31の右半分へ、それぞれ表示してもよい。左眼用のシミュレーション画像と、右眼用のシミュレーション画像とは、同時に呈示されてもよいし、片方ずつ呈示されてもよい。視野の障害において患者が症状を自覚し難い理由の1つとして、両眼視することで、片眼において視野が欠けた領域が、反対眼によって補完されることが挙げられる。上記のように、左眼用のシミュレーション画像と、右眼用のシミュレーション画像とが同時に呈示されることで、補完を考慮した両眼視の状態での見え方を、患者に体験させることができる。また、左右それぞれの患者眼に対するシミュレーション画像を、片方ずつ呈示することで、各眼における将来の見え方を、直感的に、良好に示すことができる。片方ずつ呈示する場合において、患者端末30は、左右いずれの患者眼に対するシミュレーション画像であるかを識別する指標(例えば、「L」「R」等の記号でもよい)を、シミュレーション画像と同時に表示させてもよい。
<Simulation images are output and presented individually to the left and right patient eyes>
In the first embodiment, simulation images for the left and right patient eyes are obtained in the image processing step. The PC 20 may output a simulation image for each of the left and right patient eyes to individually present to each of the left and right patient eyes. That is, the PC 20 may output the simulation image so that the simulation image for the left eye is presented to the left eye and the simulation image for the right eye is presented to the right eye. Further, along with the simulation image, information for instructing the presentation mode in the terminal device 30 may be output from the PC 20. As an example, in the first embodiment, information for instructing the display position on the screen 31 in each of the simulation image for the left eye and the simulation image for the right eye may be output from the PC 20. The terminal device 30 may display the simulation image for the left eye on the left half of the screen 31 and the simulation image for the right eye on the right half of the screen 31 based on the instruction information. The simulation image for the left eye and the simulation image for the right eye may be presented at the same time, or may be presented one by one. One of the reasons why patients are less likely to notice symptoms in anopsia is that binocular vision complements the area lacking in visual field in one eye with the opposite eye. As described above, by simultaneously presenting the simulation image for the left eye and the simulation image for the right eye, the patient can experience the appearance in the binocular vision state in consideration of complementation. .. In addition, by presenting one simulation image for each of the left and right patient eyes, it is possible to intuitively and satisfactorily show the future vision of each eye. When presenting one by one, the patient terminal 30 displays an index (for example, symbols such as "L" and "R") for identifying which of the left and right patient eyes the simulation image is, at the same time as the simulation image. You may.

但し、左右それぞれの患者眼に対するシミュレーション画像を、片方ずつ呈示する場合は、必ずしも片眼のみにシミュレーション画像が呈示される必要はなく、片眼と対応するシミュレーション画像が、両眼に提示されてもよい。つまり、同一のシミュレーション画像が両眼に呈示されてもよい。各眼における将来の見え方を、患者に両眼視で良好に観察させることができる。 However, when the simulation images for each of the left and right patient eyes are presented one by one, it is not always necessary to present the simulation image to only one eye, and even if the simulation image corresponding to one eye is presented to both eyes. Good. That is, the same simulation image may be presented to both eyes. The future vision in each eye can be well observed by the patient with binocular vision.

<複数の時点に対応する複数のシミュレーション画像を出力・呈示>
画像処理ステップにおいて、患者眼における将来の複数の時点に対応する複数のシミュレーション画像が得られている場合、PC20は、複数のシミュレーション画像を患者端末30へ出力してもよい。将来の複数の時点に対応する複数のシミュレーション画像は、例えば、患者端末30によって、時系列に患者眼に呈示されてもよい。シミュレーション画像によって示される見え方が、過去または現在から、未来へ推移するように、シミュレーション画像が時系列に切り替えられつつ、呈示されてもよい。但し、必ずしもこれに限られるものではなく、複数の時点に対応する複数のシミュレーション画像が、患者眼に対して同時に(換言すれば、並列的に)呈示されてもよい。この場合、患者は、複数の時点における見え方を一覧でき、また、比較できる。
<Output / present multiple simulation images corresponding to multiple time points>
In the image processing step, when a plurality of simulation images corresponding to a plurality of future time points in the patient's eye are obtained, the PC 20 may output the plurality of simulation images to the patient terminal 30. A plurality of simulation images corresponding to a plurality of future time points may be presented to the patient's eye in chronological order by, for example, the patient terminal 30. The simulation image may be presented while being switched in chronological order so that the appearance shown by the simulation image changes from the past or the present to the future. However, the present invention is not necessarily limited to this, and a plurality of simulation images corresponding to a plurality of time points may be presented to the patient's eye at the same time (in other words, in parallel). In this case, the patient can list and compare appearances at multiple time points.

<障害の進行速度毎に、シミュレーション画像を生成、出力(および、呈示)>
PC20は、将来のある時点における視覚状態を示す推定情報を、障害の進行速度毎にコンピュータが取得してもよく、この場合、更に、画像処理ステップにおいて、将来のある時点における見え方を示すシミュレーション画像を、障害の進行速度毎に生成してもよい。
<Generate and output (and present) simulation images for each obstacle progression speed>
The PC 20 may acquire estimated information indicating the visual state at a certain point in the future by the computer for each speed of failure, and in this case, further, in the image processing step, a simulation showing the appearance at a certain point in the future. Images may be generated for each failure progression rate.

例えば、障害の進行の程度の経時変化は、図4に示すグラフによって示される。図4に示すグラフでは、縦軸がMD(mean deviation)値 [dB]を示しており、横軸が時間を示している。MD値は、視野における平均感度低下を示しており、視野検査によって得られる、視野の障害の程度を示す指標の一種である。図4において、各時点でのMD値に対してフィッティングされる直線(曲線であってもよい)は、MD slopeと呼ばれる。障害の進行速度は、MD slopeの傾き[dB/year]によって記述され得る。例えば、過去の検査点でのMD 値を用いて、過去と将来で進行速度が変わらない場合における、MD slopeを求めることができる。MD slopeに基づいて、ある年齢でのMD値を推定できる。 For example, the time course of the degree of progression of the disorder is shown by the graph shown in FIG. In the graph shown in FIG. 4, the vertical axis represents the MD (mean deviation) value [dB], and the horizontal axis represents time. The MD value indicates a decrease in average sensitivity in the visual field, and is a kind of index indicating the degree of visual field impairment obtained by the visual field test. In FIG. 4, the straight line (which may be a curve) fitted to the MD value at each time point is called an MD slope. The rate of failure progression can be described by the slope of the MD slope [dB / year]. For example, the MD value at the past inspection point can be used to determine the MD slope when the progress rate does not change between the past and the future. The MD value at a certain age can be estimated based on the MD slope.

このとき、障害の進行速度は、適切に治療された場合と、されなかった場合と、の間で互いに異なる。適切に治療された場合の進行速度は、より緩やかであり、適切に治療されなかった場合の進行速度は、より早くなる。 At this time, the rate of progression of the disorder differs between when properly treated and when not. Properly treated, the rate of progression is slower, and untreated, the rate of progression is faster.

そこで、第1実施形態では、上記のMD slope(便宜上、第1のMD slopeという)とは異なる第2のMD slopeを想定することで、これまでとは異なる速度で障害が進行するときにおける、将来の各時点での患者眼における視覚状態が、第2のMD slopeによって特定される。ここで、第1のMD slopeにおけるある時点での視覚状態を示す推定情報は、上記推定処理に基づいて求めることができる。また、MD値と視覚状態データが一対一の関係であると仮定されることによって、第2のMD slopeにおけるある時点での視覚状態は、第1のMD slopeにおける別の時点での視覚状態と同じと考えられる。よって、第1のMD slopeと第2のMD slopeとのMD値による対応関係に基づいて、上記推定処理において視覚状態を求める時点を補正することで、第2のMD slopeにおける任意の時点での視覚状態を示す推定情報を、求めることができる。また、求めた推定情報に基づいて、第2のMD slopeにおける任意の時点でのシミュレーション画像を得ることができる。 Therefore, in the first embodiment, by assuming a second MD slope different from the above MD slope (referred to as the first MD slope for convenience), when the obstacle progresses at a different speed than before, The visual condition in the patient's eye at each point in the future is identified by the second MD slope. Here, the estimation information indicating the visual state at a certain point in time on the first MD slope can be obtained based on the above estimation process. Also, by assuming that the MD value and the visual state data have a one-to-one relationship, the visual state at one point in the second MD slope is different from the visual state at another point in the first MD slope. It is considered the same. Therefore, by correcting the time point at which the visual state is obtained in the above estimation process based on the correspondence relationship between the first MD slope and the second MD slope based on the MD value, at an arbitrary time point on the second MD slope. Estimated information indicating the visual state can be obtained. Further, based on the obtained estimated information, a simulation image at an arbitrary time point on the second MD slope can be obtained.

なお、図4において、第2のMD slopeは、第1のMD slopeに対して、より悪い予後を示すものである。第2のMD slopeと第1のMD slopeとの間における傾きの差は、過去の複数の患者眼のMD slopeに基づく、統計的な値であってもよい。この値は、例えば、既定値であってもよいし、機械学習に基づく値であってもよい。 In addition, in FIG. 4, the second MD slope shows a worse prognosis with respect to the first MD slope. The difference in slope between the second MD slope and the first MD slope may be a statistical value based on the MD slopes of a plurality of patient eyes in the past. This value may be, for example, a default value or a value based on machine learning.

第1実施形態では、以上のようにして、将来のある時点における見え方を示すシミュレーション画像が、障害の進行速度毎に生成され、それぞれのシミュレーション画像が、患者眼に呈示される。進行速度が互いに異なる2つシミュレーション画像は、治療が適切に行われる場合と、行われなかった場合と、に対応しているため、それぞれのシミュレーション画像が呈示されることで、患者は、障害の進行速度の違いによる、将来の見え方の違いを、良好に比較できる。その結果、治療に対する動機付けを、より効果的に患者に与えることができる。 In the first embodiment, as described above, a simulation image showing the appearance at a certain point in the future is generated for each progress rate of the obstacle, and each simulation image is presented to the patient's eye. Since the two simulation images with different progression rates correspond to the case where the treatment is properly performed and the case where the treatment is not performed, the patient can be affected by the disability by presenting the respective simulation images. It is possible to make a good comparison of the difference in the future appearance due to the difference in the progress speed. As a result, the patient can be more effectively motivated for treatment.

なお、障害の進行速度が互いに異なる複数のシミュレーション画像は、同時に、患者眼に呈示されてもよいし、交互に切り替えて患者眼に呈示されてもよい。これによって、患者は、障害の進行速度の違いによる、将来の見え方の違いを、良好に比較できる。障害の進行速度が互いに異なる複数のシミュレーション画像が、交互に切り替えて患者眼に呈示される場合は、障害の進行速度がより遅い場合を想定したシミュレーション画像と、障害の進行速度がより遅い場合を想定したシミュレーション画像と、の呈示順序が予め定められていてもよい。また、呈示順序は、検者からの操作入力に応じて変更可能であってもよい。 It should be noted that a plurality of simulation images having different progression rates of the disorder may be presented to the patient's eye at the same time, or may be alternately displayed to the patient's eye. This allows patients to better compare future visions due to different rates of disability progression. When multiple simulation images with different disability progression rates are alternately presented to the patient's eye, a simulation image assuming a slower disability progression rate and a slower disability progression rate The assumed simulation image and the presentation order may be predetermined. Further, the presentation order may be changed according to the operation input from the examiner.

また、障害の進行速度が互いに異なる複数のシミュレーション画像を呈示する際に、併せて、寿命が尽きる前に失明するか否かを示す情報が、患者に対して呈示されてもよい。 In addition, when presenting a plurality of simulation images in which the progression rates of disorders are different from each other, information indicating whether or not blindness may occur before the end of life may be presented to the patient.

また、PC20は、ユーザインターフェースを介して障害の程度を示す情報を受け付け、その障害の程度によるシミュレーション画像を生成し出力すると共に、その障害の程度に至るまでの期間を求めて出力してもよい。障害の程度を示す情報は、例えば、MD値であってもよいし、初期、中期、後期等の情報であってもよい。例えば、あるMD値を受け付けた場合に、そのMD値での見え方を示すシミュレーション画像と共に、何年後にその見え方に至るかを示す情報を、PC20は、例えば、前述のMD slopeに基づいて取得し、表示装置へ出力してもよい。入力された障害の程度に至るまでの期間を示す情報は、例えば、障害の進行速度毎に複数求められてもよい。 Further, the PC 20 may receive information indicating the degree of failure via the user interface, generate and output a simulation image according to the degree of failure, and obtain and output a period until the degree of failure is reached. .. The information indicating the degree of disability may be, for example, an MD value, or information such as early, middle, and late stages. For example, when a certain MD value is accepted, the PC 20 provides information indicating how many years later the appearance will be reached together with a simulation image showing the appearance at the MD value, based on, for example, the above-mentioned MD slope. It may be acquired and output to the display device. For example, a plurality of information indicating the period until the degree of the input failure may be obtained for each failure progress rate.

<所望の時点におけるシミュレーション画像の表示>
PC20がユーザインターフェースを介してシミュレーション画像によって見え方を示す「時点」に関する情報を受け付け、該時点におけるシミュレーション画像を生成する場合においても、上述のMD slopeは利用され得る。例えば、上述のMD slopeにおける、入力された「時点」と対応するMD値に基づいて、該時点での見え方を示すシミュレーション画像を生成してもよい。これにより、検者又は患者の所望の時点における見え方を確認できる。
<Display of simulation image at desired time point>
The above-mentioned MD slope can also be used when the PC 20 accepts information regarding a "time point" indicating the appearance by a simulation image via a user interface and generates a simulation image at that time point. For example, a simulation image showing the appearance at the time point may be generated based on the MD value corresponding to the input "time point" in the above-mentioned MD slope. This makes it possible to confirm the appearance of the examiner or the patient at a desired time point.

また、PC20は、障害の進行速度が互いに異なる第1のMD slopeと第2のMD slopeとの時間(例えば、年齢)による対応関係に基づいて、入力された「時点」での、シミュレーション画像を、障害の進行速度毎(例えば、MD slope毎)に生成し、更に出力してもよい。 In addition, the PC 20 displays a simulation image at the input "point in time" based on the time (for example, age) correspondence between the first MD slope and the second MD slope, which have different speeds of failure. , It may be generated for each failure progress speed (for example, for each MD slope) and further output.

<正常者の見え方との比較表示>
PC20は、シミュレーション画像と正常者の見え方を示す画像とを、患者眼に対して、同時に、又は、交互に切換えて呈示するために出力してもよい。正常者の見え方を示す画像は、例えば、入力画像であってもよい。シミュレーション画像と正常者の見え方を示す画像とが呈示されることで、患者は、将来の見え方を、より良好に把握できる。
<Comparison display with how a normal person looks>
The PC 20 may output a simulation image and an image showing the appearance of a normal person to the patient's eye at the same time or alternately to switch and present the image. The image showing the appearance of a normal person may be, for example, an input image. By presenting the simulation image and the image showing the appearance of a normal person, the patient can better grasp the future appearance.

以上、実施形態に基づいて説明したが、本開示は、必ずしも上記実施形態に限定されるものではなく、適宜変形し、実施し得る。 Although the above description has been made based on the embodiment, the present disclosure is not necessarily limited to the above embodiment, and can be appropriately modified and implemented.

<視覚シミュレーションプログラムの実行主体について>
例えば、第1実施形態では、PC20において、視覚シミュレーションプログラムが実行される場合について説明した。しかし、必ずしもこれに限られるものでは無く、視覚シミュレーションプログラムは、PC20以外のコンピュータにおいて実行されてもよい。例えば、検査装置10、および、患者端末30のいずれかで実行されてもよいし、図示なきサーバコンピュータにおいて実行されてもよい。
<About the execution subject of the visual simulation program>
For example, in the first embodiment, the case where the visual simulation program is executed on the PC 20 has been described. However, the present invention is not necessarily limited to this, and the visual simulation program may be executed on a computer other than the PC 20. For example, it may be executed by either the examination device 10 and the patient terminal 30, or may be executed by a server computer (not shown).

また、第1実施形態では、患者眼の視機能を検査する装置と、推定情報に基づいてシミュレーション画像を得る装置と、シミュレーション画像を患者眼に呈示する装置と、が別体であった。しかし、必ずしもこれに限られるものではなく、上記のいずれか2つまたは全部が一体化されてもよい。例えば、特開2017-217016号公報には、ヘッドマウント型の視野計が開示されている。このようなデバイスで更に、シミュレーション画像を推定情報に基づいて取得し、更にはシミュレーション画像を患者眼に呈示してもよい。 Further, in the first embodiment, the device for inspecting the visual function of the patient's eye, the device for obtaining the simulation image based on the estimated information, and the device for presenting the simulation image to the patient's eye are separate bodies. However, the present invention is not limited to this, and any two or all of the above may be integrated. For example, Japanese Patent Application Laid-Open No. 2017-217016 discloses a head-mounted perimeter. Further, with such a device, a simulation image may be acquired based on the estimation information, and further, the simulation image may be presented to the patient's eye.

<程度分類ベースで、将来の視覚状態を推定>
例えば、第1実施形態では、シミュレーション画像は、推定情報に基づいて患者端末20が画像処理することによって生成されるものとして説明した。但し、シミュレーション画像は、必ずしも画像処理によって得られる必要は無い。例えば、シミュレーション画像は、障害の程度分類に応じて、予め複数用意されていてもよい。
<Estimate future visual state based on degree classification>
For example, in the first embodiment, the simulation image has been described as being generated by the patient terminal 20 performing image processing based on the estimated information. However, the simulation image does not necessarily have to be obtained by image processing. For example, a plurality of simulation images may be prepared in advance according to the degree of disability classification.

例えば、緑内障による程度分類としては、一例として、湖崎分類、Aulhorn 分類Greve 変法、および、Humphery 視野計における視野欠損の程度分類等が知られており、例えば、これらいずれかの分類に応じて、複数のシミュレーション画像が予め用意されていてもよい。 For example, as an example of the degree classification due to glaucoma, the Lakezaki classification, the Aulhorn classification Greve modified method, and the degree classification of visual field defect in the Humphery perimeter are known. For example, according to any of these classifications. , A plurality of simulation images may be prepared in advance.

<出力・呈示ステップにおけるシミュレーション画像の出力先について>
例えば、第1実施形態では、出力・呈示ステップにおいて、シミュレーション画像がPC20から患者端末30へ出力される場合について説明した。しかし、必ずしもこれに限られるものではなく、シミュレーション画像は、PC20からアクセス可能なメモリ(例えば、非一過性のメモリ22、および、サーバコンピュータのメモリ等)に出力されてもよい。また、患者端末30そのものが推定情報に基づいてシミュレーション画像を得る場合、出力・呈示ステップにおけるシミュレーション画像の出力は、モニタまたはプロジェクタを介した患者眼への呈示出力によって実現され得る。
<About the output destination of the simulation image in the output / presentation step>
For example, in the first embodiment, the case where the simulation image is output from the PC 20 to the patient terminal 30 in the output / presentation step has been described. However, the simulation image is not necessarily limited to this, and the simulation image may be output to a memory accessible from the PC 20 (for example, a non-transient memory 22 and a memory of a server computer). Further, when the patient terminal 30 itself obtains the simulation image based on the estimation information, the output of the simulation image in the output / presentation step can be realized by the presentation output to the patient's eye via the monitor or the projector.

<ヘッドマウントディスプレイによるトラッキング>
端末装置30は、患者眼の視線方向を検出し、視線方向に応じて、画面上におけるシミュレーション画像の表示位置を制御してもよい(トラッキング)。これにより、患者眼の視線方向が変化しても、将来における患者眼の視覚状態を、患者が適切に観察できる。
<Tracking by head-mounted display>
The terminal device 30 may detect the line-of-sight direction of the patient's eye and control the display position of the simulation image on the screen according to the line-of-sight direction (tracking). As a result, even if the line-of-sight direction of the patient's eye changes, the patient can appropriately observe the visual state of the patient's eye in the future.

<表示装置(呈示装置)の他の実施例>
また、例えば、上記実施形態において、シミュレーション画像を患者に呈示するための表示装置は、ヘッドマウントディスプレイ(患者端末30)であるものとして説明した。但し、必ずしもこれに限られるものではない。表示装置は、例えば、据え置き型のディスプレイであってもよいし、スクリーンに画像を投影するプロジェクタであってもよいし、他の表示装置であってもよい。表示装置として、据え置き型のディスプレイやプロジェクタが利用される場合は、患者だけでなく、その家族、および、検者(例えば、医師)と共に、推定された視覚状態を見ることができ、インフォームドコンセントに有用である。
<Other Examples of Display Device (Presentation Device)>
Further, for example, in the above embodiment, the display device for presenting the simulation image to the patient has been described as being a head-mounted display (patient terminal 30). However, it is not necessarily limited to this. The display device may be, for example, a stationary display, a projector that projects an image on a screen, or another display device. When a stationary display or projector is used as the display device, the estimated visual condition can be seen not only with the patient but also with his / her family and the examiner (for example, a doctor), and informed consent. It is useful for.

なお、上記実施形態では、ヘッドマウントディスプレイ(患者端末30)を表示装置として利用することで、患者眼の左眼と右眼とに、独立に画像を呈示可能であった。しかし、例えば、上記のような据え置き型のディスプレイやプロジェクタが表示装置として利用される場合は、患者眼の両眼に、同一の画像が呈示される。このとき、表示装置には、ある時点における両眼視の状態での見え方を1枚で示すシミュレーション画像が表示されてもよい。両眼視の状態での見え方を1枚で示すシミュレーション画像は、例えば、左右各眼に対する2枚のシミュレーション画像の論理和によるものであってもよい。なお、両眼視の状態での見え方を1枚で示すシミュレーション画像は、表示装置が据え置き型ディスプレイやプロジェクタである場合に限らず、各種表示装置において表示されてもよい。 In the above embodiment, by using the head-mounted display (patient terminal 30) as a display device, images can be presented independently to the left eye and the right eye of the patient's eye. However, for example, when the above-mentioned stationary display or projector is used as a display device, the same image is presented to both eyes of the patient's eyes. At this time, the display device may display a simulation image showing how the image looks in the state of binocular vision at a certain point in time. The simulation image showing the appearance in the state of binocular vision with one image may be, for example, ORed by the logical sum of the two simulation images for each of the left and right eyes. The simulation image showing the appearance in the binocular vision state on one sheet is not limited to the case where the display device is a stationary display or a projector, and may be displayed on various display devices.

<前眼部に関する視覚状態の推定結果への適用>
上記実施形態では、患者眼における視機能として、ある時点における網膜機能が推定され、推定される網膜機能に基づいてシミュレーション画像が生成および呈示される場合について説明した。患者眼における視機能として、ある時点における患者眼の前眼部に関する機能が推定され、推定される前眼部の機能に基づいてシミュレーション画像が生成および呈示されてもよい。また、前眼部と網膜との両方の機能が推定されてもよく、推定される両方の機能を考慮して、シミュレーション画像が生成および呈示されてもよい。前眼部の機能としては、例えば、屈折機能(眼屈折力)が推定されてもよいし、眼軸長値が推定されてもよいし、調節機能(調節力)が推定されてもよいし、透光体における混濁の程度が推定されてもよい。これらの各種機能は、種々の眼科測定装置によって、適宜測定され得る。
<Application to the estimation result of the visual state of the anterior segment>
In the above embodiment, a case where the retinal function at a certain time point is estimated as the visual function in the patient's eye and a simulation image is generated and presented based on the estimated retinal function has been described. As the visual function in the patient eye, the function related to the anterior segment of the patient eye at a certain time point may be estimated, and a simulation image may be generated and presented based on the estimated function of the anterior segment. In addition, the functions of both the anterior segment and the retina may be estimated, and simulation images may be generated and presented in consideration of both estimated functions. As the function of the anterior segment of the eye, for example, the refraction function (eye refractive power) may be estimated, the axial length value may be estimated, or the accommodation function (accommodation power) may be estimated. , The degree of turbidity in the translucent body may be estimated. These various functions can be appropriately measured by various ophthalmic measuring devices.

例えば、屈折機能が推定される場合、推定される屈折力に応じたPSF(点像強度分布)を取得し、PSFと入力画像との画像処理(例えば、コンボリューション積分)によって、推定された屈折力での見え方を示すシミュレーション画像が生成されてもよい。また、点像強度分布(PSF)を更にフーリエ変換することによって得られる光学伝達関数(OTF)を、入力画像と画像処理(コンボリューション積分)することによって、シミュレーション画像が生成されてもよい。屈折力の推定は、例えば、過去の複数回の検査に基づいて推定される。例えば、過去の検査点のフィッティング直線(または曲線)に基づいて推定されてもよいし、機械学習に基づく値であってもよい。 For example, when the refraction function is estimated, the refraction estimated by acquiring the PSF (point image intensity distribution) corresponding to the estimated refractive power and performing image processing (for example, convolution integration) between the PSF and the input image. A simulation image showing how it looks with force may be generated. Further, a simulation image may be generated by image processing (convolution integration) with the input image of the optical transfer function (OTF) obtained by further Fourier transforming the point image intensity distribution (PSF). The estimation of the refractive power is estimated based on, for example, a plurality of past inspections. For example, it may be estimated based on the fitting straight line (or curve) of the past inspection point, or it may be a value based on machine learning.

患者眼における視機能を推定するうえで、患者眼に関するその他の測定結果を利用してもよい。更には、脳を含む、眼以外の身体を撮像するMRI, CT, PET, 超音波などあらゆる検査装置の検査結果を利用して、患者眼における視機能を推定しても良い。 Other measurements of the patient's eye may be used to estimate visual function in the patient's eye. Furthermore, the visual function in the patient's eye may be estimated by using the test results of all test devices such as MRI, CT, PET, and ultrasound that image the body other than the eye, including the brain.

<補足:本開示に含まれる実施形態>
また、本開示の実施形態は、以下の第1の視覚シミュレーション方法、および、視覚シミュレーション方法をコンピュータに実行させる視覚シミュレーションプログラムであり得る。
<Supplement: Embodiment included in the present disclosure>
Further, the embodiment of the present disclosure may be the following first visual simulation method and a visual simulation program for causing a computer to execute the visual simulation method.

第1の視覚シミュレーション方法は、患者眼(被検眼)の現在の視覚状態とは異なる視覚状態での見え方を示したシミュレーション画像であって、患者眼の左眼と右眼と間で互いに異なるシミュレーション画像を取得する取得ステップと、患者眼の左眼と右眼とに、独立に画像を呈示可能な表示装置を介して、左眼用のシミュレーション画像を左眼に、右眼用のシミュレーション画像を右眼に、同時に呈示する呈示ステップと、を含む。第1の視覚シミュレーション方法によれば、視覚状態が変化したときの見え方を、左眼と右眼とで個別に想定でき、そのときの両眼視による見え方を、患者(被検者)に体験させることができる。従って、より実際の見え方に近い形で、視覚状態が変化したときの見え方を体験させることができる。 The first visual simulation method is a simulation image showing how the patient's eye (the eye to be inspected) looks in a visual state different from the current visual state, and is different between the left eye and the right eye of the patient's eye. A simulation image for the left eye is displayed on the left eye and a simulation image for the right eye via a display device capable of independently presenting images to the left eye and the right eye of the patient's eye in the acquisition step of acquiring the simulation image. Is included in the presentation step, which is presented to the right eye at the same time. According to the first visual simulation method, the appearance when the visual state changes can be individually assumed for the left eye and the right eye, and the appearance by binocular vision at that time can be determined by the patient (subject). Can be experienced. Therefore, it is possible to experience the appearance when the visual state changes in a form closer to the actual appearance.

10 眼検査装置
20 PC
30 患者端末
E 患者眼
10 Eye examination device 20 PC
30 Patient terminal E Patient eye

Claims (12)

ある時点での患者眼における視覚状態を示す推定情報を、コンピュータが取得する推定情報取得ステップと、
前記ある時点での患者眼における見え方を示すシミュレーション画像であって、前記推定情報に応じたシミュレーション画像を、患者眼へ呈示するために前記コンピュータが出力する出力ステップと、を含む視覚シミュレーション方法。
An estimation information acquisition step in which a computer acquires estimation information indicating a visual state in the patient's eye at a certain point in time, and
A visual simulation method including a simulation image showing the appearance in the patient's eye at a certain time point, and an output step output by the computer to present the simulation image according to the estimated information to the patient's eye.
少なくとも前記推定情報に基づいて入力画像を前記コンピュータが加工することによって、前記ある時点における前記入力画像の見え方を示した前記シミュレーション画像を、生成する画像処理ステップを、更に含む請求項1記載の視覚シミュレーション方法。 The first aspect of claim 1, further comprising an image processing step of generating the simulation image showing the appearance of the input image at a certain time point by processing the input image by the computer based on at least the estimated information. Visual simulation method. 前記推定情報取得ステップでは、複数の時点と対応する複数の前記推定情報を取得し、
前記画像処理ステップでは、複数の時点毎に対応する前記シミュレーション画像を各々の前記推定情報に基づいて生成する、請求項2記載の視覚シミュレーション方法。
In the estimation information acquisition step, a plurality of the estimation information corresponding to a plurality of time points are acquired, and the estimation information is acquired.
The visual simulation method according to claim 2, wherein in the image processing step, the simulation images corresponding to each of a plurality of time points are generated based on the estimated information.
複数の時点に対応する前記シミュレーション画像が時系列に患者眼に呈示される、請求項3記載の視覚シミュレーション方法。 The visual simulation method according to claim 3, wherein the simulation images corresponding to a plurality of time points are presented to the patient's eye in chronological order. 前記推定情報取得ステップでは、複数の前記推定情報であって、将来のある時点における視覚状態を示す前記推定情報を、障害の進行速度毎に前記コンピュータが取得し、
前記画像処理ステップでは、障害の進行速度毎の複数の前記推定情報のそれぞれに基づいて、前記シミュレーション画像を前記コンピュータが生成する請求項2から4の何れかに記載の視覚シミュレーション方法。
In the estimation information acquisition step, the computer acquires the estimation information, which is a plurality of the estimation information and indicates the visual state at a certain point in the future, for each failure progress speed.
The visual simulation method according to any one of claims 2 to 4, wherein in the image processing step, the simulation image is generated by the computer based on each of the plurality of estimated information for each failure progress speed.
前記推定情報取得ステップでは、左右の患者眼のそれぞれの前記推定情報を取得し、
前記出力ステップでは、左右の患者眼のそれぞれの前記推定情報に応じた前記シミュレーション画像を、前記左右の患者眼に個別に呈示するために出力する、請求項1から5の何れかに記載の視覚シミュレーション方法。
In the estimation information acquisition step, the estimation information of each of the left and right patient eyes is acquired, and the estimation information is acquired.
The visual sense according to any one of claims 1 to 5, wherein in the output step, the simulation image corresponding to the estimated information of each of the left and right patient eyes is output for presenting to the left and right patient eyes individually. Simulation method.
左眼に対して左眼用に生成された前記シミュレーション画像を呈示させ、同時に、右眼に対して右眼用に生成された前記シミュレーション画像を呈示させる、請求項6記載の視覚シミュレーション方法。 The visual simulation method according to claim 6, wherein the left eye is presented with the simulation image generated for the left eye, and at the same time, the simulation image generated for the right eye is presented to the right eye. 前記推定情報取得ステップにおいて取得される前記推定情報は、障害に関する所定の程度分類における程度の推定値であり、
前記所定の程度分類の程度毎に予め用意された複数の前記シミュレーション画像のうち、前記推定情報に応じたいずれかを前記コンピュータが選択する選択ステップを、更に含む請求項1記載の視覚シミュレーション方法。
The estimated information acquired in the estimated information acquisition step is an estimated value of the degree in a predetermined degree classification regarding a disability.
The visual simulation method according to claim 1, further comprising a selection step in which the computer selects one of the plurality of simulation images prepared in advance for each degree of the predetermined degree classification according to the estimated information.
前記推定情報取得ステップでは、前記患者眼における視機能に関する過去の検査結果に基づく推定処理によって、前記推定情報を取得する、請求項1から8のいずれかに記載の視覚シミュレーション方法。 The visual simulation method according to any one of claims 1 to 8, wherein in the estimation information acquisition step, the estimation information is acquired by an estimation process based on a past test result regarding the visual function in the patient's eye. 視機能に関する過去の検査結果は、部位ごとの網膜視感度を示すことを特徴とする、請求項9記載の視覚シミュレーション方法。 The visual simulation method according to claim 9, wherein past test results relating to visual function indicate retinal luminosity factor for each site. 視機能に関する過去の検査結果は、眼底のOCTデータ、又は、正面画像であることを特徴とする、請求項9記載の視覚シミュレーション方法。 The visual simulation method according to claim 9, wherein the past examination results regarding the visual function are OCT data of the fundus or a frontal image. 請求項1から11の何れかに記載の視覚シミュレーション方法を、前記コンピュータに実行させる視覚シミュレーションプログラム。 A visual simulation program for causing the computer to execute the visual simulation method according to any one of claims 1 to 11.
JP2019088524A 2019-05-08 2019-05-08 Visual simulation method and visual simulation program Active JP7467830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019088524A JP7467830B2 (en) 2019-05-08 2019-05-08 Visual simulation method and visual simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088524A JP7467830B2 (en) 2019-05-08 2019-05-08 Visual simulation method and visual simulation program

Publications (3)

Publication Number Publication Date
JP2020182680A true JP2020182680A (en) 2020-11-12
JP2020182680A5 JP2020182680A5 (en) 2022-04-18
JP7467830B2 JP7467830B2 (en) 2024-04-16

Family

ID=73045342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088524A Active JP7467830B2 (en) 2019-05-08 2019-05-08 Visual simulation method and visual simulation program

Country Status (1)

Country Link
JP (1) JP7467830B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058321A1 (en) * 2021-10-04 2023-04-13 ソニーグループ株式会社 Information processing apparatus, information processing method, and computer program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149654A (en) * 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
US20120154742A1 (en) * 2009-08-28 2012-06-21 Universidad De Murcia Ophthalmic instrument for the measurement of ocular refraction and visual simulation, and associated methods of measurement of ocular refraction, simulation of ophthalmic elements, visual simulation and for obtaining optical parameters

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175923A1 (en) 2012-05-25 2013-11-28 Hoya株式会社 Simulation device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149654A (en) * 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
US20120154742A1 (en) * 2009-08-28 2012-06-21 Universidad De Murcia Ophthalmic instrument for the measurement of ocular refraction and visual simulation, and associated methods of measurement of ocular refraction, simulation of ophthalmic elements, visual simulation and for obtaining optical parameters

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058321A1 (en) * 2021-10-04 2023-04-13 ソニーグループ株式会社 Information processing apparatus, information processing method, and computer program

Also Published As

Publication number Publication date
JP7467830B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
US10386645B2 (en) Digital therapeutic corrective spectacles
Barbot et al. Asymmetries in visual acuity around the visual field
Chui et al. Adaptive-optics imaging of human cone photoreceptor distribution
Adam et al. Quality and diagnostic utility of mydriatic smartphone photography: the smartphone ophthalmoscopy reliability trial
JP5017328B2 (en) Tomographic imaging apparatus, control method therefor, program, and storage medium
JP5733962B2 (en) Ophthalmologic apparatus, ophthalmologic apparatus control method, and program
Pamplona et al. CATRA: interactive measuring and modeling of cataracts
KR20130042640A (en) Image processing apparatus
US9519830B2 (en) Ophthalmologic image processing method and storage medium storing program for executing the method
JP7166473B2 (en) eye examination
JP2021519195A (en) Visual inspection using mobile devices
JP2012045226A (en) Ophthalmic-image processing apparatus and method therefore
CA3069248A1 (en) Application to determine reading/working distance
Ludwig et al. Ultra-widefield imaging for evaluation of the myopic eye
JP7467830B2 (en) Visual simulation method and visual simulation program
CN111989030B (en) Image processing method, program, and image processing apparatus
Stino et al. Comparison of two ultra-widefield color-fundus imaging devices for visualization of retinal periphery and microvascular lesions in patients with early diabetic retinopathy
Chen et al. Virtual reality improves clinical assessment of the optic nerve
JP2022037486A (en) Ophthalmologic image processing apparatus, ophthalmologic apparatus, image quality evaluation method, program, and ophthalmologic image processing system
Shen et al. Evaluation of visual acuity measurement based on the mobile virtual reality device
JP2021010417A (en) Visual perception simulation method and visual perception simulation program
JP6911301B2 (en) Lens prescription assistance program
JP6753228B2 (en) Lens prescription assistance program
Elkadim et al. Corneal Topographic versus Manifest Refractive Astigmatism in Patients with Keratoconus: A Retrospective Cross-Sectional Study
Zaman et al. Multimodal assessment of visual function and ocular structure for monitoring Spaceflight Associated Neuro-Ocular Syndrome

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7467830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150