JP6187751B2 - Image processing program - Google Patents
Image processing program Download PDFInfo
- Publication number
- JP6187751B2 JP6187751B2 JP2013135626A JP2013135626A JP6187751B2 JP 6187751 B2 JP6187751 B2 JP 6187751B2 JP 2013135626 A JP2013135626 A JP 2013135626A JP 2013135626 A JP2013135626 A JP 2013135626A JP 6187751 B2 JP6187751 B2 JP 6187751B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- captured
- images
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004458 analytical method Methods 0.000 claims description 153
- 238000000034 method Methods 0.000 claims description 108
- 230000008569 process Effects 0.000 claims description 96
- 238000012545 processing Methods 0.000 claims description 76
- 238000012360 testing method Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 119
- 210000000608 photoreceptor cell Anatomy 0.000 description 38
- 230000003287 optical effect Effects 0.000 description 31
- 210000004027 cell Anatomy 0.000 description 17
- 230000004323 axial length Effects 0.000 description 15
- 230000004075 alteration Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 13
- 238000012950 reanalysis Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 101100328887 Caenorhabditis elegans col-34 gene Proteins 0.000 description 5
- 108091008695 photoreceptors Proteins 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 206010025421 Macule Diseases 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
Description
被検眼が撮影された画像を処理する画像処理プログラムに関する。 About images processing program that processes the image that the eye to be examined is photographed.
被検眼を撮像する眼科撮像装置の一例として、被検眼の眼底を光によって走査し、眼底からの反射光を受光することで眼底画像を撮像する装置が知られている(例えば、特許文献1)。 As an example of an ophthalmologic imaging apparatus that images a subject's eye, an apparatus that scans the fundus of a subject's eye with light and receives reflected light from the fundus is known (for example, Patent Document 1). .
ところで、眼科撮像装置による撮像結果の一覧を表示する際に、眼底画像の縮小画像を利用することが考えられる。しかし、検者に把握させやすい表示態様については、十分検討されてこなかった。 Incidentally, when the view the list of the imaging results of ophthalmologic imaging apparatus, it is conceivable to use a reduced image of the fundus image. However, the display mode that makes it easy for the examiner to grasp has not been sufficiently studied.
本発明は、上記事情に鑑み、各々の眼底画像の撮像位置を、眼底画像の縮小画像を用いた一覧表示を通じて検者に把握させ易い画像処理プログラムを提供することを技術課題とする。 In view of the above circumstances, the imaging position of each fundus image, and an object to provide a is not easy bur image processing program grasping the examiner through the list display using the reduced image of the fundus image.
本開示の第1態様に係る画像処理プログラムは、画像処理装置のプロセッサで実行されることにより、被検眼の撮影画像の縮小画像を、前記撮影画像についての被検眼に対する撮影位置を示す情報に基づいて、表示装置の表示画面に一覧表示させる一覧表示ステップと、各々の前記撮影画像よりも広範囲で撮像された被検眼画像を前記表示画面に表示させる広域画像表示ステップと、前記撮影画像に対して解析処理を行い、前記撮影画像における解析結果を得る解析処理ステップと、を前記画像処理装置に実行させる画像処理プログラムであって、前記一覧表示ステップでは、前記広域画像表示ステップによって表示される前記被検眼画像における各々の撮影画像の撮影位置に、各々の撮影画像の縮小画像を、前記被検眼画像の上に重ねて各々配置させ、前記一覧表示ステップにおいて前記表示画面に表示される前記縮小画像のいずれかが検者によって選択された場合に、選択された前記縮小画像と対応する前記撮影画像である選択撮影画像を前記縮小画像よりも高い表示倍率にて表示させると共に前記選択撮影画像についての前記解析結果を表示させる選択撮影画像表示ステップを、更に、前記画像処理装置に実行させる。
本開示の第2態様に係る画像処理プログラムは、画像処理装置のプロセッサで実行されることにより、被検眼の撮影画像の縮小画像を、前記撮影画像についての被検眼に対する撮影位置を示す情報に基づいて、表示装置の表示画面に一覧表示させる一覧表示ステップと、各々の前記撮影画像よりも広範囲で撮像された被検眼画像を前記表示画面に表示させる広域画像表示ステップと、を前記画像処理装置に実行させる画像処理プログラムであって、前記一覧表示ステップでは、前記広域画像表示ステップによって表示される前記被検眼画像における各々の撮影画像の撮影位置に、各々の撮影画像の縮小画像を、前記被検眼画像の上に重ねて各々配置させ、更に、前記表示画面に表示される前記縮小画像のいずれかが検者によって選択されることにより、選択された前記縮小画像と対応する前記撮影画像に対して画像処理を行う画像処理ステップを、前記画像処理装置に実行させる。
本開示の第3態様に係る画像処理プログラムは、画像処理装置のプロセッサで実行されることにより、被検眼の撮影画像の縮小画像を、前記撮影画像についての被検眼に対する撮影位置を示す情報に基づいて、表示装置の表示画面に一覧表示させる一覧表示ステップと、各々の前記撮影画像よりも広範囲で撮像された被検眼画像を前記表示画面に表示させる広域画像表示ステップと、を前記画像処理装置に実行させる画像処理プログラムであって、前記一覧表示ステップでは、前記広域画像表示ステップによって表示される前記被検眼画像における各々の撮影画像の撮影位置に、各々の撮影画像の縮小画像を、前記被検眼画像の上に重ねて各々配置させ、更に、前記画像処理が既に行われたか否かを示す表示を、前記表示画面に表示される各々の前記縮小画像に付加する付加情報表示ステップを、前記画像処理装置に実行させる。
An image processing program according to the first aspect of the present disclosure is executed by a processor of an image processing device, and thereby a reduced image of a captured image of an eye to be inspected is based on information indicating an imaging position of the captured image with respect to the eye to be inspected. A list display step of displaying a list on a display screen of a display device, a wide-area image display step of displaying on the display screen a subject eye image captured in a wider range than each of the captured images, and the captured image An image processing program for causing the image processing apparatus to execute an analysis processing step of performing an analysis process and obtaining an analysis result of the captured image , wherein the list display step displays the object to be displayed displayed in the wide area image display step. At the photographing position of each photographed image in the optometry image, a reduced image of each photographed image is superimposed on the eye image to be examined. Arrangement is, when any one of said reduced image displayed on the display screen in the list display step is selected by the examiner, the selection captured image is the captured image corresponding to the reduced image selected The image processing apparatus is further caused to execute a selected photographed image display step of displaying the analysis result of the selected photographed image while displaying at a display magnification higher than that of the reduced image.
An image processing program according to the second aspect of the present disclosure is executed by a processor of an image processing device, thereby reducing a reduced image of a captured image of the subject's eye based on information indicating the imaging position of the captured image with respect to the subject's eye. A list display step for displaying a list on the display screen of the display device, and a wide-area image display step for displaying on the display screen a subject eye image captured in a wider range than each of the captured images. An image processing program to be executed, wherein in the list display step, a reduced image of each photographed image is placed at the photographing position of each photographed image in the eye image displayed by the wide-area image display step. Each of the reduced images displayed on the display screen is further selected by the examiner. Accordingly, the image processing step of performing image processing on the captured image corresponding to the reduced image selected, to be executed by the image processing apparatus.
An image processing program according to the third aspect of the present disclosure is executed by a processor of an image processing device, thereby reducing a reduced image of a captured image of the subject's eye based on information indicating the imaging position of the captured image with respect to the subject's eye. A list display step for displaying a list on the display screen of the display device, and a wide-area image display step for displaying on the display screen a subject eye image captured in a wider range than each of the captured images. An image processing program to be executed, wherein in the list display step, a reduced image of each photographed image is placed at the photographing position of each photographed image in the eye image displayed by the wide-area image display step. Each of the images displayed on the display screen is displayed on the display screen to indicate whether or not the image processing has already been performed. The additional information display step of adding to the reduced image, to be executed by the image processing apparatus.
本発明によれば、各々の眼底画像の撮像位置を、眼底画像の縮小画像を用いた一覧表示を通じて検者に把握させ易いという効果がある。 According to the present invention, there is an effect that it is easy for an examiner to grasp the imaging position of each fundus image through a list display using a reduced image of the fundus image .
以下、本発明の例示的な実施形態について説明する。まず、図1を参照して、本実施形態の画像処理装置であるパーソナルコンピュータ1(以下、「PC1」と称す。)の概略構成について説明する。 Hereinafter, exemplary embodiments of the present invention will be described. First, a schematic configuration of a personal computer 1 (hereinafter referred to as “PC1”) which is an image processing apparatus according to the present embodiment will be described with reference to FIG.
本実施形態では、PC1は、眼科撮像装置100で撮像された被検眼の画像を、ネットワークおよび外部メモリ等の少なくともいずれかを介して取得する。PC1は、取得した画像の処理を行う。但し、画像処理装置として動作することができるのは、PC1に限定されない。例えば、眼科撮像装置100で撮像された画像を、眼科撮像装置100自身が処理してもよい。この場合、眼科撮像装置100が画像処理装置として動作する。 In the present embodiment, the PC 1 acquires an image of the eye to be inspected captured by the ophthalmic imaging apparatus 100 via at least one of a network and an external memory. The PC 1 processes the acquired image. However, it is not limited to the PC 1 that can operate as an image processing apparatus. For example, the ophthalmic imaging apparatus 100 itself may process an image captured by the ophthalmic imaging apparatus 100. In this case, the ophthalmic imaging apparatus 100 operates as an image processing apparatus.
図1に示すように、PC1は、CPU2を備える。CPU2は、PC1の各種の処理を実行するための処理装置(プロセッサ)である。CPU2には、ROM3、RAM4、HDD5、通信I/F6、表示制御部7、操作処理部8、および外部メモリI/F9が、バスを介して接続されている。 As shown in FIG. 1, the PC 1 includes a CPU 2. The CPU 2 is a processing device (processor) for executing various processes of the PC 1. Connected to the CPU 2 are a ROM 3, a RAM 4, an HDD 5, a communication I / F 6, a display control unit 7, an operation processing unit 8, and an external memory I / F 9 via a bus.
ROM3は、BIOS等のプログラムが格納された不揮発性の記憶媒体である。RAM4、は各種情報を一時的に記憶する揮発性の記憶媒体である。HDD5(ハードディスクドライブ5)は、不揮発性の記憶媒体である。なお、不揮発性の記憶媒体として、フラッシュROM等の他の記憶媒体を用いてもよい。HDD5には、被検眼の画像を処理するための画像処理プログラムが記憶されている。例えば、本実施形態では、図6〜図8、及び図11のフローチャートに示す処理をPC1に実行させるプログラムが、HDD5に記憶されている。また、HDD5には、眼科撮像装置100で撮像された画像のデータが記憶される。なお、以下の説明では、便宜上、HDD5等には、同一の被検眼を撮像した画像のデータが記憶されるものとする。 The ROM 3 is a nonvolatile storage medium that stores a program such as BIOS. The RAM 4 is a volatile storage medium that temporarily stores various types of information. The HDD 5 (hard disk drive 5) is a non-volatile storage medium. Note that another storage medium such as a flash ROM may be used as the nonvolatile storage medium. The HDD 5 stores an image processing program for processing an image of the eye to be examined. For example, in the present embodiment, a program that causes the PC 1 to execute the processes shown in the flowcharts of FIGS. 6 to 8 and 11 is stored in the HDD 5. Further, the HDD 5 stores image data captured by the ophthalmic imaging apparatus 100. In the following description, for the sake of convenience, it is assumed that data of an image obtained by imaging the same eye to be examined is stored in the HDD 5 or the like.
通信I/F6は、PC1を眼科撮像装置100等の外部機器に接続する。本実施形態のPC1は、眼科撮像装置100によって撮像された画像のデータを、通信I/F6を介して取得することができる。本実施形態では、通信I/F6を介して取得された画像は、HDD5に記憶される。外部メモリI/F9は、外部メモリ15をPC1に接続する。外部メモリ15には、例えばUSBメモリ、CD−ROM等の種々の記憶媒体を使用することができる。本実施形態のPC1は、眼科撮像装置100によって撮像された画像のデータを、外部メモリ15を介して取得することもできる。例えば、ユーザは、外部メモリ15を眼科撮像装置100に装着し、眼科撮像装置100によって撮像された画像のデータを外部メモリ15に記憶させる。次いで、ユーザは、外部メモリ15をPC1に装着し、外部メモリ15に記憶された画像のデータをPC1に読み込ませる。その結果、眼科撮像装置100によって撮像された画像のデータをPC1が取得する。 The communication I / F 6 connects the PC 1 to an external device such as the ophthalmic imaging apparatus 100. The PC 1 according to the present embodiment can acquire image data captured by the ophthalmic imaging apparatus 100 via the communication I / F 6. In the present embodiment, an image acquired via the communication I / F 6 is stored in the HDD 5. The external memory I / F 9 connects the external memory 15 to the PC 1. For the external memory 15, various storage media such as a USB memory and a CD-ROM can be used. The PC 1 according to the present embodiment can also acquire data of an image captured by the ophthalmic imaging apparatus 100 via the external memory 15. For example, the user attaches the external memory 15 to the ophthalmic imaging apparatus 100 and stores data of an image captured by the ophthalmic imaging apparatus 100 in the external memory 15. Next, the user attaches the external memory 15 to the PC 1 and causes the PC 1 to read image data stored in the external memory 15. As a result, the PC 1 acquires image data captured by the ophthalmic imaging apparatus 100.
ここで、図2を参照して、本実施形態の眼科撮像装置100の概略構成を説明する。本実施形態では、眼科撮像装置100として、波面補償付きレーザ検眼装置(AO−SLO)を用いる場合について説明する。眼科撮像装置100は、眼底撮像光学系101と、波面センサ102と、波面補償デバイス103と、視標呈示光学系104と、第2撮像ユニット105と、を有している。なお、特開2013−070941の記載内容によって、眼科撮像装置100の詳細構成を例示することができる。 Here, with reference to FIG. 2, a schematic configuration of the ophthalmic imaging apparatus 100 of the present embodiment will be described. In the present embodiment, a case where a laser optometry apparatus with wavefront compensation (AO-SLO) is used as the ophthalmic imaging apparatus 100 will be described. The ophthalmic imaging apparatus 100 includes a fundus imaging optical system 101, a wavefront sensor 102, a wavefront compensation device 103, a target presentation optical system 104, and a second imaging unit 105. The detailed configuration of the ophthalmologic imaging apparatus 100 can be exemplified by the content described in JP2013-070941A.
眼底撮像光学系101は、被検眼の眼底上にて照明光束(レーザ光)を2次元的に走査させる。また、眼底撮像光学系101は、眼底で反射された照明光束の反射光(反射光束)を受光して被検眼の画像(すなわち、眼底画像)を取得する。これにより、眼底撮像光学系101は、眼底を高解像度(高分解能)・高倍率で撮像する。本実施形態では、細胞レベルでの観察等をするために、約1.5度程度の画角で撮像するものとする。眼底撮像光学系101は、照明光束の走査範囲を被検眼の上下左右に移動させることで、撮像部位を変えることができる。また、本実施形態では、眼底撮像光学系101は、同一の範囲で連続して撮像を行う。本実施形態では、例えば、眼底撮像光学系101は、約3秒間連続して撮像して、約150枚の眼底画像を取得する。すなわち、眼底撮像光学系101では、一連の撮像で、複数枚の連続した静止画像からなる画像群が1つ取得される。なお、眼底撮像光学系101は、例えば、共焦点光学系を用いた走査型レーザ検眼鏡の構成とすることができる。 The fundus imaging optical system 101 scans the illumination light beam (laser light) two-dimensionally on the fundus of the eye to be examined. Further, the fundus imaging optical system 101 receives reflected light (reflected light beam) of the illumination light beam reflected by the fundus and acquires an image of the eye to be examined (that is, a fundus image). Thereby, the fundus imaging optical system 101 images the fundus with high resolution (high resolution) and high magnification. In the present embodiment, it is assumed that imaging is performed at an angle of view of about 1.5 degrees in order to perform observation at the cell level. The fundus imaging optical system 101 can change the imaging region by moving the scanning range of the illumination light beam up, down, left, and right. In the present embodiment, the fundus imaging optical system 101 continuously performs imaging within the same range. In the present embodiment, for example, the fundus imaging optical system 101 continuously captures for about 3 seconds and acquires about 150 fundus images. That is, in the fundus imaging optical system 101, one image group composed of a plurality of continuous still images is acquired by a series of imaging. Note that the fundus imaging optical system 101 can be configured, for example, as a scanning laser ophthalmoscope using a confocal optical system.
眼底撮像光学系101で撮像された画像のデータは、上述の方法によって、PC1に取得される。PC1によって取得される画像のデータには、画像を形成するためのデータとして、階調情報および座標情報等が含まれている。他にも、本実施形態では、画像のデータには、例えば、被検眼のID、画像の撮像日時を示すタイムスタンプ、眼底における撮像部位を示す情報、および、撮像時の固視標の呈示位置を示す情報等が含まれている。 Data of an image captured by the fundus imaging optical system 101 is acquired by the PC 1 by the method described above. The image data acquired by the PC 1 includes gradation information and coordinate information as data for forming an image. In addition, in the present embodiment, the image data includes, for example, the ID of the eye to be examined, a time stamp indicating the imaging date and time of the image, information indicating the imaging site on the fundus, and the fixation target presentation position at the time of imaging The information etc. which are shown are included.
本実施形態の眼科撮像装置100では、眼底画像が撮像される場合に、波面センサ102、および波面補償デバイス103を用いて、被検眼による波面収差が補償される。波面センサ102は、低次収差及び高次収差を含む波面収差を検出するための素子である。本実施形態では、波面センサ102は、眼底で反射された反射光束を受光して、被検眼による波面収差を検出する。波面センサ102には、例えば、ハルトマンシャック検出器、光強度の変化を検出する波面曲率センサ等を用いることができる。 In the ophthalmologic imaging apparatus 100 according to the present embodiment, when a fundus image is captured, the wavefront aberration due to the eye to be examined is compensated using the wavefront sensor 102 and the wavefront compensation device 103. The wavefront sensor 102 is an element for detecting wavefront aberration including low-order aberration and high-order aberration. In the present embodiment, the wavefront sensor 102 receives a reflected light beam reflected from the fundus and detects a wavefront aberration caused by the eye to be examined. As the wavefront sensor 102, for example, a Hartmann Shack detector, a wavefront curvature sensor that detects a change in light intensity, or the like can be used.
波面補償デバイス103は、眼底撮像光学系101によって被検眼に照射される照明光を中継する。その際、波面補償デバイス103は、例えば、波面センサ102の検出結果に基づいて照明光の反射面を変形させる。これにより、波面補償デバイス103は、照明光の波面を制御して被検眼による波面収差を補償する。波面補償デバイス103には、例えば、反射型のLCOS(Liquid Crystal On Silicon)、デフォーマブルミラー等を用いることができる。 The wavefront compensation device 103 relays illumination light irradiated to the eye to be examined by the fundus imaging optical system 101. At this time, the wavefront compensation device 103 deforms the reflection surface of the illumination light based on the detection result of the wavefront sensor 102, for example. Accordingly, the wavefront compensation device 103 controls the wavefront of the illumination light to compensate for wavefront aberration caused by the eye to be examined. As the wavefront compensation device 103, for example, a reflective LCOS (Liquid Crystal On Silicon), a deformable mirror, or the like can be used.
視標呈示光学系104は、眼科撮像装置100によって眼底を撮像する際に、被検眼に対して固視標を呈示する。本実施形態の眼科撮像装置では、視標呈示光学系104は、固視標の呈示位置を切り換えることができる。本実施形態では、視標の呈示位置は、被検眼の上下方向および左右方向に各3列ずつ、計9箇所に設定されている。視標の呈示位置を切り換えて被検眼の視線を誘導することで、眼底において照明光が照射され得る範囲を変更する。なお、視標呈示光学系104において固視標を移動させることで、被検眼の視線を誘導してもよい。 The optotype presenting optical system 104 presents a fixation target to the eye to be examined when the ophthalmologic imaging apparatus 100 images the fundus. In the ophthalmologic imaging apparatus of the present embodiment, the optotype presenting optical system 104 can switch the fixation target presenting position. In the present embodiment, the target presentation positions are set to nine locations, three in each of the vertical and horizontal directions of the eye to be examined. The range in which illumination light can be irradiated on the fundus is changed by switching the presentation position of the visual target and guiding the line of sight of the eye to be examined. Note that the visual line of the eye to be examined may be guided by moving the fixation target in the visual target presenting optical system 104.
第2撮像ユニット105は、眼底撮像光学系101よりも広画角の眼底画像(即ち、広域画像)を取得する。第2撮像ユニット105によって取得される眼底画像は、例えば、眼底撮像光学系101によって眼底の撮像位置を指定、又は確認するための画像として用いられる。第2撮像ユニット105は、既存の眼底カメラの観察・撮像光学系、及び走査型レーザ検眼鏡(SLO)の光学系等を用いることができる。詳細は後述するが、本実施形態の装置は、眼底撮像光学系101で撮像された画像群だけでなく、第2撮像ユニット105によって撮像された眼底画像も、PC1に取得させる。このとき、PC1では、PC1で取得される画像群と固視標の呈示位置を同一にして撮像された広画角の眼底画像が、少なくとも取得される。これにより、PC1のHDD5および外部メモリ15等に広画角の眼底画像を記憶させることができる。 The second imaging unit 105 acquires a fundus image (that is, a wide area image) having a wider angle of view than the fundus imaging optical system 101. The fundus image acquired by the second imaging unit 105 is used as an image for designating or confirming the imaging position of the fundus by the fundus imaging optical system 101, for example. The second imaging unit 105 can use an existing fundus camera observation / imaging optical system, a scanning laser ophthalmoscope (SLO) optical system, and the like. Although details will be described later, the apparatus according to the present embodiment causes the PC 1 to acquire not only a group of images captured by the fundus imaging optical system 101 but also a fundus image captured by the second imaging unit 105. At this time, the PC 1 acquires at least a fundus image having a wide angle of view captured with the same target position as the fixation target and the image group acquired by the PC 1. Thereby, a fundus image having a wide angle of view can be stored in the HDD 5 of the PC 1 and the external memory 15.
図1に戻って画像処理装置1についての説明を続ける。表示制御部7は、モニタ13の表示を制御する。操作処理部8は、操作部14(例えば、キーボード、マウス等)に接続されている。操作処理部8は、ユーザによる操作部14の操作を検知して操作信号をCPU2へ出力する。これにより、操作部14に対するユーザの操作がCPU2に受け付けられる。なお、本実施形態では、外付けのモニタ13および操作部14が用いられる。しかし、モニタ13および操作部14の少なくとも一部がPC1に組み込まれていてもよい。 Returning to FIG. 1, the description of the image processing apparatus 1 will be continued. The display control unit 7 controls the display on the monitor 13. The operation processing unit 8 is connected to an operation unit 14 (for example, a keyboard, a mouse, etc.). The operation processing unit 8 detects an operation of the operation unit 14 by the user and outputs an operation signal to the CPU 2. Thereby, the user's operation on the operation unit 14 is received by the CPU 2. In the present embodiment, an external monitor 13 and an operation unit 14 are used. However, at least a part of the monitor 13 and the operation unit 14 may be incorporated in the PC 1.
本実施形態において、ユーザによる操作部14の操作は、モニタ13に表示される各種のGUIに対して行われる。GUIの一種として、モニタ13には、ユーザによる操作を主に受け付けるコントローラ20が表示される。 In the present embodiment, the operation of the operation unit 14 by the user is performed on various GUIs displayed on the monitor 13. As a type of GUI, the monitor 13 displays a controller 20 that mainly accepts user operations.
ここで、図3を参照して、コントローラ20の概略構成を説明する。コントローラ20には、設定ウインドウ30が表示される。設定ウインドウ30は、データリスト31と、コントロールボックス32とを有する。データリスト31には、HDD5および外部メモリ15に格納された画像のリストが表示される。データリスト31には、各画像群のファイル名(例えば、「画像群1」、「画像群2」)の一覧が表示される。本実施形態では、PC1が眼科撮像装置100から取得した、眼底撮像光学系101で撮像された画像には、画像群毎に1つのファイル名が付けられて管理される。前述したように、各々の画像群には、眼底撮像光学系101で連続的に撮像した複数の静止画像が含まれている。 Here, a schematic configuration of the controller 20 will be described with reference to FIG. A setting window 30 is displayed on the controller 20. The setting window 30 has a data list 31 and a control box 32. The data list 31 displays a list of images stored in the HDD 5 and the external memory 15. The data list 31 displays a list of file names (for example, “image group 1” and “image group 2”) of each image group. In the present embodiment, the image acquired by the fundus imaging optical system 101 acquired by the PC 1 from the ophthalmic imaging apparatus 100 is managed with one file name assigned to each image group. As described above, each image group includes a plurality of still images captured continuously by the fundus imaging optical system 101.
また、図3に示すように、データリスト31では、画像群のファイル名の下に、その画像群から生成された解析結果画像のファイル名の一覧が表示される。例えば、図3では、「画像群1」の下に、「画像群1」から生成された「解析結果画像1a」および「解析結果画像1b」が表示される。詳細は後述するが、解析結果画像は、被検眼の視細胞解析に用いられる静止画像である。このように、本実施形態では、画像群および解析結果画像のファイル名の一覧が、データリスト31に表示される。 As shown in FIG. 3, in the data list 31, a list of file names of analysis result images generated from the image group is displayed under the file name of the image group. For example, in FIG. 3, “analysis result image 1a” and “analysis result image 1b” generated from “image group 1” are displayed under “image group 1”. Although details will be described later, the analysis result image is a still image used for photoreceptor cell analysis of the eye to be examined. Thus, in this embodiment, a list of file names of the image group and the analysis result image is displayed in the data list 31.
データリスト31に表示される各々のファイル名の先頭には、チェックボックス31aが設けられている。本実施形態の装置では、各々のチェックボックス31aに対して行われるユーザのチェック操作(例えば、マウスによるクリック)を受け付ける。ユーザは、チェックボックス31aをチェックすることで、表示等の処理が行われる画像を選択できる。 A check box 31 a is provided at the head of each file name displayed in the data list 31. In the apparatus of the present embodiment, a user's check operation (for example, click with a mouse) performed on each check box 31a is accepted. The user can select an image to be displayed or the like by checking the check box 31a.
コントロールボックス32は、複数のボタンおよび入力欄を有している。詳細は後述するが、ボタンおよび入力欄へのユーザによる操作に応じて、コントローラ20内にウインドウが展開されたり、視細胞解析に用いられるパラメータが変更されたりする。例えば、データリスト31にある何れかの画像が選択された状態で「表示」ボタン32bが操作されると、コントローラ20において、図3に示すような画像表示ウインドウ40が展開される。 The control box 32 has a plurality of buttons and input fields. Although details will be described later, a window is expanded in the controller 20 or a parameter used for photoreceptor cell analysis is changed according to a user's operation on the buttons and the input field. For example, when the “display” button 32b is operated in a state where any image in the data list 31 is selected, an image display window 40 as shown in FIG.
画像表示ウインドウ40には、データリスト31で選択されている画像が表示される。本実施形態では、図3に示すように、データリスト31で複数の画像が選択されている場合は、何れか1の画像が画像表示ウインドウ40に表示される。このとき、画像表示ウインドウ40に表示される画像は、「ページ送り」ボタン41を操作することで、切り換えることができる。なお、データリスト31で解析結果画像が選択されている場合は、解析結果画像を用いて行われた解析処理の結果が、ウインドウ40内に表示される。また、データリスト31で画像群が選択されている場合は、画像群に含まれる各静止画像が、撮像された順に連続表示される。つまり、画像表示ウインドウ40には、動画像が表示される。なお、データリスト31で複数の画像が選択された状態で「表示」ボタン32bが操作された場合に、モニタ13には、選択された画像を複数表示しても良い。 In the image display window 40, the image selected in the data list 31 is displayed. In the present embodiment, as shown in FIG. 3, when a plurality of images are selected in the data list 31, any one image is displayed in the image display window 40. At this time, the image displayed in the image display window 40 can be switched by operating the “page feed” button 41. When an analysis result image is selected in the data list 31, the result of the analysis process performed using the analysis result image is displayed in the window 40. When an image group is selected in the data list 31, each still image included in the image group is continuously displayed in the order in which it was captured. That is, a moving image is displayed on the image display window 40. Note that when the “display” button 32 b is operated in a state where a plurality of images are selected in the data list 31, a plurality of selected images may be displayed on the monitor 13.
次に、図4以下を参照してPC1の動作について説明する。 Next, the operation of the PC 1 will be described with reference to FIG.
<画像の選択>
前述したように、データリスト31のチェックボックス31aに対するユーザの操作に基づいて、CPU2は、解析等の画像処理、またはモニタ14への表示処理がされる画像を選択する。本実施形態のPC1には、他にも、解析等の処理に用いる画像を選択する方法が用意されている。例えば、図4に示すサムネイル一覧ウインドウ50および図5に示す広域一覧ウインドウ60から、解析等の処理に用いる画像を選択することもできる。
<Select image>
As described above, based on a user operation on the check box 31 a of the data list 31, the CPU 2 selects an image to be subjected to image processing such as analysis or display processing on the monitor 14. In addition, the PC 1 of the present embodiment also has a method for selecting an image used for processing such as analysis. For example, an image used for processing such as analysis can be selected from the thumbnail list window 50 shown in FIG. 4 and the wide area list window 60 shown in FIG.
図4に示すサムネイル一覧ウインドウ50では、データリスト31にファイル名が示される画像群のサムネイル画像(画像インデックスの一例)の一覧表示がされている。コントロールボックス32の「読み込み」ボタン32aに対する操作が装置に受け付けられた場合に、CPU2によって、サムネイル一覧ウインドウ50が表示される。「表示種別切換」ボタン51がユーザに操作された場合に、画面上に表示されるサムネイル画像の種別が、CPU2によって切り換えられる。例えば、図4に示すように画像群のサムネイル画像が表示されているときに、「表示種別切換」ボタン51が操作されると、サムネイル一覧ウインドウ50に表示されるサムネイル画像が、解析結果画像のサムネイル画像に切り換わる。なお、本実施形態において、視細胞の解析処理が行われていない画像群を示すサムネイル画像には、画像群に含まれるいずれかの静止画像の縮小画像が使用される。例えば、各画像群の中で最初に撮像された先頭画像の縮小画像をサムネイル画像に用いることができる。また、視細胞の解析処理が既に行われている画像群のサムネイル画像には、例えば、解析の過程で生成された解析結果画像の縮小画像が使用される。サムネイル画像は、HDD5等に予め格納されていてもよい。また、「読み込み」ボタン32aが操作された場合に、PC1がサムネイル画像を作成してもよい。 In the thumbnail list window 50 shown in FIG. 4, a list of thumbnail images (an example of an image index) of an image group whose file names are shown in the data list 31 is displayed. When an operation for the “read” button 32 a of the control box 32 is accepted by the apparatus, the thumbnail list window 50 is displayed by the CPU 2. When the “display type switching” button 51 is operated by the user, the type of thumbnail image displayed on the screen is switched by the CPU 2. For example, when the “display type switching” button 51 is operated while the thumbnail images of the image group are displayed as shown in FIG. 4, the thumbnail images displayed in the thumbnail list window 50 are the analysis result images. Switch to thumbnail image. In the present embodiment, a reduced image of any one of the still images included in the image group is used as the thumbnail image indicating the image group on which the photoreceptor cell analysis processing has not been performed. For example, a reduced image of the first image captured first in each image group can be used as a thumbnail image. In addition, for example, a reduced image of the analysis result image generated in the analysis process is used as the thumbnail image of the image group in which the photoreceptor cell analysis processing has already been performed. The thumbnail image may be stored in advance in the HDD 5 or the like. Further, when the “read” button 32a is operated, the PC 1 may create a thumbnail image.
図4に示すように、CPU2は、サムネイル画像と共に、視細胞の解析処理の履歴(例えば、解析処理の有無)を示す情報を、サムネイル一覧ウインドウ50に表示させる。図4において、「解析済」の表示は、表示の付されたサムネイル画像に対応する画像群の解析は既に行われており、解析結果がHDD5等に記憶されていることを示す。また、「未解析」の表示は、表示の付されたサムネイル画像に対応する画像群の解析が行われていないことを示す。これにより、サムネイル一覧ウインドウ50が表示された場合に、サムネイル画像によって示される画像群に解析処理が行われたか否かを、ユーザに容易に把握させることができる。なお、本実施形態では、「解析済」および「未解析」の表示を、各々のサムネイル画像と共に必ず表示させたが、「解析済」および「未解析」の表示のうち、いずれか一方だけを表示させてもよい。 As shown in FIG. 4, the CPU 2 causes the thumbnail list window 50 to display information indicating the history of photoreceptor cell analysis processing (for example, presence or absence of analysis processing) together with the thumbnail image. In FIG. 4, the display of “analyzed” indicates that the analysis of the image group corresponding to the displayed thumbnail image has already been performed, and the analysis result is stored in the HDD 5 or the like. The display of “unanalyzed” indicates that the analysis of the image group corresponding to the displayed thumbnail image has not been performed. Thereby, when the thumbnail list window 50 is displayed, the user can easily grasp whether or not the analysis processing has been performed on the image group indicated by the thumbnail image. In this embodiment, the display of “analyzed” and “unanalyzed” is always displayed together with each thumbnail image, but only one of the displays of “analyzed” and “unanalyzed” is displayed. It may be displayed.
図5に示す広域一覧ウインドウ60は、サムネイル一覧ウインドウ50において「表示形式切換」ボタン52が操作された場合に、サムネイル一覧ウインドウ50から切り換えて表示される。CPU2は、広画角の眼底画像W(広域眼底画像W)を、広域一覧ウインドウ60のサムネイル表示領域全体に表示させる。広域眼底画像Wは、眼科撮像装置100の第2撮像ユニット105で撮像された眼底画像である。前述したように、本実施形態において、広域眼底画像Wは、PC1が眼科撮像装置100から事前に取得した画像である。 The wide area list window 60 shown in FIG. 5 is switched from the thumbnail list window 50 when the “display format switching” button 52 is operated in the thumbnail list window 50. The CPU 2 displays the fundus image W with a wide angle of view (wide area fundus image W) over the entire thumbnail display area of the wide area list window 60. The wide fundus image W is a fundus image captured by the second imaging unit 105 of the ophthalmic imaging apparatus 100. As described above, in the present embodiment, the wide fundus image W is an image acquired in advance by the PC 1 from the ophthalmic imaging apparatus 100.
CPU2は、サムネイル画像を広域眼底画像Wの上に重ねて表示させる。このとき、CPU2は、サムネイル画像によって示される画像(画像群または解析結果画像)の撮像部位の位置関係に応じて、サムネイル画像が配置される位置を定める。例えば、図5では、CPU2は、広域眼底画像Wにおいて各画像群のサムネイル画像が配置される位置を、各画像群の撮像部位(撮像範囲)に一致させる。広画角の眼底画像に対するサムネイル画像の位置あわせは、例えば、各々の画像データに含まれる眼底における撮像部位を示す情報に基づいて行うことができる。なお、眼底における撮像部位を示す情報としては、例えば、広画角の眼底画像の画像中心に対する位置情報、及び、黄斑に対する位置情報等を使用できる。 The CPU 2 displays the thumbnail image superimposed on the wide area fundus image W. At this time, the CPU 2 determines the position at which the thumbnail image is arranged according to the positional relationship of the imaging parts of the image (image group or analysis result image) indicated by the thumbnail image. For example, in FIG. 5, the CPU 2 matches the position where the thumbnail images of each image group are arranged in the wide fundus image W with the imaging part (imaging range) of each image group. The alignment of the thumbnail image with respect to the fundus image having a wide angle of view can be performed based on, for example, information indicating the imaging region on the fundus included in each image data. In addition, as information indicating the imaging region in the fundus, for example, position information with respect to the image center of a fundus image having a wide angle of view, position information with respect to the macula, and the like can be used.
本実施形態では、同一の部位を撮像した画像群が複数存在する場合は、それぞれの画像群のサムネイル画像を、広域眼底画像Wの同一位置に重ねて表示させる。サムネイル画像が複数重なっている場合は、サムネイル画像の周囲に、各サムネイル画像によって示される画像群のファイル名等(画像インデックスの一例)を表示させる。画面上のファイル名に対してユーザの選択操作(例えば、マウスによるクリック)が行われることで、サムネイル画像が複数重なった状態でも、CPU2が個別の画像群を選択できる。 In the present embodiment, when there are a plurality of image groups obtained by imaging the same part, the thumbnail images of the respective image groups are displayed on the same position of the wide-area fundus image W. When a plurality of thumbnail images are overlapped, the file name or the like (an example of an image index) of the image group indicated by each thumbnail image is displayed around the thumbnail images. By performing a user selection operation (for example, clicking with a mouse) on the file name on the screen, the CPU 2 can select individual image groups even when a plurality of thumbnail images overlap.
図5に示すように、広域一覧ウインドウ60には、解析の状況に応じて選択的にサムネイル画像を表示させるためのチェックボックス61a〜61cが設けられている。図5では、「全て表示」のチェックボックス61aが選択されている。「解析済みのみ」のチェックボックス61bが選択されると、CPU2は、解析済みの画像群を示すサムネイル画像を表示させる。この場合、CPU2は、未解析の画像群を示すサムネイル画像を表示させない。また、「未解析のみ」のチェックボックス61cが選択されると、CPU2は、未解析の画像群を示すサムネイル画像を表示させる。この場合、CPU2は、解析済みの画像群を示すサムネイル画像を表示させない。このため、PC1では、未解析の画像群、および解析済みの画像群の一方を、ユーザが選択し易い。 As shown in FIG. 5, the wide area list window 60 is provided with check boxes 61a to 61c for selectively displaying thumbnail images according to the analysis status. In FIG. 5, the “display all” check box 61 a is selected. When the “analyzed only” check box 61b is selected, the CPU 2 displays a thumbnail image indicating the analyzed image group. In this case, the CPU 2 does not display thumbnail images indicating unanalyzed image groups. When the “unanalyzed only” check box 61c is selected, the CPU 2 displays a thumbnail image indicating an unanalyzed image group. In this case, the CPU 2 does not display thumbnail images indicating the analyzed image group. For this reason, in the PC 1, the user can easily select one of the unanalyzed image group and the analyzed image group.
また、広域一覧ウインドウ60では、サムネイル画像の一覧表示が、画像群の撮像時に呈示されていた固視標の呈示位置毎に行われる。広域一覧ウインドウ60には、固視標位置選択・表示ボックス62が設けられている。本実施形態では、固視標位置選択ボックス62は、上下方向および左右方向に3マスずつ、計9マスのチェックボックスを有している。9マスのチェックボックスは、眼科撮像装置100の視標呈示光学系104における固視標の呈示位置に各々対応する。ユーザは、何れかのチェックボックスをチェック(選択)することで、画面上に表示されるサムネイル画像を指示できる。いずれかのチェックボックスがチェック(選択)された場合、CPU2は、チェック位置に対応する固視位置で撮像された画像群のサムネイル画像を、画面上に表示させる。例えば、図5(a)に示すように、9マスの中央にあるチェックボックスがチェックされる場合は、固視標の呈示位置が中央であるときに撮像された画像群のサムネイル画像が表示される。また、図5(b)に示すように、9マスの上列右側にあるチェックボックスがチェックされる場合は、右上の呈示位置で固視標が呈示されたときに撮像された画像群のサムネイル画像が表示される。 Also, in the wide area list window 60, thumbnail image list display is performed for each fixation target presenting position that was presented when the image group was captured. In the wide area list window 60, a fixation target position selection / display box 62 is provided. In the present embodiment, the fixation target position selection box 62 has check boxes for a total of 9 squares, 3 squares each in the vertical and horizontal directions. The check boxes of 9 squares correspond to the fixation target presentation positions in the visual target presentation optical system 104 of the ophthalmic imaging apparatus 100, respectively. The user can designate a thumbnail image displayed on the screen by checking (selecting) any of the check boxes. When any one of the check boxes is checked (selected), the CPU 2 displays a thumbnail image of the image group captured at the fixation position corresponding to the check position on the screen. For example, as shown in FIG. 5A, when the check box at the center of the nine squares is checked, the thumbnail images of the image group captured when the fixation target presentation position is the center are displayed. The Also, as shown in FIG. 5B, when the check box on the right side of the upper row of 9 squares is checked, the thumbnail of the image group captured when the fixation target is presented at the upper right presentation position. An image is displayed.
また、図5(a)、図5(b)に示すように、本実施形態では、広域一覧ウインドウ60に表示される広域眼底画像Wも、チェックボックスへのチェックと連動して選択される。CPU2は、予め各固視位置で撮像された複数の眼底画像から、広域一覧ウインドウ60へのチェック位置に対応する固視位置で撮像された広域眼底画像Wを表示させる。 Further, as shown in FIGS. 5A and 5B, in this embodiment, the wide area fundus image W displayed in the wide area list window 60 is also selected in conjunction with the check on the check box. The CPU 2 displays a wide area fundus image W imaged at a fixation position corresponding to a check position on the wide area list window 60 from a plurality of fundus images previously captured at each fixation position.
「表示種別切換」ボタン63は、サムネイル一覧ウインドウ50の「表示種別切換」ボタン51と同様の役割を持つ。また、広域一覧ウインドウ60において「表示形式切換」ボタン64がユーザに操作された場合は、CPU2によって、サムネイル一覧ウインドウ50に表示が切り換えられる。 The “display type switching” button 63 has the same role as the “display type switching” button 51 of the thumbnail list window 50. Further, when the “display format switching” button 64 is operated by the user in the wide area list window 60, the display is switched to the thumbnail list window 50 by the CPU 2.
以上の通り、本実施形態の広域一覧ウインドウ60では、広域眼底画像Wの上で、各々の画像の撮像位置と対応する位置に各々の画像群または解析結果画像を示すサムネイル画像(画像インデックスの一例)が各々配置される。このため、サムネイル画像の示す画像群等が被検眼のどの位置を撮像したものかを、ユーザに把握させやすい。 また、このため、画像処理に用いる画像群等を、ユーザが選択し易い。 As described above, in the wide area list window 60 of the present embodiment, on the wide area fundus image W, thumbnail images (an example of an image index) indicating each image group or analysis result image at a position corresponding to the imaging position of each image. ) Are arranged. For this reason, it is easy for the user to know which position of the eye to be imaged the image group indicated by the thumbnail image. For this reason, the user can easily select an image group or the like used for image processing.
また、被検眼における撮像位置が同じであっても、固視標の呈示位置が互いに異なる画像群等は、別々に扱いたい場合がある。例えば、AO−SLOでは、同一の部位を撮像した2以上の画像でも、それぞれの画像の撮像時における固視標の位置が異なっていると、それぞれの画像の内容が異なるおそれがある。これに対し、広域一覧ウインドウ60では、各々のサムネイル画像が示す画像群等の撮像時の固視標位置毎に、サムネイル画像が切り換えて表示される。従って、PC1では、異なる固視位置で撮像された画像群等がHDD5等に記憶されていても、所望する画像群等をユーザに選択させ易い。 In addition, even when the imaging position of the eye to be examined is the same, there are cases where it is desired to separately handle image groups or the like having different fixation target presentation positions. For example, in AO-SLO, even if two or more images are taken of the same part, the contents of each image may be different if the positions of the fixation target at the time of capturing each image are different. On the other hand, in the wide area list window 60, thumbnail images are switched and displayed for each fixation target position at the time of imaging such as an image group indicated by each thumbnail image. Therefore, in the PC 1, even if image groups and the like captured at different fixation positions are stored in the HDD 5 and the like, it is easy for the user to select a desired image group and the like.
なお、撮像時の固視標の呈示位置が異なる画像群等を、一枚の広域広域眼底画像Wに重ねて表示させても良い。この場合、例えば、画像データに含まれる固視標の定時位置を示す情報、および、撮像位置を示す情報を用いて、広域眼底画像Wにおけるそれぞれの画像の位置が定められる。 In addition, you may display the image group etc. from which the fixation target presentation position at the time of imaging overlaps on one wide area wide fundus image W. In this case, for example, the position of each image in the wide fundus image W is determined using information indicating the fixed position of the fixation target included in the image data and information indicating the imaging position.
また、本実施形態では、サムネイル画像の表示が固視位置毎に切り替わる場合に、広域一覧ウインドウ60に表示される広域眼底画像Wが、サムネイル画像が示す画像群等と同じ固視位置で撮像された画像に切り替わる。よって、サムネイル画像の示す画像群等の撮像位置をユーザに一層適正に把握させることができる。 In the present embodiment, when the thumbnail image display is switched for each fixation position, the wide fundus image W displayed in the wide area list window 60 is captured at the same fixation position as the image group indicated by the thumbnail image. Switch to the selected image. Therefore, it is possible to make the user more appropriately grasp the imaging position of the image group or the like indicated by the thumbnail image.
また、広域一覧ウインドウ60では、サムネイル一覧ウインドウ50と同様に、CPU2によって、視細胞の解析処理の履歴を示す情報がサムネイル画像と共に表示される。よって、PC1では、サムネイル画像によって示される画像群に解析処理が行われたか否かを、ユーザに容易に把握させることができる。 In the wide area list window 60, as in the thumbnail list window 50, the CPU 2 displays information indicating the history of photoreceptor cell analysis processing together with thumbnail images. Therefore, the PC 1 can make the user easily understand whether or not the analysis processing has been performed on the image group indicated by the thumbnail image.
なお、本実施形態では、画像(画像群または解析結果画像)を示す画像インデックスとして、サムネイル画像およびファイル名を例示したが、アイコン、および撮影日、画質、信頼度等、画像を特定する他の情報を画像インデックスに用いても良い。 In the present embodiment, the thumbnail image and the file name are exemplified as the image index indicating the image (image group or analysis result image), but other icons for specifying the image such as an icon and a shooting date, image quality, reliability, etc. Information may be used for the image index.
<画像の解析>
上述の方法によって一以上の画像群が選択されている場合に、コントロールボックス32の「解析」ボタン32c(図3参照)がユーザに操作されると、CPU2によって、解析データ生成処理(図6参照)が実行される。解析データ生成処理では、各々の画像群から加算平均画像が生成される。また、各々の加算平均画像に対して解析処理が行われ、解析結果が導出される。
<Image analysis>
When one or more image groups are selected by the above-described method, when the “analysis” button 32c (see FIG. 3) of the control box 32 is operated by the user, the CPU 2 performs analysis data generation processing (see FIG. 6). ) Is executed. In the analysis data generation process, an addition average image is generated from each image group. Further, an analysis process is performed on each of the addition average images, and an analysis result is derived.
ここで、図6を参照して解析データ生成処理について説明する。初めに、CPU2は、データリスト等で選択されている画像群のうち、本解析データ生成処理によって、処理が行われていない画像群を、今回の処理対象として選択する(S11)。ここで、S11の処理で選択される画像群を、データセットL(画像セットL)=[L0,L1,・・・,LN]で示す。各々の画像を、Lnで示す。但し、Lnは、添え字nの値が小さいほど、早い時刻に撮像されたことを示す。 Here, the analysis data generation processing will be described with reference to FIG. First, the CPU 2 selects, as an object to be processed this time, an image group that has not been processed by the analysis data generation process among the image groups selected in the data list or the like (S11). Here, the image group selected in the processing of S11 is represented by data set L (image set L) = [L0, L1,..., LN]. Each image is denoted by Ln. However, Ln indicates that an image is captured at an earlier time as the value of the subscript n is smaller.
次に、CPU2は、画像調節処理を実行する(S12)。本実施形態において、画像調節処理では、S11の処理によって選択された画像群に含まれる複数の画像のうち、固視が安定しているときに眼科撮像装置100で撮像された一部または全部の画像から、基準画像(第1の基準画像)が生成される。本実施形態の画像調節処理(S12)において、基準画像は、画像群の一部または全部の画像を互いに重ね合わせて画像間の差異を補正する際のテンプレートとして用いられる。詳細は後述するが、画像調節処理によって画像間の差異が調節された画像が、続くS13の処理によって加算平均される。 Next, the CPU 2 executes image adjustment processing (S12). In the present embodiment, in the image adjustment process, among a plurality of images included in the image group selected by the process of S11, a part or all of the images captured by the ophthalmic imaging apparatus 100 when the fixation is stable. A reference image (first reference image) is generated from the image. In the image adjustment processing (S12) of the present embodiment, the reference image is used as a template when correcting a difference between images by superimposing a part or all of the images in the image group. Although details will be described later, the images in which the difference between the images is adjusted by the image adjustment processing are added and averaged by the subsequent processing of S13.
ここで、図7及び図8を参照して画像調節処理について説明する。 Here, the image adjustment processing will be described with reference to FIGS.
まず、CPU2は、S21からS28の処理を実行して、S11の処理で選択された画像群(即ち、データセットL)に含まれる画像同士の、粗い位置あわせを行う。ここでいう、粗い位置あわせは、それぞれの画像の歪みを少なくとも補正せずに行う位置あわせである。本実施形態では、眼底画像Lnを平行移動させることによって、粗い位置あわせが行われる。しかし、粗い位置あわせは、平行移動に限られるものではなく、例えば、回転移動、および、平行移動と回転移動との組み合わせであっても良い。粗い位置あわせは、黒画像Eの上で行う。黒画像Eの大きさは、横幅MW、縦幅MHである。但し、Wは、眼底画像Lnの横幅であり、Hは、眼底画像Lnの縦幅である。Mは、1以上の定数(例えば、M=3)であり、画像間の位置ズレが許容される範囲を定めている。また、CPU2は、粗い位置あわせ後の各画像と、各々の画像のズレ量(詳細は後述する)とを、RAM4に記憶する。粗い位置あわせが行われた各画像のデータセットを、G=[G0,G1,・・・,GN]で示す。 First, the CPU 2 executes the processing from S21 to S28, and performs rough alignment between the images included in the image group (that is, the data set L) selected in the processing of S11. Here, the rough alignment is alignment performed without correcting at least distortion of each image. In this embodiment, rough alignment is performed by translating the fundus image Ln. However, the rough alignment is not limited to parallel movement, and may be, for example, rotational movement and a combination of parallel movement and rotational movement. Coarse alignment is performed on the black image E. The size of the black image E is a horizontal width MW and a vertical width MH. Here, W is the horizontal width of the fundus image Ln, and H is the vertical width of the fundus image Ln. M is a constant of 1 or more (for example, M = 3), and defines a range in which positional deviation between images is allowed. Further, the CPU 2 stores each image after the coarse alignment and the shift amount (details will be described later) of each image in the RAM 4. A data set of each image subjected to coarse alignment is denoted by G = [G0, G1,..., GN].
S21の処理では、参照画像R(第2の基準画像)の初期設定がCPU2によって行われる(S21)。参照画像Rは、眼底画像Lnを粗く位置あわせする際の基準として用いられる。詳細は後述するが、本実施形態では、参照画像Rは、参照画像Rに対して眼底画像Lnが位置あわせされる度に更新される。以下、n回更新された参照画像を、Rnと示す。本実施形態において初期設定される参照画像R0は、図9(a)に示すように、黒画像Eと重心位置が重なるようにして、黒画像E上に画像L0が配置された画像である。 In the process of S21, the CPU 2 performs initial setting of the reference image R (second standard image) (S21). The reference image R is used as a reference when the fundus image Ln is roughly aligned. Although details will be described later, in the present embodiment, the reference image R is updated every time the fundus image Ln is aligned with the reference image R. Hereinafter, the reference image updated n times is denoted as Rn. The reference image R0 that is initially set in the present embodiment is an image in which the image L0 is arranged on the black image E so that the center of gravity of the black image E overlaps with the black image E, as shown in FIG.
S21の実行後、CPU2は、S22からS28の処理を繰り返し実行し、データセットLに含まれる画像を一枚ずつ、参照画像Rnに対して粗く位置あわせする。まず、粗い位置あわせが未完了で撮像時刻の最も早い画像Lnが、次に位置あわせされる画像として、CPU2に選択される(S22)。例えば、直前に行われたS22からS28の処理において、画像Lkが位置合わせされた場合は、次のS22の処理では、画像Lk+1がCPU2によって選択される。なお、S21の処理が実行された直後のS22の処理では、画像L0がCPU2に選択される。 After executing S21, the CPU 2 repeatedly executes the processes from S22 to S28 to roughly align the images included in the data set L one by one with the reference image Rn. First, the image Ln that has not been subjected to rough alignment and has the earliest imaging time is selected by the CPU 2 as an image to be aligned next (S22). For example, when the image Lk is aligned in the process of S22 to S28 performed immediately before, the image Lk + 1 is selected by the CPU 2 in the next process of S22. In the process of S22 immediately after the process of S21 is executed, the image L0 is selected by the CPU2.
次のS23の処理では、直前のS22の処理で選択された画像Ln(以下、「選択画像」と称す)が、平行移動によって、参照画像Rnに位置あわせされる(S23)。位置あわせ方法としては、種々の画像処理手法を用いることが可能である。例えば、参照画像Rnに対して選択画像Lnを1画素ずつ位置ズレさせ、両画像のデータが最も一致する位置(相関が最も高くなる位置)に選択画像Lnを位置あわせする手法が考えられる。また、参照画像Rnと選択画像Lnとから共通の特徴点を抽出したうえで、互いの特徴点が重なる位置に、選択画像Lnを位置あわせする手法が考えられる。 In the next process of S23, the image Ln selected in the immediately preceding process of S22 (hereinafter referred to as “selected image”) is aligned with the reference image Rn by translation (S23). Various image processing methods can be used as the alignment method. For example, a method is conceivable in which the selected image Ln is shifted pixel by pixel with respect to the reference image Rn, and the selected image Ln is aligned with the position where the data of the two images most closely matches (the position with the highest correlation). In addition, after extracting common feature points from the reference image Rn and the selected image Ln, a method of aligning the selected image Ln at a position where the feature points overlap each other can be considered.
本実施形態においては、参照画像Rnに対して選択画像Lnを1画素単位でずらしながら、選択画像Lnと参照画像Rnとの相関値を逐次算出して位置あわせを行う。なお、ここでの相関値の最大値は1であり、値が大きいほど画像間の相関が高いことを示す。次に、CPU2は、Rnとの相関が最も高くなる位置へ移動させた選択画像Lnを、黒画像E上に複製することで、画像Gnを生成する(S24)。例えば、画像L0を位置あわせする場合は、画像L0は、初期設定時の参照画像R0に含まれる眼底画像部分と完全に一致する。よって、画像G0は、参照画像R0と同じになる(図9(a)参照)。また、図9(b)に示すように、画像G1では、画像G0における眼底画像部分L´0と画像L1との重複範囲が重なるようにL1が移動されたうえで、黒画像Eに画像L1が複製されている。生成された画像Gnは、CPU2によって、RAM4に格納される。 In the present embodiment, alignment is performed by sequentially calculating a correlation value between the selected image Ln and the reference image Rn while shifting the selected image Ln by one pixel unit with respect to the reference image Rn. Here, the maximum correlation value is 1, and the larger the value, the higher the correlation between images. Next, the CPU 2 generates an image Gn by duplicating the selected image Ln moved to the position where the correlation with Rn is the highest on the black image E (S24). For example, when aligning the image L0, the image L0 completely matches the fundus image portion included in the reference image R0 at the time of initial setting. Therefore, the image G0 is the same as the reference image R0 (see FIG. 9A). 9B, in the image G1, the image L1 is moved to the black image E after the L1 is moved so that the overlapping range of the fundus image portion L′ 0 and the image L1 in the image G0 overlaps. Has been duplicated. The generated image Gn is stored in the RAM 4 by the CPU 2.
また、このとき、CPU2は、Rnとの相関が最も高くなる位置へ移動された選択画像Lnの重心位置cnを取得する(S24)。さらに、CPU2は、選択画像Lnの位置ズレ量(シフト量)dn=[dxn,dyn]をRAM4に記憶する(S25)。本実施形態において、位置ズレ量dnは、選択画像Lnと、Lnの直前に撮像された選択画像Ln−1との撮像範囲の変位を示す。撮像範囲の変位は、固視微動に起因するので、位置ズレ量dnは、選択画像Ln−1を撮像してから選択画像Lnを撮像するまでの間に生じた固視微動の大きさと方向とを表している。よって、ズレ量dnに基づいて、CPU2は、撮像時における被検眼の動きを検出できる。なお、本実施形態では、選択画像Lnの位置ズレ量dnを、選択画像Lnと、Lnより前の時刻に撮像された画像Ln−1との変位としているが、Lnより後の時刻に撮像された画像との変位とすることもできる。dxn,dynは、それぞれ、位置ズレ量における、横方向成分、縦方向成分を示す。本実施形態では、位置ズレ量dnは、例えば、重心位置cnと、予め取得していた重心位置cn−1との差分から得ることができる。 At this time, the CPU 2 obtains the center-of-gravity position cn of the selected image Ln moved to the position where the correlation with Rn is the highest (S24). Further, the CPU 2 stores the positional deviation amount (shift amount) dn = [dxn, dyn] of the selected image Ln in the RAM 4 (S25). In the present embodiment, the positional deviation amount dn indicates the displacement of the imaging range between the selected image Ln and the selected image Ln−1 captured immediately before Ln. Since the displacement of the imaging range is caused by fixation micromotion, the positional deviation amount dn is the magnitude and direction of fixation micromotion that occurs between the time when the selected image Ln−1 is captured and the time when the selected image Ln is captured. Represents. Therefore, based on the shift amount dn, the CPU 2 can detect the movement of the eye to be examined during imaging. In the present embodiment, the positional deviation amount dn of the selected image Ln is a displacement between the selected image Ln and the image Ln−1 captured at a time before Ln, but is captured at a time later than Ln. It can also be a displacement from the image. dxn and dyn respectively indicate a horizontal direction component and a vertical direction component in the positional deviation amount. In the present embodiment, the positional deviation amount dn can be obtained, for example, from the difference between the center of gravity position cn and the center of gravity position cn−1 acquired in advance.
次に、CPU2は、参照画像Rnを更新する(S27)。本実施形態では、CPU2は、参照画像Rnと、粗い位置あわせ後の選択画像Gnとから更新後の参照画像Rn+1を生成する。例えば、参照画像Rnと、画像Gnとの加算平均画像を、更新後の参照画像Rn+1とすることができる。この場合、更新後の参照画像Rn+1において任意の位置にある画素の階調値rn+1は、例えば、次の式(1)で示すことができる。 Next, the CPU 2 updates the reference image Rn (S27). In the present embodiment, the CPU 2 generates an updated reference image Rn + 1 from the reference image Rn and the selected image Gn after rough alignment. For example, the addition average image of the reference image Rn and the image Gn can be used as the updated reference image Rn + 1. In this case, the gradation value rn + 1 of the pixel at an arbitrary position in the updated reference image Rn + 1 can be expressed by the following equation (1), for example.
rn+1={(n×rn)+gn}/n+1・・・(1)
但し、rn、r0、およびgnは、それぞれ、参照画像Rn、初期設定時の参照画像R0、画像Gnにおいて、上記任意の位置と同一の位置にある画素の階調値を示す。これにより、図9(c)に示すように、更新後の参照画像Rn+1には、参照画像Rnの眼底画像部分R´nと、画像Gnの眼底画像部分L´nとが加算平均される。
rn + 1 = {(n × rn) + gn} / n + 1 (1)
However, rn, r0, and gn indicate the tone values of the pixels at the same position as the arbitrary position in the reference image Rn, the reference image R0 at the time of initial setting, and the image Gn, respectively. As a result, as shown in FIG. 9C, the fundus image portion R′n of the reference image Rn and the fundus image portion L′ n of the image Gn are added and averaged to the updated reference image Rn + 1.
次に、CPU2は、データセットLに含まれる全ての画像の位置あわせが完了したか否かを判定する(S28)。データセットLに、位置あわせ未完了の画像が残っている場合は(S28:No)、CPU2は、S22の処理に戻って、S22からS28の処理を繰り返し実行する。一方、データセットLに含まれる全ての画像の位置あわせが完了した場合は(S28:Yes)、S29の処理に移行する。なお、本実施形態では、S22からS28の処理において、データセットLに含まれる画像のうち、撮像時刻が早い画像から参照画像への位置あわせを行ったが、撮像時刻が遅い画像から参照画像への位置あわせを行ってもよい。 Next, the CPU 2 determines whether or not the alignment of all the images included in the data set L has been completed (S28). If there is an uncompleted image in the data set L (S28: No), the CPU 2 returns to the process of S22 and repeatedly executes the processes of S22 to S28. On the other hand, when the alignment of all the images included in the data set L is completed (S28: Yes), the process proceeds to S29. Note that, in the present embodiment, in the processing from S22 to S28, among the images included in the data set L, alignment is performed from an image with an earlier imaging time to a reference image, but from an image with an later imaging time to a reference image. May be aligned.
S29の処理では、CPU2が、粗い位置あわせがされた画像群のデータセットG=[G0,G1,・・・,Gn]を分割して、被検眼の固視の状態と時間的に対応する複数のデータセットF1=[G0,G1,・・・,Ga],F2=[Ga+1,・・・,Gb],・・・,Fq=[・・・,GN]を作成する。ここで、本実施形態におけるデータセットGの分割方法について説明する。本実施形態では、S26の処理で求めたズレ量dnを用いてデータセットを分割する。例えば本実施形態では、データセットGに含まれる画像Gnに対応するズレ量dnを、添え字の順に(即ち、画像Lnの撮像順に)積算していく。なお、前述したように、ズレ量dnは、眼科撮像装置100において連続する2枚の画像を撮像する間に生じた固視微動による撮像範囲の位置ズレの大きさを表している。よって、積算値Sは、ある時点からの固視微動による撮像範囲の位置ズレの大きさを示す。ズレ量gnの積算値Sが所定の閾値Θを超えた段階で、積算値Sにズレ量gnが含まれている画像GnからなるデータセットFmを、データセットGから分割する。ズレ量の積算値を初期化(ゼロに)して、残りのデータセットGに対しても、同様の処理が繰り返し行われることで、データセットGから、複数のデータセットF1,F2,・・・,Fqが生成される。ここで、データセットFmに含まれる画像Gnの枚数が、データセットFmに含まれる画像Gnの撮像時における被検眼の固視の安定度合いを示していると考えられる。固視が安定している場合ほど、即ち、撮像範囲の時間的な変化が小さい場合ほど、撮像範囲がΘだけ位置ズレする間に、眼科撮像装置100で撮像できる画像の枚数は多くなると考えられるからである。よって、S29の処理で生成されるデータセットF1,F2・・・Fqは、それぞれ、被検眼の固視の状態と時間的に対応する。なお、本実施形態では、閾値Θを、画像Lnの大きさの1/8程度(即ち、(Θx,Θy)≒(W/8,H/8))とする。但し、閾値Θは、求められる精度との関係で適宜設定することができる。なお、本実施形態では、積算値Sのx成分およびy成分の何れかが、閾値ΘxまたはΘyを超えた段階で、データセットを分割するものとする。なお、本実施形態では、位置ズレ量dnは、連続して撮像された2枚の画像の撮像範囲の変位としたが、これに限定されない。例えば、選択画像と、その選択画像が含まれるデータセットFの先頭画像画像との撮像範囲の変位を用いてもよい。この場合、位置ズレ量dnが閾値Θを超えた段階でデータセットを分割することができる。 In the process of S29, the CPU 2 divides the data set G = [G0, G1,..., Gn] of the coarsely aligned image group and temporally corresponds to the fixation state of the eye to be examined. A plurality of data sets F1 = [G0, G1,..., Ga], F2 = [Ga + 1,..., Gb],. Here, a method of dividing the data set G in the present embodiment will be described. In the present embodiment, the data set is divided using the shift amount dn obtained in the process of S26. For example, in the present embodiment, the shift amount dn corresponding to the image Gn included in the data set G is integrated in the order of subscripts (that is, in the order of capturing the images Ln). Note that, as described above, the shift amount dn represents the size of the position shift of the imaging range caused by fixation fixation that occurs while the ophthalmic imaging apparatus 100 captures two consecutive images. Therefore, the integrated value S indicates the amount of positional deviation in the imaging range due to fixation fixation from a certain point in time. When the integrated value S of the deviation amount gn exceeds a predetermined threshold Θ, the data set Fm composed of the image Gn in which the integrated value S includes the deviation amount gn is divided from the data set G. The integrated value of the deviation amount is initialized (to zero), and the same processing is repeated for the remaining data sets G, so that a plurality of data sets F1, F2,. ., Fq is generated. Here, it is considered that the number of images Gn included in the data set Fm indicates the degree of fixation stability of the eye to be examined when the image Gn included in the data set Fm is captured. It is considered that the number of images that can be captured by the ophthalmic imaging device 100 increases as the fixation is more stable, that is, as the temporal change in the imaging range is smaller, while the imaging range is shifted by Θ. Because. Therefore, the data sets F1, F2,... Fq generated by the process of S29 respectively correspond temporally to the fixation state of the eye to be examined. In the present embodiment, the threshold Θ is set to about 1/8 of the size of the image Ln (that is, (Θx, Θy) ≈ (W / 8, H / 8)). However, the threshold Θ can be set as appropriate in relation to the required accuracy. In the present embodiment, it is assumed that the data set is divided when either the x component or the y component of the integrated value S exceeds the threshold value Θx or Θy. In the present embodiment, the positional deviation amount dn is the displacement of the imaging range of two images captured successively, but is not limited to this. For example, the displacement of the imaging range between the selected image and the first image of the data set F including the selected image may be used. In this case, the data set can be divided when the positional deviation amount dn exceeds the threshold Θ.
図8に移ってフローチャートの説明を続ける。次に、CPU2は、S29の処理によって作成されたデータセットF1,F2・・・Fqから、最も多くの画像を含むデータセットFsを選択する(S30)。よって、S30の処理では、被検眼の固視が最も安定しているときに撮像された複数の画像が選択される。 Turning to FIG. 8, the description of the flowchart will be continued. Next, the CPU 2 selects the data set Fs including the most images from the data sets F1, F2,... Fq created by the process of S29 (S30). Therefore, in the process of S30, a plurality of images captured when the fixation of the eye to be examined is most stable are selected.
次に、CPU2は、S30の処理で選択されたデータセットFsの重心位置Cを取得する(S31)。重心位置Cは、データセットFsに含まれる各画像Gnの眼底画像部分の重心位置cnから求めることができる。例えば、各画像の重心cnの積算値を画像の枚数で除算することで、重心位置Cを求めることができる。 Next, the CPU 2 acquires the gravity center position C of the data set Fs selected in the process of S30 (S31). The centroid position C can be obtained from the centroid position cn of the fundus image portion of each image Gn included in the data set Fs. For example, the center-of-gravity position C can be obtained by dividing the integrated value of the center-of-gravity cn of each image by the number of images.
ところで、データセットFsに含まれる各画像Gnは、本実施形態では、横幅MW、縦幅MHの大きさを持っている。S32の処理では、CPU2は、データセットFsに含まれる各画像Gnを、重心位置Cを中心として、横幅W、縦幅Hの大きさで切り出す(S32)。その結果、横幅W、縦幅Hの大きさの画像OnからなるデータセットOa=[Oa1,Oa2,・・・,Oap]が作成される。 Incidentally, each image Gn included in the data set Fs has a width MW and a height MH in the present embodiment. In the process of S32, the CPU 2 cuts out each image Gn included in the data set Fs with a horizontal width W and a vertical width H around the center of gravity position C (S32). As a result, a data set Oa = [Oa1, Oa2,..., Oap] composed of images On having a width W and a height H is created.
次に、CPU2は、データセットOaに含まれる各画像を加算平均して、基準画像Obを生成する(S33)。基準画像Obでは、データセットOaの各画像に含まれる固視微動による歪が平均化される。基準画像Obは、次のあわせこみ処理(S34)において、画像処理のテンプレートとして用いられる。 Next, the CPU 2 averages each image included in the data set Oa to generate a reference image Ob (S33). In the reference image Ob, distortion caused by fixation micromotion included in each image of the data set Oa is averaged. The reference image Ob is used as a template for image processing in the next matching process (S34).
次に、CPU2は、あわせこみ処理を実行する(S34)。あわせこみ処理では、CPU2は、基準画像Obを基準(テンプレート)にして、データセットOaに含まれる各画像の歪みを補正する。歪みの補正には、種々の方法を用いることができる。例えば、基準画像Obに適合するように、データセットOaに含まれる各画像の局所的な領域を変換する。このような補正方法は、文献に記載されている(例えば、A.Dubra, & Z.Harvey, Registration of 2D Images from Fast Scanning Ophthalmic Instruments. Carlos.O. & S.sorzano et al,Elastic Registration of Biological Images Using Vector-Spline Regularicalization等)。これによって、精度よく重なり合う画像からなる画像データセットO=[O1,O2,・・・,Op]が作成される。あわせこみ処理の実行後は、解析データ生成処理(図6参照)に戻って、CPU2は、S13から処理を続ける。 Next, the CPU 2 executes a fitting process (S34). In the matching process, the CPU 2 corrects distortion of each image included in the data set Oa using the reference image Ob as a reference (template). Various methods can be used to correct the distortion. For example, a local region of each image included in the data set Oa is converted so as to match the reference image Ob. Such correction methods are described in the literature (e.g. A. Dubra, & Z. Harvey, Registration of 2D Images from Fast Scanning Ophthalmic Instruments. Carlos. O. & S. sorzano et al, Elastic Registration of Biological Images Using Vector-Spline Regularicalization etc.). As a result, an image data set O = [O1, O2,... After executing the matching process, the process returns to the analysis data generation process (see FIG. 6), and the CPU 2 continues the process from S13.
図6に戻って説明を続ける。CPU2は、画像データセットOに含まれる画像を加算平均処理して、静止画像を作成する(S13)。 Returning to FIG. 6, the description will be continued. The CPU 2 adds and averages the images included in the image data set O to create a still image (S13).
次に、CPU2は、光学歪補正処理(S14)を実行する。これによって、S13の処理で作成された静止画像から、被検眼および眼科撮像装置100等の光学的な像歪みが補正される。 Next, the CPU 2 executes an optical distortion correction process (S14). Thereby, the optical image distortion of the eye to be examined and the ophthalmic imaging apparatus 100 is corrected from the still image created in the process of S13.
次に、CPU2は、信頼度取得処理を実行する(S15)。S15の処理において、CPU2は、像歪みの補正された静止画像の信頼度を取得する。信頼度は、静止画像を用いた解析から導かれる解析結果の信頼性(または妥当性)を示す情報である。信頼度は、信頼性の高い画像か否かを示す情報であってもよく、信頼性の度合いを示す情報(例えば、数値等)であってもよい。信頼度は、ユーザが、観察・比較する画像を選ぶ目安となる。一般に、静止画像の画質が高いほど、信頼度が高い。そこで、例えば、CPU2は、静止画像のコントラスト、及び、明るさ等の情報から、信頼度を取得できる。例えば、コントラストが大きいほど、信頼度が高い。そこで、例えば、静止画像のコントラストの分布を用いて、CPU2は信頼度を取得してもよい。 Next, the CPU 2 executes a reliability acquisition process (S15). In the process of S15, the CPU 2 acquires the reliability of the still image whose image distortion has been corrected. The reliability is information indicating the reliability (or validity) of the analysis result derived from the analysis using the still image. The reliability may be information indicating whether the image is highly reliable, or may be information indicating the degree of reliability (for example, a numerical value). The reliability is a guideline for the user to select an image to be observed and compared. In general, the higher the still image quality, the higher the reliability. Therefore, for example, the CPU 2 can acquire the reliability from information such as the contrast and brightness of the still image. For example, the greater the contrast, the higher the reliability. Thus, for example, the CPU 2 may acquire the reliability using the contrast distribution of the still image.
ところで、静止画像の画質が悪くなる要因(信頼度が低くなる要因)には、固視微動や装置の設定等、撮像時の状況に起因するものと、瞳孔径、眼の収差、および中間透光体の混濁等、被検眼の個体差に起因するものとが含まれる。信頼度の低さが撮像時の状況に起因する場合は、再度の撮像を行えばよい。一方、信頼度の低さが被検眼の個体差に起因する場合は、信頼度の低い静止画像であっても、ユーザが観察・比較に用いる画像として選びたい場合がある。そこで、例えば、瞳孔径、収差情報、及び、中間透光体の混濁を示す情報の少なくとも何れか等に基づいて、被検眼の個体差を加味した信頼度を、S15の処理において、CPU2に取得させても良い。なお、本実施形態では、瞳孔径および中間透光体の混濁程度を示す情報は、眼科装置100以外の眼科装置で事前に測定された値を用いることができる。また、中間透光体の混濁程度は、撮影位置におけるPSF(点拡がり関数)画像のプロファイルからも求めることができる。この場合、例えば、予めPC1に、眼科撮像装置100で取得された眼底画像と同一の撮影位置のPSF画像を転送させておくこともできる。 By the way, the factors that deteriorate the image quality of still images (factors that reduce the reliability) include those caused by imaging conditions such as fixation fixation and device settings, pupil diameter, eye aberration, and intermediate transparency. Those caused by individual differences in the eye to be examined such as turbidity of the light body are included. If the low reliability is caused by the situation at the time of imaging, the imaging may be performed again. On the other hand, when the low reliability is caused by the individual difference of the eye to be examined, there are cases where the user wants to select an image used for observation / comparison even for a still image with low reliability. Therefore, for example, based on at least one of the pupil diameter, aberration information, and information indicating the opacity of the intermediate translucent body, the CPU 2 acquires the reliability considering the individual difference of the eye to be examined in the process of S15. You may let them. In the present embodiment, as information indicating the pupil diameter and the degree of opacity of the intermediate translucent body, values measured in advance by an ophthalmologic apparatus other than the ophthalmologic apparatus 100 can be used. Further, the degree of turbidity of the intermediate translucent body can be obtained from the profile of the PSF (point spread function) image at the photographing position. In this case, for example, a PSF image at the same photographing position as the fundus image acquired by the ophthalmic imaging apparatus 100 can be transferred to the PC 1 in advance.
次に、CPU2は、視細胞解析処理を実行する(S16)。本実施形態の視細胞解析処理では、CPU2は、光学歪補正処理(S14)による補正後の静止画像から視細胞を検出する。光学歪補正処理(S14)による補正後の静止画像に対し、検出された視細胞には、視細胞点が設定される。これによって、本実施形態では、解析結果画像が作成される。なお、解析結果画像は、解析、検査、または他画像との比較等に用いることのできる画像であればよく、必ずしも視細胞点が設定されていなくてもよい。また、解析結果画像を用いて、解析結果画像全体における視細胞密度、六角形細胞出現率、正六角形細胞出現率等を算出する。解析結果画像の画像データ、および、算出された各種の解析結果は、HDD5に記憶される(S17)。 Next, the CPU 2 executes photoreceptor cell analysis processing (S16). In the photoreceptor cell analysis process of the present embodiment, the CPU 2 detects photoreceptor cells from the still image that has been corrected by the optical distortion correction process (S14). A photoreceptor cell point is set to the detected photoreceptor cell with respect to the still image corrected by the optical distortion correction process (S14). Thereby, in this embodiment, an analysis result image is created. The analysis result image may be an image that can be used for analysis, inspection, comparison with another image, and the like, and the photoreceptor cell point does not necessarily have to be set. Also, using the analysis result image, the photoreceptor density, hexagonal cell appearance rate, regular hexagonal cell appearance rate, etc. in the entire analysis result image are calculated. The image data of the analysis result image and the various analysis results calculated are stored in the HDD 5 (S17).
S17の実行後、CPU2は、データリスト31等によってユーザに選択された画像群を、全て処理したか否かを判定する(S18)。未処理の画像群が残っている場合は(S18:No)、CPU2は、S11の処理に戻って、S11からS18の処理を繰り返し実行する。一方、全ての画像群が処理されていれば(S18:Yes)、CPU2は、解析データ生成処理を終了させる。 After execution of S17, the CPU 2 determines whether or not all the image groups selected by the user from the data list 31 or the like have been processed (S18). When an unprocessed image group remains (S18: No), the CPU 2 returns to the process of S11 and repeatedly executes the processes of S11 to S18. On the other hand, if all the image groups have been processed (S18: Yes), the CPU 2 ends the analysis data generation process.
以上説明したように、本実施形態のPC1では、固視が安定しているときに連続して撮像された複数の被検眼画像を含むデータセットFs(画像セットFs)が、基準画像に複合されるために取得される(S30)。固視が安定しているときに連続して撮像された複数の被検眼画像は、固視が不安定なときに撮像された被検眼画像と比べて、画像間の差異が少ない。このため、S30の処理で取得されたデータセットFsに含まれる複数の被検眼画像を複合することで、良好な基準画像Obが生成されやすい。例えば、固視微動に基づく被検眼の網膜に沿う方向の歪み、および、網膜と交差する方向の歪みが、基準画像Obでは抑制されやすい。よって、PC1で生成された基準画像Obをテンプレートとして用いる被検眼画像の画像処理(例えば、被検眼画像の歪み補正、位置あわせ等)が適正に行われやすい。従って、PC1によれば、画像処理のテンプレートとして好適な基準画像Obを得ることができる。 As described above, in the PC 1 according to the present embodiment, the data set Fs (image set Fs) including a plurality of eye images that are continuously captured when the fixation is stable is combined with the reference image. Therefore, it is acquired (S30). The plurality of eye images captured continuously when the fixation is stable has fewer differences between the images than the eye images captured when the fixation is unstable. For this reason, it is easy to generate a good reference image Ob by combining a plurality of eye images included in the data set Fs acquired in the process of S30. For example, the distortion in the direction along the retina of the eye to be examined and the distortion in the direction intersecting the retina due to fixation micromotion are easily suppressed in the reference image Ob. Therefore, it is easy to appropriately perform image processing (for example, distortion correction and alignment of the eye image to be examined) using the reference image Ob generated by the PC 1 as a template. Therefore, according to the PC 1, it is possible to obtain a reference image Ob suitable as a template for image processing.
また、本実施形態のPC1では、S23の処理によって互いに位置あわせされた複数の被検眼画像を含むデータセットFsに対して、基準画像に複合される領域(各々の被検眼画像から切り出す範囲)がCPU2によって設定される(S32)。データセットFsの各々の被検眼画像における基準画像に複合される領域は、位置ズレが補正されているので、PC1では、良好な基準画像Obが生成されやすい。 Further, in the PC 1 of the present embodiment, for the data set Fs including a plurality of eye images that are aligned with each other in the process of S23, an area that is combined with the reference image (range to be cut out from each eye image). Set by the CPU 2 (S32). Since the positional deviation of the region combined with the reference image in each eye image in the data set Fs is corrected, a good reference image Ob is easily generated in the PC1.
また、S23の処理によって位置あわせされた状態にあるデータセットFsの重心位置の周囲に、基準画像に複合される領域がCPU2に設定される(S32)。このため、データセットFsに含まれるそれぞれの被検眼画像において、基準画像に複合される領域がそれぞれ広くなりやすい。従って、一層良好な基準画像が生成されやすい。なお、基準画像に複合される領域は、本実施形態のように、データセットFsの重心位置を中心にして設定された領域に限定されるものではない。 Further, an area combined with the reference image is set in the CPU 2 around the center of gravity position of the data set Fs that has been aligned by the process of S23 (S32). For this reason, in each eye image to be examined included in the data set Fs, the region combined with the reference image tends to be widened. Therefore, a better reference image is likely to be generated. Note that the region combined with the reference image is not limited to the region set around the center of gravity of the data set Fs as in the present embodiment.
また、S31の処理では、複数のデータセットF1,F2,・・・Fqの中から、連続して撮像された被検眼画像の数が最も多いデータセットが少なくとも取得される。撮像時に被検眼の固視がより安定していたデータセットほど、画像セットに含まれる被検眼画像の数が多くなる。このため、連続して撮像された被検眼画像の数が最も多いデータセットからは、良好な基準画像が作成されやすい。 In the process of S31, at least a data set having the largest number of eye images taken continuously is acquired from the plurality of data sets F1, F2,... Fq. The data set in which the fixation of the eye to be examined is more stable at the time of imaging increases the number of eye images to be examined included in the image set. For this reason, it is easy to create a good reference image from a data set having the largest number of eye images to be examined continuously.
ところで、仮に、S23の処理で参照画像Rn(第2基準画像)に被検眼画像を各々位置あわせする際に、被検眼画像Lnと、参照画像Rnとの撮像位置のズレが大きいと、被検眼画像Lnと、参照画像Rnとの位置あわせが適正になされないおそれがある。例えば、被検眼画像Lnと、参照画像Rnとに、互いに重複する領域が少ないと、位置あわせの信頼性が低くなってしまう。それ故、良好な基準画像が生成され難くなってしまうおそれがある。 By the way, if each of the test eye images is aligned with the reference image Rn (second reference image) in the process of S23, if there is a large difference between the imaging positions of the test eye image Ln and the reference image Rn, the test eye There is a possibility that the image Ln and the reference image Rn are not properly aligned. For example, when there are few overlapping areas in the eye image Ln and the reference image Rn, the reliability of alignment is lowered. Therefore, it may be difficult to generate a good reference image.
これに対し、本実施形態では、1の被検眼画像が位置あわせされる度に、位置あわせされた被検眼画像Lnを用いて参照画像Rnが更新される。よって、参照画像Rnには、撮像位置の異なる複数の被検眼画像Lnの情報が含まれる。このため、被検眼画像Lnと参照画像Rnとの重複する領域が確保されやすい。従って、参照画像Rnに対する被検眼画像Lnの位置あわせが良好に行われやすい。 On the other hand, in this embodiment, every time one eye image is aligned, the reference image Rn is updated using the aligned eye image Ln. Therefore, the reference image Rn includes information on a plurality of eye images Ln to be examined having different imaging positions. For this reason, it is easy to ensure an overlapping area between the eye image Ln to be examined and the reference image Rn. Therefore, the alignment of the eye image Ln to be examined with respect to the reference image Rn is easily performed well.
なお、所定枚数の被検眼画像が位置あわせされる度に、所定枚数の被検眼画像Lnの少なくともいずれかを用いて参照画像Rnを更新するようにしてもよい。この場合、本実施形態に比べて、参照画像Rnの更新頻度を少なくすることができる。よって、その分だけ、基準画像が短時間で生成されやすくなる。 The reference image Rn may be updated using at least one of the predetermined number of eye images Ln each time a predetermined number of eye images are aligned. In this case, the update frequency of the reference image Rn can be reduced as compared with the present embodiment. Therefore, the reference image is easily generated in a short time.
また、本実施形態では、参照画像Rnに対して被検眼画像Lnが位置あわせされる(S23)場合に、参照画像Rnには、直前の更新(S27)で、被検眼画像Lnと連続して撮像された被検眼画像Ln−1が含まれた状態となっている。このため、連続して撮像された被検眼画像Ln−1,Lnは、固視微動による撮像位置のズレの影響を受け難い。このため、被検眼画像Lnと参照画像Rnとに重複する領域は確保されやすい。よって、PC1では、参照画像Rnに対する被検眼画像Lnの位置あわせが一層良好に行われやすい。 Further, in the present embodiment, when the eye image Ln to be examined is aligned with the reference image Rn (S23), the reference image Rn is continuously updated with the eye image Ln in the previous update (S27). The captured eye image Ln-1 is included. For this reason, the eye images Ln-1 and Ln that are continuously captured are not easily affected by the shift of the imaging position due to the fixation movement. For this reason, the area | region which overlaps with the to-be-tested eye image Ln and the reference image Rn is easy to be ensured. Therefore, in PC1, it is easier to better align the eye image Ln to be examined with respect to the reference image Rn.
<ROIの設定>
本実施形態のPC1には、上記の解析データ生成処理(図6参照)で作成された解析結果画像を用いて、解析データの修正、および、再解析を行う機能が用意されている。例えば、解析結果画像において解析される対象をユーザの指示に応じて変更したうえで、再解析を行うことができる。例えば、ユーザは、解析結果画像において解析に用いる範囲(即ち、ROI:Region of Interest)を指定して、再解析を行うことができる。データリスト31等で1以上の解析結果画像が選択されて、コントロールボックス32の「ROI設定」ボタン32dが操作された場合、CPU2は、図10に示すようなROI設定ウインドウ70を、コントローラ20に表示させる。
<Setting ROI>
The PC 1 of the present embodiment is provided with functions for correcting and reanalyzing analysis data using the analysis result image created by the above analysis data generation process (see FIG. 6). For example, the reanalysis can be performed after changing the analysis target in the analysis result image according to the user's instruction. For example, the user can specify a range (that is, ROI: Region of Interest) used for analysis in the analysis result image and perform reanalysis. When one or more analysis result images are selected in the data list 31 or the like and the “ROI setting” button 32d of the control box 32 is operated, the CPU 2 displays an ROI setting window 70 as shown in FIG. Display.
図10に示すように、ROI設定ウインドウ70では、画像表示領域Tに表示される解析結果画像上で、ユーザがROIを指定できる。ユーザに指定された範囲で、CPU2はROIを設定する。本実施形態では、ROIの設定された範囲は、一点鎖線で囲まれて示される。 As shown in FIG. 10, in the ROI setting window 70, the user can specify the ROI on the analysis result image displayed in the image display area T. The CPU 2 sets the ROI within the range specified by the user. In the present embodiment, the ROI set range is indicated by being surrounded by a one-dot chain line.
データリスト31等において複数の解析結果画像が予め選択されている場合は、CPU2は、「ページ送り」ボタン71の操作に基づいて、選択中の別の解析結果画像を画像表示領域Tに表示させる。また、「解析」ボタン72が操作された場合は、CPU2は、データリスト31等において選択されている解析結果画像の再解析を行う。本実施形態において、再解析では、解析データ生成処理(図6参照)に含まれる視細胞解析処理と同様の処理が行われる。解析結果画像にROIが設定されている場合は、ROIに含まれる眼底組織が解析の対象となる。よって、PC1によれば、視細胞を検出し難い部位(例えば血管など)を除外してROIを設定しておくことで、適正な解析結果が再解析によって得られやすくなる。なお、コントロールボックス32等に用意されている他の「解析」ボタンが操作されても、同様の再解析が行われる。 When a plurality of analysis result images are selected in advance in the data list 31 or the like, the CPU 2 displays another selected analysis result image in the image display region T based on the operation of the “page feed” button 71. . When the “analysis” button 72 is operated, the CPU 2 reanalyzes the analysis result image selected in the data list 31 or the like. In the present embodiment, in the reanalysis, processing similar to the photoreceptor cell analysis processing included in the analysis data generation processing (see FIG. 6) is performed. When the ROI is set in the analysis result image, the fundus tissue included in the ROI is an analysis target. Therefore, according to PC1, by setting a ROI by excluding a part where a photoreceptor cell is difficult to detect (for example, a blood vessel or the like), an appropriate analysis result can be easily obtained by reanalysis. The same reanalysis is performed even if another “analysis” button prepared in the control box 32 or the like is operated.
また、本実施形態では、データリスト31等において複数の解析結果画像が予め選択されている場合は、複数の画像に対してROIを一括して設定できる。解析結果画像に対してユーザからROIが指示された場合、CPU2は、ROI設定処理(図11参照)を実行する。 In the present embodiment, when a plurality of analysis result images are selected in advance in the data list 31 or the like, ROIs can be set for a plurality of images at once. When the ROI is instructed from the analysis result image by the user, the CPU 2 executes ROI setting processing (see FIG. 11).
図11に示すROI設定処理では、まず、CPU2は、表示中の解析結果画像に対して、ユーザから指示された範囲にROIを設定する(S40)。次に、CPU2は、データリスト31等において複数の解析結果画像が事前に選択されているか否かを判別する(S41)。解析結果画像が1枚だけ選択されている場合は(S41:No)、CPU2は、S42からS46の処理をスキップして、ROI設定処理を終了する。一方、複数の解析結果画像が事前に選択されている場合は(S41:Yes)、S42の処理に移行する。 In the ROI setting process shown in FIG. 11, first, the CPU 2 sets an ROI within a range designated by the user for the analysis result image being displayed (S40). Next, the CPU 2 determines whether or not a plurality of analysis result images are selected in advance in the data list 31 or the like (S41). When only one analysis result image is selected (S41: No), the CPU 2 skips the processing from S42 to S46 and ends the ROI setting processing. On the other hand, when a plurality of analysis result images are selected in advance (S41: Yes), the process proceeds to S42.
S42の処理において、CPU2は、後述するS43以下によって処理されていない画像を1枚選択する(S42)。次に、CPU2は、S40の処理でROIの設定された画像と、S42の処理で選択した画像とが、同一の固視標の呈示位置で撮像されたものか否かを判定する(S43)。この判定は、例えば、互いの画像データに含まれる、撮像時の固視標の呈示位置を示す情報を比較することで行うことができる。撮像時の固視標の呈示位置が、互いの画像で異なっている場合は(S43:No)、後述のS46の処理に移行する。 In the process of S42, the CPU 2 selects one image that has not been processed in S43 and later (S42). Next, the CPU 2 determines whether or not the image in which the ROI is set in the process of S40 and the image selected in the process of S42 are captured at the same fixation target presentation position (S43). . This determination can be performed, for example, by comparing information indicating the fixation position of the fixation target included in each image data. When the present position of the fixation target at the time of imaging is different in each image (S43: No), the process proceeds to S46 described later.
一方、撮像時の固視標の呈示位置が同一である場合は(S43:Yes)、S44の処理に移行する。S44の処理では、S42の処理で選択された画像の中に、S40の処理で設定されたROI内の眼底組織が含まれているか否かが、CPU2によって判定される(S44)。例えば、表示中の解析結果画像におけるROI内の領域をS42の処理で選択した画像に対して平行移動および回転移動の少なくとも一方によってずらしながら、逐次算出した相関値に基づいてS44の判定を行うことができる。例えば、相関値の最大値が所定の閾値を超えている場合に、S42の処理で選択した画像の中に、S40の処理で設定されたROI内の眼底組織が含まれていると判定する。また、S44の処理では、表示中の解析結果画像におけるROI内の領域、および、S42の処理で選択した画像のそれぞれから抽出した特徴点のパターンマッチングの結果に基づいてS44の判定を行うことができる。 On the other hand, when the present position of the fixation target at the time of imaging is the same (S43: Yes), the process proceeds to S44. In the process of S44, the CPU 2 determines whether the fundus tissue in the ROI set in the process of S40 is included in the image selected in the process of S42 (S44). For example, the determination in S44 is performed based on the sequentially calculated correlation value while shifting the region in the ROI in the analysis result image being displayed by at least one of translation and rotation with respect to the image selected in S42. Can do. For example, when the maximum correlation value exceeds a predetermined threshold value, it is determined that the fundus tissue in the ROI set in the process of S40 is included in the image selected in the process of S42. In the process of S44, the determination in S44 may be performed based on the pattern matching result of the feature points extracted from the region in the ROI in the analysis result image being displayed and the image selected in the process of S42. it can.
S44の処理において、S42の処理で選択された画像の中に、表示中の解析結果画像に設定されたROI内の眼底組織が含まれていない場合は(S44:No)、S46の処理に移行する。一方、S42の処理で選択された画像の中に、S40の処理で設定されたROI内の眼底組織が含まれている場合(S44:Yes)、CPU2は、S42の処理で選択された画像に対してROIを設定する(S45)。S45の処理では、表示中の解析結果画像においてROIの設定された部位と、同一の部位に対してROIが設定される。 In the process of S44, when the fundus tissue in the ROI set in the analysis result image being displayed is not included in the image selected in the process of S42 (S44: No), the process proceeds to S46. To do. On the other hand, when the fundus tissue in the ROI set in the process of S40 is included in the image selected in the process of S42 (S44: Yes), the CPU 2 changes the image selected in the process of S42. On the other hand, the ROI is set (S45). In the process of S45, the ROI is set for the same part as the part where the ROI is set in the currently displayed analysis result image.
S46の処理では、データリスト31等で選択中の画像が全て処理されたか否かがCPU2によって判定される(S46)。データリスト31等で選択中の画像の中に、S43以下の処理が行われていない画像が含まれていれば(S46:No)、S42に移行して、S42以下の処理を再度実行する。一方、データリスト31等で選択中の画像全てに、S43以下の処理が行われている場合は(S46:Yes)、処理を終了させる。 In the process of S46, the CPU 2 determines whether or not all the images currently selected in the data list 31 or the like have been processed (S46). If the image currently selected in the data list 31 or the like includes an image that has not been subjected to the processing of S43 and subsequent steps (S46: No), the process proceeds to S42, and the processing of S42 and subsequent steps is executed again. On the other hand, if the processing from S43 onward is performed on all the images selected in the data list 31 or the like (S46: Yes), the processing is terminated.
<視細胞の検出結果の修正>
また、本実施形態のPC1では、解析結果画像における視細胞の検出結果を修正することでも、解析結果画像において解析される対象を変更できる。視細胞の検出結果の修正は、図12に示す視細胞点修正ウインドウ80上で行われる。データリスト31等で1以上の解析結果画像が選択されて、コントロールボックス32の「視細胞点修正」ボタン32eが操作された場合、CPU2は、視細胞点修正ウインドウ80を、コントローラ20に表示させる。
<Correction of photoreceptor detection results>
Moreover, in PC1 of this embodiment, the object analyzed in an analysis result image can be changed also by correcting the detection result of the photoreceptor cell in an analysis result image. Correction of the photoreceptor cell detection result is performed on the photoreceptor cell correction window 80 shown in FIG. When one or more analysis result images are selected in the data list 31 or the like and the “photocell point correction” button 32 e of the control box 32 is operated, the CPU 2 displays the photocell point correction window 80 on the controller 20. .
図12(a)に示すように、視細胞点修正ウインドウ80には、データリスト31等で選択された解析結果画像のいずれかが、画像表示領域Tに表示される。「ページ送り」ボタン81の役割は、上述した他の「ページ送り」ボタンと同様である。 As shown in FIG. 12A, any of the analysis result images selected in the data list 31 or the like is displayed in the image display area T in the photoreceptor cell correction window 80. The role of the “page forward” button 81 is the same as that of the other “page forward” buttons described above.
図12(b)に示すように、「追加」ボタン83がユーザによって操作されると、解析結果画像において、視細胞点を追加する位置を、ユーザが指示できるようになる。視細胞点を追加する位置がユーザから指示されると、CPU2は、アイコンIaを、解析結果画像上のユーザから指示された位置に設定する。一方、図12(c)に示すように、「削除」ボタン84がユーザによって操作されると、解析結果画像において、削除する視細胞点を、ユーザが指示できるようになる。削除する視細胞点がユーザから指示されると、CPU2は、ユーザによって削除された視細胞点の位置に、アイコンIbを設定する。 As shown in FIG. 12B, when the “add” button 83 is operated by the user, the user can specify the position to add the photoreceptor cell point in the analysis result image. When the user designates the position to add the photoreceptor cell point, the CPU 2 sets the icon Ia at the position designated by the user on the analysis result image. On the other hand, as shown in FIG. 12C, when the “delete” button 84 is operated by the user, the user can designate the photoreceptor cell point to be deleted in the analysis result image. When the photoreceptor cell point to be deleted is instructed by the user, the CPU 2 sets the icon Ib at the position of the photoreceptor cell point deleted by the user.
アイコンIaおよびアイコンIbのいずれかが設定された状態で「解析」ボタン82が操作されると、CPU2は、表示されている解析結果画像の視細胞点を修正する。例えば、CPU2は、アイコンIaが設定された位置には、視細胞点を追加する。一方、CPU2は、アイコンIbが設定された位置にある視細胞点を削除する。視細胞点が修正された画像は、新たな解析結果画像として、HDD5に格納される。また、CPU2は、新たな解析結果画像に対して、解析データ生成処理(図6参照)に含まれる視細胞解析処理と同様の処理を行う。これによって、新たな解析結果画像に対する各種の解析結果が出力される。 When the “analysis” button 82 is operated in a state where either the icon Ia or the icon Ib is set, the CPU 2 corrects the photoreceptor cell point of the displayed analysis result image. For example, the CPU 2 adds a photoreceptor point at the position where the icon Ia is set. On the other hand, the CPU 2 deletes the photoreceptor cell point at the position where the icon Ib is set. The image in which the photoreceptor cell point is corrected is stored in the HDD 5 as a new analysis result image. Further, the CPU 2 performs a process similar to the photoreceptor analysis process included in the analysis data generation process (see FIG. 6) on the new analysis result image. As a result, various analysis results for the new analysis result image are output.
なお、複数の解析結果画像を選択してROIを設定する場合と同様に、複数の解析結果画像を選択して視細胞点の検出結果を修正する場合においても、一の解析結果画像に対して行った視細胞点の修正を、同じ視細胞点を持つ他の解析結果画像へ、CPU2が反映させても良い。 Similar to the case where a plurality of analysis result images are selected and the ROI is set, even when a plurality of analysis result images are selected and the detection result of the photoreceptor cell point is corrected, one analysis result image is selected. The CPU 2 may reflect the correction of the performed photoreceptor cell point to another analysis result image having the same photoreceptor cell point.
<眼軸長の情報の変更>
本実施形態のPC1では、被検眼の眼軸長の情報を変更して被検眼の再解析を行うことができる。ユーザが、コントロールボックス32の眼軸長入力ボックス32g(図3参照)に被検眼の眼軸長を入力し、データリスト31等で1以上の解析結果画像を選択してから、「解析」ボタン32cを操作する。これによって、CPU2は、眼軸長入力ボックス32gに入力されている眼軸長に基づいて、選択されている解析結果画像の再解析を行う。ここでは、解析データ生成処理(図6参照)に含まれる視細胞解析処理と同様の処理が、変更された眼軸長で行われる。被検眼の眼軸長の情報が変更されることで、視細胞解析処理において、視細胞の大きさの推定値が変更される。よって、眼軸長測定装置等で測定した正確な眼軸長を、眼軸長入力ボックス32gに入力することで、より正確な視細胞密等の解析結果を得ることができる。
<Change of axial length information>
In the PC 1 of the present embodiment, reanalysis of the eye to be examined can be performed by changing information on the axial length of the eye to be examined. The user inputs the axial length of the eye to be examined in the axial length input box 32g (see FIG. 3) of the control box 32, selects one or more analysis result images in the data list 31 or the like, and then clicks the “Analysis” button. 32c is operated. As a result, the CPU 2 reanalyzes the selected analysis result image based on the axial length input to the axial length input box 32g. Here, processing similar to the photoreceptor cell analysis processing included in the analysis data generation processing (see FIG. 6) is performed with the changed axial length. By changing the information about the axial length of the eye to be examined, the estimated value of the size of the photoreceptor cell is changed in the photoreceptor analysis process. Therefore, by inputting an accurate axial length measured by an axial length measuring device or the like into the axial length input box 32g, a more accurate analysis result such as visual cell density can be obtained.
本実施形態では、被検眼の眼軸長を変更して再解析を行う場合について説明したが、再解析において正確な視細胞の大きさを使用できれば、他の方法を採用してもよい。例えば、再解析する場合に、被検眼の角膜曲率半径を変更できるようにしてもよい。例えば、本実施形態で眼軸長入力ボックス32gに眼軸長を入力させたように、ユーザに角膜曲率半径を入力させることができる。なお、眼軸長と角膜曲率半径との一方だけを変更できるようにしてもよいが、両方変更できるようにすれば、再解析においてより正確な視細胞の大きさを用いることができる。よって、この場合、より適正な解析結果を得ることができる。 In the present embodiment, the case where reanalysis is performed by changing the axial length of the eye to be examined has been described, but other methods may be adopted as long as the correct visual cell size can be used in the reanalysis. For example, when reanalyzing, the corneal curvature radius of the eye to be examined may be changed. For example, it is possible to allow the user to input the corneal curvature radius as if the axial length was input to the axial length input box 32g in the present embodiment. It should be noted that only one of the axial length and the corneal curvature radius may be changed, but if both can be changed, a more accurate visual cell size can be used in reanalysis. Therefore, in this case, a more appropriate analysis result can be obtained.
<フォローアップ表示>
本実施形態のPC1には、撮像日時の異なる画像を同一の配置で一画面上に(即ち、同時に)表示できるフォローアップ表示機能が用意されている。フォローアップ表示によって、ユーザは、眼底の特定位置が時間経過に伴ってどのように変化したかを比較できる。
<Follow-up display>
The PC 1 of the present embodiment is provided with a follow-up display function that can display images with different imaging dates and times on the same screen (that is, simultaneously) on one screen. The follow-up display allows the user to compare how the specific position of the fundus has changed over time.
ユーザがコントロールボックス32(図3参照)の「ベース画像設定」ボタン32fを操作することで、ベース画像の設定が可能になる。ベース画像は、比較の基準に用いる画像である。本実施形態では、まず、ユーザに、ベース画像設定ボタン32を操作させてから、データリスト31に並んだ何れかの解析結果画像のファイル名を選択させる。これにより、ユーザの選択したファイル名の画像が、CPU2によって、ベース画像に設定される。次に、ユーザに、ベース画像以外の解析結果画像のチェックボックス31aを1つ以上チェックさせる。これにより、ユーザにチェックされた画像が、ベース画像と同時に表示する比較画像に、CPU2によって設定される。なお、ベース画像および比較画像を、図5に示す広域一覧ウインドウ60から選択させてもよい。同一の撮像位置で撮像された解析結果画像のサムネイル画像が、広域眼底画像Wにおいて同一の位置に表示されるので、ユーザがベース画像および比較画像を選択し易い。 The user can set the base image by operating the “base image setting” button 32f of the control box 32 (see FIG. 3). The base image is an image used as a reference for comparison. In the present embodiment, first, the user operates the base image setting button 32 and then selects a file name of any analysis result image arranged in the data list 31. Thereby, the image of the file name selected by the user is set as the base image by the CPU 2. Next, the user checks one or more check boxes 31a for analysis result images other than the base image. Thereby, the image checked by the user is set by the CPU 2 as a comparative image to be displayed simultaneously with the base image. The base image and the comparison image may be selected from the wide area list window 60 shown in FIG. Since the thumbnail images of the analysis result images captured at the same imaging position are displayed at the same position in the wide area fundus image W, the user can easily select the base image and the comparison image.
ベース画像および比較画像が設定された状態で、ユーザによって「解析」ボタン32cが操作されると、CPU2は、フォローアップ表示ウインドウ90(図13参照)を表示させる。図13に示すように、フォローアップ表示ウインドウ90には、ベース画像と、比較画像の少なくとも何れかと、が表示される。なお、図13では、解析結果画像2が比較画像として表示されている。比較画像は、ベース画像に対して位置あわせされた状態で、フォローアップ表示ウインドウ90に表示される。位置あわせは、CPU2が、ベース画像に対して比較画像を回転移動および平行移動させることによって行われる。例えば、ベース画像と比較画像との相関を求めた場合に、相関値が最も高くなる位置まで、比較画像を移動させればよい。 When the “analysis” button 32c is operated by the user with the base image and the comparison image set, the CPU 2 displays a follow-up display window 90 (see FIG. 13). As shown in FIG. 13, the follow-up display window 90 displays a base image and at least one of comparison images. In FIG. 13, the analysis result image 2 is displayed as a comparative image. The comparison image is displayed in the follow-up display window 90 in a state of being aligned with the base image. The alignment is performed by the CPU 2 rotating and translating the comparison image with respect to the base image. For example, when the correlation between the base image and the comparison image is obtained, the comparison image may be moved to a position where the correlation value is highest.
また、フォローアップ表示ウインドウ90には、ベース画像および比較画像の解析結果がCPU2によってそれぞれ表示される。例えば、予めHDD5に格納されている各画像の解析結果を表示してもよい。しかし、ベース画像と比較画像と撮像位置がずれていると、ベース画像と比較画像との視細胞密度等の解析結果を正確に比較することが難しい。そこで、本実施形態では、ベース画像と比較画像とに、共通のROIを設定して、再解析を行ってもよい。例えば、上記したROI設定ウインドウ70(図10参照)のように、フォローアップ表示ウインドウ90のベース画像上で(または、比較画像上で)、ユーザがROIを指定できるようにしても良い。例えば、ベース画像に対してROIが指定されてから、「解析」ボタン92が操作された場合に、CPU2は、ベース画像と比較画像とに対して、前述のROI設定処理を実行する。これにより、ベース画像と比較画像とで共通の領域にROIを設定できる。共通の眼底組織が写っている領域を探索して、それぞれの画像で共通する領域にROIを設定しても良い。ベース画像と比較画像とのそれぞれに共通のROIを設定すると、CPU2は、細胞密度等の解析結果を求め、解析結果を画面等に出力する。これにより、ユーザは、ベース画像と比較画像との視細胞密度等の解析結果を比較し易くなる。 In the follow-up display window 90, the analysis results of the base image and the comparison image are displayed by the CPU 2, respectively. For example, the analysis result of each image stored in the HDD 5 in advance may be displayed. However, if the imaging positions of the base image and the comparative image are shifted, it is difficult to accurately compare the analysis results such as the photoreceptor cell density between the base image and the comparative image. Therefore, in this embodiment, a common ROI may be set for the base image and the comparison image, and reanalysis may be performed. For example, as in the ROI setting window 70 (see FIG. 10) described above, the user may be able to specify the ROI on the base image of the follow-up display window 90 (or on the comparison image). For example, when the “analysis” button 92 is operated after the ROI is specified for the base image, the CPU 2 executes the above-described ROI setting process for the base image and the comparison image. Thereby, ROI can be set to a common area | region with a base image and a comparison image. An area in which a common fundus tissue is shown may be searched, and an ROI may be set in an area common to each image. When a common ROI is set for each of the base image and the comparison image, the CPU 2 obtains an analysis result such as a cell density and outputs the analysis result to a screen or the like. This makes it easier for the user to compare analysis results such as the photoreceptor cell density between the base image and the comparative image.
また、図13に示すように、フォローアップ表示ウインドウ90には、それぞれの画像の信頼度が表示される。信頼度を目安に、比較する画像をユーザに選ばせることができる。よって、ユーザは、画像同士の比較を適正に行いやすい。 Further, as shown in FIG. 13, the follow-up display window 90 displays the reliability of each image. Using the reliability as a guide, the user can select an image to be compared. Therefore, it is easy for the user to properly compare the images.
また、図14に示すように、ベース画像および比較画像において、六角形細胞を、他の形状の細胞と異なる態様で表示させても良い。例えば、六角形細胞に、他の形状の細胞と異なる色を付したり、ハッチングなどを施したりしてもよい。正常な網膜には六角形の細胞が規則的に並んでいる。六角形の細胞は、病変等の異常によって形が崩れていく過程で、角が増減することが知られている。或いは、六角形細胞のうち、正六角形細胞を、正六角形細胞以外の細胞と異なる態様で表示させてもよい。 Further, as shown in FIG. 14, in the base image and the comparative image, hexagonal cells may be displayed in a manner different from cells having other shapes. For example, hexagonal cells may be colored differently from cells of other shapes, or may be hatched. In the normal retina, hexagonal cells are regularly arranged. It is known that the corners of hexagonal cells increase and decrease in the process of losing shape due to abnormalities such as lesions. Or you may display a regular hexagonal cell in the aspect different from cells other than a regular hexagonal cell among hexagonal cells.
以上に説明した通り、本実施形態のPC1では、ROI設定ウインドウ70、フォローアップウインドウ90等が表示されている場合に、視細胞の解析処理によって解析される対象を、複数の眼底画像において変更させるユーザからの指示を、操作部14および操作処理部8を介してCPU2が受け付ける。CPU2によって受け付けた指示に関わる対象が、複数の画像の重複部分に含まれている場合に(S44:Yes)、視細胞の解析処理が行われると、複数の画像のそれぞれに対してユーザからの指示を反映させた解析結果が、CPU2によって出力される。このように、ユーザからの指示で、複数の画像において解析される対象がまとめて変更される。よって、互いの少なくとも一部に重複部分を持つ複数の画像を解析する場合に、解析対象を変更させる指示を行うユーザの負担が抑制されやすい。特に、本実施形態では、CPU2は、ROI設定ウインドウ70、フォローアップウインドウ90等に表示されるいずれか1の画像を用いて、ユーザからの指示を受け付ける。このため、ユーザは、解析対象を変更させる指示を行いやすい。 As described above, in the PC 1 according to the present embodiment, when the ROI setting window 70, the follow-up window 90, and the like are displayed, the target to be analyzed by the photoreceptor cell analysis process is changed in a plurality of fundus images. The CPU 2 receives an instruction from the user via the operation unit 14 and the operation processing unit 8. When an object related to an instruction received by the CPU 2 is included in an overlapping portion of a plurality of images (S44: Yes), when a photoreceptor cell analysis process is performed, each of the plurality of images is received from the user. The analysis result reflecting the instruction is output by the CPU 2. As described above, the objects to be analyzed in the plurality of images are collectively changed in accordance with an instruction from the user. Therefore, when analyzing a plurality of images having overlapping portions at least in part of each other, the burden on the user who gives an instruction to change the analysis target is easily suppressed. In particular, in the present embodiment, the CPU 2 receives an instruction from the user using any one of the images displayed on the ROI setting window 70, the follow-up window 90, and the like. For this reason, the user can easily give an instruction to change the analysis target.
また、本実施形態では、ユーザから指示されたROIがCPU2によって受け付けられた場合、複数の画像のそれぞれに設定されるROI内の眼底組織が、CPU2によってそれぞれ解析される。よって、ユーザの負担を抑制しつつ、ユーザの所望する範囲での解析を、複数の画像のそれぞれで行うことができる。 In this embodiment, when the ROI instructed by the user is received by the CPU 2, the fundus tissue in the ROI set for each of the plurality of images is analyzed by the CPU 2. Therefore, analysis within a range desired by the user can be performed on each of the plurality of images while suppressing the burden on the user.
以上、実施形態に基づき説明したが、本発明は、上記実施形態に限定されずに、様々に変形できる。 As mentioned above, although demonstrated based on embodiment, this invention is not limited to the said embodiment, It can deform | transform variously.
例えば、上記実施形態では、連続して撮像された画像間の撮像位置のズレ量をCPU2に求めさせることで、撮像時における被検眼の動きを検出した。しかし、撮像時における被検眼の動きを、他の方法によっても検出してもよい。例えば、眼科撮像装置100の眼底撮像光学系101によって1の画像群が撮像される間、第2撮像ユニット105においても、広域の眼底画像(眼底の正面画像)を連続して撮像させておく。PC1に、連続して撮像された広域の眼底画像を、画像群と共に取得させる。そのうえで、CPU2では、連続して撮像された広域の眼底画像によって示される血管および黄斑等の特徴部位の動きに基づいて、画像群の撮像時における被検眼の動きを検出してもよい。また、被検眼が動くと、波面センサ102で検出される収差が変化する。そこで、例えば、眼底撮像光学系101によって1の画像群が撮像される間、波面センサ102で検出される収差(主に、被検眼による波面収差)を、逐次、眼科撮像装置100に取得させておく。PC1に、画像群が撮像される間の収差の検出結果を、画像群と共に取得させる。そのうえで、PC1では、収差の検出結果に基づいて、画像群の撮像時における被検眼の動きを、CPU2に検出させてもよい。いずれの方法を用いても、特別な装置を必要とせずに、画像群の撮像時における被検眼の動きを検出できる。 For example, in the above-described embodiment, the movement of the eye to be inspected at the time of imaging is detected by causing the CPU 2 to obtain the shift amount of the imaging position between images that are continuously captured. However, the movement of the eye to be examined during imaging may be detected by other methods. For example, while one image group is imaged by the fundus imaging optical system 101 of the ophthalmologic imaging apparatus 100, the second imaging unit 105 also continuously captures a wide fundus image (frontal image of the fundus). The PC 1 is caused to acquire a wide-range fundus image continuously captured together with the image group. In addition, the CPU 2 may detect the movement of the subject's eye at the time of capturing the image group based on the movement of the characteristic part such as the blood vessel and the macula indicated by the wide fundus image captured continuously. Further, when the eye to be examined moves, the aberration detected by the wavefront sensor 102 changes. Thus, for example, while one image group is captured by the fundus imaging optical system 101, the ophthalmic imaging apparatus 100 sequentially acquires aberrations detected by the wavefront sensor 102 (mainly wavefront aberrations due to the eye to be examined). deep. The PC 1 is caused to acquire an aberration detection result while the image group is captured together with the image group. In addition, the PC 1 may cause the CPU 2 to detect the movement of the eye to be examined at the time of capturing the image group based on the detection result of the aberration. Whichever method is used, it is possible to detect the movement of the eye to be examined at the time of capturing an image group without requiring a special device.
また、上記実施形態の解析データ生成処理では、一つの画像群から、一組の解析データ(解析結果画像、および視細胞密度等の解析データ)が得られる。しかし、複数の画像群から、一組の解析データを作成してもよい。例えば、同一の撮像日に、被検眼の同一位置を撮像した画像群が、データリスト31等で複数選択されている場合に、選択された複数の画像群を、1の画像群とみなして解析データ生成処理(図6参照)を実行させればよい。仮に、同一の撮像日の解析データが複数存在した場合、ユーザは、どのデータを用いるかの判断が難しい。これに対し、同一の撮像日に、被検眼の同一位置で撮像された複数の画像群を、1の画像群とみなして解析データ生成処理が行われた場合、その日のうちで、最も固視が安定していたときの解析データを得ることができる。 In the analysis data generation process of the above embodiment, a set of analysis data (analysis result image and analysis data such as photoreceptor cell density) is obtained from one image group. However, a set of analysis data may be created from a plurality of image groups. For example, when a plurality of image groups obtained by imaging the same position of the eye to be examined are selected in the data list 31 or the like on the same imaging day, the selected plurality of image groups are regarded as one image group and analyzed. Data generation processing (see FIG. 6) may be executed. If there are a plurality of pieces of analysis data for the same imaging date, it is difficult for the user to determine which data to use. On the other hand, when analysis data generation processing is performed by regarding a plurality of image groups captured at the same position of the eye to be examined as one image group on the same imaging date, Analysis data can be obtained when is stable.
また、第1の画像群から生成された基準画像Ob1を、第1の画像群とは撮像日時が異なる第2の画像群の位置あわせ等を行う場合のテンプレートとしてもよい。この場合、例えば、第2の画像群において固視が安定したデータセットf2が、CPU1によって、基準画像Ob1に対して位置あわせされたうえで歪みが補正される。更に、CPU2が、基準画像Ob1の範囲でデータセットf2を切り出して、解析結果画像を生成する。これにより、第1の画像群から生成された解析結果画像と、第2の画像群から生成された解析結果画像とは、同じ基準画像をテンプレートとして用いているので、ユーザが解析結果の比較を行いやすい。 In addition, the reference image Ob1 generated from the first image group may be used as a template for performing alignment or the like of the second image group having a different shooting date and time from the first image group. In this case, for example, the CPU 1 corrects the distortion after the data set f2 in which fixation is stable in the second image group is aligned with the reference image Ob1. Further, the CPU 2 cuts out the data set f2 within the range of the reference image Ob1, and generates an analysis result image. Thereby, since the analysis result image generated from the first image group and the analysis result image generated from the second image group use the same reference image as a template, the user can compare the analysis results. Easy to do.
上記実施形態では、S13の処理で加算平均された画像に対して画像の信頼度を求める場合について説明したが、これに限定されるものではない。例えば、画像を加算する前の画像の信頼度を求めても良い。 In the above-described embodiment, the case where the reliability of the image is obtained with respect to the image subjected to the averaging process in S13 has been described, but the present invention is not limited to this. For example, you may obtain | require the reliability of the image before adding an image.
また、上記実施形態では、ROI設定処理(図11参照)によって、複数の解析結果画像にROIが設定される場合、1枚の解析結果画像に対してユーザが設定したROIの設定された領域を、CPU2が、他の解析結果画像からも検索した。
そのうえで、CPU2は、他の解析結果画像において検索された領域にROIを設定した。しかし、必ずしも、1枚の解析結果画像に対してユーザが設定したROIの設定された領域を、CPU2が他の解析結果画像で検索しなくてもよい。例えば、解析結果画像同士の撮像範囲の差異が十分少ない場合であれば、ユーザによって指示されたROIと、画像上の同じ位置(座標)に、CPU2が、他の解析結果画像のROIを設定してもよい。
Further, in the above embodiment, when ROIs are set for a plurality of analysis result images by the ROI setting process (see FIG. 11), the ROI set region set by the user for one analysis result image is displayed. CPU2 also searched from other analysis result images.
In addition, the CPU 2 sets an ROI in a region searched in another analysis result image. However, the CPU 2 does not necessarily need to search the other analysis result image for the region where the ROI set by the user for one analysis result image is set. For example, if the difference in the imaging range between the analysis result images is sufficiently small, the CPU 2 sets the ROI of another analysis result image at the same position (coordinates) on the image as the ROI instructed by the user. May be.
なお、上記実施形態では、PC1では、眼科撮像装置100として、AO−SLOで撮像された眼底画像を処理する場合について説明した。しかし、本発明によれば、AO−SLOの他にも、被検眼を撮像することが可能な種々のデバイスで撮像された画像を、PC1で処理できる。例えば、前眼部または眼底における断層画像を取得する光断層干渉計(OCT)を、眼科撮像装置100として用いてもよい。 In the above-described embodiment, the case where the fundus image captured by the AO-SLO is processed in the PC 1 as the ophthalmic imaging apparatus 100 has been described. However, according to the present invention, in addition to AO-SLO, images captured by various devices capable of capturing the eye to be examined can be processed by the PC 1. For example, an optical tomographic interferometer (OCT) that acquires a tomographic image of the anterior segment or the fundus may be used as the ophthalmic imaging apparatus 100.
1 PC
2 CPU
5 HDD
13 モニタ
15 外部メモリ
Ob 基準画像
W 広域眼底画像
1 PC
2 CPU
5 HDD
13 Monitor 15 External memory Ob Reference image W Wide area fundus image
Claims (3)
被検眼の撮影画像の縮小画像を、前記撮影画像についての被検眼に対する撮影位置を示す情報に基づいて、表示装置の表示画面に一覧表示させる一覧表示ステップと、
各々の前記撮影画像よりも広範囲で撮像された被検眼画像を前記表示画面に表示させる広域画像表示ステップと、
前記撮影画像に対して解析処理を行い、前記撮影画像における解析結果を得る解析処理ステップと、
を前記画像処理装置に実行させる画像処理プログラムであって、
前記一覧表示ステップでは、前記広域画像表示ステップによって表示される前記被検眼画像における各々の撮影画像の撮影位置に、各々の撮影画像の縮小画像を、前記被検眼画像の上に重ねて各々配置させ、
前記一覧表示ステップにおいて前記表示画面に表示される前記縮小画像のいずれかが検者によって選択された場合に、選択された前記縮小画像と対応する前記撮影画像である選択撮影画像を前記縮小画像よりも高い表示倍率にて表示させると共に前記選択撮影画像についての前記解析結果を表示させる選択撮影画像表示ステップを、更に、前記画像処理装置に実行させる画像処理プログラム。 By being executed by the processor of the image processing apparatus,
A list display step of displaying a reduced image of a captured image of the subject's eye on a display screen of a display device based on information indicating a photographing position of the subject image with respect to the subject's eye;
A wide-area image display step for displaying on the display screen a test eye image captured in a wider range than each of the captured images;
An analysis process for performing an analysis process on the captured image and obtaining an analysis result in the captured image;
An image processing program for causing the image processing apparatus to execute
In the list display step, a reduced image of each photographed image is placed on the eye image to be superposed at the photographing position of each photographed image in the eye image displayed by the wide-area image display step. ,
When any one of the reduced images displayed on the display screen in the list display step is selected by an examiner, a selected captured image that is the captured image corresponding to the selected reduced image is selected from the reduced image. An image processing program for causing the image processing apparatus to further execute a selected photographed image display step of displaying the analysis result of the selected photographed image while displaying at a high display magnification.
被検眼の撮影画像の縮小画像を、前記撮影画像についての被検眼に対する撮影位置を示す情報に基づいて、表示装置の表示画面に一覧表示させる一覧表示ステップと、
各々の前記撮影画像よりも広範囲で撮像された被検眼画像を前記表示画面に表示させる広域画像表示ステップと、を前記画像処理装置に実行させる画像処理プログラムであって、
前記一覧表示ステップでは、前記広域画像表示ステップによって表示される前記被検眼画像における各々の撮影画像の撮影位置に、各々の撮影画像の縮小画像を、前記被検眼画像の上に重ねて各々配置させ、
更に、前記表示画面に表示される前記縮小画像のいずれかが検者によって選択されることにより、選択された前記縮小画像と対応する前記撮影画像に対して画像処理を行う画像処理ステップを、前記画像処理装置に実行させる画像処理プログラム。 By being executed by the processor of the image processing apparatus,
A list display step of displaying a reduced image of a captured image of the subject's eye on a display screen of a display device based on information indicating a photographing position of the subject image with respect to the subject's eye;
An image processing program for causing the image processing apparatus to execute a wide-area image display step for displaying on the display screen a subject eye image captured in a wider range than each of the captured images,
In the list display step, a reduced image of each photographed image is placed on the eye image to be superposed at the photographing position of each photographed image in the eye image displayed by the wide-area image display step. ,
Furthermore, an image processing step of performing image processing on the captured image corresponding to the selected reduced image by selecting any one of the reduced images displayed on the display screen by the examiner, An image processing program to be executed by an image processing apparatus.
被検眼の撮影画像の縮小画像を、前記撮影画像についての被検眼に対する撮影位置を示す情報に基づいて、表示装置の表示画面に一覧表示させる一覧表示ステップと、
各々の前記撮影画像よりも広範囲で撮像された被検眼画像を前記表示画面に表示させる広域画像表示ステップと、を前記画像処理装置に実行させる画像処理プログラムであって、
前記一覧表示ステップでは、前記広域画像表示ステップによって表示される前記被検眼画像における各々の撮影画像の撮影位置に、各々の撮影画像の縮小画像を、前記被検眼画像の上に重ねて各々配置させ、
更に、前記画像処理が既に行われたか否かを示す表示を、前記表示画面に表示される各々の前記縮小画像に付加する付加情報表示ステップを、前記画像処理装置に実行させる画像処理プログラム。 By being executed by the processor of the image processing apparatus,
A list display step of displaying a reduced image of a captured image of the subject's eye on a display screen of a display device based on information indicating a photographing position of the subject image with respect to the subject's eye;
An image processing program for causing the image processing apparatus to execute a wide-area image display step for displaying on the display screen a subject eye image captured in a wider range than each of the captured images,
In the list display step, a reduced image of each photographed image is placed on the eye image to be superposed at the photographing position of each photographed image in the eye image displayed by the wide-area image display step. ,
An image processing program for causing the image processing apparatus to execute an additional information display step of adding a display indicating whether or not the image processing has already been performed to each of the reduced images displayed on the display screen.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013135626A JP6187751B2 (en) | 2013-06-27 | 2013-06-27 | Image processing program |
US14/316,108 US20150002812A1 (en) | 2013-06-27 | 2014-06-26 | Image processing apparatus and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013135626A JP6187751B2 (en) | 2013-06-27 | 2013-06-27 | Image processing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015008839A JP2015008839A (en) | 2015-01-19 |
JP2015008839A5 JP2015008839A5 (en) | 2016-08-12 |
JP6187751B2 true JP6187751B2 (en) | 2017-08-30 |
Family
ID=52302604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013135626A Expired - Fee Related JP6187751B2 (en) | 2013-06-27 | 2013-06-27 | Image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6187751B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6572560B2 (en) * | 2015-03-02 | 2019-09-11 | 株式会社ニデック | Fundus imaging device with wavefront compensation |
JP6652284B2 (en) * | 2015-07-08 | 2020-02-19 | キヤノン株式会社 | Image generation apparatus and image generation method |
DE102017124545B3 (en) * | 2017-10-20 | 2019-01-24 | Carl Zeiss Meditec Ag | microscope |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4481601B2 (en) * | 2003-08-13 | 2010-06-16 | キヤノン株式会社 | Ophthalmic imaging device |
JP5666109B2 (en) * | 2009-08-06 | 2015-02-12 | 株式会社ニデック | Ophthalmic imaging equipment |
JP5845608B2 (en) * | 2011-03-31 | 2016-01-20 | 株式会社ニデック | Ophthalmic imaging equipment |
JP5862142B2 (en) * | 2011-09-14 | 2016-02-16 | 株式会社ニデック | Corneal endothelial cell imaging device |
-
2013
- 2013-06-27 JP JP2013135626A patent/JP6187751B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015008839A (en) | 2015-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103429142B (en) | Use the system and method followed the tracks of and effectively obtain human eye and measure | |
US9613419B2 (en) | Image generating device and image generating method | |
RU2595528C2 (en) | Information processing device, information processing method and computer-readable data medium | |
JP5563087B2 (en) | Visual field inspection system | |
JP6115007B2 (en) | Ophthalmic image processing apparatus and program | |
US20150002812A1 (en) | Image processing apparatus and storage medium | |
US9307903B2 (en) | Image processing apparatus and image processing method | |
JP6202924B2 (en) | Imaging apparatus and imaging method | |
US10176614B2 (en) | Image processing device, image processing method, and program | |
JP6241091B2 (en) | Image processing apparatus and image processing program | |
US9161686B2 (en) | Image processing apparatus and image processing method | |
JP6207225B2 (en) | Image processing apparatus and image processing method | |
US9901249B2 (en) | Tomographic image processing apparatus, tomographic image processing method and program | |
US20140268048A1 (en) | Image processing device, image processing system, image processing method, and program | |
JP6128841B2 (en) | Image processing device | |
US9295382B2 (en) | Ophthalmic apparatus, control method of ophthalmic apparatus and storage medium | |
JP6187751B2 (en) | Image processing program | |
US9301681B2 (en) | Ophthalmic apparatus, and treatment site measuring method for the apparatus | |
JP6652284B2 (en) | Image generation apparatus and image generation method | |
JP6319615B2 (en) | Image processing program | |
JP2020124569A (en) | Image processing apparatus, image processing method and program | |
JP2017086182A (en) | Oct data processing device, and oct data processing program | |
JP6419249B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6410498B2 (en) | Ophthalmic apparatus and control method thereof | |
JP2017086183A (en) | Oct data processing device, and oct data processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6187751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |