JP2020141763A - Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus - Google Patents

Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus Download PDF

Info

Publication number
JP2020141763A
JP2020141763A JP2019038977A JP2019038977A JP2020141763A JP 2020141763 A JP2020141763 A JP 2020141763A JP 2019038977 A JP2019038977 A JP 2019038977A JP 2019038977 A JP2019038977 A JP 2019038977A JP 2020141763 A JP2020141763 A JP 2020141763A
Authority
JP
Japan
Prior art keywords
image
ophthalmic
fundus
image processing
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019038977A
Other languages
Japanese (ja)
Inventor
涼介 柴
Ryosuke Shiba
涼介 柴
佳紀 熊谷
Yoshinori Kumagai
佳紀 熊谷
直樹 竹野
Naoki Takeno
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2019038977A priority Critical patent/JP2020141763A/en
Publication of JP2020141763A publication Critical patent/JP2020141763A/en
Pending legal-status Critical Current

Links

Abstract

To provide an ocular fundus imaging apparatus 1 for describing morphological features present in each depth position in a color image of an eye to be examined.SOLUTION: An ocular fundus imaging apparatus 1 acquires a plurality of ocular fundus images taken by imaging optical systems 10 and 20 at mutually different focus positions for an imaging range on the ocular fundus, which are captured for each of a plurality of channels indicating mutually different wavelength components. An image processor 80 of the ocular fundus imaging apparatus 1 executes composite processing for compositing the plurality of ocular fundus images with mutually different focus positions and acquiring a monochrome composite image for each channel, and generates a multi-color ocular fundus image based on the monochrome composite images of a plurality of the channels.SELECTED DRAWING: Figure 2

Description

本開示は、被検眼の画像を処理する眼科用画像処理プログラム、眼科用画像処理方法、および、眼科撮影装置に関する。 The present disclosure relates to an ophthalmic image processing program for processing an image of an eye to be inspected, an ophthalmic image processing method, and an ophthalmic imaging apparatus.

従来、被検眼のカラー画像が、眼科の診断等において広く利用されている。例えば、眼科画像の1つである眼底画像を撮影する装置としては、眼底カメラ、および、SLO装置等が知られている。 Conventionally, a color image of an eye to be inspected has been widely used in ophthalmic diagnosis and the like. For example, a fundus camera, an SLO device, and the like are known as devices for capturing a fundus image, which is one of ophthalmic images.

例えば、特許文献1には、赤、青、緑の3色のレーザー光を同時に、または、選択的に、照明光として光源から出射し、各色の光の眼底反射光に基づいてマルチカラーの眼底画像を生成する、SLO装置が開示されている。 For example, Patent Document 1 states that laser light of three colors of red, blue, and green is simultaneously or selectively emitted from a light source as illumination light, and a multicolored fundus is based on the reflected light of the fundus of each color. An SLO device that produces an image is disclosed.

特開2016−059539号公報Japanese Unexamined Patent Publication No. 2016-059539

例えば、眼底のような、被検眼の組織における光の深達度は、波長毎に異なる。このため、被検眼における最適なフォーカス位置は、照明光の波長成分毎に異なるものと考えられる。しかし、この点は、従来の装置では何ら考慮されていなかった。 For example, the depth of light penetration in the tissue of the eye to be inspected, such as the fundus, varies from wavelength to wavelength. Therefore, it is considered that the optimum focus position in the eye to be inspected differs depending on the wavelength component of the illumination light. However, this point has not been taken into consideration in the conventional device.

このため、従来の装置によって撮影されるカラー画像では、例えば、各々の深さ位置に存在する形態的な特徴が、必ずしも十分に描写されていなかった。 For this reason, in a color image taken by a conventional device, for example, morphological features existing at each depth position are not always sufficiently described.

本開示は、従来技術の問題点の少なくともいずれかに鑑みてなされたものであり、被検眼のカラー画像において、各々の深さ位置に存在する形態的な特徴を良好に描写すること、を技術課題とする。 The present disclosure has been made in view of at least one of the problems of the prior art, and is a technique of satisfactorily describing the morphological features existing at each depth position in the color image of the eye to be inspected. Make it an issue.

本開示の第1態様に係る眼科用画像処理プログラムは、コンピュータのプロセッサに実行されることによって、被検眼における1つの撮影範囲に対して互いに異なるフォーカス位置で撮影された複数の眼科画像であって 、互いに異なる波長成分 を 示す複数のチャンネル毎に撮影された複数の眼科画像を、取得する取得ステップと、フォーカス位置が互いに異なる複数の前記眼科画像を合成して単色合成画像を得る合成処理を、チャンネル毎に実行する単色合成ステップと、複数のチャンネルの前記単色合成画像に基づいて、マルチカラーの眼科画像であるカラー合成画像を生成するカラー合成ステップと、を前記コンピュータに実行させる。 The ophthalmic image processing program according to the first aspect of the present disclosure is a plurality of ophthalmic images captured at different focus positions with respect to one imaging range in the eye to be examined by being executed by a computer processor. , An acquisition step of acquiring a plurality of ophthalmic images taken for each of a plurality of channels showing different wavelength components, and a compositing process of synthesizing a plurality of the ophthalmic images having different focus positions to obtain a monochromatic composite image. The computer is made to execute a monochromatic composite step executed for each channel and a color composite step for generating a color composite image which is a multicolor ophthalmic image based on the monochromatic composite image of a plurality of channels.

本開示の第2態様に係る眼科用画像処理方法は、 被検眼における1つの撮影範囲に対して互いに異なるフォーカス位置で撮影された複数の眼科画像であって、互いに異なる波長成分を示す複数のチャンネル毎に撮影された複数の眼科画像を、取得する取得ステップと、フォーカス位置が互いに異なる複数の前記眼科画像を合成して単色合成画像を得る合成処理を、チャンネル毎に実行する単色合成ステップと、複数のチャンネルの前記単色合成画像に基づいて、マルチカラーの眼科画像であるカラー合成画像を生成するカラー合成ステップと、を含む。 The ophthalmic image processing method according to the second aspect of the present disclosure is a plurality of ophthalmic images taken at different focus positions with respect to one imaging range in the eye to be examined, and a plurality of channels showing different wavelength components. An acquisition step of acquiring a plurality of ophthalmic images taken for each channel, and a monochromatic compositing step of performing a compositing process of compositing a plurality of the ophthalmic images having different focus positions to obtain a monochromatic composite image for each channel. It includes a color composition step of generating a color composition image which is a multicolor ophthalmic image based on the monochromatic composition image of a plurality of channels.

本開示の第3態様に係る眼科撮影装置は、複数の波長の照明光を被検眼へ照射することによって眼科画像を撮影する撮影光学系と、被検眼における1つの撮影範囲に対して互いに異なるフォーカス位置で撮影される複数の眼科画像であって、互いに異なる波長成分を示す複数のチャンネル毎に撮影される複数の眼科画像を、撮影によって取得する制御手段と、画像処理手段と、を有し、前記画像処理手段は、フォーカス位置が互いに異なる複数の前記眼科画像を合成して単色合成画像を得る合成処理を、チャンネル毎に実行し、更に、複数のチャンネルの前記単色合成画像に基づいて、マルチカラーの眼科画像であるカラー合成画像を生成する。 The ophthalmologic imaging apparatus according to the third aspect of the present disclosure includes an imaging optical system that captures an ophthalmic image by irradiating an eye to be inspected with illumination light of a plurality of wavelengths, and a focus that is different from each other for one imaging range in the eye to be inspected. It has a control means and an image processing means for acquiring a plurality of ophthalmic images taken at a position for each of a plurality of channels showing different wavelength components by the shooting. The image processing means executes a compositing process for each channel to obtain a monochromatic composite image by synthesizing a plurality of ophthalmic images having different focus positions, and further, based on the monochromatic composite images of the plurality of channels, multi Generates a color composite image that is a color ophthalmic image.

本開示によれば、被検眼のカラー画像において、各々の深さ位置に存在する形態的な特徴を良好に描写できる。 According to the present disclosure, in a color image of an eye to be inspected, morphological features existing at each depth position can be well described.

実施形態に係る眼底撮影装置の概略構成を示す図である。It is a figure which shows the schematic structure of the fundus photography apparatus which concerns on embodiment. 第1実施例における画像処理方法の手順を示した図である。It is a figure which showed the procedure of the image processing method in 1st Example. 第2実施例における画像処理方法の手順を示した図である。It is a figure which showed the procedure of the image processing method in 2nd Example. 第3実施例の画像処理方法によって得られるカラー合成画像を例示した図である。It is a figure which illustrated the color composite image obtained by the image processing method of 3rd Example.

以下、図面を参照しつつ、本開示にかかる実施形態を説明する。便宜上、以下では、特に断りが無い限り、実施形態に係る「眼科用画像処理プログラム」の処理内容、および、「眼科用画像処理方法」は、「眼底撮影装置」によって実行されるものとして説明する。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings. For convenience, the processing contents of the "ophthalmic image processing program" and the "ophthalmic image processing method" according to the embodiment will be described below as being executed by the "fundus photography device" unless otherwise specified. ..

眼底撮影装置は、「眼科撮影装置」の一例である。眼底撮影装置は、被検眼の画像(眼科画像)として、眼底の正面画像(以下、眼底画像と称する)を撮影する。但し、
「眼科撮影装置」は、必ずしも眼底を撮影するものに限定されるものではなく、被検眼の前眼部等、他の部位を撮影してもよい。
The fundus photography device is an example of an "ophthalmologic photography device". The fundus photography apparatus captures a frontal image of the fundus (hereinafter referred to as a fundus image) as an image of the eye to be inspected (ophthalmic image). However,
The "ophthalmologic imaging device" is not necessarily limited to imaging the fundus of the eye, and may image other parts such as the anterior segment of the eye to be inspected.

<全体構成>
実施形態に係る眼底撮影装置1(以下、「本装置1」と省略する)は、撮影光学系10,20と、画像処理器(画像処理プロセッサ)80と、を少なくとも備える。画像処理器80を有することによって、本装置1は、各種画像処理を実行するコンピュータとなる。画像処理器80は、装置全体の動作を司るプロセッサによって兼用されてもよい。画像処理器80は、装置全体の動作を司るプロセッサとは別体であってもよい。画像処理器80のプロセッサからアクセス可能なメモリには、眼科用画像処理プログラムが格納されていてもよい。
<Overall configuration>
The fundus photography device 1 (hereinafter abbreviated as “the device 1”) according to the embodiment includes at least the photographing optical systems 10 and 20 and the image processor (image processor) 80. By having the image processor 80, the present device 1 becomes a computer that executes various image processes. The image processor 80 may also be used by a processor that controls the operation of the entire device. The image processor 80 may be separate from the processor that controls the operation of the entire device. An ophthalmic image processing program may be stored in the memory accessible from the processor of the image processor 80.

本装置1は、例えば、図1に示すように、光学ユニット1aと、制御ユニット1bと、に大別されており、撮影光学系10,20は光学ユニット1aに、画像処理器80は制御ユニット1bに、それぞれ格納されていてもよい。制御ユニット1bには、プロセッサ(CPU)71の他、各種メモリ72を有している。眼科用画像処理プログラムは、メモリ72に格納されていてもよい。また、制御ユニット1bには、操作部75(ユーザインターフェース)が接続されていてもよい。操作部75は、マウスおよびタッチパネル等のポインティングデバイスであってもよいし、その他のユーザインターフェースであってもよい。制御ユニット1bとして、例えば、PCが利用されてもよい。 As shown in FIG. 1, the apparatus 1 is roughly divided into an optical unit 1a and a control unit 1b. The photographing optical systems 10 and 20 are the optical unit 1a, and the image processor 80 is the control unit. Each may be stored in 1b. The control unit 1b has various memories 72 in addition to the processor (CPU) 71. The ophthalmic image processing program may be stored in the memory 72. Further, the operation unit 75 (user interface) may be connected to the control unit 1b. The operation unit 75 may be a pointing device such as a mouse and a touch panel, or may be another user interface. For example, a PC may be used as the control unit 1b.

また、本装置1は、モニタ90を有していてもよい。モニタ90には、例えば、撮影された眼底画像が表示される。その他に、モニタ90には、各種GUIが表示されてもよい。 Further, the present device 1 may have a monitor 90. For example, a captured fundus image is displayed on the monitor 90. In addition, various GUIs may be displayed on the monitor 90.

<撮影光学系>
撮影光学系10,20は、眼底画像を撮影する。本実施形態において眼底画像は、眼底の正面画像である。撮影光学系10,20は、照射光学系10と、受光光学系20と、を含む(図1参照)。
<Shooting optical system>
The photographing optical systems 10 and 20 capture a fundus image. In the present embodiment, the fundus image is a frontal image of the fundus. The photographing optical systems 10 and 20 include an irradiation optical system 10 and a light receiving optical system 20 (see FIG. 1).

撮影光学系10,20は、走査型の光学系であってもよい。また、例えば、撮影光学系10,20は、共焦点光学系であってもよい。図1は、一例として、走査型の共焦点光学系による撮影光学系10,20の概略構成を示している。この場合、照射光学系10は、光スキャナ17を有し、眼底上でポイント状またはライン状に照明光を集光させると共に、光スキャナ17によって、照明光を眼底上で走査させる。受光光学系20は、少なくとも受光素子25を有する。また、受光光学系20には、図示なき有害光除去部(例えば、ピンホールおよびスリットアパーチャ等)が、眼底共役位置に設けられる。有害光除去部は、照明光が照射された領域からの眼底反射光を受光素子25へ導き、それ以外を除去する。そして、受光素子25による逐次受光の結果として、眼底の正面画像が取得される。なお、ラインスキャン方式では、受光素子25が有害光除去部を兼用する場合がある。この場合、受光素子25として利用されるラインセンサが、眼底共役位置に配置される。 The photographing optical systems 10 and 20 may be scanning optical systems. Further, for example, the photographing optical systems 10 and 20 may be cofocal optical systems. As an example, FIG. 1 shows a schematic configuration of photographing optical systems 10 and 20 using a scanning confocal optical system. In this case, the irradiation optical system 10 has an optical scanner 17 that collects the illumination light in a point shape or a line shape on the fundus, and scans the illumination light on the fundus by the optical scanner 17. The light receiving optical system 20 has at least a light receiving element 25. Further, the light receiving optical system 20 is provided with a harmful light removing portion (for example, a pinhole, a slit aperture, etc.) (not shown) at a fundus conjugate position. The harmful light removing unit guides the fundus reflected light from the area irradiated with the illumination light to the light receiving element 25, and removes the other parts. Then, as a result of successive light reception by the light receiving element 25, a front image of the fundus is acquired. In the line scan method, the light receiving element 25 may also serve as a harmful light removing unit. In this case, the line sensor used as the light receiving element 25 is arranged at the fundus conjugate position.

また、必ずしもこれに限られるものではなく、本装置1の撮影光学系は、非共焦点方式であってもよい。非共焦点方式の撮影光学系の一例としては、一般的な眼底カメラの光学系等が挙げられる。 Further, the imaging optical system of the present device 1 is not necessarily limited to this, and may be a non-confocal system. An example of a non-confocal imaging optical system is an optical system of a general fundus camera.

照射光学系10は、光源11からの照明光を眼底へ照射する。照射光は、複数の原色成分と対応する波長域を持つ。照明光は、可視光であってもよい。照明光は、例えば、波長が互いに異なる複数の単色光であってもよい。なお、「単色光」には、スペクトル分解できない光という狭義の意味があるが、本開示では必ずしもこれに限定されない。本開示における「単色光」は、眼底撮影装置の技術分野において、特定の一色と扱われる程度の波長分布の幅を有していてもよい。また、必ずしもこれに限られるものでは無く、照明光は、白色光であってもよい。 The irradiation optical system 10 irradiates the fundus with illumination light from the light source 11. The irradiation light has a wavelength range corresponding to a plurality of primary color components. The illumination light may be visible light. The illumination light may be, for example, a plurality of monochromatic lights having different wavelengths from each other. Note that "monochromatic light" has a narrow meaning of light that cannot be decomposed into spectra, but is not necessarily limited to this in the present disclosure. The "monochromatic light" in the present disclosure may have a wavelength distribution width that can be treated as a specific one color in the technical field of the fundus photography apparatus. Further, the illumination light is not necessarily limited to this, and the illumination light may be white light.

図1に一例として示した照射光学系10は、ビームスプリッター12、レンズ13a、光スキャナ17、および、対物レンズ19を有している。 The irradiation optical system 10 shown as an example in FIG. 1 includes a beam splitter 12, a lens 13a, an optical scanner 17, and an objective lens 19.

ビームスプリッター12は、照射光学系10と受光光学系20との光路を結合および分離する。ビームスプリッター12は、例えば、穴あきミラーであってもよいし、ハーフミラーであってもよいし、その他の部材であってもよい。 The beam splitter 12 combines and separates the optical paths of the irradiation optical system 10 and the light receiving optical system 20. The beam splitter 12 may be, for example, a perforated mirror, a half mirror, or another member.

本装置1は、フォーカス調整部13として、レンズ13aおよび駆動部13b を 有する。フォーカス調整部13は、眼底におけるフォーカス位置を、深さ方向に関して変更するために利用される。また、一例として、本装置1のフォーカス調整部13は、視度補正部を兼用しており、被検眼の視度を補正する。図1に示す撮影光学系10,20においては、駆動部13bの駆動に基づいて、レンズ13aが光軸に沿って変位される。レンズ13aの位置に応じて、フォーカス位置が被検眼の深さ方向(Z方向)に関して変更される。本実施形態において、レンズ13aの位置は、プロセッサ71によって制御される。 The apparatus 1 has a lens 13a and a driving unit 13b as the focus adjusting unit 13. The focus adjusting unit 13 is used to change the focus position on the fundus in the depth direction. Further, as an example, the focus adjusting unit 13 of the present device 1 also serves as a diopter correction unit, and corrects the diopter of the eye to be inspected. In the photographing optical systems 10 and 20 shown in FIG. 1, the lens 13a is displaced along the optical axis based on the drive of the drive unit 13b. The focus position is changed with respect to the depth direction (Z direction) of the eye to be inspected according to the position of the lens 13a. In this embodiment, the position of the lens 13a is controlled by the processor 71.

なお、フォーカス調整部13は、移動するレンズ13aを備えたものに限定されない。例えば、フォーカス調整部13は、液晶レンズ等の可変焦点レンズを有してもよいし、光路長を変更可能な光学系を備えていてもよい。いずれの場合においても、フォーカス調整部13には、撮影光学系10,20の光路中に配置され得る光学素子と、該光学素子を駆動する駆動部(アクチュエータ)が含まれる。 The focus adjusting unit 13 is not limited to the one provided with the moving lens 13a. For example, the focus adjusting unit 13 may have a variable focus lens such as a liquid crystal lens, or may include an optical system capable of changing the optical path length. In any case, the focus adjusting unit 13 includes an optical element that can be arranged in the optical path of the photographing optical systems 10 and 20, and a driving unit (actuator) that drives the optical element.

光スキャナ17は、光源11から発せられた照明光を、眼底上で走査するために利用される。眼底上にスポット状の光束が投影される場合、光スキャナ17は、互いに異なる2方向に光を走査する。このとき、光スキャナ17は、主走査用の第1の光スキャナと副走査用の第2の光スキャナとを含んでいてもよい。また、光スキャナ17は、2自由度のデバイス(例えば、MEMS等)であってもよい。眼底上にライン状の光束が投影される場合、光スキャナ17は、少なくとも、ライン状の光束の断面長手方向と交差する方向へ走査する。各々の場合において、光スキャナは、ガルバノミラー、ポリゴンミラー、レゾナントスキャナ、MEMS、および、音響光学素子(AOM)等のうちいずれかが適宜選択されてもよい。 The optical scanner 17 is used to scan the illumination light emitted from the light source 11 on the fundus. When a spot-shaped luminous flux is projected onto the fundus, the optical scanner 17 scans the light in two different directions. At this time, the optical scanner 17 may include a first optical scanner for main scanning and a second optical scanner for sub-scanning. Further, the optical scanner 17 may be a device having two degrees of freedom (for example, MEMS or the like). When a line-shaped light beam is projected onto the fundus, the optical scanner 17 scans at least in a direction intersecting the longitudinal direction of the cross section of the line-shaped light beam. In each case, as the optical scanner, any one of a galvano mirror, a polygon mirror, a resonant scanner, a MEMS, an acoustic optical element (AOM), and the like may be appropriately selected.

対物レンズ19は、本装置1の対物光学系である。対物レンズ19は、光スキャナ17によって走査されるレーザー光を、眼底Erに導くために利用される。対物レンズ19は、射出瞳の位置に、旋回点Pを形成する。旋回点Pでは、光スキャナ17を経た照明光が旋回される。 The objective lens 19 is an objective optical system of the present device 1. The objective lens 19 is used to guide the laser beam scanned by the optical scanner 17 to the fundus Er. The objective lens 19 forms a turning point P at the position of the exit pupil. At the turning point P, the illumination light that has passed through the optical scanner 17 is swirled.

なお、本開示において「共役」とは、必ずしも完全な共役関係に限定されるものではなく、「略共役」を含むものとする。即ち、眼底画像の利用目的(例えば、観察、解析等)との関係で許容される範囲で、完全な共役位置からズレて配置される場合も、本開示における「共役」に含まれる。 In the present disclosure, "conjugation" is not necessarily limited to a perfect conjugation relationship, but includes "substantially conjugation". That is, the case where the fundus image is arranged so as to be deviated from the perfect conjugate position within a range permitted in relation to the purpose of use (for example, observation, analysis, etc.) is also included in the "conjugation" in the present disclosure.

光スキャナ17を経たレーザー光は、対物レンズ19を通過することによって、旋回点Pを経て、眼底Erに照射される。照明光が旋回点Pを中心に旋回されることで、眼底Er上で照明光が走査される。眼底Erに照射された照明光は、集光位置(例えば、網膜表面)にて反射される。照明光の眼底反射光は、平行光として瞳孔から出射する。 The laser light that has passed through the optical scanner 17 passes through the objective lens 19 and is irradiated to the fundus Er through the turning point P. By turning the illumination light around the turning point P, the illumination light is scanned on the fundus Er. The illumination light applied to the fundus Er is reflected at the condensing position (for example, the surface of the retina). The fundus reflected light of the illumination light is emitted from the pupil as parallel light.

次に、受光光学系20について説明する。受光光学系20は、1つ又は複数の受光素子を持つ。例えば、図1に示す受光光学系20は、一例として受光素子25を有する。図1において、照明光の眼底反射光は、投光時の光路を遡り(対物レンズ19〜レンズ13aを経て)ビームスプリッター12によって反射されることによって、受光素子25へ導かれる。受光素子25からの信号は画像処理器80へ入力され、その結果として、眼底画像が、画像処理器80によって生成される。受光光学系20において、受光素子25は、波長毎に複数設けられていてもよい。この場合、波長が異なる複数の眼底反射光が複数の受光素子25によって同時に受光されてもよい。また、波長が異なる複数の眼底反射光が時分割で(換言すれば、互いに異なるタイミングで)1つの受光素子25に受光されてもよい。受光素子25としては、点受光素子、一次元撮像素子(ラインセンサ)、二次元撮像素子等のいずれかが用いられてもよい。いずれが採用されるかは、撮影方式に応じて適宜選択される。 Next, the light receiving optical system 20 will be described. The light receiving optical system 20 has one or more light receiving elements. For example, the light receiving optical system 20 shown in FIG. 1 has a light receiving element 25 as an example. In FIG. 1, the fundus reflection light of the illumination light is guided to the light receiving element 25 by being reflected by the beam splitter 12 (via the objective lens 19 to the lens 13a) in the optical path at the time of projection. The signal from the light receiving element 25 is input to the image processor 80, and as a result, a fundus image is generated by the image processor 80. In the light receiving optical system 20, a plurality of light receiving elements 25 may be provided for each wavelength. In this case, a plurality of fundus reflected lights having different wavelengths may be simultaneously received by the plurality of light receiving elements 25. Further, a plurality of fundus reflected lights having different wavelengths may be received by one light receiving element 25 in a time division manner (in other words, at different timings). As the light receiving element 25, any one of a point light receiving element, a one-dimensional image sensor (line sensor), a two-dimensional image sensor, and the like may be used. Which one is adopted is appropriately selected according to the shooting method.

本実施形態では、以上のような撮影光学系10,20によって、マルチカラーの眼底画像(以下、「MC眼底画像」と省略する)が撮影可能である。MC眼底画像は、各画素が複数の色情報を有する。MC眼底画像を撮影する際、チャンネル毎(波長成分毎)の眼底画像が、受光素子25からの信号に基づいて取得および生成されてもよい。また、MC眼底画像は、複数のチャンネルの眼底画像に基づいて生成および取得されてもよい。本実施形態において、各種の眼底画像は、画像処理器80によって生成される。 In the present embodiment, a multicolor fundus image (hereinafter, abbreviated as “MC fundus image”) can be photographed by the photographing optical systems 10 and 20 as described above. In the MC fundus image, each pixel has a plurality of color information. When taking the MC fundus image, the fundus image for each channel (for each wavelength component) may be acquired and generated based on the signal from the light receiving element 25. In addition, the MC fundus image may be generated and acquired based on the fundus images of a plurality of channels. In this embodiment, various fundus images are generated by the image processor 80.

MC眼底画像を撮影する際に、本実施形態では、撮影光学系10,20によって、R(赤),G(緑),B(青)の3色の単色光からなる照明光が投受光される。波長毎に網膜における光の深達度は異なっている。3色の光のうち、B(青) の光 は網膜表層 まで到達する。R(赤)の光は網膜深層まで到達する。 G(緑)の光は、B(青) の光とR(赤)の光との中間的な深さまで到達する。このため、R(赤),G(緑),B(青)の3色の照明光によって、深さの異なる層を良好に撮影できる。このとき、追加的に、または、R(赤)の光と代替的に、IR(赤外)の光が、眼底へ照射されてもよい。本実施形態では、MC眼底画像を撮影する際に3色ないし4色の光が眼底へ照射されるが、必ずしもこれに限られるものでは無い。例えば、眼底へ照射される光は2色であってもよいし、5色以上であってもよい。また、上記の色の組み合わせは一例に過ぎず、他の色の組み合わせによって、MC眼底画像が撮影されてもよい。 When capturing an MC fundus image, in the present embodiment, illumination light consisting of three monochromatic lights of R (red), G (green), and B (blue) is emitted and received by the photographing optical systems 10 and 20. To. The depth of light penetration in the retina is different for each wavelength. Of the three colors of light, B (blue) light reaches the surface of the retina. R (red) light reaches deep into the retina. The G (green) light reaches an intermediate depth between the B (blue) light and the R (red) light. Therefore, it is possible to satisfactorily photograph layers having different depths by illuminating three colors of R (red), G (green), and B (blue). At this time, IR (infrared) light may be additionally irradiated to the fundus of the eye, either additionally or in place of R (red) light. In the present embodiment, when the MC fundus image is taken, light of three or four colors is irradiated to the fundus, but the present invention is not necessarily limited to this. For example, the light applied to the fundus may be two colors or five or more colors. Further, the above color combination is only an example, and an MC fundus image may be taken by another color combination.

また、撮影光学系10,20によって、眼底画像の一種であるモノクロ眼底画像が撮影されてもよい。モノクロ眼底画像は、例えば、R(赤),G(緑),B(青)のうちいずれか1色に基づく眼底画像であってもよい。また、モノクロ眼底画像IR(赤外)の光に基づく観察画像であってもよい。 Further, a monochrome fundus image, which is a kind of fundus image, may be captured by the photographing optical systems 10 and 20. The monochrome fundus image may be, for example, a fundus image based on any one of R (red), G (green), and B (blue). Further, it may be an observation image based on the monochrome fundus image IR (infrared) light.

ところで、波長毎に網膜における光の深達度は異なっている。光学系的な被写界深度と解像力とはトレードオフの関係にあるので、チャンネル毎(波長成分毎)に最適なフォーカス位置が異なる場合があり得る。よって、この場合、例えば、1つのフォーカス位置で撮影されたMC眼底画像によって、各々の深さ位置(眼底の各層)に存在する形態的な特徴を、まとめて示すことが困難となる。更に、近年、眼底撮影装置の技術分野では、より広い画角で眼底を撮影する装置が注目されている。眼底は湾曲しているので、撮影範囲の画角が大きくなるほど、撮影範囲の全体にフォーカスを合わせることが困難となる。 By the way, the depth of light penetration in the retina is different for each wavelength. Since there is a trade-off relationship between the optical depth of field and the resolving power, the optimum focus position may differ for each channel (for each wavelength component). Therefore, in this case, for example, it is difficult to collectively show the morphological features existing at each depth position (each layer of the fundus) by the MC fundus image taken at one focus position. Further, in recent years, in the technical field of the fundus photography device, a device for photographing the fundus with a wider angle of view has attracted attention. Since the fundus is curved, it becomes more difficult to focus on the entire shooting range as the angle of view of the shooting range increases.

これに対し、本装置1は、画像処理器80によって、パンフォーカスな(被写界深度の大きな)MC眼底画像を生成する。<取得ステップ>、<単色合成ステップ>、および、<カラー合成ステップ>、の少なくとも3つのステップを経ることによって、MC眼底画像が生成される。以下、図2〜図4を参照しつつ、詳細を説明する。 On the other hand, the present device 1 generates a pan-focused (large depth of field) MC fundus image by the image processor 80. An MC fundus image is generated by going through at least three steps of <acquisition step>, <monochromatic composition step>, and <color composition step>. Hereinafter, details will be described with reference to FIGS. 2 to 4.

「第1実施例」
まず、図2に示した第1実施例に基づいて、実施形態に係るMC眼底画像の生成方法を説明する。
"First Example"
First, a method of generating an MC fundus image according to the embodiment will be described based on the first embodiment shown in FIG.

<取得ステップ>
図2に示すように、取得ステップにおいて、本装置1は、1つの撮影範囲に対して互いに異なるフォーカス位置で撮影された複数の眼底画像を、互いに異なる原色成分を示す複数のチャンネルのそれぞれについて取得する。
<Acquisition step>
As shown in FIG. 2, in the acquisition step, the apparatus 1 acquires a plurality of fundus images captured at different focus positions for one imaging range for each of the plurality of channels showing different primary color components. To do.

第1実施例では、R(赤),G(緑),B(青)の3つのチャンネルのそれぞれにおいて、互いに異なるフォーカス位置で撮影された複数の眼底画像が取得される。 In the first embodiment, a plurality of fundus images taken at different focus positions are acquired in each of the three channels R (red), G (green), and B (blue).

ここでいう「取得」は、眼底画像が、画像処理器80によって処理可能な状態に置かれることを指す。例えば、画像処理器80によってアクセス可能な所定のメモリ領域へ、眼底画像が記憶されることによって、眼底画像が取得される。 The term "acquisition" as used herein means that the fundus image is placed in a state in which it can be processed by the image processor 80. For example, the fundus image is acquired by storing the fundus image in a predetermined memory area accessible by the image processor 80.

互いに異なるフォーカス位置で撮影された複数の眼底画像は、例えば、本装置1においては、次のようにして撮影される。 A plurality of fundus images taken at different focus positions are taken, for example, in the present device 1 as follows.

すなわち、フォーカス調整部13の駆動制御によってフォーカス位置が変更(移動)されつつ、フォーカス位置毎に、それぞれのチャンネルの眼底画像が撮影される。例えば、フォーカス位置が所定ディオプター分ずつ変更される度に、眼底画像が撮影されてもよい。このときのフォーカス位置の移動範囲は、各々のチャンネルにおける最適なフォーカス位置が含まれるように設定されていることが望ましい。 That is, while the focus position is changed (moved) by the drive control of the focus adjusting unit 13, the fundus image of each channel is captured for each focus position. For example, a fundus image may be taken each time the focus position is changed by a predetermined diopter. It is desirable that the movement range of the focus position at this time is set so as to include the optimum focus position in each channel.

例えば、複数の眼底画像を撮影するときのフォーカス位置の移動範囲は、視度補正が行われた直後のフォーカス位置を基準に設定されてもよい。IR(赤外)の光による観察画像のコントラスト情報に基づいて、観察画像の全部または一部の領域におけるコントラストが最も高くなる位置へフォーカス位置を調整することによって、被検眼の視度が補正される場合がある。IR(赤外)の光は、R(赤),G(緑),B(青)の各色の光よりも深くまで深達する。IR(赤外)の光による眼底画像における最適なフォーカス位置は、R(赤),G(緑),B(青)の3つのチャンネルにおける最適なフォーカス位置よりも深層側となる。そこで、視度補正後のフォーカス位置を基準とし、基準よりも浅層側の所定範囲(例えば、所定ディオプターの範囲)が、R(赤),G(緑),B(青)の各チャンネルの眼底画像を撮影する際の、フォーカス位置の移動範囲として、設定されてもよい。もちろん、基準は、装置毎の視度補正直後のフォーカス位置に応じて適宜定めることができ、必ずしも上記の位置に限定されない。また、必ずしも観察画像に基づいて視度補正が行われる必要は無い。例えば、本装置1が光干渉断層計(OCT)を更に備える場合、OCTにおける視度補正後のフォーカス位置が、上記の基準として設定されてもよい。 For example, the moving range of the focus position when a plurality of fundus images are taken may be set based on the focus position immediately after the diopter correction is performed. The diopter of the eye to be inspected is corrected by adjusting the focus position to the position where the contrast is highest in all or a part of the observed image based on the contrast information of the observed image by IR (infrared) light. May occur. IR (infrared) light reaches deeper than light of each color of R (red), G (green), and B (blue). The optimum focus position in the fundus image by IR (infrared) light is deeper than the optimum focus position in the three channels R (red), G (green), and B (blue). Therefore, with reference to the focus position after diopter correction, the predetermined range (for example, the range of the predetermined diopter) on the shallower layer side than the reference is for each channel of R (red), G (green), and B (blue). It may be set as a movement range of the focus position when taking a fundus image. Of course, the reference can be appropriately determined according to the focus position immediately after the diopter correction for each device, and is not necessarily limited to the above position. Further, it is not always necessary to perform diopter correction based on the observed image. For example, when the present device 1 further includes an optical coherence tomography (OCT), the focus position after diopter correction in the OCT may be set as the above reference.

<単色合成ステップ>
図2に示すように、画像処理器80による合成処理によって、フォーカス位置が互いに異なる複数の眼底画像が合成される。合成処理の結果として得られる眼底画像を、単色合成画像と称する。合成処理はチャンネル毎に行われ、チャンネル毎に単色合成画像が生成される。本実施形態では、合成処理によって、取得ステップで取得される複数の眼底画像と比べて、被写界深度の大きな眼底画像が生成される。このような合成処理は、例えば、加算平均処理であってもよい。 合成処理の結果として、チャンネル毎に、パンフォーカスな眼底画像が得られる。この画像において、チャンネルに応じた(つまり、照明光の波長に応じた)深さ位置の特徴が、良好に描写される。 また、点像分布関数(PSF)を用いてデコンボリューションすることでボケを取り除いても良い。
<Single color composition step>
As shown in FIG. 2, a plurality of fundus images having different focus positions are combined by the compositing process by the image processor 80. The fundus image obtained as a result of the compositing process is called a monochromatic composite image. The compositing process is performed for each channel, and a monochromatic composite image is generated for each channel. In the present embodiment, the composition process generates a fundus image having a larger depth of field than the plurality of fundus images acquired in the acquisition step. Such a synthesis process may be, for example, an addition averaging process. As a result of the compositing process, a pan-focused fundus image is obtained for each channel. In this image, the characteristics of the depth position according to the channel (that is, according to the wavelength of the illumination light) are well described. Further, the blur may be removed by deconvolution using the point spread function (PSF).

第1実施例では、単色合成画像の基となる複数の眼底画像におけるフォーカス位置の範囲(この範囲を、「合成範囲」ともいう)は、それぞれのチャンネルの間で一致している。 例えば、それぞれのチャンネルの単色眼底画像は、撮影時のフォーカス位置の移動範囲において得られたチャンネル毎の全ての眼底画像に基づいて、それぞれ生成されてもよい。 In the first embodiment, the range of the focus position (this range is also referred to as “composite range”) in the plurality of fundus images on which the monochromatic composite image is based is the same among the respective channels. For example, the monochromatic fundus image of each channel may be generated based on all the fundus images of each channel obtained in the moving range of the focus position at the time of shooting.

<補正ステップ>
ここで、フォーカス位置を変更して複数の眼底画像を撮影する間に、被検眼が動いてしまうことが考えられる。これに対し、合成処理に際して、事前に、複数の眼底画像に対して、眼底画像間の位置ずれ、および、歪みのいずれかを補正する補正処理が、画像処理器80によって実行されてもよい。
<Correction step>
Here, it is conceivable that the eye to be inspected moves while the focus position is changed and a plurality of fundus images are taken. On the other hand, in the compositing process, the image processor 80 may execute in advance a correction process for correcting either the positional deviation between the fundus images or the distortion of the plurality of fundus images.

<カラー合成ステップ>
画像処理器80は、チャンネル毎に得られた複数の単色合成画像に基づいて、カラー合成画像を生成する。カラー合成画像は、マルチカラーの眼底画像である。カラー合成画像に含まれる各画素のチャンネル毎の階調値は、各チャンネルの単色合成画像における対応画素の階調値に応じて設定される。
<Color composition step>
The image processor 80 generates a color composite image based on a plurality of monochromatic composite images obtained for each channel. The color composite image is a multicolor fundus image. The gradation value for each channel of each pixel included in the color composite image is set according to the gradation value of the corresponding pixel in the monochromatic composite image of each channel.

各々のチャンネルの単色合成画像において良好に描写された眼底の特徴は、カラー合成画像においても描写される。よって、各々の深さ位置(層)に存在する形態的な特徴が、1枚のカラー合成画像によって、まとめて示される。本実施形態においてカラー合成画像は、R(赤),G(緑),B(青)の3チャンネルの単色合成画像に基づいて生成されるので、網膜浅層から網膜深層までの間の形態的特徴を、検者はカラー合成画像から把握しやすい。 The features of the fundus that are well described in the monochromatic composite image of each channel are also depicted in the color composite image. Therefore, the morphological features existing at each depth position (layer) are collectively shown by one color composite image. In the present embodiment, the color composite image is generated based on the three-channel monochromatic composite image of R (red), G (green), and B (blue), and therefore is morphological between the superficial layer of the retina and the deep layer of the retina. It is easy for the examiner to grasp the features from the color composite image.

また、カラー合成画像では、例えば、対物レンズ19の表面のキズおよびホコリに起因するアーチファクト(例えば、輝点像等)が軽減されやすくなる。対物レンズ19の近くに形成される中間像面(装置の撮像面との共役面)は、フォーカス位置に応じて変位し、対物レンズ19の表面のキズおよびホコリと装置の中間像面とが重なるようなフォーカス位置では、上記のアーチファクトが生じやすくなる。一方、中間像面が対物レンズ19の表面から離れるにつれ、上記のアーチファクトが生じ難くなる。本実施形態では、一部の眼底画像において上記のアーチファクトの影響が含まれていたとしても、単色合成ステップにおける合成処理によって、フォーカス位置がその一部とは異なる他の眼底画像と合成される。よって、単色合成画像、および、単色合成画像から生成されるカラー合成画像においては、アーチファクトの影響が軽減される。 Further, in the color composite image, for example, artifacts (for example, a bright spot image) caused by scratches and dust on the surface of the objective lens 19 can be easily reduced. The intermediate image plane (coupling plane with the imaging surface of the apparatus) formed near the objective lens 19 is displaced according to the focus position, and the scratches and dust on the surface of the objective lens 19 overlap with the intermediate image plane of the apparatus. At such a focus position, the above-mentioned artifacts are likely to occur. On the other hand, as the intermediate image plane moves away from the surface of the objective lens 19, the above artifacts are less likely to occur. In the present embodiment, even if the influence of the above artifact is included in a part of the fundus image, it is combined with another fundus image whose focus position is different from the part by the composition process in the monochromatic composition step. Therefore, the influence of the artifact is reduced in the monochromatic composite image and the color composite image generated from the monochromatic composite image.

「第2実施例」
次に、図3を参照して、実施形態に係る第2実施例について説明する。第2実施例は、第1実施例とは、<単色合成ステップ>の内容が異なる。
"Second Example"
Next, a second embodiment according to the embodiment will be described with reference to FIG. The content of the <monochromatic composition step> is different from that of the first embodiment in the second embodiment.

第2実施例における単色合成ステップでは、合成範囲(合成処理の対象となる眼底画像におけるフォーカス位置の範囲)は、各チャンネルの間で異なっている。例えば、図3に示すように、R(赤),G(緑),B(青)の各チャンネルの間で、合成範囲が互いに異なってもよい。 In the monochromatic composition step in the second embodiment, the composition range (the range of the focus position in the fundus image to be combined) is different between the channels. For example, as shown in FIG. 3, the synthesis range may be different from each other among the R (red), G (green), and B (blue) channels.

このとき、例えば、各チャンネルにおける合成範囲は、チャンネル毎の最適なフォーカス位置を基準に設定されてもよい。図3に示すように、B(青)のチャンネルにおける合成範囲は、より浅層側に設定され、R(赤)のチャンネルにおける合成範囲は、より深層側に設定され、G(緑)のチャンネルにおける合成範囲は、B(青)のチャンネルとR(赤)のチャンネルとの中間的な位置に設定されてもよい。この場合、各チャンネルの単色合成画像に基づくカラー合成画像において、網膜浅層から網膜深層までの間の形態的特徴が、いっそう良好に描写されやすくなる。 At this time, for example, the synthesis range in each channel may be set with reference to the optimum focus position for each channel. As shown in FIG. 3, the synthesis range in the B (blue) channel is set to the shallower layer side, the synthesis range in the R (red) channel is set to the deeper layer side, and the G (green) channel is set. The synthesis range in may be set at an intermediate position between the B (blue) channel and the R (red) channel. In this case, in the color composite image based on the monochromatic composite image of each channel, the morphological features between the superficial layer of the retina and the deep layer of the retina are more easily described.

なお、フォーカス位置が互いに異なる眼底画像のうち、画像の一部又は全部におけるコントラストが最も高い画像を、最適なフォーカス位置で撮影された画像とみなして、これを基準に合成範囲が設定されてもよい。例えば、基準に対してプラスマイナス所定ディオプターの範囲が、合成範囲とされてもよい 。 It should be noted that, among the fundus images having different focus positions, the image having the highest contrast in a part or all of the images is regarded as an image taken at the optimum focus position, and the composition range is set based on this. Good. For example, the range of plus or minus predetermined diopters with respect to the reference may be set as the synthesis range.

また、最適なフォーカス位置で撮影された画像(つまり、フォーカス位置の基準)が特定される場合において、その画像とはフォーカス位置が異なる他の画像の加算比率は、基準となる画像とのフォーカス位置のズレ量に応じて、重み付されてもよい。例えば、加算平均処理によって合成する場合、基準に対するフォーカス位置のズレ量が小さい画像ほど、大きな加算比率で合成(加算平均)されてもよい。 Further, when an image taken at the optimum focus position (that is, a reference of the focus position) is specified, the addition ratio of another image whose focus position is different from that image is the focus position with the reference image. It may be weighted according to the amount of deviation of. For example, when synthesizing by addition averaging, an image with a smaller amount of deviation of the focus position with respect to a reference may be combined (addition averaging) with a larger addition ratio.

また、例えば、視度補正直後のフォーカス位置に対するオフセット値として、合成範囲が、チャンネル毎に予め定められていてもよい。この場合、各チャンネルにおける合成範囲の関係は、予め定められていてもよい。 Further, for example, the composition range may be predetermined for each channel as an offset value with respect to the focus position immediately after the diopter correction. In this case, the relationship of the synthesis range in each channel may be predetermined.

「第3実施例」
次に、図4を参照して、実施形態に係る第3実施例について説明する。第3実施例では、<カラー合成ステップ>において、複数のチャンネルの単色合成画像のうち、一部を、残り一部と比べて強調するための画像処理が行われる。画像処理は、例えば、強調したいチャンネルの単色合成画像に対するコントラスト強調処理であってもよい。また、残りのチャンネルの単色合成画像に対する「ぼかし処理」であってもよい。ぼかし処理は、例えば、ガウシアンフィルタ等の各種フィルタによるフィルタ処理であってもよい。また、両者が併用されてもよい。
"Third Example"
Next, a third embodiment according to the embodiment will be described with reference to FIG. In the third embodiment, in the <color composition step>, image processing is performed to emphasize a part of the monochromatic composite images of the plurality of channels as compared with the remaining part. The image processing may be, for example, contrast enhancement processing for a monochromatic composite image of the channel to be emphasized. Further, it may be a "blurring process" for the monochromatic composite image of the remaining channels. The blurring process may be, for example, a filter process using various filters such as a Gaussian filter. Moreover, both may be used together.

図4には、R(赤),G(緑),B(青)の3色の単色合成画像のいずれも強調することなく合成したカラー合成画像と、3色のうち2つをぼかすことで、残り1つを強調したカラー合成画像とを示している。3色のうちいずれを強調するかによって、カラー合成画像上で把握できる形態的な特徴が変化することが、図4から見て取れる。 In FIG. 4, a color composite image synthesized without emphasizing any of the three color monochromatic composite images of R (red), G (green), and B (blue) and two of the three colors are blurred. , A color composite image in which the remaining one is emphasized is shown. It can be seen from FIG. 4 that the morphological features that can be grasped on the color composite image change depending on which of the three colors is emphasized.

上記の画像処理が行われた単色合成画像に基づくカラー合成画像では、一部のチャンネルの成分が他のチャンネルの成分に比べて強調される。その結果、MC眼底画像であるカラー合成画像上で、特定の深さ位置(或いは、特定の層)にある特徴が強調され、検者に把握されやすくなる。よって、第3実施例では、検者は、カラー眼底画像の読影知見を活かし つつ 、特定の深さ位置にある特徴を良好に確認できる。 In the color composite image based on the monochromatic composite image subjected to the above image processing, the components of some channels are emphasized as compared with the components of other channels. As a result, the feature at a specific depth position (or a specific layer) is emphasized on the color composite image which is the MC fundus image, and the examiner can easily grasp the feature. Therefore, in the third embodiment, the examiner can satisfactorily confirm the feature at a specific depth position while utilizing the interpretation knowledge of the color fundus image.

なお、本装置1において、上記の画像処理を行うか否かは、検者からの入力に応じて設定可能であってもよい。また、本装置1は、いずれのチャンネルを強調するかを、検者からの入力に応じて設定可能であってもよい。 Whether or not the above image processing is performed in the present device 1 may be set according to the input from the examiner. Further, the apparatus 1 may be able to set which channel to emphasize according to the input from the examiner.

以上、実施形態に基づいて説明を行ったが、本開示を実施するうえで、実施形態の内容を適宜変更することができる。 Although the above description has been given based on the embodiment, the content of the embodiment can be appropriately changed in carrying out the present disclosure.

また、例えば、上記実施形態において、単色合成ステップにおける合成処理として、加算平均処理を例示した。しかし、必ずしもこれに限られるものでは無い。取得ステップによって取得される複数の眼底画像の各々よりも、被写界深度の大きな単色合成画像が得られる種々の画像処理のうちいずれかが、合成処理として適用されてもよい。例えば、合成処理は、加重平均処理であってもよい。また、合成処理は、深度合成(フォーカススタッキング) であってもよい。深度合成は、眼底における湾曲の影響が大きい場合に特に有意義な手法である。また、各眼底画像における合焦位置から、深度マップを推定してもよい。深度マップは、撮影範囲における各領域の 深度を示す。 Further, for example, in the above embodiment, the addition averaging process is exemplified as the synthesis process in the monochromatic composition step. However, it is not always limited to this. Any one of various image processes for obtaining a monochromatic composite image having a larger depth of field than each of the plurality of fundus images acquired by the acquisition step may be applied as the composite process. For example, the synthesis process may be a weighted average process. Further, the compositing process may be depth compositing (focus stacking). Depth synthesis is a particularly meaningful technique when the effect of curvature on the fundus is large. Further, the depth map may be estimated from the in-focus position in each fundus image. The depth map shows the depth of each area in the shooting range.

また、例えば、上記実施形態において、眼底撮影装置は、フォーカス位置を変更しながら繰り返し撮影することによって、フォーカス位置が互いに異なる複数枚の眼底画像を撮影した。しかし、必ずしもこれに限られるものでは無く、眼底撮影装置は、ライトフィールドカメラの原理によって、フォーカス位置が互いに異なる複数枚の眼底画像を、同時に撮影してもよい。 Further, for example, in the above embodiment, the fundus imaging device captures a plurality of fundus images having different focus positions by repeatedly photographing the fundus while changing the focus position. However, the present invention is not necessarily limited to this, and the fundus photography apparatus may simultaneously capture a plurality of fundus images having different focus positions according to the principle of the light field camera.

また、例えば、上記実施形態において、眼底撮影装置は、チャンネルが互いに異なる複数の単色合成画像に基づいてマルチカラー画像を取得したが、必ずしもこれに限られるものでは無い。例えば、制御部は、上記実施形態の<取得ステップ>の後、最適なフォーカス位置で撮影された画像を、チャンネル毎に特定してもよい。そして、制御部は、各チャンネルにおける最適なフォーカス位置で撮影された画像を合成し、マルチカラー画像を生成および取得してもよい。 Further, for example, in the above embodiment, the fundus photography apparatus acquires a multicolor image based on a plurality of monochromatic composite images having different channels, but the present invention is not necessarily limited to this. For example, the control unit may specify the image taken at the optimum focus position for each channel after the <acquisition step> of the above embodiment. Then, the control unit may synthesize images taken at the optimum focus position in each channel to generate and acquire a multi-color image.

1 眼底撮影装置
1b 制御ユニット
10 照射光学系
20 受光光学系
80 画像処理器


1 Fundus photography device 1b Control unit 10 Irradiation optical system 20 Light receiving optical system 80 Image processor


Claims (7)

コンピュータのプロセッサに実行されることによって、
被検眼における1つの撮影範囲に対して互いに異なるフォーカス位置で撮影された複数の眼科画像であって 、互いに異なる波長成分 を 示す複数のチャンネル毎に撮影された複数の眼科画像を、取得する取得ステップと、
フォーカス位置が互いに異なる複数の前記眼科画像を合成して単色合成画像を得る合成処理を、チャンネル毎に実行する単色合成ステップと、
複数のチャンネルの前記単色合成画像に基づいて、マルチカラーの眼科画像であるカラー合成画像を生成するカラー合成ステップと、を前記コンピュータに実行させる眼科用画像処理プログラム。
By running on the computer's processor
Acquisition step to acquire a plurality of ophthalmic images taken for each of a plurality of channels showing different wavelength components from a plurality of ophthalmic images taken at different focus positions with respect to one imaging range in the eye to be inspected. When,
A monochromatic compositing step of executing a compositing process for each channel to obtain a monochromatic composite image by compositing a plurality of the ophthalmic images having different focus positions.
An ophthalmic image processing program for causing the computer to perform a color compositing step of generating a color compositing image, which is a multicolor ophthalmic image, based on the monochromatic composite image of a plurality of channels.
複数の前記眼科画像のうち前記合成処理の対象となる眼科画像における前記フォーカス位置の範囲は、チャンネル毎に異なる、請求項1記載の眼科用画像処理プログラム。 The ophthalmic image processing program according to claim 1, wherein the range of the focus position in the ophthalmic image to be combined is different for each channel among the plurality of ophthalmic images. 前記カラー合成ステップでは、更に、複数のチャンネルの前記単色合成画像のうち一部を残り一部と比べて強調するための画像処理を行ってから複数のチャンネルの前記単色合成画像に基づいて前記カラー合成画像を生成する、請求項1又は2の眼科用画像処理プログラム。 In the color composition step, further image processing is performed to emphasize a part of the monochromatic composite image of the plurality of channels with respect to the remaining part, and then the color is based on the monochromatic composite image of the plurality of channels. The ophthalmic image processing program according to claim 1 or 2, which generates a composite image. 前記画像処理を行うか否かを設定する設定ステップを、更に前記コンピュータへ実行させる請求項3記載の眼科用画像処理プログラム。 The ophthalmic image processing program according to claim 3, wherein the computer further executes a setting step for setting whether or not to perform the image processing. 互いに異なるフォーカス位置で撮影された複数の前記眼科画像の間における、位置ずれおよび歪みの少なくとも一方を補正する補正ステップを、更に、前記コンピュータへ実行させる請求項1から4のいずれかに記載の眼科用画像処理プログラム。 The ophthalmology according to any one of claims 1 to 4, further performing a correction step for correcting at least one of misalignment and distortion between the plurality of ophthalmic images taken at different focus positions. Image processing program for. 被検眼における1つの撮影範囲に対して互いに異なるフォーカス位置で撮影された複数の眼科画像であって、互いに異なる波長成分を示す複数のチャンネル毎に撮影された複数の眼科画像を、取得する取得ステップと、
フォーカス位置が互いに異なる複数の前記眼科画像を合成して単色合成画像を得る合成処理を、チャンネル毎に実行する単色合成ステップと、
複数のチャンネルの前記単色合成画像に基づいて、マルチカラーの眼科画像であるカラー合成画像を生成するカラー合成ステップと、を含む眼科用画像処理方法。
Acquisition step to acquire a plurality of ophthalmic images taken at different focus positions with respect to one imaging range in the eye to be inspected, and a plurality of ophthalmic images captured for each of a plurality of channels showing different wavelength components. When,
A monochromatic compositing step of executing a compositing process for each channel to obtain a monochromatic composite image by compositing a plurality of the ophthalmic images having different focus positions.
An ophthalmic image processing method including a color compositing step of generating a color compositing image which is a multicolor ophthalmic image based on the monochromatic composite image of a plurality of channels.
複数の波長の照明光を被検眼へ照射することによって眼科画像を撮影する撮影光学系と、
被検眼における1つの撮影範囲に対して互いに異なるフォーカス位置で撮影される複数の眼科画像であって、互いに異なる波長成分を示す複数のチャンネル毎に撮影される複数の眼科画像を、撮影によって取得する制御手段と、
画像処理手段と、を有し、
前記画像処理手段は、
フォーカス位置が互いに異なる複数の前記眼科画像を合成して単色合成画像を得る合成処理を、チャンネル毎に実行し、
更に、複数のチャンネルの前記単色合成画像に基づいて、マルチカラーの眼科画像であるカラー合成画像を生成する、眼科撮影装置。
An imaging optical system that captures ophthalmic images by irradiating the eye to be inspected with illumination light of multiple wavelengths.
A plurality of ophthalmic images taken at different focus positions with respect to one imaging range in the eye to be inspected, and a plurality of ophthalmic images captured for each of a plurality of channels showing different wavelength components are acquired by imaging. Control means and
With image processing means,
The image processing means
A compositing process for synthesizing a plurality of the ophthalmic images having different focus positions to obtain a monochromatic composite image is executed for each channel.
Further, an ophthalmologic imaging apparatus that generates a color composite image, which is a multicolor ophthalmic image, based on the monochromatic composite image of a plurality of channels.
JP2019038977A 2019-03-04 2019-03-04 Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus Pending JP2020141763A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019038977A JP2020141763A (en) 2019-03-04 2019-03-04 Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038977A JP2020141763A (en) 2019-03-04 2019-03-04 Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus

Publications (1)

Publication Number Publication Date
JP2020141763A true JP2020141763A (en) 2020-09-10

Family

ID=72354940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038977A Pending JP2020141763A (en) 2019-03-04 2019-03-04 Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus

Country Status (1)

Country Link
JP (1) JP2020141763A (en)

Similar Documents

Publication Publication Date Title
JP7060727B2 (en) Methods and Devices for Reducing Scattered Light in Broadline Fundus Imaging
US8804127B2 (en) Image acquisition apparatus, image acquisition system, and method of controlling the same
JP6978165B2 (en) Eyeball imaging device
JP2016059399A (en) Scanning laser ophthalmoscope
JP6463048B2 (en) Image processing apparatus and method of operating image processing apparatus
JP6776076B2 (en) OCT device
JP2016059400A (en) Ophthalmologic image processor and ophthalmologic image processing program
JP2015066242A (en) Ophthalmology imaging apparatus
EP3257433B1 (en) Ophthalmic imaging device and generation method of ophthalmic synthetic image
JP2015091309A (en) Ophthalmologic image processor and image processing program
JP7226426B2 (en) Fundus camera
WO2017033669A1 (en) Blood flow measurement device
JP6319616B2 (en) Scanning laser ophthalmoscope
JP7098964B2 (en) Fundus photography device
JP6853690B2 (en) Ophthalmologic imaging equipment
JP2020141763A (en) Ophthalmologic image processing program, ophthalmologic image processing method, and ophthalmologic imaging apparatus
JP7264254B2 (en) Image processing method, image processing apparatus, and program
JP7318272B2 (en) OPHTHALMIC PHOTOGRAPHY AND OPHTHALMIC IMAGE PROCESSING PROGRAM
JP2018000620A (en) Ophthalmological imaging apparatus
JP7468162B2 (en) Fundus image processing program and fundus photographing device
JP2021079013A (en) Medical image processing device, processing method for medical image processing device and program
JP6848207B2 (en) Ophthalmologic imaging equipment
JP7091778B2 (en) Fundus image processing device and fundus image processing program
JP7051042B2 (en) Ophthalmologic photography equipment
JP7421062B2 (en) fundus imaging device