JP6853690B2 - Ophthalmologic imaging equipment - Google Patents

Ophthalmologic imaging equipment Download PDF

Info

Publication number
JP6853690B2
JP6853690B2 JP2017034678A JP2017034678A JP6853690B2 JP 6853690 B2 JP6853690 B2 JP 6853690B2 JP 2017034678 A JP2017034678 A JP 2017034678A JP 2017034678 A JP2017034678 A JP 2017034678A JP 6853690 B2 JP6853690 B2 JP 6853690B2
Authority
JP
Japan
Prior art keywords
image
unit
front image
oct
slo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017034678A
Other languages
Japanese (ja)
Other versions
JP2018139717A (en
Inventor
淳 末廣
淳 末廣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2017034678A priority Critical patent/JP6853690B2/en
Publication of JP2018139717A publication Critical patent/JP2018139717A/en
Application granted granted Critical
Publication of JP6853690B2 publication Critical patent/JP6853690B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、眼科撮影装置に関する。 This invention also relates to the ophthalmic imaging equipment.

眼科分野において画像診断は重要な位置を占める。典型的な眼科モダリティとして、被検眼の正面画像を取得可能なモダリティと、断面像や3次元画像を取得可能なモダリティとがある。正面画像を取得可能なモダリティとしては、走査型レーザー検眼鏡(SLO)、眼底カメラ、スリットランプ顕微鏡、手術用顕微鏡、スペキュラーマイクロスコープなどがある。また、断面像等を取得可能なモダリティとしては、光干渉断層計(OCT装置)、超音波診断装置などがある。 Diagnostic imaging occupies an important position in the field of ophthalmology. Typical ophthalmic modality includes a modality that can acquire a frontal image of an eye to be inspected and a modality that can acquire a cross-sectional image or a three-dimensional image. Modality that can acquire a frontal image includes a scanning laser ophthalmoscope (SLO), a fundus camera, a slit lamp microscope, a surgical microscope, and a specular microscope. In addition, modality that can acquire a cross-sectional image or the like includes an optical coherence tomography (OCT device), an ultrasonic diagnostic device, and the like.

一般に、正面画像を取得可能なモダリティは、横方向分解能が高く、軸方向分解能(縦方向分解能)が低い。これに対し、断面像等を取得可能なモダリティは、横方向分解能が低く、軸方向分解能が高い。例えば、SLOの横方向分解能は数マイクロメートル程度であり、軸方向分解能は数百マイクロメートル程度である。一方、光干渉断層計の横方向分解能は数十マイクロメートル程度であり、軸方向分解能は5〜10マイクロメートル程度である。 Generally, a modality capable of acquiring a front image has a high lateral resolution and a low axial resolution (longitudinal resolution). On the other hand, the modality that can acquire a cross-sectional image or the like has a low lateral resolution and a high axial resolution. For example, the lateral resolution of the SLO is about several micrometers, and the axial resolution is about several hundred micrometers. On the other hand, the lateral resolution of the optical interference tomographic meter is about several tens of micrometers, and the axial resolution is about 5 to 10 micrometers.

特開2016−214768号公報Japanese Unexamined Patent Publication No. 2016-214768

この発明の目的は、眼科画像診断のための新たな手法を提供することにある。 An object of the present invention is to provide a new method for ophthalmic diagnostic imaging.

実施形態の第1の態様は、被検眼を撮影して第1正面画像を取得する正面画像取得部と、前記被検眼をスキャンして3次元画像を取得する3次元画像取得部と、前記3次元画像から第2正面画像を作成する正面画像作成部と、前記第1正面画像と前記第2正面画像との間の一致度を評価する評価部とを含む眼科撮影装置である。 The first aspect of the embodiment is a front image acquisition unit that photographs the eye to be inspected to acquire a first front image, a three-dimensional image acquisition unit that scans the eye to be inspected to acquire a three-dimensional image, and the above three. It is an ophthalmic imaging apparatus including a front image creating unit that creates a second front image from a three-dimensional image, and an evaluation unit that evaluates the degree of agreement between the first front image and the second front image.

実施形態の第2の態様は、前記評価部により求められた前記一致度の評価値が所定条件を満足するときに、前記第1正面画像に基づいて前記第2正面画像を加工する画像加工部を含む。 A second aspect of the embodiment is an image processing unit that processes the second front image based on the first front image when the evaluation value of the degree of agreement obtained by the evaluation unit satisfies a predetermined condition. including.

実施形態の第3の態様において、前記正面画像作成部は、前記3次元画像から、深さ領域が異なる複数の第2正面画像を作成し、前記評価部は、前記複数の第2正面画像のそれぞれと前記第1正面画像との間の一致度を評価し、前記複数の第2正面画像について前記評価部により求められた複数の評価値のうちの最大値に対応する第2正面画像を特定する画像特定部を含み、前記画像加工部は、前記画像特定部により特定された前記第2正面画像を前記第1正面画像に基づいて加工する。 In the third aspect of the embodiment, the front image creating unit creates a plurality of second front images having different depth regions from the three-dimensional image, and the evaluation unit creates the plurality of second front images of the plurality of second front images. The degree of agreement between each of the first front image and the first front image is evaluated, and the second front image corresponding to the maximum value among the plurality of evaluation values obtained by the evaluation unit is specified for the plurality of second front images. The image processing unit processes the second front image specified by the image specifying unit based on the first front image.

実施形態の第4の態様は、前記評価部により求められた評価値が所定閾値以上であるか判定する判定部を含み、前記評価値が前記所定閾値以上であると前記判定部により判定されたとき、前記画像加工部は、前記第1正面画像に基づいて前記第2正面画像を加工する。 A fourth aspect of the embodiment includes a determination unit for determining whether the evaluation value obtained by the evaluation unit is equal to or greater than a predetermined threshold value, and the determination unit determines that the evaluation value is equal to or greater than the predetermined threshold value. At that time, the image processing unit processes the second front image based on the first front image.

実施形態の第5の態様において、前記画像加工部は、前記第1正面画像と前記第2正面画像との合成画像を作成する。 In the fifth aspect of the embodiment, the image processing unit creates a composite image of the first front image and the second front image.

実施形態の第6の態様において、前記画像加工部は、前記第1正面画像の一部を前記第2正面画像に埋め込む。 In the sixth aspect of the embodiment, the image processing unit embeds a part of the first front image in the second front image.

実施形態の第7の態様において、前記画像加工部は、前記第1正面画像に基づいて前記第2正面画像の画素値を変更する。 In the seventh aspect of the embodiment, the image processing unit changes the pixel value of the second front image based on the first front image.

実施形態の第8の態様において、前記正面画像作成部は、前記3次元画像から、深さ領域が異なる複数の第2正面画像を作成し、前記評価部は、前記複数の第2正面画像のそれぞれと前記第1正面画像との間の一致度を評価する。 In the eighth aspect of the embodiment, the front image creating unit creates a plurality of second front images having different depth regions from the three-dimensional image, and the evaluation unit creates the plurality of second front images of the plurality of second front images. The degree of agreement between each and the first front image is evaluated.

実施形態の第9の態様は、前記複数の第2正面画像について前記評価部により求められた複数の評価値に基づいて、前記複数の第2正面画像のうちのいずれかを選択する第1選択部を含む。 A ninth aspect of the embodiment is a first selection in which one of the plurality of second front images is selected based on a plurality of evaluation values obtained by the evaluation unit for the plurality of second front images. Including part.

実施形態の第10の態様は、前記正面画像作成部は、前記3次元画像にセグメンテーションを施して層領域を特定するセグメンテーション部と、前記層領域を所定方向に投影して第2正面画像を作成する投影処理部とを含む。 In a tenth aspect of the embodiment, the front image creating unit creates a second front image by projecting a segmentation unit that specifies a layer region by performing segmentation on the three-dimensional image and a layer region projected in a predetermined direction. Includes a projection processing unit.

実施形態の第11の態様は、前記第1正面画像と前記第2正面画像との間の位置合わせを行う第1レジストレーション部を含み、前記評価部は、前記位置合わせがなされた前記第1正面画像と前記第2正面画像との間の一致度を評価する。 The eleventh aspect of the embodiment includes a first registration unit that aligns the first front image and the second front image, and the evaluation unit includes the first alignment unit. The degree of agreement between the front image and the second front image is evaluated.

実施形態の第12の態様において、前記第1レジストレーション部は、前記第1正面画像を解析して第1特徴点群を検出し、且つ、前記第2正面画像を解析して第2特徴点群を検出する特徴点検出部を含み、前記第1特徴点群及び前記第2特徴点群に基づいて前記第1正面画像と前記第2正面画像との間の位置合わせを行う。 In the twelfth aspect of the embodiment, the first registration unit analyzes the first front image to detect the first feature point group, and analyzes the second front image to analyze the second feature point. It includes a feature point detection unit that detects a group, and aligns the first front image and the second front image based on the first feature point group and the second feature point group.

実施形態の第13の態様において、前記第1レジストレーション部は、前記特徴点検出部に入力される前記第1正面画像及び前記第2正面画像の少なくとも一方に、ガンマ曲線補正、シグモイド曲線補正、輝度補正、ガウシアンフィルタ、及びメディアンフィルタのうちの少なくとも1つを含む前処理を施す前処理部を含み、前記特徴点検出部は、前記第1正面画像にエッジ検出を施して前記第1特徴点群を検出し、且つ、前記第2正面画像にエッジ検出を施して前記第2特徴点群を検出する。 In the thirteenth aspect of the embodiment, the first registration unit performs gamma curve correction, sigmoid curve correction, on at least one of the first front image and the second front image input to the feature point detection unit. The feature point detection section includes a pretreatment section that performs pretreatment including at least one of a brightness correction, a Gaussian filter, and a median filter, and the feature point detection section performs edge detection on the first front image to perform the first feature point. The group is detected, and the second front image is subjected to edge detection to detect the second feature point group.

実施形態の第14の態様は、前記第1正面画像と前記3次元画像との間の位置合わせを行う第2レジストレーション部を含み、前記評価部は、前記位置合わせの結果に基づいて前記第1正面画像と前記第2正面画像との間の一致度を評価する。 A fourteenth aspect of the embodiment includes a second registration unit that aligns the first front image with the three-dimensional image, and the evaluation unit is based on the result of the alignment. The degree of agreement between the first front image and the second front image is evaluated.

実施形態の第15の態様において、前記正面画像取得部は、異なる波長帯に対応する2以上の第1正面画像を取得し、前記評価部は、前記2以上の第1正面画像のそれぞれと前記第2正面画像との間の一致度を評価する。 In the fifteenth aspect of the embodiment, the front image acquisition unit acquires two or more first front images corresponding to different wavelength bands, and the evaluation unit acquires each of the two or more first front images and the said. The degree of agreement with the second front image is evaluated.

実施形態の第16の態様において、前記正面画像取得部は、異なる波長帯に対応する2以上の第1正面画像を取得し、前記正面画像作成部は、前記3次元画像から、深さ領域が異なる複数の第2正面画像を作成し、前記評価部は、前記2以上の第1正面画像のそれぞれについて、前記複数の第2正面画像のうちの少なくとも一部との間の一致度を評価する。更に、実施形態の第16の態様は、前記評価部により求められた評価値に基づいて、前記2以上の第1正面画像のそれぞれに対応する第2正面画像を選択する第2選択部を含む。 In the sixteenth aspect of the embodiment, the front image acquisition unit acquires two or more first front images corresponding to different wavelength bands, and the front image creation unit has a depth region from the three-dimensional image. A plurality of different second front images are created, and the evaluation unit evaluates the degree of agreement between each of the two or more first front images with at least a part of the plurality of second front images. .. Further, the 16th aspect of the embodiment includes a second selection unit that selects a second front image corresponding to each of the two or more first front images based on the evaluation value obtained by the evaluation unit. ..

実施形態の第17の態様は、被検眼を撮影して第1正面画像を取得する正面画像取得部と、前記被検眼の3次元画像を受け付ける3次元画像受付部と、前記3次元画像から第2正面画像を作成する正面画像作成部と、前記第1正面画像と前記第2正面画像との間の一致度を評価する評価部とを含む眼科撮影装置である。 A seventeenth aspect of the embodiment is a front image acquisition unit that captures an eye to be inspected to acquire a first front image, a three-dimensional image receiving unit that receives a three-dimensional image of the eye to be inspected, and a third-dimensional image to be obtained. 2 This is an ophthalmic imaging apparatus including a front image creating unit for creating a front image and an evaluation unit for evaluating the degree of agreement between the first front image and the second front image.

実施形態の第18の態様は、被検眼の第1正面画像を受け付ける正面画像受付部と、前記被検眼をスキャンして3次元画像を取得する3次元画像取得部と、前記3次元画像から第2正面画像を作成する正面画像作成部と、前記第1正面画像と前記第2正面画像との間の一致度を評価する評価部とを含む眼科撮影装置である。 An eighteenth aspect of the embodiment is a front image receiving unit that receives a first front image of the eye to be inspected, a three-dimensional image acquisition unit that scans the eye to be inspected to acquire a three-dimensional image, and a third from the three-dimensional image. 2 This is an ophthalmic imaging apparatus including a front image creating unit for creating a front image and an evaluation unit for evaluating the degree of agreement between the first front image and the second front image.

実施形態の第19の態様は、被検眼の第1正面画像及び3次元画像を受け付ける画像受付部と、前記3次元画像から第2正面画像を作成する正面画像作成部と、前記第1正面画像と前記第2正面画像との間の一致度を評価する評価部とを含む眼科画像処理装置である。 A nineteenth aspect of the embodiment is an image receiving unit that receives a first front image and a three-dimensional image of the eye to be inspected, a front image creating unit that creates a second front image from the three-dimensional image, and the first front image. It is an ophthalmic image processing apparatus including an evaluation unit for evaluating the degree of agreement between the image and the second front image.

実施形態によれば、眼科画像診断のための新たな手法を提供することができる。 According to the embodiment, a new method for ophthalmologic image diagnosis can be provided.

実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。It is a schematic diagram for demonstrating an example of the process executed by the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。It is a schematic diagram for demonstrating an example of the process executed by the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置が実行する処理の一例を説明するための概略図である。It is a schematic diagram for demonstrating an example of the process executed by the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の構成の一例を示す概略図である。It is the schematic which shows an example of the structure of the ophthalmologic imaging apparatus which concerns on embodiment. 実施形態に係る眼科撮影装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the ophthalmologic imaging apparatus which concerns on embodiment.

例示的な実施形態を以下に説明する。引用文献に記載された事項や任意の公知技術を実施形態に援用することができる。 An exemplary embodiment will be described below. The matters described in the cited document and any known technique can be incorporated into the embodiment.

実施形態に係る装置は、被検眼の正面画像の正面画像を取得する機能と、被検眼の3次元画像を取得する機能とを備える。 The apparatus according to the embodiment includes a function of acquiring a front image of the front image of the eye to be inspected and a function of acquiring a three-dimensional image of the eye to be inspected.

正面画像取得機能は、例えば、被検眼を撮影して正面画像を取得する正面画像取得部、又は、被検眼の正面画像を外部から受け付ける正面画像受付部によって実現される。正面画像取得部は、例えば、SLO、眼底カメラ、スリットランプ顕微鏡、及び手術用顕微鏡のいずれかであってよい。正面画像受付部は、例えば、通信回線を介して正面画像を受信するための通信インターフェイス、記録媒体に記録された正面画像を読み出すためのインターフェイスのいずれかであってよい。 The front image acquisition function is realized, for example, by a front image acquisition unit that captures an eye to be inspected and acquires a front image, or a front image reception unit that receives a front image of the eye to be inspected from the outside. The front image acquisition unit may be, for example, any of an SLO, a fundus camera, a slit lamp microscope, and a surgical microscope. The front image receiving unit may be, for example, either a communication interface for receiving the front image via the communication line or an interface for reading the front image recorded on the recording medium.

3次元画像取得機能は、例えば、被検眼をスキャンして3次元画像を取得する3次元画像取得部、又は、被検眼の3次元画像を外部から受け付ける3次元画像受付部によって実現される。3次元画像取得部は、例えば、光干渉断層計、超音波診断装置のいずれかであってよい。3次元画像受付部は、例えば、通信回線を介して3次元画像を受信するための通信インターフェイス、記録媒体に記録された3次元画像を読み出すためのインターフェイスのいずれかであってよい。 The three-dimensional image acquisition function is realized, for example, by a three-dimensional image acquisition unit that scans the eye to be inspected to acquire a three-dimensional image, or a three-dimensional image reception unit that receives a three-dimensional image of the eye to be inspected from the outside. The three-dimensional image acquisition unit may be, for example, an optical interference tomogram or an ultrasonic diagnostic apparatus. The 3D image receiving unit may be, for example, either a communication interface for receiving a 3D image via a communication line or an interface for reading a 3D image recorded on a recording medium.

正面画像取得部及び3次元画像取得部の一方又は双方が設けられる場合、実施形態の装置は眼科撮影装置として構成される。これに対し、正面画像受付部及び3次元画像受付部の双方が設けられる場合、実施形態の装置は眼科画像処理装置として構成される。 When one or both of the front image acquisition unit and the three-dimensional image acquisition unit are provided, the apparatus of the embodiment is configured as an ophthalmologic imaging apparatus. On the other hand, when both the front image receiving unit and the three-dimensional image receiving unit are provided, the apparatus of the embodiment is configured as an ophthalmic image processing apparatus.

以下、特に明記しない限り、被検者から見て左右方向をX方向とし、上下方向をY方向とし、前後方向(奥行き方向)をZ方向とする。Z方向は、光学系の光軸に沿う方向である。X方向、Y方向及びZ方向は、3次元直交座標系を定義する。Z方向における分解能が軸方向分解能である。また、Z方向に直交するXY面における分解能が横方向分解能である。 Hereinafter, unless otherwise specified, the left-right direction is the X direction, the up-down direction is the Y direction, and the front-back direction (depth direction) is the Z direction when viewed from the subject. The Z direction is a direction along the optical axis of the optical system. The X, Y, and Z directions define a three-dimensional Cartesian coordinate system. The resolution in the Z direction is the axial resolution. Further, the resolution on the XY plane orthogonal to the Z direction is the lateral resolution.

<光学系100>
実施形態に係る眼科撮影装置の光学系の例を図1〜図3に示す。この実施形態では、SLOと光干渉断層計とを組み合わせた眼科撮影装置について説明するが、前述したように実施形態はこれに限定されない。
<Optical system 100>
Examples of the optical system of the ophthalmologic imaging apparatus according to the embodiment are shown in FIGS. 1 to 3. In this embodiment, an ophthalmologic imaging apparatus in which an SLO and an optical interference tomography device are combined will be described, but the embodiment is not limited to this as described above.

眼科撮影装置は、複数の撮影モードで動作可能である。例えば、スキャン範囲のサイズ(画角、倍率)に関する動作モードとして、広角撮影モードと高倍撮影モードがある。画角の切り替えは、例えば、屈折力が異なる2以上の対物レンズを選択的に使用することで実現される。或いは、光偏向器(光スキャナ)による光ビームの偏向角度を変化させることで画角を変更するよう構成してもよい。また、1以上のズームレンズの移動又は選択的使用が可能なズーム光学系を用いて画角を変更するよう構成してもよい。画角を変更するための手法や構成はこれらに限定されない。 The ophthalmologic imaging apparatus can operate in a plurality of imaging modes. For example, there are a wide-angle shooting mode and a high-magnification shooting mode as operation modes related to the size of the scanning range (angle of view, magnification). The switching of the angle of view is realized, for example, by selectively using two or more objective lenses having different refractive powers. Alternatively, the angle of view may be changed by changing the deflection angle of the light beam by the light deflector (optical scanner). Further, the angle of view may be changed by using a zoom optical system capable of moving or selectively using one or more zoom lenses. The method and configuration for changing the angle of view are not limited to these.

図1は、広角撮影モード時の光学系の例を表す。図2は、画角を切り替えるための対物レンズ系の例を表す。図3は、高倍撮影モード時の眼科撮影装置の光学系の例を表す。図1及び図3における符号Pは、眼底Efと光学的に共役な位置(眼底共役位置)を示し、符号Qは、被検眼Eの瞳と光学的に共役な位置(瞳共役位置)を示す。 FIG. 1 shows an example of an optical system in the wide-angle shooting mode. FIG. 2 shows an example of an objective lens system for switching the angle of view. FIG. 3 shows an example of the optical system of the ophthalmologic imaging apparatus in the high magnification imaging mode. Reference numeral P in FIGS. 1 and 3 indicates a position optically conjugate with the fundus Ef (fundus conjugate position), and reference numeral Q indicates a position optically conjugate with the pupil of the eye E to be inspected (pupil conjugate position). ..

光学系100は、光ビームで眼底Efをスキャンしてデータを収集する。光学系100は、対物レンズ系110を介して被検眼Eに投射される光ビームで眼底Efをスキャンする走査系と、投射された光ビームの戻り光を対物レンズ系110を介して検出する検出系とを含む。検出系からの出力(つまり、光学系100により収集されたデータ)に基づいて眼底Efの画像が構築される。光学系100は、SLO光学系130とOCT光学系140とを含む。SLO光学系130は、SLO走査系とSLO検出系とを含む。OCT光学系140は、OCT走査系とOCT検出系とを含む。 The optical system 100 scans the fundus Ef with a light beam and collects data. The optical system 100 includes a scanning system that scans the fundus Ef with a light beam projected on the eye E to be inspected via the objective lens system 110, and a detection system that detects the return light of the projected light beam via the objective lens system 110. Including the system. An image of the fundus Ef is constructed based on the output from the detection system (that is, the data collected by the optical system 100). The optical system 100 includes an SLO optical system 130 and an OCT optical system 140. The SLO optical system 130 includes an SLO scanning system and an SLO detecting system. The OCT optical system 140 includes an OCT scanning system and an OCT detection system.

眼科撮影装置には、前眼部を観察・撮影するための前眼部撮影系120が設けられている。光学系100、対物レンズ系110及び前眼部撮影系120は、X方向、Y方向及びZ方向に移動可能である。前眼部撮影系120により得られる前眼部像は、光学系100のアライメントやトラッキングに用いられる。 The ophthalmologic imaging apparatus is provided with an anterior segment imaging system 120 for observing and photographing the anterior segment. The optical system 100, the objective lens system 110, and the anterior segment imaging system 120 can move in the X direction, the Y direction, and the Z direction. The anterior segment image obtained by the anterior segment imaging system 120 is used for alignment and tracking of the optical system 100.

<対物レンズ系110>
例示的な実施形態では、撮影モード毎に対物レンズ(ユニット)が準備され、選択された撮影モードに応じた対物レンズユニットが選択的に使用される。この実施形態では、図2に示すように、広角撮影モード(例えば画角100度)のための対物レンズユニット110Aと、高倍撮影モード(例えば画角50度)のための対物レンズユニット110Bとが、光学系100の光路に選択的に配置される。
<Objective lens system 110>
In an exemplary embodiment, an objective lens (unit) is prepared for each shooting mode, and an objective lens unit corresponding to the selected shooting mode is selectively used. In this embodiment, as shown in FIG. 2, the objective lens unit 110A for a wide-angle shooting mode (for example, an angle of view of 100 degrees) and the objective lens unit 110B for a high-magnification shooting mode (for example, an angle of view of 50 degrees) are , Selectively arranged in the optical path of the optical system 100.

対物レンズ系110は、対物レンズユニット110A及び110Bに加えて画角変更機構115を含む。画角変更機構115は、例えば公知の回転機構又はスライド機構を含み、対物レンズユニット110A及び110Bを選択的に(互いに排他的に)光路に配置する。画角変更機構115は、対物レンズユニット110A(110B)の光軸が光学系100の光軸Oに略一致するように対物レンズユニット110A(110B)を光路に配置する。 The objective lens system 110 includes an angle of view changing mechanism 115 in addition to the objective lens units 110A and 110B. The angle of view changing mechanism 115 includes, for example, a known rotation mechanism or slide mechanism, and selectively (exclusively) arranges the objective lens units 110A and 110B in the optical path. The angle of view changing mechanism 115 arranges the objective lens unit 110A (110B) in the optical path so that the optical axis of the objective lens unit 110A (110B) substantially coincides with the optical axis O of the optical system 100.

画角変更機構115は、対物レンズユニット110A及び110Bを手動で移動するための構成を備えていてよい。この場合、光路に配置された対物レンズユニットの種別を検出する種別検出部を設け、その検出結果から撮影モードを特定し、この特定結果に応じた制御を実行するよう構成することができる。画角変更機構115は、対物レンズユニット110A及び110Bを電動で(更には自動で)移動するための構成を備えていてよい。この場合、後述の制御部200は、選択された撮影モードに対応する対物レンズユニットを光路に配置するための制御信号を画角変更機構115に送る。 The angle of view changing mechanism 115 may include a configuration for manually moving the objective lens units 110A and 110B. In this case, it is possible to provide a type detection unit for detecting the type of the objective lens unit arranged in the optical path, specify the shooting mode from the detection result, and execute the control according to the specific result. The angle of view changing mechanism 115 may have a configuration for electrically (and automatically) moving the objective lens units 110A and 110B. In this case, the control unit 200, which will be described later, sends a control signal for arranging the objective lens unit corresponding to the selected shooting mode in the optical path to the angle of view changing mechanism 115.

広角撮影モード用の対物レンズユニット110Aは、レンズ111A及び112Aと、ダイクロイックミラーDM1Aと、凹レンズ113Aとを含む。ダイクロイックミラーDM1Aは、光学系100の光路と前眼部撮影系120の光路とを結合する。ダイクロイックミラーDM1Aは、光学系100により導かれる光を透過させ、前眼部撮影のための光を反射する。ダイクロイックミラーDM1Aと凹レンズ113Aとの間には眼底共役位置Pが配置されている。 The objective lens unit 110A for the wide-angle shooting mode includes lenses 111A and 112A, a dichroic mirror DM1A, and a concave lens 113A. The dichroic mirror DM1A combines the optical path of the optical system 100 and the optical path of the anterior segment imaging system 120. The dichroic mirror DM1A transmits the light guided by the optical system 100 and reflects the light for photographing the anterior segment of the eye. A fundus conjugate position P is arranged between the dichroic mirror DM1A and the concave lens 113A.

高倍撮影モード用の対物レンズユニット110Bは、レンズ111Bと、ダイクロイックミラーDM1Bとを含む。ダイクロイックミラーDM1Bは、ダイクロイックミラーDM1Aと同様の作用を有する。 The objective lens unit 110B for the high magnification shooting mode includes a lens 111B and a dichroic mirror DM1B. The dichroic mirror DM1B has the same function as the dichroic mirror DM1A.

ダイクロイックミラーDM1AとダイクロイックミラーDM1Bとは、光学系100の光路における(ほぼ)同じ位置に配置される。それにより、撮影モードを切り替えたときに、前眼部撮影系120の位置や向きを調整する必要がなくなる。 The dichroic mirror DM1A and the dichroic mirror DM1B are arranged at (almost) the same position in the optical path of the optical system 100. As a result, it is not necessary to adjust the position and orientation of the anterior segment imaging system 120 when the imaging mode is switched.

例示的な実施形態において、単一のダイクロイックミラーを複数の対物レンズユニットが共用するように構成することができる。例えば、図2に示す例において、ダイクロイックミラーDM1A及びDM1Bが同じ部材であってよい。つまり、レンズ111A及び112A並びに凹レンズ113Aのみを含む対物レンズユニット110Aと、レンズ111Bのみを含む対物レンズユニット110Bとを選択的に使用する構成を適用できる。 In an exemplary embodiment, a single dichroic mirror can be configured to be shared by a plurality of objective lens units. For example, in the example shown in FIG. 2, the dichroic mirrors DM1A and DM1B may be the same member. That is, a configuration can be applied in which the objective lens unit 110A including only the lenses 111A and 112A and the concave lens 113A and the objective lens unit 110B including only the lens 111B are selectively used.

対物レンズ系110を光軸Oに沿って移動することができる。つまり、光学系100に対して対物レンズ系110をZ方向に移動することができる。それにより、SLO光学系130の焦点位置及びOCT光学系140の焦点位置が変更される。 The objective lens system 110 can be moved along the optical axis O. That is, the objective lens system 110 can be moved in the Z direction with respect to the optical system 100. As a result, the focal position of the SLO optical system 130 and the focal position of the OCT optical system 140 are changed.

例示的な実施形態において、3つ以上の対物レンズユニットを選択的に使用することができる。例えば、高倍撮影モード用、中倍撮影モード用、及び低倍撮影モード用の対物レンズユニットと、これらを選択的に光路に配置する画角変更機構とを設けてよい。 In an exemplary embodiment, three or more objective lens units can be selectively used. For example, an objective lens unit for a high magnification shooting mode, a medium magnification shooting mode, and a low magnification shooting mode, and an angle of view changing mechanism for selectively arranging these in the optical path may be provided.

以下、対物レンズユニット110Aが光路に配置された状態について主に説明する。対物レンズユニット110Bが配置された状態における同様又は類似の事項については、特に明記しない限り、その説明を省略する。 Hereinafter, a state in which the objective lens unit 110A is arranged in the optical path will be mainly described. Unless otherwise specified, the same or similar matters in the state where the objective lens unit 110B is arranged will be omitted.

<前眼部撮影系120>
前眼部撮影系120は、前眼部照明光源121と、レンズ122と、前眼部撮影カメラ123と、結像レンズ124と、ビームスプリッタBS1とを含む。ビームスプリッタBS1は、前眼部照明光の光路とその戻り光の光路とを結合する。
<Anterior segment imaging system 120>
The anterior segment imaging system 120 includes an anterior segment illumination light source 121, a lens 122, an anterior segment imaging camera 123, an imaging lens 124, and a beam splitter BS1. The beam splitter BS1 combines the optical path of the anterior segment illumination light and the optical path of its return light.

前眼部照明光源121は、赤外LED等の赤外光源を含む。前眼部照明光源121により発せられた前眼部照明光は、レンズ122により屈折し、ビームスプリッタBS1によりダイクロイックミラーDM1Aに向けて反射され、ダイクロイックミラーDM1Aにより被検眼Eに向けて反射される。被検眼Eからの前眼部照明光の戻り光は、ダイクロイックミラーDM1Aにより反射され、ビームスプリッタBS1を透過し、結像レンズ124により前眼部撮影カメラ123(撮像素子の検出面)に集光される。撮像素子の検出面は、瞳共役位置Q(又はその近傍)に配置されている。撮像素子は、例えば、CCDイメージセンサ又はCMOSイメージセンサである。 The anterior segment illumination light source 121 includes an infrared light source such as an infrared LED. The anterior segment illumination light emitted by the anterior segment illumination light source 121 is refracted by the lens 122, reflected by the beam splitter BS1 toward the dichroic mirror DM1A, and reflected by the dichroic mirror DM1A toward the eye E to be inspected. The return light of the anterior segment illumination light from the eye E to be examined is reflected by the dichroic mirror DM1A, transmitted through the beam splitter BS1, and focused on the anterior segment imaging camera 123 (detection surface of the imaging element) by the imaging lens 124. Will be done. The detection surface of the image sensor is arranged at the pupil conjugate position Q (or its vicinity). The image sensor is, for example, a CCD image sensor or a CMOS image sensor.

<SLO光学系130及びOCT光学系140>
SLO光学系130の光路とOCT光学系140の光路とはダイクロイックミラーDM2により結合されている。例示的な実施形態において、SLO光学系130の少なくとも一部はテレセントリック光学系であり、OCT光学系140の少なくとも一部はテレセントリック光学系であり、これらテレセントリック光学系の光路がダイクロイックミラーDM2により結合される。本例によれば、対物レンズ系110を移動して光学系100の焦点位置を変更しても、瞳(例えば対物レンズ系110による射出瞳)の収差が大きくならないため、フォーカス調整を容易化することができる。
<SLO optical system 130 and OCT optical system 140>
The optical path of the SLO optical system 130 and the optical path of the OCT optical system 140 are coupled by a dichroic mirror DM2. In an exemplary embodiment, at least part of the SLO optical system 130 is a telecentric optical system, at least a part of the OCT optical system 140 is a telecentric optical system, and the optical paths of these telecentric optical systems are coupled by a dichroic mirror DM2. The optical path. According to this example, even if the objective lens system 110 is moved to change the focal position of the optical system 100, the aberration of the pupil (for example, the exit pupil by the objective lens system 110) does not increase, so that the focus adjustment is facilitated. be able to.

<SLO光学系130>
SLO光学系130は、SLO光源131と、コリメートレンズ132と、ビームスプリッタBS2と、集光レンズ133と、共焦点絞り134と、検出器135と、光スキャナ136と、レンズ137とを含む。ビームスプリッタBS2は、被検眼Eに投射されるSLO光の光路とその戻り光の光路とを結合する。
<SLO optical system 130>
The SLO optical system 130 includes an SLO light source 131, a collimating lens 132, a beam splitter BS2, a condenser lens 133, a confocal diaphragm 134, a detector 135, an optical scanner 136, and a lens 137. The beam splitter BS2 combines the optical path of the SLO light projected on the eye E to be examined and the optical path of the return light thereof.

SLO光源131は、SLOに使用可能な波長の光を出力する。SLO光源131は、例えば、レーザーダイオード、スーパールミネッセントダイオード、又は、レーザードリブンライトソース等を含む。SLO光源131は、眼底共役位置P(又はその近傍)に配置されている。SLO光源131は、可視光源及び/又は赤外光源を含む。可視光源から出力される可視光は、眼底Efに固視標を投影するための固視光として用いられてよい。 The SLO light source 131 outputs light having a wavelength that can be used for the SLO. The SLO light source 131 includes, for example, a laser diode, a super luminescent diode, a laser driven light source, and the like. The SLO light source 131 is arranged at the fundus conjugate position P (or its vicinity). The SLO light source 131 includes a visible light source and / or an infrared light source. The visible light output from the visible light source may be used as the fixation light for projecting the fixation target onto the fundus Ef.

SLO光源131は、異なる波長帯の光を選択的に出力可能に構成されてもよい。また、SLO光源131は、波長帯が異なる2以上の光を並行して出力できるように構成されてもよい。SLO撮影には可視光及び赤外光の少なくとも一方が用いられる。 The SLO light source 131 may be configured to selectively output light in different wavelength bands. Further, the SLO light source 131 may be configured so that two or more lights having different wavelength bands can be output in parallel. At least one of visible light and infrared light is used for SLO imaging.

光スキャナ136は、X方向に光を偏向する光スキャナ136Xと、Y方向に光を偏向する光スキャナ136Yとを含む。光スキャナ136X及び136Yの一方は低速スキャナ(ガルバノミラー等)であり、他方は高速スキャナ(レゾナントミラー、ポリゴンミラー、MEMSミラー等)である。光スキャナ136Yの反射面は、瞳共役位置Q(又はその近傍)に配置されている。 The optical scanner 136 includes an optical scanner 136X that deflects light in the X direction and an optical scanner 136Y that deflects light in the Y direction. One of the optical scanners 136X and 136Y is a low-speed scanner (galvano mirror, etc.), and the other is a high-speed scanner (resonant mirror, polygon mirror, MEMS mirror, etc.). The reflective surface of the optical scanner 136Y is arranged at the pupil conjugate position Q (or its vicinity).

共焦点絞り134に形成された開口は、眼底共役位置P(又はその近傍)に配置されている。検出器135は、例えば、アバランシェフォトダイオード又は光電子増倍管を含んでいる。 The opening formed in the confocal diaphragm 134 is arranged at the fundus conjugate position P (or its vicinity). The detector 135 includes, for example, an avalanche photodiode or a photomultiplier tube.

SLO光源131から出力された光ビーム(SLO光)は、コリメートレンズ132により平行光束とされ、ビームスプリッタBS2を透過し、光スキャナ136により偏向され、レンズ137により屈折され、ダイクロイックミラーDM2を透過し、対物レンズ系110を介して眼底Efに投射される。眼底Efに投射されたSLO光の戻り光は、同じ光路を逆向きに進行してビームスプリッタBS2に導かれ、ビームスプリッタBS2により反射され、集光レンズ133により集光され、共焦点絞り134の開口を通過し、検出器135によって検出される。 The light beam (SLO light) output from the SLO light source 131 is converted into a parallel light beam by the collimating lens 132, is transmitted through the beam splitter BS2, is deflected by the optical scanner 136, is refracted by the lens 137, and is transmitted through the dichroic mirror DM2. , Is projected onto the fundus Ef via the objective lens system 110. The return light of the SLO light projected on the fundus Ef travels in the same optical path in the opposite direction, is guided to the beam splitter BS2, is reflected by the beam splitter BS2, is focused by the condenser lens 133, and is focused on the confocal aperture 134. It passes through the opening and is detected by the detector 135.

<OCT光学系140>
OCT光学系140は、合焦レンズ141と、光スキャナ142と、コリメートレンズ143と、干渉光学系150とを含む。
<OCT optical system 140>
The OCT optical system 140 includes a focusing lens 141, an optical scanner 142, a collimating lens 143, and an interference optical system 150.

合焦レンズ141は、OCT光学系140の光軸に沿って移動される。それにより、SLO光学系130とは独立に、OCT光学系140の焦点位置が変更される。対物レンズ系110の移動によりSLO光学系130及びOCT光学系140の合焦状態が調整された後、合焦レンズ141の移動によりOCT光学系140の合焦状態を微調整できる。 The focusing lens 141 is moved along the optical axis of the OCT optical system 140. As a result, the focal position of the OCT optical system 140 is changed independently of the SLO optical system 130. After the focusing state of the SLO optical system 130 and the OCT optical system 140 is adjusted by moving the objective lens system 110, the focusing state of the OCT optical system 140 can be finely adjusted by moving the focusing lens 141.

光スキャナ142は、X方向に光を偏向させる光スキャナ142Xと、Y方向に光を偏向させる光スキャナ142Yとを含む。光スキャナ142X及び142Yのそれぞれは、例えばガルバノミラーである。2つの光スキャナ142X及び142Yの中間位置は瞳共役位置Q(又はその近傍)に相当する。 The optical scanner 142 includes an optical scanner 142X that deflects light in the X direction and an optical scanner 142Y that deflects light in the Y direction. Each of the optical scanners 142X and 142Y is, for example, a galvano mirror. The intermediate position between the two optical scanners 142X and 142Y corresponds to the pupil conjugate position Q (or its vicinity).

コリメートレンズ143は、光ファイバf4のファイバ端c3から出射したOCT光(測定光)を平行光束として光スキャナ142に導き、且つ、眼底Efからの測定光の戻り光をファイバ端c3に向けて集光する。 The collimating lens 143 guides the OCT light (measurement light) emitted from the fiber end c3 of the optical fiber f4 to the optical scanner 142 as a parallel luminous flux, and collects the return light of the measurement light from the fundus Ef toward the fiber end c3. It glows.

干渉光学系150は、OCT光源151と、ファイバーカプラ152及び153と、参照プリズム154と、検出器155とを含む。干渉光学系150は、例えば、スウェプトソースOCT又はスペクトラルドメインOCTを実行するための構成を備える。スウェプトソースOCTでは、波長可変光源がOCT光源151として用いられ、バランスドフォトダイオードが検出器155として用いられる。スペクトラルドメインOCTでは、低コヒーレンス光源(広帯域光源)がOCT光源151として用いられ、分光器が検出器155として用いられる。 The interferometric optical system 150 includes an OCT light source 151, fiber couplers 152 and 153, a reference prism 154, and a detector 155. The interferometric optics 150 comprises, for example, a configuration for performing a swept source OCT or a spectral domain OCT. In swept source OCT, a tunable light source is used as the OCT light source 151, and a balanced photodiode is used as the detector 155. In the spectral domain OCT, a low coherence light source (broadband light source) is used as the OCT light source 151, and a spectroscope is used as the detector 155.

OCT光源151は、例えば、中心波長が1050nmの光を発する光ビームL0を発する。光L0は、光ファイバf1を通じてファイバーカプラ152に導かれて測定光LSと参照光LRとに分割される。 The OCT light source 151 emits, for example, a light beam L0 that emits light having a center wavelength of 1050 nm. The light L0 is guided by the fiber coupler 152 through the optical fiber f1 and is divided into the measurement light LS and the reference light LR.

参照光LRは、光ファイバf2を通じてファイバ出射端c1から出射し、コリメートレンズ156により平行光束とされ、参照プリズム154により折り返され、コリメートレンズ157により集束光束とされてファイバ入射端c2に入射し、光ファイバf3を通じてファイバーカプラ153に導かれる。参照プリズム154は、従来と同様に、参照光LRの光路長を変更するために移動される。更に、偏波コントローラやアッテネータや光路長補正部材や分散補償部材が、参照光の光路に設けられていてもよい。 The reference light LR is emitted from the fiber exit end c1 through the optical fiber f2, is converted into a parallel light flux by the collimating lens 156, is folded back by the reference prism 154, is converted into a focused light flux by the collimating lens 157, and is incident on the fiber incident end c2. It is guided to the fiber coupler 153 through the optical fiber f3. The reference prism 154 is moved to change the optical path length of the reference light LR as in the conventional case. Further, a polarization controller, an attenuator, an optical path length correction member, and a dispersion compensation member may be provided in the optical path of the reference light.

一方、ファイバーカプラ152により生成された測定光LSは、光ファイバf4を通じてファイバ端c3から出射し、コリメートレンズ143により平行光束とされ、光スキャナ142及び合焦レンズ141を経由し、ダイクロイックミラーDM2により反射され、対物レンズ系110により屈折されて眼底Efに投射される。測定光LSは、眼底Efの様々な深さ位置にて反射・散乱される。後方散乱光を含む測定光LSの戻り光は、同じ経路を逆向きに進行してファイバーカプラ152に導かれ、光ファイバf5を通じてファイバーカプラ153に到達する。 On the other hand, the measurement light LS generated by the fiber coupler 152 is emitted from the fiber end c3 through the optical fiber f4, is converted into a parallel light beam by the collimated lens 143, passes through the optical scanner 142 and the focusing lens 141, and is transmitted by the dichroic mirror DM2. It is reflected, refracted by the objective lens system 110, and projected onto the fundus Ef. The measurement light LS is reflected and scattered at various depth positions of the fundus Ef. The return light of the measurement light LS including the backscattered light travels in the opposite direction along the same path, is guided to the fiber coupler 152, and reaches the fiber coupler 153 through the optical fiber f5.

ファイバーカプラ153は、光ファイバf5を通じて入射した測定光LSと、光ファイバf3を通じて入射した参照光LRとを重ね合わせて干渉光を生成する。図1等はスウェプトソースOCTの場合を表す。ファイバーカプラ153は、所定の分岐比(例えば1:1)で干渉光を分岐して一対の干渉光LCを生成する。一対の干渉光LCは検出器155(バランスドフォトダイオード)により検出される。なお、スペクトラルドメインOCTの場合、検出器155(分光器)は、ファイバーカプラ153により生成された干渉光を複数の波長成分に分解して検出する。 The fiber coupler 153 superimposes the measurement light LS incident through the optical fiber f5 and the reference light LR incident through the optical fiber f3 to generate interference light. FIG. 1 and the like show the case of swept source OCT. The fiber coupler 153 branches the interference light at a predetermined branching ratio (for example, 1: 1) to generate a pair of interference light LCs. The pair of interference light LCs are detected by a detector 155 (balanced photodiode). In the case of spectral domain OCT, the detector 155 (spectrometer) decomposes the interference light generated by the fiber coupler 153 into a plurality of wavelength components and detects them.

検出器155は、一対の干渉光LCを検出した結果(検出信号)を図示しないデータ収集システム(Data Acquisition System。又はDAQ)に送る。データ収集システムには、OCT光源151からクロックが供給される。このクロックは、波長可変光源により所定の波長範囲内にて掃引される各波長の出力タイミングに同期して生成される。データ収集システムは、このクロックに基づいて検出信号をサンプリングする。サンプリング結果は、OCT画像を形成するためのプロセッサに送られる。 The detector 155 sends the result (detection signal) of detecting the pair of interference light LCs to a data acquisition system (Data Acquisition System, or DAQ) (not shown). A clock is supplied to the data acquisition system from the OCT light source 151. This clock is generated in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by a tunable light source. The data acquisition system samples the detection signal based on this clock. The sampling result is sent to the processor for forming the OCT image.

<処理系>
実施形態に係る眼科撮影装置の処理系の幾つかの構成例を説明する。図4に例示された処理系は、各種のデータ処理(信号処理、画像処理、演算、制御、記憶等)を実行するためのプロセッサを含む。
<Processing system>
Some configuration examples of the processing system of the ophthalmologic imaging apparatus according to the embodiment will be described. The processing system illustrated in FIG. 4 includes a processor for executing various data processing (signal processing, image processing, calculation, control, storage, etc.).

なお、「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。 The "processor" includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, a SPLD (Simple It means a circuit such as Device), FPGA (Field Programmable Gate Array)). The processor realizes the function according to the embodiment by reading and executing a program stored in a storage circuit or a storage device, for example.

<制御部200>
制御部200は、眼科撮影装置の各部を制御するための構成を備える。制御部200は、主制御部201と、記憶部202とを含む。主制御部201の機能はプロセッサ等により実現される。記憶部202には各種データや各種情報や各種コンピュータプログラムが記憶される。記憶部202は、半導体メモリや磁気記憶装置を含む。
<Control unit 200>
The control unit 200 includes a configuration for controlling each unit of the ophthalmologic imaging apparatus. The control unit 200 includes a main control unit 201 and a storage unit 202. The function of the main control unit 201 is realized by a processor or the like. Various data, various information, and various computer programs are stored in the storage unit 202. The storage unit 202 includes a semiconductor memory and a magnetic storage device.

眼科撮影装置が実行する処理は、ハードウェア資源(プロセッサ等)とソフトウェア(コンピュータプログラム等)との協働によって実現される。また、眼科撮影装置に設けられた各種の機構の少なくとも一部にはアクチュエータがそれぞれ設けられており、主制御部201はアクチュエータに向けて制御信号を送る。 The processing executed by the ophthalmologic imaging apparatus is realized by the cooperation of hardware resources (processor etc.) and software (computer program etc.). Further, an actuator is provided in at least a part of various mechanisms provided in the ophthalmologic imaging apparatus, and the main control unit 201 sends a control signal to the actuator.

<主制御部201>
主制御部201は、眼科撮影装置の各部を制御する。例えば、対物レンズ系110に関する制御の例として、主制御部201は、対物レンズユニット110A及び110Bの一方を光路に配置するための画角変更機構115の制御や、対物レンズ系110を光軸Oに沿って移動させるための図示しない移動機構の制御を実行することができる。
<Main control unit 201>
The main control unit 201 controls each unit of the ophthalmologic imaging apparatus. For example, as an example of control regarding the objective lens system 110, the main control unit 201 controls the angle of view changing mechanism 115 for arranging one of the objective lens units 110A and 110B in the optical path, and sets the objective lens system 110 on the optical axis O. It is possible to control a movement mechanism (not shown) for moving along the.

SLO光学系130に関する制御の例として、主制御部201は、SLO光源131の制御、光スキャナ136の制御、検出器135の制御を実行することができる。SLO光源131の制御には、点灯、消灯、波長帯の選択、光量の調整、絞りの調整などが含まれる。光スキャナ136の制御には、走査位置の制御、走査範囲の制御、走査パターンの制御、走査速度の制御などが含まれる。検出器135の制御には、検出素子の露光の調整、ゲインの調整、検出レートの調整などが含まれる。 As an example of control relating to the SLO optical system 130, the main control unit 201 can execute control of the SLO light source 131, control of the optical scanner 136, and control of the detector 135. The control of the SLO light source 131 includes turning on, turning off, selecting a wavelength band, adjusting the amount of light, adjusting the aperture, and the like. The control of the optical scanner 136 includes a control of a scanning position, a control of a scanning range, a control of a scanning pattern, a control of a scanning speed, and the like. Control of the detector 135 includes adjustment of the exposure of the detection element, adjustment of the gain, adjustment of the detection rate, and the like.

OCT光学系140に関する制御の例として、主制御部201は、OCT光源151の制御、光スキャナ142の制御、合焦レンズ141の移動制御、参照プリズム154の移動制御、検出器155の制御を実行することができる。OCT光源151の制御には、点灯、消灯、波長帯の選択、光量の調整、絞りの調整などが含まれる。光スキャナ142の制御には、走査位置の制御、走査範囲の制御、走査パターンの制御、走査速度の制御などが含まれる。検出器155の制御には、検出素子の露光の調整、ゲインの調整、検出レートの調整などが含まれる。 As an example of control relating to the OCT optical system 140, the main control unit 201 executes control of the OCT light source 151, control of the optical scanner 142, movement control of the focusing lens 141, movement control of the reference prism 154, and control of the detector 155. can do. The control of the OCT light source 151 includes turning on, turning off, selecting a wavelength band, adjusting the amount of light, adjusting the aperture, and the like. The control of the optical scanner 142 includes a control of a scanning position, a control of a scanning range, a control of a scanning pattern, a control of a scanning speed, and the like. The control of the detector 155 includes adjustment of the exposure of the detection element, adjustment of the gain, adjustment of the detection rate, and the like.

前眼部撮影系120に関する制御の例として、主制御部201は、前眼部照明光源121の制御、前眼部撮影カメラ123の制御などを実行することができる。前眼部照明光源121の制御には、点灯、消灯、光量の調整、絞りの調整などが含まれる。前眼部撮影カメラ123の制御には、撮像素子の露光の調整、ゲインの調整、撮影レートの調整などが含まれる。 As an example of control relating to the anterior segment imaging system 120, the main control unit 201 can execute control of the anterior segment illumination light source 121, control of the anterior segment imaging camera 123, and the like. The control of the anterior segment illumination light source 121 includes lighting, extinguishing, adjusting the amount of light, adjusting the aperture, and the like. The control of the anterior segment imaging camera 123 includes adjustment of the exposure of the image sensor, adjustment of the gain, adjustment of the imaging rate, and the like.

光学系100に関する制御の例として、光学系100をX方向、Y方向及びZ方向に移動するための光学系移動機構100Aの制御などがある。光学系移動機構100Aは、例えば、光学系をX方向に移動するための機構と、Y方向に移動するための機構と、Z方向に移動するための機構とを含む。これら機構のそれぞれは、例えば、駆動力を発生するアクチュエータを含む。このような電動機構の代わりに、又は、それに加えて、光学系移動機構100Aは力学的機構を含んでもよい。 An example of control relating to the optical system 100 is control of the optical system moving mechanism 100A for moving the optical system 100 in the X direction, the Y direction, and the Z direction. The optical system moving mechanism 100A includes, for example, a mechanism for moving the optical system in the X direction, a mechanism for moving the optical system in the Y direction, and a mechanism for moving the optical system in the Z direction. Each of these mechanisms includes, for example, an actuator that generates a driving force. Instead of or in addition to such an electric mechanism, the optical system moving mechanism 100A may include a mechanical mechanism.

SLO撮影を行うとき、主制御部201は、例えば、SLO光源131を所定のタイミングで点灯(点滅)させつつ、所定の走査パターン(例えばラスタースキャン)に応じて光スキャナ136を制御する。他の例において、主制御部201は、SLO光源131を連続点灯させつつ、所定の走査パターンに応じて光スキャナ136を制御する。 When performing SLO photographing, for example, the main control unit 201 controls the optical scanner 136 according to a predetermined scanning pattern (for example, raster scan) while lighting (blinking) the SLO light source 131 at a predetermined timing. In another example, the main control unit 201 controls the optical scanner 136 according to a predetermined scanning pattern while continuously lighting the SLO light source 131.

可視光で撮影を行う場合、主制御部201は、上記のような撮影制御を行いつつ、所定の固視位置に対応するタイミング(固視タイミング)でのみ、撮影用可視光と異なる可視光(固視用可視光)を出力するようにSLO光源131を制御する。固視タイミングにおいて、撮影用可視光の出力を停止するとともに固視用可視光を出力してもよい。或いは、固視タイミングにおいて、撮影用可視光と固視用可視光の双方を出力してもよい。 When shooting with visible light, the main control unit 201 performs the shooting control as described above, and only at the timing corresponding to the predetermined fixation position (fixation timing), the visible light different from the visible light for shooting (the visible light (fixation timing)). The SLO light source 131 is controlled so as to output (visible light for fixation). At the fixation timing, the output of visible light for photographing may be stopped and the visible light for fixation may be output. Alternatively, both visible light for photographing and visible light for fixation may be output at the fixation timing.

不可視光(赤外光)で撮影を行う場合、主制御部201は、上記のような撮影制御を行いつつ、所定の固視タイミングでのみ可視光を出力するようにSLO光源131を制御する。 When shooting with invisible light (infrared light), the main control unit 201 controls the SLO light source 131 so as to output visible light only at a predetermined fixation timing while performing the shooting control as described above.

OCTを行うとき、主制御部201は、OCT光源151を所定のタイミングで点灯(点滅)させつつ、所定の走査パターンに応じて光スキャナ142を制御する。他の例において、主制御部201は、OCT光源151を連続点灯させつつ、所定の走査パターンに応じて光スキャナ142を制御する。 When performing OCT, the main control unit 201 controls the optical scanner 142 according to a predetermined scanning pattern while lighting (blinking) the OCT light source 151 at a predetermined timing. In another example, the main control unit 201 controls the optical scanner 142 according to a predetermined scanning pattern while continuously lighting the OCT light source 151.

<記憶部202>
記憶部202には、眼科撮影装置により利用される情報、データ、プログラム等が記憶される。また、記憶部202には、眼科撮影装置により取得されたデータ(SLO画像、OCT画像、前眼部像等)が記憶される。
<Memory unit 202>
The storage unit 202 stores information, data, programs, and the like used by the ophthalmologic imaging apparatus. Further, the storage unit 202 stores data (SLO image, OCT image, anterior ocular region image, etc.) acquired by the ophthalmologic imaging apparatus.

<画像形成部210>
画像形成部210は、光学系100により収集されたデータに基づいて眼底Efの画像を形成する。この実施形態の眼科撮影装置はSLOとOCTの双方を実行可能であるので、画像形成部210は、SLO画像形成部211とOCT画像形成部212とを含む。
<Image forming unit 210>
The image forming unit 210 forms an image of the fundus Ef based on the data collected by the optical system 100. Since the ophthalmologic imaging apparatus of this embodiment can perform both SLO and OCT, the image forming unit 210 includes an SLO image forming unit 211 and an OCT image forming unit 212.

他の実施形態において、眼科撮影装置は、SLOとOCTのいずれか一方のみを実行可能であってよい。この場合、画像形成部210は、SLO画像形成部211とOCT画像形成部212のいずれか一方のみを含んでいてよい。 In other embodiments, the ophthalmologic imaging apparatus may be capable of performing only one of SLO and OCT. In this case, the image forming unit 210 may include only one of the SLO image forming unit 211 and the OCT image forming unit 212.

SLO画像形成部211は、SLO光学系130により収集されたデータに基づいてSLO画像を形成する。より具体的には、SLO画像形成部211は、従来のSLOと同様に、検出器135から入力される検出信号と、制御部200から入力される画素位置信号とに基づいて、SLO画像を形成する。 The SLO image forming unit 211 forms an SLO image based on the data collected by the SLO optical system 130. More specifically, the SLO image forming unit 211 forms an SLO image based on the detection signal input from the detector 135 and the pixel position signal input from the control unit 200, similarly to the conventional SLO. To do.

OCT画像形成部212は、OCT光学系140により収集されたデータに基づいてOCT画像を形成する。より具体的には、OCT画像形成部212は、検出器155から入力される検出信号と、制御部200から入力される画素位置信号とに基づいて、OCT画像を形成する。OCT画像形成部212は、従来と同様に、一連の波長走査毎に(Aライン毎に)、検出器155からの出力に基づきスペクトル分布を生成し、このスペクトル分布にフーリエ変換等の信号処理を施す。それにより、各Aラインにおける反射強度プロファイルが得られる。更に、OCT画像形成部212は、各Aラインの反射強度プロファイルを画像化することにより断面像(Bスキャン像)を形成する。 The OCT image forming unit 212 forms an OCT image based on the data collected by the OCT optical system 140. More specifically, the OCT image forming unit 212 forms an OCT image based on the detection signal input from the detector 155 and the pixel position signal input from the control unit 200. The OCT image forming unit 212 generates a spectral distribution based on the output from the detector 155 for each series of wavelength scans (for each A line) as in the conventional case, and performs signal processing such as Fourier transform on this spectral distribution. Give. Thereby, the reflection intensity profile in each A line is obtained. Further, the OCT image forming unit 212 forms a cross-sectional image (B scan image) by imaging the reflection intensity profile of each A line.

OCT画像形成部212は、複数のBスキャン像に基づいて3次元画像を形成することができる。この3次元画像は、スタックデータ、ボリュームデータ等の3次元データセットである。更に、OCT画像形成部212は、3次元データセットをレンダリングすることにより表示用画像を形成することができる。 The OCT image forming unit 212 can form a three-dimensional image based on a plurality of B-scan images. This three-dimensional image is a three-dimensional data set such as stack data and volume data. Further, the OCT image forming unit 212 can form a display image by rendering a three-dimensional data set.

画像形成部210は、前眼部撮影カメラ123からの出力に基づいて前眼部像を形成することができる。画像形成部210により形成された各種の画像(画像データ)は、例えば記憶部202に保存される。 The image forming unit 210 can form an anterior segment image based on the output from the anterior segment photographing camera 123. Various images (image data) formed by the image forming unit 210 are stored in, for example, a storage unit 202.

<データ処理部220>
データ処理部220は、各種のデータ処理を実行する。データ処理の例として、画像形成部210又は他の装置により形成された画像データに対する処理がある。この処理の例として、各種の画像処理や、画像に対する解析処理や、画像データに基づく画像評価などの診断支援処理がある。
<Data processing unit 220>
The data processing unit 220 executes various data processing. As an example of data processing, there is processing on image data formed by the image forming unit 210 or another device. Examples of this processing include various image processing, analysis processing for images, and diagnostic support processing such as image evaluation based on image data.

データ処理部220について図5〜図12を参照しつつ説明する。以下に説明する複数の例のうちのいずれか2つ以上を組み合わせることができる。 The data processing unit 220 will be described with reference to FIGS. 5 to 12. Any two or more of the plurality of examples described below can be combined.

データ処理部220は、OCTを用いて取得された眼底Efの3次元画像から正面画像を作成する機能(正面画像作成部)と、この正面画像とSLOにより取得された正面画像との間の一致度を評価する機能(評価部)とを備える。以下、これら機能を少なくとも備えた幾つかの例を説明する。 The data processing unit 220 matches the function of creating a front image from the three-dimensional image of the fundus Ef acquired by using OCT (front image creation unit) and the front image and the front image acquired by SLO. It has a function (evaluation unit) to evaluate the degree. Hereinafter, some examples having at least these functions will be described.

<データ処理部220A>
図5に示すデータ処理部220Aは、正面画像作成部221と、レジストレーション部222と、評価部223と、画像加工部224とを含む。
<Data processing unit 220A>
The data processing unit 220A shown in FIG. 5 includes a front image creating unit 221, a registration unit 222, an evaluation unit 223, and an image processing unit 224.

正面画像作成部221は、OCT画像形成部212(又は他のOCT装置)により形成された眼底Efの3次元画像から正面画像を形成する。このような正面画像をOCT正面画像と呼ぶことにする。OCT正面画像の典型的な例として、プロジェクション画像とシャドウグラムがある。 The front image creating unit 221 forms a front image from a three-dimensional image of the fundus Ef formed by the OCT image forming unit 212 (or another OCT device). Such a front image will be referred to as an OCT front image. Typical examples of OCT frontal images are projection images and shadowgrams.

プロジェクション画像は、3次元画像を所定方向に投影することによって作成される。典型的なSLO画像と同様に、眼底Efの3次元画像から作成されたOCT正面画像には、眼底Efの表面の形態が表現される。3次元画像を投影する方向は、典型的には、Z方向(深さ方向、軸方向、Aスキャン方向)である。 A projection image is created by projecting a three-dimensional image in a predetermined direction. Similar to a typical SLO image, the OCT front image created from the three-dimensional image of the fundus Ef expresses the morphology of the surface of the fundus Ef. The direction in which the three-dimensional image is projected is typically the Z direction (depth direction, axial direction, A scan direction).

シャドウグラムは、3次元画像の一部(例えば特定の層に相当する部分データ)を所定方向に投影することによって作成される。シャドウグラムには、選択された部分データ(典型的には3次元データ)に表現されている組織の形態が投影像として表現される。例えば、眼底Efの内境界膜(ILM)に相当する部分データから作成されたシャドウグラムには、内境界膜(眼底Efの表面)の形態が表現される。また、内網状層(IPL)と内顆粒層とを含む複合層に相当する部分データから作成されたシャドウグラムには、内網状層及び内顆粒層の形態が表現される。 A shadow gram is created by projecting a part of a three-dimensional image (for example, partial data corresponding to a specific layer) in a predetermined direction. In the shadow gram, the morphology of the tissue represented in the selected partial data (typically three-dimensional data) is represented as a projection image. For example, a shadowgram created from partial data corresponding to the internal limiting membrane (ILM) of the fundus Ef represents the morphology of the internal limiting membrane (the surface of the fundus Ef). In addition, the morphology of the inner plexiform layer and the inner nuclear layer is expressed in the shadow gram created from the partial data corresponding to the composite layer including the inner plexiform layer (IPL) and the inner nuclear layer.

本例の正面画像作成部221は、セグメンテーション部2211と、投影処理部2212とを含む。プロジェクション画像の作成のみが可能な実施形態では、セグメンテーション部2211を設ける必要はない。 The front image creating unit 221 of this example includes a segmentation unit 2211 and a projection processing unit 2212. In the embodiment in which only the projection image can be created, it is not necessary to provide the segmentation unit 2211.

セグメンテーション部2211は、OCTを用いて取得された3次元画像を解析して少なくとも1つのセグメントを特定する。特定されるセグメントは、典型的には、眼の層組織の画像又は層境界の画像である(層領域)。このような処理はセグメンテーションと呼ばれ、例えばZ方向における画素値(輝度値)の変化に基づき実行される。 The segmentation unit 2211 analyzes the three-dimensional image acquired by using OCT to identify at least one segment. The segment identified is typically an image of the layered tissue of the eye or an image of the layer boundary (layer area). Such processing is called segmentation, and is executed based on, for example, a change in the pixel value (luminance value) in the Z direction.

眼底Efの3次元画像から特定されるセグメントの例として、内境界膜の画像、神経線維層の画像、神経節細胞層の画像、内網状層の画像、内顆粒層の画像、外網状層の画像、外顆粒層の画像、外境界膜の画像、網膜色素上皮の画像、ブルッフ膜の画像、脈絡膜の画像、脈絡膜強膜境界の画像、強膜の画像などがある。 Examples of segments identified from the three-dimensional image of the fundus Ef include the image of the internal limiting membrane, the image of the nerve fiber layer, the image of the ganglion cell layer, the image of the inner nuclear layer, the image of the inner nuclear layer, and the outer nuclear layer. There are images, images of the outer nuclear layer, images of the outer limiting membrane, images of retinal pigment epithelium, images of Bruch's membrane, images of choroid, images of choroidal sclera, images of sclera, and the like.

一例において、セグメンテーション部2211は、3次元画像に描出された複数のセグメントを特定する処理と、特定された複数のセグメントのうちから注目する1以上のセグメントを選択する処理とを実行するように構成される。この場合、選択された1以上のセグメントのデータ、又は、選択された1以上のセグメントを示す情報が、投影処理部2212に送られる。 In one example, the segmentation unit 2211 is configured to execute a process of specifying a plurality of segments depicted in a three-dimensional image and a process of selecting one or more segments of interest from the specified plurality of segments. Will be done. In this case, the data of one or more selected segments or the information indicating the selected one or more segments is sent to the projection processing unit 2212.

他の例において、セグメンテーション部2211は、3次元画像から注目する部分データ(3次元データ)を抽出する処理と、抽出された部分データに描出された1以上のセグメントを特定する処理とを実行するように構成される。この場合、特定された1以上のセグメントのデータ、又は、特定された1以上のセグメントを示す情報が、投影処理部2212に送られる。 In another example, the segmentation unit 2211 executes a process of extracting the partial data (three-dimensional data) of interest from the three-dimensional image and a process of specifying one or more segments drawn in the extracted partial data. It is configured as follows. In this case, the data of one or more specified segments or the information indicating the specified one or more segments is sent to the projection processing unit 2212.

投影処理部2212は、セグメンテーション部2211から送られた1以上のセグメントのデータを所定方向に投影することによりシャドウグラムを作成する。この投影処理は、例えば、Z方向に一列に配列された画素群の輝度値を加算する処理を含む。 The projection processing unit 2212 creates a shadow gram by projecting data of one or more segments sent from the segmentation unit 2211 in a predetermined direction. This projection process includes, for example, a process of adding the luminance values of the pixel groups arranged in a row in the Z direction.

プロジェクション画像を作成する場合、投影処理部2212は、OCTを用いて取得された3次元画像を所定方向に投影する。 When creating a projection image, the projection processing unit 2212 projects a three-dimensional image acquired by using OCT in a predetermined direction.

いずれの場合においても、投影方向はZ方向に限定されず、任意方向であってよい。例えば、注目セグメントの向き又は他の組織の向きに基づいて投影方向を決定することができる。注目セグメントの向きを考慮する場合、例えば、注目セグメントの前面(前眼部側の面)の法線又は後面の法線を求め、この法線の向きに基づき投影方向を決定することができる。他の組織の向きを考慮する場合には、例えば、眼底Efの表面の法線の向き、眼底Ef内部の特定層の法線の向き、視神経乳頭の凹み方向、黄斑の凹み方向、眼軸の向き、視軸の向きなどに基づいて、投影方向を決定することができる。 In any case, the projection direction is not limited to the Z direction and may be any direction. For example, the projection direction can be determined based on the orientation of the segment of interest or the orientation of other tissues. When considering the orientation of the segment of interest, for example, the normal of the front surface (the surface on the anterior segment side) or the normal of the posterior surface of the segment of interest can be obtained, and the projection direction can be determined based on the orientation of this normal. When considering the orientation of other tissues, for example, the orientation of the surface normal of the fundus Ef, the orientation of the normal of a specific layer inside the fundus Ef, the dent direction of the optic nerve head, the dent direction of the yellow spot, the direction of the axis The projection direction can be determined based on the orientation, the orientation of the visual axis, and the like.

レジストレーション部222は、眼底EfのSLO画像と、投影処理部2212により形成されたOCT正面画像との間の位置合わせ(レジストレーション)を行う。レジストレーションは、例えば、それぞれの画像から特徴領域を検出する第1処理と、双方から検出された特徴領域を基準として双方の画像を位置合わせする第2処理とを含む。 The registration unit 222 performs alignment (registration) between the SLO image of the fundus Ef and the OCT front image formed by the projection processing unit 2212. Registration includes, for example, a first process of detecting a feature region from each image and a second process of aligning both images with reference to the feature regions detected from both.

第1処理で検出される特徴領域は、例えば、視神経乳頭に相当する領域、黄斑に相当する領域、血管に相当する領域、病変部に相当する領域、レーザー治療痕に相当する領域のいずれかであってよい。第1処理において、レジストレーション部222は、画素値や画素配列を参照して特徴領域を検出することができる。 The characteristic region detected in the first treatment is, for example, any of a region corresponding to the optic nerve head, a region corresponding to the macula, a region corresponding to a blood vessel, a region corresponding to a lesion, and a region corresponding to a laser treatment scar. It may be there. In the first process, the registration unit 222 can detect the feature region by referring to the pixel value and the pixel arrangement.

第2処理において、レジストレーション部222は、例えば、SLO画像から検出された特徴領域とOCT正面画像から検出された特徴領域とができるだけ一致するように、SLO画像とOCT正面画像との相対位置を調整する。このとき、レジストレーション部222は、特徴領域の輪郭や代表点(中心点、重心点等)を特定し、それらを一致させるようにレジストレーションを行ってもよい。 In the second process, the registration unit 222, for example, sets the relative position of the SLO image and the OCT front image so that the feature area detected from the SLO image and the feature area detected from the OCT front image match as much as possible. adjust. At this time, the registration unit 222 may specify the contour and representative points (center point, center of gravity point, etc.) of the feature region, and perform registration so as to match them.

本例のレジストレーション部222は、前処理部2221と、特徴点検出部2222と、位置合わせ部2223とを含む。 The registration unit 222 of this example includes a pretreatment unit 2221, a feature point detection unit 2222, and an alignment unit 2223.

前処理部2221は、画像中の特徴点の検出を容易にするための処理(前処理)を実行する。後述のように、本例では、特徴点を検出するためにエッジ検出が実行される。エッジ検出の精度は、画像中の特徴点が鮮明であるほど向上する。本例の前処理は、画像中の特徴点を鮮明化するための処理(ノイズ低減、ノイズ除去、コントラスト調整等)を含んでよい。 The pre-processing unit 2221 executes a process (pre-processing) for facilitating the detection of feature points in the image. As will be described later, in this example, edge detection is performed to detect feature points. The accuracy of edge detection improves as the feature points in the image become clearer. The preprocessing of this example may include processing for sharpening feature points in an image (noise reduction, noise removal, contrast adjustment, etc.).

本例の前処理は、ガンマ曲線補正、シグモイド曲線補正、輝度補正、ガウシアンフィルタ、及びメディアンフィルタのうちの少なくとも1つを含んでいてよい。ガンマ補正は、画像の階調の応答特性を示すガンマ値に関する公知の非線形輝度変換である。シグモイド曲線補正は、シグモイド関数(シグモイド曲線)を用いた公知の非線形輝度変換である。輝度補正は、画像の輝度値が或る範囲に偏って分布している場合に、この輝度分布をより広範囲に拡張する公知の輝度変換である。ガウシアンフィルタは、ガウス関数を用いた公知のスムージング処理(ノイズ低減処理)である。メディアンフィルタは、特定画素の値を、その周囲の画素群の輝度値の中央値に変換する公知のスムージング処理(ノイズ低減処理)である。 The pretreatment of this example may include at least one of a gamma curve correction, a sigmoid curve correction, a brightness correction, a Gaussian filter, and a median filter. Gamma correction is a known nonlinear luminance conversion for a gamma value that indicates the response characteristics of the gradation of an image. The sigmoid curve correction is a known nonlinear luminance conversion using a sigmoid function (sigmoid curve). Luminance correction is a known luminance conversion that extends this luminance distribution over a wider range when the luminance values of an image are unevenly distributed in a certain range. The Gaussian filter is a known smoothing process (noise reduction process) using a Gaussian function. The median filter is a known smoothing process (noise reduction process) that converts the value of a specific pixel into the median value of the brightness values of the surrounding pixel groups.

前処理部2221は、SLO画像及びOCT正面画像のそれぞれに対し、例えば次の種類の処理を次の順序で適用する:ガンマ補正又はシグモイド曲線補正;輝度補正;ガウシアンフィルタ;メディアンフィルタ。なお、前処理部2221が実行する処理の種類や順序は、これに限定されない。また、前処理部2221は、SLO画像及びOCT正面画像のいずれか一方のみに対して前処理を適用してもよい。また、前処理部2221は、前処理を適用するか否か判断したり、適用される処理の種別を決定したり、処理の順序を決定したりすることが可能に構成されてもよい。 The preprocessing unit 2221 applies, for example, the following types of processing to each of the SLO image and the OCT front image in the following order: gamma correction or sigmoid curve correction; brightness correction; Gaussian filter; median filter. The type and order of processing executed by the preprocessing unit 2221 is not limited to this. Further, the preprocessing unit 2221 may apply the preprocessing to only one of the SLO image and the OCT front image. Further, the pre-processing unit 2221 may be configured to be able to determine whether or not to apply the pre-processing, determine the type of processing to be applied, and determine the order of processing.

特徴点検出部2222は、SLO画像を解析して複数の特徴点(第1特徴点群)を検出する。更に、特徴点検出部2222は、OCT正面画像を解析して複数の特徴点(第2特徴点群)を検出する。ここで、SLO画像及びOCT正面画像の少なくとも一方は、前処理が施された画像である。典型的には、SLO画像及びOCT正面画像ともに前処理が施された画像である。 The feature point detection unit 2222 analyzes the SLO image and detects a plurality of feature points (first feature point group). Further, the feature point detection unit 2222 analyzes the OCT front image to detect a plurality of feature points (second feature point group). Here, at least one of the SLO image and the OCT front image is a preprocessed image. Typically, both the SLO image and the OCT front image are preprocessed images.

本例の特徴点検出部2222は、SLO画像にエッジ検出を適用することで、SLO画像に描出された血管等の特徴部位のエッジを表す第1特徴点群を検出する。同様に、本例の特徴点検出部2222は、OCT正面画像にエッジ検出を適用することで、OCT正面画像に描出された血管等の特徴部位のエッジを表す第2特徴点群を検出する。なお、特徴点の検出に適用される方法は、エッジ検出に限定されない。 By applying edge detection to the SLO image, the feature point detection unit 2222 of this example detects a first feature point group representing an edge of a feature portion such as a blood vessel depicted in the SLO image. Similarly, the feature point detection unit 2222 of this example detects the second feature point group representing the edge of the feature portion such as a blood vessel drawn in the OCT front image by applying the edge detection to the OCT front image. The method applied to the detection of feature points is not limited to edge detection.

特徴点の個数が多過ぎると後段の画像位置合わせの処理時間が増大する。そこで、特徴点検出部2222は、SLO画像から検出された特徴点の個数を間引きして第1特徴点群を生成することができる。同様に、特徴点検出部2222は、OCT正面画像から検出された特徴点の個数を間引きして第2特徴点群を生成することができる。 If the number of feature points is too large, the processing time for image alignment in the subsequent stage increases. Therefore, the feature point detection unit 2222 can generate the first feature point cloud by thinning out the number of feature points detected from the SLO image. Similarly, the feature point detection unit 2222 can generate a second feature point group by thinning out the number of feature points detected from the OCT front image.

位置合わせ部2223は、SLO画像から検出された第1特徴点群及びOCT正面画像から検出された第2特徴点群に基づいて、SLO画像とOCT正面画像との間の位置合わせを行う。 The alignment unit 2223 aligns the SLO image and the OCT front image based on the first feature point group detected from the SLO image and the second feature point group detected from the OCT front image.

本例の画像位置合わせでは、例えば、SLO画像が基準画像に設定され、OCT正面画像が比較画像に設定される。この場合、SLO画像に対してOCT正面画像の位置が調整される。この位置調整には、画像の向きの調整、及び、画像のサイズの調整の少なくとも一方が含まれてよい。 In the image alignment of this example, for example, the SLO image is set as the reference image and the OCT front image is set as the comparison image. In this case, the position of the OCT front image is adjusted with respect to the SLO image. This position adjustment may include at least one of adjusting the orientation of the image and adjusting the size of the image.

複数のSLO画像が存在する場合、位置合わせ部2223は、これらSLO画像のうちから基準画像を選択することができる。この選択は、例えば、複数のSLO画像のそれぞれのコントラストを評価する処理と、評価値が最大のSLO画像を特定する処理とを含む。これにより特定されたSLO画像を基準画像として設定することができる。 When a plurality of SLO images are present, the alignment unit 2223 can select a reference image from these SLO images. This selection includes, for example, a process of evaluating the contrast of each of the plurality of SLO images and a process of identifying the SLO image having the maximum evaluation value. The SLO image specified by this can be set as a reference image.

SLO画像中の第1特徴点群とOCT正面画像中の第2特徴点群との間の変位が大きい場合、位置合わせのための探索範囲が広くなり、処理時間が増大する可能性がある。そこで、本例では、上記変位が大きい場合の処理時間と小さい場合の処理時間との差が小さい移動限定相関法を用いる。なお、位置合わせに適用される方法は、位相限定相関法に限定されない。 When the displacement between the first feature point cloud in the SLO image and the second feature point cloud in the OCT front image is large, the search range for alignment becomes wide and the processing time may increase. Therefore, in this example, the movement-limited correlation method is used in which the difference between the processing time when the displacement is large and the processing time when the displacement is small is small. The method applied to the alignment is not limited to the phase-limited correlation method.

位相限定相関法を用いる本例において、位置合わせ部2223は、SLO画像(基準画像)にフーリエ変換を適用して振幅特性と位相特性とを求める。同様に、位置合わせ部2223は、OCT正面画像(比較画像)にフーリエ変換を適用して振幅特性と位相特性とを求める。次に、位置合わせ部2223は、SLO画像の位相特性とOCT正面画像の位相特性との間の差分を求める。次に、位置合わせ部2223は、求められた差分に逆フーリエ変換を適用することで、SLO画像に対するOCT正面画像の変位を打ち消すようなOCT正面画像の移動方向及び移動量を求める。最後に、位置合わせ部2223は、求められた移動方向及び移動量に基づきOCT正面画像を移動させることで、SLO画像とOCT正面画像との間の位置合わせを行う。 In this example using the phase-limited correlation method, the alignment unit 2223 applies a Fourier transform to the SLO image (reference image) to obtain the amplitude characteristic and the phase characteristic. Similarly, the alignment unit 2223 applies a Fourier transform to the OCT front image (comparative image) to obtain the amplitude characteristic and the phase characteristic. Next, the alignment unit 2223 obtains the difference between the phase characteristic of the SLO image and the phase characteristic of the OCT front image. Next, the alignment unit 2223 obtains the moving direction and the moving amount of the OCT front image so as to cancel the displacement of the OCT front image with respect to the SLO image by applying the inverse Fourier transform to the obtained difference. Finally, the alignment unit 2223 aligns the SLO image and the OCT front image by moving the OCT front image based on the obtained movement direction and movement amount.

評価部223は、SLO画像とOCT正面画像との間の一致度を評価する。本例では、評価部223は、レジストレーション部222によって相対的な位置が調整されたSLO画像及びOCT正面画像について、これらの一致の程度を表す値(評価値)を算出する。 The evaluation unit 223 evaluates the degree of agreement between the SLO image and the OCT front image. In this example, the evaluation unit 223 calculates a value (evaluation value) indicating the degree of agreement between the SLO image and the OCT front image whose relative positions are adjusted by the registration unit 222.

評価部223により評価される一致度には、例えば、SLO画像とOCT正面画像との間の位置の一致度だけでなく、SLO画像に描出されている組織とOCT正面画像に描出されている組織との一致度も反映される。例えば、レジストレーションが高精度・高確度で行われたとしても、SLO画像に描出された眼底Efの深さ領域とOCT正面画像に描出された眼底Efの深さ領域とが相違する場合には、SLO画像とOCT正面画像との間の一致度は低くなる。 The degree of matching evaluated by the evaluation unit 223 includes, for example, not only the degree of matching of the position between the SLO image and the OCT front image, but also the tissue depicted in the SLO image and the tissue depicted in the OCT front image. The degree of agreement with is also reflected. For example, even if registration is performed with high accuracy and high accuracy, if the depth region of the fundus Ef depicted in the SLO image and the depth region of the fundus Ef depicted in the OCT front image are different. , The degree of agreement between the SLO image and the OCT front image is low.

SLO画像とOCT正面画像との間の一致度を評価する方法は任意である。例えば、本例の評価部223は、レジストレーション後のSLO画像及びOCT正面画像について、これらの差分画像を作成する。この処理は、例えば、SLO画像の画素とOCT正面画像の画素との間の対応付けと、対応付けられた画素の間における輝度値の差を算出する処理とを含む。 The method of evaluating the degree of agreement between the SLO image and the OCT front image is arbitrary. For example, the evaluation unit 223 of this example creates a difference image between the SLO image and the OCT front image after registration. This process includes, for example, a process of associating the pixels of the SLO image with the pixels of the OCT front image and a process of calculating the difference in the luminance value between the associated pixels.

更に、評価部223は、求められた複数の差を積分する。この積分値は、一致度が高いほど小さくなり、逆に一致度が低いほど大きくなる。この積分値が、SLO画像とOCT正面画像との間の一致度を示す評価値として用いられる。評価値はこれに限定されず、任意の方法で評価値を求めることができる。 Further, the evaluation unit 223 integrates the obtained plurality of differences. This integral value becomes smaller as the degree of agreement is higher, and conversely becomes larger as the degree of agreement is lower. This integrated value is used as an evaluation value indicating the degree of agreement between the SLO image and the OCT front image. The evaluation value is not limited to this, and the evaluation value can be obtained by any method.

画像加工部224は、評価部223により求められた一致度の評価値が所定条件を満足するときに、SLO画像に基づいてOCT正面画像を加工する。この条件については、幾つかの例を後述する(図6及び図7を参照)。 The image processing unit 224 processes the OCT front image based on the SLO image when the evaluation value of the degree of matching obtained by the evaluation unit 223 satisfies a predetermined condition. Some examples of this condition will be described later (see FIGS. 6 and 7).

画像加工部224が実行する処理の例を説明する。第1の例において、画像加工部224は、SLO画像とOCT正面画像との合成画像を作成することができる。この合成画像は、例えば、評価部223によるSLO画像の画素とOCT正面画像の画素との対応付けに基づいて、SLOの画素の輝度値とOCTの画素の輝度値との統計値を算出する処理を含む。この統計演算は、例えば、算術平均又は重み付け平均を含む。 An example of the processing executed by the image processing unit 224 will be described. In the first example, the image processing unit 224 can create a composite image of the SLO image and the OCT front image. This composite image is, for example, a process of calculating the statistical value of the brightness value of the SLO pixel and the brightness value of the OCT pixel based on the correspondence between the pixel of the SLO image and the pixel of the OCT front image by the evaluation unit 223. including. This statistical operation includes, for example, arithmetic mean or weighted mean.

第2の例において、画像加工部224は、SLO画像の一部をOCT正面画像に埋め込む。一般に、SLO画像の横方向分解能は、OCT正面画像の横方向分解能よりも高い。そのため、SLO画像には描出されているが、OCT正面画像には描出されていない部位が存在する場合がある。また、SLO画像では鮮明に描出されているが、OCT正面画像では鮮明に描出されていない部位が存在する場合がある。 In the second example, the image processing unit 224 embeds a part of the SLO image in the OCT front image. Generally, the lateral resolution of the SLO image is higher than the lateral resolution of the OCT front image. Therefore, there may be a portion that is drawn in the SLO image but not in the OCT front image. In addition, there may be a portion that is clearly depicted in the SLO image but not clearly depicted in the OCT front image.

本例において実行可能な処理について説明する。画像加工部224は、SLO画像とOCT正面画像との差分画像を取得する。差分画像は、評価部223により作成された前述の差分画像でもよいし、画像加工部224により作成された差分画像でもよい。差分画像は、例えば、SLO画像の画素値からOCT正面画像の画素値を減算することにより作成される。 The processes that can be executed in this example will be described. The image processing unit 224 acquires a difference image between the SLO image and the OCT front image. The difference image may be the above-mentioned difference image created by the evaluation unit 223 or the difference image created by the image processing unit 224. The difference image is created, for example, by subtracting the pixel value of the OCT front image from the pixel value of the SLO image.

例えば、画像加工部224は、差分画像の画素値をOCT正面画像の画素値に加算することにより新たなOCT正面画像を作成する。これにより、SLO画像の一部がOCT正面画像に埋め込まれる。 For example, the image processing unit 224 creates a new OCT front image by adding the pixel value of the difference image to the pixel value of the OCT front image. As a result, a part of the SLO image is embedded in the OCT front image.

或いは、画像加工部224は、差分画像に対応するSLO画像中の画像領域を特定し、特定された画像領域の画素値をOCT正面画像の画素値に加算することで新たなOCT正面画像を作成する。これにより、SLO画像の一部がOCT正面画像に埋め込まれる。 Alternatively, the image processing unit 224 creates a new OCT front image by specifying an image area in the SLO image corresponding to the difference image and adding the pixel value of the specified image area to the pixel value of the OCT front image. To do. As a result, a part of the SLO image is embedded in the OCT front image.

他の例において、主制御部201は、SLO画像(及びOCT正面画像)をユーザインターフェイス部230に表示させる。ユーザは、ユーザインターフェイス部230を用いて、SLO画像中の所望の画像領域を指定する。画像加工部224は、指定された画像領域に対応するOCT正面画像中の画像領域を特定する。更に、画像加工部224は、OCT正面画像中の画像領域をSLO画像中の画像領域で置換する。これにより、SLO画像の一部がOCT正面画像に埋め込まれる。 In another example, the main control unit 201 causes the user interface unit 230 to display the SLO image (and the OCT front image). The user uses the user interface unit 230 to specify a desired image area in the SLO image. The image processing unit 224 identifies an image area in the OCT front image corresponding to the designated image area. Further, the image processing unit 224 replaces the image area in the OCT front image with the image area in the SLO image. As a result, a part of the SLO image is embedded in the OCT front image.

更に他の例において、主制御部201は、OCT正面画像(及びSLO画像)をユーザインターフェイス部230に表示させる。ユーザは、ユーザインターフェイス部230を用いて、OCT正面画像中の所望の画像領域を指定する。画像加工部224は、指定された画像領域に対応するSLO画像中の画像領域を特定する。更に、画像加工部224は、OCT正面画像中の画像領域をSLO画像中の画像領域で置換する。これにより、SLO画像の一部がOCT正面画像に埋め込まれる。 In yet another example, the main control unit 201 causes the user interface unit 230 to display an OCT front image (and an SLO image). The user uses the user interface unit 230 to specify a desired image area in the OCT front image. The image processing unit 224 identifies an image area in the SLO image corresponding to the designated image area. Further, the image processing unit 224 replaces the image area in the OCT front image with the image area in the SLO image. As a result, a part of the SLO image is embedded in the OCT front image.

画像加工部224が実行する処理の第3の例を説明する。本例において、画像加工部224は、SLO画像に基づいてOCT正面画像の画素値を調整する。前述したように、SLO画像では鮮明に描出されているが、OCT正面画像では鮮明に描出されていない部位が存在する場合がある。OCT正面画像の鮮明化に本例を用いることができる。以下、図6A〜図6Bを参照する。 A third example of the process executed by the image processing unit 224 will be described. In this example, the image processing unit 224 adjusts the pixel value of the OCT front image based on the SLO image. As described above, there may be a portion that is clearly depicted in the SLO image but not clearly depicted in the OCT front image. This example can be used to sharpen the OCT front image. Hereinafter, FIGS. 6A to 6B will be referred to.

図6Aに示す画像G1は、OCT正面画像(の一部)である。OCT正面画像G1に示すグリッドは、画素の配置を表している。OCT正面画像G1には、眼底Efの血管が描出されている。図6Bは、図示しないSLO画像に描出されている当該血管Vと、OCT正面画像G1との位置関係を示す。血管Vの輪郭(境界)を符号V1及びV2で示す。OCT正面画像G1と、血管Vの輪郭V1及びV2との位置関係から分かるように、OCT正面画像G1に描出された血管Vの輪郭は不鮮明である。 Image G1 shown in FIG. 6A is (a part of) an OCT front image. The grid shown in the OCT front image G1 represents the arrangement of pixels. The blood vessels of the fundus Ef are depicted in the OCT frontal image G1. FIG. 6B shows the positional relationship between the blood vessel V depicted in the SLO image (not shown) and the OCT front image G1. The contours (boundaries) of blood vessels V are indicated by the symbols V1 and V2. As can be seen from the positional relationship between the OCT front image G1 and the contours V1 and V2 of the blood vessel V, the contour of the blood vessel V drawn in the OCT front image G1 is unclear.

画像加工部224は、血管Vの輪郭V1及びV2がより鮮明に描出されるようにOCT正面画像G1の画素値を調整する。例えば、画像加工部224は、図6Cに示すように、画素p1、p2及びp4の輝度値を小さくし、且つ、画素p3の輝度値を大きくすることにより、新たなOCT正面画像G2を作成する。加工後のOCT正面画像G2には、加工前のOCT正面画像G1と比較して、血管Vの輪郭V1及びV2がより鮮明に描出されている。 The image processing unit 224 adjusts the pixel value of the OCT front image G1 so that the contours V1 and V2 of the blood vessel V are drawn more clearly. For example, as shown in FIG. 6C, the image processing unit 224 creates a new OCT front image G2 by reducing the luminance values of the pixels p1, p2, and p4 and increasing the luminance values of the pixels p3. .. In the OCT front image G2 after processing, the contours V1 and V2 of the blood vessel V are more clearly depicted as compared with the OCT front image G1 before processing.

<データ処理部220B>
図7に示すデータ処理部220Bは、正面画像作成部221と、レジストレーション部222と、評価部223と、画像特定部225と、画像加工部224とを含む。正面画像作成部221、レジストレーション部222、評価部223、及び画像加工部224は、データ処理部220Aのそれらと同様に構成されてよい。
<Data processing unit 220B>
The data processing unit 220B shown in FIG. 7 includes a front image creation unit 221, a registration unit 222, an evaluation unit 223, an image identification unit 225, and an image processing unit 224. The front image creation unit 221, the registration unit 222, the evaluation unit 223, and the image processing unit 224 may be configured in the same manner as those of the data processing unit 220A.

本例の正面画像作成部221は、OCTを用いて取得された3次元画像から、深さ領域が異なる複数のOCT正面画像を作成する。深さ領域は、例えば、自動又は手動で設定される。異なる深さ領域は、互いに排他的であってもよいし、これらの間にオーバーラップが存在してもよい。 The front image creation unit 221 of this example creates a plurality of OCT front images having different depth regions from the three-dimensional images acquired by using OCT. The depth region is set, for example, automatically or manually. The different depth regions may be exclusive to each other or there may be an overlap between them.

例えば、正面画像作成部221は、網膜表層に相当するOCT正面画像と、網膜中層に相当するOCT正面画像と、網膜深層に相当するOCT正面画像と、脈絡膜に相当するOCT正面画像とを作成することができる。 For example, the front image creating unit 221 creates an OCT front image corresponding to the surface layer of the retina, an OCT front image corresponding to the middle layer of the retina, an OCT front image corresponding to the deep layer of the retina, and an OCT front image corresponding to the choroid. be able to.

本例のレジストレーション部222は、正面画像作成部221により作成された複数のOCT正面画像のそれぞれと、SLO画像との間のレジストレーションを行う。 The registration unit 222 of this example performs registration between each of the plurality of OCT front images created by the front image creation unit 221 and the SLO image.

なお、SLO画像に描出された深さ領域とOCT正面画像に描出された深さ領域とがオーバーラップしない場合など、互いの深さ領域が大きく異なる場合には、SLO画像とOCT正面画像とのレジストレーションを行えない場合がある。また、互いの深さ領域のオーバーラップが小さい場合などには、レジストレーションの確度や精度が低くなることがある。このようなOCT正面画像を以降の処理の対象から除外することができる。 When the depth regions drawn in the SLO image and the depth regions drawn in the OCT front image do not overlap each other, or when the depth regions are significantly different from each other, the SLO image and the OCT front image are used. Registration may not be possible. Further, when the overlap between the depth regions is small, the accuracy and accuracy of registration may be low. Such an OCT front image can be excluded from the target of subsequent processing.

本例の評価部223は、正面画像作成部221により作成された複数のOCT正面画像のそれぞれと、SLO画像との間の一致度を評価する。前述のように、複数のOCT正面画像のいずれかを評価処理から除外することができる。 The evaluation unit 223 of this example evaluates the degree of agreement between each of the plurality of OCT front images created by the front image creation unit 221 and the SLO image. As described above, any one of the plurality of OCT front images can be excluded from the evaluation process.

画像特定部225は、複数のOCT正面画像について評価部223により求められた複数の評価値のうちの最大値に対応するOCT正面画像を特定する。 The image specifying unit 225 identifies the OCT front image corresponding to the maximum value among the plurality of evaluation values obtained by the evaluation unit 223 for the plurality of OCT front images.

例えば、SLO画像が網膜表層を描出しており、且つ、網膜表層に相当するOCT正面画像の評価値「a1」と、網膜中層に相当するOCT正面画像の評価値「a2」と、網膜深層に相当するOCT正面画像の評価値「a3」と、脈絡膜に相当するOCT正面画像の評価値「a4」とが得られたとする。この場合、画像特定部225は、これら評価値「a1」〜「a4」を比較して、これらのうちの最大値を特定する。本例では、評価値「a1」が最大値として特定される。 For example, the SLO image depicts the surface layer of the retina, and the evaluation value "a1" of the OCT front image corresponding to the surface layer of the retina, the evaluation value "a2" of the front image of the OCT corresponding to the middle layer of the retina, and the deep layer of the retina. It is assumed that the evaluation value "a3" of the corresponding OCT front image and the evaluation value "a4" of the OCT front image corresponding to the choroid are obtained. In this case, the image specifying unit 225 compares these evaluation values "a1" to "a4" and specifies the maximum value among them. In this example, the evaluation value "a1" is specified as the maximum value.

画像特定部225は、最大値に対応するOCT正面画像(本例では網膜表層に相当するOCT正面画像)を特定する。 The image specifying unit 225 identifies the OCT front image (in this example, the OCT front image corresponding to the surface layer of the retina) corresponding to the maximum value.

本例の画像加工部224は、画像特定部225により特定されたOCT正面画像をSLO画像に基づいて加工する。 The image processing unit 224 of this example processes the OCT front image specified by the image specifying unit 225 based on the SLO image.

なお、画像特定部225は、2以上のOCT正面画像を特定してもよい。この場合、画像加工部224は、特定された2以上のOCT正面画像のそれぞれを、SLO画像に基づいて加工することができる。或いは、画像加工部224は、特定された2以上のOCT正面画像から新たなOCT正面画像(例えば合成画像)を作成し、この新たなOCT正面画像をSLO画像に基づき加工することができる。 The image specifying unit 225 may specify two or more OCT front images. In this case, the image processing unit 224 can process each of the two or more specified OCT front images based on the SLO image. Alternatively, the image processing unit 224 can create a new OCT front image (for example, a composite image) from two or more specified OCT front images, and process the new OCT front image based on the SLO image.

一例において、画像特定部225は、評価値が最も大きいOCT正面画像(第1OCT正面画像)と、2番目に評価値が大きいOCT正面画像(第2OCT正面画像)とを特定する。画像加工部224は、SLO画像に基づいて第1OCT正面画像を加工し、且つ、SLO画像に基づいて第2OCT正面画像を加工する。或いは、画像加工部224は、第1OCT正面画像と第2OCT正面画像との合成画像を作成し、この合成画像をSLO画像に基づき加工する。 In one example, the image specifying unit 225 identifies an OCT front image having the largest evaluation value (first OCT front image) and an OCT front image having the second largest evaluation value (second OCT front image). The image processing unit 224 processes the first OCT front image based on the SLO image, and processes the second OCT front image based on the SLO image. Alternatively, the image processing unit 224 creates a composite image of the first OCT front image and the second OCT front image, and processes this composite image based on the SLO image.

<データ処理部220C>
図8に示すデータ処理部220Cは、正面画像作成部221と、レジストレーション部222と、評価部223と、判定部226と、画像加工部224とを含む。正面画像作成部221、レジストレーション部222、評価部223、及び画像加工部224は、データ処理部220Aのそれらと同様に構成されてよい。
<Data processing unit 220C>
The data processing unit 220C shown in FIG. 8 includes a front image creating unit 221, a registration unit 222, an evaluation unit 223, a determination unit 226, and an image processing unit 224. The front image creation unit 221, the registration unit 222, the evaluation unit 223, and the image processing unit 224 may be configured in the same manner as those of the data processing unit 220A.

判定部226は、評価部224により求められた評価値が所定閾値以上であるか判定する。閾値は、デフォルト値、自動設定された値、及び、手動設定された値のいずれかであってよい。 The determination unit 226 determines whether the evaluation value obtained by the evaluation unit 224 is equal to or greater than a predetermined threshold value. The threshold value may be either a default value, an automatically set value, or a manually set value.

正面画像作成部221が複数のOCT正面画像を作成した場合、判定部226は、これらOCT正面画像のそれぞれの評価値について判定を行うことができる。 When the front image creating unit 221 creates a plurality of OCT front images, the determination unit 226 can make a determination for each evaluation value of these OCT front images.

評価値が閾値以上であると判定部226により判定されたとき、画像加工部224は、このOCT正面画像をSLO画像に基づいて加工する。他方、評価値が閾値未満であると判定部226により判定されたとき、画像加工部224は、このOCT正面画像の加工を行わない。 When the determination unit 226 determines that the evaluation value is equal to or higher than the threshold value, the image processing unit 224 processes the OCT front image based on the SLO image. On the other hand, when the determination unit 226 determines that the evaluation value is less than the threshold value, the image processing unit 224 does not process the OCT front image.

<データ処理部220D>
図9に示すデータ処理部220Dは、正面画像作成部221と、レジストレーション部222と、評価部223と、選択部227と、画像加工部224とを含む。正面画像作成部221、レジストレーション部222、評価部223、及び画像加工部224は、データ処理部220Aのそれらと同様に構成されてよい。
<Data processing unit 220D>
The data processing unit 220D shown in FIG. 9 includes a front image creating unit 221, a registration unit 222, an evaluation unit 223, a selection unit 227, and an image processing unit 224. The front image creation unit 221, the registration unit 222, the evaluation unit 223, and the image processing unit 224 may be configured in the same manner as those of the data processing unit 220A.

本例の正面画像作成部221は、OCTを用いて取得された3次元画像から、深さ領域が異なる複数のOCT正面画像を作成する。 The front image creation unit 221 of this example creates a plurality of OCT front images having different depth regions from the three-dimensional images acquired by using OCT.

本例の評価部223は、正面画像作成部221により作成された複数のOCT正面画像のそれぞれと、SLO画像との間の一致度を評価する。前述のように、複数のOCT正面画像のいずれかを評価処理から除外することができる。 The evaluation unit 223 of this example evaluates the degree of agreement between each of the plurality of OCT front images created by the front image creation unit 221 and the SLO image. As described above, any one of the plurality of OCT front images can be excluded from the evaluation process.

選択部227は、複数のOCT正面画像について評価部223により求められた複数の評価値に基づいて、これらOCT正面画像のうちのいずれかを選択する。この選択は、例えば、評価値の大きさの比較、閾値との比較などのいずれかであってよい。 The selection unit 227 selects one of the OCT front images based on the plurality of evaluation values obtained by the evaluation unit 223 for the plurality of OCT front images. This selection may be, for example, comparison of the magnitude of the evaluation value, comparison with the threshold value, or the like.

画像加工部224は、選択部227により選択された各OCT正面画像をSLO画像に基づいて加工する。 The image processing unit 224 processes each OCT front image selected by the selection unit 227 based on the SLO image.

<データ処理部220E>
図10に示すデータ処理部220Eは、レジストレーション部228と、正面画像作成部221と、評価部223と、画像加工部224とを含む。正面画像作成部221、評価部223、及び画像加工部224は、データ処理部220Aのそれらと同様に構成されてよい。また、レジストレーション部228は、データ処理部220Aのレジストレーション部222と同様に構成されてよい。
<Data processing unit 220E>
The data processing unit 220E shown in FIG. 10 includes a registration unit 228, a front image creation unit 221, an evaluation unit 223, and an image processing unit 224. The front image creation unit 221, the evaluation unit 223, and the image processing unit 224 may be configured in the same manner as those of the data processing unit 220A. Further, the registration unit 228 may be configured in the same manner as the registration unit 222 of the data processing unit 220A.

他の例では、3次元画像から作成されたOCT正面画像とSLO画像とのレジストレーションを行うのに対し、本例では、OCTを用いて取得された3次元画像とSLO画像のレジストレーションを行う。 In another example, the OCT front image created from the 3D image and the SLO image are registered, whereas in this example, the 3D image acquired by using the OCT and the SLO image are registered. ..

3次元画像とSLO画像とのレジストレーションを行うタイミングと、3次元画像からOCT正面画像を作成するタイミングは、任意である。例えば、レジストレーションを行った後に、OCT正面画像を作成することができる。又は、OCT正面画像を作成した後に、レジストレーションを行うことができる。或いは、レジストレーションとOCT正面画像の作成とを並行して行うことができる。 The timing of registration between the 3D image and the SLO image and the timing of creating the OCT front image from the 3D image are arbitrary. For example, an OCT frontal image can be created after registration. Alternatively, registration can be performed after the OCT front image is created. Alternatively, registration and creation of an OCT front image can be performed in parallel.

レジストレーション部228は、OCTを用いて取得された3次元画像とSLO画像との間の位置合わせを行う。3次元画像とSLO画像との間の位置合わせは、例えば、3次元画像からシャドウグラム(又はプロジェクション画像)を作成する処理と、作成されたシャドウグラムとSLO画像とを位置合わせする処理と、この位置合わせの結果を3次元画像に反映させる処理とを含む。 The registration unit 228 aligns the three-dimensional image acquired by using OCT and the SLO image. The alignment between the 3D image and the SLO image includes, for example, a process of creating a shadow gram (or projection image) from the 3D image, a process of aligning the created shadow gram and the SLO image, and the process of aligning the created shadow gram and the SLO image. It includes a process of reflecting the result of alignment on a three-dimensional image.

3次元画像とSLO画像との間の位置合わせは、例えば、SLO画像から特徴領域を検出する処理と、3次元画像中の特徴領域を検出する処理と、双方の特徴領域に基づきSLO画像と3次元画像とを位置合わせする処理とを含む。 The alignment between the 3D image and the SLO image is, for example, a process of detecting a feature area from the SLO image and a process of detecting a feature area in the 3D image, and the SLO image and 3 based on both feature areas. It includes a process of aligning with a three-dimensional image.

本例の評価部223は、レジストレーション部228により実行された位置合わせの結果に基づいて、正面画像作成部221により3次元画像から作成されたOCT正面画像と、SLO画像との間の一致度を評価する。 The evaluation unit 223 of this example has a degree of agreement between the OCT front image created from the three-dimensional image by the front image creation unit 221 and the SLO image based on the result of the alignment executed by the registration unit 228. To evaluate.

例えば、評価部223はレジストレーション部228により実行された位置合わせの結果を利用してOCT正面画像とSLO画像との位置合わせを行い、位置合わせがなされたOCT正面画像とSLO画像との間の一致度を評価する。 For example, the evaluation unit 223 aligns the OCT front image and the SLO image using the result of the alignment executed by the registration unit 228, and between the aligned OCT front image and the SLO image. Evaluate the degree of agreement.

例えば、評価部223により得られた評価値が閾値以上である場合、画像加工部224は、SLO画像に基づいてOCT正面画像を加工する。他の例において、画像加工部224は、評価部223により得られた複数の評価値の比較によって選択されたOCT正面画像を、SLO画像に基づいて加工する。 For example, when the evaluation value obtained by the evaluation unit 223 is equal to or greater than the threshold value, the image processing unit 224 processes the OCT front image based on the SLO image. In another example, the image processing unit 224 processes the OCT front image selected by comparing a plurality of evaluation values obtained by the evaluation unit 223 based on the SLO image.

<データ処理部220F>
例えば図11に示す光学系が適用される場合のように、波長帯が異なる2以上のSLO画像を眼科撮影装置が取得可能である場合、図12に示すデータ処理部220Fを適用することができる。
<Data processing unit 220F>
For example, when the ophthalmologic imaging apparatus can acquire two or more SLO images having different wavelength bands, as in the case where the optical system shown in FIG. 11 is applied, the data processing unit 220F shown in FIG. 12 can be applied. ..

まず、図11に示す光学系について説明する。この光学系が適用される場合、眼科撮影装置は、複数の波長帯の光ビームを出力することができる。 First, the optical system shown in FIG. 11 will be described. When this optical system is applied, the ophthalmologic imaging apparatus can output light beams in a plurality of wavelength bands.

図11に示す光学系は、図1及び図3のSLO光源131及びコリメートレンズ132の代わりに適用されるSLO光源ユニット131Aを表す。他の部分については上記実施形態と同様であってよい。 The optical system shown in FIG. 11 represents an SLO light source unit 131A applied in place of the SLO light source 131 and the collimating lens 132 of FIGS. 1 and 3. Other parts may be the same as in the above embodiment.

SLO光源ユニット131Aは、赤外光と可視光の双方を出力可能である。SLO光源ユニット131Aは、赤外光源131aと、赤色光源131rと、緑色光源131gと、青色光源131bとを含む。赤外光源131aは(近)赤外帯域の光ビームを出力する。赤色光源131rは、赤色帯域の光ビームを出力する。緑色光源131gは、緑色帯域の光ビームを出力する。青色光源131bは、青色帯域の光ビームを出力する。これら光源131a、131r、131g及び131bのそれぞれは、例えば、半導体レーザーである。 The SLO light source unit 131A can output both infrared light and visible light. The SLO light source unit 131A includes an infrared light source 131a, a red light source 131r, a green light source 131g, and a blue light source 131b. The infrared light source 131a outputs a light beam in the (near) infrared band. The red light source 131r outputs a light beam in the red band. The green light source 131 g outputs a light beam in the green band. The blue light source 131b outputs a light beam in the blue band. Each of these light sources 131a, 131r, 131g and 131b is, for example, a semiconductor laser.

赤外光源131aから出力された赤外光はコリメートレンズ132aにより平行光束に変換される。赤色光源131rから出力された赤色光はコリメートレンズ132rにより平行光束に変換される。緑色光源131gから出力された緑色光はコリメートレンズ132gにより平行光束に変換される。青色光源131bから出力された青色光はコリメートレンズ132bにより平行光束に変換される。 The infrared light output from the infrared light source 131a is converted into a parallel luminous flux by the collimating lens 132a. The red light output from the red light source 131r is converted into a parallel luminous flux by the collimating lens 132r. The green light output from the green light source 131 g is converted into a parallel luminous flux by the collimating lens 132 g. The blue light output from the blue light source 131b is converted into a parallel luminous flux by the collimating lens 132b.

ビームスプリッタBSrは、コリメートレンズ132rにより平行光束とされた赤色光を、コリメートレンズ132aにより平行光束とされた赤外光の光路に合成する。ビームスプリッタBSgは、コリメートレンズ132gにより平行光束とされた緑色光を、コリメートレンズ132aにより平行光束とされた赤外光の光路に合成する。ビームスプリッタBSbは、コリメートレンズ132bにより平行光束とされた青色光を、コリメートレンズ132aにより平行光束とされた赤外光の光路に合成する。3つのビームスプリッタBSr、BSg及びBSbにより、波長帯が異なる4つの光ビームの光路が合成される。この合成光路は、ビームスプリッタBS2に導かれている。 The beam splitter BSr synthesizes red light converted into a parallel luminous flux by the collimating lens 132r into an optical path of infrared light converted into a parallel luminous flux by the collimating lens 132a. The beam splitter BSg synthesizes green light converted into a parallel luminous flux by the collimating lens 132g into an optical path of infrared light converted into a parallel luminous flux by the collimating lens 132a. The beam splitter BSb synthesizes blue light converted into a parallel luminous flux by the collimating lens 132b into an optical path of infrared light converted into a parallel luminous flux by the collimating lens 132a. The three beam splitters BSr, BSg and BSb synthesize the optical paths of four light beams having different wavelength bands. This combined optical path is led to the beam splitter BS2.

主制御部201は、赤外光源131a、赤色光源131r、緑色光源131g及び青色光源131bのそれぞれを制御する。主制御部201は、これら光源131a、131r、131g及び131bの同期制御を行うための同期回路を含んでいてよい。この同期回路は、これら光源131a、131r、131g及び131bの制御と光スキャナ136の制御とを同期させるよう構成されてもよい。 The main control unit 201 controls each of the infrared light source 131a, the red light source 131r, the green light source 131g, and the blue light source 131b. The main control unit 201 may include a synchronization circuit for synchronously controlling the light sources 131a, 131r, 131g and 131b. This synchronization circuit may be configured to synchronize the control of the light sources 131a, 131r, 131g and 131b with the control of the optical scanner 136.

図12に示すデータ処理部220Fは、データ処理部220Fは、波長帯が異なる2以上のSLO画像のそれぞれと、OCT正面画像との間の一致度を評価することができる。3次元画像から複数のOCT正面画像が作成された場合、データ処理部220Fは、波長帯が異なる2以上のSLO画像のそれぞれに対応するOCT正面画像を複数のOCT正面画像のうちから選択することができる。 The data processing unit 220F shown in FIG. 12 can evaluate the degree of coincidence between each of two or more SLO images having different wavelength bands and the OCT front image. When a plurality of OCT front images are created from a three-dimensional image, the data processing unit 220F selects an OCT front image corresponding to each of two or more SLO images having different wavelength bands from the plurality of OCT front images. Can be done.

データ処理部220Fは、正面画像作成部221と、レジストレーション部222と、評価部223と、選択部229と、画像加工部224とを含む。正面画像作成部221、レジストレーション部222、評価部223、及び画像加工部224は、データ処理部220Aのそれらと同様に構成されてよい。 The data processing unit 220F includes a front image creating unit 221, a registration unit 222, an evaluation unit 223, a selection unit 229, and an image processing unit 224. The front image creation unit 221, the registration unit 222, the evaluation unit 223, and the image processing unit 224 may be configured in the same manner as those of the data processing unit 220A.

本例のSLO光学系130は、異なる波長帯に対応する2以上のSLO画像を取得する。OCT光学系140は、上記実施形態と同様に3次元画像を取得する。これら画像がデータ処理部220Fに入力される。 The SLO optical system 130 of this example acquires two or more SLO images corresponding to different wavelength bands. The OCT optical system 140 acquires a three-dimensional image in the same manner as in the above embodiment. These images are input to the data processing unit 220F.

正面画像作成部221は、OCTを用いて取得された3次元画像から、深さ領域が異なる複数のOCT正面画像を作成する。 The front image creation unit 221 creates a plurality of OCT front images having different depth regions from the three-dimensional images acquired by using OCT.

レジストレーション部222は、2以上のSLO画像と複数のOCT正面画像との任意の組み合わせについてレジストレーションを実行する。例えば、レジストレーション部222は、2以上のSLO画像のそれぞれと、複数のOCT正面画像のそれぞれとの位置合わせを行う。SLO画像が描出する深さ領域とOCT正面画像が描出する深さ領域との間の対応付けが可能である場合、レジストレーション部222は、同じ深さ領域(又は類似の深さ領域)に対応するSLO画像とOCT正面画像との位置合わせを行うように構成されてよい。レジストレーションが施されなかった画像を、以降の処理の対象から除外することができる。 The registration unit 222 executes registration for any combination of two or more SLO images and a plurality of OCT front images. For example, the registration unit 222 aligns each of the two or more SLO images with each of the plurality of OCT front images. When the depth region drawn by the SLO image and the depth region drawn by the OCT front image can be associated, the registration unit 222 corresponds to the same depth region (or similar depth region). It may be configured to align the SLO image and the OCT front image. Images that have not been registered can be excluded from subsequent processing.

評価部223は、2以上のSLO画像のそれぞれについて、複数のOCT正面画像のうちの少なくとも一部との間の一致度を評価する。例えば、2以上のSLO画像のそれぞれについて、評価部223は、このSLO画像と各OCT正面画像との間の一致度を評価する。他の例において、評価部223は、レジストレーションが施されたSLO画像とOCT正面画像の組み合わせのそれぞれについて、評価値を算出する。 The evaluation unit 223 evaluates the degree of agreement between each of the two or more SLO images and at least a part of the plurality of OCT front images. For example, for each of the two or more SLO images, the evaluation unit 223 evaluates the degree of agreement between the SLO image and each OCT front image. In another example, the evaluation unit 223 calculates an evaluation value for each combination of the registered SLO image and the OCT front image.

選択部229は、評価部223により求められた評価値に基づいて、2以上のSLO画像のそれぞれに対応するOCT正面画像を選択する。例えば、2以上のSLO画像のそれぞれについて、選択部229は、このSLO画像に基づき算出された(1以上の)評価値のうちの最大値を特定し、この最大値に対応するOCT正面画像を当該SLO画像に対応するOCT画像として選択する。 The selection unit 229 selects the OCT front image corresponding to each of the two or more SLO images based on the evaluation value obtained by the evaluation unit 223. For example, for each of the two or more SLO images, the selection unit 229 specifies the maximum value among the evaluation values (1 or more) calculated based on the SLO image, and sets the OCT front image corresponding to this maximum value. It is selected as the OCT image corresponding to the SLO image.

他の例において、2以上のSLO画像のそれぞれについて、選択部229は、このSLO画像に基づき算出された(1以上の)評価値を所定閾値と比較し、閾値以上の評価値に対応するOCT正面画像を当該SLO画像に対応するOCT画像として選択する。 In another example, for each of the two or more SLO images, the selection unit 229 compares the evaluation value (1 or more) calculated based on the SLO image with a predetermined threshold value, and OCT corresponding to the evaluation value equal to or more than the threshold value. The front image is selected as the OCT image corresponding to the SLO image.

選択部229は、1つのSLO画像について2以上のOCT正面画像を選択してもよい。この場合、例えば評価値の大きさに基づいて、これらOCT正面画像に順位付けを行うことができる。 The selection unit 229 may select two or more OCT front images for one SLO image. In this case, these OCT front images can be ranked based on, for example, the magnitude of the evaluation value.

画像加工部224は、選択部227により選択されたOCT正面画像を、対応するSLO画像に基づいて加工する。 The image processing unit 224 processes the OCT front image selected by the selection unit 227 based on the corresponding SLO image.

<ユーザインターフェイス部230>
ユーザインターフェイス(UI)部230は、ユーザと眼科撮影装置との間で情報のやりとりを行うための機能を備える。UI部230は、表示デバイスと操作デバイス(入力デバイス)とを含む。表示デバイスは、例えば液晶ディスプレイ(LCD)を含む。操作デバイスは、各種のハードウェアキー及び/又はソフトウェアキーを含む。
<User interface unit 230>
The user interface (UI) unit 230 has a function for exchanging information between the user and the ophthalmologic imaging apparatus. The UI unit 230 includes a display device and an operation device (input device). Display devices include, for example, a liquid crystal display (LCD). Operating devices include various hardware keys and / or software keys.

制御部200は、操作デバイスに対する操作内容を受け、この操作内容に対応した制御信号を各部に出力する。操作デバイスの少なくとも一部と表示デバイスの少なくとも一部とを一体的に構成することが可能である。タッチパネルディスプレイはその一例である。 The control unit 200 receives the operation content for the operation device and outputs a control signal corresponding to the operation content to each unit. It is possible to integrally configure at least a part of the operating device and at least a part of the display device. The touch panel display is an example.

<動作>
実施形態に係る眼科撮影装置の動作について説明する。動作の典型的な例を図13に示す。
<Operation>
The operation of the ophthalmologic imaging apparatus according to the embodiment will be described. A typical example of the operation is shown in FIG.

(S1:3D−OCTを実行)
まず、被検眼Eに対する眼科撮影装置のアライメント、眼底Efに対するフォーカス調整、OCT撮影条件の最適化等の準備的処理が実行される。これらは公知の手法で実行される。また、被検眼Eへの固視光の投射が開始される。
(Execute S1: 3D-OCT)
First, preparatory processing such as alignment of the ophthalmologic imaging device with respect to the eye E to be inspected, focus adjustment with respect to the fundus Ef, and optimization of OCT imaging conditions is executed. These are performed by known techniques. In addition, the projection of the fixation light onto the eye E to be inspected is started.

準備的処理の完了後、主制御部201は、眼底Efの3次元OCTスキャンを実行するために、OCT光学系140、OCT画像形成部212等を制御する。それにより、眼底Efの3次元画像が得られる。この3次元画像は、例えばボリュームデータである。 After the preparatory processing is completed, the main control unit 201 controls the OCT optical system 140, the OCT image forming unit 212, and the like in order to perform a three-dimensional OCT scan of the fundus Ef. As a result, a three-dimensional image of the fundus Ef can be obtained. This three-dimensional image is, for example, volume data.

(S2:マルチカラーSLOを実行)
本例の眼科撮影装置は、図11に示す光学系を含むものとする。主制御部201は、眼底EfのマルチカラーSLO撮影を実行するために、SLO光学系130、SLO画像形成部211等を制御する。
(S2: Execute multi-color SLO)
The ophthalmologic imaging apparatus of this example shall include the optical system shown in FIG. The main control unit 201 controls the SLO optical system 130, the SLO image forming unit 211, and the like in order to perform multicolor SLO imaging of the fundus Ef.

それにより、赤外光源131aからの赤外光に基づく赤外SLO画像と、赤色光源131rからの赤色光に基づく赤色SLO画像と、緑色光源131gからの緑色光に基づく緑色SLO画像と、青色光源131bからの青色光に基づく青色SLO画像とが得られる。 As a result, an infrared SLO image based on the infrared light from the infrared light source 131a, a red SLO image based on the red light from the red light source 131r, a green SLO image based on the green light from the green light source 131g, and a blue light source. A blue SLO image based on the blue light from 131b is obtained.

本例では、可視光でSLO撮影を行うため、被検眼Eの縮瞳の影響を考慮して、OCTの後にSLO撮影を行っている。しかし、OCTの前にSLO撮影を行ったり、OCTとSLO撮影とを並行して行ったりすることも可能である。 In this example, since SLO imaging is performed with visible light, SLO imaging is performed after OCT in consideration of the influence of the miosis of the eye E to be inspected. However, it is also possible to perform SLO imaging before OCT, or to perform OCT and SLO imaging in parallel.

(S3:画像を保存)
主制御部201は、ステップS1で取得された3次元画像と、ステップS2で取得された赤外SLO画像、赤色SLO画像、緑色SLO画像、及び青色SLO画像とを、記憶部202(又は、他の記憶装置)に格納する。このとき、被検者識別情報(患者ID等)、シリアル番号、撮影日時、取得された画像の種別などの情報が、画像に付帯される。
(S3: Save the image)
The main control unit 201 stores the three-dimensional image acquired in step S1 and the infrared SLO image, red SLO image, green SLO image, and blue SLO image acquired in step S2 in the storage unit 202 (or other). Store in the storage device). At this time, information such as subject identification information (patient ID and the like), serial number, shooting date and time, type of acquired image, and the like are attached to the image.

(S4:画像の選択)
例えばユーザからの指示を受けて、主制御部201は、所定の画面をユーザインターフェイス部230に表示させる。この画面には、被検者のリストが提示される。ユーザは、ユーザインターフェイス部230を用いて、この被検者リストから所望の被検者を選択する。
(S4: Image selection)
For example, in response to an instruction from the user, the main control unit 201 causes the user interface unit 230 to display a predetermined screen. A list of subjects is presented on this screen. The user uses the user interface unit 230 to select a desired subject from this list of subjects.

主制御部201は、選択された被検者に関する撮影情報(シリアル番号、撮影日時、画像の種別等)のリストを表示する。ユーザは、この撮影情報リストから所望のシリアル番号を選択する。 The main control unit 201 displays a list of shooting information (serial number, shooting date / time, image type, etc.) regarding the selected subject. The user selects a desired serial number from this shooting information list.

主制御部201は、選択されたシリアル番号に対応する画像を記憶部202(又は、他の記憶装置)から取得する。例えばユーザからの指示を受けて、主制御部201は、取得された画像をユーザインターフェイス部230に表示させる。 The main control unit 201 acquires an image corresponding to the selected serial number from the storage unit 202 (or another storage device). For example, in response to an instruction from the user, the main control unit 201 causes the user interface unit 230 to display the acquired image.

本例では、ステップS1で取得された3次元画像と、ステップS2で取得された赤外SLO画像、赤色SLO画像、緑色SLO画像、及び青色SLO画像とが、記憶部202(又は、他の記憶装置)から取得される。主制御部201は、赤外SLO画像、赤色SLO画像、緑色SLO画像、及び青色SLO画像を、選択的に、又は、並列的に、表示することができる。また、3次元画像のレンダリング画像を表示可能であってもよい。 In this example, the three-dimensional image acquired in step S1 and the infrared SLO image, red SLO image, green SLO image, and blue SLO image acquired in step S2 are stored in the storage unit 202 (or another storage unit 202). Obtained from the device). The main control unit 201 can display the infrared SLO image, the red SLO image, the green SLO image, and the blue SLO image selectively or in parallel. Further, a rendered image of a three-dimensional image may be displayed.

(S5:基準画像となるSLO画像の指定)
ユーザは、ユーザインターフェイス部230を用いて、ステップS4で選択されたSLO画像のうちから、基準画像を指定する。本例では、赤外SLO画像、赤色SLO画像、緑色SLO画像、及び青色SLO画像が指定されたとする。
(S5: Designation of SLO image as reference image)
The user uses the user interface unit 230 to specify a reference image from the SLO images selected in step S4. In this example, it is assumed that an infrared SLO image, a red SLO image, a green SLO image, and a blue SLO image are specified.

(S6:SLO画像に前処理を適用)
前処理部2221は、赤外SLO画像、赤色SLO画像、緑色SLO画像、及び青色SLO画像のそれぞれに、所定の前処理を適用する。
(S6: Preprocessing is applied to SLO images)
The preprocessing unit 2221 applies a predetermined preprocessing to each of the infrared SLO image, the red SLO image, the green SLO image, and the blue SLO image.

(S7:SLO画像にエッジ検出を適用)
特徴点検出部2222は、ステップS6で前処理が適用された赤外SLO画像、赤色SLO画像、緑色SLO画像、及び青色SLO画像のそれぞれに、エッジ検出を適用する。それにより、赤外SLO画像中の特徴点群、赤色SLO画像中の特徴点群、緑色SLO画像中の特徴点群、及び青色SLO画像中の特徴点群が、それぞれ取得される。
(S7: Apply edge detection to SLO image)
The feature point detection unit 2222 applies edge detection to each of the infrared SLO image, the red SLO image, the green SLO image, and the blue SLO image to which the preprocessing was applied in step S6. As a result, the feature point group in the infrared SLO image, the feature point group in the red SLO image, the feature point group in the green SLO image, and the feature point group in the blue SLO image are acquired, respectively.

(S8:3D−OCT画像にセグメンテーションを適用)
セグメンテーション部2211は、ステップS4で選択された3次元画像を解析して複数のセグメントを特定する。本例では、例えば、網膜表層に含まれる1以上のセグメントと、網膜中層に含まれる1以上のセグメントと、網膜深層に含まれる1以上のセグメントと、脈絡膜に含まれる1以上のセグメントとが特定されたとする。
(S8: Apply segmentation to 3D-OCT images)
The segmentation unit 2211 analyzes the three-dimensional image selected in step S4 to identify a plurality of segments. In this example, for example, one or more segments contained in the surface layer of the retina, one or more segments contained in the middle layer of the retina, one or more segments contained in the deep layer of the retina, and one or more segments contained in the choroid are specified. Suppose it was done.

(S9:OCT正面画像を作成)
投影処理部2212は、ステップS8で特定された各セグメントをZ方向に投影することによりシャドウグラムを作成する。本例では、網膜表層に相当する1以上のOCT正面画像と、網膜中層に相当する1以上のOCT正面画像と、網膜深層に相当する1以上のOCT正面画像と、脈絡膜に相当する1以上のOCT正面画像とが作成される。
(S9: Create OCT front image)
The projection processing unit 2212 creates a shadow gram by projecting each segment identified in step S8 in the Z direction. In this example, one or more OCT frontal images corresponding to the surface layer of the retina, one or more OCT frontal images corresponding to the middle layer of the retina, one or more OCT frontal images corresponding to the deep layer of the retina, and one or more OCT frontal images corresponding to the choroid. An OCT front image is created.

(S10:OCT正面画像に前処理を適用)
前処理部2221は、ステップS9で作成されたOCT正面画像のそれぞれに、所定の前処理を適用する。
(S10: Preprocessing is applied to the OCT front image)
The preprocessing unit 2221 applies a predetermined preprocessing to each of the OCT front images created in step S9.

(S11:OCT正面画像にエッジ検出を適用)
特徴点検出部2222は、ステップS10で前処理が適用されたOCT正面画像のそれぞれに、エッジ検出を適用する。それにより、各OCT正面画像中の特徴点群が取得される。
(S11: Apply edge detection to OCT front image)
The feature point detection unit 2222 applies edge detection to each of the OCT front images to which the preprocessing has been applied in step S10. As a result, the feature point group in each OCT front image is acquired.

(S12:SLO画像とOCT正面画像のレジストレーションを実行)
位置合わせ部2223は、各基準画像(SLO画像)に対する1以上のOCT正面画像の組み合わせを設定する。
(S12: Registration of SLO image and OCT front image is executed)
The alignment unit 2223 sets a combination of one or more OCT front images for each reference image (SLO image).

このとき、位置合わせ部2223は、例えば、各基準画像に対して、考慮しているOCT正面画像の全てを組み合わせることができる。本例においては、位置合わせ部2223は、赤外SLO画像に対してステップ9で作成された複数のOCT正面画像のそれぞれを対応付け、赤色SLO画像に対して複数のOCT正面画像のそれぞれを対応付け、緑色SLO画像に対して複数のOCT正面画像のそれぞれを対応付け、青色SLO画像に対して複数のOCT正面画像のそれぞれを対応付けることができる。ステップS9で作成されたOCT正面画像の個数を「N」とすると、この場合における組み合わせの総数は、ステップS5で選択されたSLO画像の個数「4」と、OCT正面画像の個数を「N」との積である「4×N」となる。 At this time, the alignment unit 2223 can combine all of the considered OCT front images with each reference image, for example. In this example, the alignment unit 2223 associates each of the plurality of OCT front images created in step 9 with the infrared SLO image, and corresponds to each of the plurality of OCT front images with respect to the red SLO image. Attached, each of the plurality of OCT front images can be associated with the green SLO image, and each of the plurality of OCT front images can be associated with the blue SLO image. Assuming that the number of OCT front images created in step S9 is "N", the total number of combinations in this case is "4" for the number of SLO images selected in step S5 and "N" for the number of OCT front images. It becomes "4 × N" which is the product of.

他の例を説明する。SLOの波長帯とOCTの深さ領域とが予め対応付けられている場合や、SLOの波長帯とOCTの深さ領域との対応付けをユーザが行った場合などにおいては、位置合わせ部2223は、1つの基準画像(SLO画像)に対して、この基準画像の波長帯に対応する深さ領域のOCT正面画像を1つ以上対応付けることができる。本例において、赤外の波長帯と脈絡膜とが対応付けられ、赤色の波長帯と網膜深層とが対応付けられ、緑色の波長帯と網膜中層とが対応付けられ、青色の波長帯と網膜表層とが対応付けられているとする。この場合、位置合わせ部2223は、赤外SLO画像に対して脈絡膜に相当する1以上のOCT正面画像のそれぞれを対応付け、赤色SLO画像に対して網膜深層に相当する1以上のOCT正面画像のそれぞれを対応付け、緑色SLO画像に対して網膜中層に相当する1以上のOCT正面画像のそれぞれを対応付け、青色SLO画像に対して網膜表層に相当する1以上のOCT正面画像のそれぞれを対応付けることができる。脈絡膜に相当するOCT正面画像の個数を「Na」、網膜深層に相当するOCT正面画像の個数を「Nd」、網膜中層に相当するOCT正面画像の個数を「Nm」、網膜表層に相当するOCT正面画像の個数を「Ns」とすると、この場合における組み合わせの総数は、これらの和である「Na+Nd+Nm+Ns」となる。 Another example will be described. When the wavelength band of SLO and the depth region of OCT are associated in advance, or when the user associates the wavelength band of SLO with the depth region of OCT, the alignment unit 2223 is used. One or more OCT front images in a depth region corresponding to the wavelength band of the reference image can be associated with one reference image (SLO image). In this example, the infrared wavelength band is associated with the choroid, the red wavelength band is associated with the deep retinal layer, the green wavelength band is associated with the middle layer of the retina, and the blue wavelength band is associated with the surface layer of the retina. Is associated with. In this case, the alignment unit 2223 associates each of one or more OCT front images corresponding to the choroid with the infrared SLO image, and one or more OCT front images corresponding to the deep retina with respect to the red SLO image. Each is associated, the green SLO image is associated with each of one or more OCT front images corresponding to the middle layer of the retina, and the blue SLO image is associated with each of one or more OCT front images corresponding to the surface layer of the retina. Can be done. The number of OCT front images corresponding to the choroid is "Na", the number of OCT front images corresponding to the deep retina is "Nd", the number of OCT front images corresponding to the middle layer of the retina is "Nm", and the number of OCT corresponding to the surface layer of the retina is "Nm". Assuming that the number of front images is "Ns", the total number of combinations in this case is "Na + Nd + Nm + Ns" which is the sum of these.

このような各組み合わせについて、位置合わせ部2223は、ステップS7で検出された当該SLO画像中の特徴点群と、ステップ11で検出された当該OCT正面画像中の特徴点群とに基づいて、当該SLO画像と当該OCT正面画像との位置合わせを行う。 For each of these combinations, the alignment unit 2223 is based on the feature point cloud in the SLO image detected in step S7 and the feature point cloud in the OCT front image detected in step 11. The SLO image and the OCT front image are aligned.

(S13:一致度を評価)
ステップS12でレジストレーションがなされた組み合わせのそれぞれについて、評価部223は、当該SLO画像と当該OCT正面画像との一致度を評価する。それにより、各基準画像(SLO画像)について、1以上のOCT正面画像に対応する1以上の評価値が得られる。
(S13: Evaluate the degree of agreement)
For each of the combinations registered in step S12, the evaluation unit 223 evaluates the degree of agreement between the SLO image and the OCT front image. As a result, for each reference image (SLO image), one or more evaluation values corresponding to one or more OCT front images can be obtained.

(S14:SLO画像に対応するOCT正面画像を選択)
各基準画像(SLO画像)について、データ処理部220は、ステップS13で取得された1以上の評価値に基づいて、当該SLO画像に対応するOCT正面画像を選択する。この処理は、例えば、画像特定部225、判定部226、選択部227、又は選択部229を利用して実行される。
(S14: Select the OCT front image corresponding to the SLO image)
For each reference image (SLO image), the data processing unit 220 selects an OCT front image corresponding to the SLO image based on one or more evaluation values acquired in step S13. This process is executed by using, for example, the image identification unit 225, the determination unit 226, the selection unit 227, or the selection unit 229.

本例では、例えば、赤外SLO画像については脈絡膜に相当するOCT正面画像が選択され、赤色SLO画像については網膜深層に相当するOCT正面画像が選択され、緑色SLO画像については網膜中層に相当するOCT正面画像が選択され、青色SLO画像については網膜表層に相当するOCT正面画像が選択される。 In this example, for example, the OCT front image corresponding to the choroid is selected for the infrared SLO image, the OCT front image corresponding to the deep layer of the retina is selected for the red SLO image, and the OCT front image corresponding to the middle layer of the retina is selected for the green SLO image. The OCT front image is selected, and for the blue SLO image, the OCT front image corresponding to the surface layer of the retina is selected.

(S15:OCT正面画像を加工)
各基準画像(SLO画像)について、画像加工部224は、ステップS14で選択されたOCT正面画像を当該SLO画像に基づいて加工する。
(S15: OCT front image processed)
For each reference image (SLO image), the image processing unit 224 processes the OCT front image selected in step S14 based on the SLO image.

主制御部201は、加工されたOCT正面画像をユーザインターフェイス部230に表示させることができる。このとき、加工前のOCT正面画像や、対応するSLO画像を、加工後のOCT正面画像とともに表示させることができる。加工後のOCT正面画像は、観察、診断、解析等に利用される。 The main control unit 201 can display the processed OCT front image on the user interface unit 230. At this time, the OCT front image before processing and the corresponding SLO image can be displayed together with the OCT front image after processing. The processed OCT front image is used for observation, diagnosis, analysis, and the like.

本例のように、2以上の可視成分(赤色成分、緑色成分、青色成分)のSLO画像が得られた場合、2以上の可視成分のSLO画像に対応する2以上のOCT画像を合成することができる。 When SLO images of two or more visible components (red component, green component, blue component) are obtained as in this example, two or more OCT images corresponding to the SLO images of two or more visible components are combined. Can be done.

例えば、赤色SLO画像に対応する「赤色」OCT正面画像と、緑色SLO画像に対応する「緑色」OCT正面画像と、青色SLO画像に対応する「青色」OCT正面画像とが得られた場合、これら3つのOCT正面画像を合成することで、赤色SLO画像と緑色SLO画像と青色SLO画像との合成画像であるカラーSLO画像に相当する「カラー」OCT正面画像を作成することができる。また、「緑色」OCT正面画像と「青色」OCT正面画像とを合成することにより、「レッドフリー」OCT正面画像を作成することができる。 For example, when a "red" OCT front image corresponding to a red SLO image, a "green" OCT front image corresponding to a green SLO image, and a "blue" OCT front image corresponding to a blue SLO image are obtained, these By synthesizing the three OCT front images, it is possible to create a "color" OCT front image corresponding to a color SLO image which is a composite image of the red SLO image, the green SLO image, and the blue SLO image. Further, a "red-free" OCT front image can be created by synthesizing the "green" OCT front image and the "blue" OCT front image.

<作用・効果>
実施形態に係る眼科撮影装置により提供することが可能な作用及び効果の幾つかの例を以下に説明する。
<Action / effect>
Some examples of actions and effects that can be provided by the ophthalmologic imaging apparatus according to the embodiment will be described below.

実施形態に係る眼科撮影装置は、正面画像取得部と、3次元画像取得部と、正面画像作成部と、評価部とを含む。 The ophthalmologic imaging apparatus according to the embodiment includes a front image acquisition unit, a three-dimensional image acquisition unit, a front image creation unit, and an evaluation unit.

正面画像取得部は、被検眼を撮影して第1正面画像を取得するように構成される。上記の実施形態では、正面画像取得部は、対物レンズ系110とSLO光学系130とSLO画像形成部211とを含み、被検眼Eの眼底EfをSLO光でスキャンしてSLO画像を形成する。他の実施形態において、正面画像取得部は、眼底カメラ、スリットランプ顕微鏡、手術用顕微鏡など、任意のモダリティであってよい。 The front image acquisition unit is configured to take an image of the eye to be inspected and acquire a first front image. In the above embodiment, the front image acquisition unit includes the objective lens system 110, the SLO optical system 130, and the SLO image forming unit 211, and scans the fundus Ef of the eye E to be inspected with SLO light to form an SLO image. In other embodiments, the frontal image acquisition unit may be of any modality, such as a fundus camera, slit lamp microscope, surgical microscope, and the like.

3次元画像取得部は、被検眼をスキャンして3次元画像を取得するように構成される。上記の実施形態では、3次元画像取得部は、対物レンズ系110とOCT光学系140とOCT画像形成部212とを含み、被検眼Eの眼底EfのOCT光(測定光LS)でスキャンして3次元画像を形成する。他の実施形態において、3次元画像取得部は、超音波診断装置など、任意のモダリティであってよい。 The three-dimensional image acquisition unit is configured to scan the eye to be inspected and acquire a three-dimensional image. In the above embodiment, the three-dimensional image acquisition unit includes the objective lens system 110, the OCT optical system 140, and the OCT image forming unit 212, and scans with the OCT light (measurement light LS) of the fundus Ef of the eye E to be inspected. Form a three-dimensional image. In other embodiments, the 3D image acquisition unit may be of any modality, such as an ultrasonic diagnostic device.

正面画像作成部は、3次元画像取得部により取得された3次元画像から第2正面画像を作成するように構成される。上記の実施形態では、正面画像作成部は、正面画像作成部221を含み、OCTを用いて取得された3次元画像からOCT正面画像を形成する。 The front image creating unit is configured to create a second front image from the three-dimensional image acquired by the three-dimensional image acquisition unit. In the above embodiment, the front image creating unit includes the front image creating unit 221 and forms the OCT front image from the three-dimensional image acquired by using OCT.

評価部は、正面画像取得部により取得された第1正面画像と、正面画像作成部により作成された第2正面画像との間の一致度を評価するように構成される。上記の実施形態では、評価部は、評価部223を含み、SLO画像とOCT正面画像との間の一致度を評価する。 The evaluation unit is configured to evaluate the degree of agreement between the first front image acquired by the front image acquisition unit and the second front image created by the front image creation unit. In the above embodiment, the evaluation unit includes the evaluation unit 223 and evaluates the degree of agreement between the SLO image and the OCT front image.

このような実施形態によれば、横方向分解能が比較的高い第1正面画像(例:SLO画像)と、横方向分解能が比較的低い第2正面画像(例:OCT正面画像)との間の一致の度合を評価することができる。それにより、第1正面画像と第2正面画像との間の関係を把握したり、これらの間の対応付けを行ったり、双方を用いた画像処理や解析処理を行ったりすることが可能となる。 According to such an embodiment, between a first front image having a relatively high lateral resolution (eg, an SLO image) and a second front image having a relatively low lateral resolution (eg, an OCT front image). The degree of agreement can be evaluated. As a result, it is possible to grasp the relationship between the first front image and the second front image, to associate them with each other, and to perform image processing and analysis processing using both of them. ..

実施形態において、眼科撮影装置は、画像加工部を更に含んでよい。画像加工部は、評価部により求められた一致度の評価値が所定条件を満足するときに、第1正面画像に基づいて第2正面画像を加工するように構成される。上記の実施形態では、画像加工部は、画像加工部224を含み、評価部223により求められた一致度の評価値が所定条件を満足するときに、SLO画像に基づいてOCT正面画像を加工する。 In an embodiment, the ophthalmologic imaging apparatus may further include an image processing unit. The image processing unit is configured to process the second front image based on the first front image when the evaluation value of the degree of agreement obtained by the evaluation unit satisfies a predetermined condition. In the above embodiment, the image processing unit includes the image processing unit 224, and processes the OCT front image based on the SLO image when the evaluation value of the degree of matching obtained by the evaluation unit 223 satisfies a predetermined condition. ..

実施形態において、画像加工部は、例えば、次のいずれかの処理を実行するように構成される。第1の例において、画像加工部は、第1正面画像と第2正面画像との合成画像を作成する。第2の例において、画像加工部は、第1正面画像の一部を第2正面画像に埋め込む。第3の例において、画像加工部は、第1正面画像に基づいて第2正面画像の画素値を変更する。 In the embodiment, the image processing unit is configured to perform, for example, any of the following processes. In the first example, the image processing unit creates a composite image of the first front image and the second front image. In the second example, the image processing unit embeds a part of the first front image in the second front image. In the third example, the image processing unit changes the pixel value of the second front image based on the first front image.

このような実施形態によれば、横方向分解能が比較的高い第1正面画像(例:SLO画像)を利用して、横方向分解能が比較的低い第2正面画像(例:OCT正面画像)を加工することで、新たな第2正面画像を取得することができる。加工後の第2正面画像は、加工前の第2正面画像よりも詳細に被検眼を描出した画像である。 According to such an embodiment, a first front image (eg, SLO image) having a relatively high lateral resolution is used to obtain a second front image (eg, an OCT front image) having a relatively low lateral resolution. By processing, a new second front image can be acquired. The second front image after processing is an image in which the eye to be inspected is depicted in more detail than the second front image before processing.

実施形態において、正面画像作成部は、3次元画像取得部により取得された3次元画像から、深さ領域が異なる複数の第2正面画像を作成することができる。この場合、評価部は、正面画像作成部により作成された複数の第2正面画像のそれぞれと、正面画像取得部により取得された第1正面画像との間の一致度を評価することができる。 In the embodiment, the front image creating unit can create a plurality of second front images having different depth regions from the three-dimensional image acquired by the three-dimensional image acquisition unit. In this case, the evaluation unit can evaluate the degree of agreement between each of the plurality of second front images created by the front image creation unit and the first front image acquired by the front image acquisition unit.

更に、この実施形態の眼科撮影装置は、画像特定部を更に含んでよい。画像特定部は、正面画像作成部により作成された複数の第2正面画像について評価部により求められた複数の評価値のうちの最大値に対応する第2正面画像を特定する。上記の実施形態では、画像特定部は、画像特定部225を含み、複数のOCT正面画像について評価部223により求められた複数の評価値のうちの最大値に対応するOCT正面画像を特定する。画像特定部は、一致度の評価値が所定条件を満足するような第2正面画像を特定するように機能する。 Further, the ophthalmologic imaging apparatus of this embodiment may further include an image identification unit. The image specifying unit identifies the second front image corresponding to the maximum value among the plurality of evaluation values obtained by the evaluation unit for the plurality of second front images created by the front image creating unit. In the above embodiment, the image identification unit includes the image identification unit 225, and identifies the OCT front image corresponding to the maximum value among the plurality of evaluation values obtained by the evaluation unit 223 for the plurality of OCT front images. The image specifying unit functions to specify a second front image such that the evaluation value of the degree of agreement satisfies a predetermined condition.

画像加工部は、画像特定部により特定された第2正面画像を第1正面画像に基づいて加工することができる。 The image processing unit can process the second front image specified by the image specifying unit based on the first front image.

このような実施形態によれば、第1正面画像と一致度が高い第2正面画像を特定し、更に、横方向分解能が比較的高い第1正面画像(例:SLO画像)を利用して、横方向分解能が比較的低い第2正面画像(例:OCT正面画像)を加工することができる。 According to such an embodiment, the second front image having a high degree of coincidence with the first front image is specified, and further, the first front image (eg, SLO image) having a relatively high lateral resolution is used. It is possible to process a second front image (eg, OCT front image) having a relatively low lateral resolution.

実施形態において、眼科撮影装置は、判定部を更に含んでよい。判定部は、評価部により求められた評価値が所定閾値以上であるか判定する。上記の実施形態において、判定部は、判定部226を含み、評価部223により求められた評価値が所定閾値以上であるか判定する。判定部は、一致度の評価値が所定条件を満足するか否か判定するように機能する。 In an embodiment, the ophthalmologic imaging apparatus may further include a determination unit. The determination unit determines whether the evaluation value obtained by the evaluation unit is equal to or greater than a predetermined threshold value. In the above embodiment, the determination unit includes the determination unit 226 and determines whether the evaluation value obtained by the evaluation unit 223 is equal to or greater than a predetermined threshold value. The determination unit functions to determine whether or not the evaluation value of the degree of agreement satisfies a predetermined condition.

評価値が所定閾値以上であると判定部により判定されたとき、画像加工部は、第1正面画像に基づいて第2正面画像を加工することができる。 When the determination unit determines that the evaluation value is equal to or higher than a predetermined threshold value, the image processing unit can process the second front image based on the first front image.

このような実施形態によれば、第1正面画像と一致度が高い第2正面画像を特定し、更に、横方向分解能が比較的高い第1正面画像(例:SLO画像)を利用して、横方向分解能が比較的低い第2正面画像(例:OCT正面画像)を加工することができる。 According to such an embodiment, the second front image having a high degree of coincidence with the first front image is specified, and further, the first front image (eg, SLO image) having a relatively high lateral resolution is used. It is possible to process a second front image (eg, OCT front image) having a relatively low lateral resolution.

実施形態において、正面画像作成部は、3次元画像取得部により取得された3次元画像から、深さ領域が異なる複数の第2正面画像を作成することができる。この場合、評価部は、正面画像作成部により作成された複数の第2正面画像のそれぞれと、正面画像取得部により取得された第1正面画像との間の一致度を評価することができる。 In the embodiment, the front image creating unit can create a plurality of second front images having different depth regions from the three-dimensional image acquired by the three-dimensional image acquisition unit. In this case, the evaluation unit can evaluate the degree of agreement between each of the plurality of second front images created by the front image creation unit and the first front image acquired by the front image acquisition unit.

このような実施形態によれば、様々な深さ領域を表す複数の第2正面画像のそれぞれと、第1正面画像との間の一致の度合を把握することができる。 According to such an embodiment, it is possible to grasp the degree of agreement between each of the plurality of second front images representing various depth regions and the first front image.

更に、実施形態に係る眼科撮影装置は、第1選択部を含んでよい。第1選択部は、正面画像作成部により3次元画像から作成された複数の第2正面画像について評価部により求められた複数の評価値に基づいて、複数の第2正面画像のうちのいずれかを選択するように構成される。上記の実施形態では、第1選択部は、選択部227を含み、正面画像作成部221により作成された複数のOCT正面画像について評価部223により求められた複数の評価値に基づいて、複数のOCT正面画像のうちのいずれかを選択する。 Further, the ophthalmologic imaging apparatus according to the embodiment may include a first selection unit. The first selection unit is one of a plurality of second front images based on a plurality of evaluation values obtained by the evaluation unit for the plurality of second front images created from the three-dimensional images by the front image creation unit. Is configured to select. In the above embodiment, the first selection unit includes the selection unit 227, and a plurality of OCT front images created by the front image creation unit 221 based on a plurality of evaluation values obtained by the evaluation unit 223. Select one of the OCT front images.

このような実施形態によれば、様々な深さ領域を表す複数の第2正面画像のうちから、第1正面画像との間の一致の度合が高い第2正面画像を自動で選択することができる。 According to such an embodiment, it is possible to automatically select a second front image having a high degree of agreement with the first front image from a plurality of second front images representing various depth regions. it can.

実施形態において、正面画像作成部は、セグメンテーション部と、投影処理部とを含んでよい。 In the embodiment, the front image creating unit may include a segmentation unit and a projection processing unit.

セグメンテーション部は、3次元画像取得部により取得された3次元画像にセグメンテーションを施して層領域を特定する。上記の実施形態では、セグメンテーション部は、セグメンテーション部2211を含み、OCT画像形成部212により形成された3次元画像にセグメンテーションを施して、眼底Efの層領域を特定する。 The segmentation unit performs segmentation on the three-dimensional image acquired by the three-dimensional image acquisition unit to specify the layer region. In the above embodiment, the segmentation section includes the segmentation section 2211, and the three-dimensional image formed by the OCT image forming section 212 is segmented to specify the layer region of the fundus Ef.

投影処理部は、セグメンテーション部により特定された層領域を所定方向に投影することで第2正面画像を作成する。上記の実施形態では、投影処理部は、投影処理部2212を含み、セグメンテーション部2211により特定された層領域を所定方向(例:Z方向)に投影することによってOCT正面画像を作成する。 The projection processing unit creates a second front image by projecting the layer region specified by the segmentation unit in a predetermined direction. In the above embodiment, the projection processing unit includes the projection processing unit 2212 and creates an OCT front image by projecting the layer region specified by the segmentation unit 2211 in a predetermined direction (eg, Z direction).

このような実施形態によれば、所望の層領域(所望の組織)を表現した第2正面画像を取得することができる。 According to such an embodiment, it is possible to obtain a second front image representing a desired layer region (desired structure).

実施形態において、眼科撮影装置は、第1レジストレーション部を更に含んでよい。第1レジストレーション部は、第1正面画像と第2正面画像との間の位置合わせを行う。上記の実施形態では、第1レジストレーション部は、レジストレーション部222を含み、SLO画像形成部211により形成されたSLO画像と、正面画像作成部221により3次元画像から作成されたOCT正面画像との間の位置合わせを行う。 In embodiments, the ophthalmologic imaging apparatus may further include a first registration section. The first registration unit aligns between the first front image and the second front image. In the above embodiment, the first registration unit includes the registration unit 222, the SLO image formed by the SLO image forming unit 211, and the OCT front image created from the three-dimensional image by the front image creating unit 221. Align between.

評価部は、第1レジストレーション部により位置合わせがなされた第1正面画像と第2正面画像との間の一致度を評価することができる。 The evaluation unit can evaluate the degree of agreement between the first front image and the second front image aligned by the first registration unit.

このような実施形態によれば、位置合わせがなされた第1正面画像と第2正面画像との間の一致の度合を評価できるので、第1正面画像と第2正面画像との間の位置ズレが一致度の評価に与える影響を小さくすることが可能である。それにより、第1正面画像に描出されている組織と第2正面画像に描出されている組織との間の一致度を、より高い確度・より高い精度で評価することができる。 According to such an embodiment, the degree of coincidence between the aligned first front image and the second front image can be evaluated, so that the positional deviation between the first front image and the second front image can be evaluated. Can reduce the effect of on the evaluation of the degree of agreement. Thereby, the degree of agreement between the tissue depicted in the first front image and the tissue depicted in the second front image can be evaluated with higher accuracy and higher accuracy.

実施形態において、第1レジストレーション部は、特徴点検出部を含んでよい。特徴点検出部は、第1正面画像を解析して第1特徴点群を検出し、且つ、第2正面画像を解析して第2特徴点群を検出する。上記の実施形態では、特徴点検出部は、特徴点検出部2222を含み、SLO画像を解析して第1特徴点群を検出し、且つ、OCT正面画像を解析して第2特徴点群を検出する。 In the embodiment, the first registration unit may include a feature point detection unit. The feature point detection unit analyzes the first front image to detect the first feature point group, and analyzes the second front image to detect the second feature point group. In the above embodiment, the feature point detection unit includes the feature point detection unit 2222, analyzes the SLO image to detect the first feature point group, and analyzes the OCT front image to obtain the second feature point group. To detect.

更に、第1レジストレーション部は、特徴点検出部により検出された第1特徴点群及び第2特徴点群に基づいて、第1正面画像と第2正面画像との間の位置合わせを行うことができる。 Further, the first registration unit aligns the first front image and the second front image based on the first feature point group and the second feature point group detected by the feature point detection unit. Can be done.

このような実施形態によれば、画像中の特徴点を利用することで、第1正面画像と第2正面画像との位置合わせを高確度・高精度で行うことができる。 According to such an embodiment, by using the feature points in the image, the positioning of the first front image and the second front image can be performed with high accuracy and high accuracy.

実施形態において、第1レジストレーション部は、前処理部を含んでよい。前処理部は、特徴点検出部に入力される第1正面画像及び第2正面画像の少なくとも一方に、ガンマ曲線補正、シグモイド曲線補正、輝度補正、ガウシアンフィルタ、及びメディアンフィルタのうちの少なくとも1つを含む前処理を施す。上記の実施形態では、前処理部は、前処理部2221を含み、特徴点検出部2222に入力されるSLO画像及びOCT正面画像の少なくとも一方に、ガンマ曲線補正、シグモイド曲線補正、輝度補正、ガウシアンフィルタ、及びメディアンフィルタのうちの少なくとも1つを含む前処理を施す。 In the embodiment, the first registration unit may include a pretreatment unit. The preprocessing unit has at least one of a gamma curve correction, a sigmoid curve correction, a luminance correction, a Gaussian filter, and a median filter on at least one of the first front image and the second front image input to the feature point detection unit. Perform pretreatment including. In the above embodiment, the preprocessing unit includes the preprocessing unit 2221, and the Gamma curve correction, the sigmoid curve correction, the brightness correction, and the Gaussian are applied to at least one of the SLO image and the OCT front image input to the feature point detection unit 2222. Pretreatment is performed including at least one of a filter and a median filter.

特徴点検出部は、第1正面画像にエッジ検出を施して第1特徴点群を検出し、且つ、第2正面画像にエッジ検出を施して第2特徴点群を検出することができる。 The feature point detection unit can perform edge detection on the first front image to detect the first feature point group, and perform edge detection on the second front image to detect the second feature point group.

このような実施形態によれば、エッジ検出と、これを好適に行うための前処理とを介して、特徴点を検出することができる。それにより、第1正面画像と第2正面画像との位置合わせをより高い確度・より高い精度で行うことができる。 According to such an embodiment, feature points can be detected through edge detection and pretreatment for preferably performing this. As a result, the alignment between the first front image and the second front image can be performed with higher accuracy and higher accuracy.

実施形態において、眼科撮影装置は、第2レジストレーション部を更に含んでよい。第2レジストレーション部は、正面画像取得部により取得された第1正面画像と、3次元画像取得部により取得された3次元画像との間の位置合わせを行うように構成される。上記の実施形態では、第2レジストレーション部は、レジストレーション部228を含み、SLO画像形成部211により形成された第1正面画像と、OCT画像形成部212により形成された3次元画像との間の位置合わせを行う。 In embodiments, the ophthalmologic imaging apparatus may further include a second registration section. The second registration unit is configured to align the first front image acquired by the front image acquisition unit with the three-dimensional image acquired by the three-dimensional image acquisition unit. In the above embodiment, the second registration unit includes the registration unit 228, and is between the first front image formed by the SLO image forming unit 211 and the three-dimensional image formed by the OCT image forming unit 212. Align.

評価部は、第2レジストレーション部により実行された位置合わせの結果に基づいて、第1正面画像と第2正面画像との間の一致度を評価することができる。 The evaluation unit can evaluate the degree of agreement between the first front image and the second front image based on the result of the alignment performed by the second registration unit.

このような実施形態によれば、第1正面画像と3次元画像との間の位置合わせの結果を利用して、第1正面画像と、3次元画像から作成された第2正面画像との位置合わせを行うことができる。それにより、位置合わせがなされた第1正面画像と第2正面画像との間の一致の度合を評価できる。したがって、第1正面画像と第2正面画像との間の位置ズレが一致度の評価に与える影響を小さくすることが可能である。よって、第1正面画像に描出されている組織と第2正面画像に描出されている組織との間の一致度を、より高い確度・より高い精度で評価することができる。 According to such an embodiment, the position of the first front image and the second front image created from the three-dimensional image is used by utilizing the result of the alignment between the first front image and the three-dimensional image. You can make adjustments. Thereby, the degree of matching between the aligned first front image and the second front image can be evaluated. Therefore, it is possible to reduce the influence of the positional deviation between the first front image and the second front image on the evaluation of the degree of agreement. Therefore, the degree of coincidence between the tissue depicted in the first front image and the tissue depicted in the second front image can be evaluated with higher accuracy and higher accuracy.

実施形態において、正面画像取得部は、異なる波長帯に対応する2以上の第1正面画像を取得することができる。この場合、評価部は、2以上の第1正面画像のそれぞれと第2正面画像との間の一致度を評価することができる。 In the embodiment, the front image acquisition unit can acquire two or more first front images corresponding to different wavelength bands. In this case, the evaluation unit can evaluate the degree of agreement between each of the two or more first front images and the second front image.

このような実施形態によれば、様々な波長帯に対応する第1正面画像が取得されたときに、これら第1正面画像のそれぞれについて、第2正面画像との一致の度合を評価することができる。それにより、様々な波長帯に対応する第1正面画像(例:SLO画像)のそれぞれについて、第2正面画像(例:OCT正面画像)との間の一致の度合を評価することができる。それにより、第1正面画像と第2正面画像との間の関係を把握したり、これらの間の対応付けを行ったり、双方を用いた画像処理や解析処理を行ったりすることが可能となる。 According to such an embodiment, when the first front image corresponding to various wavelength bands is acquired, the degree of matching with the second front image can be evaluated for each of the first front images. it can. Thereby, the degree of agreement between the first front image (eg, SLO image) corresponding to various wavelength bands and the second front image (eg, OCT front image) can be evaluated. As a result, it is possible to grasp the relationship between the first front image and the second front image, to associate them with each other, and to perform image processing and analysis processing using both of them. ..

実施形態において、正面画像取得部は、異なる波長帯に対応する2以上の第1正面画像を取得することができる。この場合、正面画像作成部は、3次元画像取得部により取得された3次元画像から、深さ領域が異なる複数の第2正面画像を作成することができる。更に、評価部は、異なる波長帯に対応する2以上の第1正面画像のそれぞれについて、正面画像作成部により作成された複数の第2正面画像のうちの少なくとも一部との間の一致度を評価することができる。 In the embodiment, the front image acquisition unit can acquire two or more first front images corresponding to different wavelength bands. In this case, the front image creating unit can create a plurality of second front images having different depth regions from the three-dimensional image acquired by the three-dimensional image acquisition unit. Further, the evaluation unit determines the degree of agreement between each of the two or more first front images corresponding to different wavelength bands with at least a part of the plurality of second front images created by the front image creation unit. Can be evaluated.

この場合、眼科撮影装置は、第2選択部を含んでよい。第2選択部は、評価部により求められた評価値に基づいて、異なる波長帯に対応する2以上の第1正面画像のそれぞれに対応する第2正面画像を選択するように構成される。上記の実施形態では、第2選択部は、選択部229を含み、評価部223により求められた評価値に基づいて、異なる波長帯に対応する2以上のSLO画像のそれぞれに対応するOCT正面画像を選択する。 In this case, the ophthalmologic imaging apparatus may include a second selection unit. The second selection unit is configured to select a second front image corresponding to each of the two or more first front images corresponding to different wavelength bands based on the evaluation value obtained by the evaluation unit. In the above embodiment, the second selection unit includes the selection unit 229, and the OCT front image corresponding to each of the two or more SLO images corresponding to different wavelength bands based on the evaluation value obtained by the evaluation unit 223. Select.

このような実施形態によれば、様々な波長帯に対応する第1正面画像が取得されたときに、これら第1正面画像のそれぞれについて、この第1正面画像の波長帯に対応する深さ領域の第2正面画像を特定することができる。それにより、同様の組織を描出している第第1正面画像(例:SLO画像)と第2正面画像(例:OCT正面画像)とを用いた診断や画像処理や解析処理を行うことが可能となる。 According to such an embodiment, when the first front image corresponding to various wavelength bands is acquired, for each of these first front images, the depth region corresponding to the wavelength band of the first front image is obtained. The second front image of the above can be specified. Thereby, it is possible to perform diagnosis, image processing, and analysis processing using the first front image (example: SLO image) and the second front image (example: OCT front image) that depict the same tissue. It becomes.

<他の実施形態・変形例>
以上に示された実施形態は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。以下、他の実施形態や変形例について説明する。なお、上記の実施形態に含まれる任意の構成や機能を、以下に説明する例に組み合わせることが可能である。
<Other Embodiments / Modifications>
The embodiments shown above are merely examples for carrying out the present invention. A person who intends to carry out the present invention can make arbitrary modifications, omissions, additions, etc. within the scope of the gist of the present invention. Hereinafter, other embodiments and modifications will be described. It should be noted that any configuration or function included in the above embodiment can be combined with the examples described below.

上記の実施形態に係る眼科撮影装置は、被検眼を撮影して第1正面画像を取得する正面画像取得部と、被検眼をスキャンして3次元画像を取得する3次元画像取得部との双方を含んでいる。しかし、実施形態はこれに限定されない。 The ophthalmologic imaging apparatus according to the above embodiment has both a front image acquisition unit that photographs the eye to be inspected and acquires a first front image, and a three-dimensional image acquisition unit that scans the eye to be inspected and acquires a three-dimensional image. Includes. However, the embodiment is not limited to this.

例えば、他の実施形態に係る眼科撮影装置は、正面画像取得部と、3次元画像受付部と、正面画像作成部と、評価部とを含む。 For example, the ophthalmologic imaging apparatus according to another embodiment includes a front image acquisition unit, a three-dimensional image reception unit, a front image creation unit, and an evaluation unit.

正面画像作成部は、上記実施形態と同様に、被検眼を撮影して第1正面画像を取得するように構成される。 The front image creating unit is configured to take an image of the eye to be inspected and acquire a first front image, as in the above embodiment.

3次元画像受付部は、上記実施形態の3次元画像取得部と異なり、被検眼の3次元画像を外部から受け付けるように構成される。3次元画像受付部の典型的な例は、通信回線を介して3次元画像を受信するための通信インターフェイス、又は、記録媒体に記録された3次元画像を読み出すためのインターフェイスである。 Unlike the 3D image acquisition unit of the above embodiment, the 3D image receiving unit is configured to receive a 3D image of the eye to be inspected from the outside. A typical example of the 3D image receiving unit is a communication interface for receiving a 3D image via a communication line, or an interface for reading a 3D image recorded on a recording medium.

正面画像作成部は、3次元画像受付部により受け付けられた3次元画像から第2正面画像を作成するように構成される。正面画像作成部は、上記の実施形態と同様に構成されてよい。 The front image creating unit is configured to create a second front image from the three-dimensional image received by the three-dimensional image receiving unit. The front image creating unit may be configured in the same manner as in the above embodiment.

評価部は、上記の実施形態と同様に、第1正面画像と第2正面画像との間の一致度を評価するように構成される。 The evaluation unit is configured to evaluate the degree of agreement between the first front image and the second front image, as in the above embodiment.

このような実施形態に係る眼科撮影装置は、典型的には、上記の実施形態の構成要素からOCT光学系140とOCT画像形成部212とを削除し、且つ、3次元画像受付部(上記のインターフェイス等)を付加したものである。この実施形態に係る眼科撮影装置は、例えば、OCT機能や超音波撮影機能を備えない眼科撮影装置であって、典型的にはSLO、眼底カメラ、スリットランプ顕微鏡、手術用顕微鏡などのモダリティである。 The ophthalmologic imaging apparatus according to such an embodiment typically removes the OCT optical system 140 and the OCT image forming unit 212 from the components of the above embodiment, and has a three-dimensional image receiving unit (the above-mentioned). An interface, etc.) is added. The ophthalmologic imaging apparatus according to this embodiment is, for example, an ophthalmologic imaging apparatus that does not have an OCT function or an ultrasonic imaging function, and is typically a modality such as an SLO, a fundus camera, a slit lamp microscope, or a surgical microscope. ..

このような実施形態によれば、横方向分解能が比較的高い第1正面画像と、横方向分解能が比較的低い第2正面画像との間の一致の度合を評価することができる。それにより、第1正面画像と第2正面画像との間の関係を把握したり、これらの間の対応付けを行ったり、双方を用いた画像処理や解析処理を行ったりすることが可能となる。 According to such an embodiment, it is possible to evaluate the degree of matching between the first front image having a relatively high lateral resolution and the second front image having a relatively low lateral resolution. As a result, it is possible to grasp the relationship between the first front image and the second front image, to associate them with each other, and to perform image processing and analysis processing using both of them. ..

更に他の実施形態に係る眼科撮影装置は、正面画像受付部と、3次元画像取得部と、正面画像作成部と、評価部とを含む。 The ophthalmologic imaging apparatus according to still another embodiment includes a front image receiving unit, a three-dimensional image acquisition unit, a front image creating unit, and an evaluation unit.

正面画像受付部は、上記実施形態の正面画像取得部と異なり、被検眼の第1正面画像を外部から受け付けるように構成される。正面画像受付部の典型的な例は、通信回線を介して3次元画像を受信するための通信インターフェイス、又は、記録媒体に記録された3次元画像を読み出すためのインターフェイスである。 Unlike the front image acquisition unit of the above embodiment, the front image receiving unit is configured to receive the first front image of the eye to be inspected from the outside. A typical example of the front image receiving unit is a communication interface for receiving a three-dimensional image via a communication line, or an interface for reading a three-dimensional image recorded on a recording medium.

3次元画像作成部は、上記実施形態と同様に、被検眼をスキャンして3次元画像を取得するように構成される。 The three-dimensional image creating unit is configured to scan the eye to be inspected and acquire a three-dimensional image, as in the above embodiment.

正面画像作成部は、上記実施形態と同様に、3次元画像取得部により取得された3次元画像から第2正面画像を作成するように構成される。 The front image creating unit is configured to create a second front image from the three-dimensional image acquired by the three-dimensional image acquisition unit, as in the above embodiment.

評価部は、上記の実施形態と同様に、第1正面画像と第2正面画像との間の一致度を評価するように構成される。 The evaluation unit is configured to evaluate the degree of agreement between the first front image and the second front image, as in the above embodiment.

このような実施形態に係る眼科撮影装置は、典型的には、上記の実施形態の構成要素からSLO光学系130とSLO画像形成部211とを削除し、且つ、正面画像受付部(上記のインターフェイス等)を付加したものである。この実施形態に係る眼科撮影装置は、例えば、SLO、眼底カメラ、スリットランプ顕微鏡、手術用顕微鏡などとしての機能を備えない眼科撮影装置であって、典型的には3次元スキャンを実行可能な光干渉断層計である。 The ophthalmologic imaging apparatus according to such an embodiment typically removes the SLO optical system 130 and the SLO image forming unit 211 from the components of the above embodiment, and also removes the front image receiving unit (the above interface). Etc.) are added. The ophthalmologic imaging apparatus according to this embodiment is, for example, an ophthalmologic imaging apparatus having no function as an SLO, a fundus camera, a slit lamp microscope, a surgical microscope, or the like, and is typically a light capable of performing a three-dimensional scan. It is an interference tomography.

このような実施形態によれば、横方向分解能が比較的高い第1正面画像と、横方向分解能が比較的低い第2正面画像との間の一致の度合を評価することができる。それにより、第1正面画像と第2正面画像との間の関係を把握したり、これらの間の対応付けを行ったり、双方を用いた画像処理や解析処理を行ったりすることが可能となる。 According to such an embodiment, it is possible to evaluate the degree of matching between the first front image having a relatively high lateral resolution and the second front image having a relatively low lateral resolution. As a result, it is possible to grasp the relationship between the first front image and the second front image, to associate them with each other, and to perform image processing and analysis processing using both of them. ..

実施形態は、眼科撮影装置に限定されず、正面画像取得部及び3次元画像取得部の双方を含まない情報処理装置(眼科画像処理装置)であってよい。実施形態に係る眼科画像処理装置は、画像受付部と、正面画像作成部と、評価部とを含む。 The embodiment is not limited to the ophthalmologic imaging apparatus, and may be an information processing apparatus (ophthalmic image processing apparatus) that does not include both the front image acquisition unit and the three-dimensional image acquisition unit. The ophthalmic image processing apparatus according to the embodiment includes an image receiving unit, a front image creating unit, and an evaluation unit.

画像受付部は、被検眼の第1正面画像及び3次元画像を受け付ける。画像受付部の典型的な例は、通信回線を介して第1正面画像及び3次元画像を受信するための通信インターフェイス、又は、記録媒体に記録された第1正面画像及び3次元画像を読み出すためのインターフェイスである。 The image receiving unit receives the first front image and the three-dimensional image of the eye to be inspected. A typical example of an image receiving unit is a communication interface for receiving a first front image and a three-dimensional image via a communication line, or for reading a first front image and a three-dimensional image recorded on a recording medium. Interface.

正面画像作成部は、上記の実施形態と同様に、3次元画像から第2正面画像を作成するように構成される。 The front image creating unit is configured to create a second front image from the three-dimensional image, as in the above embodiment.

評価部は、上記の実施形態と同様に、第1正面画像と第2正面画像との間の一致度を評価するように構成される。 The evaluation unit is configured to evaluate the degree of agreement between the first front image and the second front image, as in the above embodiment.

このような実施形態に係る眼科画像処理装置は、典型的には、上記の実施形態の構成要素から光学系100と光学系移動機構100Aと画像形成部210とを削除し、且つ、画像受付部(上記のインターフェイス等)を付加したものである。この実施形態に係る眼科画像処理装置は、例えば、医療機関に設置された情報処理装置(サーバー、コンピュータ端末など)、クラウドサーバー、モバイルコンピュータなどであってよい。 The ophthalmologic image processing apparatus according to such an embodiment typically removes the optical system 100, the optical system moving mechanism 100A, and the image forming unit 210 from the components of the above-described embodiment, and also removes the image receiving unit 210. (The above interface, etc.) is added. The ophthalmic image processing device according to this embodiment may be, for example, an information processing device (server, computer terminal, etc.) installed in a medical institution, a cloud server, a mobile computer, or the like.

このような実施形態によれば、横方向分解能が比較的高い第1正面画像と、横方向分解能が比較的低い第2正面画像との間の一致の度合を評価することができる。それにより、第1正面画像と第2正面画像との間の関係を把握したり、これらの間の対応付けを行ったり、双方を用いた画像処理や解析処理を行ったりすることが可能となる。 According to such an embodiment, it is possible to evaluate the degree of matching between the first front image having a relatively high lateral resolution and the second front image having a relatively low lateral resolution. As a result, it is possible to grasp the relationship between the first front image and the second front image, to associate them with each other, and to perform image processing and analysis processing using both of them. ..

100 光学系
130 SLO光学系
140 OCT光学系
211 SLO画像形成部
212 OCT画像形成部
220 データ処理部
221 正面画像作成部
2211 セグメンテーション部
2212 投影処理部
222 レジストレーション部
2221 前処理部
2222 特徴点検出部
2223 位置合わせ部
223 評価部
224 画像加工部
225 画像特定部
226 判定部
227 選択部
228 レジストレーション部
229 選択部

100 Optical system 130 SLO optical system 140 OCT optical system 211 SLO image forming unit 212 OCT image forming unit 220 Data processing unit 221 Front image creating unit 2211 Segmentation unit 2212 Projection processing unit 222 Registration unit 2221 Preprocessing unit 2222 Feature point detection unit 2223 Alignment unit 223 Evaluation unit 224 Image processing unit 225 Image identification unit 226 Judgment unit 227 Selection unit 228 Registration unit 229 Selection unit

Claims (2)

被検眼を撮影して第1正面画像を取得する正面画像取得部と、
前記被検眼をスキャンして3次元画像を取得する3次元画像取得部と、
前記3次元画像から第2正面画像を作成する正面画像作成部と、
前記第1正面画像と前記第2正面画像との間の一致度を評価する評価部と
前記評価部により求められた前記一致度の評価値が所定条件を満足するときに、前記第1正面画像に基づいて前記第2正面画像を加工する画像加工部と
を含み、
前記画像加工部は、前記第1正面画像の一部を前記第2正面画像に埋め込む
ことを特徴とする眼科撮影装置。
A front image acquisition unit that captures the eye to be inspected and acquires the first front image,
A three-dimensional image acquisition unit that scans the eye to be inspected and acquires a three-dimensional image,
A front image creation unit that creates a second front image from the three-dimensional image,
An evaluation unit that evaluates the degree of agreement between the first front image and the second front image ,
When the evaluation value of the degree of matching calculated by the evaluation unit satisfies a predetermined condition, see contains an image processing unit for processing the second front image based on the first front image,
The image processing unit embeds a part of the first front image in the second front image.
An ophthalmologic imaging device characterized by this.
被検眼を撮影して第1正面画像を取得する正面画像取得部と、
前記被検眼をスキャンして3次元画像を取得する3次元画像取得部と、
前記3次元画像から第2正面画像を作成する正面画像作成部と、
前記第1正面画像と前記第2正面画像との間の一致度を評価する評価部と
前記評価部により求められた前記一致度の評価値が所定条件を満足するときに、前記第1正面画像に基づいて前記第2正面画像を加工する画像加工部と
を含み、
前記画像加工部は、前記第1正面画像に基づいて前記第2正面画像の画素値を変更する
ことを特徴とする眼科撮影装置。
A front image acquisition unit that captures the eye to be inspected and acquires the first front image,
A three-dimensional image acquisition unit that scans the eye to be inspected and acquires a three-dimensional image,
A front image creation unit that creates a second front image from the three-dimensional image,
An evaluation unit that evaluates the degree of agreement between the first front image and the second front image ,
When the evaluation value of the degree of matching calculated by the evaluation unit satisfies a predetermined condition, see contains an image processing unit for processing the second front image based on the first front image,
The image processing unit changes the pixel value of the second front image based on the first front image.
An ophthalmologic imaging device characterized by this.
JP2017034678A 2017-02-27 2017-02-27 Ophthalmologic imaging equipment Active JP6853690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017034678A JP6853690B2 (en) 2017-02-27 2017-02-27 Ophthalmologic imaging equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034678A JP6853690B2 (en) 2017-02-27 2017-02-27 Ophthalmologic imaging equipment

Publications (2)

Publication Number Publication Date
JP2018139717A JP2018139717A (en) 2018-09-13
JP6853690B2 true JP6853690B2 (en) 2021-03-31

Family

ID=63526973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034678A Active JP6853690B2 (en) 2017-02-27 2017-02-27 Ophthalmologic imaging equipment

Country Status (1)

Country Link
JP (1) JP6853690B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7335107B2 (en) * 2019-07-23 2023-08-29 株式会社トプコン Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2021154047A (en) * 2020-03-30 2021-10-07 株式会社ニデック Ophthalmologic image processing device and ophthalmologic image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5085086B2 (en) * 2006-10-04 2012-11-28 株式会社トプコン Fundus observation apparatus, fundus image display apparatus, and program
JP6217185B2 (en) * 2013-07-02 2017-10-25 株式会社ニデック Ophthalmic photographing apparatus and ophthalmic image processing program
JP6402901B2 (en) * 2014-06-30 2018-10-10 株式会社ニデック Optical coherence tomography apparatus, optical coherence tomography calculation method, and optical coherence tomography calculation program
JP6572615B2 (en) * 2015-04-30 2019-09-11 株式会社ニデック Fundus image processing apparatus and fundus image processing program

Also Published As

Publication number Publication date
JP2018139717A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
WO2016027589A1 (en) Ophthalmological imaging device and control method therefor
JP5847510B2 (en) Image processing apparatus and image processing method
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
JP6776076B2 (en) OCT device
US11013400B2 (en) Ophthalmic apparatus
WO2015016291A1 (en) Photography apparatus and photography method
WO2017073412A1 (en) Ophthalmological imaging device
JP2014073207A (en) Ophthalmologic imaging device
US10321819B2 (en) Ophthalmic imaging apparatus
JP6853690B2 (en) Ophthalmologic imaging equipment
JP6756516B2 (en) Ophthalmologic imaging equipment
JP6452977B2 (en) Ophthalmic imaging apparatus and control method thereof
JP6901264B2 (en) Ophthalmic equipment
US20220414845A1 (en) Ophthalmic apparatus, method of controlling the same, and recording medium
JP2017195944A (en) Ophthalmologic imaging device
JP2021079013A (en) Medical image processing device, processing method for medical image processing device and program
JP7348334B2 (en) Ophthalmology imaging device
JP2020031873A (en) Ophthalmologic apparatus, control method thereof, program, and recording medium
JP6761519B2 (en) Ophthalmologic imaging equipment
JP6756873B2 (en) Ophthalmologic imaging equipment
JP6557388B2 (en) Ophthalmic imaging equipment
EP3695774A1 (en) Ophthalmic device
WO2021256132A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP6916006B2 (en) Ophthalmic equipment
JP2023017402A (en) Anterior eye part analysis device, anterior eye part analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210312

R150 Certificate of patent or registration of utility model

Ref document number: 6853690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250